JP2010191802A - Information processing system, image display, program, and information storage medium - Google Patents

Information processing system, image display, program, and information storage medium Download PDF

Info

Publication number
JP2010191802A
JP2010191802A JP2009036864A JP2009036864A JP2010191802A JP 2010191802 A JP2010191802 A JP 2010191802A JP 2009036864 A JP2009036864 A JP 2009036864A JP 2009036864 A JP2009036864 A JP 2009036864A JP 2010191802 A JP2010191802 A JP 2010191802A
Authority
JP
Japan
Prior art keywords
user
content
unit
information
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009036864A
Other languages
Japanese (ja)
Inventor
Isato Fujigaki
勇人 藤垣
Miho Kameyama
未帆 亀山
Ryohei Sugihara
良平 杉原
Seiji Tatsuta
成示 龍田
Yoichi Iba
陽一 井場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009036864A priority Critical patent/JP2010191802A/en
Publication of JP2010191802A publication Critical patent/JP2010191802A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing system, or the like for presenting content reflecting a user's selection history in each user situation. <P>SOLUTION: The information processing system includes: a user recognition section for recognizing a user; a selection history information storage section for storing selection history information of the genre of content selected by the user in association with a user situation, namely at least one of time, a location where the user stays, and the user's state; and a content selection section for reading the selection history information associated with each user situation of a recognized user, based on the user's recognition result and user situation from the selection history information storage section when the user recognition section recognizes the user, and selecting presentation content to the user from among a plurality of pieces of content, based on the read selection history information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報処理システム、画像表示装置、プログラム及び情報記憶媒体等に関する。   The present invention relates to an information processing system, an image display device, a program, an information storage medium, and the like.

従来より、ユーザの行動予定情報や場所情報を取得し、取得された情報に基づいてコンテンツを選択してユーザに提示する情報処理システムが知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, an information processing system that acquires user action schedule information and location information, selects content based on the acquired information, and presents the content to the user is known (for example, Patent Document 1).

しかしながら、この情報処理システムでは、ユーザが各状況において、コンテンツに関してどのような選択動作を行ったかについては、システムは記憶していなかった。このため、ユーザの選択履歴に応じた適切なコンテンツをユーザに提示できないという課題があった。   However, in this information processing system, the system does not store what selection operation the user has performed on the content in each situation. For this reason, there existed a subject that an appropriate content according to a user's selection history cannot be shown to a user.

特開2003−308407号公報JP 2003-308407 A

本発明の幾つかの態様によれば、各ユーザ状況におけるユーザの選択履歴を反映したコンテンツの提示を可能にする情報処理システム、画像表示装置、プログラム及び情報記憶媒体を提供できる。   According to some aspects of the present invention, it is possible to provide an information processing system, an image display device, a program, and an information storage medium that enable presentation of content reflecting a user's selection history in each user situation.

本発明の一態様は、ユーザを認識するユーザ認識部と、ユーザが選択したコンテンツのジャンルの選択履歴情報を、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけて記憶する選択履歴情報記憶部と、前記ユーザ認識部によりユーザが認識された場合に、ユーザの認識結果とユーザ状況に基づいて、認識されたユーザの各ユーザ状況に関連づけられた前記選択履歴情報を、前記選択履歴情報記憶部から読み出し、読み出された前記選択履歴情報に基づいて、複数のコンテンツの中からユーザへの提示コンテンツを選択するコンテンツ選択部とを含む情報処理システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one embodiment of the present invention, a user recognition unit that recognizes a user and selection history information on a genre of content selected by the user are associated with a user situation that is at least one of time, a place where the user stays, and a user's state. And when the user is recognized by the user recognition unit, the selection history information associated with each user status of the recognized user based on the user recognition result and the user status. Is related to an information processing system including a content selection unit that selects content to be presented to the user from a plurality of contents based on the read selection history information. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様では、ユーザにより選択されたコンテンツのジャンルの選択履歴情報が、そのときのユーザ状況に関連づけて記憶される。そしてユーザ認識部によりユーザが認識されると、認識されたユーザの各ユーザ状況に関連づけられた選択履歴情報が読み出され、読み出された選択履歴情報に基づいてユーザへの提示コンテンツが選択される。このようにすれば、認識されたユーザの各ユーザ状況において、そのユーザ状況に関連づけられた選択履歴情報に基づいて、コンテンツが選択されて、ユーザに提示される。従って、各ユーザ状況におけるユーザの選択履歴を反映したコンテンツの提示が可能になる。   In one aspect of the present invention, the selection history information of the genre of the content selected by the user is stored in association with the user situation at that time. When the user is recognized by the user recognition unit, the selection history information associated with each user status of the recognized user is read, and the content to be presented to the user is selected based on the read selection history information. The In this way, in each user situation of the recognized user, the content is selected based on the selection history information associated with the user situation and presented to the user. Accordingly, it is possible to present content reflecting the user's selection history in each user situation.

また本発明の一態様では、前記選択履歴情報記憶部は、第1〜第Nのユーザ状況の各ユーザ状況に対して、ジャンルの選択についての第1〜第Nの確率分布情報の各確率分布情報を関連づけて記憶し、前記コンテンツ選択部は、認識されたユーザのユーザ状況が、前記第1〜第Nのユーザ状況のうちの第Kのユーザ状況である場合(1≦K≦N)には、前記第Kのユーザ状況に関連づけられた第Kの確率分布情報を前記選択履歴情報記憶部から読み出し、読み出された前記第Kの確率分布情報にしたがった確率でジャンルを選択し、選択されたジャンルに対応するコンテンツを、前記提示コンテンツとして選択してもよい。   Moreover, in one aspect of the present invention, the selection history information storage unit has each probability distribution of the first to Nth probability distribution information for selecting a genre for each user situation of the first to Nth user situations. When the user status of the recognized user is the Kth user status among the first to Nth user statuses (1 ≦ K ≦ N), the information is stored in association with each other. Reads out the Kth probability distribution information associated with the Kth user situation from the selection history information storage unit, selects a genre with the probability according to the read out Kth probability distribution information, and selects Content corresponding to the selected genre may be selected as the presented content.

このようにすれば、ユーザ状況が第Kのユーザ状況である場合に、その第Kのユーザ状況に関連づけられた第Kの確率分布情報にしたがった確率でジャンルが選択され、対応するコンテンツが提示されるようになる。   In this way, when the user situation is the Kth user situation, the genre is selected with the probability according to the Kth probability distribution information associated with the Kth user situation, and the corresponding content is presented. Will come to be.

また本発明の一態様では、前記選択履歴情報記憶部は、複数のユーザの各ユーザ毎に前記第1〜第Nの確率分布情報を記憶し、前記コンテンツ選択部は、認識されたユーザに対応する前記第1〜第Nの確率分布情報を前記選択履歴情報記憶部から読み出して、前記提示コンテンツを選択してもよい。   In one aspect of the present invention, the selection history information storage unit stores the first to Nth probability distribution information for each of a plurality of users, and the content selection unit corresponds to a recognized user. The first to Nth probability distribution information to be read may be read from the selection history information storage unit to select the presented content.

このようにすれば、ユーザ毎に異なる確率分布情報にしたがって提示コンテンツが選択されるようになり、各ユーザに応じた最適なコンテンツの提示が可能になる。   In this way, the presented content is selected according to the probability distribution information that is different for each user, and the optimum content according to each user can be presented.

また本発明の一態様では、前記第1〜第Nの確率分布情報の各確率分布情報は、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた確率分布テーブルであってもよい。   In the aspect of the invention, each probability distribution information of the first to Nth probability distribution information may be a probability distribution table in which selection frequencies of each genre are associated with each genre of a plurality of genres. Good.

このような確率分布テーブルを用いれば、確率分布情報に基づくジャンルの選択処理や確率分布情報の更新処理を簡素化できる。   By using such a probability distribution table, the genre selection process based on the probability distribution information and the update process of the probability distribution information can be simplified.

また本発明の一態様では、第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づいて、前記第Kの確率分布情報を補正する補正部を含み、前記コンテンツ選択部は、補正後の前記第Kの確率分布情報にしたがった確率でジャンルを選択して、提示コンテンツを選択してもよい。   According to another aspect of the present invention, the content selection unit includes a correction unit that corrects the Kth probability distribution information based on at least one of the K−1th probability distribution information and the K + 1th probability distribution information. The presentation content may be selected by selecting a genre with a probability according to the corrected Kth probability distribution information.

このようにすれば、第Kのユーザ状況において、第K−1のユーザ状況に関連づけられた第K−1の確率分布情報や、第K+1のユーザ状況に関連づけられた第K+1の確率分布情報を反映させた提示コンテンツの選択が可能になる。   In this way, in the Kth user situation, the (K-1) th probability distribution information associated with the (K-1) th user situation and the (K + 1) th probability distribution information associated with the (K + 1) th user situation are obtained. The reflected presentation content can be selected.

また本発明の一態様では、前記補正部は、補正前の前記第Kの確率分布情報に対して、前記第K−1の確率分布情報及び前記第K+1の確率分布情報の少なくとも一方に基づく重み付け補正を行ってもよい。   In the aspect of the invention, the correction unit may weight the K-th probability distribution information before correction based on at least one of the K-1th probability distribution information and the K + 1-th probability distribution information. Correction may be performed.

このような重み付け補正を行えば、シームレスな提示コンテンツの切り替えが可能になる。   By performing such weighting correction, it is possible to seamlessly switch the presented content.

また本発明の一態様では、前記第1〜第Nのユーザ状況に対応して第1〜第Nのタイムスロットが設定され、前記選択履歴情報記憶部は、前記第1〜第Nのタイムスロットの各タイムスロットに対して、前記第1〜第Nの確率分布情報の各確率分布情報を関連づけて記憶し、前記コンテンツ選択部は、ユーザ状況である時間が、前記第1〜第Nのタイムスロットの第Kのタイムスロットに属する場合には、前記第Kのタイムスロットに関連づけられた前記第Kの確率分布情報を前記選択履歴情報記憶部から読み出して、前記提示コンテンツを選択してもよい。   In one aspect of the present invention, first to Nth time slots are set corresponding to the first to Nth user situations, and the selection history information storage unit includes the first to Nth time slots. Each of the first to N-th probability distribution information is stored in association with each of the time slots, and the content selection unit is configured to store the time corresponding to the user status as the first to N-th times. If the slot belongs to the Kth time slot, the Kth probability distribution information associated with the Kth time slot may be read from the selection history information storage unit to select the presented content. .

このようにすれば、各タイムスロットにおいて、各タイムスロットに関連づけれた確率分布情報にしたがって提示コンテンツを選択して提示できるようになる。   In this way, in each time slot, the presentation content can be selected and presented according to the probability distribution information associated with each time slot.

また本発明の一態様では、第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づいて、前記第Kの確率分布情報を補正する補正部を含み、前記補正部は、前記第Kのタイムスロットの前半期間では、補正前の前記第Kの確率分布情報に対して、第K−1のタイムスロットの前記第K−1の確率分布情報に基づく重み付け補正を行い、前記第Kのタイムスロットの後半期間では、補正前の前記第Kの確率分布情報に対して、第K+1のタイムスロットの前記第K+1の確率分布情報に基づく重み付け補正を行ってもよい。   In one aspect of the present invention, the correction unit includes a correction unit that corrects the Kth probability distribution information based on at least one of the K−1th probability distribution information and the K + 1th probability distribution information, and the correction unit includes: In the first half period of the Kth time slot, the Kth probability distribution information before correction is subjected to weighting correction based on the K-1th probability distribution information of the K-1 time slot, and In the second half period of the Kth time slot, weight correction may be performed on the Kth probability distribution information before correction based on the K + 1th probability distribution information of the (K + 1) th time slot.

このようにすれば、第Kのタイムスロットの前半期間においては第K−1の確率分布情報を反映させたコンテンツの提示が可能になり、第Kのタイムスロットの後半期間においては第K+1の確率分布情報を反映させたコンテンツの提示が可能になる。   In this way, it is possible to present content reflecting the (K−1) th probability distribution information in the first half period of the Kth time slot, and the (K + 1) th probability in the second half period of the Kth time slot. The content reflecting the distribution information can be presented.

また本発明の一態様では、前記選択履歴情報記憶部に記憶される前記選択履歴情報の更新処理を行う情報更新部を含み、前記情報更新部は、ジャンルが異なる複数のコンテンツがユーザに提示され、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、前記選択履歴情報の更新処理を行ってもよい。   According to another aspect of the present invention, the information update unit includes an information update unit that performs an update process of the selection history information stored in the selection history information storage unit, and the information update unit presents a plurality of contents having different genres to the user. When it is determined that the user has performed a selection operation on the presented content, the selection history information update process may be performed.

このようにすれば、各ユーザの選択動作を反映させた選択履歴情報の更新が可能になる。   In this way, it is possible to update the selection history information reflecting the selection operation of each user.

また本発明の一態様では、前記選択履歴情報記憶部は、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた情報を、前記選択履歴情報として記憶し、前記情報更新部は、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、選択動作が行われたコンテンツに対応するジャンルの前記選択頻度を更新してもよい。   In one aspect of the present invention, the selection history information storage unit stores, as the selection history information, information in which a selection frequency of each genre is associated with each genre of a plurality of genres, and the information update unit includes When it is determined that the user has performed a selection operation on the presented content, the selection frequency of the genre corresponding to the content on which the selection operation has been performed may be updated.

このようにすれば、ユーザの選択動作によりジャンルの選択頻度を更新することで、選択履歴情報の更新処理を実現できる。   In this way, the update process of the selection history information can be realized by updating the genre selection frequency by the user's selection operation.

また本発明の一態様では、前記コンテンツ選択部は、前記ユーザ認識部によりユーザが認識されなかった場合には、複数のコンテンツの中からランダムに前記提示コンテンツを選択してもよい。   In the aspect of the present invention, the content selection unit may select the presentation content at random from a plurality of contents when the user is not recognized by the user recognition unit.

このようにすれば、ユーザが認識されなかった場合にも、ランダムに選択されたコンテンツを選択して提示できるようになる。   In this way, even when the user is not recognized, the randomly selected content can be selected and presented.

また本発明の一態様では、前記コンテンツ選択部は、前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行っていないと判断された場合に、認識されたユーザのユーザ状況と前記選択履歴情報とに基づいて、前記提示コンテンツを選択してもよい。   In the aspect of the present invention, the content selection unit may recognize the user when the user recognized by the user recognition unit determines that the selection operation is not performed on the presented content. The presented content may be selected based on the user situation and the selection history information.

このようにすれば、認識されたユーザが選択動作を行っていない場合に、ユーザ状況と選択履歴情報にしたがったコンテンツを選択して提示できるようになり、例えばユーザにコンテンツの選択動作を促すことなどが可能になる。   In this way, when the recognized user is not performing the selection operation, it becomes possible to select and present the content according to the user situation and the selection history information. For example, the user is prompted to select the content. It becomes possible.

また本発明の一態様では、前記コンテンツ選択部は、前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行ったと判断された場合には、ユーザの選択動作時に提示されていたコンテンツのジャンルに属するコンテンツを、前記提示コンテンツとして選択してもよい。   In the aspect of the present invention, the content selection unit may perform the selection operation when the user recognized by the user recognition unit performs a selection operation on the presented content. Content belonging to the genre of the presented content may be selected as the presented content.

このようにすれば、ユーザが興味を持って選択したコンテンツのジャンルに属するコンテンツを提示できるようになる。   In this way, content belonging to the genre of content selected with interest by the user can be presented.

また本発明の一態様では、前記コンテンツ選択部は、コンテンツの画像が表示される表示部をユーザが注視していると判断された場合に、ユーザがコンテンツの選択動作を行っていると判断してもよい。   In the aspect of the invention, the content selection unit may determine that the user is performing a content selection operation when it is determined that the user is watching the display unit on which the content image is displayed. May be.

このようにすれば、ユーザが注視しているか否かに応じて、ユーザがそのコンテンツの選択動作を行っているか否かを判断できるようになる。   In this way, it is possible to determine whether or not the user is selecting the content depending on whether or not the user is gazing.

また本発明の一態様では、前記選択履歴情報記憶部に記憶される前記選択履歴情報の更新処理を行う情報更新部を含み、前記情報更新部は、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、前記選択履歴情報の更新処理を行ってもよい。   According to another aspect of the present invention, the information update unit includes an information update unit that performs an update process on the selection history information stored in the selection history information storage unit, and the information update unit is selected by the user for the presented content. When it is determined that an operation has been performed, the selection history information may be updated.

このようにすれば、各ユーザの選択動作を反映させた選択履歴情報の更新が可能になる。   In this way, it is possible to update the selection history information reflecting the selection operation of each user.

また本発明の一態様では、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報を含む情報に基づいて、ユーザの状況を推定するユーザ状況推定部を含んでもよい。   Moreover, in one aspect of the present invention, based on information including sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment, A user situation estimation unit for estimating the user situation may be included.

このようにすれば行動センサ、状態センサ或いは環境センサからのセンサ情報を含む情報に基づいてユーザの状況を推定し、推定されたユーザ状況に対応する選択履歴情報を読み出して、コンテンツを選択できるようになる。   In this way, it is possible to estimate a user's situation based on information including sensor information from a behavior sensor, a state sensor, or an environment sensor, and to select selection history information corresponding to the estimated user situation and select content. become.

また本発明の他の態様は、画像を表示する表示部と、ユーザを認識するユーザ認識部と、複数のコンテンツの中から選択されたコンテンツの画像を、前記表示部に表示する制御を行う表示制御部とを含み、ユーザが選択したコンテンツのジャンルの選択履歴情報が、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけられており、前記表示制御部は、前記ユーザ認識部によりユーザが認識され、認識されたユーザのユーザ状況に関連づけられた前記選択履歴情報に基づいてコンテンツが選択された場合に、選択されたコンテンツの画像を、前記表示部に表示する制御を行う画像表示装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In another aspect of the present invention, a display for displaying an image, a user recognition unit for recognizing a user, and a display for performing control for displaying an image of content selected from a plurality of contents on the display unit. A selection history information of a genre of content selected by the user is associated with a user situation that is at least one of time, a place where the user stays, and a user state, and the display control unit includes: When a user is recognized by the user recognition unit and content is selected based on the selection history information associated with the user status of the recognized user, an image of the selected content is displayed on the display unit. The present invention relates to an image display device that performs control. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の他の態様によれば、コンテンツのジャンルの選択履歴情報がユーザ状況に関連づけられており、ユーザ認識部によりユーザが認識されると、認識されたユーザの各ユーザ状況に関連づけられた選択履歴情報に基づいてコンテンツが選択されて、コンテンツ画像が表示される。従って、各ユーザ状況におけるユーザの選択履歴を反映したコンテンツ画像の表示が可能になる。   According to another aspect of the present invention, the selection history information of the content genre is associated with the user situation, and when the user is recognized by the user recognition unit, the selection associated with each user situation of the recognized user. A content is selected based on the history information, and a content image is displayed. Therefore, it is possible to display a content image reflecting the user selection history in each user situation.

また本発明の他の態様では、前記表示制御部は、前記ユーザ認識部によりユーザが認識されなかった場合には、複数のコンテンツの中からランダムに選択されたコンテンツの画像を、前記表示部に表示する制御を行ってもよい。   In another aspect of the present invention, the display control unit displays an image of content randomly selected from a plurality of contents on the display unit when the user is not recognized by the user recognition unit. Display control may be performed.

また本発明の他の態様では、前記表示制御部は、前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行っていないと判断された場合に、認識されたユーザのユーザ状況と前記選択履歴情報とに基づき選択されたコンテンツの画像を、前記表示部に表示する制御を行ってもよい。   In another aspect of the present invention, the display control unit is recognized when it is determined that the user recognized by the user recognition unit is not performing a selection operation on the presented content. You may perform control which displays the image of the content selected based on the user's user condition and the selection history information on the display part.

また本発明の他の態様では、前記表示制御部は、前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行ったと判断された場合には、ユーザの選択動作時に提示されていたコンテンツのジャンルに属するコンテンツの画像を、前記表示部に表示する制御を行ってもよい。   In another aspect of the present invention, the display control unit may perform a user selection operation when it is determined that the user recognized by the user recognition unit has performed a selection operation on the presented content. You may perform control which displays the image of the content which belongs to the genre of the content currently shown on the said display part.

また本発明の他の態様では、ユーザが前記表示部を注視しているか否かを判断する注視状態判断部を含み、前記表示制御部は、前記表示部をユーザが注視していると判断された場合に、ユーザの注視時に表示されていたコンテンツのジャンルに属するコンテンツの画像を、前記表示部に表示する制御を行ってもよい。   In another aspect of the present invention, a gaze state determination unit that determines whether or not the user is gazing at the display unit is included, and the display control unit is determined that the user is gazing at the display unit. In such a case, control may be performed to display an image of content belonging to the content genre displayed at the time of user's gaze on the display unit.

また本発明の他の態様では、前記選択履歴情報は、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた情報であり、前記表示部に表示されているコンテンツの画像に対してユーザが選択動作を行ったと判断された場合に、ユーザの選択動作時に表示されていたコンテンツのジャンルの前記選択頻度が更新されてもよい。   In another aspect of the present invention, the selection history information is information in which a selection frequency of each genre is associated with each genre of a plurality of genres, and for the content image displayed on the display unit. When it is determined that the user has performed the selection operation, the selection frequency of the content genre displayed during the user's selection operation may be updated.

図1(A)、図1(B)は本実施形態の手法の説明図。FIG. 1A and FIG. 1B are explanatory diagrams of the method of this embodiment. 本実施形態の情報処理システムの構成例。1 is a configuration example of an information processing system according to an embodiment. 本実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation | movement of this embodiment. タイムスロットを用いたコンテンツ選択手法の説明図。Explanatory drawing of the content selection method using a time slot. 図5(A)、図5(B)は確率分布テーブル、ユーザコンテンツテーブルの例。5A and 5B are examples of a probability distribution table and a user content table. 選択頻度の確率分布(ヒストグラム)の例。Example of probability distribution (histogram) of selection frequency. 図7(A)、図7(B)は確率分布情報の補正手法の説明図。FIGS. 7A and 7B are explanatory diagrams of a technique for correcting probability distribution information. 図8(A)、図8(B)は確率分布情報の補正手法の他の例の説明図。8A and 8B are explanatory diagrams of another example of the probability distribution information correction method. 図9(A)、図9(B)はデジタルフォトフレームの例を示す図。9A and 9B are diagrams illustrating examples of digital photo frames. デジタルフォトフレーム及び情報処理システムの構成例。2 is a configuration example of a digital photo frame and an information processing system. 図11(A)、図11(B)はユーザのアップロード画面やユーザ情報の例。11A and 11B show examples of the user upload screen and user information. 本実施形態の動作を説明するための状態遷移図。The state transition diagram for demonstrating operation | movement of this embodiment. デジタルフォトフレームの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of a digital photo frame. サーバの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of a server.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.ユーザの認識結果及び選択履歴に応じたコンテンツ選択
ユーザに対して適切なコンテンツを提示するためには、ユーザの状況を把握し、ユーザの状況に応じたコンテンツを選択して提示することが望ましい。例えば、会社への出勤前の朝であれば、今日のニュースや天気を知らせるコンテンツを提示し、出勤中であれば、時刻表や交通情報などのコンテンツを提示する。或いはユーザが緊張状態である場合には、緊張をリラックスさせるコンテンツを提示し、ユーザの体調が優れない場合には、ユーザに元気を出させるコンテンツを提示する。
1. Content Selection According to User Recognition Result and Selection History In order to present appropriate content to the user, it is desirable to grasp the user's situation and select and present the content according to the user's situation. For example, if it is morning before going to work, it presents content that informs today's news and weather, and if it is going to work, it presents content such as timetables and traffic information. Alternatively, when the user is in a tension state, the content for relaxing the tension is presented, and when the user's physical condition is not excellent, the content for energizing the user is presented.

しかしながら、このようにユーザの状況に基づいてコンテンツを提示する手法では、提示されるコンテンツが画一的になり単調になってしまうおそれがある。即ち、朝であれば、朝用のコンテンツが常に提示され、昼間であれば昼間用のコンテンツが常に提示されるというように、提示されるコンテンツが画一的になってしまう。   However, in the method of presenting content based on the user's situation in this way, the presented content may be uniform and monotonous. In other words, the morning content is always presented in the morning, and the daytime content is always presented in the daytime, so that the presented content is uniform.

また、ユーザが所望するコンテンツのジャンルは、ユーザに応じて様々である。例えば父親が好むコンテンツのジャンルと、母親や子供が好むコンテンツのジャンルは異なる場合が多い。従って、何らユーザを特定することなく、システム側で用意された画一的なコンテンツを提示してしまうと、各ユーザが実際に所望するコンテンツを提示できず、ユーザが違和感を感じるおそれがある。   Moreover, the genre of the content desired by the user varies depending on the user. For example, the genre of content preferred by fathers and the genre of content preferred by mothers and children are often different. Therefore, if the uniform content prepared on the system side is presented without specifying any user, the content that each user actually desires cannot be presented, and the user may feel uncomfortable.

そこで本実施形態では、ユーザの認識結果及び選択履歴に応じたコンテンツを選択する手法を採用している。   Therefore, in this embodiment, a method of selecting content according to the user recognition result and the selection history is adopted.

即ち本実施形態では、時間、ユーザが滞在する場所及びユーザの状態であるユーザ状況を特定(推定)する。図1(A)では、ユーザUAのユーザ状況が、時間、場所、状態の座標軸で指定されるコンテキストとして表されている。   In other words, in this embodiment, the user situation that is the time, the place where the user stays, and the user status is specified (estimated). In FIG. 1A, the user situation of the user UA is represented as a context designated by the coordinate axes of time, place, and state.

本実施形態では、このような各ユーザ状況でのユーザの選択履歴(選択確率分布)をシステムが記憶する。例えば、ユーザの状況が第1のユーザ状況である場合にユーザが選択したコンテンツ(ジャンル)の選択履歴を、この第1のユーザ状況に関連づけて第1の選択履歴として記憶し、第2のユーザ状況である場合にユーザが選択したコンテンツ(ジャンル)の選択履歴を、第2のユーザ状況に関連づけて第2の選択履歴として記憶する。具体的には、朝(第1のユーザ状況)の場合に選択したコンテンツの選択履歴を、「朝」に関連づけて記憶し、昼間(第2のユーザ状況)の場合に選択したコンテンツの選択履歴を、「昼間」に関連づけて記憶する。或いは、緊張状態(第1のユーザ状況)の場合に選択したコンテンツの選択履歴を、「緊張状態」に関連づけて記憶し、体調不良状態(第2のユーザ状況)の場合に選択したコンテンツの選択履歴を、「体調不良状態」に関連づけて記憶するものである。   In the present embodiment, the system stores the user's selection history (selection probability distribution) in each such user situation. For example, when the user situation is the first user situation, the selection history of the content (genre) selected by the user is stored in association with the first user situation as the first selection history, and the second user The selection history of the content (genre) selected by the user in the case of the situation is stored in association with the second user situation as the second selection history. Specifically, the selection history of the content selected in the morning (first user situation) is stored in association with “morning”, and the selection history of the content selected in the daytime (second user situation). Are stored in association with “daytime”. Alternatively, the selection history of the content selected in the case of the tension state (first user situation) is stored in association with the “tension state”, and the selection of the content selected in the case of the poor physical condition (second user situation) The history is stored in association with the “physical condition”.

次に、コンテンツの選択を行うにあたって、まず、ユーザの現在のユーザ状況を特定する。そして、ユーザ状況が特定されたら、システムに記憶された選択履歴の中から、特定されたユーザ状況に関連づけられた選択履歴を読み出し、読み出された選択履歴に基づいてコンテンツを選択する。   Next, when selecting content, first, the current user situation of the user is specified. When the user situation is specified, the selection history associated with the specified user situation is read from the selection history stored in the system, and the content is selected based on the read selection history.

例えばユーザが、「朝」というユーザ状況では、時事ニュースや天気のジャンルのコンテンツを選択する頻度が高く、「昼間」というユーザ状況では、趣味である株価情報のジャンルのコンテンツを選択する頻度が高かったとする。このような場合、システムは、これらの選択頻度の履歴を、「朝」、「昼間」というユーザ状況に関連づけて記憶している。   For example, in the user situation “morning”, the user frequently selects content in the genre of current news and weather, and in the user situation “daytime”, the user frequently selects content in the genre of stock price information that is a hobby. Suppose. In such a case, the system stores these selection frequency histories in association with user situations of “morning” and “daytime”.

従って、ユーザ状況が「朝」であると特定されると、時事ニュースや天気のジャンルが高い確率で選択されるようにコンテンツの選択が行われ、ユーザ状況が「昼間」であると特定されると、株価情報のジャンルが高い確率で選択されるようにコンテンツの選択が行われる。   Therefore, if the user situation is identified as “morning”, the content is selected so that the genre of current news or weather is selected with a high probability, and the user situation is identified as “daytime”. The content is selected so that the genre of the stock price information is selected with a high probability.

このようにすることで、当該ユーザの過去の選択履歴を反映させたコンテンツの選択が行われるようになる。従って、従来の画一的なコンテンツしか提示できない手法に比べて、ユーザの嗜好等を反映させた適切なコンテンツを提示することができる。   By doing in this way, the selection of the content reflecting the user's past selection history is performed. Therefore, it is possible to present appropriate content that reflects the user's preferences and the like as compared with the conventional method that can present only uniform content.

更に加えて本実施形態では、ユーザの選択履歴のみならず、ユーザの認識結果も反映させたコンテンツを選択する手法を採用している。   In addition, the present embodiment employs a method of selecting content that reflects not only the user selection history but also the user recognition result.

例えば図1(A)、図1(B)に示すように、ユーザUAとUBでは、同じユーザ状況(コンテキスト)であっても、異なる選択履歴がシステムに記憶される。そしてユーザにコンテンツを提示する場合に、顔画像認識等を利用して、そのユーザが、登録されたユーザUA、UBのいずれなのかを認識する。   For example, as shown in FIGS. 1A and 1B, different selection histories are stored in the system for the users UA and UB even in the same user situation (context). When presenting the content to the user, the user recognizes whether the user is a registered user UA or UB using face image recognition or the like.

そしてユーザUAであると認識された場合には、ユーザUAの各ユーザ状況(コンテキスト)に関連づけられてシステムに記憶された選択履歴の中から、ユーザUAの現在のユーザ状況に対応する選択履歴を読み出す。そして、読み出された選択履歴の確率分布にしたがった確率でジャンルを選択し、選択されたジャンルのコンテンツをユーザに提示する。一方、ユーザUBであると認識された場合には、ユーザUBの各ユーザ状況に関連づけられてシステムに記憶された選択履歴の中から、ユーザUBの現在のユーザ状況に対応する選択履歴を読み出す。そして、読み出された選択履歴の確率分布にしたがった確率でジャンルを選択し、選択されたジャンルのコンテンツをユーザに提示する。   When the user UA is recognized, a selection history corresponding to the current user status of the user UA is selected from the selection history stored in the system in association with each user status (context) of the user UA. read out. Then, the genre is selected with the probability according to the probability distribution of the read selection history, and the content of the selected genre is presented to the user. On the other hand, when the user UB is recognized, the selection history corresponding to the current user status of the user UB is read out from the selection history stored in the system in association with each user status of the user UB. Then, the genre is selected with the probability according to the probability distribution of the read selection history, and the content of the selected genre is presented to the user.

このようにすれば、同じユーザ状況であっても、ユーザが異なれば異なるコンテンツが選択されるようになり、ユーザ毎に適切なコンテンツを提示できる。従って、各ユーザが所望するコンテンツを提示でき、ユーザが違和感等を感じる事態を防止できる。   In this way, even in the same user situation, different contents can be selected if the users are different, and appropriate contents can be presented for each user. Therefore, the content desired by each user can be presented, and the user can be prevented from feeling uncomfortable.

2.構成
以上のような本実施形態のコンテンツ選択手法を実現できる情報処理システムの構成例を図2に示す。なお情報処理システムは図2の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
2. Configuration FIG. 2 shows a configuration example of an information processing system capable of realizing the content selection method of the present embodiment as described above. The information processing system is not limited to the configuration shown in FIG. 2, and various modifications such as omitting some of the components or adding other components are possible.

処理部102は、図示しない操作部からの操作情報や、センサ150から取得されたセンサ情報などに基づいて、種々の処理を行う。例えばセンサ情報の取得処理や、各種の演算処理、評価処理や、ディスプレイ等の情報提示部142による情報提示の制御処理を行う。この処理部102の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、情報記憶媒体130(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。   The processing unit 102 performs various processes based on operation information from an operation unit (not shown), sensor information acquired from the sensor 150, and the like. For example, sensor information acquisition processing, various types of calculation processing, evaluation processing, and information presentation control processing by the information presentation unit 142 such as a display are performed. The function of the processing unit 102 can be realized by hardware such as various processors (CPU, etc.), ASIC (gate array, etc.), a program stored in the information storage medium 130 (optical disc, IC card, HDD, etc.), and the like.

記憶部120は、処理部102、通信部138などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部120は、コンテンツ情報記憶部122、選択履歴情報記憶部124、予定情報記憶部126を含む。   The storage unit 120 serves as a work area for the processing unit 102, the communication unit 138, and the like, and functions thereof can be realized by a memory such as a RAM or an HDD (hard disk drive). The storage unit 120 includes a content information storage unit 122, a selection history information storage unit 124, and a schedule information storage unit 126.

コンテンツ情報記憶部122(コンテンツデータベース)は、例えば画像、映像、音楽、音声、テキスト(文字、文章)、或いは各種データ等であるコンテンツの情報を記憶する。このコンテンツは、リアルタイムに生成してもよいし、例えば通信部138を介して外部からダウンロードしてもよい。またコンテンツ情報記憶部122は、コンテンツに関連づけられたメタ情報(付加情報)を記憶することができる。   The content information storage unit 122 (content database) stores content information such as images, video, music, audio, text (characters, sentences), or various data. This content may be generated in real time, or may be downloaded from the outside via the communication unit 138, for example. The content information storage unit 122 can store meta information (additional information) associated with the content.

選択履歴情報記憶部(選択履歴データベース、確率分布データベース)124は選択履歴情報(選択頻度の履歴情報)を記憶する。具体的には、ユーザ状況に関連づけて、ユーザによるコンテンツのジャンルの選択履歴情報を記憶する。即ち、各ユーザ状況においてユーザがどのようなジャンルのコンテンツを選択したかの履歴を表す選択履歴情報を記憶する。予定情報記憶部126は、ユーザの予定情報(予定表データ、スケジュール情報)を記憶する。   The selection history information storage unit (selection history database, probability distribution database) 124 stores selection history information (selection frequency history information). Specifically, the selection history information of the content genre by the user is stored in association with the user situation. That is, selection history information representing a history of what genre the user has selected in each user situation is stored. The schedule information storage unit 126 stores user schedule information (schedule data, schedule information).

情報記憶媒体130(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)やハードディスク(HDD)などにより実現できる。処理部102は、情報記憶媒体130に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体130には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 130 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (CD, DVD), a hard disk (HDD), or the like. The processing unit 102 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 130. That is, in the information storage medium 130, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

処理部102は、センサ情報取得部104、ユーザ認識部106、状況推定部108、コンテンツ選択部110、補正部111、提示制御部(表示制御部)112、情報更新部114を含む。なおこれらの構成要素の一部(例えばセンサ情報取得部、状況推定部、補正部、情報更新部)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 102 includes a sensor information acquisition unit 104, a user recognition unit 106, a situation estimation unit 108, a content selection unit 110, a correction unit 111, a presentation control unit (display control unit) 112, and an information update unit 114. Various modifications such as omitting some of these components (for example, a sensor information acquisition unit, a situation estimation unit, a correction unit, and an information update unit) or adding other components are possible.

センサ情報取得部104は、センサ150(例えばウェアラブルセンサ)からのセンサ情報を取得する。具体的には、センサ150は、撮像センサ等のユーザ検知センサ、ユーザの行動(歩行、会話、食事、手足の動き、感情表現又は睡眠等)を計測する行動センサ、ユーザの状態(疲労、緊張、空腹、精神状態、身体状態又はユーザに発生したイベント等)を計測する状態センサ、及びユーザの環境(場所、時間、明るさ、気温又は湿度等)を計測する環境センサの少なくとも1つのセンサを含んでおり、センサ情報取得部104は、これらのセンサからのセンサ情報を取得する。   The sensor information acquisition unit 104 acquires sensor information from the sensor 150 (for example, a wearable sensor). Specifically, the sensor 150 is a user detection sensor such as an imaging sensor, a behavior sensor that measures user behavior (walking, conversation, meal, limb movement, emotional expression, sleep, etc.), and user status (fatigue, tension). At least one sensor that measures a user's environment (location, time, brightness, temperature, humidity, etc.) In addition, the sensor information acquisition unit 104 acquires sensor information from these sensors.

ここで、センサ150として設けられるユーザ検知センサとしては、例えばCCDやCMOSセンサなどの撮像センサを用いるとことができる。撮像センサ(イメージセンサ)は、1次元又は2次元の光学情報を、時系列の電気信号に変換する光センサである。この撮像センサを用いた顔検出(顔画像認識)により、人物人証などのユーザの認識処理を実現できる。また検知範囲にユーザが存在するか否かや、検知範囲に存在するユーザの動きなどを検知できる。また情報提示部142(表示部)に対するユーザの視線の角度などの位置関係を検出できる。或いは、ユーザが情報提示部142(表示部)を注視している状態か否かなどのユーザの視認状態を検出できる。或いはユーザが接近中なのか否かなども検出できる。   Here, as a user detection sensor provided as the sensor 150, for example, an imaging sensor such as a CCD or a CMOS sensor can be used. An imaging sensor (image sensor) is an optical sensor that converts one-dimensional or two-dimensional optical information into a time-series electrical signal. By face detection (face image recognition) using this image sensor, recognition processing of a user such as a person identification can be realized. Further, it is possible to detect whether or not a user exists in the detection range, a user's movement existing in the detection range, and the like. Further, it is possible to detect a positional relationship such as the angle of the user's line of sight with respect to the information presentation unit 142 (display unit). Alternatively, it is possible to detect the user's visual state such as whether or not the user is gazing at the information presentation unit 142 (display unit). Alternatively, whether or not the user is approaching can also be detected.

またユーザ検知センサとしては、例えば焦電センサなどの人感センサを用いてもよい。焦電センサは、人等が発生する赤外線を受光し、赤外線を熱に変換し、その熱を素子の焦電効果で電荷に変えるセンサである。この焦電センサを用いることで、検知範囲(検知エリア)にユーザ(人)が存在するか否かや、検知範囲に存在するユーザの動きなどを検知できる。あるいはユーザ検知センサとして、例えば超音波センサなどの距離センサを用いてもよい。   As the user detection sensor, a human sensor such as a pyroelectric sensor may be used. The pyroelectric sensor is a sensor that receives infrared rays generated by a person or the like, converts the infrared rays into heat, and converts the heat into electric charges by the pyroelectric effect of the element. By using this pyroelectric sensor, it is possible to detect whether there is a user (person) in the detection range (detection area), a user's movement in the detection range, and the like. Or as a user detection sensor, you may use distance sensors, such as an ultrasonic sensor, for example.

なおセンサは、センサデバイス自体であってもよいし、センサデバイスの他に制御部や通信部等を含むセンサ機器であってもよい。またセンサ情報は、センサから直接得られるセンサ1次情報であってもよいし、センサ1次情報を加工処理(情報処理)することで得られるセンサ2次情報であってもよい。またセンサによる検知方式は、アクティブ検知方式であってもよいし、パッシブ検知方式であってもよい。即ちCCD等の撮像センサのようにシステム側がアクティブ方式でユーザを検知してもよいし、例えばユーザの携帯電話機等に設けられたRFIDからの発信信号によりユーザを検知するというように、パッシブ検知方式でユーザを検知してもよい。   The sensor may be the sensor device itself, or may be a sensor device including a control unit, a communication unit, and the like in addition to the sensor device. The sensor information may be sensor primary information obtained directly from the sensor, or sensor secondary information obtained by processing (information processing) the sensor primary information. Moreover, the detection method by a sensor may be an active detection method or a passive detection method. That is, the system side may detect a user by an active method like an imaging sensor such as a CCD, or a passive detection method such as detecting a user by a transmission signal from an RFID provided on the user's mobile phone or the like. The user may be detected.

またユーザの行動を検知する行動センサとしては、GPSや万歩計(登録商標)、加速度センサ、高度計、マイク、撮像センサ等を用いることができる。またユーザの状態を検知する状態センサとしては、血圧や心拍数、体温、眼球動向、血糖値等を計測できる既知の各種生体計測センサを用いることができる。またユーザの環境を検知する環境センサとしては、温湿度計、気圧計、明るさセンサ、マイク等を用いることができる。   Moreover, as a behavior sensor for detecting a user's behavior, a GPS, a pedometer (registered trademark), an acceleration sensor, an altimeter, a microphone, an imaging sensor, or the like can be used. As the state sensor that detects the user's state, various known biological measurement sensors that can measure blood pressure, heart rate, body temperature, eye movement, blood glucose level, and the like can be used. As an environmental sensor for detecting the user's environment, a thermohygrometer, a barometer, a brightness sensor, a microphone, or the like can be used.

ユーザ認識部106はユーザの認識処理を行う。例えばセンサ情報取得部104により取得されたセンサ情報に基づいて、ユーザの人物認証を行う。ユーザの人物認証は、例えば撮像センサを用いた顔認識処理により実現できる。或いは、目の網膜にある毛細血管の模様である網膜を用いたり、黒目の中の放射状の紋様である虹彩を用いて人物認証を行ってもよい。   The user recognition unit 106 performs user recognition processing. For example, the user authentication of the user is performed based on the sensor information acquired by the sensor information acquisition unit 104. User authentication of a user can be realized, for example, by face recognition processing using an image sensor. Alternatively, human authentication may be performed using a retina that is a capillary blood vessel pattern in the retina of an eye, or using an iris that is a radial pattern in a black eye.

状況推定部(状況同定部)108は、センサ情報取得部104により取得されたセンサ情報を含む情報に基づいて、ユーザの状況を推定(同定)するための処理を行う。具体的には、取得されたセンサ情報の乗算処理や加算処理などを行い、センサ情報のフィルタリング処理(選択処理)や解析処理のための種々の演算処理を実現する。そして、ユーザの現在の状況を推定する処理である状況同定処理を行う。或いは、ユーザの未来の状況を推定する処理である状況予測処理を行う。   The situation estimation unit (situation identification unit) 108 performs processing for estimating (identifying) the situation of the user based on information including the sensor information acquired by the sensor information acquisition unit 104. Specifically, multiplication processing or addition processing of the acquired sensor information is performed to realize various calculation processing for sensor information filtering processing (selection processing) or analysis processing. And the situation identification process which is a process which estimates a user's present condition is performed. Alternatively, a situation prediction process that is a process for estimating the future situation of the user is performed.

なお、状況推定部108が推定するユーザの状況は、例えばユーザの行動、状態、及び環境等の少なくとも1つである。ユーザの行動の推定は、ユーザが身に着けた行動センサの情報により、ユーザの静止・歩行・走行・座り・寝転がり・階段昇降の状態を判別したり、ユーザの周辺に配置されたセンサ(外部カメラ、ホームセンサ)により、ユーザの行動・姿勢状態を判別したり、位置検知センサにより求められた位置の軌跡により、ユーザの滞留中・移動中の状態を判別することなどにより実現できる。またユーザの状態は、ユーザの精神状態や肉体状態などである。ユーザの状態の推定は、ユーザが身に着けた生体センサの情報により、ストレス・興奮・緊張・健康状態などを判別することなどで実現できる。またユーザの環境は、ユーザの場所情報、時間情報、周囲環境情報などである。ユーザの環境の推定は、位置検知センサにより、ユーザの滞在場所(現在地)を判別したり、時計により年・月・日・曜日・時間を取得したり、周囲環境センサにより気温・気圧・照度・騒音などを取得することなどで実現できる。この場合に、センサ情報によりユーザ状況を完全・正確に特定することは難しいため、状況推定部108による状況推定の確からしさは、ある程度の幅を持つことになる。   Note that the user situation estimated by the situation estimation unit 108 is at least one of the user's behavior, state, environment, and the like, for example. The estimation of the user's behavior is based on the information of the behavior sensor worn by the user, and the state of the user's stationary / walking / running / sitting / laying down / stepping up / down the stairs is determined, or sensors (external) This can be realized by determining the user's action / posture state using a camera or a home sensor), or determining the user's staying / moving state based on the position locus obtained by the position detection sensor. The user's state is a user's mental state or physical state. The estimation of the user's state can be realized by discriminating stress, excitement, tension, health condition, etc. based on the information of the biosensor worn by the user. The user environment includes user location information, time information, ambient environment information, and the like. The user's environment is estimated by using the position detection sensor to determine where the user is staying (current location), using the clock to obtain the year, month, date, day of the week, and time, and using the ambient environment sensor to determine the temperature, atmospheric pressure, This can be achieved by acquiring noise. In this case, since it is difficult to completely and accurately specify the user situation from the sensor information, the probability of situation estimation by the situation estimation unit 108 has a certain range.

なおユーザ状況の推定に、センサ情報以外の情報を用いてもよい。具体的には、予定情報記憶部126に記憶されたユーザの予定情報(予定表データ、スケジュール情報)や、通信部138等を介して取得された外部情報を用いて、ユーザ状況を推定してもよい。例えば、ユーザが入力したスケジュール表に基づいて、ユーザのこれからの予定を推定したり、入力された予定から付随的な予定を推定する。或いは、ウェブ情報や外部データベースからインターネット等を介して取得した情報(例えば今日の天気・交通情報)や、他のユーザから取得した情報(例えば他のユーザからの連絡情報)などの外部情報に基づいて、ユーザ状況を推定する。   Information other than sensor information may be used for estimating the user situation. Specifically, the user situation is estimated using the user's schedule information (schedule data, schedule information) stored in the schedule information storage unit 126, or external information acquired through the communication unit 138 or the like. Also good. For example, the user's future schedule is estimated based on the schedule table input by the user, or an incidental schedule is estimated from the input schedule. Alternatively, based on external information such as information acquired from the web information or external database via the Internet (for example, today's weather / traffic information) or information acquired from other users (for example, contact information from other users). To estimate the user situation.

このような予定情報や外部情報を利用すれば、センサ情報だけを用いてユーザ状況を推定する場合に比べて、状況推定の確度を高めることができる。例えばセンサ情報と予定情報を組み合わせてユーザの行動を推定することで、より確からしいユーザの行動の推定が可能になる。   If such schedule information or external information is used, the accuracy of situation estimation can be improved as compared with the case where the user situation is estimated using only sensor information. For example, by estimating the user's behavior by combining the sensor information and the schedule information, it is possible to estimate the user's behavior more reliably.

コンテンツ選択部110は、情報提示部142によりユーザに提示されるコンテンツの選択を行う。例えばコンテンツ選択部110は、ユーザ認識部106によりユーザが認識されると、ユーザの認識結果とユーザ状況(例えば時間、場所、状態)に基づいて、認識されたユーザの各ユーザ状況に関連づけられた選択履歴情報を、選択履歴情報記憶部124から読み出す。そして読み出された選択履歴情報に基づいて、複数のコンテンツの中からユーザへの提示コンテンツを選択する。   The content selection unit 110 selects content to be presented to the user by the information presentation unit 142. For example, when the user is recognized by the user recognition unit 106, the content selection unit 110 is associated with each user situation of the recognized user based on the user recognition result and the user situation (for example, time, place, and state). The selection history information is read from the selection history information storage unit 124. Then, based on the read selection history information, content to be presented to the user is selected from a plurality of contents.

ここで、更に具体的には選択履歴情報記憶部124は、第1〜第N(Nは2以上の整数)のユーザ状況のそれぞれに対応して、コンテンツのジャンルの選択についての第1〜第Nの確率分布情報を関連づけて記憶するものである。即ち、第1のユーザ状況に対して第1の確率分布情報を関連づけて記憶し、第2のユーザ状況に対して第2の確率分布情報を関連づけて記憶する。なお、ジャンルとは複数のコンテンツを含む概念であるが、場合により1つのコンテンツのみしか存在しない場合や対応するコンテンツが存在しない場合も起こり得る。   Here, more specifically, the selection history information storage unit 124 corresponds to each of the first to Nth (N is an integer of 2 or more) user situations, and the first to first selections of content genres. N probability distribution information is stored in association with each other. That is, the first probability distribution information is stored in association with the first user situation, and the second probability distribution information is stored in association with the second user situation. The genre is a concept including a plurality of contents, but there may be a case where only one content exists or a corresponding content does not exist.

従って、コンテンツ選択部110は、認識されたユーザのユーザ状況が、第1〜第Nのユーザ状況のうちの第Kのユーザ状況である場合(1≦K≦N)には、第Kのユーザ状況に関連づけられた第Kの確率分布情報を選択履歴情報記憶部124から読み出す。例えば第1のユーザ状況である場合には第1の確率分布情報を読み出し、第2のユーザ状況である場合には第2の確率分布情報を読み出す。そして読み出された第Kの確率分布情報にしたがった確率でジャンル(カテゴリ)を選択し、選択されたジャンルに対応するコンテンツを、提示コンテンツとして選択する。例えば第Kの確率分布情報において、第1のジャンルの選択確率が確率P1で、第2のジャンルの選択確率が確率P2であったとする。この場合には、確率P1で第1のジャンルを選択して、第1のジャンルに対応するコンテンツを選択し、確率P2で第2のジャンルを選択して、第2のジャンルに対応するコンテンツを選択する。   Therefore, when the recognized user situation of the user is the Kth user situation among the first to Nth user situations (1 ≦ K ≦ N), the content selection unit 110 is the Kth user. The Kth probability distribution information associated with the situation is read from the selection history information storage unit 124. For example, the first probability distribution information is read out in the case of the first user situation, and the second probability distribution information is read out in the case of the second user situation. Then, the genre (category) is selected with the probability according to the read Kth probability distribution information, and the content corresponding to the selected genre is selected as the presented content. For example, in the Kth probability distribution information, the selection probability of the first genre is the probability P1, and the selection probability of the second genre is the probability P2. In this case, the first genre is selected with the probability P1, the content corresponding to the first genre is selected, the second genre is selected with the probability P2, and the content corresponding to the second genre is selected. select.

また選択履歴情報記憶部124は、複数のユーザの各ユーザ毎に第1〜第Nの確率分布情報を記憶する。例えば第1のユーザに対応して第1のユーザ用の第1〜第Nの確率分布情報を記憶し、第2のユーザに対応して第2のユーザ用の第1〜第Nの確率分布情報を記憶する。そしてコンテンツ選択部110は、認識されたユーザに対応する第1〜第Nの確率分布情報を選択履歴情報記憶部124から読み出して、提示コンテンツを選択する。例えば第1のユーザが認識され、そのユーザ状況が第Kのユーザ状況である場合には、第1のユーザ用の第Kの確率分布情報を読み出す。また第2のユーザが認識され、そのユーザ状況が第Kのユーザ状況である場合には、第2のユーザ用の第Kの確率分布情報を読み出す。   The selection history information storage unit 124 stores first to Nth probability distribution information for each of a plurality of users. For example, first to Nth probability distribution information for the first user is stored corresponding to the first user, and the first to Nth probability distributions for the second user are stored corresponding to the second user. Store information. Then, the content selection unit 110 reads the first to Nth probability distribution information corresponding to the recognized user from the selection history information storage unit 124, and selects the presented content. For example, when the first user is recognized and the user situation is the Kth user situation, the Kth probability distribution information for the first user is read. When the second user is recognized and the user situation is the Kth user situation, the Kth probability distribution information for the second user is read out.

ここで、第1〜第Nの確率分布情報の各確率分布情報としては、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度(選択回数)が関連づけられた確率分布テーブルを用いることができる。例えば確率分布テーブルでは、ユーザによる第1のジャンルの選択頻度がSF1であり、第2のジャンルの選択頻度がSF2であった場合には、第1のジャンルに対して選択頻度SF1が関連づけられ、第2のジャンルに対して選択頻度SF2が関連づけられる。   Here, as the probability distribution information of the first to Nth probability distribution information, a probability distribution table in which the selection frequency (number of selections) of each genre is associated with each genre of a plurality of genres can be used. . For example, in the probability distribution table, when the selection frequency of the first genre by the user is SF1 and the selection frequency of the second genre is SF2, the selection frequency SF1 is associated with the first genre, The selection frequency SF2 is associated with the second genre.

また第1〜第Nのユーザ状況に対応して、第1〜第Nのタイムスロットが設定される場合には、選択履歴情報記憶部124は、第1〜第Nのタイムスロットの各タイムスロットに対して、第1〜第Nの確率分布情報の各確率分布情報を関連づけて記憶する。例えば第1のタイムスロットに対して第1の確率分布情報を関連づけて記憶し、第2のタイムスロットに対して第2の確率分布情報を関連づけて記憶する。   When the first to Nth time slots are set corresponding to the first to Nth user situations, the selection history information storage unit 124 stores each time slot of the first to Nth time slots. Are stored in association with each probability distribution information of the first to Nth probability distribution information. For example, the first probability distribution information is stored in association with the first time slot, and the second probability distribution information is stored in association with the second time slot.

そしてコンテンツ選択部110は、ユーザ状況である時間が、第Kのタイムスロットに属する場合には、第Kのタイムスロットに関連づけられた第Kの確率分布情報を読み出して、提示コンテンツを選択することになる。   When the time corresponding to the user situation belongs to the Kth time slot, the content selection unit 110 reads the Kth probability distribution information associated with the Kth time slot and selects the presented content. become.

補正部111は、確率分布情報(選択履歴情報)の補正処理を行う。例えば補正対象が第Kの確率分布情報である場合には、第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づいて、第Kの確率分布情報を補正する。即ち第Kのユーザ状況の前後の第K−1、第K+1のユーザ状況に対応する第K−1、第K+1の確率分布情報により補正処理を行う。そしてコンテンツ選択部110は、補正後の第Kの確率分布情報にしたがった確率でジャンルを選択して、提示コンテンツを選択する。   The correcting unit 111 corrects probability distribution information (selection history information). For example, when the correction target is the Kth probability distribution information, the Kth probability distribution information is corrected based on at least one of the (K−1) th probability distribution information and the (K + 1) th probability distribution information. That is, the correction process is performed based on the (K−1) th and (K + 1) th probability distribution information corresponding to the (K−1) th and (K + 1) th user situations before and after the Kth user situation. And the content selection part 110 selects a genre with the probability according to the Kth probability distribution information after correction | amendment, and selects a presentation content.

更に具体的には補正部111は、補正前の第Kの確率分布情報に対して、第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づく重み付け補正を行う。例えば補正前の第Kの確率分布情報に対して、第K−1の確率分布情報で設定されるジャンル及びその選択確率情報(選択頻度)を、所定の重み付け係数で設定したり、第K+1の確率分布情報で設定されるジャンル及びその選択確率情報(選択頻度)を、所定の重み付け係数で設定する。   More specifically, the correction unit 111 performs weight correction on the Kth probability distribution information before correction based on at least one of the (K−1) th probability distribution information and the (K + 1) th probability distribution information. For example, with respect to the Kth probability distribution information before correction, the genre set by the K-1st probability distribution information and its selection probability information (selection frequency) can be set by a predetermined weighting factor, The genre set by the probability distribution information and the selection probability information (selection frequency) are set by a predetermined weighting coefficient.

第1〜第Nのユーザ状況として第1〜第Nのタイムスロットが設定されている場合には、補正部111は、第Kのタイムスロットの前半期間(開始時間を含む所定期間)では、補正前の第Kの確率分布情報に対して、第K−1のタイムスロットの第K−1の確率分布情報に基づく重み付け補正を行う。一方、第Kのタイムスロットの後半期間(終了時間を含む所定期間)では、補正前の第Kの確率分布情報に対して、第K+1のタイムスロットの第K+1の確率分布情報に基づく重み付け補正を行う。   When the first to N-th time slots are set as the first to N-th user situations, the correction unit 111 corrects the first half period (a predetermined period including the start time) of the K-th time slot. Weighting correction is performed on the previous Kth probability distribution information based on the K-1st probability distribution information of the (K-1) th time slot. On the other hand, in the second half period (predetermined period including the end time) of the Kth time slot, the weighting correction based on the K + 1th probability distribution information of the (K + 1) th time slot is applied to the Kth probability distribution information before the correction. Do.

提示制御部112は、選択されたコンテンツを、情報提示部142によりユーザに提示するための制御を行う。例えば情報提示部142がウェアラブルディスプレイやデジタルフォトフレームであった場合には、選択されたコンテンツ(コンテンツ画像)を、これらのウェアラブルディスプレイ、デジタルフォトフレームに表示するための制御を行う。   The presentation control unit 112 performs control for presenting the selected content to the user by the information presentation unit 142. For example, when the information presentation unit 142 is a wearable display or digital photo frame, control is performed to display the selected content (content image) on the wearable display or digital photo frame.

情報更新部114は選択履歴情報の更新処理を行う。具体的には情報提示部142により、ジャンルが異なる複数のコンテンツがユーザに提示され、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、選択履歴情報の更新処理を行う。例えば選択履歴情報記憶部124が、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた情報を、選択履歴情報(選択確率分布情報)として記憶していたとする。すると、情報更新部114は、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、選択動作が行われたコンテンツに対応するジャンルの選択頻度(選択回数)を更新する。例えばそのジャンルの選択頻度をインクリメントする。選択動作の有無はタッチパネル等のユーザインターフェースを設けて、その操作の有無で判定することもできるし、撮像カメラ等による視線検知や顔の向き検知によって選択動作の有無を判定するようにすることも可能である。   The information update unit 114 performs selection history information update processing. Specifically, when the information presenting unit 142 presents a plurality of contents with different genres to the user and determines that the user has performed a selection operation on the presented contents, the selection history information is updated. Do. For example, it is assumed that the selection history information storage unit 124 stores information in which the selection frequency of each genre is associated with each genre of a plurality of genres as selection history information (selection probability distribution information). Then, when it is determined that the user has performed a selection operation on the presented content, the information update unit 114 updates the selection frequency (number of selections) of the genre corresponding to the content on which the selection operation has been performed. . For example, the selection frequency of the genre is incremented. The presence or absence of a selection operation can be determined by the presence or absence of a user interface such as a touch panel, or the presence or absence of a selection operation can be determined by eye gaze detection or face orientation detection by an imaging camera or the like. Is possible.

次に図3のフローチャートを用いて本実施形態の動作について説明する。   Next, the operation of this embodiment will be described with reference to the flowchart of FIG.

まず撮像センサ等のユーザ検知センサによりユーザを認識する(ステップS1)。例えばユーザの顔を撮像し、予め登録されたユーザの顔画像と照合し、ユーザの人物人証を行う。また行動センサ、状態センサ、環境センサからのセンサ情報や、予定情報、外部情報を取得する(ステップS2)。そして取得された情報に基づいてユーザの状況(TPOf)を推定する(ステップS3)。   First, a user is recognized by a user detection sensor such as an imaging sensor (step S1). For example, the user's face is imaged, collated with a user's face image registered in advance, and the user's personal identification is performed. Also, sensor information, schedule information, and external information from the behavior sensor, state sensor, and environment sensor are acquired (step S2). Based on the acquired information, the user's situation (TPOf) is estimated (step S3).

次に、ステップS1でのユーザの認識結果と、ステップS3で推定されたユーザ状況と、コンテンツのジャンルの選択履歴情報とに基づいて、複数のコンテンツの中から提示コンテンツを選択する(ステップS4)。即ち、認識されたユーザの各ユーザ状況に関連づけられた選択履歴情報を読み出して、提示コンテンツを選択する。そして選択されたコンテンツを情報提示部によりユーザに提示する(ステップS5)。更に、ユーザのコンテンツの選択動作に基づいて、選択履歴情報を更新する(ステップS6)。例えば、ユーザが選択したコンテンツのジャンルの選択頻度をインクリメントして更新する。   Next, the presentation content is selected from a plurality of contents based on the user recognition result in step S1, the user situation estimated in step S3, and the content genre selection history information (step S4). . That is, the selection history information associated with each user situation of the recognized user is read, and the presentation content is selected. Then, the selected content is presented to the user by the information presenting unit (step S5). Further, the selection history information is updated based on the user's content selection operation (step S6). For example, the selection frequency of the genre of the content selected by the user is incremented and updated.

以上のようにすることで、ユーザの認識結果と過去の選択履歴に応じた適切なコンテンツを選択してユーザに提示できるようになる。   By doing so, it becomes possible to select and present to the user appropriate content according to the user's recognition result and past selection history.

3.タイムスロット
次に、複数のユーザ状況(第1〜第Nのユーザ状況)に対応して複数のタイムスロット(第1〜第Nのタイムスロット)を設定する場合のコンテンツ選択手法について説明する。
3. Time Slot Next, a content selection method when setting a plurality of time slots (first to Nth time slots) corresponding to a plurality of user situations (first to Nth user situations) will be described.

例えば図4では、1日(24時間)が複数のタイムスロットに分割されている。例えばタイムスロットの間隔が1時間である場合には24個のタイムスロットに分割される。そして各タイムスロットに対して、コンテンツのジャンル(国内ニュース、政治/経済、海外ニュース等)の選択確率分布が設定される。具体的には、各ジャンルの選択頻度(注視回数、クリック数)が選択確率分布として設定される。   For example, in FIG. 4, one day (24 hours) is divided into a plurality of time slots. For example, when the time slot interval is 1 hour, it is divided into 24 time slots. For each time slot, a selection probability distribution of the content genre (domestic news, politics / economics, overseas news, etc.) is set. Specifically, the selection frequency (number of gazes, number of clicks) of each genre is set as the selection probability distribution.

例えば、第1のタイムスロット(例えば0時〜1時)の時間帯において、ユーザに対してコンテンツを提示し、そのコンテンツをユーザが選択する動作(例えば後述する注視動作やクリック動作)を行ったとする。この場合には、選択されたコンテンツのジャンル(カテゴリ)の選択頻度(選択回数)がインクリメントされて、第1のタイムスロットの確率分布が更新される。同様に次の第2のタイムスロット(例えば1時〜2時)の時間帯において、ユーザに対してコンテンツを提示し、そのコンテンツをユーザが選択する動作を行った場合には、選択されたコンテンツのジャンルの選択頻度がインクリメントされて、第2のタイムスロットの確率分布が更新される。このようにして、ユーザがコンテンツの選択動作を行う毎に各タイムスロットにおける確率分布が更新される。   For example, in the first time slot (for example, from 0:00 to 1 o'clock), content is presented to the user, and the user selects an operation (for example, a gaze operation or a click operation described later). To do. In this case, the selection frequency (number of selections) of the genre (category) of the selected content is incremented, and the probability distribution of the first time slot is updated. Similarly, when the content is presented to the user in the next second time slot (for example, 1 to 2) and the user performs an operation of selecting the content, the selected content is displayed. The genre selection frequency is incremented, and the probability distribution of the second time slot is updated. In this way, the probability distribution in each time slot is updated each time the user performs a content selection operation.

また、ユーザ状況である時間が第1のタイムスロットに属する場合には、第1のタイムスロットに関連づけられた確率分布が読み出され、当該確率分布にしたがった確率でジャンルが選択される。同様にユーザ状況である時間が第2のタイムスロットに属する場合には、第2のタイムスロットに関連づけられた確率分布が読み出され、当該確率分布にしたがった確率でジャンルが選択される。   If the time corresponding to the user status belongs to the first time slot, the probability distribution associated with the first time slot is read, and the genre is selected with the probability according to the probability distribution. Similarly, when the time corresponding to the user situation belongs to the second time slot, the probability distribution associated with the second time slot is read, and the genre is selected with the probability according to the probability distribution.

例えば第1のタイムスロットの確率分布では「国内ニュース」のジャンルの選択確率が高かった場合には、高い確率で「国内ニュース」のジャンルが選択され、選択されたジャンルに属するコンテンツがユーザに提示されるようになる。同様に第2のタイムスロットの確率分布では「政治/経済」のジャンルの選択確率が高かった場合には、高い確率で「政治/経済」のジャンルが選択され、選択されたジャンルに属するコンテンツがユーザに提示されるようになる。   For example, when the probability distribution of the “domestic news” genre is high in the probability distribution of the first time slot, the genre of “domestic news” is selected with high probability, and contents belonging to the selected genre are presented to the user. Will come to be. Similarly, in the probability distribution of the second time slot, when the selection probability of the “political / economic” genre is high, the “political / economic” genre is selected with a high probability, and contents belonging to the selected genre are displayed. It will be presented to the user.

以上のように本実施形態では、各タイムスロットでのユーザの選択動作により、確率分布が更新され、このようにして更新された確率分布に基づいて各タイムスロットでのユーザの提示コンテンツが選択される。従って、ユーザの選択履歴を反映させたコンテンツの提示が可能になり、これまでにないタイプのコンテンツ提示を実現できる。   As described above, in this embodiment, the probability distribution is updated by the user's selection operation in each time slot, and the content presented by the user in each time slot is selected based on the probability distribution updated in this way. The Accordingly, it is possible to present content reflecting the user's selection history, and it is possible to realize an unprecedented type of content presentation.

図5(A)に確率分布テーブルの例を示す。例えば確率分布テーブルUA07には、ユーザUAの6時〜7時のタイムスロットの確率分布情報が格納されている。具体的には「今日の天気」というジャンルに対して、その選択頻度(選択回数)=30が関連づけられ、「ニュース」というジャンルに対して、その選択頻度(選択回数)=35が関連づけられる。同様に確率分布テーブルUB20は、ユーザUBの19時〜20時のタイムスロットの確率分布情報が格納されている。このように本実施形態の確率分布情報は、複数のジャンルに対して各ジャンルの選択頻度が関連づけられた確率分布テーブルにより実現できる。   FIG. 5A shows an example of the probability distribution table. For example, the probability distribution table UA07 stores the probability distribution information of the time slot from 6:00 to 7:00 of the user UA. Specifically, the selection frequency (number of selections) = 30 is associated with the genre “Today's weather”, and the selection frequency (number of selections) = 35 is associated with the genre “news”. Similarly, the probability distribution table UB20 stores the probability distribution information of the time slot from 19:00 to 20:00 of the user UB. As described above, the probability distribution information of the present embodiment can be realized by a probability distribution table in which selection frequencies of each genre are associated with a plurality of genres.

図5(B)にユーザコンテンツテーブル(コンテンツ情報データベース)の例を示す。例えばユーザコンテンツテーブルUACは、ユーザUAのコンテンツ情報が格納されている。具体的には、コンテンツのURL(格納アドレス)が格納されると共に、それに関連づけてコンテンツが属するジャンルが格納されている。例えば選択履歴に基づいてジャンルを選択し、そのジャンルに属するコンテンツを提示する場合には、図5(B)のユーザコンテンツテーブルにおいて、ジャンルを引数としてコンテンツのURLを取得し、そのURLにアクセスしてコンテンツを取得すればよい。   FIG. 5B shows an example of a user content table (content information database). For example, the user content table UAC stores content information of the user UA. Specifically, the URL (storage address) of the content is stored, and the genre to which the content belongs is stored in association therewith. For example, when a genre is selected based on the selection history and content belonging to the genre is presented, the URL of the content is acquired using the genre as an argument in the user content table of FIG. 5B, and the URL is accessed. Content.

4.確率分布情報の補正
本実施形態では、図4の各タイムスロットにおいて後述するデジタルフォトフレーム等により表示すべきコンテンツのジャンルを、使用開始時にユーザが設定できるようにする。またユーザのコンテンツの選択動作(注視等)を記録し、タイムスロット毎に選択頻度のヒストグラムを作成する。そして表示されるコンテンツは、作成されたヒストグラムの確率で決定される。
4). Correction of Probability Distribution Information In this embodiment, the user can set the genre of content to be displayed by a digital photo frame or the like to be described later in each time slot of FIG. The user's content selection operation (gaze etc.) is recorded, and a selection frequency histogram is created for each time slot. The displayed content is determined by the probability of the created histogram.

例えば図6に、このようにして作成されたヒストグラムである確率分布の例を示す。この確率分布では、各タイムスロットに関連づけてジャンルの選択頻度(選択回数)が設定されている。   For example, FIG. 6 shows an example of a probability distribution which is a histogram created in this way. In this probability distribution, a genre selection frequency (number of selections) is set in association with each time slot.

図6に示すように、ユーザが設定したジャンルの割り当て方によっては、タイムスロットの区切りにおいてコンテンツの内容が大きく変化してしまう。例えば12時59分までは「今日の注目銘柄の一覧」が表示されていたのに、13時00分になると急に「週末のおすすめスポット」ばかりが表示されるようになる。また、6時〜7時に「ニュース」を表示する設定にしていたのに、起床が遅くなり7時5分に起床すると、見たい「ニュース」が見られなくなる。   As shown in FIG. 6, depending on the genre assignment method set by the user, the content changes greatly at the time slot breaks. For example, the “list of today's attention brands” was displayed until 12:59, but at 13:00, only “recommended spots on the weekend” are suddenly displayed. In addition, although “news” is set to be displayed from 6:00 to 7:00, when the user gets up late and gets up at 7: 5, the “news” to be viewed cannot be viewed.

そこで本実施形態では各タイムスロットの確率分布情報をその前後のタイムスロットの確率分布情報で補正する手法を採用している。例えば第K−1のタイムスロットの第K−1の確率分布情報及び第K+1のタイムスロットの第K+1の確率分布情報の少なくとも一方に基づいて、第Kのタイムスロットの第Kの確率分布情報を補正する。具体的には第K−1の確率分布情報及び前記第K+1の確率分布情報の少なくとも一方に基づく重み付け補正を行う。   Therefore, in this embodiment, a technique is adopted in which the probability distribution information of each time slot is corrected with the probability distribution information of the time slots before and after the time slot. For example, based on at least one of the (K-1) th probability distribution information of the (K-1) th time slot and the (K + 1) th probability distribution information of the (K + 1) th time slot, the Kth probability distribution information of the Kth time slot is obtained. to correct. Specifically, weighting correction based on at least one of the (K−1) th probability distribution information and the (K + 1) th probability distribution information is performed.

例えば図7(A)に補正前の確率分布情報を示し、図7(B)に補正後の確率分布情報を示す。図7(B)では、現在のタイムスロット(第Kのタイムスロット)の確率分布情報に対して、前後のタイムスロット(第K−1、第K+1のタイムスロット)の確率分布情報から、例えばそれぞれ1/2の重み付けで選択頻度を加える重み付け補正を行っている。   For example, FIG. 7A shows the probability distribution information before correction, and FIG. 7B shows the probability distribution information after correction. In FIG. 7B, for the probability distribution information of the current time slot (Kth time slot), for example, from the probability distribution information of the preceding and succeeding time slots (K-1th and K + 1th time slots), respectively, Weighting correction for adding selection frequency with 1/2 weighting is performed.

例えば図7(A)に示す補正前においては、現在のタイムスロットに対しては「今日の天気」と「今日の天気情報」のジャンルの選択頻度だけが設定されている。   For example, before the correction shown in FIG. 7A, only the genre selection frequencies of “Today's weather” and “Today's weather information” are set for the current time slot.

これに対して図7(B)に示す補正後においては、ひとつ前のタイムスロットの「すがすがしい写真」や「ニュース」のジャンルの選択頻度を、現在のタイムスロットに対して例えば1/2の重み付けで加える重み付け補正が行われている。即ち、現在のタイムスロット(第Kのタイムスロット)の例えば前半期間において、ひとつ前のタイムスロット(第K−1のタイムスロット)の選択頻度を加える重み付け補正が行われている。   On the other hand, after the correction shown in FIG. 7B, the selection frequency of the “fresh photo” or “news” genre of the previous time slot is weighted to, for example, 1/2 of the current time slot. The weighting correction to be added in is performed. That is, for example, in the first half of the current time slot (Kth time slot), weighting correction for adding the selection frequency of the previous time slot (K-1th time slot) is performed.

また図7(B)では、ひとつ後のタイムスロットの「地域ニュース」や「今日の天気予報」のジャンルの選択頻度を、現在のタイムスロットに対して例えば1/2の重み付けで加える重み付け補正が行われている。即ち、現在のタイムスロット(第Kのタイムスロット)の例えば後半期間において、ひとつ後のタイムスロット(第K+1のタイムスロット)の選択頻度を加える重み付け補正が行われている。   Further, in FIG. 7B, weighting correction is performed in which the frequency of selecting the genre of “regional news” or “today's weather forecast” in the next time slot is added to the current time slot by, for example, 1/2 weighting. Has been done. That is, for example, in the second half of the current time slot (Kth time slot), weighting correction is performed to add the selection frequency of the next time slot (K + 1th time slot).

このような補正を行えば、前後のタイムスロットで設定されたコンテンツが、現在のタイムスロットにおいて表示されようになるため、タイムスロットが変わるタイミングにおいて、表示されるコンテンツがシームレスに遷移するようになる。例えば、ユーザが、6時〜7時に「ニュース」を表示する設定にしていたのに、起床が遅くなり7時5分に起床した場合においても、7時〜8時のタイムスロットでは、その前の6時〜7時のタイムスロットの「ニュース」が一定確率で表示されるようになる。従って、ユーザにとって違和感のないコンテンツ表示が可能になる。   If such correction is performed, the contents set in the preceding and succeeding time slots are displayed in the current time slot, so that the displayed contents transition seamlessly at the timing when the time slot changes. . For example, even if the user is set to display “News” at 6:00 to 7:00, but when the user gets up late and gets up at 7: 5, the time slot from 7:00 to 8:00 “News” in the time slot from 6:00 to 7:00 will be displayed with a certain probability. Therefore, it is possible to display content that does not feel uncomfortable for the user.

図8(A)、図8(B)に本実施形態の補正手法の他の例を示す。図8(B)では、現在のタイムスロットが3つの分割タイムスロットTB1〜TB3に分割されている。そして、ひとつ前のタイムスロット(第K−1のタイムスロット)からの寄与を、前半期間の分割タイムスロットTB1に加え、ひとつ後のタイムスロット(第K+1のタイムスロット)からの寄与を、後半期間の分割タイムスロットTB3に加える。真ん中の期間の分割タイムスロットTB2については、補正前のものをそのまま適用する。   FIG. 8A and FIG. 8B show another example of the correction method of the present embodiment. In FIG. 8B, the current time slot is divided into three divided time slots TB1 to TB3. Then, the contribution from the previous time slot (K-1th time slot) is added to the divided time slot TB1 in the first half period, and the contribution from the next time slot (K + 1th time slot) is added to the second half period. To the divided time slot TB3. For the divided time slot TB2 in the middle period, the one before correction is applied as it is.

具体的には、ひとつ前のタイムスロットの「すがすがしい写真」や「ニュース」のジャンルの選択頻度を、前半期間の分割タイムスロットTB1に対して例えば1/2の重み付けで加える重み付け補正を行う。また、ひとつ後のタイムスロットの「地域ニュース」や「今日の天気予報」のジャンルの選択頻度を、後半期間の分割タイムスロットTB3に対して例えば1/2の重み付けで加える重み付け補正を行う。   Specifically, a weighting correction is performed in which the selection frequency of the “fresh photo” or “news” genre of the previous time slot is added to the divided time slot TB1 of the first half period, for example, with a weight of 1/2. In addition, a weighting correction is performed in which the selection frequency of the genre of “regional news” or “today's weather forecast” in the next time slot is added to the divided time slot TB3 in the second half period by, for example, 1/2 weighting.

この補正手法によれば、前半期間や後半期間の分割タイムスロット期間TB1、TB3において前後のタイムスロットからの影響が大きかった場合でも、真ん中の期間の分割タイムスロットTB2において、ユーザの設定にしたがったコンテンツが表示されるのを保障できるようになる。   According to this correction method, even if the influence from the preceding and succeeding time slots is large in the divided time slot periods TB1 and TB3 in the first half period and the second half period, the user setting is performed in the divided time slot TB2 in the middle period. It will be possible to ensure that the content is displayed.

以上のように図7(A)〜図8(B)では、現在のタイムスロット(第Kのタイムスロット)の前半期間では、補正前の確率分布情報に対して、ひとつ前のタイムスロット(第K−1のタイムスロット)の確率分布情報に基づく重み付け補正を行っている。一方、後半期間では、補正前の確率分布情報に対して、ひとつ後のタイムスロット(第K+1のタイムスロット)の確率分布情報に基づく重み付け補正を行っている。   As described above, in FIGS. 7A to 8B, in the first half period of the current time slot (Kth time slot), the previous time slot (first) is compared with the probability distribution information before correction. Weighting correction based on probability distribution information of (K-1 time slots) is performed. On the other hand, in the second half period, weighting correction based on the probability distribution information of the next time slot (K + 1th time slot) is performed on the probability distribution information before correction.

なお図7(A)〜図8(B)では重み付け係数が1/2である場合を説明したが、重み付け係数は1/2に限定されず、任意の係数に指定可能である。また図8(B)では元のタイムスロットを3等分にしているが、例えば元のタイムスロットである「60分」を「5分 + 50分 + 5分」の3つに分割するなど、任意の間隔で分割することが可能である。また補正処理は例えばシグモイド関数などを用いて実現してもよい。   Although the case where the weighting coefficient is 1/2 has been described in FIGS. 7A to 8B, the weighting coefficient is not limited to 1/2 and can be specified as an arbitrary coefficient. In FIG. 8B, the original time slot is divided into three equal parts. For example, the original time slot “60 minutes” is divided into three parts “5 minutes + 50 minutes + 5 minutes”, etc. It is possible to divide at arbitrary intervals. Further, the correction processing may be realized using, for example, a sigmoid function.

また図7(A)〜図8(B)では、前後のタイムスロットの両方からの重み付け補正を行う場合について説明したが、1つ前のタイムスロットからの重み付け補正のみを行ったり、1つ後のタイムスロットからの重み付け補正のみを行うようにしてもよい。   Further, in FIGS. 7A to 8B, the case where the weighting correction is performed from both of the preceding and succeeding time slots has been described. However, only the weighting correction from the previous time slot is performed, or one time after. Only the weighting correction from the time slot may be performed.

また、補正後の確率分布情報については、選択履歴情報記憶部124に保存(上書き保存)するようにしてもよいし、保存しないようにしてもよい。例えば、保存する場合には、図7(A)の補正前の現在のタイムスロットの確率分布(選択頻度)を、図7(B)のような補正後の確率分布に置き換える。一方、保存しない場合には、補正後の結果は破棄し、常にリアルタイムで補正することになる。   Further, the corrected probability distribution information may be stored (overwritten) in the selection history information storage unit 124, or may not be stored. For example, when saving, the probability distribution (selection frequency) of the current time slot before correction in FIG. 7A is replaced with the corrected probability distribution as shown in FIG. 7B. On the other hand, if not stored, the corrected result is discarded and always corrected in real time.

また図7(A)〜図8(B)では、各タイムスロットに対して設定される確率分布情報について補正を行う場合について説明したが、図1(A)、図1(B)で説明した各ユーザ状況に対して設定される確率分布情報に対して補正を行うようにしてもよい。   Further, in FIGS. 7A to 8B, the case where the probability distribution information set for each time slot is corrected has been described, but the description has been made with reference to FIGS. 1A and 1B. You may make it correct | amend with respect to the probability distribution information set with respect to each user condition.

例えば第K−1、第K、第K+1の各ユーザ状況に対して、第K−1、第K、第K+1の各確率分布情報が設定されていたとする。この場合に第K−1のユーザ状況の第K−1の確率分布情報及び第K+1のユーザ状況の第K+1の確率分布情報の少なくとも一方に基づいて、第Kのユーザ状況の第Kの確率分布情報を補正する。更に具体的には補正前の第Kの確率分布情報に対して、第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づく重み付け補正を行う。そして補正後の第Kの確率分布情報にしたがった確率でジャンルを選択して、コンテンツを表示する。   For example, assume that the (K−1) th, Kth, and (K + 1) th probability distribution information is set for the (K−1) th, Kth, and (K + 1) th user situations. In this case, based on at least one of the (K-1) th probability distribution information of the (K-1) th user situation and the (K + 1) th probability distribution information of the (K + 1) th user situation, the Kth probability distribution of the Kth user situation. Correct the information. More specifically, weight correction based on at least one of the (K−1) th probability distribution information and the (K + 1) th probability distribution information is performed on the Kth probability distribution information before correction. Then, the genre is selected with the probability according to the corrected Kth probability distribution information, and the content is displayed.

例えば第K−1のユーザ状況が「通勤中」であり、第Kのユーザ状況が「勤務中」であったとする。この場合には、例えば勤務開始直後の前半期間においては、通勤中に表示していたコンテンツを一定の重み付けで表示する。また第K+1のユーザ状況が「帰宅中」である場合には、勤務終了直前の後半期間においては、帰宅中に表示すべきコンテンツを一定の重み付けの確率で表示する。このようにすれば、表示されるコンテンツが突然切り替わって、ユーザが違和感を感じる事態を防止できる。同様に、第K−1のユーザ状況が「リラックス状態」で第Kのユーザ状況が「緊張状態」である場合には、ユーザが緊張状態であると判定された直後の前半期間では、リラックス状態のコンテンツを一定の重み付けの確率で表示する。このようにすれば、表示されるコンテンツを、リラックス状態用のコンテンツから緊張状態用のコンテンツに自然に切り替えることが可能になる。   For example, it is assumed that the K-1 user situation is “commuting” and the Kth user situation is “working”. In this case, for example, in the first half period immediately after the start of work, the content displayed during commuting is displayed with a certain weight. When the K + 1st user status is “going home”, the content to be displayed while returning home is displayed with a certain weighting probability in the second half period immediately before the end of work. In this way, it is possible to prevent a situation where the displayed content suddenly changes and the user feels uncomfortable. Similarly, when the K-1th user situation is “relaxed” and the Kth user situation is “tensed”, the relaxed state is set in the first half period immediately after it is determined that the user is in a tensioned state. Are displayed with a certain weighting probability. In this way, the displayed content can be naturally switched from the relaxed content to the tensioned content.

また、例えばセンサによりユーザ状況を推定する場合、センサの精度等は完全ではないため、ユーザ状況の切り替わりを正確に判別することは難しい。例えばユーザが会社に出社した場合に、どのタイミングで「通勤中」から「勤務中」に切り替わったのかを正確に判別することは難しい。   For example, when the user situation is estimated by a sensor, it is difficult to accurately determine the switching of the user situation because the accuracy of the sensor is not perfect. For example, when a user enters the company, it is difficult to accurately determine at which timing the switch is from “commuting” to “working”.

この点、本実施形態の手法によれば、「通勤中」から「勤務中」への遷移時に、表示されるコンテンツが、通勤中用のコンテンツから勤務中用のコンテンツにシームレスに切り替わる。従って、センサの精度等が原因で、「通勤中」から「勤務中」に切り替わるタイミングを正確に判別できない場合にも、これに対処することが可能になる。   In this regard, according to the method of the present embodiment, at the time of transition from “commuting” to “working”, the displayed content is seamlessly switched from the content for commuting to the content for work. Therefore, it is possible to cope with the case where the timing for switching from “commuting” to “working” cannot be accurately determined due to the accuracy of the sensor or the like.

5.デジタルフォトフレーム
次に本実施形態の手法をデジタルフォトフレーム(広義には画像表示装置)に適用した場合について説明する。なお本実施形態が適用される画像表示装置はデジタルフォトフレームには限定されず、例えばウェアラブルディスプレイや携帯型情報端末のディスプレイなどの種々の画像表示装置に適用できる。またウェアラブルディスプレイとしては、例えばユーザの眼の近傍に装着されるシースルービューアのディスプレイなどを用いることができる。
5). Digital Photo Frame Next, a case where the method of the present embodiment is applied to a digital photo frame (image display device in a broad sense) will be described. The image display device to which the present embodiment is applied is not limited to a digital photo frame, and can be applied to various image display devices such as a wearable display and a display of a portable information terminal. As a wearable display, for example, a display of a see-through viewer mounted near the user's eyes can be used.

図9(A)にデジタルフォトフレーム300(デジタルフォトプレーヤ、画像再生装置)の例を示す。図9(A)は、いわゆるフォトスタンドタイプのデジタルフォトフレームの例である。このデジタルフォトフレーム300は、家の中などの任意の場所にユーザにより設置される。そして、デジタルの画像データや音データなどのコンテンツ情報の再生処理(画像再生、音再生)を実行する。デジタルフォトフレーム300は、例えばユーザの明示的な再生指示がなくても、画像等のコンテンツ情報(メディア情報)を自動的に再生することができる。例えば写真のスライドショーを自動的に実行したり、映像の自動再生を行う。   FIG. 9A shows an example of a digital photo frame 300 (digital photo player, image reproduction apparatus). FIG. 9A illustrates an example of a so-called photo stand type digital photo frame. The digital photo frame 300 is installed by a user in an arbitrary place such as a house. Then, reproduction processing (image reproduction, sound reproduction) of content information such as digital image data and sound data is executed. The digital photo frame 300 can automatically play back content information (media information) such as an image without an explicit playback instruction from the user, for example. For example, a photo slideshow is automatically executed, or an image is automatically reproduced.

なお図9(A)はフォトスタンドタイプのデジタルフォトフレームの例であるが、例えば図9(B)に示すように、壁掛けタイプのものであってもよい。この壁掛けタイプのデジタルフォトフレームとしては、例えば電気泳動型ディスプレイ等により実現される電子ペーパなどを用いることができる。また、デジタルフォトフレーム300に、コンテンツ情報の再生指示ボタンなどを設けたり、リモコンを用いて再生指示ができるようにしてもよい。   FIG. 9A shows an example of a photo stand type digital photo frame. However, as shown in FIG. As this wall-mounted digital photo frame, for example, electronic paper realized by an electrophoretic display or the like can be used. The digital photo frame 300 may be provided with a content information reproduction instruction button or the like, or a reproduction instruction may be performed using a remote controller.

デジタルフォトフレーム300は、例えばSDカード等のメモリカードのインターフェースを備えることができる。或いは、無線LAN、ブルートゥースなどの無線通信のインターフェースや、USB等の有線の通信インターフェースを備えることができる。例えばユーザが、メモリカードにコンテンツ情報を保存して、デジタルフォトフレーム300のメモリカードインターフェースに装着すると、デジタルフォトフレーム300は、メモリカードに保存されたコンテンツ情報の自動再生(スライドショー等)を実行する。或いは、デジタルフォトフレーム300は、無線通信や有線通信によりに外部からコンテンツ情報を受信すると、このコンテンツ情報の再生処理(自動再生処理)を実行する。例えば、ユーザが所持するデジタルカメラや携帯電話機などの携帯型電子機器がブルートゥース等の無線機能を有する場合には、この無線機能を利用して、携帯型電子機器からデジタルフォトフレーム300にコンテンツ情報を転送する。すると、デジタルフォトフレーム300は、転送されたコンテンツ情報の再生処理を実行する。   The digital photo frame 300 can include a memory card interface such as an SD card, for example. Alternatively, a wireless communication interface such as a wireless LAN or Bluetooth, or a wired communication interface such as USB can be provided. For example, when a user saves content information in a memory card and attaches it to the memory card interface of the digital photo frame 300, the digital photo frame 300 executes automatic reproduction (slideshow or the like) of the content information saved in the memory card. . Alternatively, when the digital photo frame 300 receives content information from the outside through wireless communication or wired communication, the digital photo frame 300 executes a reproduction process (automatic reproduction process) of the content information. For example, when a portable electronic device such as a digital camera or a mobile phone possessed by a user has a wireless function such as Bluetooth, content information is transferred from the portable electronic device to the digital photo frame 300 using this wireless function. Forward. Then, the digital photo frame 300 executes a reproduction process of the transferred content information.

図10にデジタルフォトフレーム300及びデジタルフォトフレーム300に通信接続されるサーバ200(狭義にはホームサーバ、広義には情報処理システム)の構成例を示す。デジタルフォトフレーム300は、処理部302、記憶部320、通信部338、表示部340、センサ350、操作部360を含む。サーバ200は、処理部202、記憶部220、通信部238を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   FIG. 10 shows a configuration example of a digital photo frame 300 and a server 200 (communication server in a narrow sense, an information processing system in a broad sense) connected to the digital photo frame 300 for communication. The digital photo frame 300 includes a processing unit 302, a storage unit 320, a communication unit 338, a display unit 340, a sensor 350, and an operation unit 360. The server 200 includes a processing unit 202, a storage unit 220, and a communication unit 238. Various modifications may be made such as omitting some of these components or adding other components.

デジタルフォトフレーム300の処理部302は、各種の制御処理や演算処理を行う。例えばデジタルフォトフレーム300の各部の制御を行ったり全体的な制御を行う。この処理部302の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、情報記憶媒体330に記憶されたプログラムなどにより実現できる。   The processing unit 302 of the digital photo frame 300 performs various control processes and arithmetic processes. For example, each part of the digital photo frame 300 is controlled or overall control is performed. The function of the processing unit 302 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program stored in the information storage medium 330, and the like.

記憶部320は、処理部302、通信部338などのワーク領域となるものであり、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部320は、ユーザの認証情報を記憶する認証情報記憶部322を含む。   The storage unit 320 serves as a work area for the processing unit 302, the communication unit 338, and the like, and its functions can be realized by a memory such as a RAM, an HDD (hard disk drive), or the like. The storage unit 320 includes an authentication information storage unit 322 that stores user authentication information.

情報記憶媒体330(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、メモリカードや光ディスクなどにより実現できる。処理部302は、情報記憶媒体330に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   The information storage medium 330 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by a memory card, an optical disk, or the like. The processing unit 302 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 330.

通信部338は、無線や有線の通信などにより外部デバイス(例えばサーバ、携帯型電子機器)との間で情報のやり取りを行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 338 exchanges information with an external device (for example, a server or a portable electronic device) by wireless or wired communication, and the function thereof is a hardware such as a communication ASIC or a communication processor. Hardware and communication firmware.

表示部340は、コンテンツ情報である画像を表示するためのものであり、例えば液晶ディスプレイや、有機ELなどの発光素子を用いたディスプレイや、電気泳動型ディスプレイなどにより実現できる。   The display unit 340 is for displaying an image as content information, and can be realized by, for example, a liquid crystal display, a display using a light emitting element such as an organic EL, an electrophoretic display, or the like.

センサ350(ユーザ検知センサ、人体検知センサ)は、ユーザ(ユーザ認証、ユーザ状態等)の検知等のためのセンサであり、検知結果に基づいて検知情報を出力する。本実施形態では、センサ350を、人物認証のためのセンサとして用いる。或いは、ユーザと表示部340(表示画面、デジタルフォトフレーム)との位置関係や、表示部340に対するユーザの視認状態や、ユーザが検知範囲内に存在するか否かなどを判断するためのセンサとして用いてもよい。センサ350としては、CCDやCMOSセンサなどの撮像センサや、焦電センサなどの人感センサを用いることができる。   The sensor 350 (user detection sensor, human body detection sensor) is a sensor for detecting a user (user authentication, user state, etc.) and outputs detection information based on the detection result. In the present embodiment, the sensor 350 is used as a sensor for person authentication. Alternatively, as a sensor for determining the positional relationship between the user and the display unit 340 (display screen, digital photo frame), the user's visual status with respect to the display unit 340, whether the user is within the detection range, or the like. It may be used. As the sensor 350, an image sensor such as a CCD or CMOS sensor, or a human sensor such as a pyroelectric sensor can be used.

なおセンサ350は、デジタルフォトフレーム300に直接に取り付けてもよいし、ホームセンサなどをセンサ350として利用してもよい。センサ350をデジタルフォトフレーム300に取り付ける場合には、図9(A)に示すように、センサ350をデジタルフォトフレーム300の例えば枠の部分に取り付けることができる。或いは有線のケーブル等を用いてセンサ350とデジタルフォトフレーム300を接続する形態にしてもよい。   The sensor 350 may be directly attached to the digital photo frame 300, or a home sensor or the like may be used as the sensor 350. When the sensor 350 is attached to the digital photo frame 300, the sensor 350 can be attached to, for example, a frame portion of the digital photo frame 300 as shown in FIG. Alternatively, the sensor 350 and the digital photo frame 300 may be connected using a wired cable or the like.

操作部360は、ユーザが各種情報を入力するためのものであり、例えば操作ボタンやリモコン装置などにより実現できる。ユーザは、この操作部360を用いて、ユーザ登録を行ったり、自身が所望する再生コンテンツ(お気に入り画像)の登録などを行うことができる。例えばユーザは、操作部360を用いて、ユーザ登録情報を入力することができる。   The operation unit 360 is used by the user to input various types of information, and can be realized by, for example, an operation button or a remote control device. The user can use this operation unit 360 to perform user registration and registration of playback content (favorite images) desired by the user. For example, the user can input user registration information using the operation unit 360.

処理部302は、センサ情報取得部304、ユーザ認識部306、ユーザ状態判断部308、表示制御部310を含む。なお、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 302 includes a sensor information acquisition unit 304, a user recognition unit 306, a user state determination unit 308, and a display control unit 310. Various modifications such as omission of some of these components and addition of other components are possible.

センサ情報取得部304はセンサ350からのセンサ情報を取得する。ユーザ認識部306はユーザの認識処理を行う。例えば、センサ350である撮像センサによりユーザの顔画像を撮像し、撮像データ(特徴点データ)等をそのユーザの認証情報として認証情報記憶部322に保存する。そしてユーザ認識の際には、保存されたユーザ認証情報に基づいて人物認証を行う。   The sensor information acquisition unit 304 acquires sensor information from the sensor 350. The user recognition unit 306 performs user recognition processing. For example, a user's face image is picked up by the image pickup sensor which is the sensor 350, and image pickup data (feature point data) or the like is stored in the authentication information storage unit 322 as the user's authentication information. At the time of user recognition, person authentication is performed based on the stored user authentication information.

ユーザ状態判断部308は、センサ情報取得部304により取得されたセンサ情報に基づいてユーザ状態を判断する。例えば、取得されたセンサ情報に基づいて、ユーザ(人物)と表示部340との位置関係、表示部340に対するユーザの視認状態、及びユーザが検知範囲内に存在するか否かの少なくとも1つを判断する。   The user state determination unit 308 determines the user state based on the sensor information acquired by the sensor information acquisition unit 304. For example, based on the acquired sensor information, at least one of the positional relationship between the user (person) and the display unit 340, the user's visual status with respect to the display unit 340, and whether or not the user exists within the detection range. to decide.

ここで位置関係は、ユーザと表示部340との距離(距離情報、距離パラメータ)や、表示部340に対するユーザの視線方向などである。   Here, the positional relationship is a distance (distance information, distance parameter) between the user and the display unit 340, a user's line-of-sight direction with respect to the display unit 340, or the like.

また視認状態は、ユーザの視野範囲の状態や注視状態などであり、具体的には、ユーザの視野範囲(ビューボリューム)に表示部340が入っているか否かや、ユーザが表示部340を注視しているか否かなどである。例えばユーザが表示部340を注視している状態か否かは、注視状態判断部309が判断する。   The visual recognition state is a state of the user's visual field range, a gaze state, and the like. Specifically, whether the display unit 340 is in the user's visual field range (view volume) or whether the user is watching the display unit 340. Or not. For example, the gaze state determination unit 309 determines whether or not the user is gazing at the display unit 340.

例えばセンサ350として、ユーザを撮像する撮像センサが設けられたとする。この場合には、ユーザ状態判断部308(位置関係判断部)は、撮像センサからの撮像情報に基づいて、ユーザの顔領域(矩形の枠領域)を検出する。そして検出された顔領域のサイズに基づいて、ユーザと表示部340との間の距離を判断(推定)する。またユーザ状態判断部308は、検出された顔領域を内包し顔領域よりもサイズが大きな計測領域を設定する。即ち顔領域にオーバーラップする計測領域を設定する。そして計測領域内に顔領域が存在する時間を計測し、計測された時間に基づいて、ユーザが表示部340を注視しているか否かを判断する。例えば計測領域内への存在時間が所定時間以上であった場合に、ユーザが注視していたと判断する。   For example, it is assumed that an imaging sensor for imaging the user is provided as the sensor 350. In this case, the user state determination unit 308 (positional relationship determination unit) detects the user's face area (rectangular frame area) based on the imaging information from the imaging sensor. Based on the detected size of the face area, the distance between the user and the display unit 340 is determined (estimated). In addition, the user state determination unit 308 sets a measurement area that includes the detected face area and is larger than the face area. That is, a measurement area that overlaps the face area is set. Then, the time during which the face area exists in the measurement area is measured, and based on the measured time, it is determined whether or not the user is gazing at the display unit 340. For example, when the presence time in the measurement area is a predetermined time or more, it is determined that the user is gazing.

表示制御部310は、表示部340の表示制御を行う。具体的には、複数のコンテンツの中から選択された提示コンテンツの画像を、表示部340に表示する制御を行う。例えば、サーバ200により提示コンテンツが選択され、そのコンテンツの情報を通信部338を介して受信すると、受信したコンテンツ情報に基づいて、表示部340にコンテンツ画像を表示するための制御を行う。   The display control unit 310 performs display control of the display unit 340. Specifically, control is performed to display an image of the presentation content selected from the plurality of contents on the display unit 340. For example, when the presented content is selected by the server 200 and information on the content is received via the communication unit 338, control for displaying a content image on the display unit 340 is performed based on the received content information.

ここで本実施形態では図1(A)、図1(B)等で説明したように、ユーザが選択したコンテンツのジャンルの選択履歴情報が、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況(TPOf)に関連づけられている。そして表示制御部310は、ユーザ認識部306によりユーザが認識され、認識されたユーザのユーザ状況に関連づけられた選択履歴情報に基づいて提示コンテンツが選択されると、選択された提示コンテンツの画像を表示部340に表示する制御を行う。即ち、ユーザの認識結果と、ユーザ状況と、選択履歴情報とに基づき選択されたコンテンツの画像を表示する制御を行う。   In this embodiment, as described with reference to FIGS. 1A and 1B, the selection history information of the genre of the content selected by the user includes at least the time, the place where the user stays, and the state of the user. One user status (TPOF) is associated. When the user is recognized by the user recognition unit 306 and the presentation content is selected based on the selection history information associated with the user status of the recognized user, the display control unit 310 displays an image of the selected presentation content. Control to display on the display unit 340 is performed. That is, control is performed to display an image of the content selected based on the user recognition result, the user situation, and the selection history information.

また表示制御部310は、ユーザ認識部306によりユーザが認識されなかった場合には、複数のコンテンツの中からランダムに選択されたコンテンツの画像を、表示部340に表示する制御を行う。例えば複数のコンテンツの中からランダムに選択されたコンテンツのスライド表示等を行う。   In addition, when the user is not recognized by the user recognition unit 306, the display control unit 310 performs control to display an image of content randomly selected from a plurality of contents on the display unit 340. For example, slide display or the like of content randomly selected from a plurality of contents is performed.

また表示制御部310は、ユーザ認識部306により認識されたユーザが、提示されているコンテンツに対して選択動作(例えば注視動作)を行っていないと判断された場合(例えば、ユーザは認識されたがユーザが注視していないと判断された場合)には、認識されたユーザのユーザ状況と選択履歴情報とに基づき選択されたコンテンツの画像を表示する制御を行う。一方、ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行ったと判断された場合(例えば、ユーザが認識され、且つユーザが表示部340を注視している判断された場合)には、ユーザの選択動作時(例えば注視時)に提示されていたコンテンツのジャンルに属するコンテンツの画像を表示する制御を行う。なお、表示部に表示されているコンテンツの画像に対してユーザが選択動作を行ったと判断された場合には、ユーザの選択動作時に表示されていたコンテンツのジャンルの選択頻度(選択回数)が更新(インクリメント)される。   Further, the display control unit 310 determines that the user recognized by the user recognition unit 306 has not performed a selection operation (for example, a gaze operation) on the presented content (for example, the user has been recognized). If it is determined that the user is not gazing), control is performed to display an image of the content selected based on the user status of the recognized user and the selection history information. On the other hand, when it is determined that the user recognized by the user recognition unit has performed a selection operation on the presented content (for example, it is determined that the user is recognized and the user is gazing at the display unit 340). In the case of the user), control is performed to display an image of the content belonging to the genre of the content presented at the time of the user's selection operation (for example, during gaze). When it is determined that the user has performed a selection operation on the content image displayed on the display unit, the content genre selection frequency (number of selections) displayed during the user selection operation is updated. (Increment).

サーバ200の処理部202は、管理処理などの各種の処理を行うものであり、CPU等のプロセッサやASICなどにより実現できる。記憶部220は、処理部202や通信部238のワーク領域となるものであり、例えばRAMやHDD等により実現できる。通信部238は、デジタルフォトフレーム300や外部サーバ600と有線又は無線で通信を行うためのものであり、通信用ASIC又は通信用プロセッサなどにより実現できる。   The processing unit 202 of the server 200 performs various processes such as a management process, and can be realized by a processor such as a CPU or an ASIC. The storage unit 220 is a work area for the processing unit 202 and the communication unit 238, and can be realized by, for example, a RAM or an HDD. The communication unit 238 is for performing wired or wireless communication with the digital photo frame 300 or the external server 600, and can be realized by a communication ASIC or a communication processor.

処理部202はコンテンツ選択部204、情報更新部206を含む。コンテンツ選択部204は、ユーザの認識結果とユーザ状況に基づいて、認識されたユーザの各ユーザ状況に関連づけられた選択履歴情報を、選択履歴情報記憶部226から読み出し、読み出された選択履歴情報に基づき提示コンテンツを選択する。情報更新部206は、提示コンテンツに対してユーザが選択動作を行ったと判断された場合に、選択履歴情報の更新処理を行う。記憶部220は、ユーザに関する種々の情報を記憶するユーザ情報記憶部222と、コンテンツ情報を記憶するコンテンツ情報記憶部224と、選択履歴情報を記憶する選択履歴情報記憶部226を含む。なお図10では、コンテンツの選択や選択履歴情報の更新をサーバ側で行う場合の例を示しているが、これらをデジタルフォトフレーム側で行うようにしてもよい。   The processing unit 202 includes a content selection unit 204 and an information update unit 206. The content selection unit 204 reads the selection history information associated with each user situation of the recognized user from the selection history information storage unit 226 based on the user recognition result and the user situation, and reads the read selection history information. The presentation content is selected based on. The information update unit 206 performs an update process of selection history information when it is determined that the user has performed a selection operation on the presented content. The storage unit 220 includes a user information storage unit 222 that stores various information about the user, a content information storage unit 224 that stores content information, and a selection history information storage unit 226 that stores selection history information. FIG. 10 shows an example in which content selection and selection history information are updated on the server side, but these may be performed on the digital photo frame side.

図10では、デジタルフォトフレーム300とサーバ200は、例えば無線LAN等のネットワークで通信接続されている。そしてデジタルフォトフレーム300によりユーザが認識されると、デジタルフォトフレーム300は、ユーザの認識結果をネットワークを介してサーバ200に送信する。するとサーバ200は、受信したユーザの認識結果に基づいて、そのユーザのユーザ状況に関連づけられた選択履歴情報を選択履歴情報記憶部226から読み出す。そして読み出された選択履歴情報に基づいて提示コンテンツを選択し、選択された提示コンテンツの情報をネットワークを介してデジタルフォトフレーム300に送信する。すると、デジタルフォトフレーム300は、受信した提示コンテンツの情報に基づいて、提示コンテンツの画像を表示部340に表示する。   In FIG. 10, the digital photo frame 300 and the server 200 are communicatively connected via a network such as a wireless LAN. When the digital photo frame 300 recognizes the user, the digital photo frame 300 transmits the user recognition result to the server 200 via the network. Then, the server 200 reads selection history information associated with the user status of the user from the selection history information storage unit 226 based on the received user recognition result. The presentation content is selected based on the read selection history information, and information on the selected presentation content is transmitted to the digital photo frame 300 via the network. Then, the digital photo frame 300 displays an image of the presentation content on the display unit 340 based on the received presentation content information.

ユーザは例えば図11(A)に示すようなアップロード画面を用いて、サーバ200のコンテンツ情報記憶部224にコンテンツを登録する。具体的には、ユーザは、ユーザ名及びパスワードを入力する。そしてWebブラウザなどのクライアントプログラムを使用して、自身が持っている画像、動画や他のホームページのURLなどのコンテンツを、ユーザ名及びパスワードに関連づけて、図11(A)のアップロード画面を用いてコンテンツ情報記憶部224に登録する。この場合に、例えばユーザ登録画面において、撮像センサなどを用いてユーザの顔画像等を撮影し、撮影された顔画像等にユーザ名及びパスワードを関連づけて、ユーザ登録情報として予め登録しておく。そしてデジタルフォトフレーム300(クライアント)のユーザ認識部306が、撮像センサで撮影された顔画像等によりユーザを認識すると、その顔画像等に関連づけられたユーザ名及びパスワード等を引数にして、サーバ200にリクエストを送信する。サーバ200のコンテンツ選択部204は、このリクエストを受信すると、リクエストに含まれるユーザ名及びパスワード等に基づいて、図11(A)で登録されたコンテンツを、そのユーザに提示するコンテンツとして選択することになる。   The user registers content in the content information storage unit 224 of the server 200 using, for example, an upload screen as shown in FIG. Specifically, the user inputs a user name and a password. Then, using a client program such as a Web browser, the content such as the URL of an image, video, or other homepage that the user has is associated with the user name and password, and the upload screen in FIG. 11A is used. Register in the content information storage unit 224. In this case, for example, on the user registration screen, a user's face image or the like is captured using an imaging sensor or the like, and the user name and password are associated with the captured face image or the like and registered in advance as user registration information. When the user recognizing unit 306 of the digital photo frame 300 (client) recognizes the user based on the face image captured by the image sensor, the server 200 uses the user name and password associated with the face image as arguments. Send a request to. Upon receiving this request, the content selection unit 204 of the server 200 selects the content registered in FIG. 11A as the content to be presented to the user based on the user name and password included in the request. become.

図11(B)に、ユーザ情報記憶部222(ユーザデータベース)のデータ構造の例を示す。ユーザ情報記憶部222には、ユーザ名(文字列)、パスワード(文字列)、及び直前において「seeing」の状態で送信されたジャンル(文字列)が保持される。   FIG. 11B shows an example of the data structure of the user information storage unit 222 (user database). The user information storage unit 222 holds a user name (character string), a password (character string), and a genre (character string) transmitted in the state of “seeing” immediately before.

図12に図11のシステムの動作を説明するための状態遷移図を示す。図12に示すように、ユーザが認識されず、ユーザが非存在(none)であると判断された場合には、複数のコンテンツの中からランダムに選択されたコンテンツを表示する(状態ST1)。   FIG. 12 shows a state transition diagram for explaining the operation of the system of FIG. As shown in FIG. 12, when it is determined that the user is not recognized and the user is non-existent (none), the content randomly selected from the plurality of contents is displayed (state ST1).

またユーザが認識されると、ユーザ状況と選択履歴情報により選択されたコンテンツを表示する(状態ST2)。即ち、ユーザは存在するが、表示部340を注視していない状態では(seeing)、ユーザが図11(A)でアップロードしたコンテンツを、図1(A)、図1(B)や図4で説明した手法により表示する。   When the user is recognized, the content selected by the user situation and the selection history information is displayed (state ST2). That is, in the state where the user exists but the display unit 340 is not watched (seeing), the content uploaded by the user in FIG. 11A is displayed in FIG. 1A, FIG. 1B, or FIG. Display using the method described.

またユーザが選択動作を行っていると判断されると、具体的にはユーザが表示部340を注視していると判断されると(looking)、選択動作時(注視時)に提示されていたコンテンツのジャンルに属するコンテンツを表示する(状態ST3)。例えば注視していたジャンルのスライドショーを作成して表示する。   When it is determined that the user is performing the selection operation, specifically, when it is determined that the user is gazing at the display unit 340 (looking), the user is presented during the selection operation (at the time of gazing). The content belonging to the content genre is displayed (state ST3). For example, a slide show of the genre that was watched is created and displayed.

図12では、状態ST1とST2の間の遷移や、状態ST2とST3の間の遷移や、状態ST3からST1への遷移は可能になっているが、状態ST1からST3への遷移は不可になっている。   In FIG. 12, the transition between the states ST1 and ST2, the transition between the states ST2 and ST3, and the transition from the state ST3 to ST1 are possible, but the transition from the state ST1 to ST3 is not possible. ing.

次に図13、図14のフローチャートを用いて本実施形態の動作を説明する。図13はデジタルフォトフレーム300の動作を説明するためのフローチャートである。   Next, the operation of the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 13 is a flowchart for explaining the operation of the digital photo frame 300.

デジタルフォトフレーム300の電源投入等が行われると、センサによりユーザが検知されたか否かが判断され(ステップS11)、検知された場合には、認証情報記憶部322に記憶された認証情報によりユーザの照合が行われる(ステップS12)。そして、検知されたユーザが登録ユーザであると認識されると(ステップS13)、ユーザが表示部340を注視しているか否かが判断される(ステップS16)。一方、ユーザが認識されないと、図12の状態ST1であるユーザ非存在(none)でサーバ200にリクエストを送信する(ステップS14)。そして現在のユーザ状態を保持し、サーバ200から送られてきたコンテンツを表示部340に表示する(ステップS15)。   When the digital photo frame 300 is powered on or the like, it is determined whether or not a user is detected by a sensor (step S11). If detected, the user is identified by the authentication information stored in the authentication information storage unit 322. Are collated (step S12). When the detected user is recognized as a registered user (step S13), it is determined whether or not the user is gazing at the display unit 340 (step S16). On the other hand, if the user is not recognized, a request is transmitted to the server 200 in a user non-existence (none) state ST1 in FIG. 12 (step S14). Then, the current user state is held, and the content sent from the server 200 is displayed on the display unit 340 (step S15).

ステップS16で、ユーザが表示部340を注視していると判断された場合には、直前のユーザ状態を判断する(ステップS17)。そして直前のユーザ状態が図12のユーザ認識の状態ST2(seeing)であった場合には、ユーザ名、パスワード、注視フラグ=Yesを引数にしてサーバ200にリクエストを送信する(ステップS18)。また、直前の状態が図12のユーザ非存在の状態ST1(none)である場合には、ユーザ名、パスワード、注視フラグ=Noを引数にしてサーバ200にリクエストを送信する(ステップS19)。そして現在の状態を保持し、サーバ200から送られてきたコンテンツを表示部340に表示する。一方、直前の状態が図12のユーザ注視の状態ST3(looking)である場合には、現在の状態を保持し、サーバ200から送られてきたコンテンツを表示部340に表示する。   If it is determined in step S16 that the user is gazing at the display unit 340, the previous user state is determined (step S17). If the previous user state is the user recognition state ST2 (seeing) in FIG. 12, a request is transmitted to the server 200 with the user name, password, and gaze flag = Yes as arguments (step S18). If the immediately preceding state is the user non-existing state ST1 (none) in FIG. 12, a request is transmitted to the server 200 with the user name, password, and gaze flag = No as arguments (step S19). Then, the current state is held, and the content sent from the server 200 is displayed on the display unit 340. On the other hand, if the immediately preceding state is the user attention state ST3 (locating) in FIG. 12, the current state is maintained and the content sent from the server 200 is displayed on the display unit 340.

図14はサーバ200の動作を説明するためのフローチャートである。まずデジタルフォトフレーム300からリクエストを受信したか否かを判断する(ステップS31)。即ち図13のステップS14、S18、S19のリクエストを受信したか否かを判断する。そしてリクエストを受信すると、リクエストの引数であるユーザ名とパスワードを確認する(ステップS32)。そしてユーザが登録ユーザであることが認識されると、リクエストの引数に基づいて、ユーザがデジタルフォトフレーム300の表示部340を注視しているか否かを判断する(ステップS33、S34)。例えば図13のステップS18で注視フラグ=Yesとなっていた場合にはユーザが注視していると判断され、ステップS19で注視フラグ=Noとなっていた場合にはユーザが注視していないと判断される。   FIG. 14 is a flowchart for explaining the operation of the server 200. First, it is determined whether a request has been received from the digital photo frame 300 (step S31). That is, it is determined whether or not the requests in steps S14, S18, and S19 in FIG. 13 have been received. When the request is received, the user name and password that are arguments of the request are confirmed (step S32). When it is recognized that the user is a registered user, it is determined whether or not the user is gazing at the display unit 340 of the digital photo frame 300 based on the argument of the request (steps S33 and S34). For example, if the gaze flag = Yes in step S18 of FIG. 13, it is determined that the user is gazing, and if the gaze flag = No in step S19, it is determined that the user is not gazing. Is done.

ユーザが注視していると判断された場合には、選択されたコンテンツのジャンルの選択頻度(選択回数)を例えば1だけインクリメントする(ステップS35)。これにより図4等で説明した確率分布情報の更新が実行される。次に、ユーザ情報記憶部222に保存されているジャンルのスライドショーを作成し、デジタルフォトフレーム300にコンテンツを送信する(ステップS36、S37)。   If it is determined that the user is gazing, the selection frequency (number of selections) of the genre of the selected content is incremented by, for example, 1 (step S35). Thereby, the update of the probability distribution information described with reference to FIG. 4 and the like is executed. Next, a slide show of a genre stored in the user information storage unit 222 is created, and contents are transmitted to the digital photo frame 300 (steps S36 and S37).

一方、ステップS33でユーザが認識されなかった場合には、ユーザが不在であると考えられるため、コンテンツ情報記憶部224からコンテンツをランダムに選択し、選択されたコンテンツをデジタルフォトフレーム300に送信する(ステップS38、S37)。   On the other hand, if the user is not recognized in step S33, it is considered that the user is absent. Therefore, the content is randomly selected from the content information storage unit 224, and the selected content is transmitted to the digital photo frame 300. (Steps S38 and S37).

またステップS34でユーザが注視していないと判断された場合には、ユーザ状況(時間)と選択履歴情報に基づき、コンテンツを選択する(ステップS39)。具体的には、図4等で説明したように、ユーザ状況である時間が属するタイムスロットに関連づけられた確率分布情報を読み出して、読み出された確率分布情報にしたがった確率でジャンルを選択する。そして選択されたコンテンツのジャンルをユーザ情報記憶部222に保存して、デジタルフォトフレーム300にコンテンツを送信する(ステップS40、S37)。   If it is determined in step S34 that the user is not gazing, content is selected based on the user status (time) and selection history information (step S39). Specifically, as described with reference to FIG. 4 and the like, the probability distribution information associated with the time slot to which the time that is the user situation belongs is read, and the genre is selected with the probability according to the read probability distribution information. . Then, the genre of the selected content is stored in the user information storage unit 222, and the content is transmitted to the digital photo frame 300 (steps S40 and S37).

以上のように本実施形態によれば、図13のステップS13、S14に示すように、ユーザが認識されず、ユーザ非存在(none)でサーバ200にリクエストが送信されると、図14のステップS33、S38に示すように、コンテンツがランダムに選択される。そして選択されたコンテンツがデジタルフォトフレーム300に送信されて、表示部340に表示される。これにより図12の状態ST1において、ランダムに選択されたコンテンツが表示されるようになる。   As described above, according to the present embodiment, as shown in steps S13 and S14 of FIG. 13, when the user is not recognized and the request is transmitted to the server 200 in the absence of the user (none), the step of FIG. As shown in S33 and S38, the content is selected at random. Then, the selected content is transmitted to the digital photo frame 300 and displayed on the display unit 340. Thereby, in the state ST1 of FIG. 12, the randomly selected content is displayed.

また図13のステップS16、S19に示すように、ユーザは認識されたが、ユーザが表示部340を注視していないと判断され、注視フラグ=Noでサーバ200にリクエストが送信されると、図14のステップS34、S39に示すように、ユーザ状況と選択履歴情報に基づきコンテンツが選択される。図13のステップS16、S17、S19に示すようにユーザが注視しているが、直前のユーザの状態がユーザ非存在である場合も同様である。そして選択されたコンテンツがデジタルフォトフレーム300に送信されて、表示部340に表示される。これにより図12の状態ST2に留まっている場合や状態ST1からST2に移行した場合に、ユーザ状況と選択履歴情報に基づき選択されたコンテンツが表示されるようになる(seeing)。   Also, as shown in steps S16 and S19 in FIG. 13, if the user is recognized, but it is determined that the user is not gazing at the display unit 340, and the request is transmitted to the server 200 with the gazing flag = No. As shown in steps S34 and S39 of FIG. 14, content is selected based on the user situation and selection history information. Although the user is watching as shown in steps S16, S17, and S19 in FIG. 13, the same applies to the case where the previous user state is the absence of the user. Then, the selected content is transmitted to the digital photo frame 300 and displayed on the display unit 340. Accordingly, when the user stays in the state ST2 in FIG. 12 or when the state ST1 is shifted to ST2, the content selected based on the user situation and the selection history information is displayed (seeing).

また図13のステップS16、S17、S18に示すように、ユーザが表示部340を注視していると判断され、注視フラグ=Yesでサーバ200にリクエストが送信されたとする。この場合には、図14のステップS35、S36に示すように、選択されたコンテンツのジャンルの選択頻度がインクリメントされると共に、ステップS40でユーザ情報記憶部224に保存されているジャンルのスライドショーが作成されて、そのスライドショーが表示部340に表示される。これにより図12の状態ST2からST3に移行した場合に、選択頻度がインクリメントされると共に、注視時に表示されていたコンテンツのジャンルのスライドショーが表示されるようになる。   Further, as shown in steps S16, S17, and S18 of FIG. 13, it is determined that the user is gazing at the display unit 340, and the request is transmitted to the server 200 with the gazing flag = Yes. In this case, as shown in steps S35 and S36 in FIG. 14, the selection frequency of the genre of the selected content is incremented, and a slide show of the genre stored in the user information storage unit 224 is created in step S40. Then, the slide show is displayed on the display unit 340. As a result, when the state is shifted from the state ST2 to ST3 in FIG. 12, the selection frequency is incremented and a slide show of the content genre displayed at the time of gaze is displayed.

即ち本実施形態では、図14のステップS33、S34、S39に示すように、ユーザが認識されたが注視していないと判断された場合には、図4で説明したような選択履歴情報に基づいてコンテンツが選択される。そしてステップS40に示すように、この時に選択されたコンテンツのジャンルが、直前に選択されたコンテンツのジャンルとして保存される。そして、コンテンツを提示し、ステップS34においてそのコンテンツをユーザが注視していると判断された場合には、ステップS40で保存された直前のコンテンツのジャンルの選択頻度が、ステップS35に示すようにインクリメントされる。これにより、選択履歴情報に基づくコンテンツの表示と、そのコンテンツを注視した場合の選択頻度の更新とを適正に実現できるようになる。   That is, in the present embodiment, as shown in steps S33, S34, and S39 in FIG. 14, when it is determined that the user has been recognized but not watched, the selection history information as described in FIG. 4 is used. Content is selected. Then, as shown in step S40, the genre of the content selected at this time is stored as the genre of the content selected immediately before. Then, when the content is presented and it is determined in step S34 that the user is gazing at the content, the selection frequency of the immediately preceding content genre stored in step S40 is incremented as shown in step S35. Is done. Accordingly, it is possible to appropriately realize the display of the content based on the selection history information and the update of the selection frequency when the content is watched.

また図13のステップS16、S17、S20に示すように、ユーザが表示部340を注視していると判断され、直前のユーザ状態が注視状態であった場合には、現在のユーザ状態が保持され、サーバ200から送られてきたコンテンツが表示される。これにより図12の状態ST3に留まっている場合に、注視時に表示されていたコンテンツのジャンルのスライドショーが引き続き表示されるようになる。   Further, as shown in steps S16, S17, and S20 of FIG. 13, when it is determined that the user is gazing at the display unit 340, and the previous user state is the gazing state, the current user state is retained. The content sent from the server 200 is displayed. Thus, when the state stays in the state ST3 in FIG. 12, the slide show of the content genre displayed at the time of gaze is continuously displayed.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(情報処理システム、画像表示装置等)と共に記載された用語(サーバ、デジタルフォトフレーム等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また情報処理システム、画像表示装置の構成、動作や、コンテンツの選択手法、選択履歴情報の記憶・更新手法等も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (servers, digital photo frames, etc.) described together with different terms (information processing systems, image display devices, etc.) in a broader sense or the same meaning at least once are used anywhere in the specification or drawings. Can also be replaced by the different terms. In addition, the configuration and operation of the information processing system and the image display device, the content selection method, the selection history information storage / update method, and the like are not limited to those described in the present embodiment, and various modifications can be made. is there.

102 処理部、104 センサ情報取得部、106 ユーザ認識部、
108 状況推定部、110 コンテンツ選択部、111 補正部、
112 提示制御部、114 情報更新部、120 記憶部、
122 コンテンツ情報記憶部、124 選択履歴情報記憶部、
126 予定情報記憶部、130 情報記憶媒体、138 通信部、
142 情報提示部、150 センサ、200 サーバ、202 処理部、
204 コンテンツ選択部、206 情報更新部、220 記憶部、
222 ユーザ情報記憶部、224 コンテンツ情報記憶部、
226 選択履歴情報記憶部、238 通信部、300 デジタルフォトフレーム、
302 処理部、304 センサ情報取得部、306 ユーザ認識部、
308 ユーザ状態判断部、309 注視状態判断部、310 表示制御部、
320 記憶部、322 認証情報記憶部、330 情報記憶媒体、338 通信部、
340 表示部、350 センサ、360 操作部
102 processing unit, 104 sensor information acquisition unit, 106 user recognition unit,
108 situation estimation unit, 110 content selection unit, 111 correction unit,
112 presentation control unit, 114 information update unit, 120 storage unit,
122 content information storage unit, 124 selection history information storage unit,
126 schedule information storage unit, 130 information storage medium, 138 communication unit,
142 information presentation unit, 150 sensor, 200 server, 202 processing unit,
204 content selection unit, 206 information update unit, 220 storage unit,
222 user information storage unit, 224 content information storage unit,
226 selection history information storage unit, 238 communication unit, 300 digital photo frame,
302 processing unit, 304 sensor information acquisition unit, 306 user recognition unit,
308 user state determination unit, 309 gaze state determination unit, 310 display control unit,
320 storage unit, 322 authentication information storage unit, 330 information storage medium, 338 communication unit,
340 display unit, 350 sensor, 360 operation unit

Claims (25)

ユーザを認識するユーザ認識部と、
ユーザが選択したコンテンツのジャンルの選択履歴情報を、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけて記憶する選択履歴情報記憶部と、
前記ユーザ認識部によりユーザが認識された場合に、ユーザの認識結果とユーザ状況に基づいて、認識されたユーザの各ユーザ状況に関連づけられた前記選択履歴情報を、前記選択履歴情報記憶部から読み出し、読み出された前記選択履歴情報に基づいて、複数のコンテンツの中からユーザへの提示コンテンツを選択するコンテンツ選択部と、
を含むことを特徴とする情報処理システム。
A user recognition unit for recognizing a user;
A selection history information storage unit that stores selection history information of a genre of content selected by the user in association with a user situation that is at least one of time, a place where the user stays, and a state of the user;
When the user is recognized by the user recognition unit, the selection history information associated with each user status of the recognized user is read from the selection history information storage unit based on the user recognition result and the user status. A content selection unit that selects content to be presented to the user from a plurality of content based on the read selection history information;
An information processing system comprising:
請求項1において、
前記選択履歴情報記憶部は、
第1〜第Nのユーザ状況の各ユーザ状況に対して、ジャンルの選択についての第1〜第Nの確率分布情報の各確率分布情報を関連づけて記憶し、
前記コンテンツ選択部は、
認識されたユーザのユーザ状況が、前記第1〜第Nのユーザ状況のうちの第Kのユーザ状況である場合(1≦K≦N)には、前記第Kのユーザ状況に関連づけられた第Kの確率分布情報を前記選択履歴情報記憶部から読み出し、読み出された前記第Kの確率分布情報にしたがった確率でジャンルを選択し、選択されたジャンルに対応するコンテンツを、前記提示コンテンツとして選択することを特徴とする情報処理システム。
In claim 1,
The selection history information storage unit
For each user situation of the first to Nth user situations, each probability distribution information of the first to Nth probability distribution information for selecting a genre is stored in association with each other.
The content selection unit
If the recognized user situation is the Kth user situation among the first to Nth user situations (1 ≦ K ≦ N), the user situation associated with the Kth user situation K probability distribution information is read from the selection history information storage unit, a genre is selected with a probability according to the read Kth probability distribution information, and content corresponding to the selected genre is used as the presentation content. An information processing system characterized by selecting.
請求項2において、
前記選択履歴情報記憶部は、
複数のユーザの各ユーザ毎に前記第1〜第Nの確率分布情報を記憶し、
前記コンテンツ選択部は、
認識されたユーザに対応する前記第1〜第Nの確率分布情報を前記選択履歴情報記憶部から読み出して、前記提示コンテンツを選択することを特徴とする情報処理システム。
In claim 2,
The selection history information storage unit
Storing the first to Nth probability distribution information for each of a plurality of users;
The content selection unit
An information processing system, wherein the first to Nth probability distribution information corresponding to a recognized user is read from the selection history information storage unit and the presented content is selected.
請求項2又は3において、
前記第1〜第Nの確率分布情報の各確率分布情報は、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた確率分布テーブルであることを特徴とする情報処理システム。
In claim 2 or 3,
Each probability distribution information of the first to Nth probability distribution information is a probability distribution table in which a selection frequency of each genre is associated with each genre of a plurality of genres.
請求項2乃至4のいずれかにおいて、
第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づいて、前記第Kの確率分布情報を補正する補正部を含み、
前記コンテンツ選択部は、
補正後の前記第Kの確率分布情報にしたがった確率でジャンルを選択して、提示コンテンツを選択することを特徴とする情報処理システム。
In any of claims 2 to 4,
A correction unit that corrects the Kth probability distribution information based on at least one of the K-1th probability distribution information and the K + 1th probability distribution information;
The content selection unit
An information processing system, wherein a genre is selected with a probability according to the corrected Kth probability distribution information, and a presentation content is selected.
請求項5において、
前記補正部は、
補正前の前記第Kの確率分布情報に対して、前記第K−1の確率分布情報及び前記第K+1の確率分布情報の少なくとも一方に基づく重み付け補正を行うことを特徴とする情報処理システム。
In claim 5,
The correction unit is
An information processing system, wherein weight correction based on at least one of the (K-1) th probability distribution information and the (K + 1) th probability distribution information is performed on the Kth probability distribution information before correction.
請求項2乃至6のいずれかにおいて、
前記第1〜第Nのユーザ状況に対応して第1〜第Nのタイムスロットが設定され、
前記選択履歴情報記憶部は、
前記第1〜第Nのタイムスロットの各タイムスロットに対して、前記第1〜第Nの確率分布情報の各確率分布情報を関連づけて記憶し、
前記コンテンツ選択部は、
ユーザ状況である時間が、前記第1〜第Nのタイムスロットの第Kのタイムスロットに属する場合には、前記第Kのタイムスロットに関連づけられた前記第Kの確率分布情報を前記選択履歴情報記憶部から読み出して、前記提示コンテンツを選択することを特徴とする情報処理システム。
In any one of Claims 2 thru | or 6.
First to Nth time slots are set corresponding to the first to Nth user situations,
The selection history information storage unit
Storing each probability distribution information of the first to Nth probability distribution information in association with each time slot of the first to Nth time slots;
The content selection unit
If the time corresponding to the user status belongs to the Kth time slot of the first to Nth time slots, the Kth probability distribution information associated with the Kth time slot is used as the selection history information. An information processing system that reads from a storage unit and selects the presented content.
請求項7において、
第K−1の確率分布情報及び第K+1の確率分布情報の少なくとも一方に基づいて、前記第Kの確率分布情報を補正する補正部を含み、
前記補正部は、
前記第Kのタイムスロットの前半期間では、補正前の前記第Kの確率分布情報に対して、第K−1のタイムスロットの前記第K−1の確率分布情報に基づく重み付け補正を行い、
前記第Kのタイムスロットの後半期間では、補正前の前記第Kの確率分布情報に対して、第K+1のタイムスロットの前記第K+1の確率分布情報に基づく重み付け補正を行うことを特徴とする情報処理システム。
In claim 7,
A correction unit that corrects the Kth probability distribution information based on at least one of the K-1th probability distribution information and the K + 1th probability distribution information;
The correction unit is
In the first half period of the Kth time slot, weight correction is performed on the Kth probability distribution information before correction based on the K-1th probability distribution information of the K-1 time slot,
In the second half period of the Kth time slot, weight correction is performed on the Kth probability distribution information before correction based on the K + 1th probability distribution information of the K + 1 time slot. Processing system.
請求項1乃至8のいずれかにおいて、
前記選択履歴情報記憶部に記憶される前記選択履歴情報の更新処理を行う情報更新部を含み、
前記情報更新部は、
ジャンルが異なる複数のコンテンツがユーザに提示され、提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、前記選択履歴情報の更新処理を行うことを特徴とする情報処理システム。
In any one of Claims 1 thru | or 8.
An information update unit that performs an update process of the selection history information stored in the selection history information storage unit,
The information update unit
An information processing system, wherein a plurality of contents having different genres are presented to a user, and the selection history information is updated when it is determined that the user has performed a selection operation on the presented contents. .
請求項9において、
前記選択履歴情報記憶部は、
複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた情報を、前記選択履歴情報として記憶し、
前記情報更新部は、
提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、選択動作が行われたコンテンツに対応するジャンルの前記選択頻度を更新することを特徴とする情報処理システム。
In claim 9,
The selection history information storage unit
Information related to the selection frequency of each genre for each genre of a plurality of genres is stored as the selection history information,
The information update unit
An information processing system that updates the selection frequency of a genre corresponding to a content for which a selection operation has been performed when it is determined that the user has performed a selection operation on the presented content.
請求項1乃至10のいずれかにおいて、
前記コンテンツ選択部は、
前記ユーザ認識部によりユーザが認識されなかった場合には、複数のコンテンツの中からランダムに前記提示コンテンツを選択することを特徴とする情報処理システム。
In any one of Claims 1 thru | or 10.
The content selection unit
An information processing system, wherein when the user is not recognized by the user recognition unit, the presented content is selected at random from a plurality of contents.
請求項1乃至11のいずれかにおいて、
前記コンテンツ選択部は、
前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行っていないと判断された場合に、認識されたユーザのユーザ状況と前記選択履歴情報とに基づいて、前記提示コンテンツを選択することを特徴とする情報処理システム。
In any one of Claims 1 thru | or 11,
The content selection unit
When it is determined that the user recognized by the user recognition unit is not performing a selection operation on the presented content, based on the user status of the recognized user and the selection history information, An information processing system that selects presentation content.
請求項12において、
前記コンテンツ選択部は、
前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行ったと判断された場合には、ユーザの選択動作時に提示されていたコンテンツのジャンルに属するコンテンツを、前記提示コンテンツとして選択することを特徴とする情報処理システム。
In claim 12,
The content selection unit
When it is determined that the user recognized by the user recognition unit has performed a selection operation on the presented content, the content belonging to the genre of the content presented at the time of the user selection operation is displayed. An information processing system characterized by being selected as content.
請求項13において、
前記コンテンツ選択部は、
コンテンツの画像が表示される表示部をユーザが注視していると判断された場合に、ユーザがコンテンツの選択動作を行っていると判断することを特徴とする画像表示装置。
In claim 13,
The content selection unit
An image display device characterized in that, when it is determined that a user is gazing at a display unit on which a content image is displayed, the user determines that the content is being selected.
請求項12乃至14のいずれかにおいて、
前記選択履歴情報記憶部に記憶される前記選択履歴情報の更新処理を行う情報更新部を含み、
前記情報更新部は、
提示されているコンテンツに対してユーザが選択動作を行ったと判断された場合に、前記選択履歴情報の更新処理を行うことを特徴とする情報処理システム。
In any of claims 12 to 14,
An information update unit that performs an update process of the selection history information stored in the selection history information storage unit,
The information update unit
An information processing system that performs an update process of the selection history information when it is determined that a user has performed a selection operation on the presented content.
請求項1乃至15のいずれかにおいて、
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報を含む情報に基づいて、ユーザの状況を推定するユーザ状況推定部を含むことを特徴とする情報処理システム。
In any one of Claims 1 thru | or 15,
A user situation in which a user situation is estimated based on information including sensor information from at least one of a behavior sensor that measures a user's action, a state sensor that measures a user's state, and an environment sensor that measures a user's environment An information processing system including an estimation unit.
画像を表示する表示部と、
ユーザを認識するユーザ認識部と、
複数のコンテンツの中から選択されたコンテンツの画像を、前記表示部に表示する制御を行う表示制御部とを含み、
ユーザが選択したコンテンツのジャンルの選択履歴情報が、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけられており、
前記表示制御部は、
前記ユーザ認識部によりユーザが認識され、認識されたユーザのユーザ状況に関連づけられた前記選択履歴情報に基づいてコンテンツが選択された場合に、選択されたコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とする画像表示装置。
A display for displaying an image;
A user recognition unit for recognizing a user;
A display control unit that performs control to display an image of content selected from a plurality of contents on the display unit,
The selection history information of the genre of the content selected by the user is associated with a user situation that is at least one of time, a place where the user stays, and the user's state,
The display control unit
When a user is recognized by the user recognition unit and content is selected based on the selection history information associated with the user status of the recognized user, an image of the selected content is displayed on the display unit. An image display device characterized by performing control.
請求項17において、
前記表示制御部は、
前記ユーザ認識部によりユーザが認識されなかった場合には、複数のコンテンツの中からランダムに選択されたコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とする画像表示装置。
In claim 17,
The display control unit
When the user is not recognized by the user recognition unit, an image display device is provided that performs control to display an image of content randomly selected from a plurality of contents on the display unit.
請求項17又は18において、
前記表示制御部は、
前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行っていないと判断された場合に、認識されたユーザのユーザ状況と前記選択履歴情報とに基づき選択されたコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とする画像表示装置。
In claim 17 or 18,
The display control unit
When it is determined that the user recognized by the user recognition unit has not performed a selection operation on the presented content, the user is selected based on the user status of the recognized user and the selection history information. An image display apparatus that controls to display an image of a content on the display unit.
請求項19において、
前記表示制御部は、
前記ユーザ認識部により認識されたユーザが、提示されているコンテンツに対して選択動作を行ったと判断された場合には、ユーザの選択動作時に提示されていたコンテンツのジャンルに属するコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とする画像表示装置。
In claim 19,
The display control unit
When it is determined that the user recognized by the user recognition unit has performed a selection operation on the presented content, an image of content belonging to the genre of the content presented at the time of the user's selection operation is An image display device that performs control of display on the display unit.
請求項20において、
ユーザが前記表示部を注視しているか否かを判断する注視状態判断部を含み、
前記表示制御部は、
前記表示部をユーザが注視していると判断された場合に、ユーザの注視時に表示されていたコンテンツのジャンルに属するコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とする画像表示装置。
In claim 20,
A gaze state determination unit that determines whether the user is gazing at the display unit;
The display control unit
When it is determined that the user is gazing at the display unit, an image of content belonging to the genre of the content displayed when the user is gazing is controlled to be displayed on the display unit Display device.
請求項17乃至21のいずれかにおいて、
前記選択履歴情報は、複数のジャンルの各ジャンルに対して各ジャンルの選択頻度が関連づけられた情報であり、
前記表示部に表示されているコンテンツの画像に対してユーザが選択動作を行ったと判断された場合に、ユーザの選択動作時に表示されていたコンテンツのジャンルの前記選択頻度が更新されることを特徴とする画像表示装置。
A device according to any one of claims 17 to 21.
The selection history information is information in which the selection frequency of each genre is associated with each genre of a plurality of genres,
When it is determined that the user has performed a selection operation on the image of the content displayed on the display unit, the selection frequency of the content genre displayed at the time of the user's selection operation is updated. An image display device.
ユーザを認識するユーザ認識部と、
ユーザが選択したコンテンツのジャンルの選択履歴情報を、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけて記憶する選択履歴情報記憶部と、
前記ユーザ認識部によりユーザが認識された場合に、ユーザの認識結果とユーザ状況に基づいて、認識されたユーザの各ユーザ状況に関連づけられた前記選択履歴情報を、前記選択履歴情報記憶部から読み出し、読み出された前記選択履歴情報に基づいて、複数のコンテンツの中からユーザへの提示コンテンツを選択するコンテンツ選択部として、
コンピュータを機能させることを特徴とするプログラム。
A user recognition unit for recognizing a user;
A selection history information storage unit that stores selection history information of a genre of content selected by the user in association with a user situation that is at least one of time, a place where the user stays, and a state of the user;
When the user is recognized by the user recognition unit, the selection history information associated with each user status of the recognized user is read from the selection history information storage unit based on the user recognition result and the user status. As a content selection unit that selects content to be presented to the user from among a plurality of content based on the read selection history information,
A program characterized by causing a computer to function.
ユーザを認識するユーザ認識部と、
複数のコンテンツの中から選択されたコンテンツの画像を、表示部に表示する制御を行う表示制御部として、
コンピュータを機能させ、
ユーザが選択したコンテンツのジャンルの選択履歴情報が、時間、ユーザが滞在する場所及びユーザの状態の少なくとも1つであるユーザ状況に関連づけられており、
前記表示制御部は、
前記ユーザ認識部によりユーザが認識され、認識されたユーザのユーザ状況に関連づけられた前記選択履歴情報に基づいてコンテンツが選択された場合に、選択されたコンテンツの画像を、前記表示部に表示する制御を行うことを特徴とするプログラム。
A user recognition unit for recognizing a user;
As a display control unit that performs control to display an image of content selected from a plurality of contents on the display unit,
Make the computer work,
The selection history information of the genre of the content selected by the user is associated with a user situation that is at least one of time, a place where the user stays, and the user's state,
The display control unit
When a user is recognized by the user recognition unit and content is selected based on the selection history information associated with the user status of the recognized user, an image of the selected content is displayed on the display unit. A program characterized by performing control.
コンピュータ読み取り可能な情報記憶媒体であって、請求項23又は24に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to claim 23 or 24 is stored.
JP2009036864A 2009-02-19 2009-02-19 Information processing system, image display, program, and information storage medium Pending JP2010191802A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009036864A JP2010191802A (en) 2009-02-19 2009-02-19 Information processing system, image display, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009036864A JP2010191802A (en) 2009-02-19 2009-02-19 Information processing system, image display, program, and information storage medium

Publications (1)

Publication Number Publication Date
JP2010191802A true JP2010191802A (en) 2010-09-02

Family

ID=42817765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009036864A Pending JP2010191802A (en) 2009-02-19 2009-02-19 Information processing system, image display, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP2010191802A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071406A (en) * 2010-09-29 2012-04-12 Olympus Corp Control device and control method for master slave type manipulator
JP2013069266A (en) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd Content recommendation system
JP2013073489A (en) * 2011-09-28 2013-04-22 Nifty Corp Information processor, information processing method and program
JP2013178707A (en) * 2012-02-29 2013-09-09 Kddi Corp Recommendation apparatus, recommendation method and program
JP2014063295A (en) * 2012-09-20 2014-04-10 Cybernet Systems Co Ltd Context analyzing apparatus, information sorting apparatus and information classification system
JP2014154170A (en) * 2013-02-08 2014-08-25 Samsung Electronics Co Ltd Recommended panel provision method and device therefor, and recommended item provision method and server therefor
JP2017211783A (en) * 2016-05-24 2017-11-30 日本電信電話株式会社 Estimation device, prediction device, method, and program
WO2019123785A1 (en) * 2017-12-18 2019-06-27 ソニーモバイルコミュニケーションズ株式会社 Information processing device, information processing method, and program
US10943260B2 (en) 2013-02-08 2021-03-09 Samsung Electronics Co., Ltd. Method and device for providing recommendation panel, and method and server for providing recommendation item

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091675A (en) * 2001-09-18 2003-03-28 Canon Inc Information delivery system, information delivery method, information delivery device and information display device
JP2003122992A (en) * 2001-10-11 2003-04-25 Nippon Telegr & Teleph Corp <Ntt> Selection system of information and medium, and selection method for information and medium
JP2007026133A (en) * 2005-07-19 2007-02-01 Sony Corp Information providing device and method thereof
JP2008197858A (en) * 2007-02-13 2008-08-28 Nec Corp Information provision server, information provision system, information provision method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091675A (en) * 2001-09-18 2003-03-28 Canon Inc Information delivery system, information delivery method, information delivery device and information display device
JP2003122992A (en) * 2001-10-11 2003-04-25 Nippon Telegr & Teleph Corp <Ntt> Selection system of information and medium, and selection method for information and medium
JP2007026133A (en) * 2005-07-19 2007-02-01 Sony Corp Information providing device and method thereof
JP2008197858A (en) * 2007-02-13 2008-08-28 Nec Corp Information provision server, information provision system, information provision method and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071406A (en) * 2010-09-29 2012-04-12 Olympus Corp Control device and control method for master slave type manipulator
JP2013069266A (en) * 2011-09-22 2013-04-18 Toyota Infotechnology Center Co Ltd Content recommendation system
JP2013073489A (en) * 2011-09-28 2013-04-22 Nifty Corp Information processor, information processing method and program
JP2013178707A (en) * 2012-02-29 2013-09-09 Kddi Corp Recommendation apparatus, recommendation method and program
JP2014063295A (en) * 2012-09-20 2014-04-10 Cybernet Systems Co Ltd Context analyzing apparatus, information sorting apparatus and information classification system
JP2014154170A (en) * 2013-02-08 2014-08-25 Samsung Electronics Co Ltd Recommended panel provision method and device therefor, and recommended item provision method and server therefor
US10943260B2 (en) 2013-02-08 2021-03-09 Samsung Electronics Co., Ltd. Method and device for providing recommendation panel, and method and server for providing recommendation item
JP2017211783A (en) * 2016-05-24 2017-11-30 日本電信電話株式会社 Estimation device, prediction device, method, and program
WO2019123785A1 (en) * 2017-12-18 2019-06-27 ソニーモバイルコミュニケーションズ株式会社 Information processing device, information processing method, and program
JPWO2019123785A1 (en) * 2017-12-18 2020-12-03 ソニー株式会社 Information processing equipment, information processing methods, and programs

Similar Documents

Publication Publication Date Title
JP2010191802A (en) Information processing system, image display, program, and information storage medium
US20210196188A1 (en) System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US11024070B2 (en) Device and method of managing user information based on image
US9894415B2 (en) System and method for media experience data
US20150264432A1 (en) Selecting and presenting media programs and user states based on user states
US9204836B2 (en) Sporadic collection of mobile affect data
US10960173B2 (en) Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis
JP5308747B2 (en) Information presentation system, program, and information storage medium
US20180124459A1 (en) Methods and systems for generating media experience data
US20180285641A1 (en) Electronic device and operation method thereof
US20150235267A1 (en) Systems and methods for delivering content
US20200175976A1 (en) Contextually relevant spoken device-to-device communication between iot devices
US11327570B1 (en) System and method for filtering content based on gestures
US20180115802A1 (en) Methods and systems for generating media viewing behavioral data
US20180124458A1 (en) Methods and systems for generating media viewing experiential data
US11483618B2 (en) Methods and systems for improving user experience
US9934425B2 (en) Collection of affect data from multiple mobile devices
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
US20180109828A1 (en) Methods and systems for media experience data exchange
US20140201207A1 (en) Mental state data tagging for data collected from multiple sources
US20150215674A1 (en) Interactive streaming video
JP2015133033A (en) Recommendation device, recommendation method and program
CN111247782B (en) Method and system for automatically creating instant AD-HOC calendar events
US20220318551A1 (en) Systems, devices, and/or processes for dynamic surface marking
KR20180088073A (en) Method for managing healthcare program and electronic device thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130611