JP2023092063A - Content recommendation device - Google Patents

Content recommendation device Download PDF

Info

Publication number
JP2023092063A
JP2023092063A JP2021207049A JP2021207049A JP2023092063A JP 2023092063 A JP2023092063 A JP 2023092063A JP 2021207049 A JP2021207049 A JP 2021207049A JP 2021207049 A JP2021207049 A JP 2021207049A JP 2023092063 A JP2023092063 A JP 2023092063A
Authority
JP
Japan
Prior art keywords
user
content recommendation
emotion
recommendation device
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021207049A
Other languages
Japanese (ja)
Inventor
理江 大崎
Rie Osaki
勝 柿崎
Masaru Kakizaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2021207049A priority Critical patent/JP2023092063A/en
Priority to DE102022133428.7A priority patent/DE102022133428A1/en
Publication of JP2023092063A publication Critical patent/JP2023092063A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a technique for recommending a content that a user is highly satisfied with.SOLUTION: A content recommendation device 1 is used to recommend a content to be provided for a user. The content recommendation device 1 uses an evaluation model, having a first evaluation axis J1 for evaluating a level of awakening and a second evaluation axis J2 for evaluating a level of discomfort to gather a user state representing a state of the user. Namely, the evaluation model is used to gather the user state to be used to recommend the content. Consequently, the content that the user is highly satisfied with can be selected and recommended based upon the gathered user state.SELECTED DRAWING: Figure 1

Description

本開示は、ユーザに対してコンテンツを推奨する技術に関する。 The present disclosure relates to technology for recommending content to users.

近年、ユーザに対して、動画等のコンテンツ(即ち、提供される情報の内容)を推奨する手法として、ユーザの動画視聴履歴や視聴した動画に付与された感情タグなどに基づいて、ユーザの嗜好を抽出し、この嗜好に応じたコンテンツを推奨する技術が知られている(例えば、下記特許文献1参照)。 In recent years, as a method of recommending content such as videos (that is, the content of information provided) to users, based on the user's video viewing history and emotion tags attached to the videos viewed, the user's preferences have been proposed. and recommends content according to this preference (for example, see Patent Document 1 below).

また、これとは別に、ユーザがコンテンツを視聴する際に、第1の感情から第2の感情に変化したこと検出し、この検出結果に基づいて、コンテンツを推奨する方法が知られている(例えば、下記特許文献2参照)。 Apart from this, there is also known a method of detecting a change from a first emotion to a second emotion when a user views content, and recommending content based on this detection result ( For example, see Patent Document 2 below).

特開2015-228142号公報JP 2015-228142 A 特開2018-414660号公報JP 2018-414660 A

しかしながら、発明者の詳細な検討の結果、従来の技術について、下記のような課題が見出された。
具体的には、上述した従来技術は、動画等を視聴した際の感情に応じてコンテンツを推奨するものであるが、この推奨されたコンテンツがユーザが望むようなコンテンツでないことがあった。
However, as a result of detailed studies by the inventors, the following problems were found in the conventional techniques.
Specifically, the above-described conventional technology recommends content according to the user's feelings when viewing a moving image or the like, but the recommended content may not be the content desired by the user.

例えば、現在悲しい気持ちであっても、次にリラックスしたい場合とわくわくしたい場合とでは、ユーザが欲するコンテンツが異なることがある。また、現在の感情と目的とする感情とが同じでも、シーン(即ち、場面)によって欲しいコンテンツが異なることがある。 For example, even if the user is currently feeling sad, the content desired by the user may be different depending on whether the user wants to be relaxed or excited next time. Also, even if the current emotion and the target emotion are the same, the desired content may differ depending on the scene (that is, the scene).

本開示の1つの局面は、ユーザにとって満足度が高いコンテンツを推奨することができる技術を提供することにある。 One aspect of the present disclosure is to provide a technology capable of recommending content that satisfies the user.

(1)本開示の一態様のコンテンツ推奨装置(1)は、ユーザに提供するコンテンツを推奨するために用いられるコンテンツ推奨装置である。
このコンテンツ推奨装置は、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを用いて、コンテンツを推奨する際に用いる、ユーザの状況を示すユーザ状況を収集するように構成されている。
(1) A content recommendation device (1) according to one aspect of the present disclosure is a content recommendation device used to recommend content to be provided to a user.
This content recommendation device uses an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and discomfort, and indicates the user's situation used when recommending content. configured to collect user context;

このような構成により、本開示では、ユーザにとって満足度が高いコンテンツを推奨することができる。
具体的には、本開示では、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデル(例えば、ラッセルの感情の円環モデル)を用いることにより、実際のユーザの状況に合ったユーザ状況を高い精度で把握することができる。
With such a configuration, the present disclosure can recommend content that satisfies the user.
Specifically, in the present disclosure, an evaluation model (for example, Russell's circular model of emotion) having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and displeasure is used. Therefore, it is possible to grasp the user situation that matches the actual user situation with high accuracy.

従って、このようにして収集された実際に即したユーザ状況に基づいて、ユーザにとって快適な(即ち、満足度の高い)コンテンツを推奨することができる。
(2)本開示の他の態様のコンテンツ推奨装置(1)は、第1取得部(11、S100)と第2取得部(11、S120)と取得推奨部(25、S160)とを有する。
Therefore, it is possible to recommend content that is comfortable (that is, has a high degree of satisfaction) for the user based on the actual user situation collected in this way.
(2) A content recommendation device (1) according to another aspect of the present disclosure has a first acquisition unit (11, S100), a second acquisition unit (11, S120), and an acquisition recommendation unit (25, S160).

第1取得部は、ユーザによって入力された当該ユーザの現在の状況(例えば、現在の感情やシーンなど)を取得するように構成されている。
第2取得部は、ユーザによって入力された当該ユーザが目的とする目的の状況(例えば、目的の感情やシーンなど)を取得するように構成されている。
The first acquisition unit is configured to acquire the user's current situation (eg, current emotion, scene, etc.) input by the user.
The second acquisition unit is configured to acquire a target situation (for example, target emotion or scene) input by the user.

取得推奨部は、第1取得部によって取得された現在の状況と第2取得部によって取得された目的の状況とに基づいて、ユーザに提供するコンテンツを推奨するように構成されている。 The acquisition recommendation unit is configured to recommend content to be provided to the user based on the current situation acquired by the first acquisition unit and the target situation acquired by the second acquisition unit.

このような構成により、本開示では、ユーザにとって満足度が高いコンテンツを推奨することができる。
具体的には、本開示では、第1取得部は、ユーザによって入力された現在の状況を取得することにより、ユーザの現在の状況に合った実際の状況を高い精度で把握することができる。
With such a configuration, the present disclosure can recommend content that satisfies the user.
Specifically, in the present disclosure, the first acquisition unit acquires the current situation input by the user, so that the actual situation that matches the current situation of the user can be grasped with high accuracy.

また、第2取得部は、ユーザによって入力された目的の状況を取得することにより、ユーザが実際に目的とする目的の状況を高い精度で把握することができる。
従って、取得推奨部は、第1取得部によって取得された現在の状況と第2取得部によって取得された目的の状況とに基づいて、ユーザにとって快適な(即ち、満足度の高い)コンテンツを推奨することができる。
In addition, the second acquisition unit acquires the target status input by the user, thereby being able to grasp the target status actually desired by the user with high accuracy.
Therefore, the acquisition recommendation unit recommends content that is comfortable (that is, highly satisfying) for the user based on the current situation acquired by the first acquisition unit and the target situation acquired by the second acquisition unit. can do.

なお、前記コンテンツとは、動画等のように、ユーザに提供される各種の情報の内容を示している。また、前記状況とは、時間空間によって変化する条件や状態を示し、人が置かれた環境だけでなく、人の心の状態も含む。前記ユーザ状況とは、ユーザに関する状況、即ち、ユーザ自身の状態(例えば、心の状態)やユーザが置かれた外的な状況を含むユーザの状況を示す。ユーザ状況としては、ユーザの現在の状況やユーザが目的とする目的の状況が挙げられる。このユーザ状況としては、例えば、現在や将来(例えば、目的とする将来)におけるユーザの感情やユーザが置かれたシーン(即ち、場面)が挙げられる。 Note that the content indicates the content of various types of information provided to the user, such as moving images. In addition, the situation indicates a condition or state that changes with time and space, and includes not only the environment in which a person is placed but also the state of the person's mind. The user situation refers to a situation regarding the user, that is, the user's situation including the user's own state (eg, state of mind) and the external situation in which the user is placed. The user situation includes the current situation of the user and the intended situation of the user. The user situation includes, for example, the user's feelings at present or in the future (eg, a desired future) and a scene (ie, scene) in which the user is placed.

また、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 In addition, the symbols in parentheses described in this column and the scope of claims indicate the correspondence relationship with specific means described in the embodiments described later as one aspect, and the technical scope of the present disclosure is It is not limited.

第1実施形態のコンテンツ推奨推定装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a content recommendation estimation device according to a first embodiment; FIG. 第1実施形態の現在の感情の感情円環図を用いた入力画面の説明図である。FIG. 10 is an explanatory diagram of an input screen using an emotion cyclic diagram of current emotions according to the first embodiment; 第1実施形態の感情のピクトグラムを示す説明図である。It is an explanatory view showing pictograms of emotions of the first embodiment. 第1実施形態の目的のシーンの感情円環図を用いた入力画面の説明図である。FIG. 11 is an explanatory diagram of an input screen using an emotional cyclical diagram of a target scene according to the first embodiment; 第1実施形態のシーンのピクトグラムを示す説明図である。It is an explanatory view showing a scene pictogram of the first embodiment. 第1実施形態にて実施される処理を示すフローチャートである。4 is a flowchart showing processing performed in the first embodiment; 第2実施形態の現在のシーンの感情円環図を用いた入力画面の説明図である。FIG. 11 is an explanatory diagram of an input screen using an emotional cyclical diagram of the current scene according to the second embodiment; 第3実施形態の現在の感情の感情円環図を用いた入力画面の説明図である。FIG. 11 is an explanatory diagram of an input screen using an emotion cyclic diagram of current emotions according to the third embodiment; 第5実施形態の現在のシーンの感情円環図を用いた入力画面の説明図である。FIG. 20 is an explanatory diagram of an input screen using an emotional cyclical diagram of the current scene according to the fifth embodiment; 第5実施形態の目的のシーンの感情円環図を用いた入力画面の説明図である。FIG. 21 is an explanatory diagram of an input screen using an emotional cyclical diagram of a target scene in the fifth embodiment; 第5実施形態の感情円環図に現在のシーンのピクトグラムを表示した入力画面の説明図である。FIG. 21 is an explanatory diagram of an input screen displaying a pictogram of a current scene on the emotion circumflex of the fifth embodiment; 第5実施形態のシーンのピクトグラムを示す説明図である。It is an explanatory view showing a scene pictogram of the fifth embodiment. 実験結果を示す円グラフである。It is a pie chart showing experimental results.

以下に、本開示の実施形態を、図面を参照しながら説明する。
[1.第1実施形態]
[1-1.全体構成]
まず、本第1実施形態におけるコンテンツ推奨装置の全体構成について説明する。
Embodiments of the present disclosure will be described below with reference to the drawings.
[1. First Embodiment]
[1-1. overall structure]
First, the overall configuration of the content recommendation device according to the first embodiment will be described.

このコンテンツ推奨装置としては、例えば車両に搭載される装置が挙げられる。また、自宅や会社等に配置される装置や、スマートフォンのような携帯の情報端末の装置などが挙げられる。 An example of this content recommendation device is a device mounted on a vehicle. Devices installed at homes, offices, etc., and mobile information terminal devices such as smartphones are also included.

図1に示すように、本第1実施形態のコンテンツ推奨装置1は、主として、情報収集部3と制御部5とアクチュエータ部7とを備える。
情報収集部3は、ユーザに関する状況を示すユーザ状況を、ユーザがマニュアルにて入力することができる装置である。
As shown in FIG. 1, the content recommendation device 1 of the first embodiment mainly includes an information collection section 3, a control section 5, and an actuator section 7. FIG.
The information collection unit 3 is a device that allows a user to manually input a user situation indicating a situation regarding the user.

制御部5は、情報収集部3にて入力されたユーザ状況を示す情報に基づいて、ユーザに提供するコンテンツを選択して推奨することができる装置である。
アクチュエータ部7は、制御部5にて推奨されたコンテンツを、各種のアクチュエータによってユーザに提供することができる装置である。
The control unit 5 is a device capable of selecting and recommending content to be provided to the user based on the information indicating the user situation input by the information collecting unit 3 .
The actuator unit 7 is a device capable of providing the user with content recommended by the control unit 5 using various actuators.

ここで、ユーザ状況としては、後に詳述するように、ユーザの現在の感情、ユーザの現在のシーン(即ち、ユーザが現在置かれている場面)、ユーザが目的とする感情(即ち、ユーザがそうなることを望む感情である目的の感情)、ユーザが目的とするシーン(即ち、ユーザが将来置かれることを望むシーンである目的のシーン)が挙げられる。 Here, the user situation includes the user's current emotion, the user's current scene (that is, the scene in which the user is currently placed), and the user's target emotion (that is, the user's target emotion, which is the emotion that the user wants to be, target scene (ie, target scene, which is the scene that the user wants to be placed in the future).

以下、各構成について、詳細に説明する。
[1-2.情報収集部]
前記図1に示すように、情報収集部3は、ユーザ入力部11と情報送信部13とを備える。
Each configuration will be described in detail below.
[1-2. Information gathering department]
As shown in FIG. 1, the information collection unit 3 includes a user input unit 11 and an information transmission unit 13. As shown in FIG.

ユーザ入力部11は、例えばタッチパネルの機能を有するディスプレイ15(例えば、図2参照)であり、ユーザが指等でディスプレイ15の画面に触れる(即ち、タッチする)ことにより、マニュアルにて所定の情報を入力することができる。 The user input unit 11 is, for example, a display 15 (see, for example, FIG. 2) having a touch panel function. can be entered.

つまり、後に詳述するように、ユーザがディスプレイ15に表示された画像にタッチすることにより、ユーザの感情やシーンに関する情報を入力することができる。即ち、図2に示すようなラッセルの感情の円環モデルを示す感情の円環図(以下、感情円環図)の所定箇所にタッチすることにより、その所定箇所に対応した感情やシーン等に関する情報を入力することができる。 That is, as will be described in detail later, by touching the image displayed on the display 15, the user can input information about the user's emotions and scenes. That is, by touching a predetermined portion of an emotional cyclical diagram (hereinafter referred to as an emotional cyclical diagram) showing Russell's emotional cyclical model as shown in FIG. You can enter information.

情報送信部13は、ユーザ入力部11が操作された場合(即ち、ディスプレイ15にタッチされた場合)に、そのタッチされた位置の情報を、制御部5に送信する送信装置である。 The information transmission unit 13 is a transmission device that transmits information on the touched position to the control unit 5 when the user input unit 11 is operated (that is, when the display 15 is touched).

なお、位置の情報としては、後述する感情円環図における直交する2軸にて示される位置(即ち、座標)の情報が挙げられる。
<ユーザ入力部>
ここで、ユーザ入力部11について詳細に説明する。
The information on the position includes information on the position (that is, the coordinates) indicated by two orthogonal axes in the emotional circumflex, which will be described later.
<User input part>
Here, the user input section 11 will be described in detail.

ユーザ入力部11は、感情円環図を用いて、ユーザが、ユーザ自身の感情とシーンとをマニュアルにて入力する装置である。
つまり、ユーザ入力部11は、図2に示すように、タッチパネルの機能を有するディスプレイ15に感情円環図を表示し、その感情円環図に表示させた感情やシーンのピクトグラムをユーザにタッチさせることによって、ユーザの感情やシーンを入力する装置である。
The user input unit 11 is a device for manually inputting the user's own emotions and scenes using an emotional ring diagram.
That is, as shown in FIG. 2, the user input unit 11 displays an emotion cyclone on the display 15 having a touch panel function, and allows the user to touch pictograms of emotions and scenes displayed on the emotion cyclone. It is a device for inputting the user's emotions and scenes.

なお、ピクトグラムとは、グラフィック・シンボルの典型であって、意味するものの形状を使って、その意味概念を理解させる記号を意味する。
なお、本第1実施形態では、感情円環図を用いて、現在の感情と目的とするシーンとを入力する場合を例に挙げて説明する。
A pictogram is a typical graphic symbol, and means a symbol that uses the shape of a sign to make the meaning concept understandable.
In the first embodiment, an example of inputting a current emotion and a target scene using an emotion ring diagram will be described.

a)まず、ユーザの現在の感情の入力について説明する。
前記図2に示すように、感情円環図とは、縦軸に覚醒の程度(即ち、覚醒度)を示す(即ち、評価する)第1評価軸J1を設定し、縦軸に直交する横軸に快不快の程度を示す(即ち、評価する)第2評価軸J2を設定し、この2軸によって、感情(即ち、人の心や精神を含む感情)の状態を示すものである。
a) First, the input of the user's current emotion will be described.
As shown in FIG. 2, the emotional circumflex is defined by setting the first evaluation axis J1 indicating (that is, evaluating) the degree of arousal (that is, the degree of arousal) on the vertical axis, and setting the horizontal axis perpendicular to the vertical axis. A second evaluation axis J2 is set as an axis to indicate the degree of pleasure and discomfort (that is, to evaluate), and these two axes indicate the state of emotions (that is, emotions including human mind and spirit).

第1評価軸J1では、同図の上方に行くほど覚醒の程度が大きくなる。一方、同図の下方に行くほど覚醒の程度が小さくなる(即ち、鎮静の程度が大きくなり、眠気が深くなる)。なお、第1評価軸J1の上下方向における中央が、覚醒と鎮静の間の平静な状態を示す原点である。 On the first evaluation axis J1, the degree of arousal increases as it goes upward in the figure. On the other hand, the lower the figure, the lower the degree of arousal (that is, the higher the degree of sedation and the deeper the drowsiness). Note that the center of the first evaluation axis J1 in the vertical direction is the origin indicating the calm state between wakefulness and sedation.

第2評価軸J2では、同図の右方に行くほど快感の程度が大きくなる。一方、同図の左方に行くほど不快の程度が大きくなる。なお、第2評価軸J2の左右方向における中央(即ち、第1評価軸J1との交点)が、快と不快の間の平静な状態を示す原点である。 On the second evaluation axis J2, the degree of pleasure increases toward the right side of the figure. On the other hand, the degree of discomfort increases toward the left in the figure. The center of the second evaluation axis J2 in the left-right direction (that is, the point of intersection with the first evaluation axis J1) is the origin indicating the calm state between pleasant and unpleasant.

なお、第1評価軸J1と第2評価軸J2とは、YX平面において直交するy軸とx軸とに相当するものであるので、第1評価軸J1と第2評価軸J2とで規定される位置は、y座標とx座標で示すことができる。よって、第1評価軸J1の大小の程度を示す第1座標がy座標に対応し、第2評価軸J2の大小の程度を示す第2座標がx座標に対応する。 Note that the first evaluation axis J1 and the second evaluation axis J2 correspond to the y-axis and the x-axis that are perpendicular to each other on the YX plane. The position can be indicated by a y-coordinate and an x-coordinate. Therefore, the first coordinate indicating the magnitude of the first evaluation axis J1 corresponds to the y-coordinate, and the second coordinate indicating the magnitude of the second evaluation axis J2 corresponds to the x-coordinate.

また、本第1実施形態では、図2に示すように、感情円環図を覚醒度や快不快の程度に応じて6つの領域、即ち、第1~第6領域R1~R6に区分している。
第1領域R1は、覚醒と不快との間の左上の中心角が90°の1/4円の領域であり、イライラの感情を示す領域である。なお、図2では、この第1領域R1に、「イライラ」の感情を示す円形のピクトグラム(即ち、イライラピクトグラム)を表示してある。なお、感情の各ピクトグラムは、図3参照。
In addition, in the first embodiment, as shown in FIG. 2, the emotional circumflex is divided into six regions, that is, the first to sixth regions R1 to R6 according to the degree of arousal and the degree of pleasure and displeasure. there is
The first region R1 is a 1/4 circle region with an upper left center angle of 90° between arousal and displeasure, and is a region indicating the feeling of frustration. In addition, in FIG. 2, a circular pictogram (that is, an irritated pictogram) indicating the feeling of "irritated" is displayed in the first region R1. See FIG. 3 for pictograms of emotions.

また、図2では、感情を示すピクトグラムを濃く(例えば、黒色で)示してあり、後述するシーンを示すピクトグラムを薄く(例えば、灰色で)示してあるが、シーンを示すピクトグラムを表示しなくともよい。 In addition, in FIG. 2, the pictograms showing emotions are shown dark (for example, in black), and the pictograms showing scenes to be described later are shown lightly (for example, in gray). good.

そして、イライラピクトグラムが表示される範囲(即ち、顔のマークの部分)は、ユーザがタッチすることにより、イライラピクトグラムが示す感情(即ち、イライラ)を入力できるように設定されている。 The range in which the frustration pictogram is displayed (that is, the face mark portion) is set so that the user can input the emotion (that is, frustration) indicated by the frustration pictogram by touching it.

なお、ユーザがタッチすることにより、「イライラ」の感情が入力される範囲としては、イライラピクトグラムが表示される範囲だけでなく、イライラピクトグラムが表示される範囲を(例えば、所定幅で)含む所定の範囲としてもよい。以下、感情の他のピクトグラムも同様である。 Note that the range in which the user touches to input the feeling of “irritated” includes not only the range in which the frustrated pictogram is displayed, but also the range in which the frustrated pictogram is displayed (with a predetermined width, for example). may be in the range of The same applies to other pictograms of emotions below.

詳しくは、後述するように、制御部5のメモリには、感情円環図に表示される各ピクトグラムの座標と各感情とが対応付けられて記憶されている。従って、あるピクトグラムがタッチされた場合は、そのタッチされた位置の座標が制御部5に送信されるので、この送信された座標から、どのピクトグラムがタッチされたかを検出できる。即ち、どのような感情が入力されたかを検出することができる。 Specifically, as will be described later, the memory of the control unit 5 stores the coordinates of each pictogram displayed in the emotion circumflex and each emotion in association with each other. Therefore, when a certain pictogram is touched, the coordinates of the touched position are transmitted to the control unit 5, so which pictogram has been touched can be detected from the transmitted coordinates. That is, it is possible to detect what kind of emotion is input.

よって、例えば、イライラピクトグラムをタッチすることにより、「イライラ」の感情を入力することができる。
第2領域R2は、不快と鎮静との間の左下の中心角90°の1/4円の領域であり、「しょんぼり」の感情を示す領域である。なお、図2では、この第2領域R2に、「しょんぼり」の感情を示すピクトグラム(即ち、しょんぼりピクトグラム)を表示してある。
Therefore, for example, by touching the frustration pictogram, the emotion of "frustration" can be input.
The second region R2 is a 1/4 circle region with a lower left center angle of 90° between discomfort and sedation, and is a region showing a feeling of "dejection." In FIG. 2, the second region R2 displays a pictogram indicating the feeling of "dejection" (that is, a dejection pictogram).

なお、しょんぼりピクトグラムも、イライラピクトグラムと同様に、しょんぼりピクトグラムの範囲を、ユーザがタッチすることにより、しょんぼりピクトグラムが示す感情(即ち、しょんぼり)を入力できるように設定されている。 As with the frustration pictogram, the depressed pictogram is also set so that the user can input the emotion (ie, depression) indicated by the depressed pictogram by touching the range of the depressed pictogram.

また、感情円環図の右半分の領域は、中心角が例えば60°毎に3つの領域に区分されている。具体的には、覚醒度が最大の位置からから右回転方向に、第3領域R3、第4領域R4、第5領域R5が設定されている。 Also, the right half area of the emotional circumflex is divided into three areas with central angles of, for example, 60°. Specifically, a third region R3, a fourth region R4, and a fifth region R5 are set in the clockwise direction from the position where the awakening degree is maximum.

第3領域R3は、「わくわく」の感情を示す領域であり、第3領域R3に重なるように、「わくわく」の感情を示すピクトグラム(即ち、わくわくピクトグラム)が表示してある。
なお、わくわくピクトグラムも、他のピクトグラムと同様に、わくわくピクトグラムの範囲を、ユーザがタッチすることにより、わくわくピクトグラムが示す感情(即ち、わくわく)を入力できるように設定されている。
The third area R3 is an area showing the emotion of "exciting", and a pictogram showing the emotion of "exciting" (that is, an exciting pictogram) is displayed so as to overlap the third area R3.
Like other pictograms, the exciting pictogram is set so that the user can input the emotion (that is, excitement) indicated by the exciting pictogram by touching the range of the exciting pictogram.

第4領域R4は、「しあわせ」の感情を示す領域であり、第4領域R4に重なるように、「しあわせ」の感情を示すピクトグラム(即ち、しあわせピクトグラム)が表示してある。
なお、しあわせピクトグラムも、他のピクトグラムと同様に、しあわせピクトグラムの範囲を、ユーザがタッチすることにより、しあわせピクトグラムが示す感情(即ち、しあわせ)を入力できるように設定されている。
The fourth area R4 is an area showing the emotion of "happiness", and a pictogram showing the emotion of "happiness" (that is, a happy pictogram) is displayed so as to overlap the fourth area R4.
As with other pictograms, the happy pictogram is set so that the user can input the emotion (that is, happiness) indicated by the happy pictogram by touching the range of the happy pictogram.

第5領域R5は、「リラックス」の感情を示す領域であり、第5領域R5に重なるように、緊張がないくつろぎ(即ち、リラックス)の感情を示すピクトグラム(即ち、リラックスピクトグラム)が表示してある。 The fifth area R5 is an area showing the feeling of "relaxation", and a pictogram showing the feeling of relaxation without tension (that is, relaxation) is displayed so as to overlap the fifth region R5. be.

なお、リラックスピクトグラムも、他のピクトグラムと同様に、リラックスピクトグラの領域を、ユーザがタッチすることにより、リラックスピクトグラムが示す感情(即ち、リラックス)を入力できるように設定されている。 As with other pictograms, the relax pictogram is set so that the user can input the emotion (ie, relax) indicated by the relax pictogram by touching the region of the relax pictogram.

さらに、感情円環図の原点の周囲には、原点を中心とする円内に、第6領域R6が設定されている。この第6領域R6は、「平静(即ち、ニュートラル)」の感情を示す領域であり、第6領域R6に重なるように、「ニュートラル」の感情を示すピクトグラム(即ち、ニュートラルピクトグラム)が表示してある。 Further, around the origin of the emotional circumflex, a sixth region R6 is set within a circle centered at the origin. This sixth region R6 is a region showing the feeling of "calmness (ie, neutral)", and a pictogram showing the feeling of "neutral" (ie, neutral pictogram) is displayed so as to overlap the sixth region R6. be.

なお、ニュートラルピクトグラムも、他のピクトグラムと同様に、ニュートラルスピクトグラムの範囲を、ユーザがタッチすることにより、ニュートラルピクトグラムが示す感情(即ち、ニュートラル)を入力できるように設定されている。 As with other pictograms, the neutral pictogram is set so that the user can input the emotion (that is, neutral) indicated by the neutral pictogram by touching the range of the neutral pictogram.

なお、第6領域R6は、第1~第5領域R1~R5の原点に近い部分と重なっているが、第6領域R6の操作が優先するように設定されている。
このように、本第1実施形態では、ユーザが、前記図2に示すような感情円環図の現在の感情を示す各ピクトグラムをタッチすることにより、ユーザの現在の感情をマニュアルにて入力することができる。
Although the sixth area R6 overlaps the portions of the first to fifth areas R1 to R5 near the origin, the operation of the sixth area R6 is set to have priority.
As described above, in the first embodiment, the user manually inputs the user's current emotion by touching each pictogram representing the current emotion in the emotion ring diagram as shown in FIG. be able to.

b)次に、ユーザの目的とするシーンの入力について説明する。
ここで、シーンとは、ユーザが置かれているある場面を示すものであるので、目的のシーンとは、ユーザが将来置かれることを望む(即ち、目的とする)場面のような状況を示している。
b) Next, the input of the scene desired by the user will be described.
Here, the scene indicates a scene in which the user is placed, so the target scene indicates a situation such as a scene in which the user wishes to be placed in the future (i.e., intended). ing.

図4に示すように、感情円環図の各領域に、目的のシーンを示すピクトグラムが表示されている。
なお、図4では、目的のシーンを示すピクトグラムを濃く(例えば、黒色で)示してある。また、感情を示すピクトグラムは薄く(例えば、灰色で)示してあるが、図2において入力された感情を示すピクトグラムのみ濃く表示している。
As shown in FIG. 4, a pictogram indicating a target scene is displayed in each area of the emotional circumflex.
In addition, in FIG. 4, the pictogram indicating the target scene is darkened (for example, in black). Pictograms representing emotions are shown lightly (for example, in gray), but only pictograms representing emotions input in FIG. 2 are shown dark.

本第1実施形態では、前記図4に示すように、第3領域R3に、図5に示すような、「筋トレ」、「ストレッチ」、「ワーク」を示すピクトグラムが表示されている。同様に、第4領域R4に、「ドライブ」、「ペットと遊ぶ」、「ティータイム」、「マインドフルネス」を示すピクトグラムが表示されている。同様に、第5領域R5に、「寝る前のひと時」、「眠る」を示すピクトグラムが表示されている。 In the first embodiment, as shown in FIG. 4, pictograms representing "muscle training", "stretching", and "work" as shown in FIG. 5 are displayed in the third region R3. Similarly, in the fourth area R4, pictograms indicating "drive", "play with pet", "tea time", and "mindfulness" are displayed. Similarly, in the fifth area R5, pictograms indicating "a moment before going to bed" and "sleep" are displayed.

ここでは、目的のシーンとは、例えば「ドライブ」のピクトグラムの場合には、ドライブをして気分転換をするような場面を望んでいることを示しており、また、例えば「ティータイム」のピクトグラムの場合は、コーヒーや紅茶を飲んでリラックスしたい場面を望んでいることを示している。つまり、このような目的とする場面の状況やそれに合った状況を望んでいることを示している。 Here, the desired scene is, for example, in the case of a pictogram of "driving", a scene in which a person wants to drive and change his/her mood. indicates that you want to have a coffee or tea and relax. In other words, it indicates that the user desires the situation of such a target scene or a situation suitable for it.

また、目的のシーンを示すピクトグラムが表示される範囲は、ユーザがタッチすることにより、目的のシーンの内容が入力されるように設定されている。なお、ユーザがタッチすることにより、目的のシーンの内容が入力される範囲としては、当該ピクトグラムが表示される範囲だけでなく、そのピクトグラムが表示される範囲を(例えば、所定の幅で)含む所定の範囲としてもよい。 Also, the range in which the pictogram indicating the target scene is displayed is set so that the contents of the target scene can be input by the user's touch. Note that the range in which the content of the target scene is input by the user's touch includes not only the range in which the pictogram is displayed, but also the range in which the pictogram is displayed (for example, with a predetermined width). A predetermined range may be used.

従って、後述するように、前記ピクトグラムがタッチされた場合は、そのタッチされた位置の座標が制御部5に送信されるので、この送信された座標から、どのピクトグラムがタッチされたか(即ち、どのような目的のシーンが入力されたか)を検出することができる。 Therefore, as will be described later, when the pictogram is touched, the coordinates of the touched position are transmitted to the control unit 5. From these transmitted coordinates, which pictogram was touched (that is, which pictogram is touched) can be determined. It can be detected whether a desired scene such as the above has been input.

このように、本第1実施形態では、ユーザが、前記図4に示すような感情円環図の目的のシーンを示すピクトグラムをタッチすることにより、ユーザの目的とするシーンをマニュアルにて入力することができる。 As described above, in the first embodiment, the user manually inputs the scene desired by the user by touching the pictogram indicating the scene desired in the emotional ring diagram as shown in FIG. be able to.

[1-3.制御部]
次に、制御部5について説明する。
<機能的な構成>
前記図1に示すように、制御部5は、機能的な構成として、現在のユーザ状況判断部21と目的のユーザ状況判断部23とレコメンド生成部25と提供空間決定部27と感覚刺激制御部29とを備える。
[1-3. control section]
Next, the controller 5 will be explained.
<Functional configuration>
As shown in FIG. 1, the control unit 5 includes, as a functional configuration, a current user situation determination unit 21, a target user situation determination unit 23, a recommendation generation unit 25, a provision space determination unit 27, and a sensory stimulation control unit. 29.

現在のユーザ状況判断部21は、ユーザ入力部11が、現在の感情を入力するように設定された場合において、即ち、ディスプレイ15に現在の感情の入力画面(例えば、図2参照)が表示された場合において、ユーザ入力部11にて入力された情報に基づいて、どのような現在の感情が入力されたかを判断する。 When the user input unit 11 is set to input the current emotion, the current user situation determination unit 21 displays the current emotion input screen (for example, see FIG. 2) on the display 15. In this case, based on the information input by the user input unit 11, it is determined what kind of current emotion has been input.

つまり、タッチパネルの機能を有するディスプレイ15に表示された感情円環図において、どの位置(即ち、感情円環図における座標)がタッチされたかという情報に基づいて、どのような現在の感情が入力されたかを判断する。 That is, what kind of current emotion is input based on the information as to which position (that is, the coordinates in the emotion cyclone) is touched in the emotion cyclone displayed on the display 15 having the function of a touch panel. determine whether or not

詳しくは、上述したように、制御部5のメモリには、感情円環図に表示される各感情のピクトグラムの座標と各感情とが対応付けられて記憶されている。従って、ある感情のピクトグラムがタッチされた場合は、そのタッチされた位置の座標(即ち、第1座標及び第2座標)が制御部5に送信されるので、この送信された座標から、どの感情のピクトグラムがタッチされたかを判断することが分かる。 Specifically, as described above, the memory of the control unit 5 stores the coordinates of the pictograms of each emotion displayed in the emotion circumflex in association with each emotion. Therefore, when a pictogram of a certain emotion is touched, the coordinates of the touched position (that is, the first coordinates and the second coordinates) are transmitted to the control unit 5. Therefore, from the transmitted coordinates, which emotion It can be seen that it is determined whether the pictogram of is touched.

このように、感情円環図のどの感情のピクトグラムがタッチされたかが分かるので、どのような現在の感情が入力されたかを判断することができる。
目的のユーザ状況判断部23は、ユーザ入力部11が、目的のシーンを入力するように設定された場合において、即ち、ディスプレイ15に目的のシーンの入力画面(例えば、図4参照)に表示された場合において、ユーザ入力部11にて入力された情報に基づいて、どのような目的のシーンが入力されたかを判断する。
In this way, since it is possible to know which pictogram of emotion in the emotion circumflex has been touched, it is possible to determine what kind of current emotion has been input.
When the user input unit 11 is set to input the target scene, the target user situation determination unit 23 is displayed on the input screen of the target scene on the display 15 (for example, see FIG. 4). In this case, based on the information input by the user input unit 11, it is determined what kind of target scene has been input.

つまり、ディスプレイ15に表示された感情円環図において、どの位置(即ち、感情円環図における座標)がタッチされたかという情報に基づいて、どのような目的のシーンが入力されたかを判断する。 That is, what kind of target scene has been input is determined based on the information as to which position (that is, the coordinates in the emotional circumflex) has been touched in the emotional circumflex displayed on the display 15 .

詳しくは、制御部5のメモリには、感情円環図に表示される各シーンのピクトグラムの座標と各シーンとが対応付けられて記憶されている。従って、感情の入力と同様に、あるシーンのピクトグラムがタッチされた場合は、そのタッチされた位置の座標(即ち、第1座標及び第2座標)が制御部5に送信されるので、この送信された座標から、どのシーンのピクトグラムがタッチされたかを判断することが分かる。 Specifically, the memory of the control unit 5 stores the coordinates of the pictograms of each scene displayed in the emotional ring diagram in association with each scene. Therefore, similarly to the input of emotions, when a pictogram of a certain scene is touched, the coordinates of the touched position (that is, the first coordinates and the second coordinates) are transmitted to the control unit 5. From the touched coordinates, it can be determined which scene pictogram was touched.

このように、感情円環図のどのシーンのピクトグラムがタッチされたかが分かるので、どのような目的のシーンが入力されたかを判断することができる。
レコメンド生成部19は、現在のユーザ状況判断部21によって判断されたユーザの現在の感情と、目的のユーザ状況判断部23によって判断されたユーザの目的のシーンとに基づいて、ユーザに推奨するコンテンツを選定する。
In this way, since it is possible to know which scene pictogram of the emotion circumflex has been touched, it is possible to determine what kind of target scene has been input.
The recommendation generation unit 19 recommends content to the user based on the user's current emotion determined by the current user situation determination unit 21 and the user's desired scene determined by the target user situation determination unit 23. to select.

例えば、現在の感情が「しょんぼり」であり、目的のシーンが「ティータイム」である場合には、この現在の感情と目的のシーンとに対応したコンテンツを選択する。つまり、現在の感情が「ティータイム」のような安らぎのある状況に合う感情となるようなコンテンツを選択する。 For example, if the current emotion is "dejected" and the target scene is "tea time", the content corresponding to the current emotion and target scene is selected. In other words, choose content where your current emotion is one that fits a restful situation like "tea time."

このようなコンテンツは、複数の現在の感情(例えば、6個の感情のピクトグラム)と複数の目的のシーン(例えば、9個のシーンのピクトグラム)との組み合わせに合致するように、それぞれ設定されている。また、コンテンツは、ある1個の感情のピクトグラムとある1個の目的のシーンのピクトグラムとの場合において、複数設定されている。なお、1つの組み合わせであってもよい。 Such content is each set to match a combination of multiple current emotions (e.g., 6 emotion pictograms) and multiple target scenes (e.g., 9 scene pictograms). there is In addition, a plurality of contents are set in the case of one emotional pictogram and one target scene pictogram. In addition, one combination may be sufficient.

従って、現在の感情が「しょんぼり」であり、目的のシーンが「ティータイム」である場合には、この組み合わせに対応した複数のコンテンツが選択される。
提供空間決定部27では、レコメンド生成部19によって選択された複数のコンテンツから、実際にユーザに提供するための1つのコンテンツを決定する。
Therefore, when the current emotion is "dejected" and the target scene is "tea time", a plurality of contents corresponding to this combination are selected.
The provision space determination unit 27 determines one content to be actually provided to the user from the plurality of contents selected by the recommendation generation unit 19 .

例えば、レコメンド生成部19によって選択された複数のコンテンツの内容を示す説明を、ユーザに提示し、ユーザによってコンテンツを選択させるようにしてもよい。具体的には、ディスプレイ15に、複数のコンテンツのイメージを画像で表示し、又は、コンテンツの要点や説明を表示し、その表示部分をユーザがタッチすることによりコンテンツを選択(即ち、決定)できるようにしてもよい。 For example, the user may be prompted to select a content by presenting a description of the contents of the plurality of contents selected by the recommendation generating unit 19 to the user. Specifically, images of a plurality of contents are displayed as images on the display 15, or main points and explanations of the contents are displayed, and the user can select (that is, decide) the contents by touching the displayed part. You may do so.

例えば、現在の感情が「しょんぼり」、目的のシーンが「ティータイム」である場合には、各コンテンツに応じて、例えば、「部屋の中で紅茶を楽しむ」ことや「庭で紅茶を楽しむ」ことをイメージできるような画像を表示し、又は、「部屋の中で紅茶を楽しむ」ことや「庭で紅茶を楽しむ」ことの説明を表示し、ユーザによってコンテンツを決定するようにしてもよい。 For example, if the current emotion is "dejected" and the desired scene is "tea time", the content may be "enjoying tea in the room" or "enjoying tea in the garden". It is also possible to display an image that allows the user to imagine what is going on, or to display an explanation of ``enjoying tea in the room'' or ``enjoying tea in the garden,'' so that the user can determine the content.

または、複数のコンテンツがある場合には、提供空間決定部27によって、ランダムにコンテンツを決定するようにしてもよい。
なお、ユーザの選択とランダムの決定とを、ユーザによって選択できるようにしてもよい。
Alternatively, when there are a plurality of contents, the content may be randomly determined by the provision space determination unit 27 .
Note that user selection and random determination may be selectable by the user.

感覚刺激制御部29は、提供空間決定部27にて決定されたコンテンツをユーザに提供する場合に、ユーザの感覚(即ち、5感)を刺激するために、アクチュエータ部7を駆動する制御を行う。 The sensory stimulation control unit 29 controls driving the actuator unit 7 in order to stimulate the user's senses (that is, the five senses) when providing the user with the content determined by the provision space determination unit 27. .

<ハード構成>
ここで、制御部5のハード構成について説明する。
制御部5は、ハード構成として、周知のように、CPUとメモリ(例えば、ROM、RAM、フラッシュメモリ等の半導体メモリ)と、を有するマイクロコンピュータ(以下、マイコン)を中心に構成される。
<Hardware configuration>
Here, the hardware configuration of the control unit 5 will be described.
As well known, the control unit 5 is configured mainly by a microcomputer (hereinafter referred to as a microcomputer) having a CPU and memory (for example, semiconductor memory such as ROM, RAM, and flash memory).

制御部5の各種機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、メモリには、例えば、ユーザ入力部11にて入力された情報や、推奨するコンテンツを選択するための判断材料となるデータ等が記憶される。 Various functions of the control unit 5 are realized by the CPU executing a program stored in a non-transitional substantive recording medium. In this example, the memory corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed. Note that the memory stores, for example, information input by the user input unit 11, data used as judgment materials for selecting recommended content, and the like.

制御部5を構成するマイコンの数は1つでも複数でもよい。また、制御部5が有する各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。 The number of microcomputers constituting the control unit 5 may be one or plural. Further, the method of realizing various functions of the control unit 5 is not limited to software, and some or all of the elements may be realized using one or more pieces of hardware. For example, when the above functions are realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit including many logic circuits, an analog circuit, or a combination thereof.

[1-4.アクチュエータ部]
次に、アクチュエータ部7について説明する。
アクチュエータ部7は、ユーザの5感等の感覚を刺激するために構成であり、視覚作用部31と聴覚作用部33と嗅覚作用部35と触覚作用部37とを備える。
[1-4. Actuator part]
Next, the actuator section 7 will be described.
The actuator section 7 is configured to stimulate the five senses of the user and includes a visual action section 31 , an auditory action section 33 , an olfactory action section 35 and a tactile action section 37 .

視覚作用部31では、例えば、ディスプレイ15を用いて、ユーザに対して映像を提供する。つまり、提供空間決定部27にて決定されたコンテンツに対応した映像を、ディスプレイ15に表示する。 The visual action unit 31 uses, for example, the display 15 to provide images to the user. That is, an image corresponding to the content determined by the provision space determination unit 27 is displayed on the display 15 .

例えば、コンテンツが、「庭で紅茶を楽しむ」というものである場合には、美しい庭の画像をディスプレイ15に表示する。なお、画像を表示する装置としては、前記ディスプレイ15以外の他のディスプレイでもよく、室内の壁等にプロジェクタ等で映像を投影してもよい。 For example, if the content is "enjoy tea in the garden", the display 15 displays an image of a beautiful garden. As a device for displaying an image, a display other than the display 15 may be used.

聴覚作用部33では、図示しないスピーカを駆動して、コンテンツに対応した音や音楽等をユーザに提供する。例えば、コンテンツが、「庭で紅茶を楽しむ」というものである場合には、鳥の鳴き声を流したり、自然をイメージするようなクラシックの音楽を流してもよい。 The auditory action unit 33 drives a speaker (not shown) to provide the user with sounds, music, etc. corresponding to the content. For example, if the content is "enjoying tea in the garden", the sounds of birds or classical music that gives an image of nature may be played.

嗅覚作用部35では、例えば、香りを供給する図示しない装置を駆動して、コンテンツに対応した香りを、ユーザに提供する。例えば、コンテンツが、「庭で紅茶を楽しむ」というものである場合には、草花の香りなどを提供してもよい。 The olfactory action unit 35, for example, drives a device (not shown) that supplies scent to provide the user with the scent corresponding to the content. For example, if the content is "enjoy tea in the garden", the fragrance of flowers and the like may be provided.

触覚作用部37では、必要に応じて、コンテンツに対応した触感を、ユーザに提供することができる。例えば、エアコン等を利用して、コンテンツの内容に応じて、ユーザに冷風や温風を供給してもよい。また、ユーザに振動による触感を付与する場合には、ユーザの座席に配置したモータ等を駆動して、ユーザに振動の感触を付与してもよい。 The haptic action section 37 can provide the user with a tactile sensation corresponding to the content as needed. For example, an air conditioner or the like may be used to supply cool air or warm air to the user according to the contents of the content. Further, when giving the user a tactile sensation due to vibration, a motor or the like arranged in the user's seat may be driven to give the user a feeling of vibration.

[1-4.処理]
次に、制御部5にて実施される処理について、図6のフローチャート等を用いて説明する。
[1-4. process]
Next, the processing performed by the control unit 5 will be described using the flowchart of FIG. 6 and the like.

図6に示すように、ステップ(以下、S)100では、ディスプレイ15に、前記図2に示すような、現在の感情の入力画面を表示する。
続くS110では、前記現在の感情の入力画面にて、現在の感情の入力のための操作がなされたか否かを判定する。具体的には、現在の感情の入力画面において、現在の感情を示す各ピクトグラムの範囲がタッチされたか否かを判定する。詳しくは、タッチされた位置(即ち、座標)が、各ピクトグラムの範囲内の座標であるか否かを判定する。ここで肯定判断されるとS120に進み、一方否定判断されると待機する。
As shown in FIG. 6, in step (hereinafter referred to as S) 100, the display 15 displays a current emotion input screen as shown in FIG.
In the following S110, it is determined whether or not an operation for inputting the current emotion has been performed on the current emotion input screen. Specifically, it is determined whether or not the range of each pictogram indicating the current emotion has been touched on the current emotion input screen. Specifically, it is determined whether or not the touched position (that is, the coordinates) is within the range of each pictogram. If the determination is affirmative here, the process proceeds to S120, and if the determination is negative, the process waits.

S120では、前記現在の入力画面を切り替えて、ディスプレイ15に、前記図4に示すような、目的のシーンの入力画面を表示する。
続くS130では、前記目的のシーン在の入力画面にて、目的のシーンの入力のための操作がなされたか否かを判定する。具体的には、目的のシーンの入力画面において、目的のシーンを示す各ピクトグラムの範囲がタッチされたか否かを判定する。詳しくは、タッチされた位置(即ち、座標)が、各ピクトグラムの範囲内の座標であるか否かを判定する。ここで肯定判断されるとS140に進み、一方否定判断されると待機する。
In S120, the current input screen is switched to display the input screen of the target scene on the display 15 as shown in FIG.
In the following S130, it is determined whether or not an operation for inputting a target scene has been performed on the input screen where the target scene exists. Specifically, it is determined whether or not the range of each pictogram indicating the target scene has been touched on the target scene input screen. Specifically, it is determined whether or not the touched position (that is, coordinates) is within the range of each pictogram. If the determination here is affirmative, the process proceeds to S140, and if the determination is negative, the process waits.

S140では、現在の感情の入力画面にて入力された座標から、現在の感情を判断する。つまり、現在の感情の入力画面では、入力画面の座標と各感情のピクトグラムとが対応しているので、入力された座標から、現在の感情を判断することができる。 In S140, the current emotion is determined from the coordinates input on the current emotion input screen. That is, on the current emotion input screen, the coordinates of the input screen correspond to the pictograms of each emotion, so the current emotion can be determined from the input coordinates.

続くS150では、目的のシーンの入力画面にて入力された座標から、目的のシーンを判断する。つまり、目的のシーンの入力画面では、入力画面の座標と各シーンのピクトグラムとが対応しているので、入力された座標から、目的のシーンを判断することができる。 In the following S150, the target scene is determined from the coordinates input on the input screen of the target scene. That is, on the input screen of the target scene, the coordinates of the input screen correspond to the pictograms of each scene, so the target scene can be determined from the input coordinates.

続くS160では、現在の感情と目的のシーンとに応じて、ユーザに推奨する複数のコンテンツを選択する。つまり、上述したように、各感情のピクトグラムに対応した現在の感情と、各シーンのピクトグラムに対応した目的のシーンと、の組み合わせ応じて、それぞれ複数のコンテンツが予め用意されているので、その複数のコンテンツを推奨するコンテンツとして選択する。 In the subsequent S160, a plurality of contents recommended to the user are selected according to the current emotion and the desired scene. That is, as described above, a plurality of contents are prepared in advance according to the combination of the current emotion corresponding to the pictogram of each emotion and the target scene corresponding to the pictogram of each scene. content as recommended content.

なお、このようなコンテンツは、例えば制御部5等のメモリに記憶されていてもよいが、インターネット等を介して所定のサーバ等から取得するようにしてもよい。
また、各コンテンツは、予め心理学の専門家等によって選択されていてもよいし、実験等によって多数の被験者のアンケート等によって選択されていてもよい。
Such content may be stored in the memory of the control unit 5 or the like, or may be obtained from a predetermined server or the like via the Internet or the like.
Moreover, each content may be selected in advance by a psychology expert or the like, or may be selected by questionnaires or the like of a large number of subjects through experiments or the like.

続くS170では、S160にて推奨された複数のコンテンツから、ユーザに提供するコンテンツを決定する。つまり、上述したように、推奨された複数のコンテンツをユーザに提示し、ユーザによって決定するようにしてもよい。或いは、機械的にランダムに決定してもよい。 At S170, the content to be provided to the user is determined from the plurality of contents recommended at S160. That is, as described above, a plurality of recommended contents may be presented to the user and determined by the user. Alternatively, it may be randomly determined mechanically.

続くS180では、S170にて決定されたコンテンツを、アクチュエータ部7を駆動してユーザに提供し、一旦本処理を終了する。
[1-5.効果]
上記第1実施形態では、以下の作用効果を得ることができる。
In the following S180, the content determined in S170 is provided to the user by driving the actuator section 7, and this process is once terminated.
[1-5. effect]
In the first embodiment described above, the following effects can be obtained.

(1a)本第1実施形態では、現在の感情の入力画面を用いて、ユーザがマニュアルにて入力したユーザの現在の感情を取得する。また、目的のシーンの入力画面を用いて、ユーザがマニュアルにて入力したユーザの目的のシーンを取得する。そして、このようにして取得した現在の感情と目的のシーンとに基づいて、ユーザに提供するコンテンツを選択して推奨する。 (1a) In the first embodiment, the user's current emotion manually input by the user is acquired using the current emotion input screen. In addition, the user's target scene manually input by the user is acquired using the input screen of the target scene. Contents to be provided to the user are selected and recommended based on the current emotion and the target scene thus acquired.

このような構成により、本第1実施形態では、ユーザにとって満足度が高いコンテンツを推奨することができる。
詳しくは、本第1実施形態では、ユーザによって入力された現在の感情の情報を取得することにより、ユーザの現在の実際の感情を高い精度で把握することができる。また、ユーザによって入力された目的のシーンの情報を取得することにより、ユーザが実際に目的とするシーンを高い精度で把握することができる。
With such a configuration, in the first embodiment, it is possible to recommend content that is highly satisfying to the user.
Specifically, in the first embodiment, by acquiring the current emotion information input by the user, it is possible to grasp the current actual emotion of the user with high accuracy. In addition, by acquiring the information of the target scene input by the user, the user's actual target scene can be grasped with high accuracy.

従って、このような実際に即した現在の感情と目的のシーンとに基づいてコンテンツを選ぶことにより、ユーザにとって快適な(即ち、満足度の高い)コンテンツを推奨することができる。 Therefore, by selecting content based on such realistic current emotions and desired scenes, it is possible to recommend content that is comfortable (that is, has a high degree of satisfaction) for the user.

(1b)本第1実施形態では、現在の感情の入力画面として、感情円環図に各感情のピクトグラムを表示している。従って、ユーザが感情円環図の感情のピクトグラムをタッチすることにより、容易に現在の感情を入力することができる。 (1b) In the first embodiment, pictograms of each emotion are displayed on the emotion ring diagram as the current emotion input screen. Therefore, the user can easily input the current emotion by touching the emotion pictogram on the emotion ring diagram.

同様に、本第1実施形態では、目的のシーンの入力画面として、感情円環図に各シーンのピクトグラムを表示している。従って、ユーザが感情円環図のシーンのピクトグラムをタッチすることにより、容易に目的のシーンを入力することができる。 Similarly, in the first embodiment, pictograms of each scene are displayed on the emotional ring diagram as the input screen for the target scene. Therefore, the user can easily input the desired scene by touching the pictogram of the scene in the emotion circumflex.

このように、本第1実施形態では、ディスプレイ15に感情やシーンを示すピクトグラムを表示するので、ユーザは直感的に感情やシーンを理解して入力できる。よって、ユーザビリティ(即ち、使い勝手)の良いインターフェースを実現できるという顕著な効果を奏する。 As described above, in the first embodiment, pictograms representing emotions and scenes are displayed on the display 15, so that the user can intuitively understand and input emotions and scenes. Therefore, there is a remarkable effect that an interface with good usability (that is, ease of use) can be realized.

また、シーンの入力画面に、シーンのピクトグラムを濃く表示するとともに、感情のピクトグラムを薄く表示することにより、各シーンがどのような感情に対応するかを容易に把握することができる。 In addition, by displaying scene pictograms in a dark color and emotion pictograms in a light color on the scene input screen, it is possible to easily grasp what kind of emotion each scene corresponds to.

(1c)本第1実施形態では、コンテンツは、ユーザの五感のうち、少なくとも1種を刺激するように構成されている。例えば、この刺激として、視覚刺激、聴覚刺激、嗅覚刺激、触覚刺激のうち1種を採用できる。よって、ユーザに対して、望ましい感情を与えることができる有効なコンテンツを提供することができる。 (1c) In the first embodiment, the content is configured to stimulate at least one of the five senses of the user. For example, as this stimulus, one of visual stimulus, auditory stimulus, olfactory stimulus, and tactile stimulus can be adopted. Therefore, it is possible to provide users with effective content that can give them desired emotions.

[1-6.文言の対応関係]
本第1実施形態と本開示との関係において、コンテンツ推奨装置1がコンテンツ推奨装置に対応し、感情の円環モデルが評価モデルに対応し、評価図が感情円環図に対応する。
[1-6. Correspondence of wording]
In the relationship between the first embodiment and the present disclosure, the content recommendation device 1 corresponds to the content recommendation device, the emotion cyclic model corresponds to the evaluation model, and the evaluation diagram corresponds to the emotional cyclic diagram.

また、ユーザ入力部11及びS100、S120の処理が収集部に対応し、レコメンド生成部25及びS160の処理が収集推奨部に対応する。
或いは、ユーザ入力部11及びS100が第1取得部に対応し、ユーザ入力部11及びS120が第2取得部に対応し、レコメンド生成部25及びS160の処理が取得推奨部に対応する。なお、ディスプレイ15が表示装置に対応する。
Also, the user input unit 11 and the processes of S100 and S120 correspond to the collection unit, and the recommendation generation unit 25 and the processing of S160 correspond to the collection recommendation unit.
Alternatively, the user input section 11 and S100 correspond to the first acquisition section, the user input section 11 and S120 correspond to the second acquisition section, and the recommendation generation section 25 and the process of S160 correspond to the acquisition recommendation section. Note that the display 15 corresponds to the display device.

[1-7.変形例]
前記第1実施形態では、感情円環図を用いて、現在の状況である現在の感情と目的の状況である目的のシーンとを表示して入力するとともに、入力された現在の感情と目的のシーンとに基づいてコンテンツを推奨したが、下記の表1に示すように、感情円環図を用いて各種の現在の状況と各種の目的の状況とを入力し、入力された現在の状況と目的の状況とに応じて、コンテンツを推奨してもよい。
[1-7. Modification]
In the above-described first embodiment, the emotion circumflex is used to display and input the current emotion, which is the current situation, and the target scene, which is the target situation. As shown in Table 1 below, various current situations and various target situations are input using the emotional ring diagram, and the input current situation and the content are recommended. Content may be recommended according to the desired situation.

下記表1では、感情円環図にて表示して入力する、現在の状況と目的の状況との組み合わせを示している。なお、「表1」のNo.2の例が、前記第1実施形態で示した例である。 Table 1 below shows combinations of the current situation and the target situation to be displayed and input in the emotional ring diagram. In addition, No. of "Table 1". Example 2 is the example shown in the first embodiment.

Figure 2023092063000002
Figure 2023092063000002

この表1に示す場合も、前記第1実施形態と同様に、感情円環図に各種のピクトグラムを表示することにより、感情やシーンを入力することができる。
例えば「表1」のNo.3の例では、感情円環図に現在のシーンを示すピクトグラムを表示し、その入力画面から現在のシーンを入力することができる。また、別の感情円環図に目的の感情を示すピクトグラムを表示し、その入力画面から目的の感情を入力することができる。
In the case shown in Table 1 as well, emotions and scenes can be input by displaying various pictograms on the emotional ring diagram, as in the first embodiment.
For example, No. in "Table 1". In example 3, a pictogram indicating the current scene is displayed on the emotional ring diagram, and the current scene can be input from the input screen. In addition, a pictogram indicating the target emotion can be displayed on another emotion ring diagram, and the target emotion can be input from the input screen.

従って、入力された現在のシーンと目的の感情とに基づいて、予め記憶された多数のコンテンツから推奨する1又は複数の推奨するコンテンツを選定することができる。
また、表1のNo.5~9のように、現在の状況や目的の状況において、それぞれ感情やシーンを入力する場合には、感情とシーンとで別個の感情円環図を用い。或いは、後述する第2実施形態で示すように、感情のピクトグラムとシーンのピクトグラムが同時に表示された同じ感情円環図を用いてもよい。この場合は、感情とシーンとの同時入力が可能である。
Therefore, one or a plurality of recommended contents can be selected from a large number of pre-stored contents based on the input current scene and target emotion.
In addition, No. in Table 1. As in 5 to 9, when inputting emotions and scenes in the current situation and the target situation, separate emotion cyclic diagrams are used for emotions and scenes. Alternatively, as shown in a second embodiment, which will be described later, the same emotional ring diagram in which pictograms of emotions and pictograms of scenes are displayed at the same time may be used. In this case, emotions and scenes can be input simultaneously.

例えば「表1」のNo.5の例では、感情円環図に現在の感情を示すピクトグラムを表示し、その入力画面から現在の感情を入力することができる。また、別の感情円環図に現在のシーンを示すピクトグラムを表示し、その入力画面から現在のシーンを入力することができる。 For example, No. in "Table 1". In example 5, a pictogram indicating the current emotion is displayed on the emotion ring diagram, and the current emotion can be input from the input screen. Also, a pictogram showing the current scene can be displayed on another emotional ring diagram, and the current scene can be input from the input screen.

或いは、同じ感情円環図に現在の感情を示すピクトグラムと現在のシーンを示すピクトグラムとを表示し、現在の感情と現在のシーンとを入力するようにしてもよい。
なお、別の感情円環図を用いて、目的の感情を示すピクトグラムを表示し、その入力画面から目的の感情を入力することができる。
Alternatively, a pictogram representing the current emotion and a pictogram representing the current scene may be displayed on the same emotion ring diagram, and the current emotion and the current scene may be input.
A pictogram indicating a target emotion can be displayed using another emotion ring diagram, and the target emotion can be input from the input screen.

従って、No.5の例では、入力された現在の感情と現在のシーンと目的の感情とに基づいて、予め記憶された多数のコンテンツから推奨する1又は複数の推奨するコンテンツを選定することができる。 Therefore, No. In example 5, one or more recommended contents can be selected from a large number of pre-stored contents based on the input current emotion, current scene, and target emotion.

なお、この場合は、3つのパラメータ(即ち、「現在の感情」と「現在のシーン」と「目的の感情」)に基づいて、予め記憶された多数のコンテンツから推奨する1又は複数のコンテンツを選定することができる。 In this case, based on three parameters (that is, "current emotion", "current scene", and "desired emotion"), one or more contents to be recommended from a large number of contents stored in advance are selected. can be selected.

また、No.9の例では、4つのパラメータ(即ち、「現在の感情」と「現在のシーン」と「目的の感情」と「目的のシーン」)に基づいて、予め記憶された多数のコンテンツから推奨する1又は複数のコンテンツを選定することができる。 Also, No. 9, based on four parameters (i.e., "current emotion", "current scene", "target emotion", and "target scene"), 1 Alternatively, multiple contents can be selected.

[2.第2実施形態]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
Since the basic configuration of the second embodiment is similar to that of the first embodiment, differences from the first embodiment will be mainly described below. The same reference numerals as in the first embodiment indicate the same configurations, and the preceding description is referred to.

第2実施形態では、図7に示すように、ディスプレイ15に、前記図4に示すような目的のシーンの感情円環図の入力画面が表示されている場合を例に挙げて説明する。
この感情円環図では、目的のシーンのピクトグラムが濃く表示されており、目的の感情のピクトグラムが薄く表示されている。
In the second embodiment, as shown in FIG. 7, an example will be described in which the display 15 displays an input screen for an emotional ring diagram of a target scene as shown in FIG.
In this emotion ring diagram, the target scene pictograms are displayed in a dark color, and the target emotion pictograms are displayed in a light color.

本第2実施形態では、目的のシーンのピクトグラムの位置(即ち、ピクトグラムの座標)と、目的の感情のピクトグラムが配置された領域(即ち、領域R1~R6の座標)と、が対応している。 In the second embodiment, the position of the pictogram of the target scene (that is, the coordinates of the pictogram) corresponds to the area in which the target emotion pictogram is arranged (that is, the coordinates of the areas R1 to R6). .

つまり、ある目的のシーンのピクトグラムがタッチされて選択される(即ち、入力される)と、そのピクトグラムが配置された領域に対応した目的の感情のピクトグラムも選択される(即ち、入力される)ように構成されている。 That is, when a target scene pictogram is touched and selected (ie, input), the target emotion pictogram corresponding to the area in which the pictogram is placed is also selected (ie, input). is configured as

従って、本第2実施形態では、感情円環図に配置された目的のシーンのピクトグラムをユーザがタッチして選択することにより、その目的のシーンのピクトグラムが配置された位置から、目的の感情も同時に入力することができる。 Therefore, in the second embodiment, when the user touches and selects the pictogram of the target scene arranged in the emotion circumflex, the target emotion is also displayed from the position where the pictogram of the target scene is arranged. can be entered at the same time.

なお、ここでは、目的のシーンと目的の感情とを同時入力する例を挙げたが、同様な方法で、現在のシーンと現在の感情とを同時入力するようにしてもよい。具体的には、感情円環図に、現在のシーンのピクトグラムを濃く表示し、現在の感情のピクトグラムを薄く表示し、現在のシーンのピクトグラムをユーザがタッチして選択することにより、その現在のシーンのピクトグラムが配置された位置(即ち、領域)から、現在の感情を同時に入力できるようにしてもよい。 Here, an example of simultaneously inputting the target scene and target emotion has been given, but the current scene and current emotion may be simultaneously input in a similar manner. Specifically, the pictogram of the current scene is displayed darkly and the pictogram of the current emotion is lightly displayed on the emotion ring diagram. The current emotion may be simultaneously input from the position (that is, the area) where the pictogram of the scene is arranged.

従って、本第2実施形態では、前記第1実施形態と同様な効果を奏するとともに、一層効率よく感情やシーンを入力できるという効果がある。
[3.第3実施形態]
第3実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
Therefore, in the second embodiment, the same effects as those of the first embodiment can be obtained, and there is an effect that emotions and scenes can be input more efficiently.
[3. Third Embodiment]
Since the basic configuration of the third embodiment is the same as that of the first embodiment, differences from the first embodiment will be mainly described below. The same reference numerals as in the first embodiment indicate the same configurations, and the preceding description is referred to.

本第3実施形態では、図8に示すように、ディスプレイ15に、前記図2に示すような現在の感情の感情円環図の入力画面が表示されている場合を例に挙げて説明する。
第3実施形態では、感情円環図の任意の場所を選択することにより、様々な感情を抽出することができるように構成されている。
In the third embodiment, as shown in FIG. 8, an example will be described in which the display 15 displays an input screen for an emotional ring diagram of current emotions as shown in FIG.
The third embodiment is configured such that various emotions can be extracted by selecting an arbitrary location on the emotion circumflex.

具体的には、現在の感情を入力可能な感情円環図において、ユーザがタッチした任意の位置(例えば、図8の破線の円形の領域)の座標(即ち、第1座標、第2座標)が入力できるようになっている。この座標は、覚醒の程度と快不快の程度とを示す指標であるので、この座標から、覚醒の程度と快不快の程度とに対応した感情を抽出することができる。 Specifically, the coordinates (i.e., first coordinates, second coordinates) of an arbitrary position touched by the user (for example, the dashed-line circular area in FIG. 8) on the emotion circumflex in which the current emotion can be input. can be entered. Since these coordinates are indices indicating the degree of arousal and the degree of pleasure and displeasure, it is possible to extract emotions corresponding to the degree of arousal and the degree of pleasure and displeasure from these coordinates.

例えば、図8の破線の円形の領域がタッチされた場合には、非常に意識が明瞭で、且つ、心が平静な状況(即ち、感情)であることが分かる。
なお、本第3実施形態では、ユーザがタッチする任意の位置に応じた感情の入力が可能となっているので、感情のピクトグラムにタッチしても、当該ピクトグラムの感情は入力されないようになっている。つまり、感情のピクトグラムは、ユーザが入力するための参考のための表示である。
For example, when the dashed circular area in FIG. 8 is touched, it can be seen that the consciousness is very clear and the mind is calm (that is, emotions).
In the third embodiment, since it is possible for the user to input an emotion corresponding to an arbitrary position touched by the user, even if the pictogram of emotion is touched, the emotion of the pictogram will not be input. there is That is, the emotion pictogram is a reference display for user input.

また、他の例として、感情のピクトグラムにタッチすると、当該ピクトグラムの感情が入力されるようにしてもよい。つまり、任意の場所での入力と、感情のピクトグラムでの入力とが可能なように構成されていてもよい。 As another example, touching an emotion pictogram may input the emotion of the pictogram. In other words, it may be configured to allow input at an arbitrary location and input using pictograms of emotions.

なお、ここでは、感情円環図を用いて現在の感情を入力する例について説明したが、感情円環図として目的の感情を入力するための感情円環図を設定して、その感情円環図を用いて、前記と同様にして、目的の感情を入力するようにしてもよい。 Here, an example of inputting a current emotion using an emotion cyclone has been described. A target emotion may be input in the same manner as described above using a diagram.

従って、本第3実施形態では、前記第1実施形態と同様な効果を奏するとともに、多様な感情を入力できるという効果、即ち、感情を一層精度良く入力できるという効果がある。
[4.第4実施形態]
第4実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
Therefore, in the third embodiment, the same effects as those of the first embodiment can be obtained, and various emotions can be input, that is, emotions can be input with higher accuracy.
[4. Fourth Embodiment]
Since the basic configuration of the fourth embodiment is the same as that of the first embodiment, differences from the first embodiment will be mainly described below. The same reference numerals as in the first embodiment indicate the same configurations, and the preceding description is referred to.

本第4実施形態では、感情円環図において、現在のシーンを示すピクトグラムの位置や、目的のシーンを示すピクトグラムの位置を、任意の位置に移動できるように構成されている。 In the fourth embodiment, the position of the pictogram indicating the current scene and the position of the pictogram indicating the target scene can be moved to arbitrary positions in the emotional circumflex.

例えば、前記図4に示すように、目的のシーンのピクトグラムが各領域R3~R5に表示されている場合に、各ピクトグラムの位置をユーザの操作によって移動させることができる。 For example, as shown in FIG. 4, when pictograms of a target scene are displayed in each of regions R3 to R5, the position of each pictogram can be moved by the user's operation.

ピクトグラムを移動させる方法としては、例えば下記の方法が挙げられる。
ディスプレイ15のピクトグラムを表示した入力画面等の所定位置に、ピクトグラムを移動させるための移動画面に切り替える切替ボタン(図示せず)を設けておく。また、移動画面には、元の入力画面に戻るための戻りボタン(図示せず)を設けておく。なお、切り替えた直後の移動画面は、切り替える前の入力画面と同じである。
Examples of the method of moving the pictogram include the following methods.
A switching button (not shown) for switching to a movement screen for moving the pictogram is provided at a predetermined position of the input screen or the like on which the pictogram is displayed on the display 15 . Further, the movement screen is provided with a return button (not shown) for returning to the original input screen. Note that the movement screen immediately after switching is the same as the input screen before switching.

ユーザは、入力画面の切替ボタンをタッチ(即ち、タップ)して移動画面に切り替える。次に、移動画面にて、例えば指先にて移動させるピクトグラムに触れて所定の移動させたい位置までドラッグさせる。これによって、ピクトグラムの移動が完了する。その後、戻りボタンをタッチすることにより入力画面に切り替える。この入力画面では、ピクトグラムの移動後の入力画面が表示される。従って、この入力画面にて、移動したピクトグラムに対応したシーンを含めた各種のシーンの入力が可能となる。 The user touches (that is, taps) the switching button of the input screen to switch to the movement screen. Next, on the movement screen, the pictogram to be moved is touched with, for example, a fingertip and dragged to a predetermined position to be moved. This completes the movement of the pictogram. After that, by touching the return button, the screen is switched to the input screen. In this input screen, an input screen after movement of the pictogram is displayed. Therefore, on this input screen, it is possible to input various scenes including scenes corresponding to the moved pictogram.

本第4実施形態では、第1実施形態と同様な効果を奏する。さらに、本第4実施形態では、ピクトグラムをユーザの任意の位置に移動できるので、ユーザの実際に感覚にあったシーンの入力が可能である。 The fourth embodiment has the same effect as the first embodiment. Furthermore, in the fourth embodiment, since the pictogram can be moved to any position of the user, it is possible to input a scene that matches the user's actual feeling.

なお、ここで、目的のシーンのピクトグラムの移動について説明したが、現在のシーンのピクトグラムについても、同様に、移動画面にて移動させることができる。
<変形例1>
前記第4実施形態では、シーンのピクトグラムの移動について述べたが、ピクトグラムを削除することも可能である。
Here, the movement of the pictogram of the target scene has been described, but the pictogram of the current scene can be similarly moved on the movement screen.
<Modification 1>
In the fourth embodiment, movement of scene pictograms has been described, but it is also possible to delete pictograms.

例えば、入力画面等に削除ボタン(図示せず)を設けておき、最初に削除ボタンをタッチし、次に、削除したいピクトグラムにタッチすることにより、タッチしたピクトグラムを削除することも可能である。 For example, a delete button (not shown) is provided on an input screen or the like, and the touched pictogram can be deleted by first touching the delete button and then touching the pictogram to be deleted.

<変形例2>
前記第4実施形態では、シーンのピクトグラムの移動について述べたが、入力画面にピクトグラムを追加することも可能である。
<Modification 2>
In the fourth embodiment, movement of scene pictograms has been described, but it is also possible to add pictograms to the input screen.

例えば、メモリに記憶してある多数のシーンのピクトグラムから任意のピクトグラムを選択し、その選択したピクトグラムを入力画面に表示すること(即ち、追加すること)も可能である。 For example, it is possible to select an arbitrary pictogram from many scene pictograms stored in the memory and display the selected pictogram on the input screen (that is, add it).

ピクトグラムを追加する方法としては、例えば下記の方法が挙げられる。
ディスプレイ15のピクトグラムを表示した入力画面等の所定位置に、ピクトグラムを追加するための追加画面に切り替える追加ボタン(図示せず)を設けておく。また、追加画面には、元の入力画面に戻る戻りボタン(図示せず)を設けておく。
Methods for adding pictograms include, for example, the following methods.
An add button (not shown) for switching to an add screen for adding a pictogram is provided at a predetermined position of the input screen or the like on which the pictogram is displayed on the display 15 . Further, the additional screen is provided with a return button (not shown) for returning to the original input screen.

ユーザは、入力画面の追加ボタンをタッチして追加画面に切り替える。この追加画面には、多数のシーンのピクトグラムが表示されているので、ユーザは、追加したいピクトグラムにタッチすることにより、追加したいピクトグラムを決定することができる。追加したいピクトグラムを決定した後に、戻りボタンをタッチすることにより入力画面に切り替える。この入力画面では、例えば、追加したピクトグラムが、感情円環図の外側に表示されているので、この外側のピクトグラムを指でドラッグして感情円環図の所定の位置に配置することができる。 The user touches the add button on the input screen to switch to the add screen. Since pictograms of many scenes are displayed on this additional screen, the user can determine the pictograms to be added by touching the pictograms to be added. After determining the pictogram to be added, touch the return button to switch to the input screen. On this input screen, for example, the added pictogram is displayed outside the emotional cyclone, so that the outer pictogram can be dragged with a finger and placed at a predetermined position on the emotional cyclone.

従って、この入力画面にて、追加したピクトグラムに対応するシーンを含めた各種のシーンの入力が可能となる。
[5.第5実施形態]
第5実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
Therefore, on this input screen, it is possible to input various scenes including scenes corresponding to the added pictograms.
[5. Fifth Embodiment]
Since the basic configuration of the fifth embodiment is the same as that of the first embodiment, differences from the first embodiment will be mainly described below. The same reference numerals as in the first embodiment indicate the same configurations, and the preceding description is referred to.

(1)本第5実施形態では、図9に示すように、感情円環図に表示された現在のシーンのピクトグラムを用いて、現在のシーンの入力と同時に現在の感情を入力する。
図9は、現在のシーンと現在の感情を同時に入力するための感情円環図であり、図9では〇により、シーンのピクトグラムを模式的に表示(即ち、タッチする位置を示すために単純なマークで表示)するとともに、文字でシーンの内容を表示している。
(1) In the fifth embodiment, as shown in FIG. 9, a pictogram of the current scene displayed in the emotion circumflex is used to input the current scene and the current emotion at the same time.
FIG. 9 is an emotion ring diagram for simultaneously inputting the current scene and current emotion. mark), and the content of the scene is displayed in characters.

例えば、「仕事が捗らず焦る」のピクトグラムは、「イライラ」の感情の第1領域R1にある。従って、ユーザが、「仕事が捗らず焦る」のピクトグラムをタッチすることにより、「仕事が捗らず焦る」のシーンと「イライラ」の感情とを、同時に入力することができる。 For example, the pictogram of "I'm in a hurry because I can't make progress at work" is in the first region R1 of the emotion of "Irritated". Therefore, when the user touches the pictogram of "I'm in a hurry because I can't make progress in my work", the user can simultaneously input the scene of "I'm in a hurry because I can't make progress in my work" and the feeling of "frustration".

なお、感情円環図の一部(例えば、左半分)に、現在のシーンのピクトグラムや文字を表示し、現在のシーンの入力と同時に現在の感情を入力するようにしてもよい。
(2)また、本第5実施形態では、図10に示すように、感情円環図の一部(例えば、右半分)に表示された目的のシーンのピクトグラムを用いて、目的のシーンと同時に目的の感情を入力することができる。
A pictogram or characters of the current scene may be displayed in a part (eg, left half) of the emotion ring diagram, and the current emotion may be input at the same time as the current scene is input.
(2) In addition, in the fifth embodiment, as shown in FIG. 10, using the pictogram of the target scene displayed in a part (for example, the right half) of the emotional circumflex, You can enter the desired emotion.

図10は、目的のシーンと目的の感情を同時に入力するための感情円環図であり、図10では〇により、シーンのピクトグラムを模式的に表示し、文字でシーンの内容を示している。 FIG. 10 is an emotion ring diagram for simultaneously inputting a target scene and target emotion.

例えば、「リラックスして仕事」のピクトグラムは、「しあわせ」の感情の第5領域R5にある。従って、ユーザが、「リラックスして仕事」のピクトグラムをタッチすることにより、「リラックスして仕事」のシーンと「しあわせ」の感情とを、同時に入力することができる。 For example, the pictogram "relax and work" is in the fifth region R5 of the emotion "happiness". Therefore, by touching the pictogram of "relax and work", the user can simultaneously input the scene of "relax and work" and the emotion of "happiness".

(3)また、上述した図9では、ディスプレイ15に文字等を記載して現在のシーンを示したが、図11及び図12に示すように、ディスプレイ15に現在のシーンを示す各ピクトグラムを具体的に表示してもよい。なお、図12は、現在や目的の各シーンで利用できるピクトグラムを示している。 (3) In addition, in FIG. 9 described above, characters or the like are written on the display 15 to indicate the current scene, but as shown in FIGS. can be displayed explicitly. Note that FIG. 12 shows pictograms that can be used in each of the current and target scenes.

このように、ディスプレイ15に現在のシーンを示すピクトグラムを表示する場合には、ユーザは直感的に現在のシーンを理解できるので、文字等で示す場合に比べて、一層好適に入力できる。 In this way, when a pictogram indicating the current scene is displayed on the display 15, the user can intuitively understand the current scene, so that input can be performed more effectively than when characters are displayed.

なお、前記図10と同様に、感情円環図の右半分に、目的のシーンを示すピクトグラムを表示してもよい。この場合も、ユーザは直感的に目的のシーンを理解できるので、文字等で示す場合に比べて、一層好適に入力できる。 As in FIG. 10, a pictogram indicating the target scene may be displayed on the right half of the emotional ring diagram. Also in this case, the user can intuitively understand the target scene, so that the input can be performed more appropriately than when the scene is indicated by characters or the like.

このように、本第5実施形態では、前記第1実施形態と同様な効果を奏するとともに、効率よく感情やシーンを入力できるという効果がある。
[6.実験例]
次に、実験例について説明する。
As described above, the fifth embodiment has the same effect as the first embodiment, and also has the effect of being able to input emotions and scenes efficiently.
[6. Experimental example]
Next, an experimental example will be described.

<実験例1>
本発明者により、第1実施形態のコンテンツ推奨装置を用いて、複数(即ち、24名)の被験者に対して、感情円環図を用いて現在の感情を入力する実験を行った。
<Experimental example 1>
Using the content recommendation device of the first embodiment, the inventor conducted an experiment in which a plurality (that is, 24 persons) of subjects input their current emotions using an emotion cyclic diagram.

その結果、2回以下の施行でスムーズに現在の感情に合った入力を行うことができた被験者は、被験者全体の75%であった。なお、ここで2回とは、1回やり直したことを示している。 As a result, 75% of all subjects were able to smoothly perform input that matches their current emotions after performing the test twice or less. It should be noted that "twice" here means that the process has been redone once.

また、同様に、目的のシーンの入力を3回以下の施行でスムーズに行うことができた被験者は、被験者全体(即ち、24名)の75%であった。なお、ここで3回とは、2回やり直したことを示している。 Similarly, 75% of all subjects (that is, 24 subjects) were able to smoothly input the desired scene in 3 or less trials. It should be noted that 3 times here means that the process has been redone twice.

<実験例2>
また、本発明者により、複数(即ち、23名)の被験者に対して、第1実施形態のコンテンツ推奨装置を用いてユーザの状況を入力する場合に、そのユーザビリティに関する実験を行った。
<Experimental example 2>
In addition, the present inventor conducted an experiment on usability when inputting a user's situation using the content recommendation device of the first embodiment for a plurality of (that is, 23) subjects.

その結果、前記コンテンツ推奨装置を用いた場合には、「A地点(例えば、現在の感情)からB地点(例えば、目的のシーン)へと直感的な理解ができる」、「ピクトグラムは直感的に回答できる」といったポジティブな意見が得られた。 As a result, when the content recommendation device is used, it is possible to intuitively understand from point A (e.g., current emotion) to point B (e.g., desired scene), and "pictograms are intuitively I can answer,” was a positive response.

その実験結果を、図13に示す。図13では、ユーザビリティの評価を星のマークの数で示し、星のマークの数が多い程評価が高いことを示している。星のマークの数は5個が最大であり、実験では、3個以上の場合が90%以上となった。 The experimental results are shown in FIG. In FIG. 13, usability evaluation is indicated by the number of star marks, and the greater the number of star marks, the higher the evaluation. The maximum number of star marks is 5, and in the experiment, 90% or more of the cases were 3 or more.

このことから、コンテンツ推奨装置のユーザビリティは、非常に高いものであることが分かる。
[7.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
From this, it can be seen that the usability of the content recommendation device is very high.
[7. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(7a)前記実施形態では、人の感情等の状況を示す評価モデルとして、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有するラッセルの感情の円環モデルを用いたが、例えばユーザの現在の状況や目的の状況などを示す他の評価モデルを用いてもよい。例えば、評価軸の内容が異なるもの、又は、評価軸の本数が異なるものなどを採用できる。また、円形の感情円環図でなくとも、他の形状(例えば、四角形等の多角形の形状)を採用できる。 (7a) In the above-described embodiment, Russell's Circle of Emotions has a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and displeasure as an evaluation model indicating a situation such as a person's emotions. Although the ring model is used, other evaluation models that indicate, for example, the user's current situation or target situation may be used. For example, different contents of the evaluation axis or different number of evaluation axes can be adopted. Further, other shapes (for example, polygonal shapes such as squares) can be adopted instead of the circular emotional circumflex.

(7b)本開示に記載のコンテンツ推奨装置およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。 (7b) The content recommendation apparatus and techniques described in this disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be implemented by a computer.

あるいは、本開示に記載のコンテンツ推奨装置およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。 Alternatively, the content recommendation apparatus and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.

もしくは、本開示に記載のコンテンツ推奨装置およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。 Alternatively, the content recommendation device and method described in this disclosure is a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured by

また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。制御部に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method of realizing the function of each unit included in the control unit does not necessarily include software, and all the functions may be realized using one or a plurality of pieces of hardware.

(7c)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。 (7c) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Also, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(7d)上述したコンテンツ推奨装置の他、当該コンテンツ推奨装置を構成要素とするシステム、当該コンテンツ推奨装置のコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移有形記録媒体、方法(例えば、コンテンツ推奨方法)など、種々の形態で本開示を実現することもできる。 (7d) In addition to the content recommendation device described above, a system having the content recommendation device as a component, a program for operating the computer of the content recommendation device, a non-transition tangible recording medium such as a semiconductor memory recording this program, The present disclosure can also be implemented in various forms, such as methods (eg, content recommendation methods).

例えば、「ユーザに提供するコンテンツを推奨するために用いられるコンテンツ推奨方法であって、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを用いて、前記コンテンツを推奨する際に用いる、前記ユーザの状況を示すユーザ状況を収集する、コンテンツ推奨方法」を採用できる。また、「ユーザによって入力された当該ユーザの現在の状況を取得し、且つ、前記ユーザによって入力された当該ユーザが目的とする目的の状況を取得し、前記現在の状況と前記目的の状況とに基づいて、前記ユーザに提供するコンテンツを推奨する、コンテンツ推奨方法」を採用できる。 For example, "a content recommendation method used to recommend content to be provided to users, an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and discomfort a content recommendation method, which collects a user situation indicating the user's situation, which is used when recommending the content. In addition, "acquisition of the current situation of the user input by the user, acquisition of the target situation of the user input by the user, and acquisition of the current situation and the target situation A content recommendation method for recommending content to be provided to the user based on the content can be adopted.

1:コンテンツ推奨装置、3:情報収集部、5:制御部、7:アクチュエータ部、11:ユーザ入力部、15:ディスプレイ、25:レコメンド生成部 1: content recommendation device, 3: information collection unit, 5: control unit, 7: actuator unit, 11: user input unit, 15: display, 25: recommendation generation unit

Claims (15)

ユーザに提供するコンテンツを推奨するために用いられるコンテンツ推奨装置(1)であって、
覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを用いて、前記コンテンツを推奨する際に用いる、前記ユーザの状況を示すユーザ状況を収集するように構成された、
コンテンツ推奨装置。
A content recommendation device (1) used to recommend content to be provided to a user,
Using an evaluation model having a first evaluation axis that evaluates the degree of arousal and a second evaluation axis that evaluates the degree of pleasure and discomfort, user situations indicating the user's situation used when recommending the content are collected. configured to
Content recommendation device.
請求項1に記載のコンテンツ推奨装置であって、
前記覚醒の程度を評価する第1評価軸と前記快不快の程度を評価する第2評価軸とを有する前記評価モデルを用いて、前記ユーザ状況を収集するように構成された収集部(11、S100、S120)と、
前記収集部にて収集された前記ユーザ状況に基づいて、前記ユーザに提供するコンテンツを推奨するように構成された収集推奨部(25、S160)と、
を備えた、コンテンツ推奨装置。
The content recommendation device according to claim 1,
A collecting unit (11, S100, S120) and
a collection recommendation unit (25, S160) configured to recommend content to be provided to the user based on the user situation collected by the collection unit;
a content recommendation device.
請求項1または請求項2に記載のコンテンツ推奨装置であって、
前記ユーザ状況を示すピクトグラムを表示装置(15)に表示する構成を有するとともに、
前記表示装置に表示された前記ピクトグラムが前記ユーザによって選択された場合に、当該選択された前記ピクトグラムに対応する前記ユーザ状況が入力されるように構成された、
コンテンツ推奨装置。
The content recommendation device according to claim 1 or claim 2,
Having a configuration for displaying a pictogram indicating the user situation on a display device (15),
configured to input the user situation corresponding to the selected pictogram when the user selects the pictogram displayed on the display device;
Content recommendation device.
請求項1から請求項3までのいずれか1項に記載のコンテンツ推奨装置であって、
前記ユーザ状況は、前記ユーザの現在の状況及び前記ユーザが目的とする目的の状況の少なくとも一方である、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 1 to 3,
The user situation is at least one of a current situation of the user and a target situation desired by the user,
Content recommendation device.
ユーザによって入力された当該ユーザの現在の状況を取得するように構成された第1取得部(11、S100)と、
前記ユーザによって入力された当該ユーザが目的とする目的の状況を取得するように構成された第2取得部(11、S120)と、
前記第1取得部によって取得された前記現在の状況と前記第2取得部によって取得された前記目的の状況とに基づいて、前記ユーザに提供するコンテンツを推奨するように構成された取得推奨部(25、S160)と、
を備えた、コンテンツ推奨装置(1)。
a first acquisition unit (11, S100) configured to acquire the user's current situation input by the user;
a second acquisition unit (11, S120) configured to acquire a target situation input by the user;
an acquisition recommendation unit ( 25, S160) and
A content recommendation device (1), comprising:
請求項5に記載のコンテンツ推奨装置であって、
前記現在の状況を示すピクトグラムと前記目的の状況を示すピクトグラムとをそれぞれ表示装置(15)に表示する構成を有するとともに、
前記表示装置に表示されたそれぞれの前記ピクトグラムが前記ユーザによって選択された場合に、当該選択されたそれぞれの前記ピクトグラムに対応する前記現在の状況と前記目的の状況とがそれぞれ入力されるように構成された、
コンテンツ推奨装置。
The content recommendation device according to claim 5,
Having a configuration for displaying a pictogram indicating the current situation and a pictogram indicating the target situation on a display device (15),
When each of the pictograms displayed on the display device is selected by the user, the current situation and the target situation corresponding to each of the selected pictograms are input. was
Content recommendation device.
請求項5または請求項6に記載のコンテンツ推奨装置であって、
覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを用いて、前記現在の状況と前記目的の状況とを取得するように構成された、
コンテンツ推奨装置。
The content recommendation device according to claim 5 or claim 6,
configured to acquire the current situation and the target situation using an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and displeasure;
Content recommendation device.
請求項4から請求項7までのいずれか1項に記載のコンテンツ推奨装置であって、
前記現在の状況は、現在のシーンと現在の感情との少なくとも一方を含む、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 4 to 7,
the current situation includes at least one of a current scene and a current emotion;
Content recommendation device.
請求項4から請求項8までのいずれか1項に記載のコンテンツ推奨装置であって、
前記目的の状況は、目的のシーンと目的の感情との少なくとも一方を含む、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 4 to 8,
the target situation includes at least one of a target scene and a target emotion;
Content recommendation device.
請求項9に記載のコンテンツ推奨装置であって、
前記現在のシーンと前記目的のシーンとの少なくとも一方を示す表示を、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを示す評価図に配置する、
コンテンツ推奨装置。
The content recommendation device according to claim 9,
The display showing at least one of the current scene and the target scene is an evaluation diagram showing an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and discomfort. Deploy,
Content recommendation device.
請求項10に記載のコンテンツ推奨装置であって、
前記現在のシーンと前記目的のシーンとの少なくとも一方が前記評価モデルに配置された場合に、前記現在のシーンに対応して設定された前記現在の感情に基づいて前記現在のシーンから前記現在の感情を判断し、前記目的のシーンに対応して設定された前記目的の感情に基づいて前記目的のシーンから前記目的の感情を判断するように構成された、
コンテンツ推奨装置。
The content recommendation device according to claim 10,
When at least one of the current scene and the target scene is placed in the evaluation model, the current scene is changed to the current scene based on the current emotion set corresponding to the current scene. determining an emotion, and determining the target emotion from the target scene based on the target emotion set corresponding to the target scene;
Content recommendation device.
請求項4から請求項11までのいずれか1項に記載のコンテンツ推奨装置であって、
前記現在の状況が現在の感情であり、前記目的の状況が目的の感情である場合に、
前記現在の感情と前記目的の感情との少なくとも一方を、覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを示す評価図の任意の位置を選択することで判断するように構成された、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 4 to 11,
When the current situation is the current emotion and the target situation is the target emotion,
Any position of an evaluation diagram showing an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and displeasure for at least one of the current emotion and the target emotion. configured to determine by selecting the
Content recommendation device.
請求項4から請求項12までのいずれか1項に記載のコンテンツ推奨装置であって、
前記現在の状況が現在のシーンであり、前記目的の状況が目的のシーンである場合に、
覚醒の程度を評価する第1評価軸と快不快の程度を評価する第2評価軸とを有する評価モデルを示す評価図において、前記現在のシーンと前記目的のシーンとの少なくとも一方を示す表示を、任意に動かすことと任意に増減することとの少なくとも一方が可能なように構成された、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 4 to 12,
if the current situation is a current scene and the target situation is a target scene,
In an evaluation diagram showing an evaluation model having a first evaluation axis for evaluating the degree of arousal and a second evaluation axis for evaluating the degree of pleasure and discomfort, at least one of the current scene and the target scene is displayed. , configured to allow at least one of arbitrarily moving and arbitrarily increasing or decreasing,
Content recommendation device.
請求項1から請求項13までのいずれか1項に記載のコンテンツ推奨装置であって、
前記コンテンツは、前記ユーザの五感のうち、少なくとも1種を刺激するように構成された、
コンテンツ推奨装置。
The content recommendation device according to any one of claims 1 to 13,
the content is configured to stimulate at least one of the user's five senses;
Content recommendation device.
請求項14に記載のコンテンツ推奨装置であって、
前記五感を刺激する構成は、視覚刺激、聴覚刺激、嗅覚刺激、触覚刺激のうち、少なくとも1種である、
コンテンツ推奨装置。
The content recommendation device according to claim 14,
The configuration that stimulates the five senses is at least one of visual stimulation, auditory stimulation, olfactory stimulation, and tactile stimulation.
Content recommendation device.
JP2021207049A 2021-12-21 2021-12-21 Content recommendation device Pending JP2023092063A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021207049A JP2023092063A (en) 2021-12-21 2021-12-21 Content recommendation device
DE102022133428.7A DE102022133428A1 (en) 2021-12-21 2022-12-15 CONTENT RECOMMENDATION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021207049A JP2023092063A (en) 2021-12-21 2021-12-21 Content recommendation device

Publications (1)

Publication Number Publication Date
JP2023092063A true JP2023092063A (en) 2023-07-03

Family

ID=86606266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021207049A Pending JP2023092063A (en) 2021-12-21 2021-12-21 Content recommendation device

Country Status (2)

Country Link
JP (1) JP2023092063A (en)
DE (1) DE102022133428A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6338456B2 (en) 2014-05-31 2018-06-06 Kddi株式会社 Apparatus, program, and method for recommending content based on user's emotion
JP6597650B2 (en) 2017-01-18 2019-10-30 京セラドキュメントソリューションズ株式会社 Inkjet recording device

Also Published As

Publication number Publication date
DE102022133428A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
Sadowski et al. Presence in virtual environments
Caroux et al. Player–video game interaction: A systematic review of current concepts
Richardson Touching the screen: A phenomenology of mobile gaming and the iPhone
Park et al. Investigating the affective quality of interactivity by motion feedback in mobile touchscreen user interfaces
KR20150079590A (en) Mood-actuated device
Ablart et al. Using ultrasonic mid-air haptic patterns in multi-modal user experiences
CN107427225A (en) For loosening and cultivating the method and system of notice
Kruijff et al. Designed emotions: challenges and potential methodologies for improving multisensory cues to enhance user engagement in immersive systems
Ungurean et al. Coping, hacking, and DIY: reframing the accessibility of interactions with television for people with motor impairments
Feick et al. Turn-it-up: Rendering resistance for knobs in virtual reality through undetectable pseudo-haptics
US10747308B2 (en) Line-of-sight operation apparatus, method, and medical device
Dabic et al. User perceptions and evaluations of short vibrotactile feedback
JP2023092063A (en) Content recommendation device
Carrington et al. The gest-rest family: Exploring input possibilities for wheelchair armrests
US20220291747A1 (en) Input system, presentation device, and control method
Löchtefeld et al. Comparing thermal and haptic feedback mechanisms for game controllers
Hollins et al. Factors contributing to the integration of textural qualities: Evidence from virtual surfaces
JP6781780B2 (en) Game programs and game equipment
Cabreira et al. Evaluating the effects of feedback type on older adults' performance in mid-air pointing and target selection
Maurer Embodied interaction in play: body-based and natural interaction in games
Martin Carnal hermeneutics and the digital game
Martinez et al. Examining the sense of agency in human-computer interaction
CN112771517A (en) Cluster classification device, environment generation device, and environment generation system
MacLean Application-centered haptic interface design
JP2023136261A (en) Content selection device