WO2018083852A1 - 制御装置および記録媒体 - Google Patents

制御装置および記録媒体 Download PDF

Info

Publication number
WO2018083852A1
WO2018083852A1 PCT/JP2017/028422 JP2017028422W WO2018083852A1 WO 2018083852 A1 WO2018083852 A1 WO 2018083852A1 JP 2017028422 W JP2017028422 W JP 2017028422W WO 2018083852 A1 WO2018083852 A1 WO 2018083852A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
content
recommended
user
content provider
Prior art date
Application number
PCT/JP2017/028422
Other languages
English (en)
French (fr)
Inventor
顕博 小森
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018548559A priority Critical patent/JP7067482B2/ja
Publication of WO2018083852A1 publication Critical patent/WO2018083852A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk

Definitions

  • This disclosure relates to a control device and a recording medium.
  • Patent Document 1 a terminal device that selects and outputs a scenario according to user attribute information and selects the scenario again when the user's smile index has not increased is used to promote sales. It is disclosed.
  • the subsequent part of the media program being presented is determined based on the media reaction of the viewer, or as an example of the media program, the user's reaction when playing an advertisement, It is disclosed that, when a gesture indicating that a free sample coupon is desired to be sent by mail is determined, the advertiser is notified after the advertisement is presented.
  • the present disclosure proposes a control device and a recording medium that can attract viewers to emotions recommended on the content side.
  • a content reproduction unit that reproduces content, an emotion at a specific timing recommended by a content provider, and an emotion of a user who can perceive the content at the specific timing, and the content
  • a control device includes a control unit that controls an actuator so that the emotion of the user is guided to the emotion recommended by the content provider when the emotion recommended by the provider is different.
  • a computer detects a content playback unit that plays back content and an emotion at a specific timing recommended by the content provider; and a user emotion that can perceive the content at the specific timing;
  • the actuator is controlled so as to induce the user's emotion to the emotion recommended by the content provider;
  • a program for functioning as a control unit We propose a recording medium on which is recorded.
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • the emotion estimated by the provider side of the animation program 150 is “fun”, but the user is crying.
  • the camera 11 acquires an emotion different from “fun”, a short video 151 for making the user feel happy is presented.
  • control device 1 starts playing the animation program (video 152 shown in FIG. 1).
  • the control device 1 that provides and controls images and sounds
  • the emotion of the viewing user is acquired by the camera 11, and the emotion of the user is If it differs from the emotion recommended by the content provider, the content for attracting the user to the predetermined emotion is presented. And when a user becomes a predetermined emotion, it is possible to start reproduction of the content.
  • the user's emotion at the start of content playback is attracted, but this embodiment is not limited to this, and at the playback start time of content, any time during playback, or playback end time It is also possible to attract the user's emotions. It is also possible to attract the user's emotions at multiple points in time.
  • the control device 1 can receive content data such as a broadcast program provided by the broadcast station 4 from the radio tower 5 and reproduce it.
  • the control device 1 is connected to the Web server 2 via the network 3, and receives related metadata related to the content data to be broadcast, which is registered in the Web server 2 by the broadcasting station 4, through network communication. Is possible.
  • control device 1 can acquire a moving image that is an example of content (attracting content) for attracting the user to a predetermined emotion from the Web moving image distribution server 6 via the network 3.
  • control device 1 inserts and displays an attracting content in order to attract the user to a predetermined emotion, and various actuators (control devices such as an air conditioner 7a, a fan 7b, an odor generating device 7c, and a vibration device 7d). 1 display function and sound output function are also included), and may be attracted to a predetermined emotion.
  • various actuators control devices such as an air conditioner 7a, a fan 7b, an odor generating device 7c, and a vibration device 7d.
  • 1 display function and sound output function are also included), and may be attracted to a predetermined emotion.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the control device 1 according to the present embodiment.
  • the control device 1 includes a control unit 10, a camera 11, a microphone 12, a network communication unit 13, a broadcast reception unit 14, a display unit 15, a speaker 16, a storage unit 17, and an operation input unit 18. .
  • the control unit 10 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the control unit 1 according to various programs.
  • the control unit 10 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the control unit 10 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • control unit 10 includes a display control unit 101, a recording control unit 102, a related metadata acquisition unit 103, an emotion object extraction unit 104, a user emotion recognition unit 105, an emotion comparison unit 106, and an emotion guidance control unit. 107 functions.
  • the display control unit 101 performs display control of content on the display unit 15. For example, the display control unit 101 displays the broadcast program received by the broadcast receiving unit 14 on the display unit 15 in real time, displays the recorded program stored in the storage unit 17 on the display unit 15, or uses the network communication unit 13. Control is performed such that images (moving images, still images) received from the network are displayed on the display unit 15. In addition, the display control unit 101 performs content playback and stop control according to the user operation input by the operation input unit 18.
  • the recording control unit 102 controls to record the broadcast program received by the broadcast receiving unit 14.
  • the recording control unit 102 stores the broadcast program data in the storage unit 17.
  • the recording control unit 102 can generate recording reservation data and record broadcast program data in accordance with a user operation input by the operation input unit 18 or automatically.
  • the related metadata acquisition unit 103 acquires related metadata related to a predetermined broadcast program from the network via the network communication unit 13. For example, the related metadata acquisition unit 103 acquires from the Web server 2 related metadata of a broadcast program (an example of content) reproduced on the display unit 15.
  • the emotion object extraction unit 104 extracts an emotion object associated with the content from the related metadata.
  • the user's emotions recommended by the content provider to the viewing user when providing the content are extracted as emotion objects embedded in the related metadata of the content distributed from the Web server 2.
  • the embedding of the emotion object in the related metadata is described using, for example, the mechanism of Hybridcast, which is a new service that integrates a broadcast program and the Web, and API and JavaScript (registered trademark) provided by the video distribution service are used. It can be described in a programming language.
  • content may be transmitted as a broadcast program, and emotion metadata associated with the content may be provided as an object (related metadata) in the Web content distributed from the Web server 2.
  • object related metadata
  • Good referred to herein as an “emotion object”.
  • the emotion object is described in, for example, HTML5.
  • the method for specifying the video stream, audio stream, and subtitle stream in the object is described as follows, for example.
  • arib // ⁇ original_network_id>. ⁇ transport_stream_id>. ⁇ service_id> [; ⁇ content_id>] [. ⁇ event_id>] / ⁇ component_tag> [; ⁇ channel_id>]
  • the object is marked up in the HTML5 content as described above.
  • “Arib: // ⁇ ” is a URL of a stream uniquely given to each content (broadcast program).
  • Emotion objects can also be described and embedded in HTML using, for example, JavaScript.
  • var emotionObject ⁇ “Npt_value”: Millisecond, "joy”: Level, “sorrow”: Level, “anger”: Level, “surprise”: Level ⁇ ; ⁇ / script>
  • the emotion object is separately acquired from the network by the Web service linked to the broadcast program (content) has been described above, but the present embodiment is not limited to this, and the emotion object is determined from the content (metadata added to the content). May be obtained.
  • the user emotion recognition unit 105 recognizes viewers' emotions. For example, the user emotion recognition unit 105 performs based on feature amounts obtained by image processing using the camera 11 as an emotion sensing sensor or voice processing using the microphone 12.
  • the emotion comparison unit 106 compares the recommended emotion indicated by the emotion object extracted by the emotion object extraction unit 104 with the user emotion, and outputs the comparison result to the emotion guidance control unit 107.
  • the emotion guidance control unit 107 controls the actuator so as to guide the viewing user's emotion to the recommended emotion when the recommended emotion and the user emotion do not match.
  • the actuator is closely related to human sensory perception such as a vibration actuator, a force sense presentation device, an air conditioner (air conditioning system), a cold temperature presentation device such as a Peltier element, and a scent presentation device such as an aroma diffuser.
  • a vibration actuator a force sense presentation device
  • an air conditioner air conditioning system
  • a cold temperature presentation device such as a Peltier element
  • scent presentation device such as an aroma diffuser.
  • Various related devices can be envisaged.
  • a short moving image is reproduced by the emotion guidance control unit 107 using the display unit 15 and the speaker 16.
  • the microphone 12 includes a sound signal collecting function, a microphone amplifier unit that amplifies the collected sound signal, and an A / D converter that converts the sound signal into a digital signal, and outputs the sound signal to the control unit 10. .
  • the network communication unit 13 is connected to the network 3 by wire or wireless, and receives data from the Web server 2 and the Web video distribution server 6 on the network.
  • the network communication unit 13 is connected to the network 3 through, for example, a wired / wireless LAN (Local Area Network) or Wi-Fi (Wireless Fidelity, registered trademark).
  • the broadcast receiving unit 14 receives a broadcast by a broadcast receiving antenna.
  • the speaker 16 has a function of reproducing an audio signal.
  • the storage unit 17 is realized by a ROM (Read Only Memory) that stores programs and calculation parameters used for the processing of the control unit 10, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • the storage unit 17 may store the broadcast program by the recording control unit 102.
  • the operation input unit 18 receives an operation input by the user and outputs an operation input signal to the control unit 10.
  • the operation input unit 18 may be a touch sensor, a pressure sensor, or a proximity sensor provided integrally with the display unit 15.
  • the operation input unit 18 may be a physical configuration provided separately from the display unit 15 such as a button, a switch, and a lever. Further, the operation input unit 18 may receive an operation signal from the remote controller by infrared communication or the like.
  • the configuration of the control device 1 has been specifically described above.
  • the configuration of the control device 1 is not limited to the configuration shown in FIG.
  • the camera 11, the microphone 12, the display unit 15, and the speaker 16 may be provided separately, or the camera 11, the microphone 12, the display unit 15, or the speaker 16 may be omitted.
  • the control device 1 can be realized by an information presentation device such as a television device, a radio device, or a digital signage.
  • FIG. 4 is a flowchart showing an operation process according to the first embodiment.
  • the control device 1 displays the broadcast program on the display unit 15 (Step S106). Note that which of the plurality of broadcast programs (channels) is received is selected by the user, for example.
  • the related metadata acquisition unit 103 of the control device 1 acquires HTML (related metadata) associated with the broadcast program from the Web server 2 (step S109).
  • the emotion object extraction unit 104 of the control device 1 parses the acquired HTML and extracts an emotion object (step S112).
  • the emotion object is described and embedded in HTML as follows using, for example, JavaScript.
  • var emotionObject ⁇ "npt_value": Millisecond, "joy”: Level, “sorrow”: Level, “anger”: Level, “surprise”: Level ⁇ ; ⁇ / script>
  • npt_value NPT (Normal Play Time: absolute coordinate on the time axis that represents the positional relationship of the event occurrence on the stream) milliseconds joy: A value that represents the level of feeling of fun grief: A value that represents the level of sadness anger: A value that represents the level of anger surprise: Value that represents the level of surprise emotion.
  • the level of these emotions is expressed by, for example, an integer value of -2, -1,0,1,2 and null, 0 is a neutral emotion, -2 is an impossible emotion, 2 is perfect To express that feeling. Moreover, null represents that emotion is unknown.
  • the program provider when the broadcast program is a variety program, the program provider expects the user to feel a little fun 60 seconds after the stream starts, and expects a very pleasant emotion 60 minutes later. You can see that
  • the user emotion recognition unit 105 recognizes the emotion of the viewing user (step S118).
  • the viewer's emotion is recognized 60 seconds after the start.
  • the viewing user emotion recognition process will be described later with reference to FIG.
  • step S121 it is compared whether or not the emotion set in the emotion object (that is, the recommended emotion) matches the user emotion (step S121).
  • step S121 if the emotions match (step S121 / Yes), there is no need to attract the user's emotions, so the process returns to step S103.
  • the emotion guidance control unit 107 of the control device 1 receives a predetermined video from the Web video distribution server 6 and reproduces it on the display unit 15 (superimposed on the broadcast program). Display or switching from the broadcast program to the moving image) (step S124).
  • the predetermined video is what invites the user's emotion to the emotion set in the emotion object (that is, the recommended emotion), for example, depending on what emotion the user is attracted to
  • the video to be performed may be set in advance (may be arbitrarily selected from a plurality of preset videos). For example, when attracting the user to a pleasant feeling, a predetermined gag moving image is downloaded and reproduced. The moving image to be presented is short and the display screen is switched to the broadcast program when the reproduction is finished.
  • FIG. 5 is a flowchart showing emotion recognition processing according to this embodiment.
  • the user emotion recognition unit 105 analyzes the photographed image and recognizes the viewing user's face (step S136).
  • the user emotion recognition unit 105 digitizes various emotion levels of joy, grief, anger, and surprise from the image feature values (converts them into integer values of -2, -1, 0, 1, 2 or null). . This enables direct comparison with the value described in the emotion object.
  • the emotion comparison unit 106 calculates the Euclidean distance or the Hamming distance between the emotion level described in the emotion object and the emotion recognition processing result, and the emotion is based on whether the calculated Euclidean distance or the Hamming distance matches. May be compared.
  • step S124 a moving image set in advance according to the emotion to be attracted is reproduced.
  • the present embodiment is not limited to this, and the reproduction is appropriately performed according to the attribute of the viewing user. May be.
  • FIG. 6 is a flowchart showing an operation process according to a modification of the first embodiment. First, in steps S143 to S161 shown in FIG. 6, processing similar to that in steps S103 to S121 described with reference to FIG. 4 is performed.
  • the emotion guidance control unit 107 estimates the generation of the viewing user based on the face recognition result of the captured image (step S164), transmits the estimated generation to the Web video distribution server 6 and transmits the corresponding video. Is requested (step S167).
  • the emotion guidance control unit 107 displays the received predetermined video as a display unit. 15 is controlled to be played back (step S173).
  • FIG. 7 is a flowchart showing an operation process according to the second embodiment.
  • “suspense drama” is used as an example of a broadcast program as content to be reproduced.
  • step S203 when receiving a suspense drama broadcast program (step S203), the control device 1 starts time-shift recording (step S206).
  • step S209 to S218 similar to steps S109 to S121 shown in FIG. 4, recommended emotions (here, flat emotions) are extracted from the HTML associated with the content (here, the suspense drama). Compare with viewers' emotions.
  • the emotion guidance control unit 107 of the control device 1 receives a predetermined video from the Web video distribution server 6 and reproduces it on the display unit 15 (step S221). .
  • a moving image such as a landscape image that calms and attracts flat emotions is reproduced.
  • step S224 the display control unit 101 of the control device 1 starts playing the suspense drama that has been time-shifted recorded (step S224).
  • step S224 is repeated until the reproduction ends (step S227).
  • FIG. 8 is a flowchart showing an operation process according to a modification of the second embodiment. First, in steps S233 to S248 shown in FIG. 8, processing similar to that in steps S203 to S218 described with reference to FIG. 7 is performed.
  • the emotion guidance control unit 107 requests the Web video distribution server 6 for a new video URL for attracting a predetermined emotion (step S251).
  • the Web video distribution server 6 also transmits the set emotion object (recommended emotion) to the Web video distribution server 6.
  • the Web moving image distribution server 6 can select, for example, an arbitrary moving image URL from among a plurality of moving images associated with the set emotion object.
  • step S260 when a new video URL can be acquired (step S260 / Yes), the emotion guidance control unit 107 reproduces the video of the video URL on the display unit 15 (step S257).
  • step S260 when the upper limit of the predetermined number of times of reproduction (number of times of reproduction of different videos) has not been reached (step S260 / No), the process returns to step S245 to recognize the emotion of the viewing user (step S245). It is determined whether or not they match (step S248).
  • step S248 / Yes when the emotions match (step S248 / Yes), or when the upper limit of a predetermined number of playback times (the number of playback times of different moving images) is reached (step S260 / Yes), the display control unit 101 of the control device 1 Starts reproduction of the suspense drama which has been time-shifted (step S263).
  • step S263 is repeated until the reproduction ends (step S266).
  • FIG. 9 is a flowchart showing an operation process according to the third embodiment.
  • a 60-minute love drama is used as an example of a broadcast program that is a content to be reproduced.
  • step S303 when the control device 1 receives a romance drama broadcast program (step S303), the control device 1 displays the received broadcast program on the display unit 15 (step S306).
  • step S312 When the set time (in this case, the broadcast end time) is reached (Step S315 / Yes), the emotion of the viewing user is compared with the recommended emotion (Steps S318 to S321), and they do not match. In this case, a predetermined moving image is reproduced (step S324).
  • the romance drama is a 60-minute program.
  • the romance drama represents emotions that the user wants to be at the end of the program.
  • the emotion guidance control unit 107 receives a video that makes a happy feeling such as a cheerful video of a cat from the Web video distribution server 6. And play.
  • FIG. 10 is a flowchart showing an operation process according to a modification of the third embodiment. First, in steps S333 to S351 shown in FIG. 10, processing similar to that in steps S303 to S321 described with reference to FIG. 9 is performed.
  • the emotion guidance control unit 107 requests the Web video distribution server 6 for a new video URL for attracting a predetermined emotion (step S354).
  • the Web video distribution server 6 also transmits the set emotion object (recommended emotion) to the Web video distribution server 6.
  • the Web moving image distribution server 6 can select, for example, an arbitrary moving image URL from among a plurality of moving images associated with the set emotion object.
  • step S357 when a new video URL can be acquired (step S357 / Yes), the emotion guidance control unit 107 reproduces the video of the video URL on the display unit 15 (step S360).
  • step S363 when the upper limit of the predetermined number of times of reproduction (the number of times of reproduction of different videos) has not been reached (step S363 / No), the process returns to step S348 to recognize the emotion of the viewing user (step S348). It is determined whether or not they match (step S351).
  • step S351 / Yes when emotions match (step S351 / Yes) or when the upper limit of a predetermined number of times of reproduction (the number of times of reproduction of different moving images) is reached (step S363 / Yes), the processing ends.
  • video content such as a broadcast program is used as the content.
  • the present embodiment is not limited to this, and the content may be a game.
  • the content may be a game.
  • FIG. 11 is a flowchart showing an operation process according to the fourth embodiment. As shown in FIG. 11, first, when a game program (software) is started in the control device 1 (step S403), the emotion object extraction unit 104 extracts an emotion object from game content data (step S406).
  • a game program software
  • the emotion object extraction unit 104 extracts an emotion object from game content data (step S406).
  • the application condition of the emotion object is a position in the game space (position; x: longitude, y: latitude, z: altitude) or event ID (eventId: ID that defines the occurrence of a specific event) other than NTP It can be described by.
  • the emotion object may be stored in the game content in addition to downloading from the Web server.
  • control unit 10 of the control device 1 determines whether or not the condition set for the emotion object is satisfied (step S409).
  • the setting condition here is based on whether it has moved to a predetermined position in the game space, a predetermined event has occurred, or the like, in addition to the time.
  • step S412 the emotion of the play user is recognized.
  • the user's emotion recognition process is as described with reference to FIG.
  • step S415 when the emotions for all the users are recognized (step S415 / Yes), the control unit 10 identifies the user whose emotion is farthest from the set emotion object (step S418). This is because, in this embodiment, when a plurality of players are playing at the same time, priority is given to the attraction of the user's emotion farthest from the predetermined emotion.
  • a distance between the identified user's emotion and the emotion level of the target person assumed by the plurality of contents to be attracted to the set emotion is calculated (step S421).
  • an assumed target person is set in each of a plurality of contents to be attracted to a set emotion (for example, “fun”). Videos for making people with “angry” emotions happy, videos for making people with “sad” emotions fun).
  • the emotion induction control unit 107 can select an appropriate attraction content by comparing the excess of target persons assumed in the attraction content with the emotion of the identified user.
  • the emotion guidance control unit 107 plays the attracting content with the shortest distance (step S424).
  • the attraction content may be acquired from the Web video distribution server 6.
  • the processing in step S421 may be performed on the Web video distribution server 6 side, or the control device 1 may acquire data necessary for calculation from the Web video distribution server 6.
  • video content such as a broadcast program is used as content.
  • the present embodiment is not limited to this, and the content may be CM (commercial video).
  • CM commercial video
  • the content that induces the emotion of “fun” intended by the CM provider may be played for viewers that match the attributes of the target customers of the CM. Is possible.
  • FIG. 12 is a flowchart showing an operation process according to the fifth embodiment. As shown in FIG. 12, first, when the reproduction of CM is started in the control device 1 (step S503), the emotion object extraction unit 104 extracts an emotion object from the CM data (step S506).
  • user attributes can be described as application conditions.
  • a description example is as follows.
  • step S509 face recognition of all viewing users is performed based on the captured image captured by the camera 11, and each user attribute is determined (step S509).
  • user attributes for example, sex, age, and user configuration (relationship) are determined when there are a plurality of users.
  • control unit 10 of the control device 1 determines whether or not the user attribute satisfies the condition set for the emotion object (step S512).
  • step S557 the emotion of the viewing user is recognized.
  • the user's emotion recognition process is as described with reference to FIG.
  • step S518 / Yes when recognizing emotions for all viewing users (for example, all users whose attributes match the conditions set in the emotion object) (step S518 / Yes), the control unit 10 is farthest from the set emotion object.
  • the emotion user is specified (step S521).
  • step S524) the distance between the identified user emotion and the emotion level of the target person assumed by the plurality of contents to be attracted to the set emotion is calculated (step S524).
  • the emotion guidance control unit 107 plays the attracting content with the shortest distance (step S527).
  • the attraction content may be acquired from the Web video distribution server 6.
  • the process of step S524 may be performed on the Web video distribution server 6 side, or the control apparatus 1 may acquire data necessary for calculation from the Web video distribution server 6.
  • steps S503 to S527 are repeated until the CM is completed (step S530).
  • control device 1 the Web server 2, or the Web moving image distribution server 6 are added to hardware such as a CPU, ROM, and RAM incorporated in the control device 1, the Web server 2, or the Web moving image distribution server 6 described above. It is also possible to create a computer program for exhibiting the above. A computer-readable storage medium storing the computer program is also provided.
  • the control may be performed so that the important scene cannot be seen forever.
  • a content playback unit for playing back content Detect emotions at specific times as recommended by content providers; When the emotion of the user who can perceive the content at the specific timing is different from the emotion recommended by the content provider, the emotion of the user is induced to the emotion recommended by the content provider.
  • a control device comprising: (2) The control device includes: The control device according to (1), further including a communication unit that can acquire an emotion at a specific timing recommended by the content provider from an external server. (3) The control device according to (1), wherein the control unit extracts an emotion at a specific timing recommended by the content provider from the content itself.
  • the controller is Detect emotions at specific times, recommended by content providers, In order to induce the user's emotion to the emotion recommended by the content provider when the emotion of the user who can perceive the content at the specific timing is different from the emotion recommended by the content provider.
  • the control device according to any one of (1) to (3), wherein the content for emotion induction is reproduced.
  • the controller is Detect emotions at specific times, recommended by content providers, In order to induce the user's emotion to the emotion recommended by the content provider when the emotion of the user who can perceive the content at the specific timing is different from the emotion recommended by the content provider. If the user's emotion does not change to the emotion recommended by the content provider, the reproduction of the content for emotion induction different from the content is started.
  • the control device which controls the content reproduction unit.
  • the controller is Detect emotions at specific times, recommended by content providers, In order to induce the user's emotion to the emotion recommended by the content provider when the emotion of the user who can perceive the content at the specific timing is different from the emotion recommended by the content provider.
  • the control device wherein the content playback unit is controlled so as to start playback of content for emotion guidance according to the user's attribute.
  • the controller is Detecting emotions during content viewing recommended by the content provider; In order to induce the emotion of the user to the emotion recommended by the content provider when the emotion of the user who is viewing the content is different from the emotion recommended by the content provider, content for emotion induction is used.
  • the control device wherein the content reproduction unit is controlled to reproduce.
  • the controller is Detecting emotions before the content viewing recommended by the content provider, In order to induce the user's emotion to the emotion recommended by the content provider when the emotion of the user before viewing the content is different from the emotion recommended by the content provider, The control device according to (4), wherein playback is started, and the content playback unit is controlled to start playback of the content when the emotion of the user changes to an emotion recommended by the content provider. .
  • the controller is Detecting an emotion after viewing the content recommended by the content provider; When the user's emotion after viewing the content is different from the emotion recommended by the content provider, in order to induce the user's emotion to the emotion recommended by the content provider, The control device according to (4), wherein the content playback unit is controlled so as to start playback of content for emotion induction.
  • the controller is Detecting emotions during content viewing recommended by the content provider; In order to induce an emotion of a user who has an emotion most different from an emotion recommended by the content provider, to an emotion recommended by the content provider, among emotions of a plurality of users who are viewing the content
  • the controller is Detecting the attributes of the user targeted by the content provider and the emotions that the content provider recommends while viewing the content; In order to identify a user who matches a user attribute targeted by the content provider from a plurality of users who are viewing the content, and to induce the user's emotion to an emotion recommended by the content provider, emotion induction
  • the control device according to (4), wherein the content playback unit is controlled to play back the content for use.
  • Control apparatus 10 Control part 101 Display control part 102 Recording control part 103 Related metadata acquisition part 104 Emotion object extraction part 105 User emotion recognition part 106 Emotion comparison part 107 Emotion guidance control part 11 Camera 12 Microphone 13 Network communication part 14 Broadcast reception Unit 15 Display unit 16 Speaker 17 Storage unit 18 Operation input unit

Abstract

【課題】コンテンツ側で推奨する感情に視聴ユーザを誘引することが可能な制御装置および記録媒体を提供する。 【解決手段】コンテンツを再生するコンテンツ再生部と、コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する制御部と、を備える、制御装置。

Description

制御装置および記録媒体
 本開示は、制御装置および記録媒体に関する。
 従来、テレビやデジタルサイネージのような映像、音声提示装置が提供する情報は、視聴中のユーザの感情を汲み取ることは無く、一方的なものであった。
 例えば、下記特許文献1では、利用者の属性情報に応じてシナリオを選択して出力し、利用者の笑顔指数が上昇していない場合はシナリオを再度選択して、販売促進を図る端末装置が開示されている。
 また、下記特許文献2では、提示中のメディアプログラムの後来部分を視聴者のメディア反応に基づいて決定したり、メディアプログラムの一例として広告を再生している際のユーザの反応として、製品の無料試供品のクーポンを郵便で送って欲しい旨を示すジェスチャが判定された場合、広告の提示後に広告主に通知したりすることが開示されている。
特開2010-287064号公報 特表2015-521413号公報
 しかしながら、視聴ユーザの感情を汲み取ることなく一方的に情報提供する場合、不適切なタイミングで不適切な広告を流してしまい機会の損失を招いたり、制作者が意図しない不快な印象をユーザに抱かせてしまったりする場合もあった。
 そこで、本開示では、コンテンツ側で推奨する感情に視聴ユーザを誘引することが可能な制御装置および記録媒体を提案する。
 本開示によれば、コンテンツを再生するコンテンツ再生部と、コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する制御部と、を備える、制御装置を提案する。
 本開示によれば、コンピュータを、コンテンツを再生するコンテンツ再生部と、コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し;前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する;制御部と、として機能させるためのプログラムが記録された、記録媒体を提案する。
 以上説明したように本開示によれば、コンテンツ側で推奨する感情に視聴ユーザを誘引することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理システムの全体構成図を示す図である。 本実施形態による制御装置の構成の一例を示すブロック図である。 第1の実施例による動作処理を示すフローチャートである。 第1の実施例による視聴ユーザの感情認識処理を示すフローチャートである。 第1の実施例の変形例による動作処理を示すフローチャートである。 第2の実施例による動作処理を示すフローチャートである。 第2の実施例の変形例による動作処理を示すフローチャートである。 第3の実施例による動作処理を示すフローチャートである。 第3の実施例の変形例による動作処理を示すフローチャートである。 第4の実施例による動作処理を示すフローチャートである。 第5の実施例による動作処理を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
 3.動作処理
  3-1.第1の実施例
  3-2.第2の実施例
  3-3.第3の実施例
  3-4.第4の実施例
  3-5.第5の実施例
 4.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、例えばユーザが制御装置1でアニメ番組150を視聴する際、制御装置1は、アニメ番組150の提供者側が推定する感情が「楽しい」であるが、ユーザが泣いていて「楽しい」とは異なる感情であることがカメラ11により取得された場合、ユーザを楽しい気持ちにさせるための短編動画151を提示する。
 そして、短編動画151を視聴したユーザが笑顔になって「楽しい」感情になったと判断できた場合、制御装置1は、アニメ番組の再生を開始する(図1に示す動画152)。
 一方、ユーザが泣いている状態では、アニメ番組の再生は開始されず、図1に示すように、ユーザを楽しい気持ちにさせるための短編動画151が提示され続ける。
 このように、本実施形態による情報処理システムでは、画像や音声の提供およびその制御を行う制御装置1でコンテンツを再生する際に、例えばカメラ11により視聴ユーザの感情を取得し、ユーザの感情がコンテンツ提供者が推奨する感情と異なる場合、ユーザを所定の感情に誘引するためのコンテンツを提示する。そして、ユーザが所定の感情になった場合に、コンテンツの再生を開始することが可能である。
 図1に示す例では、コンテンツ再生開始時点におけるユーザの感情を誘引しているが、本実施形態はこれに限定されず、コンテンツの再生開始時点、再生中の任意の時点、若しくは再生終了時点におけるユーザの感情を誘引することも可能である。また、複数時点におけるユーザの感情を誘引することも可能である。
 次いで、かかる情報処理システムの全体構成図を図2に示す。図2に示すように、制御装置1は、放送局4により提供される放送番組等のコンテンツデータを、電波塔5から受信し、再生することが可能である。また、制御装置1は、ネットワーク3を介してWebサーバ2と接続し、放送局4がWebサーバ2に登録した、上記放送するコンテンツデータに関連する関連メタデータを、ネットワーク通信により受信することが可能である。
 また、制御装置1は、ネットワーク3を介して、Web動画配信サーバ6から、ユーザを所定の感情に誘引するためのコンテンツ(誘引コンテンツ)の一例である動画を取得することが可能である。
 また、制御装置1は、ユーザを所定の感情に誘引するために、誘引コンテンツを挿入して表示する他、空調装置7a、扇風機7b、匂い発生装置7c、振動装置7d等の各種アクチュエータ(制御装置1の表示機能、音声出力機能も当然含まれる)を制御して所定の感情に誘引するようにしてもよい。
 以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる制御装置1の構成について図3を参照して具体的に説明する。
 <<2.構成>>
 図3は、本実施形態による制御装置1の構成の一例を示すブロック図である。図3に示すように、制御装置1は、制御部10、カメラ11、マイクロホン12、ネットワーク通信部13、放送受信部14、表示部15、スピーカ16、記憶部17、および操作入力部18を有する。
 制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従って制御装置1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部10は、表示制御部101、録画制御部102、関連メタデータ取得部103、感情オブジェクト抽出部104、ユーザ感情認識部105、感情比較部106、および感情誘導制御部107として機能する。
 表示制御部101は、表示部15へのコンテンツの表示制御を行う。例えば表示制御部101は、放送受信部14により受信した放送番組をリアルタイムで表示部15に表示したり、記憶部17に記憶された録画番組を表示部15に表示したり、ネットワーク通信部13によりネットワーク上から受信した画像(動画、静止画)を表示部15に表示したりするよう制御する。また、表示制御部101は、操作入力部18により入力されたユーザ操作に従って、コンテンツの再生や停止制御を行う。
 録画制御部102は、放送受信部14により受信した放送番組の録画を行うよう制御する。例えば録画制御部102は、放送番組データを記憶部17に記憶する。また、録画制御部102は、操作入力部18により入力されたユーザ操作に従って、または自動的に、録画予約データを生成し、放送番組データの録画を行い得る。
 関連メタデータ取得部103は、ネットワーク通信部13を介してネットワーク上から、所定の放送番組に関連する関連メタデータを取得する。例えば関連メタデータ取得部103は、表示部15で再生している放送番組(コンテンツの一例)の関連メタデータを、Webサーバ2から取得する。
 感情オブジェクト抽出部104は、関連メタデータから、コンテンツに付随する感情オブジェクトを抽出する。本実施形態では、コンテンツを提供する際にコンテンツ提供者が視聴ユーザ側に推奨するユーザの感情を、Webサーバ2から配信された当該コンテンツの関連メタデータに埋め込まれている感情オブジェクトとして抽出する。かかる関連メタデータへの感情オブジェクトの埋め込みは、例えば放送番組とWebを融合した新しいサービスであるHybridcastの仕組みを利用して記述したり、動画配信サービスが提供するAPIとJavaScript(登録商標)などのプログラミング言語により記述することが可能である。
 例えば、図2に示すように、コンテンツは放送番組として送信され、当該コンテンツに付随する感情メタデータはWebサーバ2から配信されるWebコンテンツ内のオブジェクト(関連メタデータ)として提供されるものとしてもよい(本明細書では、「感情オブジェクト」と称す)。感情オブジェクトは、例えばHTML5により記述される。
 ここで、オブジェクトの記述例について、IPTVフォーラム発行の技術仕様書「IPTV規定 HTML5 ブラウザ仕様 IPTVFJ STD-0011 2.2版」を参照して説明する。この場合、コンテンツのオブジェクトの記述例は以下のようなものが挙げられる。
<object id="video" type="video/x-iptvf-broadcast">
<param name="video_src" value="arib://-1.-1.-1/-1">
<param name="audio_src" value="arib://-1.-1.-1/-1;2">
<param name="audio_mute" value="disable">
<param name="fullscreen" value="enable">
<param name="caption_src" value="arib://-1.-1.-1/-1;0”></object>
 また、オブジェクト内の映像ストリーム、音声ストリーム、字幕ストリームの指定方法は、例えば以下のように記述される。
arib://<original_network_id>.<transport_stream_id>.<service_id>[;<content_id>] [.<event_id>]/<component_tag>[;<channel_id>]
 オブジェクトは、HTML5コンテンツ内において上記のようにマークアップされる。なお、「arib://~」は、コンテンツ(放送番組)ごとに一意に与えられるストリームのURLである。
 感情オブジェクトも、例えばJavaScriptを用いてHTMLに次の用に記述され、埋め込まれ得る。
<script>
 var emotionObject=
{“npt_value”:Millisecond,
 "joy":Level,"sorrow”:Level,
 "anger": Level,
 "surprise”:Level};
</script>
 以上、放送番組(コンテンツ)と連動するWebサービスによりネットワーク上から感情オブジェクトを別途取得する場合について説明したが、本実施形態はこれに限定されず、コンテンツ(に付加されたメタデータ)から感情オブジェクトを取得するようにしてもよい。
 ユーザ感情認識部105は、視聴ユーザの感情を認識する。例えば、ユーザ感情認識部105は、感情センシングのセンサとしてカメラ11を用いた画像処理や、マイクロホン12を用いた音声処理により得られた特徴量に基づいて行う。
 感情比較部106は、感情オブジェクト抽出部104により抽出された感情オブジェクトにより示される推奨されている感情と、ユーザ感情とを比較し、比較結果を感情誘導制御部107に出力する。
 感情誘導制御部107は、推奨されている感情とユーザ感情が一致しない場合、視聴ユーザの感情を、推奨されている感情に誘導するようアクチュエータを制御する。アクチュエータは、表示部15、スピーカ16の他、振動アクチュエータ、力覚提示装置、エアーコンディショナー(空調システム)、ペルチェ素子等の冷温提示装置、アロマディフューザーなどの香り提示装置といった人の感覚知覚と密接に関連した各種装置が想定され得る。図1に示す概要では、感情誘導制御部107により、表示部15およびスピーカ16を用いて、短編動画が再生されている。
 マイクロホン12は、音声信号の収音機能と、収音した音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器を有し、音声信号を制御部10に出力する。
 ネットワーク通信部13は、有線または無線によりネットワーク3と接続し、ネットワーク上のWebサーバ2やWeb動画配信サーバ6からデータを受信する。ネットワーク通信部13は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)等によりネットワーク3と通信接続する。
 放送受信部14は、放送受信アンテナにより放送を受信する。
 スピーカ16は、音声信号を再生する機能を有する。
 記憶部17は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、記憶部17は、録画制御部102により放送番組を記憶してもよい。
 操作入力部18は、ユーザによる操作入力を受け付け、操作入力信号を制御部10に出力する。操作入力部18は、表示部15と一体的に設けられるタッチセンサ、圧力センサ、若しくは近接センサであってもよい。或いは、操作入力部18は、ボタン、スイッチ、およびレバーなど、表示部15と分離して設けられる物理的構成であってもよい。また、操作入力部18は、リモートコントローラから赤外線通信等により操作信号を受信してもよい。
 以上、本実施形態による制御装置1の構成について具体的に説明した。なお制御装置1の構成は、図3に示す構成に限定されない。例えばカメラ11、マイクロホン12、表示部15、およびスピーカ16が別体に設けられていてもよいし、カメラ11、マイクロホン12、表示部15、またはスピーカ16を有さない構成であってもよい。また、制御装置1は、例えばテレビジョン装置、ラジオ装置、またはデジタルサイネージ等の情報提示装置により実現され得る。
 <<3.動作処理>>
 続いて、本実施形態による情報処理システムの動作処理について図4~図12を参照して具体的に説明する。
  <3-1.第1の実施例>
 まず、第1の実施例について図4~図5を参照して説明する。本実施例では、放送番組の再生を開始してから所定の時点で、視聴ユーザが、放送番組提供者が意図(推奨)する「楽しい」という感情になっていない場合、ギャグ動画等のコンテンツを挿入して再生し、視聴ユーザの感情を誘引する。
 図4は、第1の実施例による動作処理を示すフローチャートである。図4に示すように、まず、制御装置1は、放送受信部14により放送番組を受信すると(ステップS103)、当該放送番組を表示部15に表示する(ステップS106)。なお複数の放送番組(チャンネル)のうちいずれを受信するかは、例えばユーザにより選択される。
 次に、制御装置1の関連メタデータ取得部103は、Webサーバ2から、当該放送番組に関連付けられたHTML(関連メタデータ)を取得する(ステップS109)。
 次いで、制御装置1の感情オブジェクト抽出部104は、取得したHTMLをパースし、感情オブジェクトを抽出する(ステップS112)。感情オブジェクトはHTMLにおいて、例えばJavaScriptを用いて例えば以下のように記述され、埋め込まれている。
<script>
 var emotionObject=
{"npt_value":Millisecond,
 "joy":Level,
 "sorrow":Level,
 "anger":Level,
 "surprise":Level};
</script>
 上記記述において、
npt_value:NPT(Normal Play Time:ストリーム上でイベント発生の位置関係を表す、時間軸上の絶対座標)の値 ミリ秒
joy:楽しいという感情のレベルを表す値
sorrow:悲しいという感情のレベルを表す値
anger:怒りの感情のレベルを表す値
surprise:驚きの感情のレベルを表す値
となる。
 また、これらの感情のレベルは、例えば、-2,-1,0,1,2の整数値およびnullで表されるものとし、0でニュートラルな感情、-2で全くありえない感情、2で完全にその感情であることを表す。また、nullは感情が不明であることを表す。
 以上のように定義した場合、特定のNPTにおける感情オブジェクトのリストは次のように記述することが出来る。
<script>
var emotions =
[{"npt_value":60000,"joy":1},
{"npt_value":180000,
"joy":2}];
</script>
 これにより、例えば放送番組がバラエティ番組の場合において、番組提供者はストリームが始まってから60秒後にユーザが少し楽しい感情になることを期待し、60分後には非常に楽しい感情になることを期待していることが分かる。
 次に、感情オブジェクトに設定された時刻に到達した場合(ステップS115/Yes)、ユーザ感情認識部105は、視聴ユーザの感情を認識する(ステップS118)。ここでは、例えば開始60秒後に、視聴ユーザの感情が認識される。視聴ユーザの感情認識処理については、図5を参照して後述する。
 次いで、感情オブジェクトに設定された感情(すなわち、推奨されている感情)と、ユーザ感情とが一致しているか否かを比較する(ステップS121)。
 次に、感情が一致している場合(ステップS121/Yes)、ユーザの感情を誘引する必要はないため、上記ステップS103に戻る。
 次いで、感情が一致していない場合(ステップS121/No)、制御装置1の感情誘導制御部107は、Web動画配信サーバ6から所定の動画を受信し、表示部15で再生(放送番組に重畳表示、若しくは放送番組から当該動画へ切り替えて表示)する(ステップS124)。所定の動画とは、ユーザの感情を、感情オブジェクトに設定された感情(すなわち、推奨されている感情)に誘引するものであって、例えばユーザをどのような感情に誘引するかに応じて再生する動画が予め設定されていてもよい(予め設定された複数の動画から任意に選択してもよい)。例えばユーザの楽しい気持ちに誘引する場合には、所定のギャグ動画をダウンロードし、再生する。なお、提示する動画は短いものであって、再生が終了すると表示画面は放送番組に切り替わる。
 そして、放送が終了するまで上記処理が繰り返される(ステップS127)。
 (感情認識処理)
 続いて、上記ステップS118に示す感情認識処理について、図5を参照して説明する。図5は、本実施形態による感情認識処理を示すフローチャートである。
 図5に示すように、まず、カメラ11により視聴ユーザを撮影すると(ステップS133)、ユーザ感情認識部105が、撮影画像を解析して視聴ユーザの顔認識を行う(ステップS136)。
 次に、ユーザ感情認識部105は、画像特徴量から、joy,sorrow,anger,surpriseの各種感情レベルを数値化(-2,-1,0,1,2の整数値またはnullに変換)する。これにより、感情オブジェクトに記述された値と直接比較できるようにする。
 なお、次のように感情オブジェクトに感情レベルが複数記述されている場合があっても良い。
<script>
var emotions=
[{"npt_value":60000,"joy":1,"surprise":0},
{"npt_value":
180000, "joy":2,"surprise":1}];
</script>
 この場合、感情比較部106は、感情オブジェクトに記述された感情レベルと感情認識処理結果とのユークリッド距離もしくはハミング距離を算出し、算出したユークリッド距離もしくはハミング距離が一致するか否かに基づいて感情の比較を行ってもよい。
 ここで、添字が付いた値を感情オブジェクトに記述された感情レベル、添字が付いた値を抽出された感情レベルとすると、ユークリッド距離Dは、
Du=sqrt((joyo-joyr)^2+(surpriseo-surpriser)^2)
となる。なお、sqrt()は()内の値の平方根、^2は直前の値の2乗を表す。
 また、ハミング距離Dは、上記例でnpt_valueが60000の時、認識されたjoyレベルが1、surpriseレベルが0とすると、
Dh=0
となる。
 同様に、上記例でnpt_valueが60000の時、認識されたjoyレベルが0、surpriseレベルが0とすると、
Dh=1
となる。
 なお、抽出された感情レベルにnullの項目がある場合、その項目の計算は行わないものとする。
 (変形例)
 次に、第1の実施例の変形例について図6を参照して説明する。上述した実施例では、ステップS124において、誘引する感情に応じて予め設定された動画を再生する旨を説明したが、本実施形態はこれに限定されず、視聴ユーザの属性に応じて適宜再生してもよい。
 図6は、第1の実施例の変形例による動作処理を示すフローチャートである。まず、図6に示すステップS143~S161では、図4を参照して説明したステップS103~S121と同様の処理が行われる。
 次に、感情誘導制御部107は、撮像画像の顔認識結果に基づいて視聴ユーザの世代を推定し(ステップS164)、Web動画配信サーバ6に、推定した世代を送信して対応する動画の送信を要求する(ステップS167)。
 次いで、Web動画配信サーバ6から、過去の視聴履歴に基づき対象の年代に多く試聴されている所定の動画を受信すると(ステップS170)、感情誘導制御部107は、受信した所定の動画を表示部15で再生するよう制御する(ステップS173)。
 そして、放送が終了するまで上記処理が繰り返される(ステップS176)。
 これにより、例えばユーザを楽しい気持ちに誘引するために、年代にマッチしたギャグ映像をダウンロードして提示することが可能となる。
  <3-2.第2の実施例>
 次に、第2の実施例について図7~図8を参照して説明する。本実施例では、放送番組の再生を開始する前に、視聴ユーザが、放送番組提供者が意図(推奨)するフラットな感情(平常心)になっていない場合、心を落ち着かせる映像等のコンテンツを挿入して再生し、視聴ユーザの感情を誘引する。
 図7は、第2の実施例による動作処理を示すフローチャートである。ここでは、再生するコンテンツである放送番組の一例として、「サスペンスドラマ」を用いる。
 図7に示すように、まず、制御装置1は、サスペンスドラマの放送番組を受信すると(ステップS203)、タイムシフト録画を開始する(ステップS206)。
 次に、ステップS209~S218において、図4に示すステップS109~S121と同様に、当該コンテンツ(ここでは、サスペンスドラマ)に関連付けられたHTMLから、推奨感情(ここでは、フラットな感情)を抽出し、視聴ユーザの感情と比較する。
 ここで、本実施例において抽出される感情オブジェクトの記述例を以下に示す。
<script>
var emotions=
[{"npt_value":0,"joy":-2,"sorrow":-2,"anger":-2,"surprise":-2};
</script>
 次いで、感情が一致していない場合(ステップS218/No)、制御装置1の感情誘導制御部107は、Web動画配信サーバ6から所定の動画を受信し、表示部15で再生する(ステップS221)。例えば、風景映像等、心を落ち着かせてフラットな感情に誘引する動画が再生される。
 一方、感情が一致している場合(ステップS218/Yes)、制御装置1の表示制御部101は、タイムシフト録画していたサスペンスドラマの再生を開始する(ステップS224)。
 そして、再生が終了するまで上記ステップS224の処理が繰り返される(ステップS227)。
 (変形例)
 次に、第2の実施例の変形例について図8を参照して説明する。上述した実施例では、ステップS215~S221において、誘引する感情になるまで同じ動画が繰り返し再生されるが、本実施形態はこれに限定されず、誘引する感情になるまで違う動画を再生することも可能である。
 図8は、第2の実施例の変形例による動作処理を示すフローチャートである。まず、図8に示すステップS233~S248では、図7を参照して説明したステップS203~S218と同様の処理が行われる。
 次に、感情誘導制御部107は、Web動画配信サーバ6に、所定の感情に誘引するための新規の動画URLを要求する(ステップS251)。この際、Web動画配信サーバ6は、設定された感情オブジェクト(推奨される感情)を併せてWeb動画配信サーバ6に送信する。これによりWeb動画配信サーバ6は、設定された感情オブジェクトに紐付けられた複数の動画のうち、例えば任意の動画のURLを選択し得る。
 次いで、新しい動画URLを取得できた場合(ステップS260/Yes)、感情誘導制御部107は、当該動画URLの動画を表示部15で再生する(ステップS257)。
 次いで、所定の再生回数(異なる動画の再生回数)の上限に達していない場合(ステップS260/No)、上記ステップS245に戻り、視聴ユーザの感情を認識し(ステップS245)、設定された感情と一致したか否かが判断される(ステップS248)。
 次に、感情が一致している場合(ステップS248/Yes)、若しくは所定の再生回数(異なる動画の再生回数)の上限に達した場合(ステップS260/Yes)、制御装置1の表示制御部101は、タイムシフト録画していたサスペンスドラマの再生を開始する(ステップS263)。
 そして、再生が終了するまで上記ステップS263の処理が繰り返される(ステップS266)。
 このように、所定の再生回数の上限に達するまで(例えば3回等)、異なる動画を再生してユーザの感情の誘引を試みることが可能となる。
  <3-3.第3の実施例>
 続いて、第3の実施例について図9~図10を参照して説明する。本実施例では、放送番組の再生終了後にも、視聴ユーザが、放送番組提供者が意図(推奨)する感情(例えば「幸せ」)になっていない場合、感情を誘引する動画等のコンテンツを再生することが可能である。
 図9は、第3の実施例による動作処理を示すフローチャートである。ここでは、再生するコンテンツである放送番組の一例として、60分番組の恋愛ドラマを用いる。
 図9に示すように、まず、制御装置1は、恋愛ドラマの放送番組を受信すると(ステップS303)、受信した放送番組を表示部15で表示する(ステップS306)。
 次に、ステップS309~S324において、図4に示すステップS109~S124と同様に、当該コンテンツ(ここでは、恋愛ドラマ)に関連付けられたHTMLから、推奨感情(ここでは、幸せな感情)を抽出し(ステップS312)、設定された時刻(ここでは、放送終了時刻)に到達した際に(ステップS315/Yes)、視聴ユーザの感情と推奨感情との比較を行い(ステップS318~S321)、一致しない場合は所定の動画を再生する(ステップS324)。
 ここで、本実施例において抽出される感情オブジェクトの記述例を以下に示す。当該恋愛ドラマは60分番組で、以下の例では番組終了時にユーザになっていて欲しい感情を表している。
<script>
var emotions=
[{"npt_value":3600000,"joy":1,"sorrow":-2,"anger":-2,"surprise":-2};
</script>
 これに応じて、感情誘導制御部107は、番組終了時点において、ユーザが幸せな感情になっていない場合は、Web動画配信サーバ6から、猫のほほえましい映像等の幸せな気持ちになる動画を受信し、再生する。
 (変形例)
 なお、本実施例においても、誘引する感情になるまで違う動画を再生することも可能である。以下、図10を参照して説明する。
 図10は、第3の実施例の変形例による動作処理を示すフローチャートである。まず、図10に示すステップS333~S351では、図9を参照して説明したステップS303~S321と同様の処理が行われる。
 次に、感情誘導制御部107は、Web動画配信サーバ6に、所定の感情に誘引するための新規の動画URLを要求する(ステップS354)。この際、Web動画配信サーバ6は、設定された感情オブジェクト(推奨される感情)を併せてWeb動画配信サーバ6に送信する。これによりWeb動画配信サーバ6は、設定された感情オブジェクトに紐付けられた複数の動画のうち、例えば任意の動画のURLを選択し得る。
 次いで、新しい動画URLを取得できた場合(ステップS357/Yes)、感情誘導制御部107は、当該動画URLの動画を表示部15で再生する(ステップS360)。
 次いで、所定の再生回数(異なる動画の再生回数)の上限に達していない場合(ステップS363/No)、上記ステップS348に戻り、視聴ユーザの感情を認識し(ステップS348)、設定された感情と一致したか否かが判断される(ステップS351)。
 次に、感情が一致している場合(ステップS351/Yes)、若しくは所定の再生回数(異なる動画の再生回数)の上限に達した場合(ステップS363/Yes)、処理が終了する。
 このように、所定の再生回数の上限に達するまで(例えば3回等)、異なる動画を再生してユーザの感情の誘引を試みることが可能となる。
  <3-4.第4の実施例>
 続いて、第4の実施例について図11を参照して説明する。上述した各実施例では、コンテンツとして放送番組等の映像コンテンツを用いたが、本実施形態はこれに限定されず、コンテンツはゲームであってもよい。例えば複数人が同時にゲームをプレイしているときに、ゲームソフト提供者が意図する「楽しい」という感情に視聴者の感情を誘導するためのコンテンツを再生することも可能である。
 図11は、第4の実施例による動作処理を示すフローチャートである。図11に示すように、まず、制御装置1においてゲームプログラム(ソフトウェア)が開始されると(ステップS403)、感情オブジェクト抽出部104は、ゲームコンテンツのデータから感情オブジェクトを抽出する(ステップS406)。
 ここでの感情オブジェクトの適用条件はNTP以外にゲーム空間内の位置(position; x:経度、y:緯度、z:高度)またはイベントID(eventId:特定のイベントが発生したことを定義するID)で記述することが出来るものとする。
 記述例としては、位置の場合、
<script>
var emotions=
[{"position":[10,60,100],"joy":-2,"sorrow":2,"anger":1,"surprise":1}];
</script>
となり、
イベントIDの場合、
<script>
var emotions=
[{"eventId":"abc123","joy":-2,"sorrow":2,"anger":1,"surprise":1}];
</script>
となる。
 また、ゲームの場合、感情オブジェクトはWebサーバからダウンロードする以外にも、ゲームコンテンツに格納されていてもよい。
 次に、制御装置1の制御部10は、感情オブジェクトに設定された条件になったか否かを判断する(ステップS409)。ここでの設定条件は、上述したように、時刻の他、ゲーム空間内の所定の位置に移動したか、所定のイベントが発生したか等に基づく。
 次いで、プレイユーザの感情を認識する(ステップS412)。ユーザの感情認識処理は、図5を参照して説明した通りである。
 次に、ユーザ全員分の感情を認識すると(ステップS415/Yes)、制御部10は、設定された感情オブジェクトと最も離れた感情のユーザを特定する(ステップS418)。本実施例では、複数人で同時にプレイしている場合に、所定の感情に最も遠いユーザの感情の誘引を優先するためである。
 次に、特定されたユーザの感情と、設定された感情に誘引するための複数のコンテンツがそれぞれ想定する対象者の感情レベルとの距離を算出する(ステップS421)。すなわち、本実施例では、設定された感情(例えば、「楽しい」)に誘引するための複数のコンテンツにおいて、それぞれ想定する対象者が設定されている(「つまらない」感情の人を楽しい気持ちにさせるための動画、「怒っている」感情の人を楽しい気持ちにさせるための動画、「悲しい」感情の人を楽しい気持ちにさせるための動画等)。感情誘導制御部107は、誘引コンテンツにおいて想定される対象者の過剰と、特定されたユーザの感情とを比較して、相応しい誘引コンテンツを選択することが可能となる。
 次いで、感情誘導制御部107は、距離が最も近い誘引コンテンツを再生する(ステップS424)。なお、誘引コンテンツはWeb動画配信サーバ6にから取得してもよい。この場合、上記ステップS421の処理は、Web動画配信サーバ6側で行うようにしてもよいし、算出に必要なデータを制御装置1がWeb動画配信サーバ6から取得してもよい。
 そして、ゲームが終了するまで上記ステップS406~S424が繰り返される(ステップS427)。
  <3-5.第5の実施例>
 次に、第5の実施例について図12を参照して説明する。上述した各実施例では、コンテンツとして放送番組等の映像コンテンツを用いたが、本実施形態はこれに限定されず、コンテンツはCM(コマーシャル映像)であってもよい。例えば複数人が同時にCMを視聴しているときに、CMのターゲット顧客の属性にマッチした視聴者を対象にして、CM提供者が意図する「楽しい」という感情に誘導するコンテンツを再生することも可能である。
 図12は、第5の実施例による動作処理を示すフローチャートである。図12に示すように、まず、制御装置1においてCMの再生が開始されると(ステップS503)、感情オブジェクト抽出部104は、CMデータから感情オブジェクトを抽出する(ステップS506)。
 ここでの感情オブジェクトでは、適用条件としてユーザの属性を記述することが出来るものとする。記述例としては、以下のようになる。
<script>
var emotions=
[{"age":"20-30" "gender":"male" "joy":2,"surprise":2}];
</script>
 次いで、カメラ11により撮像された撮像画像に基づいて、視聴ユーザ全員の顔認識を行い、各ユーザ属性を判定する(ステップS509)。ユーザ属性としては、例えば性別、年齢、複数人居る場合はユーザ構成(関係性)が判定される。
 次に、制御装置1の制御部10は、ユーザ属性が、感情オブジェクトに設定された条件を満たしたか否かを判断する(ステップS512)。
 次いで、視聴ユーザの感情を認識する(ステップS515)。ユーザの感情認識処理は、図5を参照して説明した通りである。
 次に、視聴ユーザ全員分(例えば属性が感情オブジェクトに設定された条件と一致するユーザ全員)の感情を認識すると(ステップS518/Yes)、制御部10は、設定された感情オブジェクトと最も離れた感情のユーザを特定する(ステップS521)。
 次に、特定されたユーザの感情と、設定された感情に誘引するための複数のコンテンツがそれぞれ想定する対象者の感情レベルとの距離を算出する(ステップS524)。
 次いで、感情誘導制御部107は、距離が最も近い誘引コンテンツを再生する(ステップS527)。なお、誘引コンテンツはWeb動画配信サーバ6にから取得してもよい。この場合、上記ステップS524の処理は、Web動画配信サーバ6側で行うようにしてもよいし、算出に必要なデータを制御装置1がWeb動画配信サーバ6から取得してもよい。
 そして、CMが終了するまで上記ステップS503~S527が繰り返される(ステップS530)。
 <<4.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、コンテンツ側で推奨する感情に視聴ユーザを誘引することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した制御装置1、Webサーバ2、またはWeb動画配信サーバ6に内蔵されるCPU、ROM、およびRAM等のハードウェアに、制御装置1、Webサーバ2、またはWeb動画配信サーバ6の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、図1に示すように、子供が泣いている際には再生されてないよう制御される場合に(推奨感情:楽しい等)、「泣き止まないとアニメが始まらないよ」といったテキストや音声を出すようにしてもよい。
 また、推奨感情にならないと大事なシーンが見られず、誘引コンテンツを再生しても情緒不安定で推奨感情にならない場合にはいつまでも大事なシーンが観られない、といった制御を行ってもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 コンテンツを再生するコンテンツ再生部と、
 コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し;
 前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する;制御部と、
を備える、制御装置。
(2)
 前記制御装置は、
 前記コンテンツ提供者が推奨する、特定のタイミングにおける感情を、外部サーバから取得可能な通信部をさらに有する、前記(1)に記載の制御装置。
(3)
 前記制御部は、前記コンテンツ提供者が推奨する、特定のタイミングにおける感情を、前記コンテンツそのものから抽出する、前記(1)に記載の制御装置。
(4)
 前記制御部は、
 コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
 前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生する、前記(1)~(3)のいずれか1項に記載の制御装置。
(5)
 前記制御部は、
 コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
 前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生を開始し、当該ユーザの感情が、前記コンテンツ提供者が推奨する感情に変わらなかったときは、前記コンテンツとは別の感情誘導用のコンテンツの再生を開始するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(6)
 前記制御部は、
 コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
 前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するための、前記ユーザの属性に応じた感情誘導用のコンテンツを再生を開始するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(7)
 前記制御部は、
 前記コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
 コンテンツ視聴中のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(8)
 前記制御部は、
 前記コンテンツ提供者が推奨する、コンテンツ視聴前における感情を検出し、
 コンテンツ視聴前のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツの再生を開始し、当該ユーザの感情が、前記コンテンツ提供者が推奨する感情に変わったら、前記コンテンツの再生を開始するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(9)
 前記制御部は、
 前記コンテンツ提供者が推奨する、コンテンツ視聴後における感情を検出し、
 コンテンツ視聴後のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、前記ユーザがコンテンツ視聴後に、感情誘導用のコンテンツの再生を開始するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(10)
 前記制御部は、
 前記コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
 コンテンツ視聴中の複数のユーザの感情のうち、前記コンテンツ提供者が推奨する感情と最も相違する感情を抱いているユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(11)
 前記制御部は、
 前記コンテンツ提供者がターゲットとするユーザの属性と、当該コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
 コンテンツ視聴中の複数のユーザから、前記コンテンツ提供者がターゲットとするユーザの属性に一致するユーザを特定し、そのユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、前記(4)に記載の制御装置。
(12)
 コンピュータを、
 コンテンツを再生するコンテンツ再生部と、
 コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し;
 前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する;制御部と、
として機能させるためのプログラムが記録された、記録媒体。
 1  制御装置
 10  制御部
  101  表示制御部
  102  録画制御部
  103  関連メタデータ取得部
  104  感情オブジェクト抽出部
  105  ユーザ感情認識部
  106  感情比較部
  107  感情誘導制御部
 11  カメラ
 12  マイクロホン
 13  ネットワーク通信部
 14  放送受信部
 15  表示部
 16  スピーカ
 17  記憶部
 18  操作入力部

Claims (12)

  1.  コンテンツを再生するコンテンツ再生部と、
     コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し;
     前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する;制御部と、
    を備える、制御装置。
  2.  前記制御装置は、
     前記コンテンツ提供者が推奨する、特定のタイミングにおける感情を、外部サーバから取得可能な通信部をさらに有する、請求項1に記載の制御装置。
  3.  前記制御部は、前記コンテンツ提供者が推奨する、特定のタイミングにおける感情を、前記コンテンツそのものから抽出する、請求項1に記載の制御装置。
  4.  前記制御部は、
     コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
     前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生する、請求項1~3のいずれか1項に記載の制御装置。
  5.  前記制御部は、
     コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
     前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生を開始し、当該ユーザの感情が、前記コンテンツ提供者が推奨する感情に変わらなかったときは、前記コンテンツとは別の感情誘導用のコンテンツの再生を開始するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  6.  前記制御部は、
     コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し、
     前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するための、前記ユーザの属性に応じた感情誘導用のコンテンツを再生を開始するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  7.  前記制御部は、
     前記コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
     コンテンツ視聴中のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  8.  前記制御部は、
     前記コンテンツ提供者が推奨する、コンテンツ視聴前における感情を検出し、
     コンテンツ視聴前のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツの再生を開始し、当該ユーザの感情が、前記コンテンツ提供者が推奨する感情に変わったら、前記コンテンツの再生を開始するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  9.  前記制御部は、
     前記コンテンツ提供者が推奨する、コンテンツ視聴後における感情を検出し、
     コンテンツ視聴後のユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、前記ユーザがコンテンツ視聴後に、感情誘導用のコンテンツの再生を開始するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  10.  前記制御部は、
     前記コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
     コンテンツ視聴中の複数のユーザの感情のうち、前記コンテンツ提供者が推奨する感情と最も相違する感情を抱いているユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  11.  前記制御部は、
     前記コンテンツ提供者がターゲットとするユーザの属性と、当該コンテンツ提供者が推奨する、コンテンツ視聴中における感情を検出し、
     コンテンツ視聴中の複数のユーザから、前記コンテンツ提供者がターゲットとするユーザの属性に一致するユーザを特定し、そのユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するために、感情誘導用のコンテンツを再生するように、前記コンテンツ再生部を制御する、請求項4に記載の制御装置。
  12.  コンピュータを、
     コンテンツを再生するコンテンツ再生部と、
     コンテンツ提供者が推奨する、特定のタイミングにおける感情を検出し;
     前記特定のタイミングにおける、前記コンテンツを知覚可能なユーザの感情と、前記コンテンツ提供者が推奨する感情とが相違するときに、前記ユーザの感情を、前記コンテンツ提供者が推奨する感情に誘導するようにアクチュエータを制御する;制御部と、
    として機能させるためのプログラムが記録された、記録媒体。
PCT/JP2017/028422 2016-11-04 2017-08-04 制御装置および記録媒体 WO2018083852A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018548559A JP7067482B2 (ja) 2016-11-04 2017-08-04 制御装置、記録媒体、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-216526 2016-11-04
JP2016216526 2016-11-04

Publications (1)

Publication Number Publication Date
WO2018083852A1 true WO2018083852A1 (ja) 2018-05-11

Family

ID=62076003

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/028422 WO2018083852A1 (ja) 2016-11-04 2017-08-04 制御装置および記録媒体

Country Status (2)

Country Link
JP (1) JP7067482B2 (ja)
WO (1) WO2018083852A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112010A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
WO2022091437A1 (ja) * 2020-10-29 2022-05-05 パナソニックIpマネジメント株式会社 空間制御システム、感情制御システム、空間制御方法及びプログラム
JP2022071798A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理方法、情報処理システム及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230755A (ja) * 1993-01-29 1994-08-19 Nippon Telegr & Teleph Corp <Ntt> 視聴環境装置制御方法
JP2002344904A (ja) * 2001-02-06 2002-11-29 Sony Corp コンテンツ再生装置、コンテンツ受信装置、コンテンツ呈示制御方法、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
WO2016042908A1 (ja) * 2014-09-19 2016-03-24 ソニー株式会社 状態制御装置、状態制御方法、および状態制御システム
JP2016100033A (ja) * 2014-11-19 2016-05-30 シャープ株式会社 再生制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230755A (ja) * 1993-01-29 1994-08-19 Nippon Telegr & Teleph Corp <Ntt> 視聴環境装置制御方法
JP2002344904A (ja) * 2001-02-06 2002-11-29 Sony Corp コンテンツ再生装置、コンテンツ受信装置、コンテンツ呈示制御方法、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
WO2016042908A1 (ja) * 2014-09-19 2016-03-24 ソニー株式会社 状態制御装置、状態制御方法、および状態制御システム
JP2016100033A (ja) * 2014-11-19 2016-05-30 シャープ株式会社 再生制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112010A1 (ja) * 2019-12-05 2021-06-10 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
JP2022071798A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理方法、情報処理システム及びプログラム
JP7157188B2 (ja) 2020-10-28 2022-10-19 株式会社日本総合研究所 情報処理方法、情報処理システム及びプログラム
WO2022091437A1 (ja) * 2020-10-29 2022-05-05 パナソニックIpマネジメント株式会社 空間制御システム、感情制御システム、空間制御方法及びプログラム

Also Published As

Publication number Publication date
JP7067482B2 (ja) 2022-05-16
JPWO2018083852A1 (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
US11563597B2 (en) Systems and methods for modifying playback of a media asset in response to a verbal command unrelated to playback of the media asset
US20190373322A1 (en) Interactive Video Content Delivery
KR101549183B1 (ko) 내용 기반 tv 프로그램 추천 시스템, 장치 및 방법
US20160182955A1 (en) Methods and systems for recommending media assets
US20130268955A1 (en) Highlighting or augmenting a media program
US20120304206A1 (en) Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User
JP2006012171A (ja) 生体認識を用いたレビュー管理システム及び管理方法
US20090288131A1 (en) Providing advance content alerts to a mobile device during playback of a media item
US20090288112A1 (en) Inserting advance content alerts into a media item during playback
US20100082727A1 (en) Social network-driven media player system and method
JP2007504697A (ja) ユーザプロフィールによるコンテンツ情報のレンダリングの制御
US8522301B2 (en) System and method for varying content according to a playback control record that defines an overlay
US20100080533A1 (en) Network media player with user-generated playback control
KR20100033954A (ko) 실감 효과 표현 방법 및 장치
US20100083307A1 (en) Media player with networked playback control and advertisement insertion
US20160309214A1 (en) Method of synchronizing alternate audio content with video content
JP7067482B2 (ja) 制御装置、記録媒体、およびプログラム
US20030219708A1 (en) Presentation synthesizer
US20220020053A1 (en) Apparatus, systems and methods for acquiring commentary about a media content event
WO2014179389A1 (en) Interactive content and player
CN111602405A (zh) 动态启用和禁用生物特征设备的系统和方法
US20150281772A1 (en) Media player with networked playback control and advertisement insertion
JP6560503B2 (ja) 盛り上がり通知システム
US10135632B1 (en) Systems and methods for determining whether a user is authorized to perform an action in response to a detected sound
US20130209066A1 (en) Social network-driven media player system and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17868044

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018548559

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17868044

Country of ref document: EP

Kind code of ref document: A1