WO2019187501A1 - 情報処理装置、情報処理方法、および、記録媒体 - Google Patents

情報処理装置、情報処理方法、および、記録媒体 Download PDF

Info

Publication number
WO2019187501A1
WO2019187501A1 PCT/JP2019/000813 JP2019000813W WO2019187501A1 WO 2019187501 A1 WO2019187501 A1 WO 2019187501A1 JP 2019000813 W JP2019000813 W JP 2019000813W WO 2019187501 A1 WO2019187501 A1 WO 2019187501A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
output
timing
user
viewing environment
Prior art date
Application number
PCT/JP2019/000813
Other languages
English (en)
French (fr)
Inventor
龍一 鈴木
健太郎 井田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/982,461 priority Critical patent/US20210044856A1/en
Publication of WO2019187501A1 publication Critical patent/WO2019187501A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a recording medium.
  • Patent Document 1 listed below describes a technique for acquiring distance information or focusing information at a plurality of locations in a projection area, and analyzing a projectable area in the projection area from an acquisition result of the information. Has been.
  • Patent Document 1 does not consider appropriately changing the output setting of the content adaptively to changes in the viewing environment related to the content during the output of the content.
  • a new and improved information processing apparatus and information processing method capable of adaptively changing the output setting of the content during the output of the content, adaptively to changes in the viewing environment related to the content And a recording medium are proposed.
  • a first viewing environment related to the content at a first timing when the content is output and a second related to the content at a second timing after the first timing
  • the content by the output unit after the second timing based on whether or not the viewing environment is the same based on information of a user who was viewing the content at the first timing
  • An information processing apparatus includes an output control unit that changes the output setting.
  • the first viewing environment related to the content at the first timing when the content is output and the second viewing environment related to the content at the second timing after the first timing If the two viewing environments are the same, based on whether or not it is determined based on the information of the user who was viewing the content at the first timing, the processor, after the second timing, An information processing method is provided, including changing output settings of the content by an output unit.
  • the computer is used as the first viewing environment related to the content at the first timing when the content is output and the content at the second timing after the first timing. Based on whether or not the related second viewing environment is the same based on the information of the user who was viewing the content at the first timing, there is provided a computer-readable recording medium in which a program for causing an output control unit to change the output setting of the content by the output unit is recorded.
  • the output setting of the content can be adaptively changed during the output of the content in response to a change in the viewing environment related to the content.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • FIG. 6 is a diagram schematically illustrating an internal state of a room 4 according to each embodiment of the present disclosure.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 10 according to the first embodiment of the present disclosure. It is the figure which showed the judgment example of the said user's movement for every combination of the room 4 before and after the user's movement by the judgment part 106 which concerns on 1st Embodiment. It is the figure which showed the judgment example of the change of the said user's attitude
  • FIG. 8 is a flowchart showing a detailed processing flow of S109 shown in FIG. 7.
  • FIG. 7 It is a figure for demonstrating the subject of 2nd Embodiment. It is a figure for demonstrating the subject of 2nd Embodiment. It is a figure for demonstrating the subject of 2nd Embodiment. It is a figure for demonstrating the subject of 2nd Embodiment.
  • FIG. It is a flowchart which showed a part of detailed flow of a process of S109 based on 2nd Embodiment. It is a flowchart which showed a part of detailed flow of a process of S109 based on 2nd Embodiment. It is a flowchart which showed a part of detailed flow of a process of S109 based on 2nd Embodiment.
  • FIG. 3 is a diagram illustrating an example in which content 20 is projected on a projection plane 30.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • a plurality of constituent elements having substantially the same functional configuration are distinguished as the input unit 200a and the input unit 200b as necessary.
  • only the same reference numerals are given.
  • the input unit 200a and the input unit 200b they are simply referred to as the input unit 200.
  • a system capable of outputting content to an arbitrary position in a predetermined space for example, a predetermined facility
  • the predetermined facility may be, for example, a house 2 (residential space), a building, an amusement park, a station, or an airport.
  • the predetermined facility is the house 2 will be mainly described.
  • a plurality of rooms 4 are provided in the house 2.
  • the room 4 is an example of a first place and a second place according to the present disclosure.
  • each embodiment it is assumed that one or more users 6 are located in at least one room 4. Further, as shown in FIG. 2, one or more input units 200 to be described later may be arranged in each room 4. Furthermore, one or more output units 202 to be described later may be further arranged in each room 4.
  • the input unit 200 is an example of an acquisition unit according to the present disclosure.
  • the input unit 200 includes, for example, an RGB camera, a distance sensor (for example, a two-dimensional ToF (Time Of Flight) sensor, or a stereo camera), a LIDAR (Light Detection And Ranging), a thermo sensor, and / or a voice input device ( A microphone, etc.).
  • the input unit 200 may include a predetermined input device (for example, a keyboard, a mouse, a joystick, or a touch panel).
  • All of these sensors included in the input unit 200 may be arranged in the environment (specifically, the individual room 2). Alternatively, some of these sensors may be carried (for example, worn) by one or more users. For example, the user may carry a transmitter or an infrared light irradiation device, for example, or the user may wear a retroreflecting material or the like.
  • the input unit 200 inputs (or acquires) information related to the user and / or information related to the environment.
  • the information related to the user can be defined for each user located in the house 2, for example.
  • the information related to the user may include sensing results regarding the user, such as position, posture, field of view, line-of-sight direction, and / or face orientation.
  • information related to the environment can be defined for each room 4, for example.
  • the information related to the environment includes, for example, the shape of a projection target surface (hereinafter, sometimes referred to as a projection surface) of a projection unit (an example of the output unit 202), projection surface unevenness, and projection surface color.
  • Sensing results such as the presence or absence of an obstacle or a shield in the room 4 and / or illuminance information of the room 4 may be included.
  • information related to the environment may be acquired in advance by sensing various sensors included in the input unit 200.
  • the information related to the environment does not necessarily need to be acquired in real time.
  • Output unit 202 The output unit 202 outputs various kinds of information (video, sound, etc.) according to the control of the output control unit 108 described later.
  • the output unit 202 can include a display unit.
  • the display unit displays (projects, etc.) an image according to the control of the output control unit 108.
  • the display unit includes, for example, an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), or a projector.
  • the display unit is a (drive-type) projection unit (for example, a drive-type projector) configured to be able to change at least one of position and orientation according to control of the output control unit 108 described later.
  • the drive type projection unit may be capable of projecting an image to an arbitrary position in the house 2 while changing the position in the house 2.
  • the drive type projection unit may include a drive motor.
  • the output unit 202 may have an audio output unit.
  • the audio output unit includes, for example, a speaker, an earphone, or a headphone.
  • the sound output unit outputs sound (such as sound or music) according to the control of the output control unit 108.
  • All the output units 202 located in the house 2 may be fixed in the house 2, or at least one output unit 202 may be carried by the user.
  • Examples of the latter output unit 202 include mobile phones such as smartphones, tablet terminals, portable music players, and wearable devices (for example, eyewear (AR (Augmented Reality) Glass, HMD (Head Mounted Display), etc.)) Smartwatch, headphones, or earphones).
  • AR Augmented Reality
  • HMD Head Mounted Display
  • the information processing apparatus 10 can be an apparatus that can control the output of content by the output unit 202.
  • the information processing apparatus 10 analyzes information (for example, a sensing result) acquired by the input unit 200, and performs various processes (for example, determination of information to be output, inside the house 2 based on the analysis result) Among the plurality of output units 202, the selection of the output unit 202 that outputs the corresponding information and the determination of the parameters of the corresponding output unit 202).
  • the information processing apparatus 10 specifies a three-dimensional positional relationship between a projection unit (an example of the output unit 202) such as a projector and a projection plane, and You may analyze how a user can recognize the image
  • a projection unit an example of the output unit 202
  • the information processing apparatus 10 includes, for example, a server, a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a wearable device such as an HMD (Head Mounted Display) or a smart watch, an in-vehicle device (car Navigation device or the like) or a robot (such as a humanoid robot, a pet-type robot, or a drone).
  • a server a general-purpose PC (Personal Computer), a tablet terminal, a game machine, a mobile phone such as a smartphone, a wearable device such as an HMD (Head Mounted Display) or a smart watch, an in-vehicle device (car Navigation device or the like) or a robot (such as a humanoid robot, a pet-type robot, or a drone).
  • the information processing apparatus 10 may be arranged in a certain room 4.
  • the information processing apparatus 10 can be configured to be able to communicate with each input unit 200 and each output unit 202 by wire or wireless.
  • the information processing apparatus 10 may be arranged outside the house 2.
  • the information processing apparatus 10 may be able to communicate with each input unit 200 and each output unit 202 in the house 2 via a predetermined communication network.
  • the predetermined communication network may include, for example, a public line network such as a telephone line network or the Internet, various LANs including Ethernet (registered trademark), a WAN (Wide Area Network), and the like.
  • the system can react to these changes, for example, whenever the user moves temporarily or the object that the user picks up temporarily, so that the user experience There is a risk of damage.
  • a method hereinafter referred to as a second method
  • the behavior of the system is also delayed by the amount that the responsiveness deteriorates.
  • the information processing apparatus 10 according to each embodiment has been created by focusing on the above circumstances.
  • the information processing apparatus 10 according to each embodiment applies the first viewing environment related to the content at the first timing when the content is output and the content at the second timing after the first timing.
  • the output setting of the content by the output unit 202 after the second timing is changed based on whether or not it is determined based on a predetermined criterion that the related second viewing environment is the same. For this reason, for example, it is possible to appropriately change the content output setting adaptively to changes in the environment and user movements. As a result, it is possible to prevent the user experience from being impaired.
  • the viewing environment may be an environment (or space) in which one or more users are viewing some content.
  • a viewing environment related to a certain content may be an environment (or space) in which one or more users are viewing the corresponding content.
  • FIG. 3 is a block diagram illustrating a functional configuration example of the information processing apparatus 10 according to the first embodiment.
  • the information processing apparatus 10 includes a control unit 100, a communication unit 120, and a storage unit 122.
  • Control unit 100 The control unit 100 may be configured to include a processing circuit such as a CPU (Central Processing Unit) 150 and a GPU (Graphics Processing Unit), which will be described later.
  • the control unit 100 can comprehensively control the operation of the information processing apparatus 10. As illustrated in FIG. 3, the control unit 100 includes an action recognition unit 102, an environment recognition unit 104, a determination unit 106, and an output control unit 108.
  • the action recognition unit 102 is an example of a first recognition unit according to the present disclosure.
  • the behavior recognition unit 102 recognizes the behavior of a user who is viewing the content being output by the output unit 202 (for example, a change in position or a change in posture) based on information acquired by one or more input units 200. .
  • the action recognition unit 102 indicates that the corresponding user has moved from the first place (for example, one room 4a) where the corresponding user was watching the corresponding content to the second place (for example, another room 4b). It recognizes based on the information which one or more input parts 200 acquired.
  • the behavior recognition unit 102 recognizes that the user's posture has changed from the first posture to the second posture while the user is viewing the corresponding content in a certain place (for example, a certain room 4a). It recognizes based on the information which the above input part 200 acquired.
  • the environment recognition unit 104 is an example of a second recognition unit according to the present disclosure.
  • the environment recognition unit 104 recognizes a change in the state of a location (for example, the room 4) where a user who is viewing the content being output by the output unit 202 is located based on information acquired by one or more input units 200.
  • the environment recognition unit 104 changes the amount of incident sunlight in the room 4 or changes the lighting level of one or more lights in the room 4 (for example, the number of lights that are turned on). Change) is recognized based on information acquired by one or more input units 200.
  • the determination unit 106 determines whether or not the first viewing environment and the second viewing environment are the same based on a predetermined criterion.
  • the predetermined reference may include information on a user who has viewed the corresponding content at a timing (first timing) corresponding to the first viewing environment.
  • the information of the user is the recognition result of the action of the user by the action recognition unit 102 between the first timing and the timing corresponding to the second viewing environment (second timing).
  • second timing the determination unit 106 first determines whether the action recognized by the user between the first timing and the second timing is “permanent action” or “temporary action”. It is judged whether it is "a proper action”.
  • the determination unit 106 determines that the action is It is determined whether the action is “permanent action” or “temporary action”. For example, based on the combination of the degree of change in the position of the corresponding user and the degree of change in the posture of the user, the determination unit 106 determines whether the action of the user is “permanent action”, or It may be determined whether the action is “temporary action”.
  • the determination unit 106 determines whether the corresponding user's action is “permanent action” or “temporary action” based on the degree of change in the position of the corresponding user, Judgment based on the degree of change in the user's posture may be sequentially performed.
  • the determination unit 106 determines that the first viewing environment and the second viewing environment are the same. If it is determined that the action of the corresponding user is “permanent action”, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the “temporary action” means that the position and / or posture of the corresponding user at the first timing is temporarily changed, and then the position and / or posture of the corresponding user is changed by the second timing.
  • the action may be determined to return to the position and / or posture at the first timing. That is, after the “temporary action”, the corresponding user can continue to view the corresponding content at the same position and / or posture as the first timing.
  • “permanent behavior” means that the position and / or posture of the corresponding user changes at the first timing, and then the position and / or posture of the corresponding user changes to the first timing by the second timing. It may be an action that is determined not to return to the position and / or posture at the timing of 1.
  • the predetermined standard is the second from the first place (for example, a certain room 4a) corresponding to the first viewing environment between the first timing and the second timing.
  • the determination unit 106 first Based on the information indicating the relationship between the first place and the second place, it is determined whether the movement is a “permanent action” or a “temporary action”. Then, based on the determination result, the determination unit 106 determines whether the first viewing environment and the second viewing environment are the same. Information indicating the relationship between the first location and the second location may be stored in advance in the storage unit 122 described later.
  • FIG. 4 relates to whether the movement of the user is “permanent action” or “temporary action” for each combination of the room 4a before the movement and the room 4b after the movement. It is the figure which showed the example of judgment.
  • the vertical axis indicates the type of the room 4a before the movement
  • the horizontal axis indicates the type of the room 4b after the movement.
  • the determination unit 106 determines that the user ’s movement is a “permanent action”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the determination unit 106 determines the movement of the corresponding user as “ Judged as “temporary action”. In this case, for example, when the corresponding user continues to be located in the “toilet” until the second timing after the movement, the determination unit 106 determines that the first viewing environment and the second viewing environment Are the same.
  • the table (judgment table) shown in FIG. 4 may be generated by the following method. For example, a template may be generated based on a human characteristic in a predetermined environment that has been specified in advance, and the determination table may be generated automatically or manually according to the template. In addition, each determination content (setting value) in the determination table may be automatically corrected according to the situation of the user each time. In addition, each determination content in the determination table may be changed explicitly (manually) by the user.
  • the determination unit 106 sequentially determines the relationship between the room 4a before the movement and the room 4b after the movement using, for example, the table shown in FIG. If it is determined that the “permanent” room 4 has been reached at least once between the first room 4a and the last room 4b, the entire movement of the corresponding user is determined as “permanent”. It may be determined that the action is “action”. For example, in the example shown in FIG. 4, when the user moves “living room” ⁇ “toilet” ⁇ “kitchen” ⁇ “living room”, the determination unit 106 moves from “toilet” to “kitchen”. It may be determined using the table shown in FIG. 4 that it is “permanent action”, and the entire movement of the user may be determined as “permanent action”.
  • the predetermined reference is that the user's posture is the first timing at the first timing in the same place (for example, the same room 4) between the first timing and the second timing. It may further include information indicating whether or not the action recognition unit 102 has recognized that the change from the second posture to the second posture and the relationship between the first posture and the second posture. For example, when it is recognized that the user's posture has changed from the first posture to the second posture in a room 4 between the first timing and the second timing. First, the determination unit 106 determines whether the change in the posture is “permanent action” based on the information indicating the relationship between the first posture and the second posture, It is judged whether it is "a proper action”.
  • each of the first posture and the second posture may be, for example, any of a sitting position, a supine position, and a standing position.
  • Information indicating the relationship between the first posture and the second posture may be stored in advance in the storage unit 122 described later.
  • FIG. 5 shows that the user's action corresponding to the combination of the first posture (in other words, the posture before the change) and the second posture (in other words, the posture after the change) is “permanent”. It is the figure which showed the example of judgment regarding whether it is either "a typical action” or a "temporary action”.
  • the vertical axis indicates the type of the first posture
  • the horizontal axis indicates the type of the second posture.
  • the determination unit 106 determines that the user's action (change in posture) is “permanent action”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the determination unit 106 determines the behavior of the corresponding user as “temporarily”. It is judged that it is "smart action”. In this case, for example, after the action, if the user's posture remains “sitting” until the second timing, the determination unit 106 determines that the first viewing environment and the second viewing Judge that the environment is the same.
  • the determination unit 106 selects "permanent behavior” and "temporary behavior”
  • the determination result as to whether or not the action is a “typical action” may vary depending on the type of the room 4 in which the user is located. For example, when it is recognized that the user's posture has changed from “standing position” to “sitting position” when the user is positioned in “living room”, the determination unit 106 (see the table shown in FIG. 5). The change in the posture may be determined as “permanent action”.
  • the determination unit 106 determines whether the user's posture has changed from the “sitting position” to the “standing position” when the user is positioned in the “living room”.
  • the change in the posture may be determined as “temporary action”.
  • Output control unit 108 controls the output of information (such as content) to one or more output units 202.
  • the output control unit 108 first changes the output setting of the corresponding content by the at least one output unit 202 after the second timing based on the determination result by the determination unit 106. Then, the output control unit 108 causes the at least one output unit 202 to output the corresponding content with the changed output setting.
  • the output setting of the content may include at least one of the output position of the relevant content in the house 2, the display size of the relevant content, the luminance of the relevant content, and the contrast of the relevant content. Good.
  • the output setting of the content may include identification information of the output unit 202 that outputs the corresponding content among all the output units 202 in the house 2.
  • the output control unit 108 outputs the corresponding content after the second timing.
  • the setting may be changed according to the second viewing environment.
  • the output control unit 108 sets the output position of the corresponding content after the second timing to the second location (for example, the second viewing environment).
  • the predetermined position in the room 4) may be determined.
  • the output control unit 108 is in the first place at the first timing.
  • the projection position of the content may be continuously changed to the corresponding drive type projector from the projection position of the corresponding content to a predetermined position in the second location.
  • the output control unit 108 uses the detection result of the direction of the corresponding user's line of sight detected in real time to guide the user's line of sight in the corresponding first content in the first location.
  • the projected position of the content may be continuously changed to the corresponding drive type projector from the projected position to a predetermined position in the second location. According to these control examples, since the corresponding user can easily recognize that the projection position of the content is changed to another position, it is possible to prevent the user from losing sight of the content.
  • the output control unit 108 does not need to change the output setting of the corresponding content. Good.
  • FIG. 6A is a diagram illustrating a state in which the corresponding user 6 is viewing the corresponding content 20 in the room 4a (for example, “living room”) corresponding to the first viewing environment at the first timing. It is. In the example shown in FIG.
  • the content 20 is projected on the wall surface near the television receiver in the room 4a by the projection unit 202 (output unit 202).
  • the determination unit 106 determines that the user 6 moves from the room 4a to another room 4b between the first timing and the second timing, and that the movement is a “temporary action”.
  • the output control unit 108 may change the display mode of the content 20 so that the frame 22 around the content 20 is highlighted (for example, , Changing the display color of the frame 22 or enlarging the display size of the frame 22).
  • the output control unit 108 causes the at least one output unit 202 to output the corresponding content with the changed output setting. For example, at this time, the output control unit 108 continuously changes the output setting of the corresponding content from the output setting before the change to the output setting after the change. As an example, the output control unit 108 sets the output setting before the change (for example, before the change) according to the change in the position or posture of the corresponding user at the second timing (or within a predetermined time before and after the second timing). The output speed may be changed from the output position to the changed output setting (for example, the changed output position).
  • the output control unit 108 causes the content to slide from the output position before the change to the output position after the change. May be output to the output unit 202. Also, when the distance between the output position before the change and the output position after the change is long, or when the change in the position of the user is large, the output control unit 108 fades instead of sliding the corresponding content.
  • the output position of the content may be continuously changed by the output unit 202 while using expressions such as.
  • the communication unit 120 can be configured to include a communication device 166 described later.
  • the communication unit 120 transmits / receives information to / from each input unit 200 and each output unit 202 by wired communication and / or wireless communication.
  • the communication unit 120 can receive information acquired by the individual input units 200 from the individual input units 200.
  • the communication unit 120 can transmit control information for outputting various types of information to one or more output units 202 according to the control of the output control unit 108.
  • Storage unit 122 can be configured to include a storage device 164 described later.
  • the storage unit 122 stores various data and various software.
  • the storage unit 122 can store the information indicating the relationship between the first location and the second location, the information indicating the relationship between the first posture and the second posture, and the like described above. .
  • FIG. 7 is a flowchart showing an example of the overall flow of processing according to the first embodiment.
  • the output control unit 108 causes the output unit 202 to start projecting the content to be output in the room 4 where the user is located, for example, based on the instruction of the corresponding user. (S101).
  • one or more input units 200 in the house 2 always perform sensing, so that information related to individual users in the house 2 and information on the state of the individual rooms 4 in the house 2 are obtained. (That is, information related to the environment in the house 2) may be obtained at all times.
  • the environment recognition unit 104 recognizes whether or not the state of the room 4 has changed based on information sensed by the individual input units 200 in the room 4, for example.
  • the behavior recognition unit 102 determines whether or not the corresponding user has started a behavior accompanied by a change in position or posture based on information sensed by each input unit 200 in the corresponding room 4, for example. Recognize (S103).
  • the output control unit For example, based on the recognition result by the environment recognition unit 104 and the recognition result by the behavior recognition unit 102, the optimum search position of the corresponding content is searched for (108).
  • the output control unit 108 performs the process of S115 described later.
  • the determination unit 106 performs “analysis of the cause of the change” described later (S109). ).
  • the output control unit 108 searched for the display position of the corresponding content in the latest S105. The display position is changed (S113). Then, the output control unit 108 performs the process of S117 described later.
  • the length of the upper limit time may be a predetermined length of time (such as 5 minutes).
  • the length of the upper limit time may be changed according to the corresponding content. For example, when the corresponding content is a long-time content (for example, a movie), the length of the upper limit time may be set longer than usual.
  • the upper limit time may be set shorter than usual, for example, several seconds. .
  • an optimal time may be set as the length of the upper limit time according to the corresponding user.
  • the output control unit 108 determines not to change the display position of the corresponding content ( S115). Thereafter, when a condition for ending display of the corresponding content is satisfied (for example, when a predetermined input is made by the user) (S117: Yes), the output control unit 108 outputs the content. To the output unit 202. Then, the processing flow ends.
  • control unit 100 repeats the processes after S103 again.
  • the overall flow of processing according to the first embodiment is not limited to the example described above.
  • the process of S105 is limited to an example that is executed when the condition of S103 is satisfied (that is, when a change in environment or a change in behavior of the user is recognized in the room 4).
  • the process of S105 is performed in a different condition (for example, when a corresponding user turns on a predetermined electronic device (for example, a television receiver) or the like instead of the condition of S103, or This may be executed when a user has entered a predetermined room 4 or the like.
  • FIG. 8 is a flowchart showing an example of the detailed processing flow of S109 described above.
  • the determination unit 106 determines whether or not it has been recognized in the most recent S103 that the corresponding user has moved from the room 4a where the user is viewing the content to another room 4b. (S151). When it is recognized that the user has moved to another room 4b (S151: Yes), the determination unit 106 determines that the user has moved based on the relationship between the room 4a before movement and the room 4b after movement. It is determined whether or not the movement is a “temporary action” (S155).
  • the determination unit 106 performs the process of S159 described later. On the other hand, when it is determined that the movement is not “temporary action” (that is, “permanent action”) (S155: No), the determination unit 106 performs the process of S161 described later.
  • the determination unit 106 determines that the latest S103 In step S153, it is determined whether a change in the posture of the corresponding user is recognized. When it is recognized that the posture of the corresponding user has not changed (S153: No), the determination unit 106 determines that the cause of the change in the optimum display position of the corresponding content determined in S107 is human. It is determined that it is not a factor caused by (S157).
  • the determination unit 106 determines the relationship between the type of posture before the change and the type of posture after the change. Based on the sex, it is determined whether or not the corresponding action (change in posture) is “temporary action” (S155). When it is determined that the action is “temporary action” (S155: Yes), the determination unit 106 determines that the cause of the change in the optimal display position of the corresponding content determined in S107 is “because of the person Is determined to be a “temporary factor” (S159).
  • the determination unit 106 determines that the corresponding content determined in S107. It is determined that the change factor of the optimal display position is a “permanent factor caused by a person” (S161).
  • the information processing apparatus 10 includes the first viewing environment related to the content at the first timing when the content is output, and the time after the first timing.
  • the content by the output unit 202 after the second timing based on whether or not the second viewing environment related to the content at the second timing is the same based on a predetermined criterion Change the output setting. For this reason, for example, it is possible to appropriately change the content output setting adaptively to changes in the environment and user movements.
  • the information processing apparatus 10 changes the output setting of the corresponding content according to the second viewing environment.
  • the information processing apparatus 10 does not change the output setting of the corresponding content. For this reason, even if the user performs “temporary action”, for example, the display position of the corresponding content is not changed, so that the user's experience can be prevented from being impaired.
  • the first embodiment is not limited to the example described above.
  • the determination example of the user behavior by the determination unit 106 is not limited to the above-described example. For example, when it is recognized that the user has started moving, and all the power sources in the room 4 where the user has been located are changed to OFF, the determination unit 106 determines that the user has moved. It may be determined as “permanent action”.
  • the determination unit 106 immediately after these It may be determined that the movement of the user to be performed is “permanent action”.
  • the determination unit 106 does not depend on other actions of the corresponding user between the first timing and the second timing (for example, moving to another room 4a and then returning to the original room 4b).
  • the user's behavior during this period may be determined as “temporary behavior”.
  • Modification 2 ⁇ As another modification, even when the determination unit 106 determines that the action of the corresponding user is “temporary action”, the output control unit 108 outputs the content that the corresponding user is viewing. Settings (output position etc.) may be changed. For example, if fire (gas stove, etc.) or water is used, it is assumed that the user concerned or one or more objects in the house 2 will be harmed. Even if the determination unit 106 determines that the user's action is “temporary action”, the output control unit 108 sets the output setting of the content being viewed by the user to another output setting. It may be changed forcibly.
  • the output control unit 108 determines the output position of the content according to who the output target content is for the plurality of users. May be determined. For example, in a scene where a movie is projected in the living room, the output control unit 108 may cause the output unit 202 to project the movie in a direction in which more users (majority users) are facing in the living room. In this case, the output control unit 108 further provides a display device for each user (for example, a display device carried by each user) for each user other than the majority user in the living room. The movie may be displayed simultaneously with the projection by the output unit 202.
  • the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the output control unit 108 can also not change the output setting of the corresponding content after the second timing (that is, continue the output of the content with the original output setting).
  • the first exception condition is that the recognition accuracy by the action recognition unit 102 or the environment recognition unit 104 is equal to or lower than a predetermined threshold (for example, a sensor arranged in the room 4 during output of the corresponding content). Or the like may be small).
  • the said 1st exceptional condition may be a case where there are too many users in the house 2 with respect to the number of the output parts 202 which exist in the house 2.
  • the output control unit 108 when the corresponding content includes a video and the second exception condition is satisfied, the output control unit 108 outputs the whole or a part of the video as an output target of the output unit 202. It is also possible to output the audio (for example, TTS (Text To Speech), etc.) for notifying the content of the video outside the target to the same or different output unit 202. For example, when the determination unit 106 determines that the movement of the user is “temporary action”, the output control unit 108 notifies the content of the video (for example, a sports relay video). During the movement of the user, a voice output unit disposed near the user or a voice output unit worn by the user may be output.
  • TTS Text To Speech
  • the second exception condition is that the projection unit (an example of the output unit 202) that outputs the video with respect to the output position after the change related to the video determined by the output control unit 108 It is possible to include a case where at least a part of these cannot be projected.
  • the output control unit 108 causes the output unit 202 capable of outputting sound to output sound (for example, TTS) for notifying the content of the image in the unprojectable region of the entire image. Also good.
  • the second exceptional condition includes a case where the size of the projection plane (or display plane) including the output position after the change related to the video determined by the output control unit 108 is smaller than a predetermined threshold. obtain.
  • the output control unit 108 may cause the output unit 202 that can output the sound to notify the content of the video (for example, text included in the video).
  • Second Embodiment >> ⁇ 3-1. Background> The first embodiment has been described above. Next, a second embodiment according to the present disclosure will be described. First, the background that led to the creation of the second embodiment will be described. For example, in the existing technology, even if the user's position and posture itself do not change, the display position of the content being displayed can change according to the change in the position of the object being used by the user.
  • FIG. 9A it is assumed that an obstacle 40 (coffee cup 40 in the example shown in FIG. 9A) is arranged on the projection surface 30 of the table.
  • the content 20 can be projected on the projection surface 30 so that the content 20 does not overlap the obstacle 40.
  • the information processing apparatus 10 is displayed on the projection plane under the condition that the content 20 and the obstacle 40 do not overlap, for example, as shown by an arrow in FIG. 9B.
  • the projection size of the content 20 being projected to 30 can be enlarged.
  • the information processing apparatus 10 can change the projection size of the content 20 being projected again according to the position where the obstacle 40 is returned.
  • the projection size of the content 20 changes, so that the behavior becomes unstable and the visibility may be lowered.
  • the user moves the object or changes the state of the first place (environment) between the first timing and the second timing.
  • the output setting of the content by the output unit 202 after the second timing can be appropriately changed adaptively.
  • Determination unit 106 The determination unit 106 according to the second embodiment uses a predetermined reference as to whether the first viewing environment and the second viewing environment are the same (similar to the first embodiment). Judgment based on.
  • the predetermined reference according to the second embodiment is that at least one object in the first place corresponding to the first viewing environment is between the first timing and the second timing. , Including a detection result of whether or not the user has moved out of a predetermined area corresponding to the object. For example, at least one object located on a specific projection plane (for example, a projection plane that is projecting the corresponding content) in the first location between the first timing and the second timing.
  • the determination unit 106 first determines whether the corresponding user's action is based on whether or not the object has been moved out of the predetermined area corresponding to the object.
  • the determination unit 106 determines that the first viewing environment and the second viewing environment are the same. If it is determined that the corresponding action is “permanent action”, the determining unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the top surface 30 of the table is defined as the projection plane of the corresponding content.
  • the boundary surfaces are provided at positions separated from the top surface 30 by a predetermined distance in the three directions of length, width, and height, and the spaces are surrounded by these boundary surfaces.
  • the determination unit 106 determines that the user's action is “permanently”. It is judged that it is "smart action”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • the determination unit 106 determines that the user's action is “temporary”. It is determined that the action is That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are the same.
  • the predetermined reference is that an object having a predetermined attribute in the first location is between the first timing and the second timing.
  • a detection result indicating whether or not the user has moved may be further included. For example, when it is detected that the user moves an object located on a specific projection plane in the first location between the first timing and the second timing.
  • the determination unit 106 determines whether the corresponding user's action is “permanent action” or “temporary action” based on whether the corresponding object is an object having a predetermined attribute. It is judged whether it is "action”.
  • FIG. 11 is a diagram illustrating a determination example by the determination unit 106 regarding whether the movement of the object is “temporary action” or “permanent action” for each attribute of the object.
  • the determination unit 106 determines the movement of the user as “temporarily”. It is judged that it is "smart action”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are the same.
  • specific examples of “an object whose movement frequency is equal to or higher than a predetermined threshold” include dishes, drinks, tableware (such as dishes), cups, plastic bottles, and smartphones. It is done.
  • the determination unit 106 determines that the action of the corresponding user is “permanent action”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • specific examples of “an object whose movement frequency is less than a predetermined threshold” include laptop PCs, bags, notebooks, newspapers, books, and the like.
  • furniture for example, a low table, a cushion, or the like
  • the determination unit 106 may exclude the object from the determination target.
  • the length of time the user uses the object may vary depending on the type. Therefore, as another modified example, when the length of use time of these objects by the corresponding user sensed by one or more input units 200 is equal to or more than a predetermined threshold, the determination unit 106 The use of the object may be determined as “permanent action”.
  • the predetermined reference is the first location recognized by the environment recognition unit 104 between the first timing and the second timing.
  • the degree of state change may be further included.
  • examples of the type of change in the state include a change in the amount of incident sunlight in a corresponding place (such as the room 4) or a lighting degree of one or more lights in the corresponding place. Change.
  • the determination unit 106 first determines that the state of the first place is predetermined from the state of the first place at the first timing between the first timing and the second timing. Based on whether or not it is recognized that the threshold has changed more than the threshold value, it is determined whether the change in the corresponding state (environmental change) is “permanent change” or “temporary change” To do. When the change in the corresponding state is recognized as a “temporary change”, the determination unit 106 determines that the first viewing environment and the second viewing environment are the same. . If the change in the corresponding state is recognized as a “permanent change”, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same. .
  • the determination unit 106 first identifies the factor of the decrease in visibility based on the sensing result from one or more input units 200. Then, the determination unit 106 determines whether the decrease in visibility is a “temporary change” or a “permanent change” according to the type of the specified factor.
  • FIG. 12 shows that the decrease in visibility is a “temporary change” or “permanent change” for each factor of the decrease in visibility when the visibility is decreased based on a change in environment. It is the figure which showed the example of judgment regarding whether it is.
  • the determination unit 106 determines that the corresponding decrease in visibility is “temporary”. It is determined that the change is That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are the same.
  • specific examples of “temporary changes due to human behavior” include movement of a shield and opening / closing of a door (for example, a living room door).
  • 106 determines that the corresponding decrease in visibility is a “permanent change”. That is, in this case, the determination unit 106 determines that the first viewing environment and the second viewing environment are not the same.
  • specific examples of “permanent changes due to human actions” include opening / closing curtains and switching illumination ON / OFF.
  • the determination unit 106 selects a specific projection plane (for example, the corresponding one) in the corresponding room 4 It is determined whether or not the user has recognized that the user has moved at least one object located on the projection plane on which the content is projected based on the sensing result of one or more input units 200 (S207). When it is recognized that the user has moved at least one object (S207: Yes), the determination unit 106 next determines that the position after the movement of the object is within a predetermined region corresponding to the object. It is determined whether it is within the range (S209).
  • the determination unit 106 When the position of the object after movement is within the predetermined area (S209: Yes), the determination unit 106 performs the process of S221 described later. On the other hand, when the position of the object after the movement is outside the predetermined area (S209: No), the determination unit 106 performs a process of S223 described later.
  • the determination unit 106 determines whether or not it is recognized that the corresponding user has some object and the position of the object has changed (S211). ). If it is recognized that the position of the object held by the user has changed (S211: Yes), the determination unit 106 then determines that the corresponding object is an object whose movement frequency is equal to or higher than a predetermined threshold. Whether or not (S213).
  • the determination unit 106 When it is determined that the corresponding object is an object whose movement frequency is equal to or higher than the predetermined threshold (S213: Yes), the determination unit 106 performs a process of S221 described later. On the other hand, when it is determined that the corresponding object is an object whose movement frequency is less than the predetermined threshold (S213: No), the determination unit 106 performs a process of S223 described later.
  • the determination unit 106 determines whether or not the visibility of the room 4 has changed by a predetermined threshold value or more as compared with the first timing (S215). When it is determined that the amount of change in the visibility of the corresponding room 4 is less than the predetermined threshold (S215: No), the determination unit 106 determines the optimum display position of the corresponding content determined in S107. It is determined that the change factor is not a factor attributable to the person (S219).
  • the determination unit 106 next determines that the change in the visibility is temporarily caused by a human action. It is determined whether or not this is a change (S217). When it is determined that the change in visibility is a temporary change due to human behavior (S217: Yes), the determination unit 106 changes the optimal display position of the corresponding content determined in S107. Is determined to be a “temporary factor caused by a person” (S221).
  • the determination unit 106 determines the optimum display position of the corresponding content determined in S107. It is determined that the change factor is a “permanent factor caused by a person” (S223).
  • the movement of the object by the user or the change in the state of the first place between the first timing and the second timing can be appropriately changed appropriately for the environmental change).
  • the attribute of the object indicates whether or not to change the projection position and the projection size of the content. And it can be appropriately changed according to the amount of movement of the object.
  • Input unit 200 The input unit 200 according to the third embodiment, when the output control unit 108 determines to change the output setting of the content, rejection information indicating that the user rejects the change of the output setting of the content, Alternatively, approval information indicating that the user approves the change of the output setting of the content can be acquired.
  • the input method of the rejection information and / or the consent information may be, for example, that the user directly touches (touches) the content.
  • the input unit 200 may acquire these detection results as the rejection information.
  • the input unit 200 may acquire the detection result as the consent information.
  • the method of inputting the refusal information and / or the consent information may be that the user performs a predetermined gesture on the content. For example, when a gesture that grips the content before the change is detected, the input unit 200 may acquire these detection results as the rejection information. Alternatively, when a gesture that can be paid toward the content before the change is detected, the input unit 200 may acquire the detection result as the consent information.
  • the method of inputting the rejection information and / or the consent information may be that the user utters a predetermined utterance.
  • a predetermined negative word for example, “Wait!”, “As it is!”, “Cancel!”, Etc.
  • the input unit 200 rejects the detection result. It may be acquired as information.
  • a predetermined positive word for example, “Move!”
  • the input unit 200 may acquire the detection result as the acceptance information.
  • the output control unit 108 When an utterance that explicitly indicates a change in the output setting of the corresponding content, such as “show in!”, Is detected, the output control unit 108 (for example, the output setting determined immediately before) An output setting corresponding to this detection result may be employed (instead of).
  • the method of inputting the rejection information and / or the consent information may be that the user performs a predetermined behavior. For example, when it is detected that the user shakes his / her head while viewing the content after changing the output setting, or when it is detected that he / she sees the content before changing the output setting, the input unit 200 These detection results may be acquired as the rejection information. Alternatively, when it is detected that the user shakes his / her head while viewing the content before the change, or when it is detected that the content after the change is viewed, the input unit 200 displays these detection results. May be acquired as the consent information.
  • the method of inputting the refusal information and / or the consent information may be that the user places some object at a position corresponding to the content. For example, when it is detected that a coffee cup is placed on the content before the change, the input unit 200 may acquire these detection results as the rejection information.
  • the output control unit 108 can change the output setting of the content after the second timing based on the determination result by the determination unit 106 and the user's instruction input.
  • the above function will be described in more detail with reference to FIGS. 15A to 15C.
  • the content 20a is projected on the top surface 30a (projection surface 30a) of the table by the projection unit 202a in the room 4, and the user 6 is viewing the content 20a. .
  • the environment changes in the room 4 for example, when the user places an obstacle on the projection surface 30a, the projectable area of the content 20a in the projection surface 30a decreases.
  • the determination unit 106 determines that the optimal projection position of the content 20 is not the projection plane 30a but the wall surface 30b.
  • the output control unit 108 projects the content 20a onto the projection surface 30a on the projection unit 202a, and the same content 20b as the content 20a onto the wall surface 30b, for example, another projection. Projected on the unit 202b.
  • FIG. 15A the environment changes in the room 4 (for example, when the user places an obstacle on the projection surface 30a, the projectable area of the content 20a in the projection surface 30a decreases).
  • the determination unit 106 determines that the optimal projection position of the content 20 is not the projection plane 30a but the wall surface 30b.
  • the output control unit 108 projects the content 20a onto the projection surface 30a on the projection unit 202a, and the same content 20b as the content 20a onto the
  • the output control unit 108 may emphasize (display) the frame 22a of the content 20a and the frame 22b of the content 20b.
  • the content before the output setting is changed that is, the content 20a projected on the top surface 30a
  • the output position change destination that is, the wall surface 30b
  • the user 6 desires that the corresponding content 20 continues to be displayed on the top surface 30a of the table rather than the wall surface 30b, and the user 6 then selects a predetermined input indicating the desire (for example, the top surface 30a of the table). , Etc.).
  • a predetermined input indicating the desire for example, the top surface 30a of the table. , Etc.
  • the output control unit 108 ends only the projection of the content 20b. That is, the projection state of the content 20 can return to the state shown in FIG. 15A.
  • the determination unit 106 has determined that the optimal projection position of the content 20 is not the wall surface 30b but some video display device such as a television receiver, for example. To do.
  • the output control unit 108 can display the content 20b on the video display device.
  • the output control unit 108 determines whether the determination unit 106 determines the input result and the input unit. Based on whether or not refusal information is acquired by 200, the output setting of the content after the second timing can be changed. In this case, for example, the output control unit 108 first causes the output unit 202 to output information indicating the changed output position regarding the corresponding content within a predetermined time limit after the second timing. Then, the output control unit 108 sets the output setting of the content after the predetermined time limit (final based on whether or not the rejection information of the user is acquired by the input unit 200 within the predetermined time limit). To change).
  • the content 20 is projected on the projection plane 30 in a room 4 by the projection unit 202.
  • the output control unit 108 determines to change the projection position of the content 20 in the upward direction illustrated in FIG. 16 so that the content 20 does not overlap the obstacle 40.
  • the output control unit 108 applies an effect (such as a glow) to the outline of the content 20 while maintaining the projection position of the content 20, and the predetermined restriction after the second timing. Only the time can be further projected on the output unit 202. Thereby, it is possible to notify the user that the projection position of the content 20 is changed. Further, as illustrated in FIG.
  • the output control unit 108 displays an image 50 (for example, an arrow image 50) indicating the direction of the projection position after the change with respect to the content 20 (an output position after the change with respect to the content 20).
  • the information may be further projected onto the projection surface 30 by the output unit 202 (as information).
  • the output control unit 108 does not have to add an effect to the outline of the content 20.
  • the length of the predetermined time limit is equal to or longer than the time required for moving the driving projector (output unit 202) for projecting the corresponding content to the changed output position and for changing the posture. It is desirable that the length is determined to be. As a result, if the rejection information is acquired, the driven projector can quickly project the corresponding content to the output position before the change.
  • the output control unit 108 first determines the changed post-change A predetermined transition video may be output to the output position 202 at the content display position for the predetermined time limit.
  • the predetermined transition video may be a video that has a display mode different from the corresponding content and corresponds to the content. Then, the output control unit 108 (finally) sets the output setting of the corresponding content after the predetermined time limit based on whether or not the rejection information of the corresponding user is acquired within the predetermined time limit. It may be changed.
  • the output control unit 108 can return the output setting of the corresponding content thereafter to the output setting before the change.
  • the output control unit 108 sets the output setting of the corresponding content after the predetermined time limit to the second timing. Alternatively, the output setting determined immediately thereafter can be confirmed.
  • the output control unit 108 when it is determined to reduce the display size of the content, as illustrated in FIG. 19, the output control unit 108 first displays the content 60 after the change and the display before the change regarding the content 60.
  • the frame 62 indicating the size may be output as the transition image to the output unit 202 on the projection plane 30 corresponding to the output position after the change.
  • the output control unit 108 may gradually reduce the size of the frame 62 within the predetermined time limit to the display size of the content 60 after the change.
  • the output control unit 108 returns the output setting of the corresponding content thereafter to the output setting before the change. obtain.
  • the output control unit 108 sets the same video as the content after the change of the output setting as the transition video 64 on the projection plane 30 corresponding to the output position after the change.
  • the display mode of the transition video 64 may be continuously changed within the predetermined time limit.
  • the output control unit 108 may continuously shake the transition video 64 within the predetermined time limit, continuously change the size of the transition video 64, or perform the corresponding projection.
  • the projection position of the transition image 64 may be continuously changed on the surface 30.
  • the output control unit 108 returns the output setting of the corresponding content thereafter to the output setting before the change. obtain.
  • the output control unit 108 uses the content 60 after the change of the output setting and the indicator 66 indicating the elapsed time of the predetermined time limit as the transition video, You may make the output part 202 project on the projection surface 30 corresponding to the output position after a change.
  • the output control unit 108 may cause the output unit 202 to project the indicator 66 in the vicinity of the content 60 after the output setting is changed.
  • the output control part 108 may change the display mode of the indicator 66 gradually according to progress of time.
  • the indicator 66 may include, for example, a gauge indicating the elapsed time of the predetermined time limit, or the remaining time of the predetermined time limit (or A character string indicating the elapsed time) may be included.
  • the user can know the length of the remaining time during which the output setting of the corresponding content can be restored.
  • the output control unit 108 returns the output setting of the corresponding content thereafter to the output setting before the change. obtain.
  • the output control unit 108 displays the display mode (for example, color tone, ⁇ value, degree of glow, or blurring) within the predetermined time limit.
  • the transition unit 68 may be output to the output unit 202 at the output position after the change.
  • the output control unit 108 may continuously change the display mode of the transition video 68, for example, by fading in the transition video 68 within the predetermined time limit.
  • the output control unit 108 returns the output setting of the corresponding content thereafter to the output setting before the change. obtain.
  • the output control unit 108 may display only the non-projectable region of the entire predetermined transition video on, for example, another display device carried by the user.
  • the output control unit 108 may change the shape and size of the predetermined transition video so that the entire predetermined transition video can be displayed on the corresponding projection plane.
  • the output control unit 108 causes the output unit 202 capable of outputting audio to output audio (for example, TTS) for notifying an image in an unprojectable region of the entire predetermined transition video. Also good.
  • the output control unit 108 when the number of users in the house 2 (or the number of users viewing the content being output) is equal to or greater than a predetermined threshold, the output control unit 108 is configured as described above. Without performing the output control of the information indicating the output position after the change of the corresponding content (control example 2) and / or the display control of the predetermined transition video (control example 3) described above, The output setting may be immediately switched to the changed output setting. The output control unit 108 may exceptionally perform these controls (“control example 2” and / or “control example 3”) for highly urgent information.
  • FIG. 23 is a flowchart showing a part of an example of the overall flow of processing according to the third embodiment. Note that S301 to S311 shown in FIG. 23 can be the same as S101 to S111 according to the first embodiment shown in FIG.
  • the determination unit 106 determines whether a change in the position or orientation of the corresponding user has been detected after S313 based on the recognition result by the behavior recognition unit 102 ( S321). When a change in the position or posture of the corresponding user is detected (S321: Yes), the determination unit 106 determines the frequency of the change in the position or posture of the user based on the recognition result by the behavior recognition unit 102. Is determined (S323). If it is determined that the frequency of change of the user's position or posture is “steady”, the output control unit 108 performs the process of S331 described later.
  • the output control unit 108 stops the output of the content by the output unit 202 that is outputting the content, and
  • the content may be output to another device (for example, a wearable device worn by the user or a display device (such as a smartphone) carried by the user).
  • the output control unit 108 may stop the output of the content by the output unit 202 that is outputting the content and output the information corresponding to the content using another output method.
  • Good for example, audio output instead of display).
  • the output control unit 108 repeats the processes in and after S305 again.
  • the output control unit 108 determines the predetermined transition video for accepting the cancellation in the most recent S307. Then, the output unit 202 is projected onto the display position after the change of the corresponding content (S325).
  • the output control unit 108 determines whether or not the user's rejection information has been acquired by the input unit 200 (S327).
  • the output control unit 108 searches for the display position of the corresponding content in the latest S305. The display position is changed (S329). Thereafter, the output control unit 108 performs the process of S333. Note that the processing of S333 is substantially the same as S117 shown in FIG.
  • the output control unit 108 does not change the display position of the content, or It is determined to return to the previous display position (S331). Thereafter, the output control unit 108 performs the process of S333 described above.
  • the information processing apparatus 10 includes a CPU 150, a ROM (Read Only Memory) 152, a RAM (Random Access Memory) 154, a bus 156, an interface 158, an input device 160, an output device 162, a storage device 164, And the communication apparatus 166 is provided.
  • the CPU 150 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 10 according to various programs. Further, the CPU 150 realizes the function of the control unit 100 in the information processing apparatus 10.
  • the CPU 150 is configured by a processor such as a microprocessor.
  • the ROM 152 stores programs used by the CPU 150 and control data such as calculation parameters.
  • the RAM 154 temporarily stores, for example, a program executed by the CPU 150 and data in use.
  • the bus 156 includes a CPU bus and the like.
  • the bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to each other.
  • the interface 158 connects the input device 160, the output device 162, the storage device 164, and the communication device 166 with the bus 156.
  • the input device 160 includes, for example, input means for a user to input information such as a touch panel, buttons, switches, levers, and microphones, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 150. Composed.
  • the output device 162 includes, for example, a display such as an LCD or an OLED, or a display device such as a projector.
  • the output device 162 includes an audio output device such as a speaker.
  • the storage device 164 is a data storage device that functions as the storage unit 122.
  • the storage device 164 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded on the storage medium.
  • the communication device 166 is a communication interface configured by a communication device (for example, a network card) for connecting to the predetermined communication network described above.
  • the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication.
  • the communication device 166 functions as the communication unit 120.
  • each step in the processing flow according to each embodiment described above does not necessarily have to be processed in the order described.
  • the steps may be processed by changing the order as appropriate.
  • Each step may be processed in parallel or individually instead of being processed in time series. Further, some of the described steps may be omitted, or another step may be further added.
  • a computer for causing hardware such as a CPU, a ROM, and a RAM to perform the same functions as the components included in the information processing apparatus 10 according to each of the above-described embodiments.
  • Programs can also be provided.
  • a recording medium on which the computer program is recorded is also provided.
  • the following configurations also belong to the technical scope of the present disclosure.
  • the first viewing environment related to the content at the first timing when the content is output is the same as the second viewing environment related to the content at the second timing after the first timing. If there is, the output setting of the content by the output unit after the second timing is changed based on whether or not it is determined based on the information of the user who was viewing the content at the first timing.
  • An information processing apparatus comprising: (2) A first recognition unit for recognizing an action started after the first timing by the user; The information processing apparatus according to (1), wherein the user information includes a recognition result of the user's action by the first recognition unit between the first timing and the second timing.
  • the user information indicates that the user has moved from a first location corresponding to the first viewing environment to a second location between the first timing and the second timing. Indicates whether or not it has been recognized by The output control unit determines that the first viewing environment and the second viewing environment are the same based on information indicating a relationship between the first location and the second location.
  • the user information indicates that the user's posture has changed from the first posture to the second posture at the first timing between the first timing and the second timing.
  • the output control unit determines that the first viewing environment and the second viewing environment are the same based on information indicating a relationship between the first posture and the second posture.
  • the information processing apparatus according to (2) or (3) wherein an output setting of the content after the second timing is changed based on whether or not it has been performed.
  • the user information indicates that a predetermined object in a first location corresponding to the first viewing environment corresponds to the predetermined object between the first timing and the second timing.
  • the information processing apparatus according to any one of (1) to (4), including a detection result indicating whether or not the user has moved outside the area.
  • a second recognizing unit for recognizing a change in the state of the first place corresponding to the first viewing environment When the first viewing environment and the second viewing environment are the same, the output control unit is further configured by the second recognition unit between the first timing and the second timing. The content output setting after the second timing is changed based on whether or not the determination is made based on the recognized degree of change in the state of the first place.
  • the output setting of the content includes an output position of the content in real space, a display size of the content, a luminance of the content, a contrast of the content, and an output unit that outputs the content among one or more output units
  • the information processing apparatus according to any one of (3) to (7), including at least one of the identification information.
  • the output control unit sets the output setting of the content after the second timing to the second
  • the information processing apparatus according to (8) wherein the information processing apparatus is changed according to a viewing environment.
  • the output setting of the content includes an output position of the content in real space, When it is determined that the first viewing environment and the second viewing environment are not the same, the output control unit sets the output position of the content after the second timing to the second location.
  • the information processing apparatus according to (9) or (10), wherein a predetermined position is determined.
  • the first location and the second location are located within a predetermined facility;
  • the output unit is a projection unit configured to be able to change at least one of position and orientation based on control by the output control unit,
  • the content includes video, When it is determined that the first viewing environment and the second viewing environment are not the same, the output control unit is configured to project the content in the first location at the first timing.
  • the information processing apparatus wherein the projection position of the content is continuously changed by the projection unit to a predetermined position in the second place.
  • the information processing apparatus according to any one of (9) to (12), wherein an output setting of the content after the second timing is changed.
  • the output setting of the content includes an output position of the content in real space, When it is determined that the first viewing environment and the second viewing environment are not the same, the output control unit determines that the content after the change is within a predetermined time after the second timing.
  • the information processing apparatus includes video,
  • the information indicating the output position of the content after the change is a predetermined video corresponding to the content, the display mode being different from the content,
  • the output control unit displays the predetermined video of the changed content within the predetermined time.
  • the information processing apparatus according to (14), wherein the output unit outputs the information to an output position.
  • the information processing apparatus according to any one of (9) to (15), wherein the first place and the second place are located in a predetermined facility.
  • the output unit is a projection unit configured to be able to change at least one of position and orientation based on control by the output control unit,
  • the information processing apparatus according to (16), wherein the content includes a video.
  • the first viewing environment related to the content at the first timing when the content is output is the same as the second viewing environment related to the content at the second timing after the first timing.
  • the processor sets the output of the content by the output unit after the second timing. Changing the Including an information processing method. (20) Computer The first viewing environment related to the content at the first timing when the content is output is the same as the second viewing environment related to the content at the second timing after the first timing. If there is, the output setting of the content by the output unit after the second timing is changed based on whether or not it is determined based on the information of the user who was viewing the content at the first timing.
  • Output controller A computer-readable recording medium in which a program for functioning as a computer is recorded.
  • control unit 102 action recognition unit 104 environment recognition unit 106 determination unit 108 output control unit 120 communication unit 122 storage unit 200 input unit 202 output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Ecology (AREA)
  • Remote Sensing (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツの出力中に、当該コンテンツに関連する視聴環境の変化に適応的に当該コンテンツの出力設定を変更することが可能な、情報処理装置、情報処理方法、および、記録媒体を提案する。 【解決手段】コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、および、記録媒体
 本開示は、情報処理装置、情報処理方法、および、記録媒体に関する。
 従来、例えばプロジェクタなどの、コンテンツの出力位置をユーザーが変更可能な出力装置が各種開発されている。
 例えば、下記特許文献1には、投射領域内における複数箇所の距離情報もしくは合焦情報を取得し、そして、当該投射領域内における投射可能領域を、これらの情報の取得結果から解析する技術が記載されている。
特開2015-145894号公報
 しかしながら、特許文献1に記載の技術では、コンテンツの出力中に、当該コンテンツに関連する視聴環境の変化に適応的に当該コンテンツの出力設定を適切に変更することは考慮されていなかった。
 そこで、本開示では、コンテンツの出力中に、当該コンテンツに関連する視聴環境の変化に適応的に当該コンテンツの出力設定を変更することが可能な、新規かつ改良された情報処理装置、情報処理方法、および、記録媒体を提案する。
 本開示によれば、コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、を備える、情報処理装置が提供される。
 また、本開示によれば、コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、プロセッサが、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更すること、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
 以上説明したように本開示によれば、コンテンツの出力中に、当該コンテンツに関連する視聴環境の変化に適応的に当該コンテンツの出力設定を変更することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の各実施形態に係る家2のレイアウトの例を示した図である。 本開示の各実施形態に係る部屋4の内部の様子を概略的に示した図である。 本開示の第1の実施形態に係る情報処理装置10の機能構成の一例を示したブロック図である。 第1の実施形態に係る判断部106による、ユーザーの移動前後の部屋4の組み合わせごとの当該ユーザーの移動の判断例を示した図である。 第1の実施形態に係る判断部106による、ユーザーの姿勢の変化の組み合わせごとの当該ユーザーの姿勢の変化の判断例を示した図である。 第1の実施形態に係る、第1の視聴環境に対応する部屋4内でユーザー6がコンテンツ20を視聴している様子を示した図である。 図6Aに示したタイミングの後に、ユーザー6が部屋4から一時的に退出している間におけるコンテンツ20の表示態様の変更例を示した図である。 第1の実施形態に係る処理の全体的な流れの一例を示したフローチャートである。 図7に示したS109の詳細な処理の流れを示したフローチャートである。 第2の実施形態の課題を説明するための図である。 第2の実施形態の課題を説明するための図である。 第2の実施形態の課題を説明するための図である。 第2の実施形態に係る、投影面30上に設定された判断用領域32の例を示した図である。 第2の実施形態に係る判断部106による、物体が有する属性ごとの、当該物体の移動が「一時的な行動」と「永続的な行動」とのいずれであるかに関する判断例を示した図である。 第2の実施形態に係る判断部106による、視認性の低下の要因ごとの、当該視認性の低下が「一時的な行動」と「永続的な行動」とのいずれであるかに関する判断例を示した図である。 第2の実施形態に係る、S109の詳細な処理の流れの一部を示したフローチャートである。 第2の実施形態に係る、S109の詳細な処理の流れの一部を示したフローチャートである。 第2の実施形態に係る、ユーザーによる指示入力に基づいた、第2のタイミング以後のコンテンツの出力設定の変更例を説明するための図である。 第2の実施形態に係る、ユーザーによる指示入力に基づいた、第2のタイミング以後のコンテンツの出力設定の変更例を説明するための図である。 第2の実施形態に係る、ユーザーによる指示入力に基づいた、第2のタイミング以後のコンテンツの出力設定の変更例を説明するための図である。 投影面30上にコンテンツ20が投影されている例を示した図である。 図16に示したタイミングの後の、コンテンツ20に関する変更後の出力位置を示す情報の表示例を示した図である。 図16に示したタイミングの後の、コンテンツ20に関する変更後の出力位置を示す情報の別の表示例を示した図である。 第3の実施形態に係る、コンテンツの出力設定の最終的な変更前における遷移映像の表示例を示した図である。 第3の実施形態に係る、コンテンツの出力設定の最終的な変更前における遷移映像の別の表示例を示した図である。 第3の実施形態に係る、コンテンツの出力設定の最終的な変更前における遷移映像の別の表示例を示した図である。 第3の実施形態に係る、コンテンツの出力設定の最終的な変更前における遷移映像の別の表示例を示した図である。 第3の実施形態に係る処理の流れの一部を示したフローチャートである。 第3の実施形態に係る処理の流れの一部を示したフローチャートである。 本開示の各実施形態に係る情報処理装置10のハードウェア構成の例を示した図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成要素を、必要に応じて入力部200aおよび入力部200bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、入力部200aおよび入力部200bを特に区別する必要が無い場合には、単に入力部200と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.概要
 2.第1の実施形態
 3.第2の実施形態
 4.第3の実施形態
 5.ハードウェア構成
 6.変形例
<<1.概要>>
 本開示は、一例として「2.第1の実施形態」~「4.第3の実施形態」において詳細に説明するように、多様な形態で実施され得る。まず、本開示の各実施形態の概要について説明する。
 <1-1.システム構成>
 各実施形態では、所定の空間(例えば、所定の施設)内の任意の位置にコンテンツを出力可能なシステムが構成されていることを想定する。ここで、所定の施設は、例えば、家2(居住空間)、ビルディング、アミューズメントパーク、駅、または、空港などであってよい。以下では、当該所定の施設が家2である例を中心として説明する。
 例えば、図1に示したように、家2の中には、複数の部屋4が設けられている。ここで、部屋4は、本開示に係る第1の場所および第2の場所の一例である。
 また、図2に示したように、各実施形態では、少なくとも一つの部屋4内に、一以上のユーザー6が位置する場面を想定する。また、図2に示したように、個々の部屋4内には、後述する入力部200が一以上配置され得る。さらに、個々の部屋4内には、後述する出力部202が一以上、さらに配置されていてもよい。
 {1-1-1.入力部200}
 入力部200は、本開示に係る取得部の一例である。入力部200は、例えば、RGBカメラ、距離センサ(例えば2次元ToF(Time Of Flight)センサ、または、ステレオカメラなど)、LIDAR(LIght Detection And Ranging)、サーモセンサ、および/または、音声入力装置(マイクロフォンなど)を有してもよい。また、入力部200は、所定の入力デバイス(例えば、キーボード、マウス、ジョイスティック、または、タッチパネルなど)を有してもよい。
 入力部200が有するこれらのセンサの全てが、環境(具体的には個々の部屋2)内に配置されていてもよい。または、これらのセンサのうちの一部は、一以上のユーザーが携帯(例えば装着)していてもよい。例えば、ユーザーが例えば発信機または赤外光照射デバイスを携帯していてもよいし、または、ユーザーが再帰性反射材などを装着していてもよい。
 この入力部200は、ユーザーに関連する情報、および/または、環境に関連する情報を入力(または取得)する。ここで、ユーザーに関連する情報は、例えば、家2の中に位置するユーザーごとに定義され得る。当該ユーザーに関連する情報は、該当のユーザーに関する例えば、位置、姿勢、視界、視線方向、および/または、顔の向きなどのセンシング結果を含み得る。また、環境に関連する情報は、例えば、部屋4ごとに定義され得る。当該環境に関連する情報は、例えば、後述する投影部(出力部202の一例)の投影対象の面(以下では、投影面と称する場合がある)の形状、投影面の凹凸、投影面の色、該当の部屋4内の障害物や遮蔽物の有無、および/または、該当の部屋4の照度情報などのセンシング結果を含み得る。
 なお、当該環境に関連する情報は、入力部200に含まれる各種のセンサのセンシングにより予め取得されていてもよい。この場合、当該環境に関連する情報は、必ずしもリアルタイムに取得されなくてもよい。
 {1-1-2.出力部202}
 出力部202は、後述する出力制御部108の制御に従って各種の情報(映像や音など)を出力する。出力部202は、表示部を有し得る。当該表示部は、出力制御部108の制御に従って映像を表示(投影など)する。
 この表示部は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)など)、または、プロジェクタなどを含んで構成される。例えば、当該表示部は、位置および姿勢のうちの少なくとも一つを、後述する出力制御部108の制御に従って変更可能なように構成された(駆動型の)投影部(例えば、駆動型プロジェクタ)であってもよい。この駆動型の投影部は、例えば、家2内で位置を変更しながら、家2内の任意の位置に対して映像を投影可能であり得る。当該駆動型の投影部は、駆動用モータを有し得る。
 さらに、出力部202は、音声出力部を有し得る。当該音声出力部は、例えばスピーカ、イヤフォン、または、ヘッドフォンなどを含んで構成される。当該音声出力部は、出力制御部108の制御に従って音(音声や音楽など)を出力する。
 家2内に位置する全ての出力部202は、家2内に固定されていてもよいし、または、少なくとも一つの出力部202は、ユーザーが携帯していてもよい。後者の出力部202の例としては、スマートフォンなどの携帯電話、タブレット型端末、携帯型音楽プレーヤー、および、ウェアラブルデバイス(例えば、アイウェア(AR(Augmented Reality)グラスやHMD(Head Mounted Display)など)、スマートウォッチ、ヘッドフォン、または、イヤフォンなど)が挙げられる。
 {1-1-3.情報処理装置10}
 情報処理装置10は、出力部202によるコンテンツの出力を制御可能な装置であり得る。例えば、情報処理装置10は、入力部200が取得した情報(例えばセンシング結果など)の解析を行い、そして、この解析結果に基づいて各種の処理(例えば、出力対象の情報の決定、家2内の複数の出力部202のうちの該当の情報を出力する出力部202の選定、および、該当の出力部202のパラメータの決定など)行う。一例として、入力部200が取得した情報の解析時には、情報処理装置10は、例えばプロジェクタなどの投影部(出力部202の一例)と投影面との3次元の位置関係を特定し、そして、当該投影面に投影される映像をユーザーがどのように認識し得るかなどを、特定した位置関係に基づいて解析してもよい。
 この情報処理装置10は、例えば、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、例えばHMD(Head Mounted Display)やスマートウォッチなどのウェアラブルデバイス、車載装置(カーナビゲーション装置など)、または、ロボット(例えばヒューマノイドロボット、ペット型ロボット、または、ドローンなど)であってもよい。
 図2に示したように、情報処理装置10は、ある部屋4の中に配置されていてもよい。この場合、情報処理装置10は、個々の入力部200および個々の出力部202と有線または無線により通信可能に構成され得る。
 あるいは、情報処理装置10は、家2の外部に配置されていてもよい。この場合、情報処理装置10は、家2内の個々の入力部200および個々の出力部202と所定の通信網を介して通信可能であってもよい。当該所定の通信網は、例えば、電話回線網やインターネットなどの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。
 <1-2.課題の整理>
 以上、各実施形態の概要について説明した。ところで、例えば駆動型プロジェクタを用いることにより、環境の変化やユーザーの動きに応じて、投影対象の映像の表示位置を変化させる方法(以下、第1の方法と称する)が考えらえる。
 しかしながら、当該第1の方法では、例えばユーザーの一時的な移動やユーザーが一時的に手に取った物体の移動が行われる度に、システムがこれらの変化に反応し得るので、ユーザーの体験が損なわれる恐れがある。この問題を改善するために、環境の変化やユーザーの動きの検出時間を長くすることにより応答性を悪くする方法(以下、第2の方法と称する)も考えられる。しかしながら、当該第2の方法では、応答性が悪化した分だけシステムの挙動も遅くなってしまう。
 そこで、上記事情を一着眼点にして、各実施形態に係る情報処理装置10を創作するに至った。各実施形態に係る情報処理装置10は、コンテンツが出力されている第1のタイミングにおける当該コンテンツに関連する第1の視聴環境と、当該第1のタイミングの後の第2のタイミングにおける当該コンテンツに関連する第2の視聴環境とが同一であると所定の基準に基づいて判断されたか否かに基づいて、当該第2のタイミング以後の、出力部202による当該コンテンツの出力設定を変更する。このため、例えば、環境の変化やユーザーの動きに適応的に、コンテンツの出力設定を適切に変更することができる。その結果、ユーザーの体験が損なわれることを回避することができる。
 各実施形態において、視聴環境は、一以上のユーザーが何らかのコンテンツを視聴中の環境(または空間)であり得る。例えば、あるコンテンツに関連する視聴環境は、一以上のユーザーが該当のコンテンツを視聴中の環境(または空間)であり得る。以下、各実施形態の内容について順次詳細に説明する。
<<2.第1の実施形態>>
 <2-1.構成>
 まず、本開示に係る第1の実施形態について説明する。最初に、第1の実施形態に係る構成について説明する。図3は、第1の実施形態に係る情報処理装置10の機能構成例を示したブロック図である。図3に示したように、情報処理装置10は、制御部100、通信部120、および、記憶部122を有する。
 {2-1-1.制御部100}
 制御部100は、例えば、後述するCPU(Central Processing Unit)150やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部100は、情報処理装置10の動作を統括的に制御し得る。また、図3に示したように、制御部100は、行動認識部102、環境認識部104、判断部106、および、出力制御部108を有する。
 {2-1-2.行動認識部102}
 行動認識部102は、本開示に係る第1の認識部の一例である。行動認識部102は、出力部202による出力中のコンテンツを視聴中のユーザーの行動(例えば、位置の変化や姿勢の変化など)を、一以上の入力部200が取得した情報に基づいて認識する。
 例えば、行動認識部102は、該当のユーザーが該当のコンテンツを視聴していた第1の場所(例えば、ある部屋4a)から第2の場所(例えば、別の部屋4b)へ移動したことを、一以上の入力部200が取得した情報に基づいて認識する。また、行動認識部102は、ある場所(例えば、ある部屋4a)内でユーザーが該当のコンテンツを視聴中に、当該ユーザーの姿勢が第1の姿勢から第2の姿勢へ変化したことを、一以上の入力部200が取得した情報に基づいて認識する。
 {2-1-3.環境認識部104}
 環境認識部104は、本開示に係る第2の認識部の一例である。環境認識部104は、出力部202による出力中のコンテンツを視聴中のユーザーが位置する場所(例えば部屋4)の状態の変化を、一以上の入力部200が取得した情報に基づいて認識する。例えば、環境認識部104は、該当の部屋4内の日光の入射量の変化、または、該当の部屋4内の一以上のライトの点灯度合いの変化(例えば、電源がONであるライトの個数の変化など)を、一以上の入力部200が取得した情報に基づいて認識する。
 {2-1-4.判断部106}
 判断部106は、第1の視聴環境と第2の視聴環境とが同一であるか否かを所定の基準に基づいて判断する。ここで、当該所定の基準は、当該第1の視聴環境に対応するタイミング(第1のタイミング)において該当のコンテンツを視聴していたユーザーの情報を含み得る。一例として、当該ユーザーの情報は、当該第1のタイミングと、当該第2の視聴環境に対応するタイミング(第2のタイミング)との間における、行動認識部102による該当のユーザーの行動の認識結果を含み得る。例えば、判断部106は、まず、当該第1のタイミングと当該第2のタイミングとの間に該当のユーザーが行ったと認識された行動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。一例として、当該第1のタイミングと当該第2のタイミングとの間に、該当のユーザーの位置の変化および/または姿勢の変化を伴う行動が行われた場合において、判断部106は、当該行動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。例えば、判断部106は、該当のユーザーの位置の変化の度合いと該当のユーザーの姿勢の変化の度合いとの組み合わせに基づいて、該当のユーザーの行動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断してもよい。または、判断部106は、該当のユーザーの行動が「永続的な行動」と「一時的な行動」とのいずれかであるかに関して、該当のユーザーの位置の変化の度合いに基づく判断と、該当のユーザーの姿勢の変化の度合いに基づく判断とを順々に行ってもよい。
 そして、該当のユーザーの行動が「一時的な行動」であると判断した場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。また、該当のユーザーの行動が「永続的な行動」であると判断した場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 ここで、「一時的な行動」は、第1のタイミングにおける該当のユーザーの位置および/または姿勢が一旦変化し、その後、当該第2のタイミングまでに、該当のユーザーの位置および/または姿勢が当該第1のタイミングにおける位置および/または姿勢に戻ると判断されるような行動であり得る。つまり、「一時的な行動」の後では、該当のユーザーは、当該第1のタイミングと同様の位置および/または姿勢で、該当のコンテンツの視聴を継続し得る。また、「永続的な行動」は、第1のタイミングにおける該当のユーザーの位置および/または姿勢が変化し、その後、当該第2のタイミングまでに、該当のユーザーの位置および/または姿勢が当該第1のタイミングにおける位置および/または姿勢に戻らないと判断されるような行動であり得る。
 (2-1-4-1.所定の基準1:位置の変化)
 以下では、上記の「所定の基準」に関して、より具体的に説明する。例えば、当該所定の基準は、当該第1のタイミングと当該第2のタイミングとの間に該当のユーザーが当該第1の視聴環境に対応する第1の場所(例えば、ある部屋4a)から第2の場所(例えば、別の部屋4b)へ移動したことが行動認識部102により認識されたか否か、および、当該第1の場所と当該第2の場所との関係性を示す情報を含む。例えば、当該第1のタイミングと当該第2のタイミングとの間に該当のユーザーが、ある部屋4aから別の部屋4bへ移動したことが認識された場合には、判断部106は、まず、当該第1の場所と当該第2の場所との関係性を示す情報に基づいて、当該移動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。そして、判断部106は、当該判断結果に基づいて、当該第1の視聴環境と当該第2の視聴環境とが同一であるか否かを判断する。なお、当該第1の場所と当該第2の場所との関係性を示す情報は、後述する記憶部122に予め記憶されていてもよい。
 ここで、図4を参照して、上記の内容についてより詳細に説明する。図4は、該当のユーザーの移動前の部屋4aおよび移動後の部屋4bの組み合わせごとの、当該ユーザーの移動が「永続的な行動」と「一時的な行動」とのいずれかであるかに関する判断例を示した図である。図4に示した表では、縦軸が、移動前の部屋4aの種類を示しており、また、横軸が、移動後の部屋4bの種類を示している。図4に示した例において、該当のユーザーの移動前の部屋4aが「リビング」であり、かつ、当該ユーザーの移動後の部屋4bが「キッチン」である場合には、判断部106は、該当のユーザーの移動を「永続的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 また、該当のユーザーの移動前の部屋4aが「リビング」であり、かつ、当該ユーザーの移動後の部屋4bが「トイレ」である場合には、判断部106は、該当のユーザーの移動を「一時的な行動」であると判断する。この場合、例えば、当該移動後に、当該第2のタイミングまで該当のユーザーが「トイレ」内に位置し続けた場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。
 なお、図4に示した表(判断表)は以下のような方法で生成されてもよい。例えば、予め特定済みの、所定の環境における人間の特性に基づいてテンプレートが生成され、そして、当該テンプレートに応じて、当該判断表が自動的に、または、手動で生成されてもよい。また、当該判断表内の個々の判断内容(設定値)は、その都度のユーザーの状況に応じて自動的に補正されてもよい。また、当該判断表内の個々の判断内容は、ユーザーが明示的に(手動で)変更してもよい。
 ‐変形例
 なお、当該第1のタイミングと当該第2のタイミングとの間に該当のユーザーが、3以上の部屋4を移動することも想定される。そこで、このような場合、判断部106は、個々の部屋4間の移動時において、移動前の部屋4aと移動後の部屋4bとの関係性を例えば図4に示した表を用いて逐次判断し、そして、最初の部屋4aから最後の部屋4bまでの間に少なくとも一回「永続的な」部屋4に到着したと判断された場合には、該当のユーザーの全体の移動を「永続的な行動」であると判断してもよい。例えば、図4に示した例において、ユーザーが「リビング」→「トイレ」→「キッチン」→「リビング」と移動した場合には、判断部106は、「トイレ」から「キッチン」への移動が「永続的な行動」であると図4に示した表を用いて判断し、そして、当該ユーザーの全体の移動を「永続的な行動」であると判断してもよい。
 (2-1-4-2.所定の基準2:姿勢の変化)
 また、当該所定の基準は、当該第1のタイミングと当該第2のタイミングとの間に、同じ場所(例えば、同じ部屋4)内で、該当のユーザーの姿勢が当該第1のタイミングにおける第1の姿勢から第2の姿勢へ変化したことが行動認識部102により認識されたか否か、および、当該第1の姿勢と当該第2の姿勢との関係性を示す情報をさらに含み得る。例えば、当該第1のタイミングと当該第2のタイミングとの間に、ある部屋4内で、該当のユーザーの姿勢が第1の姿勢から第2の姿勢へ変化したことが認識された場合には、判断部106は、まず、当該第1の姿勢と当該第2の姿勢との関係性を示す情報に基づいて、当該姿勢の変化が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。そして、判断部106は、当該判断結果に基づいて、当該第1の視聴環境と当該第2の視聴環境とが同一であるか否かを判断する。ここで、当該第1の姿勢および当該第2の姿勢はそれぞれ、例えば、座位、臥位、または、立位のいずれかであってもよい。また、当該第1の姿勢と当該第2の姿勢との関係性を示す情報は、後述する記憶部122に予め記憶されていてもよい。
 ここで、図5を参照して、上記の内容についてより詳細に説明する。図5は、第1の姿勢(換言すれば、変化前の姿勢)と第2の姿勢(換言すれば、変化後の姿勢)との組み合わせごとの、当該組み合わせに対応するユーザーの行動が「永続的な行動」と「一時的な行動」とのいずれかであるかに関する判断例を示した図である。図5に示した表では、縦軸が、第1の姿勢の種類を示しており、また、横軸が、第2の姿勢の種類を示している。図5に示した例において、該当のユーザーの第1の姿勢が「立位」であり、かつ、当該ユーザーの第2の姿勢が「臥位」である場合には、判断部106は、該当のユーザーの行動(姿勢の変化)を「永続的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 また、該当のユーザーの第1の姿勢が「立位」であり、かつ、当該ユーザーの第2の姿勢が「座位」である場合には、判断部106は、該当のユーザーの行動を「一時的な行動」であると判断する。この場合、例えば、当該行動後に、当該第2のタイミングまで該当のユーザーの姿勢が「座位」のままであった場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。
 ‐変形例
 変形例として、判断部106は、当該第1の姿勢と当該第2の姿勢との組み合わせが同一であっても、該当の組み合わせに対応する行動が「永続的な行動」と「一時的な行動」とのいずれであるかに関する判断結果を、該当のユーザーが位置する部屋4の種類に応じて異ならせてもよい。例えば、ユーザーが「リビング」に位置する場合において、当該ユーザーの姿勢が「立位」から「座位」に変化したことが認識された場合には、判断部106は、(図5に示した表とは異なり)当該姿勢の変化を「永続的な行動」であると判断してもよい。一方、ユーザーが「リビング」に位置する場合において、当該ユーザーの姿勢が「座位」から「立位」に変化したことが認識された場合には、判断部106は、(図5に示した表と同様に)当該姿勢の変化を「一時的な行動」であると判断してもよい。
 {2-1-5.出力制御部108}
 出力制御部108は、一以上の出力部202に対する情報(コンテンツなど)の出力を制御する。例えば、出力制御部108は、まず、判断部106による判断結果に基づいて、上記の第2のタイミング以後の、少なくとも一つの出力部202による該当のコンテンツの出力設定を変更する。そして、出力制御部108は、変更後の出力設定で該当のコンテンツを、少なくとも一つの出力部202に出力させる。ここで、当該コンテンツの出力設定は、家2内の該当のコンテンツの出力位置、該当のコンテンツの表示サイズ、該当のコンテンツの輝度、および、該当のコンテンツのコントラストのうちの少なくとも一つを含んでもよい。または、当該コンテンツの出力設定は、家2内の全ての出力部202のうちの該当のコンテンツを出力させる出力部202の識別情報を含んでもよい。
 (2-1-5-1.出力設定の変更)
 以下では、出力制御部108による該当のコンテンツの出力設定の変更の内容に関して、より具体的に説明する。例えば、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断部106により判断された場合には、出力制御部108は、当該第2のタイミング以後の該当のコンテンツの出力設定を当該第2の視聴環境に応じて変更してもよい。一例として、このように判断された場合には、出力制御部108は、当該第2のタイミング以後の該当のコンテンツの出力位置を当該第2の場所(例えば、当該第2の視聴環境に対応する部屋4)内の所定の位置に決定してもよい。
 また、このように判断された場合で、かつ、該当のコンテンツを出力する出力部202が駆動型プロジェクタである場合には、出力制御部108は、当該第1のタイミングにおける当該第1の場所内の該当のコンテンツの投影位置から当該第2の場所内の所定の位置まで、当該コンテンツの投影位置を該当の駆動型プロジェクタに連続的に変化させてもよい。例えば、この場合、出力制御部108は、リアルタイムに検出されている該当のユーザーの視線の方向の検出結果を用いながら当該ユーザーの視線を誘導するように、当該第1の場所内の該当のコンテンツの投影位置から当該第2の場所内の所定の位置まで、当該コンテンツの投影位置を該当の駆動型プロジェクタに連続的に変化させてもよい。これらの制御例によれば、当該コンテンツの投影位置が別の位置に変更されることを該当のユーザーは容易に認識することができるので、当該ユーザーが当該コンテンツを見失うことを回避できる。
 また、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断部106により判断された場合には、出力制御部108は、該当のコンテンツの出力設定を変更しなくてもよい。
 ‐変形例
 変形例として、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断された場合で、かつ、ユーザーが行っている行動が「一時的な行動」であると判断部106により判断された場合には、出力制御部108は、当該第1の視聴環境において出力中のコンテンツの表示態様を変更してもよい。ここで、図6Aおよび図6Bを参照して、この変形例の内容についてより詳細に説明する。図6Aは、当該第1のタイミングにおいて、当該第1の視聴環境に対応する部屋4a(例えば「リビング」)内で、該当のユーザー6が該当のコンテンツ20を視聴している様子を示した図である。図6Aに示した例では、部屋4a内のテレビジョン受信機の近くの壁面にコンテンツ20が投影部202(出力部202)により投影されている。当該第1のタイミングと当該第2のタイミングとの間に、部屋4aから別の部屋4bへユーザー6が移動し、かつ、当該移動が「一時的な行動」であると判断部106により判断されたとする。この場合、例えば図6Bに示したように、当該移動中は、出力制御部108は、コンテンツ20の周囲の枠22が強調表示されるようにコンテンツ20の表示態様を変更してもよい(例えば、枠22の表示色を変更したり、枠22の表示サイズを拡大する等)。
 (2-1-5-2.変更後のコンテンツの出力)
 また、出力制御部108は、該当のコンテンツに関して出力設定を変更した際には、当該変更後の出力設定で該当のコンテンツを、少なくとも一つの出力部202に出力させる。例えば、この際、出力制御部108は、該当のコンテンツの出力設定を、変更前の出力設定から変更後の出力設定へと連続的に変化させる。一例として、出力制御部108は、当該第2のタイミング(または、その前後の所定の時間内)における該当のユーザーの位置の変化または姿勢の変化に応じて、変更前の出力設定(例えば変更前の出力位置など)から変更後の出力設定(例えば変更後の出力位置など)への遷移のスピードを変更してもよい。例えば、変更前の出力位置と変更後の出力位置との距離が短い場合には、出力制御部108は、変更前の出力位置から変更後の出力位置まで当該コンテンツがスライドするように、当該コンテンツを出力部202に出力させてもよい。また、変更前の出力位置と変更後の出力位置との距離が長い場合、または、当該ユーザーの位置の変化が大きい場合には、出力制御部108は、該当のコンテンツをスライドさせる代わりに、フェードなどの表現を利用しながら、当該コンテンツの出力位置を出力部202に連続的に変更させてもよい。
 {2-1-6.通信部120}
 通信部120は、後述する通信装置166を含んで構成され得る。通信部120は、個々の入力部200および個々の出力部202との間で有線通信および/または無線通信により情報の送受信を行う。例えば、通信部120は、個々の入力部200が取得した情報を個々の入力部200から受信し得る。また、通信部120は、出力制御部108の制御に従って、各種の情報を出力させるための制御情報を一以上の出力部202に送信し得る。
 {2-1-7.記憶部122}
 記憶部122は、後述するストレージ装置164を含んで構成され得る。記憶部122は、各種のデータや各種のソフトウェアを記憶する。例えば、記憶部122は、前述した、第1の場所と第2の場所との関係性を示す情報、および、第1の姿勢と第2の姿勢との関係性を示す情報などを記憶し得る。
 <2-2.処理の流れ>
 以上、第1の実施形態に係る構成について説明した。次に、第1の実施形態に係る処理の流れについて、図7および図8を参照して説明する。
 {2-2-1.全体的な流れ}
 図7は、第1の実施形態に係る処理の全体的な流れの一例を示したフローチャートである。図7に示したように、まず、出力制御部108は、例えば該当のユーザーの指示などに基づいて、当該ユーザーが位置する部屋4内で、出力対象のコンテンツの投影を出力部202に開始させる(S101)。なお、この際、家2内の一以上の入力部200は、常にセンシングを行うことにより、家2内の個々のユーザーに関連する情報、および、家2内の個々の部屋4の状態に関する情報(つまり、家2内の環境に関連する情報)を常に取得してもよい。
 その後、環境認識部104は、例えば該当の部屋4内の個々の入力部200によりセンシングされた情報に基づいて、該当の部屋4の状態が変化したか否かを認識する。同様に、行動認識部102は、例えば該当の部屋4内の個々の入力部200によりセンシングされた情報に基づいて、該当のユーザーが、位置または姿勢の変化を伴う行動を開始したか否かを認識する(S103)。
 該当の部屋4の状態が変化しておらず、かつ、位置または姿勢の変化を伴う行動を該当のユーザーが行っていないと認識された場合には(S103:No)、制御部100は、例えば所定の時間経過後に、再びS103の処理を繰り返す。
 一方、該当の部屋4の状態が変化したと認識された場合、または、位置または姿勢の変化を伴う行動を該当のユーザーが開始したと認識された場合には(S103:Yes)、出力制御部108は、例えば、環境認識部104による認識結果、および、行動認識部102による認識結果に基づいて、現在の該当のコンテンツの最適な表示位置を探索する(S105)。
 そして、S105において探索された表示位置が、該当のコンテンツの現在の表示位置と同一である場合には(S107:No)、出力制御部108は、後述するS115の処理を行う。
 一方、S105において探索された表示位置が、該当のコンテンツの現在の表示位置とは異なる場合には(S107:Yes)、判断部106は、後述する「当該変化の要因の分析」を行う(S109)。S109において判定された要因が「人に起因する一時的な要因」とは異なる場合には(S111:No)、出力制御部108は、該当のコンテンツの表示位置を、直近のS105で探索された表示位置に変更する(S113)。そして、出力制御部108は、後述するS117の処理を行う。
 ここで、「一時的」とは、該当のユーザーが位置する場所や該当のユーザーの姿勢がコンテンツの視聴を(支障なく)継続可能な上限時間内であることを意味し得る。ここで、当該上限時間の長さは、所定の長さの時間(5分など)であってもよい。または、当該上限時間の長さは、該当のコンテンツに応じて変更されてもよい。例えば、該当のコンテンツが長時間のコンテンツ(例えば映画など)である場合には、当該上限時間の長さは、通常よりも長く定められてもよい。また、該当のコンテンツが、リアルタイム性が要求されるコンテンツ(例えば生放送やテレビジョン番組など)である場合には、当該上限時間の長さは、例えば数秒など、通常よりも短く定められてもよい。または、当該上限時間の長さは、該当のユーザーに応じて最適な時間が設定されてもよい。
 一方、S109において判定された要因が「人に起因する一時的な要因」である場合には(S111:Yes)、出力制御部108は、該当のコンテンツの表示位置を変更しないことを決定する(S115)。その後、該当のコンテンツの表示を終了させるための条件が満たされた場合(例えば、ユーザーにより所定の入力がなされた場合など)には(S117:Yes)、出力制御部108は、当該コンテンツの出力を出力部202に終了させる。そして、当該処理の流れは終了する。
 一方、該当のコンテンツの表示を終了させるための条件が満たされていない場合には(S117:No)、制御部100は、再びS103以降の処理を繰り返す。
 (2-2-1-1.変形例)
 第1の実施形態に係る処理の全体的な流れは、前述した例に限定されない。例えば、S105の処理は、S103の条件が満たされた場合(つまり、該当の部屋4内で環境の変化、または、該当のユーザーの行動の変化が認識された場合)に実行される例に限定されない。変形例として、S105の処理は、S103の条件の代わりに、別の条件(例えば、該当のユーザーが所定の電子機器(例えばテレビジョン受信機など)の電源をONにしたこと、または、該当のユーザーが所定の部屋4内に入ったことなど)が満たされた場合に実行されてもよい。
 {2-2-2.コンテンツの表示位置の変化の要因の分析}
 図8は、上記のS109の詳細な処理の流れの一例を示したフローチャートである。図8に示したように、まず、判断部106は、該当のユーザーが該当のコンテンツを視聴中の部屋4aから別の部屋4bへ移動したことが、直近のS103において認識されたか否かを判定する(S151)。当該ユーザーが別の部屋4bへ移動したことが認識されていた場合には(S151:Yes)、判断部106は、移動前の部屋4aと移動後の部屋4bとの関係性に基づいて、当該移動が「一時的な行動」であるか否かを判断する(S155)。当該移動が「一時的な行動」であると判断した場合には(S155:Yes)、判断部106は、後述するS159の処理を行う。一方、当該移動が「一時的な行動」ではない(つまり、「永続的な行動」である)と判断した場合には(S155:No)、判断部106は、後述するS161の処理を行う。
 一方、当該ユーザーが別の部屋4bへ移動していないこと(つまり、同じ部屋4a内に居続けていること)が認識されていた場合には(S151:No)、判断部106は、直近のS103において該当のユーザーの姿勢の変化が認識されたか否かを判定する(S153)。該当のユーザーの姿勢が変化していないことが認識されていた場合には(S153:No)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が、人に起因する要因ではないと判断する(S157)。
 一方、該当のユーザーの姿勢が別の姿勢へ変化したことが認識されていた場合には(S153:Yes)、判断部106は、変化前の姿勢の種類と変化後の姿勢の種類との関係性に基づいて、該当の行動(姿勢の変化)が「一時的な行動」であるか否かを判断する(S155)。当該行動が「一時的な行動」であると判断した場合には(S155:Yes)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が「人に起因する一時的な要因」であると判断する(S159)。
 一方、当該行動が「一時的な行動」ではない(つまり、「永続的な行動」である)と判断した場合には(S155:No)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が「人に起因する永続的な要因」であると判断する(S161)。
 <2-3.効果>
 以上説明したように、第1の実施形態に係る情報処理装置10は、コンテンツが出力されている第1のタイミングにおける当該コンテンツに関連する第1の視聴環境と、当該第1のタイミングの後の第2のタイミングにおける当該コンテンツに関連する第2の視聴環境とが同一であると所定の基準に基づいて判断されたか否かに基づいて、当該第2のタイミング以後の、出力部202による当該コンテンツの出力設定を変更する。このため、例えば環境の変化やユーザーの動きに適応的にコンテンツの出力設定を適切に変更することができる。
 例えば、ユーザーの行動が「永続的な行動」であると判断された場合には、情報処理装置10は、該当のコンテンツの出力設定を当該第2の視聴環境に応じて変更する。また、ユーザーの行動が「一時的な行動」であると判断された場合には、情報処理装置10は、該当のコンテンツの出力設定を変更しない。このため、仮にユーザーが「一時的な行動」を行ったとしても、例えば該当のコンテンツの表示位置が変更されないので、ユーザーの体験が損なわれることを回避することができる。
 <2-4.変形例>
 {2-4-1.変形例1}
 第1の実施形態は、前述した例に限定されない。例えば、判断部106によるユーザーの行動の判断例は、前述した例に限定されない。例えば、ユーザーが移動を開始したことが認識され、かつ、当該ユーザーがそれまで居た部屋4内の全ての電源がOFFに変更された場合には、判断部106は、当該ユーザーの移動を「永続的な行動」と判断してもよい。
 または、第1の場所内でユーザーが直前まで使用していた機器の電源がOFFに切り替えられた場合、または、当該機器に関するシャットダウン操作が行われた場合には、判断部106は、これらの直後に行われるユーザーの移動を「永続的な行動」と判断してもよい。
 または、第1の場所内で出力中のコンテンツに関して出力位置の変更を望まないことを示す明示的な行動(例えば、当該コンテンツ上に何らかの物体を置くなど)が認識された場合には、判断部106は、当該第1のタイミングと当該第2のタイミングとの間の該当のユーザーの他の行動(例えば、別の部屋4aへ移動し、その後、元の部屋4bへ戻ることなど)によらずに、この間のユーザーの行動を「一時的な行動」であると判断してもよい。
 {2-4-2.変形例2}
 別の変形例として、該当のユーザーの行動が「一時的な行動」であると判断部106により判断された場合であっても、出力制御部108は、該当のユーザーが視聴中のコンテンツの出力設定(出力位置など)を変更してもよい。例えば、火(ガスコンロなど)や水が使用されていることにより該当のユーザー、または、家2内の一以上の物体に危害が及ぶことが想定される場合には、これらの使用中に行われた当該ユーザーの行動が「一時的な行動」であると判断部106により判断された場合であっても、出力制御部108は、当該ユーザーが視聴中のコンテンツの出力設定を別の出力設定に強制的に変更してもよい。
 {2-4-3.変形例3}
 別の変形例として、家2内に複数のユーザーがいる場合では、出力制御部108は、出力対象のコンテンツが当該複数のユーザーのうちの誰向けであるかに応じて、当該コンテンツの出力位置を決定してもよい。例えば、リビングにおいて映画を投影する場面では、出力制御部108は、当該リビングにおいて、より多くのユーザー(多数派のユーザー)が向いている方向に当該映画を出力部202に投影させてもよい。この場合、さらに、出力制御部108は、当該リビング内にいる、当該多数派のユーザー以外の個々のユーザーに関して、それぞれのユーザー用の表示機器(例えばそれぞれのユーザーが携帯している表示機器)に当該映画を、出力部202による投影と同時に表示させてもよい。
 {2-4-4.変形例4}
 別の変形例として、第1の例外条件が満たされる場合には、上記の第1の視聴環境と上記の第2の視聴環境とが同一ではないと判断部106により判断された場合であっても、出力制御部108は、当該第2のタイミング以後の該当のコンテンツの出力設定を変更しないこと(つまり、当初の出力設定のままで当該コンテンツの出力を継続させること)も可能である。ここで、当該第1の例外条件は、行動認識部102または環境認識部104による認識精度が所定の閾値以下である場合(例えば、該当のコンテンツの出力中の部屋4内に配置されているセンサの数が少ない場合など)であってもよい。または、当該第1の例外条件は、家2内に存在する出力部202の数に対して、家2内にいるユーザーの人数が多すぎる場合であってもよい。
 {2-4-5.変形例5}
 別の変形例として、該当のコンテンツが映像を含んでおり、かつ、第2の例外条件が満たされる場合には、出力制御部108は、当該映像の全体または一部を出力部202の出力対象外とし、かつ、この対象外の映像の内容を通知するための音声(例えばTTS(Text To Speech)など)を、同一または別の出力部202に出力させることも可能である。例えば、該当のユーザーの移動が「一時的な行動」であると判断部106により判断された場合には、出力制御部108は、当該映像(例えば、スポーツの中継映像など)の内容を通知するための音声を当該ユーザーの移動中に、当該ユーザーの近くに配置されている音声出力部、または、当該ユーザーが装着している音声出力部に出力させてもよい。
 または、当該第2の例外条件は、出力制御部108により決定された、該当の映像に関する変更後の出力位置に対して、当該映像を出力する投影部(出力部202の一例)が、当該映像のうちの少なくとも一部を投影不可能な場合を含み得る。この場合、出力制御部108は、当該映像の全体のうちの投影不可能な領域内の映像の内容を通知するための音声(例えばTTSなど)を、音声出力可能な出力部202に出力させてもよい。
 または、当該第2の例外条件は、出力制御部108により決定された、該当の映像に関する変更後の出力位置を含む投影面(または、表示面)のサイズが所定の閾値よりも小さい場合を含み得る。この場合、出力制御部108は、当該映像の内容(例えば、当該映像内に含まれている文章など)を通知するための音声を、音声出力可能な出力部202に出力させてもよい。
<<3.第2の実施形態>>
 <3-1.背景>
 以上、第1の実施形態について説明した。次に、本開示に係る第2の実施形態について説明する。まず、第2の実施形態を創作するに至った背景について説明する。例えば既存の技術では、仮にユーザーの位置および姿勢自体が変化しない場合であっても、ユーザーが使用中の物体の位置の変化に応じて、表示中のコンテンツの表示位置の変化が生じ得る。
 ここで、図9A~図9Cを参照して、上記の内容についてより詳細に説明する。例えば、図9Aに示したように、テーブルの投影面30上に障害物40(図9Aに示した例ではコーヒーカップ40)が配置されているとする。この場合、図9Aに示したように、コンテンツ20が障害物40と重ならないように、投影面30上にコンテンツ20が投影され得る。
 その後、ユーザーが障害物40を移動させた場合には、例えば図9Bに示した矢印のように、コンテンツ20と障害物40とが重ならないという条件の下で、情報処理装置10は、投影面30に投影中のコンテンツ20の投影サイズを拡大し得る。
 その後、例えば図9Cに示したように、現在投影中のコンテンツ20の投影領域内に、ユーザーが障害物40を再び戻そうとしたとする。この場合、情報処理装置10は、障害物40が戻された位置に応じて、投影中のコンテンツ20の投影サイズを再び変化させ得る。しかしながら、この方法では、ユーザーが障害物40を移動させる度に、コンテンツ20の投影サイズが変化することとなるので、挙動が不安定になり、また、視認性も低くなり得る。
 なお、ユーザーが障害物40を移動させた場合であっても、投影中のコンテンツ20の投影サイズを変更しない方法も考えられる。しかしながら、この方法では、障害物40上にもコンテンツ20が投影され得るので、コンテンツ20の視認性が低下し得る。特に、コーヒーカップのような物体は、ユーザーが頻繁に位置を移動させ得るので、上記の問題が頻繁に発生し得る。
 後述するように、第2の実施形態によれば、上記の第1のタイミングと上記の第2のタイミングとの間における、ユーザーによる物体の移動、または、第1の場所の状態の変化(環境の変化)に適応的に、当該第2のタイミング以後の、出力部202による当該コンテンツの出力設定を適切に変更することができる。
 <3-2.構成>
 次に、第2の実施形態に係る構成について説明する。第2の実施形態に係る情報処理装置10に含まれる各構成要素は、図3に示した例と同様である。以下では、第1の実施形態と異なる機能を有する構成要素についてのみ説明することとし、同一の内容については説明を省略する。
 {3-2-1.判断部106}
 第2の実施形態に係る判断部106は、(第1の実施形態と同様に)上記の第1の視聴環境と上記の第2の視聴環境とが同一であるか否かを所定の基準に基づいて判断する。
 (3-2-1-1.所定の基準1:各物体の位置の変化量)
 第2の実施形態に係る所定の基準は、上記の第1のタイミングと上記の第2のタイミングとの間において、当該第1の視聴環境に対応する第1の場所内の少なくとも一つの物体が、当該物体に対応する所定の領域外へユーザーにより移動されたか否かの検出結果を含む。例えば、当該第1のタイミングと当該第2のタイミングとの間に、当該第1の場所内の特定の投影面(例えば、該当のコンテンツを投影中の投影面)上に位置する少なくとも一つの物体をユーザーが移動させたことが検出された場合には、判断部106は、まず、当該物体に対応する所定の領域外まで当該物体が移動されたか否かに基づいて、該当のユーザーの行動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。そして、該当の行動が「一時的な行動」であると判断した場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。また、該当の行動が「永続的な行動」であると判断した場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 ここで、図10を参照して、上記の内容についてより詳細に説明する。図10に示した例では、テーブルの天面30が該当のコンテンツの投影面として定められている。また、図10に示したように、縦、横、高さの三方向に関して天面30から所定の距離だけ離れた位置において境界面がそれぞれ設けられ、かつ、これらの境界面によって囲まれた空間が判断用領域32として定められ得る。この場合、該当のユーザーが、天面30上に位置する少なくとも一つの物体を判断用領域32外まで移動させたことが認識された場合には、判断部106は、当該ユーザーの行動を「永続的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 また、該当のユーザーが、天面30上に位置する少なくとも一つの物体を判断用領域32内で移動させたことが認識された場合には、判断部106は、当該ユーザーの行動を「一時的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。
 (3-2-1-2.所定の基準2:所定の物体の位置の変化)
 また、第2の実施形態では、上記の所定の基準は、上記の第1のタイミングと上記の第2のタイミングとの間において、上記の第1の場所内の、所定の属性を有する物体がユーザーにより移動されたか否かの検出結果をさらに含んでもよい。例えば、当該第1のタイミングと当該第2のタイミングとの間に、当該第1の場所内の特定の投影面上に位置する、ある物体をユーザーが移動させたことが検出された場合には、判断部106は、まず、該当の物体が、所定の属性を有する物体であるか否かに基づいて、該当のユーザーの行動が「永続的な行動」であるか、もしくは、「一時的な行動」であるかを判断する。
 ここで、図11を参照して、上記の内容についてより詳細に説明する。図11は、物体が有する属性ごとの、当該物体の移動が「一時的な行動」であるか、「永続的な行動」であるかに関する、判断部106による判断例を示した図である。図11に示したように、ユーザーが移動させた物体が、例えば日常生活において移動の頻度が所定の閾値以上である物体である場合には、判断部106は、該当のユーザーの移動を「一時的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。なお、図11に示したように、「移動の頻度が所定の閾値以上である物体」の具体例としては、料理、飲み物、食器(皿など)、カップ、ペットボトル、および、スマートフォンなどが挙げられる。
 また、図11に示したように、ユーザーが移動させた物体が、例えば日常生活において移動の頻度が当該所定の閾値未満である物体、または、日常生活において基本的に移動しない物体である場合には、判断部106は、該当のユーザーの行動を「永続的な行動」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。なお、図11に示したように、「移動の頻度が所定の閾値未満である物体」の具体例としては、ラップトップPC、バッグ、ノート、新聞紙、および、本などが挙げられる。また、「日常生活において基本的に移動しない物体」の具体例としては、家具(例えばローテーブルやクッションなど)などが挙げられる。
 ‐変形例1
 なお、コンテンツの投影サイズが物体のサイズに対して一定以上大きい場合(例えば、物体のサイズがとても小さい場合など)には、仮に当該物体の位置が変化したとしても、当該コンテンツの視聴に及ぼす影響は小さいと思われる。そこで、このような場合には、判断部106は、当該物体を、判断の対象外としてもよい。
 ‐変形例2
 また、一般的に、例えば筆記用具などの物体に関しては、ユーザーによる当該物体の使用時間の長さが、種類によって異なり得る。そこで、別の変形例として、一以上の入力部200によりセンシングされた、該当のユーザーによるこれらの物体の使用時間の長さが所定の閾値以上である場合には、判断部106は、該当の物体の使用を「永続的な行動」と判断してもよい。
 (3-2-1-3.所定の基準3:環境の変化の度合い)
 また、第2の実施形態では、上記の所定の基準は、上記の第1のタイミングと上記の第2のタイミングとの間において、環境認識部104により認識された、上記の第1の場所の状態の変化の度合いをさらに含んでもよい。なお、前述したように、当該状態の変化の種類の例としては、該当の場所(部屋4など)内の日光の入射量の変化、または、該当の場所内の一以上のライトの点灯度合いの変化などが挙げられる。
 例えば、判断部106は、まず、当該第1のタイミングと当該第2のタイミングとの間に、当該第1の場所の状態が、当該第1のタイミングにおける当該第1の場所の状態から、所定の閾値以上変化したことが認識されたか否かに基づいて、該当の状態の変化(環境の変化)が「永続的な変化」であるか、もしくは、「一時的な変化」であるかを判断する。そして、該当の状態の変化が「一時的な変化」であると認識された場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。また、該当の状態の変化が「永続的な変化」であると認識された場合には、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。
 一例として、当該第1のタイミングと当該第2のタイミングとの間に、当該第1の場所において、何らかの環境の変化によって視認性が低下したことが認識されたとする。この場合、判断部106は、まず、一以上の入力部200によるセンシング結果に基づいて当該視認性の低下の要因を特定する。そして、判断部106は、当該視認性の低下が「一時的な変化」であるか、もしくは、「永続的な変化」であるかを、特定された要因の種類に応じて判断する。
 ここで、図12を参照して、上記の内容についてより詳細に説明する。図12は、環境の変化に基づき視認性が低下した場合における当該視認性の低下の要因ごとの、当該視認性の低下が「一時的な変化」であるか、もしくは、「永続的な変化」であるかに関する判断例を示した図である。図12に示したように、該当の視認性の低下が「人の行動による一時的な変化」であると判断された場合には、判断部106は、該当の視認性の低下を「一時的な変化」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一であると判断する。なお、図12に示したように、「人の行動による一時的な変化」の具体例としては、遮蔽物の移動、および、ドア(例えばリビングのドアなど)の開閉などが挙げられる。
 また、図12に示したように、該当の視認性の低下が「人の行動による永続的な変化」、または、「人以外の要因による変化」であると判断された場合には、判断部106は、該当の視認性の低下を「永続的な変化」であると判断する。つまり、この場合、判断部106は、当該第1の視聴環境と当該第2の視聴環境とが同一ではないと判断する。なお、図12に示したように、「人の行動による永続的な変化」の具体例としては、カーテンの開閉、および、照明のON/OFFの切り替えなどが挙げられる。また、「人以外の要因による変化」の具体例としては、日光の照射などが挙げられる。
 <3-3.処理の流れ>
 以上、第2の実施形態に係る構成について説明した。次に、第2の実施形態に係る処理の流れについて説明する。第2の実施形態に係る処理の流れは、第1の実施形態と比べて、図7に示したS109(「コンテンツの表示位置の変化の要因の分析」)の内容のみが異なり得る。以下では、図13および図14を参照して、第2の実施形態に係るS109の詳細な処理の流れについて説明する。なお、図13に示したS201~S205の内容は、図8に示した第1の実施形態に係るS151~S155と同様である。
 S203において、該当のユーザーの姿勢が変化していないことが認識されていた場合には(S203:No)、判断部106は、次に、該当の部屋4内の特定の投影面(例えば、該当のコンテンツを投影中の投影面)上に位置する少なくとも一つの物体をユーザーが移動させたことが、一以上の入力部200によるセンシング結果に基づいて認識されたか否かを判定する(S207)。少なくとも一つの物体をユーザーが移動させたことが認識された場合には(S207:Yes)、判断部106は、次に、当該物体の移動後の位置が、当該物体に対応する所定の領域内に収まっているか否かを判定する(S209)。移動後の当該物体の位置が当該所定の領域内に収まっている場合には(S209:Yes)、判断部106は、後述するS221の処理を行う。一方、移動後の当該物体の位置が当該所定の領域外になった場合には(S209:No)、判断部106は、後述するS223の処理を行う。
 ここで、図14を参照して、S207において該当の投影面上のいずれの物体もユーザーが移動させなかった場合(S207:No)における処理の流れについて説明する。図14に示したように、この場合、まず、判断部106は、該当のユーザーが何らかの物体を持っており、かつ、当該物体の位置が変化したことが認識されたか否かを判断する(S211)。当該ユーザーが持っている物体の位置が変化したことが認識された場合には(S211:Yes)、次に、判断部106は、該当の物体が、移動頻度が所定の閾値以上の物体であるか否かを判断する(S213)。該当の物体が、移動頻度が当該所定の閾値以上の物体であると判断された場合には(S213:Yes)、判断部106は、後述するS221の処理を行う。一方、該当の物体が、移動頻度が当該所定の閾値未満の物体であると判断された場合には(S213:No)、判断部106は、後述するS223の処理を行う。
 一方、当該ユーザーが全く物体を持っていない場合、または、当該ユーザーが持っている物体の位置が変化していないことが認識された場合には(S211:No)、次に、判断部106は、該当の部屋4の視認性が、当該第1のタイミングと比較して所定の閾値以上変化したか否かを判断する(S215)。該当の部屋4の視認性の変化量が当該所定の閾値未満であると判断された場合には(S215:No)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が、人に起因する要因ではないと判断する(S219)。
 一方、該当の部屋4の視認性が当該所定の閾値以上変化したと判断された場合には(S215:No)、次に、判断部106は、当該視認性の変化が、人の行動による一時的な変化であるか否かを判断する(S217)。当該視認性の変化が、人の行動による一時的な変化であると判断された場合には(S217:Yes)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が「人に起因する一時的な要因」であると判断する(S221)。一方、当該視認性の変化が、人の行動による一時的な変化ではないと判断された場合には(S217:No)、判断部106は、S107で判定された該当のコンテンツの最適な表示位置の変化の要因が「人に起因する永続的な要因」であると判断する(S223)。
 <3-4.効果>
 以上説明したように、第2の実施形態によれば、上記の第1のタイミングと上記の第2のタイミングとの間における、ユーザーによる物体の移動、または、第1の場所の状態の変化(環境の変化)に適当的に、当該第2のタイミング以後の、出力部202による当該コンテンツの出力設定を適切に変更することができる。例えば、該当のコンテンツの投影中の投影面上のいずれかの物体がユーザーにより移動された場合であっても、当該コンテンツの投影位置や投影サイズを変更するか否かを、当該物体が有する属性および当該物体の移動量に応じて適切に変化させることができる。
<<4.第3の実施形態>>
 以上、第2の実施形態について説明した。次に、本開示に係る第3の実施形態について説明する。後述するように、第3の実施形態によれば、出力中のコンテンツの出力設定を変更することが決定された場合において、ユーザーが当該変更を望まない場合には、当該ユーザーの指示に基づいて当該変更の実行をキャンセルすることができる。
 <4-1.構成>
 次に、第3の実施形態に係る構成について説明する。第3の実施形態に係る情報処理装置10に含まれる各構成要素は、図3に示した例と同様である。以下では、第2の実施形態と異なる機能を有する構成要素についてのみ説明することとし、同一の内容については説明を省略する。
 {4-1-1.入力部200}
 第3の実施形態に係る入力部200は、コンテンツの出力設定を変更することが出力制御部108により決定された場合において、当該コンテンツの出力設定の変更をユーザーが拒否することを示す拒否情報、または、当該コンテンツの出力設定の変更をユーザーが承諾することを示す承諾情報を取得し得る。
 (4-1-1-1.タッチ)
 ここで、当該拒否情報および/または当該承諾情報の入力方法は、例えば、当該コンテンツに対してユーザーが直接触れること(タッチ)であってもよい。一例として、出力設定の変更前のコンテンツを押さえることが検出された場合、または、当該変更前のコンテンツを表示中の面(投影部202による投影面など)をノックすることが検出された場合などには、入力部200は、これらの検出結果を当該拒否情報として取得してもよい。または、当該変更前のコンテンツをスローすることが検出された場合などには、入力部200は、この検出結果を当該承諾情報として取得してもよい。
 (4-1-1-2.ジェスチャ)
 または、当該拒否情報および/または当該承諾情報の入力方法は、当該コンテンツに対してユーザーが所定のジェスチャを行うことであってもよい。例えば、当該変更前のコンテンツに向かって把持するようなジェスチャが検出された場合などには、入力部200は、これらの検出結果を当該拒否情報として取得してもよい。または、当該変更前のコンテンツに向かって払いのけるようなジェスチャが検出された場合などには、入力部200は、この検出結果を当該承諾情報として取得してもよい。
 (4-1-1-3.音声)
 または、当該拒否情報および/または当該承諾情報の入力方法は、ユーザーが所定の発話を行うことであってもよい。例えば、所定のネガティブワード(例えば「待て!」、「そのまま!」、または、「キャンセル!」など)が発話されたことが検出された場合には、入力部200は、この検出結果を当該拒否情報として取得してもよい。または、所定のポジティブワード(例えば「移動して!」など)が発話されたことが検出された場合には、入力部200は、この検出結果を当該承諾情報として取得してもよい。なお、例えば「~に映して!」などの、該当のコンテンツの出力設定の変更を明示的に指示する発話が検出された場合には、出力制御部108は、(例えば直前に決定した出力設定の代わりに)この検出結果に対応する出力設定を採用してもよい。
 (4-1-1-4.身体の振る舞い)
 または、当該拒否情報および/または当該承諾情報の入力方法は、ユーザーが所定の振る舞いを行うことであってもよい。例えば、出力設定の変更後のコンテンツを見ながら首を振ることが検出された場合、または、出力設定の変更前のコンテンツを見て頷くことが検出された場合などには、入力部200は、これらの検出結果を当該拒否情報として取得してもよい。または、当該変更前のコンテンツを見ながら首を振ることが検出された場合、または、当該変更後のコンテンツを見て頷くことが検出された場合などには、入力部200は、これらの検出結果を当該承諾情報として取得してもよい。
 (4-1-1-5.物体の配置)
 または、当該拒否情報および/または当該承諾情報の入力方法は、当該コンテンツに対応する位置にユーザーが何らかの物体を置くことであってもよい。例えば、当該変更前のコンテンツの上にコーヒーカップを置くことが検出された場合などには、入力部200は、これらの検出結果を当該拒否情報として取得してもよい。
 {4-1-2.出力制御部108}
 (4-1-2-1.制御例1)
 第3の実施形態に係る出力制御部108は、判断部106による判断結果と、ユーザーの指示入力とに基づいて、当該第2のタイミング以後のコンテンツの出力設定を変更し得る。ここで、図15A~図15Cを参照して、上記の機能についてより詳細に説明する。図15Aに示した例では、テーブルの天面30a(投影面30a)上にコンテンツ20aが、部屋4内の投影部202aにより投影されており、そして、ユーザー6は、コンテンツ20aを視聴している。
 図15Aに示したタイミングの後に、部屋4内で環境の変化(例えば、ユーザーが投影面30a上に障害物を置くことにより、投影面30a内のコンテンツ20aの投影可能な面積が減少するなど)が生じたとする。この場合、判断部106は、該当のコンテンツ20の最適な投影位置は投影面30aではなく、壁面30bであると判断したとする。そして、図15Bに示したように、出力制御部108は、コンテンツ20aを投影面30aに対して投影部202aに投影させるとともに、コンテンツ20aと同一のコンテンツ20bを壁面30bに対して例えば別の投影部202bに投影させる。この際、図15Bに示したように、出力制御部108は、コンテンツ20aの枠22a、および、コンテンツ20bの枠22bをそれぞれ強調して表示(投影)させてもよい。これにより、出力設定の変更前のコンテンツ(つまり、天面30a上に投影されているコンテンツ20a)と、当該コンテンツ20aの出力位置の変更先(つまり壁面30b)とをユーザー6に対して強調して示すことができる。
 その後、壁面30bよりもテーブルの天面30aに該当のコンテンツ20が表示され続けることをユーザー6は希望し、そして、ユーザー6は、当該希望を示す所定の入力(例えば、テーブルの天面30aをタッチするなど)を行ったとする。この場合、図15Cに示したように、出力制御部108は、コンテンツ20bの投影のみを終了させる。つまり、コンテンツ20の投影状態が、図15Aに示した状態に戻り得る。
 ‐補足
 なお、図15Aに示したタイミングの後に、判断部106が、該当のコンテンツ20の最適な投影位置が壁面30bではなく、例えばテレビジョン受信機などの何らかの映像表示機器であると判断したとする。この場合、出力制御部108は、コンテンツ20bを当該映像表示機器に表示させ得る。
 (4-1-2-2.制御例2:変更前の表示制御)
 または、上記の第1の視聴環境と上記の第2の視聴環境とが同一ではないと判断部106により判断された場合には、出力制御部108は、判断部106による判断結果と、入力部200により拒否情報が取得されたか否かとに基づいて、当該第2のタイミング以後のコンテンツの出力設定を変更し得る。この場合、例えば、出力制御部108は、まず、該当のコンテンツに関する変更後の出力位置を示す情報を、当該第2のタイミング以後の所定の制限時間内に出力部202に出力させる。そして、出力制御部108は、当該ユーザーの拒否情報が当該所定の制限時間内に入力部200により取得されたか否かに基づいて、当該所定の制限時間後における当該コンテンツの出力設定を(最終的に)変更する。
 ここで、図16~図18を参照して、上記の機能についてより詳細に説明する。図16に示した例では、ある部屋4内の投影面30上にコンテンツ20が投影部202により投影されている。
 図16に示したタイミングの後に、投影面30内のコンテンツ20の投影領域内にユーザーが障害物40を配置したとする。この場合、出力制御部108は、コンテンツ20が障害物40と重ならないように、コンテンツ20の投影位置を、図16に示した上方向に変更することを決定したとする。この場合、図17に示したように、出力制御部108は、コンテンツ20の投影位置を維持しながら、コンテンツ20の輪郭にエフェクト(光彩など)を、当該第2のタイミング以後の当該所定の制限時間だけ出力部202にさらに投影させ得る。これにより、コンテンツ20の投影位置が変更されることをユーザーに知らせることができる。さらに、図17に示したように、出力制御部108は、コンテンツ20に関して変更後の投影位置の方向を示す画像50(例えば矢印の画像50など)を(コンテンツ20に関する変更後の出力位置を示す情報として)投影面30上に出力部202にさらに投影させてもよい。
 なお、決定された、コンテンツ20の変更後の出力位置が、変更前の出力位置と同一の投影面30上である場合には、例えば図18に示したように、出力制御部108は、該当の投影面30内に、変更後の出力位置を示す枠52を(コンテンツ20に関する変更後の出力位置を示す情報として)出力部202にさらに投影させてもよい。この場合、出力制御部108は、図17に示した例とは異なり、コンテンツ20の輪郭にエフェクトを付加表示させなくてもよい。
 なお、上記の所定の制限時間の長さは、当該変更後の出力位置に対して該当のコンテンツを投影するための駆動型プロジェクタ(出力部202)の移動、および、姿勢の変更に要する時間以上の長さになるように定められることが望ましい。これにより、もし拒否情報が取得された場合に、当該駆動型プロジェクタは、該当のコンテンツを当該変更前の出力位置に迅速に投影し直すことが可能となる。
 (4-1-2-3.制御例3:変更後のキャンセル受け付け)
 または、上記の第1の視聴環境と上記の第2の視聴環境とが同一ではないと判断部106により判断された場合には、出力制御部108は、まず、決定された、変更後の当該コンテンツの表示位置に所定の遷移映像を当該所定の制限時間だけ出力部202に出力させてもよい。ここで、当該所定の遷移映像は、表示態様が該当のコンテンツとは異なり、かつ、当該コンテンツに対応する映像であり得る。そして、出力制御部108は、当該所定の制限時間内に該当のユーザーの拒否情報が取得されたか否かに基づいて、当該所定の制限時間後の該当のコンテンツの出力設定を(最終的に)変更してもよい。
 例えば、該当のユーザーの拒否情報が当該所定の制限時間内に取得された場合には、出力制御部108は、その後の該当のコンテンツの出力設定を、変更前の出力設定に戻し得る。または、該当のユーザーの拒否情報が当該所定の制限時間内に取得されなかった場合には、出力制御部108は、当該所定の制限時間後の該当のコンテンツの出力設定を、当該第2のタイミングまたはその直後に決定された出力設定に確定し得る。
 ‐遷移映像の例1
 ここで、図19~図23を参照して、上記の機能についてより詳細に説明する。例えば、当該コンテンツの表示サイズを縮小することが決定された場合には、図19に示したように、出力制御部108は、まず、変更後のコンテンツ60、および、コンテンツ60に関する変更前の表示サイズを示す枠62を当該遷移映像として、当該変更後の出力位置に対応する投影面30上に出力部202に出力させてもよい。そして、出力制御部108は、枠62のサイズを当該変更後のコンテンツ60の表示サイズまで当該所定の制限時間内に徐々に縮小させてもよい。なお、前述したように当該所定の制限時間内に該当のユーザーの拒否情報が取得された場合には、出力制御部108は、その後の該当のコンテンツの出力設定を当該変更前の出力設定に戻し得る。
 ‐遷移映像の例2
 または、図20に示したように、出力制御部108は、出力設定の変更後のコンテンツと同一の映像を遷移映像64として、当該変更後の出力位置に対応する投影面30上に出力部202に出力させ、かつ、当該所定の制限時間内に遷移映像64の表示態様を連続的に変更してもよい。例えば、出力制御部108は、当該所定の制限時間内に、遷移映像64を連続的に揺らしてもよいし、遷移映像64のサイズを連続的に変化させてもよいし、または、該当の投影面30上で遷移映像64の投影位置を連続的に変化させてもよい。なお、前述したように当該所定の制限時間内に該当のユーザーの拒否情報が取得された場合には、出力制御部108は、その後の該当のコンテンツの出力設定を当該変更前の出力設定に戻し得る。
 ‐遷移映像の例3
 または、図21に示したように、出力制御部108は、出力設定の変更後のコンテンツ60、および、当該所定の制限時間のうちの経過済みの時間を示すインジケータ66を当該遷移映像として、当該変更後の出力位置に対応する投影面30上に出力部202に投影させてもよい。例えば、図21に示したように、出力制御部108は、出力設定の変更後のコンテンツ60の近傍にインジケータ66を出力部202に投影させてもよい。そして、出力制御部108は、時間の経過に応じて、インジケータ66の表示態様を徐々に変更してもよい。図21に示したように、インジケータ66は、例えば、当該所定の制限時間のうちの経過済みの時間を示すゲージを含んでもよいし、または、当該所定の制限時間のうちの残り時間(または、経過済みの時間)を示す文字列を含んでもよい。
 上記の表示例によれば、ユーザーは、該当のコンテンツの出力設定を元に戻すことが可能な残り時間の長さを知ることができる。なお、前述したように当該所定の制限時間内に該当のユーザーの拒否情報が取得された場合には、出力制御部108は、その後の該当のコンテンツの出力設定を当該変更前の出力設定に戻し得る。
 ‐遷移映像の例4
 または、図22に示したように、出力制御部108は、当該所定の制限時間内に、出力設定の変更後のコンテンツとは表示態様(例えば、色調、α値、光彩の度合い、または、ぼかしの度合いなど)のみが異なる映像を遷移映像68として、当該変更後の出力位置に出力部202に出力させてもよい。例えば、出力制御部108は、当該所定の制限時間内に、例えば遷移映像68をフェードインさせるなど、遷移映像68の表示態様を連続的に変更してもよい。なお、前述したように当該所定の制限時間内に該当のユーザーの拒否情報が取得された場合には、出力制御部108は、その後の該当のコンテンツの出力設定を当該変更前の出力設定に戻し得る。
 ‐‐変形例1
 なお、決定された、変更後の当該コンテンツの表示位置を含む投影面に対して、当該所定の遷移映像のうちの一部の領域が投影不可能であることが予め特定されている場合(例えば、当該一部の領域が当該投影面からはみ出る場合、または、駆動型プロジェクタ(出力部202)の移動範囲が制限されていることにより当該一部の領域が当該投影面に表示不可能である場合など)も想定される。そこで、このような場合、出力制御部108は、当該所定の遷移映像の全体のうちの投影不可能な領域だけを、例えばユーザーが携帯している別の表示デバイスに表示させてもよい。または、出力制御部108は、当該所定の遷移映像の全体が該当の投影面に表示可能となるように、当該所定の遷移映像の形状やサイズを変更してもよい。または、出力制御部108は、当該所定の遷移映像の全体のうちの投影不可能な領域内の映像を通知するための音声(例えばTTSなど)を、音声出力可能な出力部202に出力させてもよい。
 ‐‐変形例2
 なお、該当のコンテンツの投影位置の新たな候補(つまり、上記の変更後の出力位置)の探索の際に、精度の高い探索ができないことにより、適切な候補地を探索不可能な場合も想定される。そこで、このような場合、上記の所定の制限時間の長さが、通常よりも長く定められてもよい。これにより、例えば図19~図22に示したような遷移映像(アニメーション)が投影されていることにユーザーがより気づきやすくなる。また、当該変更後の出力設定をキャンセルするか否かを当該ユーザーが判断可能な時間がより長くなり得る。
 ‐‐変形例3
 別の変形例として、家2の中にいるユーザーの人数(または、出力中のコンテンツを視聴中のユーザーの人数)が所定の閾値以上である場合には、出力制御部108は、前述した、該当のコンテンツの変更後の出力位置を示す情報の出力制御(制御例2)、および/または、前述した、当該所定の遷移映像の表示制御(制御例3)を行わずに、該当のコンテンツの出力設定を当該変更後の出力設定にすぐに切り替えてもよい。なお、出力制御部108は、緊急性の高い情報に関しては、これらの制御(「制御例2」および/または「制御例3」)を例外的に行ってもよい。
 <4-2.処理の流れ>
 以上、第3の実施形態に係る構成について説明した。次に、第3の実施形態に係る処理の流れについて、図23および図24を参照して説明する。
 図23は、第3の実施形態に係る処理の全体的な流れの一例の一部を示したフローチャートである。なお、図23に示したS301~S311は、図7に示した第1の実施形態に係るS101~S111と同様であり得る。
 図23に示したように、S309において判定された要因が「人に起因する一時的な要因」とは異なる場合には(S311:No)、出力制御部108は、直近のS305で探索された表示位置を示す情報(映像など)を出力部202に表示させる(S313)。
 ここで、図24を参照して、S313より後の処理の流れについて説明する。図24に示したように、S313の後、判断部106は、行動認識部102による認識結果に基づいて、該当のユーザーの位置または姿勢の変化がS313の後に検出されたか否かを判断する(S321)。該当のユーザーの位置の変化または姿勢の変化が検出された場合には(S321:Yes)、判断部106は、行動認識部102による認識結果に基づいて、当該ユーザーの位置または姿勢の変化の頻度を判定する(S323)。当該ユーザーの位置または姿勢の変化の頻度が「定常的」であると判定された場合には、出力制御部108は、後述するS331の処理を行う。変形例として、S323において当該ユーザーが恒常的に移動していると判定された場合には、出力制御部108は、該当のコンテンツを出力中の出力部202による当該コンテンツの出力を中止させ、かつ、当該コンテンツを別のデバイス(例えば、該当のユーザーが装着しているウェアラブルデバイス、または、該当のユーザーが携帯している表示機器(スマートフォンなど)など)に出力させてもよい。または、この場合、出力制御部108は、該当のコンテンツを出力中の出力部202による当該コンテンツの出力を中止させ、かつ、当該コンテンツに対応する情報を別の出力方法を用いて出力させてもよい(例えば表示の代わりに、音声で出力するなど)。
 一方、当該ユーザーの位置または姿勢の変化の頻度が「間欠的」であると判定された場合には、出力制御部108は、再びS305以降の処理を繰り返す。
 一方、該当のユーザーの位置の変化および姿勢の変化が検出されなかった場合には(S321:No)、出力制御部108は、キャンセル受け付け用の所定の遷移映像を、直近のS307で決定された、該当のコンテンツの変更後の表示位置に出力部202に投影させる(S325)。
 その後、S325のタイミングから上記の所定の制限時間内において、出力制御部108は、当該ユーザーの拒否情報が入力部200により取得されたか否かを判定する(S327)。当該所定の制限時間内に当該ユーザーの拒否情報が入力部200により取得されなかった場合には(S327:No)、出力制御部108は、該当のコンテンツの表示位置を、直近のS305で探索された表示位置に変更する(S329)。その後、出力制御部108は、S333の処理を行う。なお、S333の処理は、図7に示したS117と概略同様である。
 一方、当該所定の制限時間内に当該ユーザーの拒否情報が入力部200により取得された場合には(S327:Yes)、出力制御部108は、該当のコンテンツの表示位置を変更しないこと、または、直前の表示位置に戻すことを決定する(S331)。その後、出力制御部108は、上記のS333の処理を行う。
 <4-3.効果>
 以上説明したように、第3の実施形態によれば、出力中のコンテンツの出力設定を変更することが決定された場合において、ユーザーが当該変更を望まない場合には、当該ユーザーの指示に基づいて当該変更の実行をキャンセルすることができる。
<<5.ハードウェア構成>>
 以上、第3の実施形態について説明した。次に、各実施形態に係る情報処理装置10のハードウェア構成例について、図25を参照して説明する。図25に示したように、情報処理装置10は、CPU150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU150は、情報処理装置10において制御部100の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムや、使用中のデータなどを一時的に記憶する。
 バス156は、CPUバスなどから構成される。このバス156は、CPU150、ROM152、および、RAM154を相互に接続する。
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および、通信装置166を、バス156と接続する。
 入力装置160は、例えばタッチパネル、ボタン、スイッチ、レバー、マイクロフォンなどユーザーが情報を入力するための入力手段、および、ユーザーによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成される。
 出力装置162は、例えばLCDやOLEDなどのディスプレイ、または、プロジェクタなどの表示装置を含む。また、出力装置162は、スピーカなどの音声出力装置を含む。
 ストレージ装置164は、記憶部122として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または、記憶媒体に記録されたデータを削除する削除装置などを含む。
 通信装置166は、前述した所定の通信網などに接続するための通信デバイス(例えばネットワークカードなど)等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
<<6.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、前述した各実施形態に係る処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
 また、前述した各実施形態によれば、CPU、ROM、およびRAMなどのハードウェアを、前述した各実施形態に係る情報処理装置10に含まれる各構成要素と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記録媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、
を備える、情報処理装置。
(2)
 前記ユーザーが前記第1のタイミングの後に開始した行動を認識する第1の認識部をさらに備え、
 前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間における、前記第1の認識部による前記ユーザーの行動の認識結果を含む、前記(1)に記載の情報処理装置。
(3)
 前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間に前記ユーザーが前記第1の視聴環境に対応する第1の場所から第2の場所へ移動したことが前記第1の認識部により認識されたか否かを示し、
 前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1の場所と前記第2の場所との関係性を示す情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、前記(2)に記載の情報処理装置。
(4)
 前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間に前記ユーザーの姿勢が前記第1のタイミングにおける第1の姿勢から第2の姿勢へ変化したことが前記第1の認識部により認識されたか否かを示し、
 前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1の姿勢と前記第2の姿勢との関係性を示す情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、前記(2)または(3)に記載の情報処理装置。
(5)
 前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間において、前記第1の視聴環境に対応する第1の場所内の所定の物体が、前記所定の物体に対応する所定の領域外へユーザーにより移動されたか否かの検出結果を含む、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記所定の物体は、所定の属性を有する物体である、前記(5)に記載の情報処理装置。
(7)
 前記第1の視聴環境に対応する第1の場所の状態の変化を認識する第2の認識部をさらに備え、
 前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1のタイミングと前記第2のタイミングとの間において前記第2の認識部により認識された前記第1の場所の状態の変化の度合いに基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置、前記コンテンツの表示サイズ、前記コンテンツの輝度、前記コンテンツのコントラスト、および、一以上の出力部のうちの前記コンテンツを出力する出力部の識別情報のうちの少なくとも一つを含む、前記(3)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の、前記コンテンツの出力設定を前記第2の視聴環境に応じて変更する、前記(8)に記載の情報処理装置。
(10)
 前記第1の視聴環境と前記第2の視聴環境とが同一であると判断された場合には、前記出力制御部は、前記コンテンツの出力設定を変更しない、前記(9)に記載の情報処理装置。
(11)
 前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置を含み、
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の前記コンテンツの出力位置を前記第2の場所内の所定の位置に決定する、前記(9)または(10)に記載の情報処理装置。
(12)
 前記第1の場所および前記第2の場所は、所定の施設内に位置し、
 前記出力部は、位置および姿勢のうちの少なくとも一つを前記出力制御部による制御に基づいて変更可能なように構成された投影部であり、
 前記コンテンツは、映像を含み、
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第1のタイミングにおける前記第1の場所内の前記コンテンツの投影位置から前記第2の場所内の所定の位置へ前記コンテンツの投影位置を前記投影部に連続的に変化させる、前記(11)に記載の情報処理装置。
(13)
 前記コンテンツの出力設定の変更をユーザーが拒否することを示す拒否情報を取得する取得部をさらに備え、
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、さらに、前記取得部により前記拒否情報が取得されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、前記(9)~(12)のいずれか一項に記載の情報処理装置。
(14)
 前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置を含み、
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の所定の時間内に、変更後の前記コンテンツの出力位置を示す情報を前記出力部に出力させ、かつ、
 前記所定の時間内に前記ユーザーの拒否情報が取得されたか否かに基づいて、前記所定の時間後の前記コンテンツの出力設定を変更する、前記(13)に記載の情報処理装置。
(15)
 前記コンテンツは、映像を含み、
 前記変更後の前記コンテンツの出力位置を示す情報は、表示態様が前記コンテンツとは異なり、かつ、前記コンテンツに対応する所定の映像であり、
 前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記所定の時間内に前記所定の映像を前記変更後の前記コンテンツの出力位置に前記出力部に出力させる、前記(14)に記載の情報処理装置。
(16)
 前記第1の場所および前記第2の場所は、所定の施設内に位置する、前記(9)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記出力部は、位置および姿勢のうちの少なくとも一つを前記出力制御部による制御に基づいて変更可能なように構成された投影部であり、
 前記コンテンツは、映像を含む、前記(16)に記載の情報処理装置。
(18)
 前記第1の視聴環境と前記第2の視聴環境とが同一であるか否かを前記ユーザーの情報に基づいて判断する判断部をさらに備える、前記(16)または(17)に記載の情報処理装置。
(19)
 コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、プロセッサが、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更すること、
を含む、情報処理方法。
(20)
 コンピュータを、
 コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、
として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
2 家
4 部屋
10 情報処理装置
100 制御部
102 行動認識部
104 環境認識部
106 判断部
108 出力制御部
120 通信部
122 記憶部
200 入力部
202 出力部

Claims (20)

  1.  コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、
    を備える、情報処理装置。
  2.  前記ユーザーが前記第1のタイミングの後に開始した行動を認識する第1の認識部をさらに備え、
     前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間における、前記第1の認識部による前記ユーザーの行動の認識結果を含む、請求項1に記載の情報処理装置。
  3.  前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間に前記ユーザーが前記第1の視聴環境に対応する第1の場所から第2の場所へ移動したことが前記第1の認識部により認識されたか否かを示し、
     前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1の場所と前記第2の場所との関係性を示す情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、請求項2に記載の情報処理装置。
  4.  前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間に前記ユーザーの姿勢が前記第1のタイミングにおける第1の姿勢から第2の姿勢へ変化したことが前記第1の認識部により認識されたか否かを示し、
     前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1の姿勢と前記第2の姿勢との関係性を示す情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、請求項2に記載の情報処理装置。
  5.  前記ユーザーの情報は、前記第1のタイミングと前記第2のタイミングとの間において、前記第1の視聴環境に対応する第1の場所内の所定の物体が、前記所定の物体に対応する所定の領域外へユーザーにより移動されたか否かの検出結果を含む、請求項1に記載の情報処理装置。
  6.  前記所定の物体は、所定の属性を有する物体である、請求項5に記載の情報処理装置。
  7.  前記第1の視聴環境に対応する第1の場所の状態の変化を認識する第2の認識部をさらに備え、
     前記出力制御部は、前記第1の視聴環境と前記第2の視聴環境とが同一であると、さらに、前記第1のタイミングと前記第2のタイミングとの間において前記第2の認識部により認識された前記第1の場所の状態の変化の度合いに基づいて判断されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、請求項1に記載の情報処理装置。
  8.  前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置、前記コンテンツの表示サイズ、前記コンテンツの輝度、前記コンテンツのコントラスト、および、一以上の出力部のうちの前記コンテンツを出力する出力部の識別情報のうちの少なくとも一つを含む、請求項3に記載の情報処理装置。
  9.  前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の、前記コンテンツの出力設定を前記第2の視聴環境に応じて変更する、請求項8に記載の情報処理装置。
  10.  前記第1の視聴環境と前記第2の視聴環境とが同一であると判断された場合には、前記出力制御部は、前記コンテンツの出力設定を変更しない、請求項9に記載の情報処理装置。
  11.  前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置を含み、
     前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の前記コンテンツの出力位置を前記第2の場所内の所定の位置に決定する、請求項9に記載の情報処理装置。
  12.  前記第1の場所および前記第2の場所は、所定の施設内に位置し、
     前記出力部は、位置および姿勢のうちの少なくとも一つを前記出力制御部による制御に基づいて変更可能なように構成された投影部であり、
     前記コンテンツは、映像を含み、
     前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第1のタイミングにおける前記第1の場所内の前記コンテンツの投影位置から前記第2の場所内の所定の位置へ前記コンテンツの投影位置を前記投影部に連続的に変化させる、請求項11に記載の情報処理装置。
  13.  前記コンテンツの出力設定の変更をユーザーが拒否することを示す拒否情報を取得する取得部をさらに備え、
     前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、さらに、前記取得部により前記拒否情報が取得されたか否かに基づいて、前記第2のタイミング以後の前記コンテンツの出力設定を変更する、請求項9に記載の情報処理装置。
  14.  前記コンテンツの出力設定は、実空間内の前記コンテンツの出力位置を含み、
     前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記第2のタイミング以後の所定の時間内に、変更後の前記コンテンツの出力位置を示す情報を前記出力部に出力させ、かつ、
     前記所定の時間内に前記ユーザーの拒否情報が取得されたか否かに基づいて、前記所定の時間後の前記コンテンツの出力設定を変更する、請求項13に記載の情報処理装置。
  15.  前記コンテンツは、映像を含み、
     前記変更後の前記コンテンツの出力位置を示す情報は、表示態様が前記コンテンツとは異なり、かつ、前記コンテンツに対応する所定の映像であり、
     前記第1の視聴環境と前記第2の視聴環境とが同一ではないと判断された場合には、前記出力制御部は、前記所定の時間内に前記所定の映像を前記変更後の前記コンテンツの出力位置に前記出力部に出力させる、請求項14に記載の情報処理装置。
  16.  前記第1の場所および前記第2の場所は、所定の施設内に位置する、請求項9に記載の情報処理装置。
  17.  前記出力部は、位置および姿勢のうちの少なくとも一つを前記出力制御部による制御に基づいて変更可能なように構成された投影部であり、
     前記コンテンツは、映像を含む、請求項16に記載の情報処理装置。
  18.  前記第1の視聴環境と前記第2の視聴環境とが同一であるか否かを前記ユーザーの情報に基づいて判断する判断部をさらに備える、請求項16に記載の情報処理装置。
  19.  コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、プロセッサが、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更すること、
    を含む、情報処理方法。
  20.  コンピュータを、
     コンテンツが出力されている第1のタイミングにおける前記コンテンツに関連する第1の視聴環境と、前記第1のタイミングの後の第2のタイミングにおける前記コンテンツに関連する第2の視聴環境とが同一であると、前記第1のタイミングにおいて前記コンテンツを視聴していたユーザーの情報に基づいて判断されたか否かに基づいて、前記第2のタイミング以後の、出力部による前記コンテンツの出力設定を変更する出力制御部、
    として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2019/000813 2018-03-29 2019-01-15 情報処理装置、情報処理方法、および、記録媒体 WO2019187501A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/982,461 US20210044856A1 (en) 2018-03-29 2019-01-15 Information processing device, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-063946 2018-03-29
JP2018063946A JP2021119642A (ja) 2018-03-29 2018-03-29 情報処理装置、情報処理方法、および、記録媒体

Publications (1)

Publication Number Publication Date
WO2019187501A1 true WO2019187501A1 (ja) 2019-10-03

Family

ID=68059654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000813 WO2019187501A1 (ja) 2018-03-29 2019-01-15 情報処理装置、情報処理方法、および、記録媒体

Country Status (3)

Country Link
US (1) US20210044856A1 (ja)
JP (1) JP2021119642A (ja)
WO (1) WO2019187501A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153343A (ja) * 2012-01-25 2013-08-08 Toshiba Corp 映像表示装置、映像表示方法、映像表示装置の制御プログラム
JP2017123589A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 情報処理装置、情報処理方法および映像投影システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153343A (ja) * 2012-01-25 2013-08-08 Toshiba Corp 映像表示装置、映像表示方法、映像表示装置の制御プログラム
JP2017123589A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 情報処理装置、情報処理方法および映像投影システム

Also Published As

Publication number Publication date
US20210044856A1 (en) 2021-02-11
JP2021119642A (ja) 2021-08-12

Similar Documents

Publication Publication Date Title
US11257292B2 (en) Object holographic augmentation
US10321104B2 (en) Multi-modal projection display
US10474336B2 (en) Providing a user experience with virtual reality content and user-selected, real world objects
US10254826B2 (en) Virtual/augmented reality transition system and method
KR102269035B1 (ko) 서버 및 서버의 그룹 액션 제어방법
US10310631B2 (en) Electronic device and method of adjusting user interface thereof
US10546582B2 (en) Information processing device, method of information processing, and program
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
US20170256096A1 (en) Intelligent object sizing and placement in a augmented / virtual reality environment
JPWO2016157650A1 (ja) 情報処理装置、制御方法、およびプログラム
CN110383214B (zh) 信息处理装置、信息处理方法和记录介质
US11373650B2 (en) Information processing device and information processing method
CN103347437A (zh) 3d映射环境中的凝视检测
WO2018155116A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2023101501A (ja) 装置、方法、及びプログラム
JPWO2019039119A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN107148614B (zh) 信息处理设备、信息处理方法和程序
JP2016109726A (ja) 情報処理装置、情報処理方法およびプログラム
WO2019187501A1 (ja) 情報処理装置、情報処理方法、および、記録媒体
KR20200081529A (ko) 사회적 수용성을 고려한 hmd 기반 사용자 인터페이스 방법 및 장치
CN111919250B (zh) 传达非语言提示的智能助理设备
CN112347294A (zh) 一种消除照明阴影的方法及系统
US11768535B1 (en) Presenting computer-generated content based on extremity tracking
JP2018120390A (ja) 情報処理装置、情報処理方法およびプログラム
US20240079031A1 (en) Authoring tools for creating interactive ar experiences

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19776174

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19776174

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP