WO2018034046A1 - 表示制御装置、表示制御方法およびプログラム - Google Patents

表示制御装置、表示制御方法およびプログラム Download PDF

Info

Publication number
WO2018034046A1
WO2018034046A1 PCT/JP2017/022032 JP2017022032W WO2018034046A1 WO 2018034046 A1 WO2018034046 A1 WO 2018034046A1 JP 2017022032 W JP2017022032 W JP 2017022032W WO 2018034046 A1 WO2018034046 A1 WO 2018034046A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display control
area
content
person
Prior art date
Application number
PCT/JP2017/022032
Other languages
English (en)
French (fr)
Inventor
嘉人 大木
賢一 山浦
肇 小椋
玲子 参木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018534278A priority Critical patent/JP6883225B2/ja
Priority to US16/320,227 priority patent/US10943562B2/en
Publication of WO2018034046A1 publication Critical patent/WO2018034046A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present disclosure relates to a display control device, a display control method, and a program.
  • the first display area and the second display area according to whether or not a person is present in an inner area of the space between the first display area and the second display area.
  • a display control device including a display control unit that controls each display.
  • the processor displays the first display area and the second display area depending on whether or not a person exists in an inner area of the space between the first display area and the second display area.
  • a display control method including controlling display of each display area.
  • the computer can cause the first display area and the second display area to depend on whether a person is present in an inner area of the space between the first display area and the second display area.
  • a program for functioning as a display control device comprising a display control unit for controlling the display of each display area.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different numerals after the same reference numerals. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.
  • FIG. 1 is a diagram illustrating a configuration example of a display control system according to an embodiment of the present disclosure.
  • the display control system 1 includes a display control device 10, a terminal 20, a projector 30-1, a projector 30-2, and a sensor 40.
  • the network 931 is a wireless LAN (Local Area Network) is mainly assumed, but the type of the network 931 is not limited as will be described later.
  • the display control apparatus 10 and the terminal 20 can communicate via the network 931.
  • the display control device 10 is assumed to be a computer (for example, a server).
  • the terminal 20 is held by a person H1.
  • the terminal 20 is a smartphone, but the type of the terminal 20 is not particularly limited.
  • the terminal 20 may be a game machine, a mobile phone, a tablet terminal, a PC (Personal Computer), or another terminal. May be.
  • the projector 30-1 displays the first display area D1 according to the control by the display control apparatus 10, and the projector 30-2 displays the second display area D2 according to the control by the display control apparatus 10.
  • an inner region R0 of the space between the first display region D1 and the second display region D2 is shown.
  • an outer region R1 of the space between the first display region D1 and the second display region D2 is shown.
  • FIG. 1 shows an example in which a person H0 exists in the inner region R0.
  • the inner region R0 may include a plurality of persons or no persons.
  • FIG. 1 shows an example in which a person H1 exists in the outer region R1.
  • the outer region R1 may include a plurality of persons or no persons.
  • the front side of the page is treated as “front” and the back side of the page is treated as “rear”.
  • the first display area D1 exists before the second display area D2 (the second display area D2 exists on the back side of the first display area D1). ). Therefore, the person H0 existing in the inner area R0 can see the first display area (hereinafter also referred to as “front surface”) D1 when facing forward, and when facing the rear, A second display area (hereinafter, also referred to as “rear surface”) D2 can be seen.
  • the person H1 existing in the outer region R1 exists before the front surface D1.
  • a screen hereinafter also referred to as “front-side screen”
  • a screen hereinafter also referred to as “rear-side screen”
  • 30-1 projects light on the front screen to display the front D1
  • the projector 30-2 projects light to the rear screen to display the back D2.
  • the person H0 and the back surface D2 present in the inner region R0 are shielded by the front surface D1. For this reason, if the front surface D1 does not transmit light, the person H1 and the back surface D2 cannot be seen from the person H1.
  • the person H1 can see not only the front surface D1 but also the person H0 and the back surface D2.
  • the person H1 attempts to image the person H0 using the imaging function of the terminal 20, the person H0 and the back surface D2 can be imaged through the front surface D1.
  • imaging is performed by the imaging function of the terminal 20 possessed by the person H1.
  • imaging may be performed by an imaging function other than the terminal 20 included in the person H1.
  • imaging may be performed by the imaging function of the camera.
  • the person H1 may exist in the outer region R1, or may not exist.
  • the front-side screen present on the front surface D1 has a property of transmitting light and also has a property of being projected by projection of light from the projector 30-1 (hereinafter also referred to as a “semi-transmissive screen”).
  • the transflective screen may include a material having any material.
  • the transflective screen may include a translucent film, may include a mesh material surface, or may include a mesh surface (for example, a screen door).
  • the back side screen existing on the back surface D2 may be any type of screen. That is, the back-side screen present on the back surface D2 may be a screen that does not transmit light (hereinafter also referred to as “non-transparent screen”), or a transmissive screen (for example, a transflective screen). ).
  • the projector 30-1 displays the front surface D1 by projecting light onto the front screen
  • the projector 30-2 displays the rear surface D2 by projecting light onto the rear screen.
  • the front D1 and the back D2 may be displayed in any way.
  • the projector 30-1 may be a hologram projector that projects a hologram on the front surface D1. At this time, the front-side screen may not exist on the front surface D1.
  • the projector 30-2 may be a hologram projector that projects a hologram on the back surface D2. At this time, the back side screen may not exist on the back surface D2.
  • Various display devices that display on the front surface D1 may be used instead of the projector 30-1 and the front screen.
  • various display devices that perform display on the back surface D2 may be used instead of the projector 30-2 and the back-side screen.
  • the type of display device is not particularly limited, and may be a liquid crystal display, an organic EL (Electro-Luminescence) display, or another display.
  • the display device may be a display having a property of transmitting light (transmission display).
  • a space between the front surface D1 and the back surface D2 is mainly taken as an example as a space between the front surface D1 and the back surface D2.
  • the space between the front surface D1 and the back surface D2 may not be a space strictly sandwiched between the front surface D1 and the back surface D2.
  • the space between the front surface D1 and the back surface D2 may be part or all of the space shielded by the front surface D1 when viewed from the person H1 present in the outer region R1.
  • Sensor 40 detects the position of a person existing in the detectable range.
  • the type of the sensor 40 is not particularly limited.
  • the sensor 40 may be a visible light camera, an infrared sensor, an ultrasonic sensor, a millimeter wave radar, or another sensor. May be.
  • the sensor 40 is a depth sensor and the sensor 40 detects the position of a three-dimensional person including the distance from the sensor 40 to the person.
  • the detectable range of the sensor 40 includes at least the inner region R0. In the present specification, it is assumed that the detectable range of the sensor 40 additionally includes the outer region R1.
  • the detection result by the sensor 40 is provided to the display control device 10 and used for control by the display control device 10.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the display control apparatus 10 according to the present embodiment.
  • the display control device 10 includes a control unit 110, a storage unit 120, and a communication unit 130.
  • these functional blocks provided in the display control apparatus 10 will be described.
  • the control unit 110 executes control of each unit of the display control device 10.
  • the control part 110 may be comprised by processing apparatuses, such as CPU (Central Processing Unit; Central processing unit), for example.
  • CPU Central Processing Unit
  • the control unit 110 is configured by a processing device such as a CPU, the processing device may be configured by an electronic circuit.
  • the control unit 110 includes a data acquisition unit 111, a determination unit 112, and a display control unit 113. These blocks included in the control unit 110 will be described in detail later.
  • the storage unit 120 is a recording device that stores a program executed by the control unit 110 and stores data necessary for executing the program.
  • the storage unit 120 temporarily stores data for calculation by the control unit 110.
  • the storage unit 120 may be a magnetic storage unit device, a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the communication unit 130 has a function of performing communication with the terminal 20 of the person H1.
  • the communication unit 130 is configured by a communication interface.
  • the communication unit 130 can communicate with the terminal 20 of the person H1 via the network 931 (FIG. 1).
  • the display control unit 113 controls the display on the front surface D1 and the display on the back surface D2.
  • the display control of the front surface D1 may include display control of the first content on the front surface D1 (hereinafter also referred to as “front-side content”).
  • the display control of the front surface D1 is not limited to this example.
  • the display control of the front surface D1 may include a control of not displaying the front-side content on the front surface D1 at all.
  • the display control of the back surface D2 may include display control of the second content (hereinafter also referred to as “back surface content”).
  • back surface content display control of the back surface D2
  • the display control of the back surface D2 is not limited to this example.
  • the display control of the back surface D2 may include a control of not displaying any back-side content on the back surface D2.
  • the front side content is a moving image
  • the front side content is not limited to moving images.
  • the front side content may be a still image.
  • the back side content is not limited to moving images.
  • the back side content may be a still image.
  • the front side content displayed on the front side D1 may include front side content shown to the person H0 existing in the inner region R0.
  • the front side content displayed on the front side D1 may include the front side content shown to the person H1 present in the outer region R1. Which is displayed as the front-side content on the front surface D1 is preferably different depending on the situation (the content should be sorted out).
  • the back side content displayed on the back side D2 may include back side content shown to the person H0 existing in the inner area R0.
  • the back side content displayed on the back side D2 may include back side content shown to the person H1 present in the outer region R1. Which is displayed as the back side content on the back D2 is preferably different depending on the situation (the content should be sorted out).
  • each content shown to the person H0 existing in the inner area R0 and the rear side content shown to the person H0 existing in the inner area R0 are the same content, each content is referred to as “inward content”.
  • the front side content shown to the person H0 existing in the inner area R0 and the back side content shown to the person H0 existing in the inner area R0 may be different contents.
  • the respective contents are referred to as “outward contents”. I will call it.
  • the front side content shown to the person H1 existing in the outer area R1 and the rear side content shown to the person H1 existing in the outer area R1 may be different contents.
  • FIG. 3 is a diagram for explaining an example of content distribution.
  • the position of a person existing in the detectable range is detected by the sensor 40. More specifically, the sensor 40 detects the three-dimensional position of the person including the distance from the sensor 40 to the person.
  • the data acquisition unit 111 acquires the detection result from the sensor 40.
  • the determination unit 112 determines whether or not there is a person in the inner region R0 based on the detection result by the sensor 40.
  • the display control unit 113 controls the display on each of the front surface D1 and the back surface D2 depending on whether or not a person is present in the inner region R0. Then, when a person exists in the inner region R0, the display control unit 113 can present the content so that the person is more strongly attracted to the content.
  • the display control unit 113 may control the display on the front surface D1 and the back surface D2 depending on whether or not a person is present in the outer region R1. Then, when there are persons in each of the inner area R0 and the outer area R1, the display control unit 113 can present the contents so that each person is more strongly attracted to the contents.
  • the determination unit 112 can also determine the direction of the person based on the detection result of the sensor 40. Then, when a person is present in the inner region R0, the display control unit 113 can control the display on each of the front surface D1 and the back surface D2 according to the direction of the person.
  • the direction of the person is not limited, but in the following description, as the direction of the person, forward and backward are given as specific examples. That is, when there is a person in the inner region R0, the display control unit 113 can control the display on each of the front surface D1 and the back surface D2 depending on whether the person is facing the front surface D1 or the back surface D2. is there.
  • FIG. 3 shows an example in which a forward-looking person H0 exists in the inner area R0 and a person H1 exists in the outer area R1.
  • the person H0 existing in the inner region R0 is highly likely to see the front surface D1. Therefore, the display control unit 113 may display the content C11 facing inward on the front surface D1, and display the content C21 facing outward on the back surface D2.
  • the person H1 can see the content C21 for the outside displayed on the back surface D2 through the front surface D1.
  • the display control unit 113 increases the brightness of the outward content C21 displayed on the back surface D2 than the brightness of the internal content C11 displayed on the front surface D1 (or the inside displayed on the front surface D1).
  • the outward-oriented content C21 displayed on the back surface D2 may be made easier to see for the person H1.
  • the inward content C11 is shown as a fence video, but the inward content C11 may be any video.
  • the outward-facing content C21 is illustrated as a landscape video, but the outward-facing content C21 may be any video.
  • FIG. 4 is a table summarizing each example of content distribution.
  • the upper left column shows a case where a forward-looking person H0 exists in the inner area R0 and a person H1 exists in the outer area R1 (the case shown in FIG. 3).
  • the display control unit 113 may display the content C11 facing inward on the front surface D1 and the content C21 facing outward on the back surface D2.
  • the upper middle column indicates a case where the backward person H0 exists in the inner area R0 and the person H1 exists in the outer area R1. In such a case, the person H0 existing in the inner region R0 is highly likely to see the back surface D2. Therefore, it is preferable that the display control unit 113 displays the inward content on the back surface D2 and the outward content on the front surface D1.
  • the person H1 can see the content for the outside displayed on the front surface D1.
  • the display control unit 113 increases the brightness of the outward content displayed on the front surface D1 than the brightness of the internal content displayed on the back surface D2 (or the inward content displayed on the back surface D2).
  • the outward content displayed on the front surface D1 may be easier to see for the person H1.
  • the upper right column indicates a case where no person exists in the inner area R0 and a person H1 exists in the outer area R1.
  • the display control unit 113 displays the outward content on each of the front surface D1 and the back surface D2.
  • the outward content displayed on the front surface D1 and the external content displayed on the back surface D2 may be the same or different.
  • the respective outward content displayed on the front surface D1 and the outward content displayed on the back surface D2 are different, the respective outward content may be irrelevant, but it is desirable to have some relationship.
  • the outward content displayed on the back surface D2 may be an image of a tree
  • the external content displayed on the front surface D1 may be an image of a leaf dropped from the tree.
  • the lower column shows a case where the person H0 exists in the inner area R0 and no person exists in the outer area R1.
  • the display control unit 113 displays the inward content on the front surface D1 and the back surface D2.
  • the inward content displayed on the front surface D1 and the inward content displayed on the back surface D2 may be the same or different from each other.
  • the inward-facing content displayed on the front surface D1 and the inward-facing content displayed on the back surface D2 are different, the inward-facing content may be irrelevant, but preferably has some relationship.
  • the inward-facing content displayed on the back surface D2 is a scene image that can be seen in one direction from the inside of the vehicle, and the inward-facing content displayed on the front surface D1 is in the direction opposite to the one direction from the inside of the vehicle. It may be an image of a viewable scenery. In this way, if the contents for each inside have a relationship, it is possible to show a video with a sense of unity to the person H0.
  • FIG. 5 is a flowchart showing an example of content distribution operation.
  • the position of the person existing in the detectable range is detected by the sensor 40. More specifically, the sensor 40 detects the three-dimensional position of the person including the distance from the sensor 40 to the person.
  • the data acquisition unit 111 acquires the detection result from the sensor 40. Subsequently, the determination unit 112 determines whether or not there is a person in the inner region R0 based on the detection result by the sensor 40 (S11).
  • the display control unit 113 displays the content for the outside on each of the front surface D1 and the back surface D2 (S17).
  • the outward content displayed on the front surface D1 and the external content displayed on the back surface D2 may be the same or different.
  • the control unit 110 proceeds to S11.
  • the determination unit 112 determines whether a person is present in the outer region R1 based on the detection result by the sensor 40 (S12).
  • the display control unit 113 displays content facing inward on the front surface D1 and the back surface D2 (S16).
  • the inward content displayed on the front surface D1 and the inward content displayed on the back surface D2 may be the same or different.
  • the control unit 110 proceeds to S11.
  • the determination unit 112 determines whether or not the person existing in the inner region R0 is forward based on the detection result by the sensor 40 (S13).
  • the display control unit 113 displays the content for the outside on the front surface D1 and the content for the inside on the back surface D2 (S15).
  • the display control unit 113 displays the outward content on the front surface D1, and displays the internal content on the back surface D2, the control unit 110 proceeds to S11.
  • the display control unit 113 displays the inward content on the front surface D1 and the outward content on the rear surface D2 (S14).
  • the control unit 110 proceeds to S11.
  • FIG. 6 is a diagram for explaining a case where there are a plurality of persons in the inner region R0.
  • a person H2 and a person H3 exist in the inner region R0 in addition to the person H0. That is, in the example shown in FIG. 6, there are three persons in the inner region R0. And the person H0 and the person H3 are facing the front surface D1, while the person H2 is facing the back surface D2.
  • the number of persons existing in the inner region R0 and the direction of each person are not limited.
  • the display control unit 113 may display the inward content C12 on the front surface D1 facing more people.
  • the display control unit 113 may display the inward content C12 on the back surface D2.
  • the inward content C12 is shown as a digital clock image, but the inward content C12 may be any video.
  • no content is displayed on the back surface D2.
  • the person H1 is also present in the outer region R1.
  • the display control part 113 may display the content for outer sides on the back surface D2. Then, the person H1 existing in the outer region R1 can see the content for the outside displayed on the back surface D2 through the front surface D1.
  • the display area of the operable content may be determined based on whether more people are facing the front D1 or the back D2. Then, the content can be presented so that more people are strongly attracted to the content.
  • FIG. 7 is a diagram for explaining another case where a plurality of persons exist in the inner region R0.
  • a person H2 and a person H3 exist in the inner region R0 in addition to the person H0. That is, in the example shown in FIG. 7, there are three persons in the inner region R0.
  • the person H0 and the person H3 face the back surface D2, while the person H2 faces the front surface D1.
  • the number of persons existing in the inner region R0 and the direction of each person are not limited.
  • the display control unit 113 may display the operable content C22 on the back surface D2 facing more people (the back surface D2 may be determined as the operation target display area). On the other hand, if more people are facing the front D1 than the back D2, the display control unit 113 may display the operable content C22 on the front D1.
  • the operable content C22 is shown as a sphere image, and the captured image G0 of the person H0 by the sensor 40 is displayed on the back surface D2.
  • the operable content C22 is displayed so as to rebound when it collides with the captured video G0.
  • the operable content C22 may be any video.
  • the operable content C22 may be a button that executes a predetermined action when pressed by a person existing in the inner area R0.
  • no content is displayed on the front surface D1.
  • the person H1 is also present in the outer region R1.
  • the display control part 113 may display the content for outer sides on the front surface D1. Then, the person H1 existing in the outer region R1 can see the content for the outside displayed on the front surface D1.
  • FIG. 8 is a diagram for explaining an example of a technique for complementing the shielding area.
  • the content C21 for the outside is displayed on the back surface D2.
  • a person H0 exists in the inner area R0
  • a person H1 exists in the outer area R1. Therefore, when viewed from the person H1 present in the outer area R1, a part of the back surface D2 is shielded as a shielding area J0 by the person H0 present in the inner area R0.
  • the display control unit 113 may display the shielding area J0 in the outward content C21 on the front surface D1 as the replication area K0. Then, the person H1 existing in the outer area R1 views the entire content C21 for the outside by viewing the area other than the shielding area J0 in the back surface D2 and the replication area K0 that complements the shielding area J0. Is possible.
  • the position of the shielding region J0 on the back surface D2 can be calculated by the display control unit 113. That is, the display control unit 113 can calculate the position of the shielding region J0 based on the detection result by the sensor 40. More specifically, the display control unit 113 can calculate the position of the shielding area J0 based on the position of the person H0 existing in the inner area R0 and the position of the person H1 existing in the outer area R1. At this time, as shown in FIG. 8, the skeleton information of the person H0 detected by the sensor 40 may be added to the calculation of the position of the shielding area J0.
  • FIG. 9 is a diagram for explaining an example of a technique using a shielding area.
  • the person H0 exists in the inner area R0, and the person H1 exists in the outer area R1. Therefore, when viewed from the person H1 present in the outer area R1, a part of the back surface D2 is shielded as a shielding area J0 by the person H0 present in the inner area R0.
  • the display control unit 113 may display predetermined content in the shielding area J0 on the back surface D2.
  • the predetermined content is not particularly limited, but may be content that is necessary for the person H0 existing in the inner area R0 but unnecessary for the person H1 present in the outer area R1. Then, the shielding area J0 can be effectively used.
  • a character string M0 for explaining the operation of the back surface D2 is displayed in the shielding area J0 on the back surface D2.
  • the position of the shielding region J0 on the back surface D2 can be calculated by the display control unit 113.
  • no content is displayed in the area other than the shielding area J0 on the back surface D2, but inward content may be displayed in an area other than the shielding area J0 on the back surface D2.
  • no content is displayed on the front surface D1, but content for the outside may be displayed on the front surface D1.
  • the display control unit 113 may control the parameters of the front side content and the back side content according to the position of the person existing in the inner region R0. By doing so, it is possible to make the person in the outer area R1 appear to be focused near the position of the person in the inner area R0.
  • the parameters are not particularly limited.
  • the parameter may include at least one of a blur amount and brightness.
  • the display control unit 113 may decrease the blur amount of the front-side content and increase the blur amount of the rear-side content as the person H0 approaches the front surface D1.
  • the display control unit 113 may increase the brightness of the front-side content and decrease the brightness of the back-side content as the person H0 approaches the front surface D1.
  • FIG. 10 and FIG. 11 are diagrams for explaining an example of a technique for controlling the blur amount of each of the front side content and the back side content.
  • the outward content C21 is displayed on the back surface D2, and the internal content is displayed on the front surface D1.
  • a person H0 exists in the inner area R0, and a person H1 exists in the outer area R1.
  • the person H0 exists near the front surface D1
  • the person H0 exists near the back surface D2.
  • the display control unit 113 reduces the blurring amount of the content C11 displayed on the front surface D1, and also displays the content displayed on the back surface D2.
  • the blurring amount of C21 should be increased.
  • the display control unit 113 increases the blurring amount of the content C11 displayed on the front surface D1 and is displayed on the back surface D2. It is preferable to reduce the blur amount of the existing content C21.
  • the parameters controlled by the display control unit 113 have been described above.
  • the display of at least one of the front surface D1 and the back surface D2 may be changed for imaging. If it does so, the display of at least any one of the front surface D1 and the back surface D2 comes to be suitable for imaging.
  • the display control unit 113 may change the display of at least one of the front surface D1 and the back surface D2 for imaging when a predetermined operation performed before imaging is detected.
  • the predetermined operation performed before imaging is not particularly limited.
  • the predetermined operation performed before imaging may include an activation operation of an application that performs imaging (hereinafter, also simply referred to as “camera application”).
  • the activation operation of the camera application can be performed on the terminal 20 by the person H1.
  • the predetermined operation performed before imaging may include a pressing operation of a shutter button for imaging.
  • a shutter button for imaging is provided on the terminal 20 and can be pressed by the person H1.
  • the predetermined operation performed before imaging may include half-pressing operation of a shutter button for imaging.
  • a shutter button for imaging is provided on the terminal 20 and can be half-pressed by the person H1.
  • the predetermined operation performed before imaging may include an explicit operation for instructing that imaging is performed from now on.
  • a button for instructing to perform imaging from now on is provided on the terminal 20, and an explicit operation can be performed by pressing the button by the person H1.
  • the display control unit 113 may stop the movement of each of the front side content and the back side content for a predetermined time. By doing so, it is expected that the possibility of blurring in the video imaged by the terminal 20 is reduced.
  • the length of the predetermined time for stopping the movement of each of the front side content and the back side content is not particularly limited.
  • the display control unit 113 may decrease the brightness of the front side content (the amount of light may be reduced). By doing so, the brightness of the front-side content is suppressed, so that the possibility that the person H0 existing in the inner area R0 will appear in the video with appropriate brightness increases.
  • how much the brightness of the front side content is lowered is not particularly limited.
  • the display control unit 113 selects a part or the whole of the area corresponding to the outline of the person H0 existing in the inner area R0 from the front side content. It may be removed. In this case, the possibility that the front-side content prevents the person H0 existing in the inner area R0 from being blocked is reduced, and the possibility that the person H0 existing in the inner area R0 is appropriately reflected in the video increases.
  • the region corresponding to the contour of the person H0 is not particularly limited. The third example will be specifically described below.
  • FIG. 12 is a diagram for explaining an example in which the display of the front surface D1 is changed for imaging.
  • the display control unit 113 may display the inward content C11 on the front surface D1 and the outward content C21 on the back surface D2.
  • the content displayed on each of the front surface D1 and the back surface D2 is not limited to such an example.
  • the content for the outside may be displayed on the front surface D1 instead of the content C11 for the inside
  • the content for the inside may be displayed on the back surface D2 instead of the content C21 for the outside.
  • the inside content C11 displayed on the front surface D1 can be viewed, and the outside content C21 and the person H0 displayed on the back surface D2 can be viewed through the front surface D1. is there.
  • the terminal 20 detects the pressing operation of the shutter button.
  • the display control unit 113 removes the region A11 corresponding to the outline of the person H0 existing in the inner region R0 from the inner content C11 displayed on the front surface D1. Also good.
  • the area A11 corresponding to the contour of the person H0 is not particularly limited.
  • the area A11 corresponding to the outline of the person H0 is a predetermined width larger than the area overlapping the person H0 as viewed from the person H1 in the inward content C11 displayed on the front surface D1. It may be an outer region.
  • the display control unit 113 may generate a composite content by combining the front side content and the back content, and display the composite content on the back D2.
  • the possibility that the front-side content prevents the person H0 existing in the inner area R0 from being blocked is reduced, and the possibility that the person H0 existing in the inner area R0 is appropriately reflected in the video increases.
  • the fourth example will be specifically described below.
  • FIG. 13 is a diagram for explaining another example of changing the display on the front surface D1 and the back surface D2 for imaging.
  • a case where a forward-looking person H0 exists in the inner area R0 and a person H1 exists in the outer area R1 is illustrated as an example.
  • the terminal 20 detects the pressing operation of the shutter button.
  • the display control unit 113 may generate the composite content by combining the content C11 for the inside and the content C21 for the outside, and display the composite content on the back surface D2. At this time, the inward-facing content C11 that has been displayed on the front surface D1 until then is removed by the display control unit 113. If it does so, possibility that the reflection of the person H0 which exists in the inner side area
  • the display control unit 113 displays a predetermined image different from the front side content and the back content on at least one of the front side D1 and the back side D2. May be. Then, since the predetermined image displayed on at least one of the front surface D1 and the back surface D2 is also reflected in the video imaged by the terminal 20, the convenience can be improved.
  • the fifth example will be specifically described below.
  • FIG. 14 is a diagram for explaining another example in which the display of the front surface D1 is changed for imaging.
  • a case where a forward-looking person H0 exists in the inner area R0 and a person H1 exists in the outer area R1 is illustrated as an example.
  • the display control unit 113 may display the inward content C11 on the front surface D1 and the outward content C21 on the back surface D2.
  • the content displayed on each of the front surface D1 and the back surface D2 is not limited to such an example.
  • the display control unit 113 may display a predetermined image different from the inner content C11 and the outer content C21 on the front surface D1.
  • a character string C13 is displayed as an example of the predetermined image, but the predetermined image is not limited to the character string C13.
  • the character string C13 includes the current date and the place name, but the character string C13 is not limited to such an example.
  • the character string C13 may include an event name.
  • operation examples of the terminal 20 and the display control device 10 will be described.
  • an operation example of the terminal 20 will be described in an example in which the display of at least one of the front surface D1 and the back surface D2 is changed for imaging.
  • FIG. 15 is a flowchart illustrating an operation example of the terminal 20 according to an example in which the display of at least one of the front surface D1 and the back surface D2 is changed for imaging.
  • the terminal 20 detects a connection to the network 931 (S21), and when the activation operation of the camera application is detected from the person H1, the camera application is activated (S22).
  • the display control device displays information indicating that imaging is to be performed from now on (hereinafter also referred to as “imaging mode on”) via the network 931. 10 (S24).
  • the terminal 20 waits until a predetermined time elapses (“No” in S25), and when the predetermined time elapses (“Yes” in S25), the terminal 20 performs imaging using the imaging function of the terminal 20 (S26). For example, the person H0 existing in the inner area R0 is imaged by the terminal 20. When the imaging is finished, the terminal 20 transmits information indicating that the imaging has been performed (hereinafter also referred to as “imaging mode off”) to the display control device 10 (S27).
  • FIG. 16 is a flowchart illustrating an operation example of the display control apparatus 10 according to an example in which the display of at least one of the front surface D1 and the back surface D2 is changed for imaging.
  • the display control unit 113 displays an image on the front surface D1, and displays an image on the back surface D2 (S31).
  • the video displayed on the front surface D1 corresponds to the above-described example of the front side content
  • the video displayed on the back surface D2 corresponds to the above-described example of the back side content.
  • the display control unit 113 proceeds to S31.
  • the display control unit 113 proceeds to S33.
  • the display control unit 113 temporarily stops the image on the front surface D1 and the image on the back surface D2. Or the display control part 113 adjusts the light quantity of the image
  • the display control unit 113 proceeds to S33.
  • the display control unit 113 proceeds to S31.
  • FIG. 17 is a block diagram illustrating a hardware configuration example of the display control apparatus 10 according to the embodiment of the present disclosure.
  • the display control device 10 includes a CPU (Central Processing unit) 801, a ROM (Read Only Memory) 803, and a RAM (Random Access Memory) 805.
  • the display control device 10 may also include a host bus 807, a bridge 809, an external bus 811, an interface 813, a storage device 819, a drive 821, a connection port 823, and a communication device 825.
  • the display control device 10 may include a processing circuit called a DSP (Digital Signal Processor) or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 801.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • the CPU 801 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the display control unit 10 according to various programs recorded in the ROM 803, the RAM 805, the storage unit 819, or the removable recording medium 827.
  • the ROM 803 stores programs used by the CPU 801, calculation parameters, and the like.
  • the RAM 805 temporarily stores programs used in the execution of the CPU 801, parameters that change as appropriate during the execution, and the like.
  • the CPU 801, the ROM 803, and the RAM 805 are connected to each other by a host bus 807 configured by an internal bus such as a CPU bus. Further, the host bus 807 is connected to an external bus 811 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 809.
  • PCI Peripheral Component Interconnect / Interface
  • the storage device 819 is a data storage device configured as an example of a storage unit of the display control device 10.
  • the storage device 819 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 819 stores programs executed by the CPU 801, various data, various data acquired from the outside, and the like.
  • the drive 821 is a reader / writer for a removable recording medium 827 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the display control device 10.
  • the drive 821 reads information recorded on the mounted removable recording medium 827 and outputs the information to the RAM 805. Further, the drive 821 writes a record in the attached removable recording medium 827.
  • the connection port 823 is a port for directly connecting a device to the display control device 10.
  • the connection port 823 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 823 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 825 is a communication interface configured by a communication device for connecting to the network 931, for example.
  • the communication device 825 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 825 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 825 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the network 931 connected to the communication device 825 is a wired or wireless network, such as the Internet, home LAN, infrared communication, radio wave communication, or satellite communication.
  • the front D1 and the back D2 are displayed according to whether or not a person is present in the inner region R0 of the space between the front D1 and the back D2.
  • a display control apparatus 10 including a display control unit 113 to be controlled is provided. Then, when a person exists in the inner region R0, the display control unit 113 can present the content so that the person is more strongly attracted to the content.
  • the display of each of the first display area and the second display area is controlled according to whether or not a person is present in the inner area of the space between the first display area and the second display area.
  • a display control unit ; Display control device.
  • the display control unit further includes the first display area and the second display area according to whether or not a person exists in an outer area of a space between the first display area and the second display area. Control the display of each display area, The display control device according to (1).
  • the display control unit controls the display of the first display area and the second display area according to the direction of the person when a person is present in the inner area.
  • the display control apparatus according to (1) or (2).
  • the display control unit determines whether the person is facing the first display area or the second display area. Control the display of each of the second display areas, The display control device according to (3).
  • the display control unit is configured based on whether more persons are facing the first display area or the second display area. Controlling the display of each of the first display area and the second display area; The display control apparatus according to (1) or (2).
  • the display control unit operates based on whether more persons are facing the first display area or the second display area. Determine the target display area, The display control apparatus according to (1) or (2).
  • the display control unit when the content is displayed in the inner area, Control to be displayed in the first display area, The display control apparatus according to (1) or (2).
  • the display control unit when a person is present in the inner area, controls so that predetermined content is displayed in a shielding area by a person existing in the inner area in the second display area.
  • the display control apparatus according to (1) or (2).
  • the display control unit controls the first content to be displayed in the first display area and controls the second content to be displayed in the second display area.
  • the display control apparatus according to any one of (1) to (6).
  • the display control unit when a person is present in the inner area, controls parameters of the first content and the second content according to the position of the person present in the inner area, The display control apparatus according to (9).
  • the parameter includes at least one of blur amount and brightness.
  • (12) The display control unit when a predetermined operation performed before imaging is detected, stops the movement of each of the first content and the second content for a predetermined time.
  • the display control apparatus according to any one of (9) to (11).
  • the display control unit removes a part or the whole of the region corresponding to the outline of the person existing in the inner region from the first content when a predetermined operation performed before imaging is detected.
  • the display control apparatus according to any one of (9) to (11).
  • the display control unit reduces the brightness of the first content when a predetermined operation performed before imaging is detected; The display control apparatus according to any one of (9) to (11).
  • the display control unit performs control so that a synthesized content obtained by synthesizing the first content and the second content is displayed in the second display area when a predetermined operation performed before imaging is detected.
  • the display control unit is configured to display the first content and the second content in at least one of the first display region and the second display region. Control to display a predetermined image different from The display control apparatus according to any one of (9) to (11).
  • the predetermined operation is any one of an activation operation of an application for imaging, a pressing operation of a shutter button for imaging, a half-pressing operation of the shutter button, and an explicit operation for instructing that imaging is to be performed in the future.
  • the display control apparatus according to any one of (12) to (16).
  • In the first display area there is a transmissive screen, The second display area is visible through the first display area;
  • the display control device according to any one of (1) to (17).
  • the processor displays each of the first display area and the second display area depending on whether or not a person is present in the inner area of the space between the first display area and the second display area.
  • To control Including a display control method.
  • Computer The display of each of the first display area and the second display area is controlled according to whether or not a person is present in the inner area of the space between the first display area and the second display area.
  • a display control unit A program for functioning as a display control device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

人物がより強くコンテンツに惹きつけられるようにコンテンツを提示する技術が提供されることが望まれる。第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、表示制御装置が提供される。

Description

表示制御装置、表示制御方法およびプログラム
 本開示は、表示制御装置、表示制御方法およびプログラムに関する。
 近年、コンテンツを表示領域に表示させる技術が存在する。例えば、コンテンツの例としての画像を光源からスクリーンに投射することによってコンテンツを表示領域に表示させる技術が存在する(例えば、特許文献1参照。)。かかる技術によれば、表示領域に表示されたコンテンツが人物によって閲覧される。
特開2015-127755号公報
 しかし、人物がより強くコンテンツに惹きつけられるようにコンテンツを提示する技術が提供されることが望まれる。
 本開示によれば、第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、表示制御装置が提供される。
 本開示によれば、プロセッサにより、第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御すること、を含む、表示制御方法が提供される。
 本開示によれば、コンピュータを、第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、表示制御装置として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、人物がより強くコンテンツに惹きつけられるようにコンテンツを提示することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る表示制御システムの構成例を示す図である。 同実施形態に係る表示制御装置の機能構成例を示すブロック図である。 コンテンツの出し分けの一例について説明するための図である。 コンテンツの出し分けの各例を纏めた表である。 コンテンツの出し分けの動作例を示すフローチャートである。 内側領域に複数の人物が存在する場合について説明するための図である。 内側領域に複数の人物が存在する他の場合について説明するための図である。 遮蔽領域を補完する手法の例を説明するための図である。 遮蔽領域を利用する手法の例を説明するための図である。 前面側コンテンツおよび背面側コンテンツそれぞれのぼかし量を制御する手法の例を説明するための図である。 前面側コンテンツおよび背面側コンテンツそれぞれのぼかし量を制御する手法の例を説明するための図である。 前面の表示を撮像用に変更する例を説明するための図である。 前面および背面それぞれの表示を撮像用に変更する例を説明するための図である。 前面の表示を撮像用に変更する他の例を説明するための図である。 前面および背面の少なくともいずれか一方の表示を撮像用に変更する例に係る端末の動作例を示すフローチャートである。 前面および背面の少なくともいずれか一方の表示を撮像用に変更する例に係る表示制御装置の動作例を示すフローチャートである。 表示制御装置のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 0.背景
 1.本開示の実施形態
  1.1.システム構成例
  1.2.機能構成例
  1.3.表示制御システムの機能詳細
   1.3.1.コンテンツの出し分け
   1.3.2.複数の人物が存在する場合
   1.3.3.遮蔽領域の補完および利用
   1.3.4.パラメータの制御
   1.3.5.内側領域に存在する人物の撮像
  1.4.情報処理システムの動作例
  1.5.ハードウェア構成例
 2.むすび
 <0.背景>
 近年、コンテンツを表示領域に表示させる技術が存在する。例えば、コンテンツの例としての画像を光源からスクリーンに投射することによってコンテンツを表示領域に表示させる技術が存在する(例えば、特開2015-127755号公報。)。かかる技術によれば、表示領域に表示されたコンテンツが人物によって閲覧される。しかし、人物がより強くコンテンツに惹きつけられるようにコンテンツを提示する技術が提供されることが望まれる。
 <1.本開示の実施形態>
 [1.1.システム構成例]
 まず、図面を参照しながら本開示の一実施形態に係る表示制御システムの構成例について説明する。図1は、本開示の一実施形態に係る表示制御システムの構成例を示す図である。図1に示したように、表示制御システム1は、表示制御装置10と、端末20と、プロジェクタ30-1と、プロジェクタ30-2と、センサ40とを備える。本明細書においては、ネットワーク931が無線LAN(Local Area Network)である場合を主に想定するが、後にも説明するように、ネットワーク931の種類は限定されない。ここで、表示制御装置10と端末20とは、ネットワーク931を介して通信を行うことが可能である。
 表示制御装置10は、コンピュータ(例えば、サーバなど)であることが想定される。端末20は、人物H1によって保持されている。図1に示した例では、端末20がスマートフォンである場合を想定しているが、端末20の種類は特に限定されない。例えば、端末20は、ゲーム機であってもよいし、携帯電話であってもよいし、タブレット端末であってもよいし、PC(Personal Computer)であってもよいし、他の端末であってもよい。
 プロジェクタ30-1は、表示制御装置10による制御に従って第1の表示領域D1の表示を行い、プロジェクタ30-2は、表示制御装置10による制御に従って第2の表示領域D2の表示を行う。図1を参照すると、第1の表示領域D1と第2の表示領域D2との間の空間の内側領域R0が示されている。さらに、第1の表示領域D1と第2の表示領域D2との間の空間の外側領域R1が示されている。
 また、図1には、内側領域R0に人物H0が存在する例が示されている。しかし、後に詳細に説明するように、内側領域R0には複数の人物が存在してもよいし、人物が存在しなくてもよい。また、図1には、外側領域R1には人物H1が存在する例が示されている。しかし、後に詳細に説明するように、外側領域R1には複数の人物が存在してもよいし、人物が存在しなくてもよい。
 なお、以下においては、説明の都合上、紙面の手前側を「前」として扱い、紙面の奥側を「後」として扱う。図1を参照すると、第1の表示領域D1は、第2の表示領域D2よりも前に存在している(第2の表示領域D2が第1の表示領域D1よりも背面に存在している)。そのため、内側領域R0に存在する人物H0は、前を向いている場合、第1の表示領域(以下、「前面」とも言う。)D1を見ることが可能であり、後ろを向いている場合、第2の表示領域(以下、「背面」とも言う。)D2を見ることが可能である。
 さらに、図1を参照すると、外側領域R1に存在する人物H1は、前面D1よりも前に存在している。ここで、本明細書においては、前面D1にスクリーン(以下、「前面側スクリーン」とも言う。)が存在するとともに背面D2にスクリーン(以下、「背面側スクリーン」とも言う。)が存在し、プロジェクタ30-1が前面側スクリーンに光を投射することによって前面D1の表示を行うとともにプロジェクタ30-2が背面側スクリーンに光を投射することによって背面D2の表示を行う例を説明する。
 したがって、人物H1から見て、内側領域R0に存在する人物H0および背面D2が前面D1によって遮蔽される。そのため、前面D1が仮に光を透過しない場合、人物H1から人物H0および背面D2が見えない状況となり得る。
 本明細書においては、前面D1に光を透過する性質を有するスクリーン(以下、「透過型スクリーン」とも言う。)が存在し、前面D1を通して背面D2が視認可能である場合を主に想定する。そのため、人物H1は、前面D1だけではなく人物H0および背面D2を見ることが可能である。そして、図1に示すように、人物H1が端末20の撮像機能を利用して人物H0を撮像しようとする場合、前面D1を通して人物H0と背面D2とが撮像され得る。
 また、本明細書においては、人物H1が有する端末20の撮像機能によって撮像がなされる場合を主に想定する。しかし、人物H1が有する端末20以外の撮像機能によって撮像がなされてもよい。例えば、外側領域R1にカメラが設置されている場合、当該カメラの撮像機能によって撮像がなされてもよい。かかる場合、外側領域R1に人物H1は存在していてもよいし、存在していなくてもよい。
 なお、前面D1に存在する前面側スクリーンは、光を透過する性質を有するとともにプロジェクタ30-1からの光の投射によって投影がなされる性質を有するスクリーン(以下、「半透過型スクリーン」とも言う。)であるのがよい。ここで、半透過型スクリーンはどのような材質を有する物質を含んでもよい。例えば、半透過型スクリーンは、半透明のフィルムを含んでもよいし、メッシュ素材の面を含んでもよいし、網目状をなす面(例えば、網戸など)を含んでもよい。
 一方、背面D2に存在する背面側スクリーンは、どのような種類のスクリーンであってもよい。すなわち、背面D2に存在する背面側スクリーンは、光を透過しない性質を有するスクリーン(以下、「不透過スクリーン」とも言う。)であってもよいし、透過型スクリーン(例えば、半透過型スクリーンなど)であってもよい。
 本明細書においては、プロジェクタ30-1が前面側スクリーンに光を投射することによって前面D1の表示を行うとともにプロジェクタ30-2が背面側スクリーンに光を投射することによって背面D2の表示を行う例を説明する。しかし、前面D1および背面D2それぞれの表示は、どのようになされてもよい。
 例えば、プロジェクタ30-1は、前面D1にホログラムを映し出すホログラムプロジェクタであってもよい。このとき、前面D1に前面側スクリーンは存在しなくてもよい。同様に、プロジェクタ30-2は、背面D2にホログラムを映し出すホログラムプロジェクタであってもよい。このとき、背面D2に背面側スクリーンは存在しなくてもよい。
 プロジェクタ30-1および前面側スクリーンの代わりに、前面D1に表示を行う各種の表示装置が用いられてもよい。同様に、プロジェクタ30-2および背面側スクリーンの代わりに、背面D2に表示を行う各種の表示装置が用いられてもよい。表示装置の種類は、特に限定されず、液晶ディスプレイであってもよいし、有機EL(Electro-Luminescence)ディスプレイであってもよいし、他のディスプレイであってもよい。表示装置は、光を透過する性質を有するディスプレイ(透過ディスプレイ)であってもよい。
 なお、本明細書においては、前面D1と背面D2との間の空間として、前面D1と背面D2とに挟まれる空間を主に例として取り挙げる。しかし、前面D1と背面D2との間の空間は、厳密に前面D1と背面D2とに挟まれる空間ではなくてもよい。例えば、前面D1と背面D2との間の空間は、外側領域R1に存在する人物H1から見て前面D1によって遮蔽される空間の一部または全部であってもよい。
 センサ40は、検出可能範囲に存在する人物の位置を検出する。ここで、センサ40の種類は特に限定されない。例えば、センサ40は、可視光カメラであってもよいし、赤外線センサであってもよいし、超音波センサであってもよいし、ミリ波レーダであってもよいし、他のセンサであってもよい。なお、本明細書においては、センサ40がデプスセンサであり、センサ40から人物までの距離を含んだ3次元的な人物の位置がセンサ40によって検出される場合を主に想定する。
 センサ40の検出可能範囲は、少なくとも内側領域R0を含んでいる。また、本明細書において、センサ40の検出可能範囲は、追加的に外側領域R1を含む場合を主に想定する。センサ40による検出結果は、表示制御装置10に提供され、表示制御装置10による制御に利用される。
 以上、本実施形態に係る表示制御システム1の構成例について説明した。
 [1.2.機能構成例]
 続いて、本実施形態に係る表示制御装置10の機能構成例について説明する。図2は、本実施形態に係る表示制御装置10の機能構成例を示すブロック図である。図2に示したように、表示制御装置10は、制御部110、記憶部120および通信部130を備える。以下、表示制御装置10が備えるこれらの機能ブロックについて説明する。
 制御部110は、表示制御装置10の各部の制御を実行する。なお、制御部110は、例えば、CPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。制御部110がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。図2に示したように、制御部110は、データ取得部111、判定部112および表示制御部113を有する。制御部110が有するこれらのブロックについては、後に詳細に説明する。
 記憶部120は、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録デバイスである。また、記憶部120は、制御部110による演算のためにデータを一時的に記憶する。なお、記憶部120は、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。
 通信部130は、人物H1が有する端末20との間で通信を行う機能を有する。例えば、通信部130は、通信インターフェースにより構成される。例えば、通信部130は、ネットワーク931(図1)を介して、人物H1が有する端末20との間で通信を行うことが可能である。
 以上、本実施形態に係る表示制御装置10の機能構成例について説明した。
 [1.3.表示制御システムの機能詳細]
 続いて、表示制御システム1の機能詳細について説明する。
  (1.3.1.コンテンツの出し分け)
 表示制御部113は、前面D1の表示を制御するとともに背面D2の表示を制御する。ここで、前面D1の表示制御には、前面D1への第1のコンテンツ(以下、「前面側コンテンツ」とも言う。)の表示制御が含まれ得る。しかし、前面D1の表示制御は、かかる例に限定されない。例えば、前面D1の表示制御には、前面D1に前面側コンテンツを全く表示させないという制御も含まれ得る。
 また、背面D2の表示制御には、第2のコンテンツ(以下、「背面側コンテンツ」とも言う。)の表示制御が含まれ得る。しかし、背面D2の表示制御は、かかる例に限定されない。例えば、背面D2の表示制御には、背面D2に背面側コンテンツを全く表示させないという制御も含まれ得る。
 なお、本明細書においては、前面側コンテンツが動画である場合を主に想定する。しかし、前面側コンテンツは動画に限定されない。例えば、前面側コンテンツは静止画であってもよい。同様に、本明細書においては、背面側コンテンツが動画である場合を主に想定する。しかし、背面側コンテンツは動画に限定されない。例えば、背面側コンテンツは静止画であってもよい。
 前面D1に表示される前面側コンテンツには、内側領域R0に存在する人物H0に見せる前面側コンテンツが含まれ得る。あるいは、前面D1に表示される前面側コンテンツには、外側領域R1に存在する人物H1に見せる前面側コンテンツが含まれ得る。前面D1に前面側コンテンツとしていずれを表示させるかは、状況によって異ならせるのがよい(コンテンツの出し分けをするのがよい)。
 また、背面D2に表示される背面側コンテンツには、内側領域R0に存在する人物H0に見せる背面側コンテンツが含まれ得る。あるいは、背面D2に表示される背面側コンテンツには、外側領域R1に存在する人物H1に見せる背面側コンテンツが含まれ得る。背面D2に背面側コンテンツとしていずれを表示させるかは、状況によって異ならせるのがよい(コンテンツの出し分けをするのがよい)。
 以下では、内側領域R0に存在する人物H0に見せる前面側コンテンツと内側領域R0に存在する人物H0に見せる背面側コンテンツとが同じコンテンツであるとして、それぞれのコンテンツを「内側向けコンテンツ」と称することにする。しかし、内側領域R0に存在する人物H0に見せる前面側コンテンツと内側領域R0に存在する人物H0に見せる背面側コンテンツとは、異なるコンテンツであってもよい。
 また、以下では、外側領域R1に存在する人物H1に見せる前面側コンテンツと外側領域R1に存在する人物H1に見せる背面側コンテンツとが同じコンテンツであるとして、それぞれのコンテンツを「外側向けコンテンツ」と称することにする。しかし、外側領域R1に存在する人物H1に見せる前面側コンテンツと外側領域R1に存在する人物H1に見せる背面側コンテンツとは、異なるコンテンツであってもよい。
 以下では、このようなコンテンツの出し分けについて詳細に説明する。図3は、コンテンツの出し分けの一例について説明するための図である。まず、上記したように、センサ40によって検出可能範囲に存在する人物の位置が検出される。より詳細には、センサ40から人物までの距離を含んだ3次元的な人物の位置がセンサ40によって検出される。データ取得部111は、かかる検出結果をセンサ40から取得する。
 判定部112は、センサ40による検出結果に基づいて内側領域R0に人物が存在するか否かを判定する。ここで、表示制御部113は、内側領域R0に人物が存在するか否かに応じて、前面D1および背面D2それぞれの表示を制御するのがよい。そうすれば、表示制御部113は、内側領域R0に人物が存在する場合に、その人物がより強くコンテンツに惹きつけられるようにコンテンツを提示することが可能となる。
 そして、表示制御部113は、外側領域R1に人物が存在するか否かにさらに応じて、前面D1および背面D2それぞれの表示を制御するのがよい。そうすれば、表示制御部113は、内側領域R0および外側領域R1それぞれに人物が存在する場合に、それぞれの人物がより強くコンテンツに惹きつけられるようにコンテンツを提示することが可能となる。
 また、判定部112は、センサ40による検出結果に基づいて、人物の方向を判定することも可能である。そして、表示制御部113は、内側領域R0に人物が存在する場合、人物の方向に応じて、前面D1および背面D2それぞれの表示を制御することが可能である。
 ここで、人物の方向は限定されないが、以下の説明においては、人物の方向として、前向きと後ろ向きとを具体的な例として挙げる。すなわち、表示制御部113は、内側領域R0に人物が存在する場合、人物が前面D1および背面D2のいずれに向いているかに応じて、前面D1および背面D2それぞれの表示を制御することが可能である。
 図3には、内側領域R0に前向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合が例として示されている。かかる場合、内側領域R0に存在する人物H0は前面D1を見る可能性が高い。したがって、表示制御部113は、前面D1に内側向けコンテンツC11を表示させ、背面D2に外側向けコンテンツC21を表示させるのがよい。
 かかる場合、人物H1は、背面D2に表示された外側向けコンテンツC21を、前面D1を通して見ることが可能である。このとき、表示制御部113は、前面D1に表示された内側向けコンテンツC11の輝度よりも背面D2に表示された外側向けコンテンツC21の輝度を高くすることによって(あるいは、前面D1に表示された内側向けコンテンツC11のコントラストよりも背面D2に表示された外側向けコンテンツC21のコントラストを高くすることによって)、人物H1に対して背面D2に表示された外側向けコンテンツC21を見やすくしてもよい。
 なお、図3に示した例では、内側向けコンテンツC11が柵の映像として示されているが、内側向けコンテンツC11はどのような映像であってもよい。同様に、図3に示した例では、外側向けコンテンツC21が景色の映像として示されているが、外側向けコンテンツC21はどのような映像であってもよい。
 コンテンツの出し分けの例は、図3に示した例に限定されない。以下では、コンテンツの出し分けの各例について説明する。図4は、コンテンツの出し分けの各例を纏めた表である。図4に示した表のうち、上段左欄は、内側領域R0に前向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合(図3に示した場合)を示している。このとき、図3を参照しながら説明したように、表示制御部113は、前面D1に内側向けコンテンツC11を表示させ、背面D2に外側向けコンテンツC21を表示させるのがよい。
 図4に示した表のうち、上段中央欄は、内側領域R0に後ろ向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合を示している。かかる場合、内側領域R0に存在する人物H0は背面D2を見る可能性が高い。したがって、表示制御部113は、背面D2に内側向けコンテンツを表示させ、前面D1に外側向けコンテンツを表示させるのがよい。
 かかる場合、人物H1は、前面D1に表示された外側向けコンテンツを見ることが可能である。このとき、表示制御部113は、背面D2に表示された内側向けコンテンツの輝度よりも前面D1に表示された外側向けコンテンツの輝度を高くすることによって(あるいは、背面D2に表示された内側向けコンテンツのコントラストよりも前面D1に表示された外側向けコンテンツのコントラストを高くすることによって)、人物H1に対して前面D1に表示された外側向けコンテンツを見やすくしてもよい。
 図4に示した表のうち、上段右欄は、内側領域R0に人物が存在せず、かつ、外側領域R1に人物H1が存在する場合を示している。かかる場合、前面D1および背面D2の双方が外側領域R1に存在する人物H1によって見られる可能性が高い。したがって、表示制御部113は、前面D1および背面D2それぞれに外側向けコンテンツを表示させるのがよい。前面D1に表示される外側向けコンテンツと背面D2に表示される外側向けコンテンツとは、同一であってもよいが、異なっているのがよい。
 前面D1に表示される外側向けコンテンツと背面D2に表示される外側向けコンテンツとが異なる場合、それぞれの外側向けコンテンツは、無関係であってもよいが、何らかの関係性を有しているのが望ましい。例えば、背面D2に表示される外側向けコンテンツは、木の映像であり、前面D1に表示される外側向けコンテンツは、その木から落下した葉の映像であってもよい。このようにそれぞれの外側向けコンテンツが関係性を有していれば、一体感のある映像を人物H1に見せることが可能となる。
 図4に示した表のうち、下段欄は、内側領域R0に人物H0が存在し、かつ、外側領域R1に人物が存在しない場合を示している。かかる場合、前面D1および背面D2の双方が内側領域R0に存在する人物H0によって見られる可能性が高い。したがって、表示制御部113は、前面D1および背面D2それぞれに内側向けコンテンツを表示させるのがよい。前面D1に表示される内側向けコンテンツと背面D2に表示される内側向けコンテンツとは、同一であってもよいが、異なっているのがよい。
 前面D1に表示される内側向けコンテンツと背面D2に表示される内側向けコンテンツとが異なる場合、それぞれの内側向けコンテンツは、無関係であってもよいが、何らかの関係性を有しているのが望ましい。例えば、背面D2に表示される内側向けコンテンツは、乗り物の内部から一方向に見える景色の映像であり、前面D1に表示される内側向けコンテンツは、乗り物の内部から当該一方向とは反対方向に見える景色の映像であってもよい。このようにそれぞれの内側向けコンテンツが関係性を有していれば、一体感のある映像を人物H0に見せることが可能となる。
 続いて、コンテンツの出し分けの動作例について説明する。
 図5は、コンテンツの出し分けの動作例を示すフローチャートである。図5に示すように、上記したように、センサ40によって検出可能範囲に存在する人物の位置が検出される。より詳細には、センサ40から人物までの距離を含んだ3次元的な人物の位置がセンサ40によって検出される。データ取得部111は、かかる検出結果をセンサ40から取得する。続いて、判定部112は、センサ40による検出結果に基づいて内側領域R0に人物が存在するか否かを判定する(S11)。
 表示制御部113は、内側領域R0に人物が存在しない場合(S11において「No」)、前面D1および背面D2それぞれに外側向けコンテンツを表示させる(S17)。ここで、前面D1に表示される外側向けコンテンツと背面D2に表示される外側向けコンテンツとは、同一であってもよいが、異なっているのがよい。表示制御部113が前面D1および背面D2それぞれに外側向けコンテンツを表示させると、制御部110は、S11に移行する。
 一方、表示制御部113は、内側領域R0に人物が存在する場合(S11において「Yes」)、S12に移行する。
 続いて、判定部112は、センサ40による検出結果に基づいて外側領域R1に人物が存在するか否かを判定する(S12)。表示制御部113は、外側領域R1に人物が存在しない場合(S12において「No」)、前面D1および背面D2それぞれに内側向けコンテンツを表示させる(S16)。ここで、前面D1に表示される内側向けコンテンツと背面D2に表示される内側向けコンテンツとは、同一であってもよいが、異なっているのがよい。表示制御部113が前面D1および背面D2それぞれに内側向けコンテンツを表示させると、制御部110は、S11に移行する。
 一方、表示制御部113は、外側領域R1に人物が存在する場合(S12において「Yes」)、S13に移行する。
 続いて、判定部112は、センサ40による検出結果に基づいて内側領域R0に存在する人物が前向きであるか否かを判定する(S13)。表示制御部113は、内側領域R0に存在する人物が後ろ向きである場合(S13において「No」)、前面D1に外側向けコンテンツを表示させるとともに背面D2に内側向けコンテンツを表示させる(S15)。表示制御部113が前面D1に外側向けコンテンツを表示させ、背面D2に内側向けコンテンツを表示させると、制御部110は、S11に移行する。
 一方、表示制御部113は、内側領域R0に存在する人物が前向きである場合(S13において「Yes」)、前面D1に内側向けコンテンツを表示させるとともに背面D2に外側向けコンテンツを表示させる(S14)。表示制御部113が前面D1に内側向けコンテンツを表示させ、背面D2に外側向けコンテンツを表示させると、制御部110は、S11に移行する。
 以上、コンテンツの出し分けについて説明した。
  (1.3.2.複数の人物が存在する場合)
 上記では、内側領域R0に人物H1が1人存在する例を主に説明した。しかし、内側領域R0に複数の人物が存在する場合も想定される。かかる場合には、前面D1および背面D2のいずれに対して、より多くの人物が向いているかに基づいて、前面D1および背面D2それぞれの表示を制御するのがよい。そうすれば、より多くの人物が強くコンテンツに惹きつけられるようにコンテンツを提示することが可能となる。
 図6は、内側領域R0に複数の人物が存在する場合について説明するための図である。図6を参照すると、内側領域R0には、人物H0の他に、人物H2および人物H3が存在している。すなわち、図6に示す例では、内側領域R0に3人の人物が存在している。そして、人物H0および人物H3は、前面D1を向いているのに対し、人物H2は背面D2を向いている。しかし、内側領域R0に存在する人物の数およびそれぞれの人物の向きは限定されない。
 図6に示した例では、背面D2よりも前面D1に対してより多くの人物が向いている。そこで、表示制御部113は、より多くの人物が向いている前面D1に内側向けコンテンツC12を表示させるのがよい。一方、仮に前面D1よりも背面D2に対してより多くの人物が向いている場合、表示制御部113は、背面D2に内側向けコンテンツC12を表示させればよい。なお、図6に示した例では、内側向けコンテンツC12がデジタル時計の映像として示されているが、内側向けコンテンツC12はどのような映像であってもよい。
 また、図6に示した例では、背面D2にコンテンツが全く表示されていない。しかし、図6に示した例では、外側領域R1にも人物H1が存在している。このように、外側領域R1にも人物H1が存在する場合、表示制御部113は、背面D2に外側向けコンテンツを表示させてもよい。そうすれば、外側領域R1に存在する人物H1は、前面D1を通して背面D2に表示された外側向けコンテンツを見ることが可能となる。
 また、人物によって操作可能なコンテンツが表示される場合も想定される。かかる場合には、前面D1および背面D2のいずれに対して、より多くの人物が向いているかに基づいて、操作可能なコンテンツの表示領域(操作対象の表示領域)を決定するとよい。そうすれば、より多くの人物が強くコンテンツに惹きつけられるようにコンテンツを提示することが可能となる。
 図7は、内側領域R0に複数の人物が存在する他の場合について説明するための図である。図7を参照すると、内側領域R0には、人物H0の他に、人物H2および人物H3が存在している。すなわち、図7に示す例では、内側領域R0に3人の人物が存在している。そして、人物H0および人物H3は、背面D2を向いているのに対し、人物H2は前面D1を向いている。しかし、内側領域R0に存在する人物の数およびそれぞれの人物の向きは限定されない。
 図7に示した例では、前面D1よりも背面D2に対してより多くの人物が向いている。そこで、表示制御部113は、より多くの人物が向いている背面D2に操作可能なコンテンツC22を表示させるのがよい(背面D2を操作対象の表示領域として決定するのがよい)。一方、仮に背面D2よりも前面D1に対してより多くの人物が向いている場合、表示制御部113は、前面D1に操作可能なコンテンツC22を表示させればよい。
 なお、図7に示した例では、操作可能なコンテンツC22が球体の映像として示されており、センサ40による人物H0の撮像映像G0が背面D2に表示されている。そして、操作可能なコンテンツC22は、撮像映像G0に衝突すると跳ね返るように表示されている。しかし、操作可能なコンテンツC22はどのような映像であってもよい。例えば、操作可能なコンテンツC22は、内側領域R0に存在する人物によって押下されると所定の動作が実行されるボタンなどであってもよい。
 また、図7に示した例では、前面D1にコンテンツが全く表示されていない。しかし、図7に示した例では、外側領域R1にも人物H1が存在している。このように、外側領域R1にも人物H1が存在する場合、表示制御部113は、前面D1に外側向けコンテンツを表示させてもよい。そうすれば、外側領域R1に存在する人物H1は、前面D1に表示された外側向けコンテンツを見ることが可能となる。
 以上、内側領域R0に複数の人物が存在する場合について説明した。
  (1.3.3.遮蔽領域の補完および利用)
 ここで、内側領域R0に人物が存在する場合を想定する。かかる場合、内側領域R0に存在する人物によって背面D2の一部または全部が遮蔽されることがあり得る。ここで、背面D2のうち、内側領域R0に存在する人物によって遮蔽される領域を「遮蔽領域」とも言う。以下では、遮蔽領域を補完する手法について説明した後、遮蔽領域を利用する手法について説明する。
 図8は、遮蔽領域を補完する手法の例を説明するための図である。図8に示すように、背面D2に外側向けコンテンツC21が表示されている。また、内側領域R0には人物H0が存在し、外側領域R1には人物H1が存在している。そこで、外側領域R1に存在する人物H1から見ると、内側領域R0に存在する人物H0によって背面D2の一部が遮蔽領域J0として遮蔽されている。
 したがって、表示制御部113は、外側向けコンテンツC21における遮蔽領域J0を複製領域K0として前面D1に表示させるとよい。そうすれば、外側領域R1に存在する人物H1は、背面D2のうち遮蔽領域J0以外の領域と、遮蔽領域J0を補完する複製領域K0とを見ることによって、外側向けコンテンツC21の全体を見ることが可能となる。
 なお、背面D2における遮蔽領域J0の位置は、表示制御部113によって算出され得る。すなわち、表示制御部113は、センサ40による検出結果に基づいて、遮蔽領域J0の位置を算出し得る。より詳細には、表示制御部113は、内側領域R0に存在する人物H0の位置と外側領域R1に存在する人物H1の位置とに基づいて、遮蔽領域J0の位置を算出し得る。このとき、図8に示すように、遮蔽領域J0の位置の算出には、センサ40によって検出される人物H0の骨格情報が加味されてもよい。
 図9は、遮蔽領域を利用する手法の例を説明するための図である。図9に示すように、内側領域R0には人物H0が存在し、外側領域R1には人物H1が存在している。そこで、外側領域R1に存在する人物H1から見ると、内側領域R0に存在する人物H0によって背面D2の一部が遮蔽領域J0として遮蔽されている。
 したがって、表示制御部113は、背面D2における遮蔽領域J0に所定のコンテンツを表示させるとよい。所定のコンテンツは特に限定されないが、内側領域R0に存在する人物H0には必要である一方、外側領域R1に存在する人物H1には不要であるようなコンテンツであってもよい。そうすれば、遮蔽領域J0が有効に活用され得る。図9には、所定のコンテンツの例として、背面D2における遮蔽領域J0に背面D2の操作を説明する文字列M0が表示されている。
 なお、図8を参照しながら説明したように、背面D2における遮蔽領域J0の位置は、表示制御部113によって算出され得る。図9を参照すると、背面D2の遮蔽領域J0以外の領域には全くコンテンツが表示されていないが、背面D2の遮蔽領域J0以外の領域には、内側向けコンテンツが表示されていてもよい。また、図9を参照すると、前面D1には全くコンテンツが表示されていないが、前面D1には、外側向けコンテンツが表示されてもよい。
 以上、遮蔽領域J0の補完および利用について説明した。
  (1.3.4.パラメータの制御)
 同様に、内側領域R0に人物が存在する場合を想定する。かかる場合、表示制御部113は、内側領域R0に存在する人物の位置に応じて、前面側コンテンツおよび背面側コンテンツそれぞれのパラメータを制御するとよい。そうすれば、外側領域R1に存在する人物に対して、内側領域R0に存在する人物の位置付近にピントが合っているように見せることが可能となる。
 ここで、パラメータは特に限定されない。例えば、パラメータは、ぼかし量および明るさの少なくともいずれか一方を含んでよい。例えば、表示制御部113は、パラメータがぼかし量を含む場合、人物H0が前面D1に近づくほど、前面側コンテンツのぼかし量を小さくするとともに、背面側コンテンツのぼかし量を大きくしてもよい。あるいは、表示制御部113は、パラメータが明るさを含む場合、人物H0が前面D1に近づくほど、前面側コンテンツの明るさを大きくするとともに、背面側コンテンツの明るさを小さくしてもよい。
 以下では、表示制御部113によって制御されるパラメータとして、ぼかし量を例に挙げて説明する。
 図10および図11は、前面側コンテンツおよび背面側コンテンツそれぞれのぼかし量を制御する手法の例を説明するための図である。図10および図11を参照すると、背面D2に外側向けコンテンツC21が表示され、前面D1に内側向けコンテンツが表示されている。また、内側領域R0には人物H0が存在し、外側領域R1には人物H1が存在している。しかし、図10に示した例では、人物H0が前面D1の近くに存在し、図11に示した例では、人物H0が背面D2の近くに存在している。
 図10に示すように、人物H0が前面D1の近くに存在する場合、表示制御部113は、前面D1に表示されているコンテンツC11のぼかし量を小さくするとともに、背面D2に表示されているコンテンツC21のぼかし量を大きくするとよい。一方、図11に示すように、人物H0が背面D2の近くに存在する場合、表示制御部113は、前面D1に表示されているコンテンツC11のぼかし量を大きくするとともに、背面D2に表示されているコンテンツC21のぼかし量を小さくするとよい。
 以上、表示制御部113によって制御されるパラメータについて説明した。
  (1.3.5.内側領域に存在する人物の撮像)
 同様に、内側領域R0に人物が存在する場合を想定する。内側領域R0に存在する人物が外側領域R1から端末20によって撮像される場合、前面D1および背面D2の少なくともいずれか一方の表示が撮像用に変更されるのがよい。そうすれば、前面D1および背面D2の少なくともいずれか一方の表示が撮像に適するようになる。具体的に、表示制御部113は、撮像前になされる所定の操作が検出された場合、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更するとよい。
 ここで、撮像前になされる所定の操作は特に限定されない。例えば、撮像前になされる所定の操作は、撮像を行うアプリケーション(以下、単に「カメラアプリ」とも言う。)の起動操作を含んでもよい。例えば、カメラアプリの起動操作は、端末20に対して人物H1によって行われ得る。あるいは、撮像前になされる所定の操作は、撮像のためのシャッタボタンの押下操作を含んでもよい。例えば、撮像のためのシャッタボタンは、端末20に設けられており、人物H1によって押下され得る。
 あるいは、撮像前になされる所定の操作は、撮像のためのシャッタボタンの半押し操作を含んでもよい。例えば、撮像のためのシャッタボタンは、端末20に設けられており、人物H1によって半押し操作がなされ得る。あるいは、撮像前になされる所定の操作は、これから撮像が行われることを指示するための明示的な操作を含んでもよい。例えば、これから撮像が行われることを指示するためのボタンが端末20に設けられており、人物H1によるボタンの押下操作によって明示的な操作がなされ得る。
 以下では、撮像前になされる所定の操作として、シャッタボタンの押下操作を例として挙げて説明する。
 1つ目の例として、表示制御部113は、シャッタボタンの押下操作が検出された場合、前面側コンテンツおよび背面側コンテンツそれぞれの動きを所定時間停止させるとよい。そうすれば、端末20によって撮像される映像にぶれが生じる可能性が低減されることが期待される。ここで、前面側コンテンツおよび背面側コンテンツそれぞれの動きを停止させる所定時間の長さは特に限定されない。
 2つ目の例として、表示制御部113は、シャッタボタンの押下操作が検出された場合、前面側コンテンツの明るさを下げてもよい(光量を小さくしてもよい)。そうすれば、前面側コンテンツの明るさが抑えられるため、内側領域R0に存在する人物H0が映像に適切な明るさで写る可能性が高まる。ここで、前面側コンテンツの明るさをどの程度下げるかは特に限定されない。
 3つ目の例として、表示制御部113は、シャッタボタンの押下操作が検出された場合、前面側コンテンツのうち、内側領域R0に存在する人物H0の輪郭に対応する領域の一部または全体を除去してもよい。そうすれば、前面側コンテンツによって内側領域R0に存在する人物H0の写りが妨げられる可能性が低減され、内側領域R0に存在する人物H0が映像に適切に写る可能性が高まる。ここで、人物H0の輪郭に対応する領域は特に限定されない。以下、この3つ目の例について具体的に説明する。
 図12は、前面D1の表示を撮像用に変更する例を説明するための図である。図12を参照すると、内側領域R0に前向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合が例として示されている。かかる場合、表示制御部113は、前面D1に内側向けコンテンツC11を表示させ、背面D2に外側向けコンテンツC21を表示させてよい。しかし、前面D1および背面D2それぞれに表示されるコンテンツは、かかる例に限定されない。例えば、前面D1には、内側向けコンテンツC11の代わりに外側向けコンテンツが表示されてもよいし、背面D2には、外側向けコンテンツC21の代わりに内側向けコンテンツが表示されてもよい。
 人物H1からは、前面D1に表示されている内側向けコンテンツC11を見ることが可能であるとともに、背面D2に表示されている外側向けコンテンツC21と人物H0とを、前面D1を通して見ることが可能である。人物H1が、撮像を行いたいタイミングに端末20のシャッタボタンを押下すると、端末20によってシャッタボタンの押下操作が検出される。
 表示制御部113は、シャッタボタンの押下操作が検出された場合、前面D1に表示されている内側向けコンテンツC11のうち、内側領域R0に存在する人物H0の輪郭に対応する領域A11を除去してもよい。ここで、人物H0の輪郭に対応する領域A11は特に限定されない。例えば、図12に示すように、人物H0の輪郭に対応する領域A11は、前面D1に表示されている内側向けコンテンツC11のうち、人物H1から見て、人物H0に重なる領域よりも所定幅だけ外側の領域であってもよい。
 4つ目の例として、表示制御部113は、シャッタボタンの押下操作が検出された場合、前面側コンテンツおよび背面コンテンツの合成によって合成コンテンツを生成し、合成コンテンツを背面D2に表示させてもよい。そうすれば、前面側コンテンツによって内側領域R0に存在する人物H0の写りが妨げられる可能性が低減され、内側領域R0に存在する人物H0が映像に適切に写る可能性が高まる。以下、この4つ目の例について具体的に説明する。
 図13は、前面D1および背面D2それぞれの表示を撮像用に変更する他の例を説明するための図である。図13を参照すると、内側領域R0に前向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合が例として示されている。人物H1が、撮像を行いたいタイミングに端末20のシャッタボタンを押下すると、端末20によってシャッタボタンの押下操作が検出される。
 表示制御部113は、シャッタボタンの押下操作が検出された場合、内側向けコンテンツC11および外側向けコンテンツC21の合成によって合成コンテンツを生成し、合成コンテンツを背面D2に表示させてよい。このとき、それまで前面D1に表示されていた内側向けコンテンツC11が表示制御部113によって除去される。そうすれば、内側向けコンテンツC11によって内側領域R0に存在する人物H0の写りが妨げられる可能性が低減され、内側領域R0に存在する人物H0が映像に適切に写る可能性が高まる。
 5つ目の例として、表示制御部113は、シャッタボタンの押下操作が検出された場合、前面D1および背面D2の少なくともいずれか一方に前面側コンテンツおよび背面コンテンツとは異なる所定の画像を表示させてもよい。そうすれば、端末20によって撮像された映像に、前面D1および背面D2の少なくともいずれか一方に表示された所定の画像も写るため、利便性が向上し得る。以下、この5つ目の例について具体的に説明する。
 図14は、前面D1の表示を撮像用に変更する他の例を説明するための図である。図14を参照すると、内側領域R0に前向きの人物H0が存在し、かつ、外側領域R1に人物H1が存在する場合が例として示されている。かかる場合、表示制御部113は、前面D1に内側向けコンテンツC11を表示させ、背面D2に外側向けコンテンツC21を表示させてよい。図12を参照しながら説明したように、前面D1および背面D2それぞれに表示されるコンテンツは、かかる例に限定されない。
 表示制御部113は、シャッタボタンの押下操作が検出された場合、前面D1に内側向けコンテンツC11および外側向けコンテンツC21とは異なる所定の画像を表示させてもよい。図14には、所定の画像の例として文字列C13が表示されているが、所定の画像は文字列C13に限定されない。また、図14に示した例では、文字列C13が現在日付と地名とを含んでいるが、文字列C13は、かかる例に限定されない。例えば、文字列C13は、イベント名を含んでもよい。
 続いて、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更する例において、端末20および表示制御装置10それぞれの動作例について説明する。まず、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更する例において、端末20の動作例について説明する。
 図15は、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更する例に係る端末20の動作例を示すフローチャートである。図15に示すように、端末20は、ネットワーク931への接続を検出し(S21)、人物H1からカメラアプリの起動操作を検出すると、カメラアプリを起動させる(S22)。そして、端末20は、人物H1からシャッタボタンの押下操作を検出すると、ネットワーク931を介して、これから撮像が行われる旨を示す情報(以下、「撮像用モードon」とも言う。)を表示制御装置10に送信する(S24)。
 そして、端末20は、所定時間が経過するまでは待機し(S25において「No」)、所定時間が経過すると(S25において「Yes」)、端末20が有する撮像機能によって撮像を行う(S26)。例えば、内側領域R0に存在する人物H0が端末20によって撮像される。端末20は、撮像が終わると、撮像が行われた旨を示す情報(以下、「撮像用モードoff」とも言う。)を表示制御装置10に送信する(S27)。
 続いて、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更する例において、表示制御装置10の動作例について説明する。
 図16は、前面D1および背面D2の少なくともいずれか一方の表示を撮像用に変更する例に係る表示制御装置10の動作例を示すフローチャートである。図16に示すように、表示制御部113は、前面D1に映像を表示させるとともに、背面D2に映像を表示させる(S31)。前面D1に表示される映像は、上記した前面側コンテンツの例に該当し、背面D2に表示される映像は、上記した背面側コンテンツの例に該当する。
 そして、表示制御部113は、通信部130によって撮像用モードonが受信されない場合には(S32において「No」)、S31に移行する。一方、表示制御部113は、通信部130によって撮像用モードonが受信された場合には(S32において「Yes」)、S33に移行する。
 続いて、表示制御部113は、前面D1の映像および背面D2の映像を一時停止させる。あるいは、表示制御部113は、前面D1の映像の光量を調整する。あるいは、表示制御部113は、前面D1の映像のうち、人物H0に対応する領域の切り抜きを行う。あるいは、表示制御部113は、前面D1および背面D2の少なくともいずれか一方にメッセージを表示させる(S33)。メッセージは、上記した所定の画像の例に該当する。
 そして、表示制御部113は、通信部130によって撮像用モードoffが受信されない場合には(S34において「No」)、S33に移行する。一方、表示制御部113は、通信部130によって撮像用モードoffが受信された場合には(S34において「Yes」)、S31に移行する。
 以上、前面D1および背面D2それぞれの表示を撮像用に変更する例について説明した。
 [1.4.ハードウェア構成例]
 次に、図17を参照して、本開示の実施形態に係る表示制御装置10のハードウェア構成について説明する。図17は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示すブロック図である。
 図17に示すように、表示制御装置10は、CPU(Central Processing unit)801、ROM(Read Only Memory)803、およびRAM(Random Access Memory)805を含む。また、表示制御装置10は、ホストバス807、ブリッジ809、外部バス811、インターフェース813、ストレージ装置819、ドライブ821、接続ポート823、通信装置825を含んでもよい。表示制御装置10は、CPU801に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU801は、演算処理装置および制御装置として機能し、ROM803、RAM805、ストレージ装置819、またはリムーバブル記録媒体827に記録された各種プログラムに従って、表示制御装置10内の動作全般またはその一部を制御する。ROM803は、CPU801が使用するプログラムや演算パラメータなどを記憶する。RAM805は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU801、ROM803、およびRAM805は、CPUバスなどの内部バスにより構成されるホストバス807により相互に接続されている。さらに、ホストバス807は、ブリッジ809を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス811に接続されている。
 ストレージ装置819は、表示制御装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置819は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置819は、CPU801が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ821は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体827のためのリーダライタであり、表示制御装置10に内蔵、あるいは外付けされる。ドライブ821は、装着されているリムーバブル記録媒体827に記録されている情報を読み出して、RAM805に出力する。また、ドライブ821は、装着されているリムーバブル記録媒体827に記録を書き込む。
 接続ポート823は、機器を表示制御装置10に直接接続するためのポートである。接続ポート823は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート823は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート823に外部接続機器829を接続することで、表示制御装置10と外部接続機器829との間で各種のデータが交換され得る。
 通信装置825は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置825は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置825は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置825は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置825に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 <2.むすび>
 以上説明したように、本開示の実施形態によれば、前面D1と背面D2との間の空間の内側領域R0に人物が存在するか否かに応じて、前面D1および背面D2それぞれの表示を制御する表示制御部113を備える、表示制御装置10が提供される。そうすれば、表示制御部113は、内側領域R0に人物が存在する場合に、その人物がより強くコンテンツに惹きつけられるようにコンテンツを提示することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、
 表示制御装置。
(2)
 前記表示制御部は、前記第1の表示領域と前記第2の表示領域との間の空間の外側領域に人物が存在するか否かにさらに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
 前記(1)に記載の表示制御装置。
(3)
 前記表示制御部は、前記内側領域に人物が存在する場合、当該人物の方向に応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
 前記(1)または(2)に記載の表示制御装置。
(4)
 前記表示制御部は、前記内側領域に人物が存在する場合、当該人物が前記第1の表示領域および前記第2の表示領域のいずれに向いているかに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
 前記(3)に記載の表示制御装置。
(5)
 前記表示制御部は、前記内側領域に複数の人物が存在する場合、前記第1の表示領域および前記第2の表示領域のいずれに対して、より多くの人物が向いているかに基づいて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
 前記(1)または(2)に記載の表示制御装置。
(6)
 前記表示制御部は、前記内側領域に複数の人物が存在する場合、前記第1の表示領域および前記第2の表示領域のいずれに対して、より多くの人物が向いているかに基づいて、操作対象の表示領域を決定する、
 前記(1)または(2)に記載の表示制御装置。
(7)
 前記表示制御部は、前記内側領域に人物が存在する場合、かつ、前記第2の表示領域にコンテンツが表示される場合、前記コンテンツのうち、前記内側領域に存在する人物による遮蔽領域が、前記第1の表示領域に表示されるよう制御する、
 前記(1)または(2)に記載の表示制御装置。
(8)
 前記表示制御部は、前記内側領域に人物が存在する場合、前記第2の表示領域のうち、前記内側領域に存在する人物による遮蔽領域に、所定のコンテンツが表示されるよう制御する、
 前記(1)または(2)に記載の表示制御装置。
(9)
 前記表示制御部は、前記第1の表示領域に第1のコンテンツが表示されるように制御するとともに、前記第2の表示領域に第2のコンテンツが表示されるように制御する、
 前記(1)~(6)のいずれか一項に記載の表示制御装置。
(10)
 前記表示制御部は、前記内側領域に人物が存在する場合、前記内側領域に存在する人物の位置に応じて、前記第1のコンテンツおよび前記第2のコンテンツそれぞれのパラメータを制御する、
 前記(9)に記載の表示制御装置。
(11)
 前記パラメータは、ぼかし量および明るさの少なくともいずれか一方を含む、
 前記(10)に記載の表示制御装置。
(12)
 前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツおよび前記第2のコンテンツそれぞれの動きを所定時間停止させる、
 前記(9)~(11)のいずれか一項に記載の表示制御装置。
(13)
 前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツのうち、前記内側領域に存在する人物の輪郭に対応する領域の一部または全体を除去する、
 前記(9)~(11)のいずれか一項に記載の表示制御装置。
(14)
 前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツの明るさを下げる、
 前記(9)~(11)のいずれか一項に記載の表示制御装置。
(15)
 前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツおよび前記第2のコンテンツが合成された合成コンテンツが前記第2の表示領域に表示されるよう制御する、
 前記(9)~(11)のいずれか一項に記載の表示制御装置。
(16)
 前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1の表示領域および前記第2の表示領域の少なくともいずれか一方に前記第1のコンテンツおよび前記第2のコンテンツとは異なる所定の画像が表示されるよう制御する、
 前記(9)~(11)のいずれか一項に記載の表示制御装置。
(17)
 前記所定の操作は、撮像を行うアプリケーションの起動操作、撮像のためのシャッタボタンの押下操作、前記シャッタボタンの半押し操作およびこれから撮像が行われることを指示するための明示的な操作のいずれか一つを少なくとも含む、
 前記(12)~(16)のいずれか一項に記載の表示制御装置。
(18)
 前記第1の表示領域には、透過型スクリーンが存在し、
 前記第1の表示領域を通して前記第2の表示領域が視認可能である、
 前記(1)~(17)のいずれか一項に記載の表示制御装置。
(19)
 プロセッサにより、第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御すること、
 を含む、表示制御方法。
(20)
 コンピュータを、
 第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、
 表示制御装置として機能させるためのプログラム。
 1   表示制御システム
 10  表示制御装置
 20  端末
 30  プロジェクタ
 40  センサ
 110 制御部
 111 データ取得部
 112 判定部
 113 表示制御部
 120 記憶部
 130 通信部
 A11 人物の輪郭に対応する領域
 C11,C12 内側向けコンテンツ
 C13 文字列
 C21 外側向けコンテンツ
 C22 操作可能なコンテンツ
 D1  第1の表示領域(前面)
 D2  第2の表示領域(背面)
 G0  撮像映像
 H0~H3 人物
 J0  遮蔽領域
 K0  複製領域
 M0  文字列
 R0  内側領域
 R1  外側領域

Claims (20)

  1.  第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、
     表示制御装置。
  2.  前記表示制御部は、前記第1の表示領域と前記第2の表示領域との間の空間の外側領域に人物が存在するか否かにさらに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
     請求項1に記載の表示制御装置。
  3.  前記表示制御部は、前記内側領域に人物が存在する場合、当該人物の方向に応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
     請求項1に記載の表示制御装置。
  4.  前記表示制御部は、前記内側領域に人物が存在する場合、当該人物が前記第1の表示領域および前記第2の表示領域のいずれに向いているかに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
     請求項3に記載の表示制御装置。
  5.  前記表示制御部は、前記内側領域に複数の人物が存在する場合、前記第1の表示領域および前記第2の表示領域のいずれに対して、より多くの人物が向いているかに基づいて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する、
     請求項1に記載の表示制御装置。
  6.  前記表示制御部は、前記内側領域に複数の人物が存在する場合、前記第1の表示領域および前記第2の表示領域のいずれに対して、より多くの人物が向いているかに基づいて、操作対象の表示領域を決定する、
     請求項1に記載の表示制御装置。
  7.  前記表示制御部は、前記内側領域に人物が存在する場合、かつ、前記第2の表示領域にコンテンツが表示される場合、前記コンテンツのうち、前記内側領域に存在する人物による遮蔽領域が、前記第1の表示領域に表示されるよう制御する、
     請求項1に記載の表示制御装置。
  8.  前記表示制御部は、前記内側領域に人物が存在する場合、前記第2の表示領域のうち、前記内側領域に存在する人物による遮蔽領域に、所定のコンテンツが表示されるよう制御する、
     請求項1に記載の表示制御装置。
  9.  前記表示制御部は、前記第1の表示領域に第1のコンテンツが表示されるように制御するとともに、前記第2の表示領域に第2のコンテンツが表示されるように制御する、
     請求項1に記載の表示制御装置。
  10.  前記表示制御部は、前記内側領域に人物が存在する場合、前記内側領域に存在する人物の位置に応じて、前記第1のコンテンツおよび前記第2のコンテンツそれぞれのパラメータを制御する、
     請求項9に記載の表示制御装置。
  11.  前記パラメータは、ぼかし量および明るさの少なくともいずれか一方を含む、
     請求項10に記載の表示制御装置。
  12.  前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツおよび前記第2のコンテンツそれぞれの動きを所定時間停止させる、
     請求項9に記載の表示制御装置。
  13.  前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツのうち、前記内側領域に存在する人物の輪郭に対応する領域の一部または全体を除去する、
     請求項9に記載の表示制御装置。
  14.  前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツの明るさを下げる、
     請求項9に記載の表示制御装置。
  15.  前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1のコンテンツおよび前記第2のコンテンツが合成された合成コンテンツが前記第2の表示領域に表示されるよう制御する、
     請求項9に記載の表示制御装置。
  16.  前記表示制御部は、撮像前になされる所定の操作が検出された場合、前記第1の表示領域および前記第2の表示領域の少なくともいずれか一方に前記第1のコンテンツおよび前記第2のコンテンツとは異なる所定の画像が表示されるよう制御する、
     請求項9に記載の表示制御装置。
  17.  前記所定の操作は、撮像を行うアプリケーションの起動操作、撮像のためのシャッタボタンの押下操作、前記シャッタボタンの半押し操作およびこれから撮像が行われることを指示するための明示的な操作のいずれか一つを少なくとも含む、
     請求項12に記載の表示制御装置。
  18.  前記第1の表示領域には、透過型スクリーンが存在し、
     前記第1の表示領域を通して前記第2の表示領域が視認可能である、
     請求項1に記載の表示制御装置。
  19.  プロセッサにより、第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御すること、
     を含む、表示制御方法。
  20.  コンピュータを、
     第1の表示領域と第2の表示領域との間の空間の内側領域に人物が存在するか否かに応じて、前記第1の表示領域および前記第2の表示領域それぞれの表示を制御する表示制御部を備える、
     表示制御装置として機能させるためのプログラム。
PCT/JP2017/022032 2016-08-17 2017-06-15 表示制御装置、表示制御方法およびプログラム WO2018034046A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018534278A JP6883225B2 (ja) 2016-08-17 2017-06-15 表示制御装置、表示制御方法およびプログラム
US16/320,227 US10943562B2 (en) 2016-08-17 2017-06-15 Display control apparatus and display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016159813 2016-08-17
JP2016-159813 2016-08-17

Publications (1)

Publication Number Publication Date
WO2018034046A1 true WO2018034046A1 (ja) 2018-02-22

Family

ID=61196724

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022032 WO2018034046A1 (ja) 2016-08-17 2017-06-15 表示制御装置、表示制御方法およびプログラム

Country Status (3)

Country Link
US (1) US10943562B2 (ja)
JP (1) JP6883225B2 (ja)
WO (1) WO2018034046A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021100458A (ja) * 2019-12-24 2021-07-08 株式会社スクウェア・エニックス ゲーム装置、ゲーム処理方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268859A (ja) * 2007-03-26 2008-11-06 Seiko Epson Corp 画像表示システム、画像表示方法及びスクリーン装置
JP2009246638A (ja) * 2008-03-31 2009-10-22 Net-Clay Co Ltd 撮影システム及び撮影方法
JP2011242699A (ja) * 2010-05-20 2011-12-01 Canon Inc 情報提示システム及びその制御方法、プログラム
WO2013099407A1 (ja) * 2011-12-28 2013-07-04 株式会社ニコン 表示装置及び投影装置
JP2013205526A (ja) * 2012-03-28 2013-10-07 Sony Corp 表示装置および表示制御方法
US20130265232A1 (en) * 2012-04-08 2013-10-10 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070040033A1 (en) * 2005-11-18 2007-02-22 Outland Research Digital mirror system with advanced imaging features and hands-free control
EP1975697B1 (en) 2007-03-26 2017-03-15 Seiko Epson Corporation Image display system and method, and screen device
CN102084650B (zh) * 2009-05-12 2013-10-09 华为终端有限公司 远程呈现系统、方法及视频采集设备
EP2479988B1 (en) * 2009-09-18 2021-05-05 Mitsubishi Electric Corporation Intra-train information distribution-display system and intra-train information distribution-display method
WO2014109197A1 (ja) * 2013-01-11 2014-07-17 富士フイルム株式会社 画像表示装置、画像表示方法、医用画像診断装置、医用画像診断方法、医用画像診断システム、データ作成装置、データ作成方法、プログラム及び記録媒体
KR102051656B1 (ko) * 2013-01-22 2019-12-03 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
JP6098506B2 (ja) 2013-12-27 2017-03-22 ソニー株式会社 投射型画像表示装置及び投射光学系
US10440246B2 (en) * 2014-11-19 2019-10-08 Kiran K. Bhat System for enabling remote annotation of media data captured using endoscopic instruments and the creation of targeted digital advertising in a documentation environment using diagnosis and procedure code entries

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268859A (ja) * 2007-03-26 2008-11-06 Seiko Epson Corp 画像表示システム、画像表示方法及びスクリーン装置
JP2009246638A (ja) * 2008-03-31 2009-10-22 Net-Clay Co Ltd 撮影システム及び撮影方法
JP2011242699A (ja) * 2010-05-20 2011-12-01 Canon Inc 情報提示システム及びその制御方法、プログラム
WO2013099407A1 (ja) * 2011-12-28 2013-07-04 株式会社ニコン 表示装置及び投影装置
JP2013205526A (ja) * 2012-03-28 2013-10-07 Sony Corp 表示装置および表示制御方法
US20130265232A1 (en) * 2012-04-08 2013-10-10 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021100458A (ja) * 2019-12-24 2021-07-08 株式会社スクウェア・エニックス ゲーム装置、ゲーム処理方法及びプログラム
JP7000408B2 (ja) 2019-12-24 2022-01-19 株式会社スクウェア・エニックス ゲーム装置、ゲーム処理方法及びプログラム

Also Published As

Publication number Publication date
US20190272805A1 (en) 2019-09-05
US10943562B2 (en) 2021-03-09
JP6883225B2 (ja) 2021-06-09
JPWO2018034046A1 (ja) 2019-06-13

Similar Documents

Publication Publication Date Title
US11789686B2 (en) Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US20190180509A1 (en) Apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
US20190051019A1 (en) Display control device, display control method, and program
US20120069143A1 (en) Object tracking and highlighting in stereoscopic images
TWI556639B (zh) 用於將互動特徵加入視頻之技術
US20170068508A1 (en) Method and system for communicating with a user immersed in a virtual reality environment
CN103871092A (zh) 显示控制装置以及显示控制方法
US9214044B2 (en) Apparatus and method for augmenting a video image
KR20170070164A (ko) 다중 관점 콘텐츠 캡처 및 합성
US9535250B2 (en) Head mounted display device and method for controlling the same
TW200808035A (en) Filtered noise reduction in digital images
JP2018506198A (ja) オブジェクト検出に基づき外挿画像を生成する方法及び装置
GB2555501A (en) Head mounted display and method
EP2662829B1 (en) System and method of book leaf tracking
WO2018034046A1 (ja) 表示制御装置、表示制御方法およびプログラム
JP2018506106A (ja) 再帰的階層処理を使用して外挿画像を生成するための装置および方法
WO2023125316A1 (zh) 视频处理方法、装置、电子设备及介质
US10140766B2 (en) Apparatus and method of augmenting video
US11962743B2 (en) 3D display system and 3D display method
JP7447417B2 (ja) 画像処理装置、画像処理方法、プログラム
US20200073967A1 (en) Technique for saving metadata onto photographs
KR20240033226A (ko) 확장 현실 인터페이스들에 대한 원격 랜드마크 렌더링
CN103220458A (zh) 一种立体摄像装置和立体摄像方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018534278

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17841274

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17841274

Country of ref document: EP

Kind code of ref document: A1