WO2018101394A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2018101394A1
WO2018101394A1 PCT/JP2017/043019 JP2017043019W WO2018101394A1 WO 2018101394 A1 WO2018101394 A1 WO 2018101394A1 JP 2017043019 W JP2017043019 W JP 2017043019W WO 2018101394 A1 WO2018101394 A1 WO 2018101394A1
Authority
WO
WIPO (PCT)
Prior art keywords
background content
output
control unit
information
aquarium
Prior art date
Application number
PCT/JP2017/043019
Other languages
English (en)
French (fr)
Inventor
隆俊 中村
尚 石坂
栗原 邦彰
伴通 片岡
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/349,144 priority Critical patent/US11272600B2/en
Priority to JP2018554236A priority patent/JPWO2018101394A1/ja
Publication of WO2018101394A1 publication Critical patent/WO2018101394A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K63/00Receptacles for live fish, e.g. aquaria; Terraria
    • A01K63/06Arrangements for heating or lighting in, or attached to, receptacles for live fish
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S2/00Systems of lighting devices, not provided for in main groups F21S4/00 - F21S10/00 or F21S19/00, e.g. of modular construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Literature 1 discloses an aquarium lighting device that can control the movement and lighting of a lighting fixture by operating a control unit.
  • Patent Document 2 discloses a technique for automatically performing illumination schedule control based on time or room brightness.
  • the above-described technique controls lighting for inspection in the aquarium, suppression of the generation of algae and moss in the aquarium, or suppression of stress on ornamental fish. Therefore, in order to provide a more beautiful scene to the user, there is room for further improvement.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of providing a more beautiful scene to the user.
  • a recognition unit that recognizes background content displayed in the background of the aquarium, and an output control unit that controls light output to the inside of the aquarium that is a foreground based on the recognition result of the background content; are provided.
  • the computer recognizes the background content displayed on the background of the aquarium, and controls the light output to the inside of the aquarium as the foreground based on the recognition result of the background content. And a program for realizing the functions are provided.
  • FIGS. 1 to 3. are explanatory diagrams for describing an outline of an embodiment of the present disclosure.
  • FIG. 1 shows a field of view V11 of a user who appreciates the aquarium.
  • the aquarium contains living organisms such as ornamental fish and aquatic plants, as well as non-living organisms such as sand, stones, and artificial accessories.
  • a visual field V12 including a more beautiful scene is provided to the user by displaying an image on the background of such an aquarium.
  • an image can be used as an expression including a still image and a moving image (video).
  • an image displayed on the background of the aquarium is referred to as background content.
  • the background content may be various images such as mountains, seas, sky, space, etc., and various scenes can be provided to the user by displaying various background contents.
  • the foreground F21 as an entity and the background content B21 as an image are synthesized and viewed.
  • simply displaying the background content B21 on the background of the foreground F21 may make it difficult to show the background content B21 and the foreground F21 as a scene with a sense of unity.
  • the user may be able to adjust the lighting device when the background content is a fixed still image, but there is a sense of unity when the background content is a moving image or when the still image is switched. It was difficult to continue providing the scene.
  • the light output by the lighting device is controlled so that the inside of the aquarium has brightness according to the background content B33 as in the field of view V33 shown in FIG.
  • the background content B33 as in the field of view V33 shown in FIG.
  • the light output control according to the brightness of the background content has been described as an example.
  • the light output is controlled according to various other conditions such as hue and contrast. It is also possible.
  • FIG. 4 is a block diagram illustrating a functional configuration example of the aquarium system 1 according to the present embodiment.
  • the aquarium system 1 according to this embodiment includes a control unit 10, a water tank 20, a light output unit 30, a camera unit 40 (photographing recognition unit), a display unit 50 (background display unit), and an optical viewing distance.
  • a generation unit 60, a communication unit 70, and a speaker 80 are included.
  • the control unit 10 is an information processing device that controls the entire aquarium system 1. For example, the control unit 10 controls the light output to the inside of the water tank by the light output unit 30 based on the background content displayed on the background of the water tank 20. Further, the control unit 10 may cause the display unit 50 to display (output) the background content. Moreover, the control part 10 may control the sound output by the speaker 80 according to background content. A more detailed configuration of the control unit 10 will be described later with reference to FIG.
  • the water tank 20 is formed, for example, in a box shape from a material such as glass or plastic that transmits light so that both the inside of the water tank 20 and the background can be visually recognized.
  • the inside of the aquarium 20 is filled with water up to a desired water level and includes living organisms such as ornamental fish and aquatic plants, and non-living bodies such as sand, stones, artificial accessories, and aeration devices may be installed.
  • the light output unit 30 outputs (irradiates) light into the water tank 20.
  • the light output unit 30 may include, for example, an illumination device (illumination unit) that illuminates the entire interior of the water tank 20 (outputs light). Further, the light output unit 30 may include a projector capable of projection that makes the light irradiated to each region inside the water tank 20 different in more detail.
  • the light output unit 30 may include a plurality of devices.
  • the camera unit 40 is an imaging device that captures an image of the inside of the water tank 20 to obtain a captured image and provides the captured image to the control unit 10.
  • the camera unit 40 may include a plurality of imaging devices.
  • Display unit 50 displays background content.
  • the optical viewing distance generation unit 60 is configured so that the optical viewing distance generation unit 60 is not located immediately behind the aquarium 20 but between the aquarium 20 and the background content visually recognized by the user so that the background content can be viewed farther. Generate an optical viewing distance. Compared with the case where the background content is visually recognized immediately behind the aquarium 20, it is possible to give a sense of depth by the background content being viewed further away. As a result, the user can feel as if the scene included in the background content is actually spreading behind the water tank 20.
  • the communication unit 70 is a communication device for connecting to a communication network (not shown).
  • the control unit 10 may connect to a communication network (not shown) via the communication unit 70 and acquire background content from an external server or the like connected to the communication network.
  • the speaker 80 is controlled by the control unit 10 to output sound.
  • FIG. 5 is a diagram illustrating a first apparatus configuration example according to the present embodiment.
  • the control unit 10, the light output unit 30, and the camera unit 40 are provided in a housing 91 disposed above the water tank 20.
  • a projector 50 ⁇ / b> A which is an example of the display unit 50, is provided in the housing 92 disposed below the water tank 20.
  • a combiner 60 ⁇ / b> A that is an example of the optical viewing distance generator 60 is provided on the back side of the water tank 20 as viewed from the user U.
  • the light is allowed to pass through at least the projector 50A and the combiner 60A on the upper surface of the housing 92.
  • at least a part of the upper surface of the housing 92 may be formed of a material that transmits light, such as glass or plastic.
  • Projector 50A is controlled by control unit 10 to output (project) background content B41 toward combiner 60A.
  • the combiner 60A is an optical member that reflects at least part of the light, and the background content B41 output by the projector 50A as shown in FIG. Make it visible.
  • FIG. 6 is a diagram illustrating a second apparatus configuration example according to the present embodiment.
  • the control unit 10, the light output unit 30, and the camera unit 40 are provided in a housing 91 disposed above the water tank 20.
  • a display 50 ⁇ / b> B as an example of the display unit 50 is disposed on the back side of the water tank 20 as viewed from the user U, and the optical viewing distance generation unit 60 is between the water tank 20 and the display 50 ⁇ / b> B.
  • An example of a Fresnel lens 60B is disposed.
  • the Fresnel lens 60B causes the background content B41 displayed on the display 50B to be viewed at a position away from the water tank 20 by a predetermined distance when viewed from the user U.
  • the display 50B preferably has a high luminance.
  • the Fresnel lens 60B has a merit that it is thin, it is not limited to such an example, and other lenses may be used. Further, in order to prevent moiré and lines, the Fresnel lens 60B may be provided with a low-pass filter.
  • FIG. 7 is a diagram illustrating a third device configuration example according to the present embodiment.
  • the control unit 10, the light output unit 30, and the camera unit 40 are provided in a housing 91 disposed above the water tank 20.
  • a display 50 ⁇ / b> C that is an example of the display unit 50 is disposed on the back side of the water tank 20 as viewed from the user U.
  • the display 50C shown in FIG. 7 is arranged behind the water tank 20 as viewed from the user U than the display 50B shown in FIG. 6, and a distance d is provided between the water tank 20 and the display 50C.
  • the background content B ⁇ b> 43 displayed on the display 50 ⁇ / b> C can be viewed from the user U at a position away from the water tank 20 by a distance d.
  • the device configuration shown in FIGS. 5 to 7 is an example, and the arrangement and combination of the devices are not limited. It is not limited to such an example.
  • the control unit 10, the light output unit 30, and the camera unit 40 may be arranged on the side or below rather than on the water tank 20.
  • the positions of the communication unit 70 and the speaker 80 not shown in FIGS. 5 to 7 are not particularly limited.
  • the optical viewing distance generation unit 60 may be configured to change the optical viewing distance under the control of the control unit 10.
  • the optical viewing distance generation unit 60 may change the optical viewing distance by driving an optical system such as a lens, or the position of the display unit 50 (for example, a display) may be physically moved to perform the optical operation.
  • the visual viewing distance may be changed.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the control unit 10.
  • the control unit 10 is an information processing apparatus including an interface unit 11, a content recognition unit 13, a foreground recognition unit 15, an output control unit 17, and a storage unit 19.
  • the content recognition unit 13 and the foreground recognition unit 15 may be simply referred to as a recognition unit.
  • the interface unit 11 is an interface for connecting between the control unit 10 and other devices.
  • the interface unit 11 is connected to the light output unit 30, the camera unit 40, the display unit 50, the communication unit 70, and the speaker 80 illustrated in FIG.
  • a control signal or the like for controlling the optical output may be transmitted to the optical output unit 30 via the interface unit 11.
  • a captured image may be received from the camera unit 40 via the interface unit 11.
  • the background content may be transmitted to the display unit 50 via the interface unit 11.
  • the background content may be received from the communication unit 70 via the interface unit 11 (more strictly, from an external server or the like connected via the communication unit 70).
  • an acoustic signal may be transmitted to the speaker 80 via the interface unit 11.
  • the content recognition unit 13 recognizes background content displayed on the background of the aquarium 20.
  • the background content may be acquired (selected) by the output control unit 17 described later, and the content recognition unit 13 may recognize the background content acquired by the output control unit 17. .
  • the content recognition unit 13 may directly acquire the background content.
  • the content recognition unit 13 recognizes color information of background content, for example.
  • the color information of the background content may include information such as brightness, hue, and contrast, for example.
  • the content recognition unit 13 recognizes light source information of background content, for example.
  • the light source information of the background content may include information such as the light source direction in the background content, the color of the light source in the background content, the light intensity, and fluctuation.
  • the content recognition unit 13 may recognize weather information (for example, clear, rain, snow, lightning, etc.) in the background content.
  • the content recognition unit 13 provides the color information of the background content, the light source information of the background content, and the weather information of the background content to the output control unit 17 as a background content recognition result.
  • the foreground recognition unit 15 recognizes the inside of the aquarium 20 serving as the foreground.
  • the foreground recognition unit 15 may analyze a captured image received from the camera unit 40 via the interface unit 11 and recognize the inside of the aquarium 20.
  • the foreground recognition unit 15 may recognize object information inside the aquarium 20, for example.
  • the object information may include, for example, information such as the type, position, size, color, and shape of objects (biological and non-biological) included in the water tank 20.
  • the foreground recognition unit 15 may recognize illumination information inside the aquarium 20.
  • the illumination information may include information such as illumination intensity (brightness) and color.
  • the foreground recognition unit 15 may recognize the illumination information based on the captured image as described above, or may recognize the illumination information based on information related to the control of the light output unit 30 by the output control unit 17. Good.
  • the foreground recognition unit 15 provides the object information inside the water tank 20 and the illumination information inside the water tank 20 to the output control unit 17 as a recognition result inside the water tank 20.
  • the output control unit 17 controls output based on the recognition results by the recognition units (the content recognition unit 13 and the foreground recognition unit 15). For example, the output control unit 17 controls the light output by the light output unit 30 based on the recognition result of the background content by the content recognition unit 13.
  • the output control unit 17 Based on the color information of the background content recognized by the content recognition unit 13, the output control unit 17 outputs the light output from the light output unit 30 so that the color of the background content is similar to the color inside the aquarium 20. May be controlled. Such an example will be described later with reference to FIG.
  • the output control unit 17 may control the light output by the light output unit 30 based on the light source information of the background content recognized by the content recognition unit 13.
  • the output control unit 17 may control the light output by the light output unit 30 so that the shadow inside the water tank 20 matches the light source direction based on the information on the light source direction in the background content.
  • the output control unit 17 controls the light output by the light output unit 30 based on the recognition result inside the water tank 20 by the foreground recognition unit 15. Also good.
  • the foreground recognition unit 15 Such an example will be described later with reference to FIGS.
  • the output control unit 17 may control the light output by the light output unit 30 based on the information on the color of the light source in the background content so that the color inside the water tank 20 matches the color of the light source. .
  • the output control unit 17 may control the light output by the light output unit 30 based on the information on the color of the light source in the background content so that the color inside the water tank 20 matches the color of the light source.
  • the output control unit 17 may control the light output by the light output unit 30 based on the weather information in the background content recognized by the content recognition unit 13. Such an example will be described later with reference to FIG.
  • the output control unit 17 may control the output (display) of the background content by the display unit 50 based on the recognition result inside the water tank 20 by the foreground recognition unit 15. In such a case, the output control unit 17 selects an appropriate background content from the background content stored in the storage unit 19 or the background content acquired from the external server via the interface unit 11, and is displayed on the display unit 50. It may be displayed.
  • the output control unit 17 may control the output of the background content based on the object information inside the aquarium 20, and based on the object information, the background including an object similar to the object contained inside the aquarium 20. Content may be output. Such an example will be described later with reference to FIGS.
  • the output control part 17 may control the output of background content based on the illumination information inside the aquarium 20, and the brightness and color of the illumination inside the aquarium 20 based on the illumination information inside the aquarium 20.
  • the background content corresponding to the may be displayed.
  • the output controlled by the output control unit 17 is not limited to the light output by the light output unit 30 and the background content output by the display unit 50.
  • the output control unit 17 may control the sound output from the speaker 80 according to the background content.
  • the output control unit 17 may perform medicine injection control, food input control, aeration control, and the like by various devices (not shown) based on the results of foreground recognition or background recognition.
  • the output control unit 17 can control the optical characteristics inside the water tank by controlling the injection of the medicine.
  • the storage unit 19 stores data such as programs and parameters for the control unit 10 to execute each function.
  • the storage unit 19 may store background content, and may store meta information such as the type of object and the type of background content included in the background content in association with the background content.
  • control unit 10 Astofore, a more detailed functional configuration example of the control unit 10 according to the present embodiment has been described.
  • the functional configuration of the control unit 10 illustrated in FIG. 8 is an example, and the present embodiment is not limited to the example.
  • some of the functions shown in FIG. 8 may be provided in another device.
  • the function of the foreground recognition unit 15 may be provided in the camera unit 40 shown in FIG.
  • FIG. 9 is a flowchart for explaining an operation example of the present embodiment.
  • a captured image acquired by the camera unit 40 capturing an image of the inside of the water tank 20 is provided to the control unit 10 (S102).
  • the foreground recognition unit 15 of the control unit 10 recognizes the inside of the aquarium 20 serving as the foreground (S104).
  • the output control unit 110 acquires background content based on the recognition result inside the aquarium 20 in step S104 (S106).
  • the acquisition of the background content is not limited to the example performed based on the recognition result inside the aquarium 20, and the background content may be acquired, for example, in a predetermined order or randomly.
  • the content recognition unit 13 recognizes the background content acquired in step S106 (S108).
  • the output control unit 110 controls the light output by the light output unit 30 based on the recognition result of the background content in step S108, and outputs (displays) the background content acquired in step S106 to the display unit 50. (S110).
  • FIG. 9 Comprising:
  • movement which concerns on this embodiment is not limited to the example which concerns.
  • the steps in this embodiment need not be processed in time series in the order described in FIG. 9, and the steps may be processed in an order different from the order described in FIG. 9. However, they may be processed in parallel.
  • FIG. 10 is a diagram illustrating a first specific example of output control according to the present embodiment.
  • the image of the universe displayed in the background of the aquarium 20 as the background content B110 and the interior of the aquarium 20 are visually recognized.
  • the content recognition unit 13 may recognize the color information of the background content B110.
  • the background content B110 is a space image, and the brightness is very dark (small). Therefore, the output control unit 17 controls the light output so that the color of the background content B110 and the color inside the water tank 20 are similar, for example, so that the inside of the water tank 20 becomes dark (for example, by the light output unit 30). Turn off the light output).
  • FIG. 10 shows an example in which the background content B110 is a space image, for example, the same control is possible when the background content B110 is a night view image.
  • the same control is possible when the background content B110 is a night view image.
  • FIG. 11 is a diagram illustrating a second specific example of output control according to the present embodiment.
  • V120 shown in FIG. 11
  • an image of the river flowing through the forest displayed in the background of the aquarium 20 as the background content B120 and the inside of the aquarium 20 is visually recognized.
  • the content recognition unit 13 recognizes the light source information of the background content B120. Further, the foreground recognition unit 15 may recognize object information inside the aquarium 20, and may recognize information related to a plant OB120 (an example of an object) inside the aquarium 20, for example. Then, the output control unit 17 may control the light output based on the light source information and the object information so that, for example, the light source direction in the background content B120 matches the shadow inside the water tank 20.
  • the output control unit 17 performs light output (for example, a light output unit) so that a shadow SH120 that is aligned with the light source direction of the background content B120 is visually recognized as a shadow of the plant OB120 inside the aquarium 20.
  • 30 may control the projector's light output).
  • the output control unit 17 may further control the light output based on the intensity of light in the background content, fluctuation, the contrast of the background content, and the like. By controlling the light output in this way, the foreground and background are maintained in fusion, and the user feels that the background is connected behind the foreground.
  • FIG. 12 is a diagram illustrating a third specific example of output control according to the present embodiment.
  • images of mountains at different times displayed in the background of the aquarium 20 as the background content B131 and the background content B132, respectively, are combined. Visible.
  • the content recognition unit 13 may recognize the light source information of the background content B131 and the background content B132, respectively, and the foreground recognition unit 15 may recognize the object information inside the aquarium 20.
  • the light source information may include information such as the direction of the light source of the sun, light intensity, and color included in the background content B131 and the background content B132.
  • the output control unit 17 may control the light output based on the light source information and the object information.
  • the output control unit 17 outputs the light so that the inside of the water tank 20 is brightly illuminated by the light output unit 30. May be controlled.
  • the output control unit 17 causes the interior of the water tank 20 to be darker than the example of the field of view V131 due to the light output unit 30.
  • the light output may be controlled so that it is illuminated more red.
  • the output control unit 17 matches the light source direction of the sun included in each of the background content B131 and the background content B132 with the shadow inside the water tank 20, based on the object information inside the water tank 20.
  • the light output may be controlled to do so.
  • the output control unit 17 changes the position of the sun in the background content, the intensity of light, etc. according to the time (for example, actual The background content may be output (in synchronization with the time). And the output control part 17 may change a light output according to the change of a background content.
  • FIG. 13 is a diagram illustrating a fourth specific example of output control according to the present embodiment.
  • the user's field of view V141 and field of view V142 shown in FIG. 13 thundercloud images displayed in the background of the aquarium 20 as the background content B141 and the background content B142, respectively, are visually recognized. .
  • the content recognition unit 13 may recognize weather information of the background content B141 and the background content B142, respectively.
  • the weather information may be information such as that lightning has fallen in the background content B141 and lightning has fallen in the background content B142.
  • the output control part 17 may control an optical output based on the weather information which concerns.
  • the output control unit 17 when an image of a thundercloud in which lightning has fallen in the distance as shown in the field of view V141 shown in FIG. 13 is displayed as the background content B141, the output control unit 17 outputs light so that the inside of the aquarium 20 becomes darker. You may control.
  • the output control unit 17 uses the light output unit 30 to display the field of view V141 inside the water tank 20. The light output may be controlled so that it is illuminated more brightly than the example.
  • FIG. 13 shows only the case where the background content B141 and the background content B142 are displayed
  • the output control unit 17 changes the weather in the background content according to the time (for example, the actual weather and Background content may be output (to synchronize).
  • the output control part 17 may change a light output according to the change of the weather in a background content.
  • FIG. 14 is a diagram illustrating a fifth specific example of output control according to the present embodiment.
  • the foreground recognition unit 15 may recognize object information inside the aquarium 20, and in the example illustrated in FIG. 14, may recognize information related to the bubble OB150 (an example of an object) by aeration. Then, the output control unit 17 controls the output of the background content based on the object information.
  • an image of a snow scene is selected as the background content B150 by the output control unit 17 in accordance with the generation of the bubble OB150, and the user's field of view V150 includes the inside of the aquarium 20 and the background of the aquarium 20.
  • the displayed background content B150 is viewed together.
  • FIG. 15 is a diagram illustrating a sixth specific example of output control according to the present embodiment.
  • the foreground recognition unit 15 may recognize object information inside the aquarium 20, and in the example illustrated in FIG. 15, may recognize information related to the medicine OB 160 (an example of an object) input for maintenance. Then, the output control unit 17 controls the output of the background content based on the object information.
  • OB 160 an example of an object
  • an image of a foggy landscape is selected as the background content B160 by the output control unit 17 in accordance with the insertion of the medicine OB160, and the user's field of view V160 includes the inside of the water tank 20 and the background of the water tank 20.
  • the background content B160 displayed on the screen is visually recognized together.
  • FIG. 16 is a diagram illustrating a seventh specific example of output control according to the present embodiment.
  • the foreground recognition unit 15 may recognize object information inside the aquarium 20, and may recognize information related to the plant OB171 and the plant OB172 (an example of an object) in the example illustrated in FIG. Then, the output control unit 17 controls the output of the background content based on the object information.
  • an image including a plant similar to the plant OB171 and the plant OB172 is selected or generated as the background content B170 by the output control unit 17.
  • the inside of the water tank 20 and the background content B170 displayed on the background of the water tank 20 are combined and visually recognized.
  • purple light may be irradiated for photosynthesis of a living body (such as aquatic plants) contained in the water tank 20.
  • the output control unit 17 outputs (displays) an image of a glacier as background content corresponding to purple light based on the illumination information inside the aquarium 20 recognized by the foreground recognition unit 15. Also good.
  • the output control unit 17 can output various background contents that are recognized by the foreground recognition unit 15 depending on the state of a living body (an example of an object) inside the aquarium 20.
  • the output control unit 17 outputs (displays) an image celebrating the birth as background content to the display unit 50, and also voices celebrating the birth. May be output to the speaker 80.
  • the output control unit 17 causes the display unit 50 to output (display) an image of a place where the ornamental fish lives at the growth level in the aquarium 20 as background content. Also good.
  • the output control unit 17 may control the output (display) of the background content so that the background content changes according to the movement (position change) of the recognized ornamental fish inside the aquarium 20.
  • the moving speed of the background content may be changed according to the moving speed of the ornamental fish.
  • the image as the background content may be switched according to the movement of the ornamental fish, and for example, control may be performed so as to switch from the upstream image to the downstream image (or vice versa).
  • the output control unit 17 may control the output of the background content in accordance with the recognized type of aquarium fish inside the aquarium 20, for example, an image of a region or place where a type of aquarium fish lives. May be output (displayed) as background content.
  • Modification 1 As an example of the light output to the inside of the water tank 20 by the light output part 30, the example which irradiates the whole inside of the water tank 20 by an illuminating device, and each area
  • a reflective film is disposed inside the water tank 20, and the output control unit 17 controls a projector that is an example of the light output unit 30 to control light output so as to project light onto the reflective film.
  • the output control unit 17 can display a virtual object inside the aquarium 20, and superimposition of an image on a real space (hereinafter referred to as AR superimposition) in so-called AR (Augmented Reality) technology. Realized.
  • AR superimposition Augmented Reality
  • the virtual object displayed by the output control unit 17 in the water tank 20 may be a three-dimensional object, a character string, or an image.
  • the output control unit 17 can also achieve the same effect as the light output example described above by controlling the light output so that the virtual object corresponding to the recognition result of the background content is AR-superposed. It is also possible to reproduce a space where the foreground and the background are more integrated.
  • a hologram light guide plate may be disposed on the user side of the water tank 20, and in such a case, the output control unit 17 controls the light output of the projector (light output unit 30) that projects light onto the hologram light guide plate.
  • the output control unit 17 controls the light output of the projector (light output unit 30) that projects light onto the hologram light guide plate.
  • Modification 2 Moreover, although the output control part 17 demonstrated the example which controls the output of a light output and a background content based on the recognition result by the recognition part (the content recognition part 13 and the foreground recognition part 15) in the said embodiment, The present embodiment is not limited to such an example.
  • control information associated in advance so that the light output and the output of the background content are linked may be stored in the storage unit 19.
  • the output control unit 17 stores the control information in the storage unit.
  • the output may be controlled by reading out from 19.
  • the output control unit 17 may output an image obtained based on imaging inside the water tank 20 by the camera unit 40.
  • the image obtained based on imaging may be a captured image itself, or may be an image obtained by synthesis based on a plurality of captured images.
  • the output control unit 17 may output the captured image itself.
  • the user can view the inside of the water tank 20 from a direction different from the direction in which the user is currently viewing, that is, the imaging of the camera unit 40. It is possible to appreciate from the direction.
  • the output control unit 17 may output a free viewpoint image obtained by synthesis based on a plurality of captured images acquired simultaneously by a plurality of imaging devices included in the camera unit 40.
  • the user may be able to freely change the viewpoint using an operation unit (not shown). With such a configuration, the user can view the inside of the water tank 20 from a desired direction.
  • FIG. 17 is a diagram illustrating a configuration example when the water tank 20 is viewed from vertically above.
  • FIG. 17 is the figure which looked at the water tank 20 from the perpendicular
  • background content may be displayed below the aquarium 20 by a display unit (not shown).
  • the light output unit 30 may be disposed on the side of the water tank 20. (Modification 5)
  • the said embodiment demonstrated the example to which this technique is applied to an aquarium system, it is not limited to the example which concerns. This technology can be applied in more diverse situations.
  • FIG. 18 is a diagram showing an example when the present technology is applied to a museum.
  • the background content B210 that follows the wall F210 and the depth direction is displayed.
  • the light source information is also recognized as in the above-described example, and the background content B210 is displayed as if the light rays are infinitely continuous in the depth direction.
  • FIG. 18 shows an example in which the present technology is applied to an art museum
  • the present technology can be similarly applied to other scenes.
  • the above-described technique can be applied using a diorama model, a zoo, a plant, or the like as a foreground.
  • FIG. 19 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the embodiment of the present disclosure.
  • the information processing apparatus 900 illustrated in FIG. 19 can realize the control unit 10 illustrated in FIGS. 4 and 8, for example.
  • Information processing by the control unit 10 according to the embodiment of the present disclosure is realized by cooperation between software and hardware described below.
  • the information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing apparatus 900 includes a bridge 904, an external bus 904b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, a communication device 913, and a sensor 915.
  • the information processing apparatus 900 may include a processing circuit such as a DSP or an ASIC in place of or in addition to the CPU 901.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 900 according to various programs. Further, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901 can form, for example, the content recognition unit 13, the foreground recognition unit 15, and the output control unit 17.
  • the CPU 901, ROM 902, and RAM 903 are connected to each other by a host bus 904a including a CPU bus.
  • the host bus 904 a is connected to an external bus 904 b such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 904.
  • an external bus 904 b such as a PCI (Peripheral Component Interconnect / Interface) bus
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904a, the bridge 904, and the external bus 904b do not necessarily have to be configured separately, and these functions may be mounted on one bus.
  • the input device 906 is realized by a device in which information is input by the user, such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever.
  • the input device 906 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA that supports the operation of the information processing device 900.
  • the input device 906 may include, for example, an input control circuit that generates an input signal based on information input by the user using the above-described input means and outputs the input signal to the CPU 901.
  • a user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 906.
  • the output device 907 is formed of a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as lamps, audio output devices such as speakers and headphones, printer devices, and the like.
  • the output device 907 outputs results obtained by various processes performed by the information processing device 900.
  • the display device visually displays results obtained by various processes performed by the information processing device 900 in various formats such as text, images, tables, and graphs.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs it aurally.
  • the storage device 908 is a data storage device formed as an example of a storage unit of the information processing device 900.
  • the storage apparatus 908 is realized by, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the storage device 908 can form the storage unit 19, for example.
  • the drive 909 is a storage medium reader / writer, and is built in or externally attached to the information processing apparatus 900.
  • the drive 909 reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903.
  • the drive 909 can also write information to a removable storage medium.
  • connection port 911 is an interface connected to an external device, and is a connection port with an external device capable of transmitting data by USB (Universal Serial Bus), for example.
  • USB Universal Serial Bus
  • the communication device 913 is a communication interface formed by a communication device or the like for connecting to the network 920, for example.
  • the communication device 913 is, for example, a communication card for wired or wireless LAN (Local Area Network), LTE (Long Term Evolution), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 913 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like.
  • the communication device 913 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet and other communication devices.
  • the communication device 913 can form the interface unit 11, for example.
  • the sensor 915 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, a sound sensor, a distance measuring sensor, and a force sensor.
  • the sensor 915 acquires information on the state of the information processing apparatus 900 itself, such as the posture and movement speed of the information processing apparatus 900, and information on the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900.
  • Sensor 915 may also include a GPS sensor that receives GPS signals and measures the latitude, longitude, and altitude of the device.
  • the network 920 is a wired or wireless transmission path for information transmitted from a device connected to the network 920.
  • the network 920 may include a public line network such as the Internet, a telephone line network, and a satellite communication network, various LANs including the Ethernet (registered trademark), a wide area network (WAN), and the like.
  • the network 920 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • IP-VPN Internet Protocol-Virtual Private Network
  • a computer program for realizing each function of the information processing apparatus 900 according to the embodiment of the present disclosure as described above can be produced and mounted on a PC or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the background B300 can be freely changed, and a scene can be created with the background B300 and the foreground F300 as an integrated space.
  • An information processing apparatus comprising: (2) The recognition unit recognizes color information of the background content, The information processing apparatus according to (1), wherein the output control unit controls the light output based on color information of the background content. (3) The information processing apparatus according to (2), wherein the output control unit controls the light output so that a color of the background content is similar to a color inside the water tank. (4) The information processing apparatus according to (2) or (3), wherein the color information of the background content includes at least one information among brightness, hue, and contrast.
  • the recognition unit recognizes light source information of the background content, The information processing apparatus according to any one of (1) to (4), wherein the output control unit controls the light output based on the light source information.
  • the light source information includes information on a light source direction in the background content, The information processing apparatus according to (5), wherein the output control unit controls the light output so that a shadow inside the water tank matches the light source direction.
  • the light source information includes information on the color of the light source in the background content, The information processing apparatus according to (5) or (6), wherein the output control unit controls the light output so that a color inside the water tank matches a color of the light source.
  • the recognition unit recognizes weather information in the background content, The information processing apparatus according to any one of (1) to (7), wherein the output control unit controls the light output based on the weather information. (9) The information processing apparatus according to any one of (1) to (8), wherein the output control unit further controls output of the background content based on an inside of the water tank. (10) The recognition unit further recognizes the inside of the aquarium, The information processing apparatus according to (9), wherein the output control unit controls output of the background content based on a recognition result inside the aquarium. (11) The recognizing unit recognizes object information inside the aquarium, The information processing apparatus according to (10), wherein the output control unit controls output of the background content based on the object information.
  • the information processing apparatus (12) The information processing apparatus according to (11), wherein the output control unit outputs the background content including an object similar to an object included in the water tank based on the object information. (13) The recognition unit recognizes lighting information inside the aquarium, The information processing apparatus according to (9), wherein the output control unit controls the output of the background content based on the lighting information. (14) The information processing apparatus according to (9), wherein the output control unit causes an image obtained based on imaging inside the water tank to be output as the background content. (15) The information processing apparatus according to any one of (1) to (14), wherein the output control unit controls the light output by a lighting device. (16) The information processing apparatus according to any one of (1) to (15), wherein the output control unit controls the light output by a projector.

Abstract

【課題】情報処理装置、情報処理方法、及びプログラムを提供する。 【解決手段】水槽の背景に表示される背景コンテンツの認識を行う認識部と、前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する出力制御部と、を備える情報処理装置。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 水槽で観賞魚を飼育する場合、水槽の内部に光を出力(照射)する照明機器が用いられている。また、照明機器を制御するための技術も開発されている。例えば、下記特許文献1には、コントロールユニットを操作することにより、照明器具の移動と点灯を制御することが可能な水槽内照明装置が開示されている。また、下記特許文献2には、時刻又は室内の明るさから照明のスケジュール制御を自動的に行う技術が開示されている。
特開平8-298005号公報 特開2005-229835号公報
 しかし、上述した技術は、水槽内の点検、水槽内における藻や水苔の発生抑制、あるいは観賞魚のストレス抑制のために照明を制御するものであった。したがって、より美しい情景をユーザに提供するためには、さらなる改良の余地があった。
 そこで、本開示では、より美しい情景をユーザに提供することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する
 本開示によれば、水槽の背景に表示される背景コンテンツの認識を行う認識部と、前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する出力制御部と、を備える情報処理装置が提供される。
 また、本開示によれば、水槽の背景に表示される背景コンテンツの認識を行うことと、前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータに、水槽の背景に表示される背景コンテンツの認識を行う機能と、前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する機能と、を実現させるための、プログラムが提供される。
 以上説明したように本開示によれば、より美しい情景をユーザに提供することが可能である。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の概要を説明するための説明図である。 同実施形態の概要を説明するための説明図である。 同実施形態の概要を説明するための説明図である。 同実施形態に係る水槽システム1の機能構成例を示すブロック図である。 同実施形態に係る第1の装置構成例を示す図である。 同実施形態に係る第2の装置構成例を示す図である。 同実施形態に係る第3の装置構成例を示す図である。 制御部10の機能構成例を示すブロック図である。 同実施形態の動作例を説明するためのフローチャート図である。 同実施形態による出力制御の第1の具体例を示す図である。 同実施形態による出力制御の第2の具体例を示す図である。 同実施形態による出力制御の第3の具体例を示す図である。 同実施形態による出力制御の第4の具体例を示す図である。 同実施形態による出力制御の第5の具体例を示す図である。 同実施形態による出力制御の第6の具体例を示す図である。 同実施形態による出力制御の第7の具体例を示す図である。 水槽20を鉛直上方向から鑑賞する場合の構成例を示す図である。 本技術を美術館に適用した場合の例を示す図である。 ハードウェア構成の一例を示すブロック図である。 効果を説明するための説明図である。 効果を説明するための説明図である。 効果を説明するための説明図である。 効果を説明するための説明図である。 効果を説明するための説明図である。 効果を説明するための説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 <<1.概要>>
 <<2.構成>>
 <<3.動作>>
 <<4.具体例>>
 <<5.変形例>>
 <<6.ハードウェア構成例>>
 <<7.効果>>
 <<1.概要>>
 まず、図1~図3を参照しながら本開示の一実施形態の概要を説明する。図1~図3は、本開示の一実施形態の概要を説明するための説明図である。
 図1には、水槽を鑑賞するユーザの視界V11が示されている。水槽の内部には、観賞魚や水草等の生体が含まれる他、砂や置き石、人工の添え物等の非生体が設置される。本実施形態では、このような水槽の背景に、画像を表示させることで、より美しい情景を含む視界V12をユーザに提供する。なお、本明細書において、画像とは、静止画像と動画像(映像)とを含む表現として用いられ得る。また、以下では、水槽の背景に表示される画像を、背景コンテンツと呼ぶ。背景コンテンツは、例えば山、海、空、宇宙等、様々な画像であってよく、多様な背景コンテンツを表示することで、ユーザに多様な情景を提供することが可能である。
 図2に示す手前側の前景F21は、水槽の内部の生体及び非生体で構成される。また、図2において、前景F21の奥側である背景に表示された背景コンテンツB21は斜線で示されている。ユーザの視界V21においては、実体である前景F21と画像である背景コンテンツB21が合成されて視認される。
 ここで、単に前景F21の背景に背景コンテンツB21を表示させるだけでは、背景コンテンツB21と前景F21とを一体感のある情景として見せることが困難な場合があった。
 図3に示す視界V31において、背景には何も表示されておらず、水槽の内部は照明装置により明るく照らされている。この状態で、例えば図3に示す視界V32のように比較的暗い背景コンテンツB32を背景に表示させた場合、背景と前景との間で、明るさが異なってしまい、一体感のある情景として見せることできない恐れがある。
 背景コンテンツが固定された静止画像である場合には照明装置をユーザが調整することも可能かもしれないが、背景コンテンツが動画像である場合や、静止画像が切り替わる場合には、一体感のある情景を提供し続けることは困難であった。
 そこで、本実施形態では、図3に示す視界V33のように、水槽の内部が背景コンテンツB33に応じた明るさになるように照明装置による光出力を制御する。係る構成により、背景コンテンツと、前景となる水槽の内部を一体感のある情景としてユーザに見せることが可能となる。
 なお、図3では、背景コンテンツの明るさに応じた光出力の制御を例に説明したが、本実施形態によれば、色合いやコントラスト等の他の様々な条件に応じて光出力を制御することも可能である。また、本実施形態によれば、さらに水槽の内部の状況に応じて、適切な背景コンテンツを選択することも可能である。以下では、このような効果を奏することが可能な、本開示の一実施形態の構成、及び動作について順次より詳細に説明する。
 <<2.構成>>
 以上、本開示の一実施形態の概要について説明した。続いて、本実施形態の構成例について説明する。図4は、本実施形態に係る水槽システム1の機能構成例を示すブロック図である。図4に示すように、本実施形態に係る水槽システム1は、制御部10、水槽20、光出力部30、カメラ部40(撮影認識部)、表示部50(背景表示部)、光学視距離生成部60、通信部70、及びスピーカ80を含む。
 制御部10は、水槽システム1の全体を制御する情報処理装置である。例えば、制御部10は、水槽20の背景に表示される背景コンテンツに基づいて、光出力部30による水槽内部への光出力を制御する。また、制御部10は、表示部50に背景コンテンツを表示(出力)させてもよい。また、制御部10は、背景コンテンツに応じて、スピーカ80による音響出力を制御してもよい。なお、制御部10のより詳細な構成については図8を参照して後述する。
 水槽20は、水槽20の内部、及び背景の両方を視認可能なように、光を透過するガラスまたはプラスチック等の素材により例えば箱型に形成される。水槽20の内部には水が所望の水位まで満たされ、観賞魚や水草等の生体が含まれる他、砂や置き石、人工の添え物、エアレーション装置等の非生体が設置されてもよい。
 光出力部30は、水槽20の内部に光を出力(照射)する。光出力部30は、例えば水槽20の内部を全体的に照らす(光を出力する)照明装置(照明部)を含んでもよい。また、光出力部30は、水槽20の内部の各領域に照射される光をより精細に異ならせるプロジェクションが可能なプロジェクタを含んでもよい。なお、光出力部30は複数の装置を含んでもよい。
 カメラ部40は、水槽20の内部を撮像して撮像画像を取得し、制御部10へ提供する撮像装置である。なお、カメラ部40は複数台の撮像装置を含んでもよい。
 表示部50は、背景コンテンツを表示する。
 光学視距離生成部60は、光学視距離生成部60は、水槽20のすぐ後ろではなく、より遠くに背景コンテンツが視認されるように水槽20と、ユーザに視認される背景コンテンツとの間の光学的な視距離を生成する。水槽20のすぐ後ろに背景コンテンツが視認される場合と比べて、より遠くに背景コンテンツが視認されることで、より奥行き感を与えることが可能である。その結果、ユーザは水槽20の後ろに実際に背景コンテンツに含まれる光景が広がっているかのような感覚を得ることが可能である。
 なお、表示部50と光学視距離生成部60の具体的な構成例については、図5~図7を参照して後述する。
 通信部70は、不図示の通信網と接続するための通信装置である。制御部10は、通信部70を介して、不図示の通信網と接続し、当該通信網に接続された外部サーバ等から背景コンテンツを取得してもよい。
 スピーカ80は、制御部10に制御されて音響を出力する。
 以上、本実施形態に係る水槽システム1の機能構成例について説明した。続いて、水槽システム1を実現し得るいくつかの装置構成例について図5~図7を参照して説明する。
 図5は、本実施形態に係る第1の装置構成例を示す図である。図5を参照すると、水槽20の上方に配置された筐体91内に制御部10、光出力部30、及びカメラ部40が設けられる。また、図5に示す例において、水槽20の下方に配置された筐体92内には、表示部50の一例であるプロジェクタ50Aが設けられる。また、図5に示す例において、ユーザUから見て水槽20の背面側に光学視距離生成部60の一例であるコンバイナ60Aが設けられる。
 筐体92の上面のうち少なくともプロジェクタ50Aとコンバイナ60Aとの間は光が通過可能であるように構成される。例えば、筐体92の上面の少なくとも一部がガラスやプラスチック等の光を透過する素材で形成されてもよい。
 プロジェクタ50Aは、制御部10に制御されて背景コンテンツB41をコンバイナ60Aに向けて出力(投影)する。コンバイナ60Aは、少なくとも一部の光を反射する光学部材であり、図5に示すようにプロジェクタ50Aにより出力された背景コンテンツB41を、ユーザUから見て、水槽20から所定の距離離れた位置に視認させる。
 図6は、本実施形態に係る第2の装置構成例を示す図である。図6を参照すると、水槽20の上方に配置された筐体91内に制御部10、光出力部30、及びカメラ部40が設けられる。また、図6に示す例において、ユーザUから見て水槽20の背面側に表示部50の一例であるディスプレイ50Bが配置され、水槽20とディスプレイ50Bの間には、光学視距離生成部60の一例であるフレネルレンズ60Bが配置される。
 フレネルレンズ60Bは、ディスプレイ50Bに表示された背景コンテンツB41を、ユーザUから見て、水槽20から所定の距離離れた位置に視認させる。なお、ディスプレイ50Bは、高輝度なものが望ましい。また、フレネルレンズ60Bは薄型であるというメリットがあるが、係る例に限定されず、他のレンズが用いられてもよい。また、モアレと線防止のため、フレネルレンズ60Bにはローパスフィルタが設けられてもよい。
 図7は、本実施形態に係る第3の装置構成例を示す図である。図7を参照すると、水槽20の上方に配置された筐体91内に制御部10、光出力部30、及びカメラ部40が設けられる。また、図7に示す例において、ユーザUから見て水槽20の背面側に表示部50の一例であるディスプレイ50Cが配置される。
 図7に示すディスプレイ50Cは、図6に示したディスプレイ50Bよりも、ユーザUから見て水槽20の後方に配置され、水槽20とディスプレイ50Cの間には距離dが設けられている。係る構成により、図7に示すように、ディスプレイ50Cに表示される背景コンテンツB43をユーザUから見て、水槽20から距離d離れた位置に視認させることが可能である。
 以上、図5~図7を参照して水槽システム1を実現し得る装置構成例について説明したが、図5~図7に示した装置構成は一例であって、各装置等の配置や組み合わせは係る例に限定されない。例えば、制御部10、光出力部30、及びカメラ部40は水槽20の上方ではなく側方あるいは下方に配置されてもよい。また、図5~図7に示されない通信部70及びスピーカ80の位置は特に限定されない。また、ディスプレイとコンバイナの組み合わせにより、水槽20から所定の距離離れた位置に視認されるように背景コンテンツを表示することも可能である。また、光学視距離生成部60は、制御部10に制御されて、光学的な視距離を変化させる構成であってもよい。例えば、光学視距離生成部60は、レンズ等の光学系を駆動させることで光学的な視距離を変化させてもよいし、表示部50(例えばディスプレイ)の位置を物理的に移動させて光学的な視距離を変化させてもよい。
 続いて、制御部10のより詳細な機能構成例について、図8を参照して説明する。図8は、制御部10の機能構成例を示すブロック図である。図8を参照すると、制御部10は、インタフェース部11、コンテンツ認識部13、前景認識部15、出力制御部17、及び記憶部19を備える情報処理装置である。なお、本開示において、コンテンツ認識部13、前景認識部15をまとめて単に認識部と呼ぶ場合がある。
 インタフェース部11は、制御部10と他の装置との間を接続するためのインタフェースである。例えばインタフェース部11は、図4に示した光出力部30、カメラ部40、表示部50、通信部70、及びスピーカ80と接続される。例えば、インタフェース部11を介して光出力部30へ、光出力を制御する制御信号等が送信されてもよい。また、インタフェース部11を介してカメラ部40から撮像画像が受信されてもよい。また、インタフェース部11を介して表示部50へ、背景コンテンツが送信されてもよい。また、インタフェース部11を介して通信部70から(より厳密には通信部70を介して接続される外部サーバ等から)、背景コンテンツが受信されてもよい。また、インタフェース部11を介してスピーカ80へ、音響信号が送信されてもよい。
 コンテンツ認識部13は、水槽20の背景に表示される背景コンテンツの認識を行う。なお、本実施形態において、背景コンテンツは、後述する出力制御部17により取得(選択)されてもよく、コンテンツ認識部13は、出力制御部17により取得された背景コンテンツの認識を行ってもよい。ただし、水槽20の背景に表示される背景コンテンツが予め決められている場合等は、コンテンツ認識部13が直接的に背景コンテンツを取得してもよい。
 コンテンツ認識部13は、例えば背景コンテンツの色情報を認識する。背景コンテンツの色情報は、例えば明るさ、色合い、コントラスト等の情報を含んでもよい。
 また、コンテンツ認識部13は、例えば背景コンテンツの光源情報を認識する。背景コンテンツの光源情報は、例えば背景コンテンツにおける光源方向、背景コンテンツにおける光源の色、光の強さ、揺らぎ等の情報を含んでもよい。
 また、コンテンツ認識部13は、背景コンテンツにおける気象情報(例えば、晴れ、雨、雪、雷等)を認識してもよい。
 コンテンツ認識部13は、上述した背景コンテンツの色情報、背景コンテンツの光源情報、及び背景コンテンツにおける気象情報を、背景コンテンツの認識結果として出力制御部17へ提供する。
 前景認識部15は、前景となる水槽20の内部の認識を行う。例えば、前景認識部15は、インタフェース部11を介してカメラ部40から受信された撮像画像を解析して、水槽20の内部の認識を行ってもよい。
 前景認識部15は、例えば水槽20の内部の物体情報を認識してもよい。物体情報は、例えば水槽20の内部に含まれる物体(生体、及び非生体)の種類、位置、大きさ、色、形状等の情報を含んでもよい。
 また、前景認識部15は、水槽20の内部の照明情報を認識してもよい。照明情報は、例えば照明の強度(明るさ)、色等の情報を含んでもよい。なお、前景認識部15は、上述したように撮像画像に基づいて照明情報を認識してもよいし、出力制御部17による光出力部30の制御に関する情報に基づいて照明情報を認識してもよい。
 前景認識部15は、上述した水槽20の内部の物体情報、及び水槽20の内部の照明情報を、水槽20の内部の認識結果として出力制御部17へ提供する。
 出力制御部17は、認識部(コンテンツ認識部13、及び前景認識部15)による認識結果に基づいて出力を制御する。例えば、出力制御部17は、コンテンツ認識部13による背景コンテンツの認識結果に基づいて、光出力部30による光出力を制御する。
 出力制御部17は、コンテンツ認識部13により認識された背景コンテンツの色情報に基づいて、背景コンテンツが有する色と、水槽20の内部の色とが類似するように、光出力部30による光出力を制御してもよい。係る例については、図10を参照して後述する。
 また、出力制御部17は、コンテンツ認識部13により認識された背景コンテンツの光源情報に基づいて、光出力部30による光出力を制御してもよい。
 例えば、出力制御部17は、背景コンテンツにおける光源方向の情報に基づいて、水槽20の内部の陰影が当該光源方向と整合するように、光出力部30による光出力を制御してもよい。背景コンテンツにおける光源方向と水槽20の内部の陰影を整合させるため、出力制御部17は、前景認識部15による水槽20の内部の認識結果にさらに基づいて光出力部30による光出力を制御してもよい。係る例については図11、図12を参照して後述する。
 例えば、出力制御部17は、背景コンテンツにおける光源の色の情報に基づいて、水槽20の内部の色が当該光源の色と整合するように、光出力部30による光出力を制御してもよい。係る例については図12を参照して後述する。
 また、出力制御部17は、コンテンツ認識部13により認識された背景コンテンツにおける気象情報に基づいて、光出力部30による光出力を制御してもよい。係る例については図13を参照して後述する。
 また、出力制御部17は、前景認識部15による水槽20の内部の認識結果に基づいて、表示部50による背景コンテンツの出力(表示)を制御してもよい。係る場合、出力制御部17は、記憶部19に記憶された背景コンテンツ、あるいはインタフェース部11を介して外部サーバから取得される背景コンテンツの中から、適切な背景コンテンツを選択し、表示部50に表示させてもよい。
 例えば、出力制御部17は、水槽20の内部の物体情報に基づいて背景コンテンツの出力を制御してもよく、物体情報に基づいて、水槽20の内部に含まれる物体と類似した物体を含む背景コンテンツを出力させてもよい。係る例については図14~図16を参照して後述する。
 また、出力制御部17は、水槽20の内部の照明情報に基づいて背景コンテンツの出力を制御してもよく、水槽20の内部の照明情報に基づいて、水槽20の内部の照明の明るさや色に応じた背景コンテンツを表示させてもよい。
 また、出力制御部17が制御する出力は、光出力部30による光出力と、表示部50による背景コンテンツの出力に限定されない。例えば、出力制御部17は、背景コンテンツに応じて、スピーカ80による音響出力を制御してもよい。また、出力制御部17は、前景認識、あるいは背景認識の結果に基づいて、不図示の各種装置による薬剤投入の制御や、エサ投入の制御、エアレーションの制御等を行ってもよい。特に、出力制御部17は、薬剤投入の制御を行うことで、水槽内部の光学特性を制御することが可能である。
 記憶部19は、制御部10が各機能を実行するためのプログラムやパラメータ等のデータを記憶する。記憶部19は背景コンテンツを記憶していてもよく、背景コンテンツに含まれる物体の種類や背景コンテンツの種別等のメタ情報を背景コンテンツと対応付けて記憶していてもよい。
 以上、本実施形態に係る制御部10のより詳細な機能構成例について説明した。なお、図8に示した制御部10の機能構成は一例であって、本実施形態は係る例に限定されない。例えば、図8に示した一部の機能が他の装置に備えられていてもよく、例えば前景認識部15の機能が図4に示したカメラ部40に備えられていてもよい。
 <<3.動作>>
 図9は、本実施形態の動作例を説明するためのフローチャート図である。図9を参照すると、まずカメラ部40が水槽20の内部を撮像して取得された撮像画像が、制御部10へ提供される(S102)。続いて、制御部10の前景認識部15が、前景となる水槽20の内部の認識を行う(S104)。
 続いて、出力制御部110が、ステップS104における水槽20の内部の認識結果に基づいて背景コンテンツを取得する(S106)。なお、背景コンテンツの取得は、水槽20の内部の認識結果に基づいて行われる例に限定されず、背景コンテンツは、例えば予め決められた順序、あるいはランダムに取得されてもよい。
 続いて、コンテンツ認識部13がステップS106で取得された背景コンテンツの認識を行う(S108)。
 続いて、出力制御部110がステップS108における背景コンテンツの認識結果に基づいて、光出力部30による光出力を制御すると共に、ステップS106で取得された背景コンテンツを表示部50に出力(表示)させる(S110)。
 このようにして、背景コンテンツに連動して前景となる水槽20の内部への光出力を制御することが可能となる。
 なお、図9に示したのは一例であって、本実施形態に係る動作は係る例に限定されない。例えば、本実施形態における各ステップは、図9に記載された順序に沿って時系列に処理される必要はなく、各ステップは、図9に記載された順序と異なる順序で処理されてもよいし、並列的に処理されてもよい。
 <<4.具体例>>
 以上、本実施形態に係る構成例、及び動作例について説明した。続いて、上述した本実施形態による出力制御のいくつかの具体例について、図10~図16を参照して説明する。
 (第1の具体例)
 図10は、本実施形態による出力制御の第1の具体例を示す図である。図10に示されるユーザの視界V110には、水槽20の内部と、背景コンテンツB110として水槽20の背景に表示された宇宙の画像が合わさって視認される。
 図10に示す例において、コンテンツ認識部13は、背景コンテンツB110の色情報を認識してもよい。ここで、図10に示すように、背景コンテンツB110は宇宙の画像であり、明るさは非常に暗い(小さい)。そこで、出力制御部17は、背景コンテンツB110の色と水槽20の内部の色とが類似するように、例えば水槽20の内部が暗くなるように、光出力を制御する(例えば光出力部30による光出力をオフにする)。
 なお、図10では、背景コンテンツB110が宇宙の画像である例を示したが、例えば夜景の画像である場合も同様の制御が可能である。このように、背景コンテンツの色情報に基づいて光出力を制御することで、ユーザの視界には、一体感のある情景が視認される。
 (第2の具体例)
 図11は、本実施形態による出力制御の第2の具体例を示す図である。図11に示されるユーザの視界V120には、水槽20の内部と、背景コンテンツB120として水槽20の背景に表示された森を流れる川の画像が合わさって視認される。
 図11に示す例において、コンテンツ認識部13は、背景コンテンツB120の光源情報を認識する。また、前景認識部15は、水槽20の内部の物体情報を認識してもよく、例えば水槽20の内部の植物OB120(物体の一例)に関する情報を認識してもよい。そして、出力制御部17は、光源情報と物体情報に基づいて、例えば背景コンテンツB120における光源方向と水槽20の内部の陰影が整合するように光出力を制御してもよい。
 例えば、図11に示すように、背景コンテンツB120の光源方向に整合した、陰影SH120が水槽20の内部の植物OB120の影として視認されるように、出力制御部17は光出力(例えば光出力部30に含まれるプロジェクタの光出力)を制御してもよい。
 なお、出力制御部17はさらに背景コンテンツにおける光の強さや、揺らぎ、及び背景コンテンツのコントラスト等に基づいて光出力の制御を行ってもよい。このように光出力を制御することで、前景と背景の融合性が保たれ、ユーザは前景の後ろに背景が繋がっているように感じられる。
 (第3の具体例)
 図12は、本実施形態による出力制御の第3の具体例を示す図である。図12に示されるユーザの視界V131、及び視界V132には、水槽20の内部と、それぞれ背景コンテンツB131、及び背景コンテンツB132として水槽20の背景に表示された、時刻の異なる山の画像が合わさって視認される。
 図12に示す例において、コンテンツ認識部13は、背景コンテンツB131、及び背景コンテンツB132の光源情報をそれぞれ認識し、前景認識部15は、水槽20の内部の物体情報を認識してもよい。図12に示す例において、光源情報は、背景コンテンツB131、及び背景コンテンツB132に含まれる太陽の光源方向や、光の強さ、色等の情報を含みうる。そして、出力制御部17は、光源情報と物体情報に基づいて、光出力を制御してもよい。
 例えば、図12に示す視界V131のように昼間の山の画像が背景コンテンツB131として表示される場合、出力制御部17は、水槽20の内部が光出力部30により、明るく照らされるように光出力を制御してもよい。一方、図12に示す視界V132のように夕方の山の画像が背景コンテンツB132として表示される場合、出力制御部17は、水槽20の内部が光出力部30により、視界V131の例よりも暗く、かつ、より赤く照らされるように光出力を制御してもよい。
 なお、いずれの場合においても、出力制御部17は水槽20の内部の物体情報に基づいて、背景コンテンツB131、及び背景コンテンツB132のそれぞれに含まれる太陽の光源方向と水槽20の内部の陰影が整合するように光出力を制御してもよい。
 また、図12では、昼間の場合と夕方の場合のみを示したが、出力制御部17は、背景コンテンツ内の太陽の位置や光の強さ等が時刻に応じて変化するように(例えば実際の時刻と同期するように)背景コンテンツを出力させてもよい。そして、出力制御部17は背景コンテンツの変化に応じて、光出力を変化させてもよい。
 (第4の具体例)
 図13は、本実施形態による出力制御の第4の具体例を示す図である。図13に示されるユーザの視界V141、及び視界V142には、水槽20の内部と、それぞれ背景コンテンツB141、及び背景コンテンツB142として水槽20の背景に表示された、雷雲の画像が合わさって視認される。
 図13に示す例において、コンテンツ認識部13は、背景コンテンツB141、及び背景コンテンツB142の気象情報をそれぞれ認識してもよい。図13に示す例において、気象情報は、背景コンテンツB141において遠くに雷が落ちていること、背景コンテンツB142において近くに雷が落ちていること等の情報であってもよい。そして、出力制御部17は、係る気象情報に基づいて、光出力を制御してもよい。
 例えば、図13に示す視界V141のように遠くに雷が落ちている雷雲の画像が背景コンテンツB141として表示される場合、出力制御部17は、水槽20の内部がより暗くなるように光出力を制御してもよい。一方、図13に示す視界V142のように近くに雷が落ちている雷雲の画像が背景コンテンツB142として表示される場合、出力制御部17は、水槽20の内部が光出力部30により、視界V141の例よりも明るく照らされるように光出力を制御してもよい。
 なお、図13では背景コンテンツB141、及び背景コンテンツB142が表示される場合のみを示したが、出力制御部17は、背景コンテンツ内の気象が時刻に応じて変化するように(例えば実際の気象と同期するように)背景コンテンツを出力させてもよい。そして、出力制御部17は、背景コンテンツ内の気象の変化に応じて、光出力を変化させてもよい。
 (第5の具体例)
 図14は、本実施形態による出力制御の第5の具体例を示す図である。前景認識部15は、水槽20の内部の物体情報を認識してもよく、図14に示す例では、エアレーションによる泡OB150(物体の一例)に関する情報を認識してもよい。そして、出力制御部17は、物体情報に基づいて、背景コンテンツの出力を制御する。
 図14に示す例では、泡OB150の発生に合わせて、雪景色の画像が背景コンテンツB150として出力制御部17により選択され、ユーザの視界V150には、水槽20の内部と、水槽20の背景に表示された背景コンテンツB150が合わさって視認される。
 (第6の具体例)
 図15は、本実施形態による出力制御の第6の具体例を示す図である。前景認識部15は、水槽20の内部の物体情報を認識してもよく、図15に示す例では、メンテナンスのために投入された薬剤OB160(物体の一例)に関する情報を認識してもよい。そして、出力制御部17は、物体情報に基づいて、背景コンテンツの出力を制御する。
 図15に示す例では、薬剤OB160の投入に合わせて、霧の風景の画像が背景コンテンツB160として出力制御部17により選択され、ユーザの視界V160には、水槽20の内部と、水槽20の背景に表示された背景コンテンツB160が合わさって視認される。
 (第7の具体例)
 図16は、本実施形態による出力制御の第7の具体例を示す図である。前景認識部15は、水槽20の内部の物体情報を認識してもよく、図16に示す例では、植物OB171、及び植物OB172(物体の一例)に関する情報を認識してもよい。そして、出力制御部17は、物体情報に基づいて、背景コンテンツの出力を制御する。
 図16に示す例では、植物OB171、及び植物OB172と類似した植物を含む画像が背景コンテンツB170として出力制御部17により選択、あるいは生成される。そして、ユーザの視界V170には、水槽20の内部と、水槽20の背景に表示された背景コンテンツB170が合わさって視認される。このように背景コンテンツを出力させることにより、ユーザには背景コンテンツB170が奥行き方向に前景と続くように見え、森が再現された情景を提供することが可能である。
 以上、図10~図16を参照して、本実施形態による出力制御の具体例を説明したが、上述した例は一例であり、係る例に限定されない。
 例えば、水槽20に含まれる生体(水草等)の光合成のために、紫色の光が照射されることがある。そのような場合、出力制御部17は、前景認識部15により認識される水槽20の内部の照明情報に基づいて、紫色の光に応じた背景コンテンツとして、氷河の画像を出力(表示)させてもよい。
 また、出力制御部17は、前景認識部15により認識される、水槽20の内部の生体(物体の一例)の状況に応じて様々な背景コンテンツを出力させ得る。
 例えば、水槽20の内部で、観賞魚の子供が誕生したことが認識された場合、出力制御部17は、誕生を祝う画像を背景コンテンツとして表示部50に出力(表示)させ、また誕生を祝う音声をスピーカ80に出力させてもよい。
 また、出力制御部17は、水槽20の内部における、観賞魚の成長度に応じて、当該観賞魚がその成長度において住んでいる場所の画像を背景コンテンツとして表示部50に出力(表示)させてもよい。
 また、出力制御部17は、水槽20の内部における、認識された観賞魚の移動(位置の変化)に応じて、背景コンテンツが変化するように、背景コンテンツの出力(表示)を制御してもよい。例えば、観賞魚の移動速度に応じて、背景コンテンツの移動速度を変化させてもよい。あるいは、観賞魚の移動に応じて、背景コンテンツとしての画像を切替えてもよく、例えば上流の画像から下流の画像に(あるいはその逆に)、切り替えるよう制御してもよい。
 また、出力制御部17は、水槽20の内部における、認識された観賞魚の種類に応じて、背景コンテンツの出力を制御してもよく、例えば、種類の観賞魚が住んでいる地域や場所の画像を背景コンテンツとして出力(表示)させてもよい。
 <<5.変形例>>
 以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
 (変形例1)
 上記実施形態では、光出力部30による水槽20の内部への光出力の例として、照明装置による水槽20の内部を全体的に照射する例、及びプロジェクタにより水槽20の内部の各領域に照射される光をより精細に異ならせる例について説明した。しかし、本実施形態は係る例に限定されない。
 例えば、水槽20の内部に反射フィルムが配置され、出力制御部17は、光出力部30の一例であるプロジェクタを制御して、当該反射フィルムへ光を投射するように光出力を制御してもよい。係る構成により、出力制御部17は、水槽20の内部に、仮想オブジェクトを表示することが可能であり、所謂AR(Augmented Reality)技術における現実空間への画像の重畳(以下AR重畳と呼ぶ)が実現される。なお、出力制御部17が水槽20の内部に表示させる仮想オブジェクトは3次元的なオブジェクトであってもよいし、文字列であってもよいし、画像であってもよい。
 例えば、出力制御部17は、背景コンテンツの認識結果に応じた仮想オブジェクトがAR重畳されるように光出力を制御することで、上述した光出力の例と同様の効果を実現することも可能であり、前景と背景とがより一体感のある空間を再現することも可能となる。
 また、水槽20のユーザ側にホログラム導光板が配置されてもよく、係る場合、出力制御部17は、当該ホログラム導光板に光を投射するプロジェクタ(光出力部30)の光出力を制御することで、同様のAR重畳を実現することが可能である。
 (変形例2)
 また、上記実施形態では、出力制御部17が、認識部(コンテンツ認識部13、及び前景認識部15)による認識結果に基づいて、光出力と背景コンテンツの出力を制御する例を説明したが、本実施形態は係る例に限定されない。
 例えば、光出力と、背景コンテンツの出力とが連動するように予め対応付けられた制御情報が記憶部19に記憶されていてもよく、係る場合、出力制御部17は、係る制御情報を記憶部19から読み出して、出力を制御してもよい。
 (変形例3)
 また、上記実施形態では、外部サーバから取得された画像、あるいは記憶部19に記憶された画像が背景コンテンツとして出力される例を説明したが、本実施形態は係る例に限定されない。
 例えば、出力制御部17は、カメラ部40による水槽20の内部の撮像に基づいて得られた画像を出力させてもよい。ここで、撮像に基づいて得られた画像とは、撮像画像そのものであってもよいし、複数の撮像画像に基づく合成により得られる画像であってもよい。
 例えば、出力制御部17は、撮像画像そのものを出力させてもよく、係る構成により、ユーザは水槽20の内部を、現在自身が見ている方向とは別の方向から、すなわちカメラ部40の撮像方向から鑑賞することが可能である。
 また、出力制御部17は、カメラ部40に含まれる複数の撮像装置により同時に取得された複数の撮像画像に基づく合成により得られる自由視点画像を出力させてもよい。係る場合、ユーザは不図示の操作部を用いて、視点を自由に変更可能であってもよく、係る構成により、ユーザは水槽20の内部を、所望の方向から鑑賞することが可能である。
 (変形例4)
 また、上記実施形態では、水槽20を水平方向から鑑賞する例を説明したが、本実施形態は係る例に限定されない。例えば、水槽20を鉛直上方向から鑑賞するような構成例も実現可能である。
 図17は、水槽20を鉛直上方向から鑑賞する場合の構成例を示す図である。なお、図17は、水槽20を鉛直上方向から見た図である。図17に示すように、水槽20を鉛直上方向から鑑賞するように構成される場合、不図示の表示部により、水槽20の下方に背景コンテンツが表示されてよい。また、図17に示すように、水槽20の側方に光出力部30が配置されてもよい。
 (変形例5)
 また、上記実施形態では、本技術が水槽システムに適用される例を説明したが、係る例に限定されない。本技術はより多様な場面において適用が可能である。
 図18は、本技術を美術館に適用した場合の例を示す図である。図18に示す例では、前景である美術館の壁F210の認識結果に基づいて、背景には、壁F210と奥行き方向に続くような背景コンテンツB210が表示されている。図18に示す例では、上述した例と同様に、光源情報についても認識され、光線についても奥行き方向にあたかも無限に連続するかのように背景コンテンツB210が表示されている。係る構成により、ユーザは本来の部屋(美術館)の広さよりも広い空間に存在するかのように感じることが可能である。
 なお、図18では、本技術が美術館に適用される例を示したが、他の場面においても同様に適用可能である。例えば、ジオラマ模型、動物園、植物等を前景として、上述した技術を適用することが可能である。
 <<6.ハードウェア構成例>>
 以上、本開示の実施形態を説明した。続いて、図19を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図19は、本開示の実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図19に示す情報処理装置900は、例えば、図4、図8に示した制御部10を実現し得る。本開示の実施形態に係る制御部10による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図19に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、コンテンツ認識部13、前景認識部15、及び出力制御部17を形成し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。上記ストレージ装置908は、例えば、記憶部19を形成し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、インタフェース部11を形成し得る。
 センサ915は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサである。センサ915は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得する。また、センサ915は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 以上、本開示の実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本開示の実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本開示の実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<7.効果>>
 本実施形態の効果について、改めて図20~図25を参照して説明する。図20~図25は、本実施形態の効果を説明するための説明図である。
 以上説明したように、本開示の実施形態によれば、水槽の背景に表示される背景コンテンツと、前景となる水槽の内部と、を一体の空間として情景を創ることが可能であり、より美しい情景をユーザに提供することが可能である。図20を参照すれば、背景B300を自由に変更することが可能であり、さらに背景B300と前景F300を一体の空間として情景を創ることが可能である。
 背景B300に別の場所の画像(例えば海や水族館等)を一体感のある空間として映し出すことが可能である。また朝日が昇る風景や、夕焼け、雨、雪といった時間帯によって異なる情景や、春夏秋冬の季節によって変化する情景を、一体感のある情景空間として映し出すことも可能である。
 さらに、図21に示されるように、水面に入り込む陽ざしの煌めき等、動きのある背景コンテンツに合わせた一体感のある情景空間を創りだすことが可能である。
 また、図22~図25に示されるような、映画やアニメーションのワンシーン等の架空の情景を模したり、その架空のものと合わせこんだ情景を創りだすことが可能である。
 さらには、上述したように、宇宙や森の中等、魚がいない場所の背景とも、一体感のある情景を創りだすことが可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 水槽の背景に表示される背景コンテンツの認識を行う認識部と、
 前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する出力制御部と、
 を備える情報処理装置。
(2)
 前記認識部は、前記背景コンテンツの色情報を認識し、
 前記出力制御部は、前記背景コンテンツの色情報に基づいて、前記光出力を制御する、前記(1)に記載の情報処理装置。
(3)
 前記出力制御部は、前記背景コンテンツが有する色と、前記水槽の内部の色とが類似するように、前記光出力を制御する、前記(2)に記載の情報処理装置。
(4)
 前記背景コンテンツの色情報は、明るさ、色合い、コントラスト、のうち少なくともいずれか一つの情報を含む、前記(2)または(3)に記載の情報処理装置。
(5)
 前記認識部は、前記背景コンテンツの光源情報を認識し、
 前記出力制御部は、前記光源情報に基づいて、前記光出力を制御する、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記光源情報は、前記背景コンテンツにおける光源方向の情報を含み、
 前記出力制御部は、前記水槽の内部の陰影が前記光源方向と整合するように、前記光出力を制御する、前記(5)に記載の情報処理装置。
(7)
 前記光源情報は、前記背景コンテンツにおける光源の色の情報を含み、
 前記出力制御部は、前記水槽の内部の色が前記光源の色と整合するように、前記光出力を制御する、前記(5)または(6)に記載の情報処理装置。
(8)
 前記認識部は、前記背景コンテンツにおける気象情報を認識し、
 前記出力制御部は、前記気象情報に基づいて、前記光出力を制御する、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記出力制御部は、前記水槽の内部に基づいて前記背景コンテンツの出力をさらに制御する、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
 前記認識部は、前記水槽の内部の認識をさらに行い、
 前記出力制御部は、前記水槽の内部の認識結果に基づいて前記背景コンテンツの出力を制御する、前記(9)に記載の情報処理装置。
(11)
 前記認識部は、前記水槽の内部の物体情報を認識し、
 前記出力制御部は、前記物体情報に基づいて前記背景コンテンツの出力を制御する、前記(10)に記載の情報処理装置。
(12)
 前記出力制御部は、前記物体情報に基づいて、前記水槽の内部に含まれる物体と類似した物体を含む前記背景コンテンツを出力させる、前記(11)に記載の情報処理装置。
(13)
 前記認識部は、前記水槽の内部の照明情報を認識し、
 前記出力制御部は、前記照明情報に基づいて前記背景コンテンツの出力を制御する、前記(9)に記載の情報処理装置。
(14)
 前記出力制御部は、前記水槽の内部の撮像に基づいて得られた画像を前記背景コンテンツとして出力させる、前記(9)に記載の情報処理装置。
(15)
 前記出力制御部は、照明装置による前記光出力を制御する、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記出力制御部は、プロジェクタによる前記光出力を制御する、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
 前記出力制御部は、前記光出力を制御することで、前記水槽の内部に仮想オブジェクトを表示させる、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
 水槽の背景に表示される背景コンテンツの認識を行うことと、
 前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御することと、を含む、情報処理方法。
(19)
 コンピュータに、
 水槽の背景に表示される背景コンテンツの認識を行う機能と、
 前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する機能と、を実現させるための、プログラム。
 1 水槽システム
 10 制御部
 11 インタフェース部
 13 コンテンツ認識部
 15 前景認識部
 17 出力制御部
 19 記憶部
 20 水槽
 30 光出力部
 40 カメラ部
 50 表示部
 60 光学視距離生成部
 70 通信部
 80 スピーカ

Claims (19)

  1.  水槽の背景に表示される背景コンテンツの認識を行う認識部と、
     前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する出力制御部と、
     を備える情報処理装置。
  2.  前記認識部は、前記背景コンテンツの色情報を認識し、
     前記出力制御部は、前記背景コンテンツの色情報に基づいて、前記光出力を制御する、請求項1に記載の情報処理装置。
  3.  前記出力制御部は、前記背景コンテンツが有する色と、前記水槽の内部の色とが類似するように、前記光出力を制御する、請求項2に記載の情報処理装置。
  4.  前記背景コンテンツの色情報は、明るさ、色合い、コントラスト、のうち少なくともいずれか一つの情報を含む、請求項2に記載の情報処理装置。
  5.  前記認識部は、前記背景コンテンツの光源情報を認識し、
     前記出力制御部は、前記光源情報に基づいて、前記光出力を制御する、請求項1に記載の情報処理装置。
  6.  前記光源情報は、前記背景コンテンツにおける光源方向の情報を含み、
     前記出力制御部は、前記水槽の内部の陰影が前記光源方向と整合するように、前記光出力を制御する、請求項5に記載の情報処理装置。
  7.  前記光源情報は、前記背景コンテンツにおける光源の色の情報を含み、
     前記出力制御部は、前記水槽の内部の色が前記光源の色と整合するように、前記光出力を制御する、請求項5に記載の情報処理装置。
  8.  前記認識部は、前記背景コンテンツにおける気象情報を認識し、
     前記出力制御部は、前記気象情報に基づいて、前記光出力を制御する、請求項1に記載の情報処理装置。
  9.  前記出力制御部は、前記水槽の内部に基づいて前記背景コンテンツの出力をさらに制御する、請求項1に記載の情報処理装置。
  10.  前記認識部は、前記水槽の内部の認識をさらに行い、
     前記出力制御部は、前記水槽の内部の認識結果に基づいて前記背景コンテンツの出力を制御する、請求項9に記載の情報処理装置。
  11.  前記認識部は、前記水槽の内部の物体情報を認識し、
     前記出力制御部は、前記物体情報に基づいて前記背景コンテンツの出力を制御する、請求項9に記載の情報処理装置。
  12.  前記出力制御部は、前記物体情報に基づいて、前記水槽の内部に含まれる物体と類似した物体を含む前記背景コンテンツを出力させる、請求項11に記載の情報処理装置。
  13.  前記認識部は、前記水槽の内部の照明情報を認識し、
     前記出力制御部は、前記照明情報に基づいて前記背景コンテンツの出力を制御する、請求項9に記載の情報処理装置。
  14.  前記出力制御部は、前記水槽の内部の撮像に基づいて得られた画像を前記背景コンテンツとして出力させる、請求項9に記載の情報処理装置。
  15.  前記出力制御部は、照明装置による前記光出力を制御する、請求項1に記載の情報処理装置。
  16.  前記出力制御部は、プロジェクタによる前記光出力を制御する、請求項1に記載の情報処理装置。
  17.  前記出力制御部は、前記光出力を制御することで、前記水槽の内部に仮想オブジェクトを表示させる、請求項1に記載の情報処理装置。
  18.  水槽の背景に表示される背景コンテンツの認識を行うことと、
     前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御することと、を含む、情報処理方法。
  19.  コンピュータに、
     水槽の背景に表示される背景コンテンツの認識を行う機能と、
     前記背景コンテンツの認識結果に基づいて前景となる前記水槽の内部への光出力を制御する機能と、を実現させるための、プログラム。
PCT/JP2017/043019 2016-12-01 2017-11-30 情報処理装置、情報処理方法、及びプログラム WO2018101394A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/349,144 US11272600B2 (en) 2016-12-01 2017-11-30 Information processing apparatus and information processing method
JP2018554236A JPWO2018101394A1 (ja) 2016-12-01 2017-11-30 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662428766P 2016-12-01 2016-12-01
US62/428,766 2016-12-01

Publications (1)

Publication Number Publication Date
WO2018101394A1 true WO2018101394A1 (ja) 2018-06-07

Family

ID=62242449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/043019 WO2018101394A1 (ja) 2016-12-01 2017-11-30 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11272600B2 (ja)
JP (1) JPWO2018101394A1 (ja)
WO (1) WO2018101394A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
WO2019113570A1 (en) 2017-12-10 2019-06-13 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
WO2019178567A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. POSITIONING A RADAR HEAD
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020028834A1 (en) 2018-08-02 2020-02-06 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
CN114174895A (zh) * 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
US20230091386A1 (en) * 2021-09-17 2023-03-23 Multics Co., Ltd. Augmented reality hologram virtual aquarium system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4977469A (ja) * 1972-11-30 1974-07-25
JP2000173783A (ja) * 1998-04-13 2000-06-23 Matsushita Electric Ind Co Ltd 照明制御方法及び照明装置
JP2008268694A (ja) * 2007-04-24 2008-11-06 Koichi Nakayama 3次元画像表示装置
WO2009028168A1 (ja) * 2007-08-31 2009-03-05 Panasonic Corporation 映像連動型照明制御システムおよび映像連動型照明制御方法
JP2009064594A (ja) * 2007-09-04 2009-03-26 Sharp Corp 照明装置、それを備えてなる画像表示装置及び照明方法
JP2015133220A (ja) * 2014-01-10 2015-07-23 株式会社東芝 制御装置及び照明システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08298005A (ja) 1995-04-27 1996-11-12 Mitsubishi Denki Bill Techno Service Kk 水槽内照明装置
US7740371B1 (en) * 1998-03-19 2010-06-22 Charles A. Lemaire Method and apparatus for pulsed L.E.D. illumination for a camera
US6611297B1 (en) 1998-04-13 2003-08-26 Matsushita Electric Industrial Co., Ltd. Illumination control method and illumination device
JP2005229835A (ja) 2004-02-17 2005-09-02 Sanyo Electric Co Ltd 水槽監視システム
GB2507969B (en) * 2012-11-14 2016-07-06 Jekk Ltd Aquarium lighting system
MA43073A (fr) * 2015-07-20 2018-05-30 Spectrum Brands Inc Connectivité et commande d'habitat

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4977469A (ja) * 1972-11-30 1974-07-25
JP2000173783A (ja) * 1998-04-13 2000-06-23 Matsushita Electric Ind Co Ltd 照明制御方法及び照明装置
JP2008268694A (ja) * 2007-04-24 2008-11-06 Koichi Nakayama 3次元画像表示装置
WO2009028168A1 (ja) * 2007-08-31 2009-03-05 Panasonic Corporation 映像連動型照明制御システムおよび映像連動型照明制御方法
JP2009064594A (ja) * 2007-09-04 2009-03-26 Sharp Corp 照明装置、それを備えてなる画像表示装置及び照明方法
JP2015133220A (ja) * 2014-01-10 2015-07-23 株式会社東芝 制御装置及び照明システム

Also Published As

Publication number Publication date
JPWO2018101394A1 (ja) 2019-10-24
US11272600B2 (en) 2022-03-08
US20190287270A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2018101394A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112040092B (zh) 一种实时虚拟场景led拍摄系统及方法
JP7257960B2 (ja) 複合現実ビューアシステムおよび方法
CN106527857A (zh) 一种基于虚拟现实的全景视频交互方法
CN103141078A (zh) 图像显示装置及图像显示方法
CN110058696A (zh) 一种虚拟实景实现方法及其使用方法和相关方法装置
US11900521B2 (en) Virtual window apparatus and system
Hall Understanding cinematography
CN101540059B (zh) 适应球幕制作的三维全景自然光模拟方法
Kuchelmeister et al. Affect and place representation in immersive media: The Parragirls Past, Present project
Brindle The digital filmmaking handbook
Reinhuber et al. The Scale of Immersion: Different audio-visual experiences exemplified by the 360 video Secret Detours
CN110674422A (zh) 一种根据真实场景信息实现虚拟场景显示的方法及系统
Lynch A Metaverse Art Rresidency:‘Garrett Lynch Yoshikaze “Up-in-the-air” Second Life Rresidency’
US20200371420A1 (en) Entertainment presentation systems and method
Barrass An Immersive Interactive Experience of Contemporary Aboriginal Dance at the National Museum of Australia.
Geurds Prehistoric stone sculptures at the Gregorio Aguilar Barea Museum, Nicaragua: photogrammetry practices and Digital Immersive Virtual Environment applications for archaeology
Qiu Expression of Garden Artistic Conception by Photography
Jiajun et al. Mixed Reality as a Technology for Immersive Stage Space Construction
Sama Transformation In Virtual Dance: The Existence Of Dance In The Dance Art Study Program
Heinrich et al. An augmented reality weather system
Hasegawa Selections for the Tenth New York Digital Salon.
Shamsuddin et al. An overview of augmented reality of underwater habitat
TW201742036A (zh) 互動式教學系統以及方法
Sunar et al. Real-time of daylight sky colour rendering and simulation for virtual environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17875239

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018554236

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17875239

Country of ref document: EP

Kind code of ref document: A1