WO2022014170A1 - 情報処理装置、情報処理方法、および情報処理システム - Google Patents

情報処理装置、情報処理方法、および情報処理システム Download PDF

Info

Publication number
WO2022014170A1
WO2022014170A1 PCT/JP2021/019897 JP2021019897W WO2022014170A1 WO 2022014170 A1 WO2022014170 A1 WO 2022014170A1 JP 2021019897 W JP2021019897 W JP 2021019897W WO 2022014170 A1 WO2022014170 A1 WO 2022014170A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
virtual space
control unit
user
image
Prior art date
Application number
PCT/JP2021/019897
Other languages
English (en)
French (fr)
Inventor
孝悌 清水
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/014,959 priority Critical patent/US20230260235A1/en
Priority to JP2022536161A priority patent/JPWO2022014170A1/ja
Priority to CN202180037618.3A priority patent/CN115668301A/zh
Publication of WO2022014170A1 publication Critical patent/WO2022014170A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Definitions

  • This disclosure relates to an information processing device, an information processing method, and an information processing system.
  • the user can view the inside of the virtual space where the 3D model is arranged from any viewpoint.
  • a VR world can be provided mainly by using a non-transparent HMD (Head Mounted Display) that covers the user's field of view with a display unit.
  • HMD Head Mounted Display
  • One of the events to enjoy the experience in the virtual space is taking a picture in the virtual space (saving the image displayed as the virtual space).
  • Current games and video distribution content have a screenshot function that captures a still image of the video drawn on the entire display device.
  • Patent Document 1 when a user operates a camera object (virtual object) arranged in a virtual space to shoot a panoramic image in the virtual space (a panoramic image developed in), the photographic image generated by the shooting becomes a monitor object.
  • the technology to be displayed is disclosed.
  • the photo object is arranged in the virtual space according to the slide operation to the monitor object by the user.
  • Patent Document 2 discloses a technique for outputting a photographic image taken by operating an avatar (a character object that is a user's alter ego) in a virtual space from a printer in the real world.
  • Patent Document 1 when photographic images captured in the virtual space are arranged in the virtual space, the above-mentioned Patent Document 1 requires two operations such as a shooting operation and a slide operation, which is complicated.
  • an imaging trigger for capturing a subject in a virtual space when an imaging trigger for capturing a subject in a virtual space is detected, a control for generating an captured image of the subject and arranging the generated captured image as a virtual object in the virtual space is performed.
  • a control for generating an captured image of the subject and arranging the generated captured image as a virtual object in the virtual space is performed.
  • the processor when the processor detects an image pickup trigger that captures a subject in a virtual space, a control that generates an image captured by capturing the subject and arranges the generated captured image as a virtual object in the virtual space.
  • Propose information processing methods including doing.
  • an image captured by capturing the subject is generated.
  • an information processing system including an information processing device having a control unit that controls the placement of the generated captured image as a virtual object in the virtual space.
  • FIG. 1 It is a figure which shows the structural example of the information processing system by one Embodiment of this disclosure. It is a figure which shows an example of the virtual space image from the user's viewpoint by this embodiment. It is a figure explaining the arrangement in the virtual space of the captured image by this embodiment. It is a block diagram which shows an example of the structure of the display device by this embodiment. It is a block diagram which shows an example of the structure of the controller by this embodiment. It is a block diagram which shows an example of the structure of the information processing apparatus by this Embodiment. It is a flowchart which shows an example of the flow of the imaging process by this embodiment. It is a figure explaining the image acquisition according to the shooting operation by this embodiment.
  • FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present disclosure.
  • the information processing system according to the present embodiment includes a display device 10, a controller 20, and an information processing device 30.
  • a more entertaining shooting experience is provided in a virtual space (VR: Virtual Reality).
  • VR Virtual Reality
  • the virtual space is presented using, for example, a non-transparent HMD (Head Mounted Display) that covers the user's field of view.
  • HMD Head Mounted Display
  • the display device 10 is realized by the HMD as an example.
  • the HMD that realizes the display device 10 is mounted on the user's head, has an image display unit for each of the left and right eyes, and is configured to be able to control the user's vision and hearing by using headphones together. good. By configuring it to block the outside world, it is possible to increase the sense of virtual reality (feeling of immersion in the virtual space) during viewing.
  • the HMD can also project different images to the left and right eyes, and can present a 3D image by displaying an image having parallax with respect to the left and right eyes.
  • a virtual object which is a generated three-dimensional image (so-called 3D model), a stereoscopic image generated based on information obtained by imaging the real space, and the like are arranged (displayed).
  • the image in the real space may be imaged by an omnidirectional camera. Further, the image in the real space may be performed by a plurality of cameras.
  • Such virtual space video may be spherical content or free-viewpoint content.
  • the free viewpoint content is to generate an image when the virtual camera is placed at an arbitrary position and enable the image to be viewed from any viewpoint.
  • the term "virtual space” (or "VR") can be perceived by a real user through one or more display devices and / or one or more user interfaces. Refers to a representation of a real or fictitious environment with rules of interaction simulated by one or more processors that can be interacted with through.
  • the term "user interface” refers to the actual device on which the user can send inputs or receive outputs to and from the virtual world.
  • the user may be represented by an avatar, or the world of the virtual space may be displayed from the viewpoint of the avatar without displaying the avatar on the display.
  • the user's (or avatar's) viewpoint in the virtual space (also referred to as the "user's viewpoint in the virtual space” in the present specification) can be regarded as the field of view of the virtual camera.
  • the "virtual camera” refers to a viewpoint in a virtual space, and is used in a calculation for drawing a three-dimensional virtual space as a two-dimensional image on a display (display device).
  • the VR content according to the present embodiment may be, for example, live distribution (real-time distribution) of music concerts, stages, various events, lectures, classes, programs, etc., or records past distributions. It may be present, or it may be recorded and generated for distribution. Further, the VR content may be a game, a movie, a drama, an animation, or the like. The contents of the VR content are not particularly limited.
  • the information processing system includes a controller 20 for transmitting the user's intention to the system.
  • a controller 20 for transmitting the user's intention to the system.
  • the controller 20 may be held by the user's hand, or may be attached to a part of the body such as an elbow, an arm, a knee, an ankle, or a thigh. The user can operate the shooting in the virtual space by the controller 20.
  • the information (VR content) of the virtual space provided by the display device 10 can be acquired from the information processing device 30.
  • the information processing device 30 may be a server provided on the network, or may be realized by a dedicated terminal, a smartphone, a tablet terminal, a PC, or the like arranged in the same space as the user. Further, the information processing device 30 may be realized by a plurality of devices. For example, the information processing apparatus 30 may be realized by a server provided on the network and a dedicated terminal arranged in the same space as the user.
  • the information processing device 30 has a function of storing VR contents and providing the display device 10 with a virtual space constructed based on the VR contents. Specifically, the information processing device 30 generates a free viewpoint image from the VR content according to the movement of the user, the operation of the controller, and the like, and outputs the free viewpoint image to the display device 10.
  • the user's movement is a change in the user's position or posture (including the direction of the head).
  • the display device 10 detects the position and posture of the user and outputs the information processing device 30 to the information processing device 30.
  • the information processing device 30 recognizes the user viewpoint position (three-dimensional position) in the real world, and calculates the user viewpoint position in the virtual space based on the recognized user viewpoint position.
  • the display device 10 may perform a process of generating a free viewpoint image from the VR content according to a user's movement, a controller operation, or the like.
  • the photos taken in the virtual space can be viewed at hand in the virtual space, the photos taken can be enjoyed while maintaining the immersive feeling in the virtual space.
  • the photos taken can be enjoyed while maintaining the immersive feeling in the virtual space.
  • the troublesome operation in shooting and browsing is reduced as much as possible. Is desirable.
  • the troublesome operation is reduced by performing from the imaging to the arrangement of the captured image according to the user operation of shooting the subject in the virtual space, and the captured image is arranged in the virtual space as a virtual object. By doing so, it is possible to further enhance the entertainment of the shooting experience in the virtual space.
  • the user uses the controller 20 to take a picture of the subject 401 reflected in the image 400.
  • the user can release the so-called shutter by performing a shooting operation such as pressing a predetermined button on the controller 20.
  • the "subject in the virtual space” is an image displayed on the display unit 140 as information on the virtual world.
  • the "subject in virtual space” may be, for example, a person or an object included in a stereoscopic image generated based on a live-action image, or may be a 3D model (virtual object) generated by CG or the like. .
  • the "shooting operation” is an example of an imaging trigger that images a subject in a virtual space.
  • the information processing apparatus 30 When a shooting operation such as pressing a predetermined button is performed by the controller 20, the information processing apparatus 30 considers that the shutter has been released and has a predetermined angle of view of 600 (frame) based on the user's viewpoint in the virtual space. Get (generate) an image of size). The generation of such an image corresponds to so-called "shooting".
  • the image pickup processing unit 302 may display the display of the angle of view 600 in the virtual space. This allows the user to intuitively grasp the angle of view (shooting range) in shooting.
  • the image pickup processing unit 302 causes the angle of view 600 (frame) to appear by a half-press operation of a predetermined button of the controller 20 by the user, and executes shooting (by a full-press operation) when the button is pressed as it is. You may. Further, the information processing apparatus 30 may be able to operate zoom-in and zoom-out in shooting.
  • the information processing device 30 renders (generates) a 2D texture (two-dimensional image) having an angle of view of 600, and draws the 2D texture on a photographic object (a virtual object used as a photographic image).
  • the photographic object on which the 2D texture is drawn corresponds to a "captured image" (so-called photograph obtained by a shooting operation) in the virtual space.
  • the information processing apparatus 30 arranges the captured image in the virtual space.
  • the location may be a position that does not obstruct the user's field of view (at least a position that does not cover the stage), such as the side of the user.
  • the captured image image with an angle of view 600
  • the captured image may be arranged on the right side (out of view) of the user.
  • the user's viewpoint in the virtual space changes, and as shown in FIG. 3, the image 410 of the virtual space in the right direction is displayed on the display unit 140. ..
  • FIG. 4 is a block diagram showing an example of the configuration of the display device 10 according to the present embodiment.
  • the display device 10 includes a control unit 100, a communication unit 110, an operation input unit 120, a sensor unit 130, a display unit 140, an audio output unit 150, and a storage unit 160.
  • the control unit 100 functions as an arithmetic processing unit and a control device, and controls the overall operation in the display device 10 according to various programs.
  • the control unit 100 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 100 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 100 controls the display unit 140 and the audio output unit 150 based on the information received from the information processing device 30 via the communication unit 110, and outputs the information of the virtual space to the user's sight and hearing. Perform the control to present. Further, the control unit 100 transmits the change of the user's position, posture, etc. based on the user operation information input from the operation input unit 120 and the data sensed by the sensor unit 130 from the communication unit 110 to the information processing device 30. Controls transmission. Further, the control unit 100 also controls to transmit the user operation information received from the controller 20 to the information processing apparatus 30. Further, the control unit 100 controls the display unit 140 and the voice output unit 150 according to the user operation information and changes in the position, posture, and the like, and changes the information in the virtual space presented to the user's sight and hearing. You may.
  • the control unit 100 follows the movement of the user's head (head tracking), follows the movement of the line of sight (eye tracking), and follows the position and posture (position tracking) based on various sensing data. do. More specifically, for example, in head tracking, the posture information of the head is calculated based on the detection result of 9 axes detected by the sensor unit 130 provided in the display device 10 mounted on the user's head. Can be done by.
  • the eye tracking is an image of the user's eye detected by the sensor unit 130 provided in the display device 10 mounted on the user's head (for example, an infrared image obtained by emitting infrared rays to the eyes and capturing the reflection thereof). This can be done by calculating the user's line of sight (line of sight direction) based on.
  • an outside-in method that uses an external sensor and an inside-out method that uses a sensor mounted on the object to be measured (display device 10 (HMD)
  • HMD display device 10
  • the communication unit 110 communicates with the information processing device 30 and the controller 20 by wire or wirelessly to transmit and receive data.
  • the communication unit 110 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), infrared communication, or a mobile communication network (LTE (Long Term Evolution)), 3G (third generation). (Mobile communication method), 4G (4th generation mobile communication method), 5G (5th generation mobile communication method)) and the like can be used for communication.
  • the operation input unit 120 receives an operation instruction by the user and outputs the operation content to the control unit 100.
  • the operation input unit 120 may be, for example, a touch sensor, a pressure sensor, or a proximity sensor.
  • the operation input unit 120 may have a physical configuration such as a button, a switch, and a lever.
  • the sensor unit 130 has a function of sensing the real space such as the situation of the user or the surroundings.
  • the sensor unit 130 includes a position information acquisition unit, a camera (inward / outward camera), a microphone (microphone), an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, and a biological sensor (pulse, heartbeat, sweating, blood pressure). , Body temperature, respiration, myoelectric value, detection of brain waves, etc.).
  • the sensor unit 130 has a sensor capable of detecting a total of 9 axes of a 3-axis gyro sensor, a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor. You may. Further, the sensor unit 130 is an inward-looking camera such as an infrared sensor (infrared light emitting unit and an infrared camera) provided around the display unit 140 located in front of the user's eyes, as a line-of-sight detection sensor for detecting the user's line of sight. , A myoelectric sensor that detects the movement of muscles around the user's eye, a brain wave sensor, or the like may be provided.
  • an infrared sensor infrared light emitting unit and an infrared camera
  • a myoelectric sensor that detects the movement of muscles around the user's eye, a brain wave sensor, or the like may be provided.
  • Display unit 140 For example, when the display device 10 is configured as an HMD, the display unit 140 includes left and right screens fixed to the left and right eyes of the user, and displays an image for the left eye and an image for the right eye.
  • the screen of the display unit 140 is composed of, for example, a display panel such as a liquid crystal display (LCD), an organic EL ((Electro Luminescence) display), or a laser scanning display such as a direct drawing display of the retina.
  • the display unit 140 may include an imaging optical system that magnifies and projects the display screen and forms an enlarged imaginary image having a predetermined angle of view on the pupil of the user.
  • the audio output unit 150 is configured as headphones worn on the user's head and reproduces an audio signal.
  • the audio output unit 150 is not limited to the headphone type, and may be configured as an earphone or a bone conduction speaker.
  • the storage unit 160 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 100, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the configuration of the display device 10 is not limited to the example shown in FIG.
  • the display device 10 may be realized by a plurality of devices.
  • the configuration includes a display device (corresponding to at least the display unit 140) realized by an HMD or the like and an information processing terminal (corresponding to at least the control unit 100) realized by a smartphone, a tablet terminal, a PC or the like. There may be. Further, the tracking process by the control unit 100 described above may be performed by an external device.
  • each function of the control unit 100 may be realized by a server provided on the network (for example, an information processing device 30), a dedicated terminal arranged in the same space as the user, a smartphone, a tablet terminal, or the like. Alternatively, it may be realized by a PC or the like.
  • the display device 10 may be a non-wearable device such as a smartphone or a tablet terminal.
  • FIG. 5 is a block diagram showing an example of the configuration of the controller 20 according to the present embodiment. As shown in FIG. 5, the controller 20 has a control unit 200, a communication unit 210, an operation input unit 220, a sensor unit 230, and a storage unit 240.
  • the control unit 200 functions as an arithmetic processing unit and a control device, and controls the overall operation in the controller 20 according to various programs.
  • the control unit 200 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 200 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 200 is a control that transmits the change of the user's movement based on the user operation information input from the operation input unit 220 and the data sensed by the sensor unit 230 from the communication unit 210 to the controller 20. I do.
  • the control unit 200 detects that the button provided on the controller 20 is pressed (an example of a shooting operation), and outputs the output to the display device 10.
  • the communication unit 210 communicates with the controller 20 by wire or wirelessly to transmit / receive data.
  • the communication unit 210 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), infrared communication, or a mobile communication network (LTE (Long Term Evolution)), 3G (third generation). (Mobile communication method), 4G (4th generation mobile communication method), 5G (5th generation mobile communication method)) and the like can be used for communication.
  • the operation input unit 220 receives an operation instruction by the user and outputs the operation content to the control unit 200.
  • the operation input unit 220 may be, for example, a touch sensor, a pressure sensor, or a proximity sensor.
  • the operation input unit 220 may have a physical configuration such as a button, a switch, and a lever.
  • the sensor unit 230 has a function of sensing the real space such as the situation of the user or the surroundings.
  • the sensor unit 230 may be a sensor capable of detecting a total of 9 axes of a 3-axis gyro sensor, a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor.
  • the sensor unit 230 may further include a camera, a microphone, a biological sensor (detection of pulse, sweating, blood pressure, body temperature, etc.) and the like.
  • the storage unit 240 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 200, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the configuration of the controller 20 has been specifically described above, the configuration of the controller 20 according to the present disclosure is not limited to the example shown in FIG.
  • the controller 20 may further have a display unit, a vibration unit, a light emitting unit, and the like.
  • the controller 20 can provide feedback to the user from the display unit, the vibration unit, the light emitting unit, and the like according to the control signal received from the display device 10.
  • the controller 20 may be a controller dedicated to the operation of the VR content, or may be a general-purpose device such as a smartphone, a mobile phone terminal, or a wearable device such as a smart watch.
  • the system configuration includes the controller 20 as an example in the present embodiment, the present disclosure is not limited to this.
  • the user can also convey the user's intention to the system by, for example, a gesture by a hand or the whole body, a voice, or the like without using the controller 20.
  • Gesture input and voice input may be detected by an outward camera or a microphone provided in the display device 10 (HMD). Further, the gesture input may be detected by a camera (not shown) provided around the user and photographing the whole body of the user, and may be transmitted to the display device 10 or the information processing device 30.
  • the information processing device 30 may be a server provided on the network, a dedicated terminal arranged in the same space as the user, a smartphone, a tablet terminal, a PC, or the like.
  • FIG. 6 is a block diagram showing an example of the configuration of the information processing apparatus 30 according to the present embodiment.
  • the information processing apparatus 30 has a control unit 300, a communication unit 310, and a storage unit 320.
  • the control unit 300 functions as an arithmetic processing unit and a control device, and controls the overall operation in the information processing device 30 according to various programs.
  • the control unit 300 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 300 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 300 also functions as a content viewing control unit 301, an image pickup processing unit 302, an arrangement control unit 303, a tagging unit 304, and a shared control unit 305.
  • the content viewing control unit 301 has a function of controlling the viewing of VR content.
  • the content viewing control unit 301 is a user viewpoint (three-dimensional virtual space) in a virtual space (three-dimensional virtual space) constructed (defined) by the VR content based on the information of the VR content stored in the storage unit 320.
  • a virtual space image (free viewpoint image) corresponding to (three-dimensional position coordinates) is generated.
  • the content viewing control unit 301 can recognize the user's viewpoint in the virtual space from, for example, the position and posture (including the direction of the head) of the user calculated based on the sensing data output from the display device 10. Further, the content viewing control unit 301 transmits the generated virtual space image from the communication unit 310 to the display device 10 and displays it on the display unit 140. Further, the content viewing control unit 301 generates audio information in the virtual space corresponding to the user's viewpoint based on the information of the VR content, and transmits it to the display device 10.
  • the content viewing control unit 301 can move the user back and forth and left and right in the real world (or input an operation instructing the controller 20 to move back and forth and left and right) and the viewpoint.
  • the user can move back and forth and left and right or change the viewpoint with the same amount of movement (or the corresponding amount of movement at a predetermined ratio) in the virtual space. This makes it possible to enhance the immersive feeling in the virtual space and provide a more realistic VR experience.
  • the image pickup processing unit 302 performs a process of capturing an image of a subject in a virtual space. Specifically, the image pickup processing unit 302 (in the user's field of view) based on the user's viewpoint in the virtual space when a shooting operation (for example, pressing a predetermined button on the controller 20) is performed by the user. ) Acquire (generate) an image with a predetermined angle of view (frame size specified vertically and horizontally).
  • the image to be acquired may be a two-dimensional image or a three-dimensional image.
  • the image pickup processing unit 302 draws an acquired image (for example, a 2D texture) with an angle of view 600 on a photographic object, and generates an "captured image" (a virtual object that can be handled in the virtual space) in the virtual space. do. Further, the image pickup processing unit 302 may perform filtering processing as appropriate at the time of image pickup, such as excluding additional virtual objects that overlap with the subject.
  • the arrangement control unit 303 controls the arrangement of the captured image generated by the image pickup processing unit 302 in the virtual space.
  • the placement may be performed according to a preset placement rule.
  • the arrangement control unit 303 arranges the virtual space at a place preset with respect to the position of the user who views the virtual space.
  • the arrangement control unit 303 may be arranged outside the user's field of view.
  • the arrangement control unit 303 avoids the main viewing target (which can be set in advance) of the content being viewed, such as the stage of the virtual space, the distributor (performer, etc.), the traveling direction, etc., around the user. It may be placed in a different place.
  • the arrangement control unit 303 rearranges the captured image arranged in the virtual space at an arbitrary position (manual pasting position) designated by the user according to the user operation. Further, the arrangement control unit 303 can automatically arrange the manually arranged captured images in a predetermined space in the virtual space.
  • the tagging unit 304 performs a process of adding incidental information (referred to as "tag" in the present specification) regarding the captured image to the captured image generated by the imaging processing unit 302.
  • the tagging unit 304 may include information on the subject reflected in the captured image, shooting date and time, information on the VR content that was shot, and information on the time when the shooting was performed on the playback time axis of the VR content (playback start position).
  • Etc. are acquired and attached to the captured image as a tag.
  • Such a tag can be used when searching for captured images, when arranging a large number of captured images in groups, at the start of reproduction, and the like.
  • the sharing control unit 305 controls to share the captured image with the outside such as another person (display device of another user) or another system. Specifically, the sharing control unit 305 prints a copy of the captured image selected by the user on a sharing destination (for example, a friend's display device or a real object such as a T-shirt, a mug, or paper) and delivers it to the user's home. Control the transmission to the system that provides the service, etc.). Further, the shared control unit 305 controls to receive the captured image shared by another person and store it in the storage unit 320, or to arrange the received captured image in the virtual space being viewed by the user. ..
  • a sharing destination for example, a friend's display device or a real object such as a T-shirt, a mug, or paper
  • the shared control unit 305 controls to receive the captured image shared by another person and store it in the storage unit 320, or to arrange the received captured image in the virtual space being viewed by the user. ..
  • control unit 300 can give various notifications and feedbacks to the user by displaying and sounding in the virtual space, vibration of the display device 10 or the controller 20 and the like.
  • the communication unit 310 transmits / receives data to / from the display device 10 by wire or wirelessly.
  • the communication unit 310 includes, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), a mobile communication network (LTE (Long Term Evolution)), and 3G (third generation mobile communication). Method), 4G (4th generation mobile communication method), 5G (5th generation mobile communication method)) and the like to communicate with the display device 10.
  • the storage unit 320 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 300, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage unit 320 stores VR contents. Further, the storage unit 320 may store user information (user's name, ID, address, etc.).
  • the configuration of the information processing apparatus 30 is not limited to the example shown in FIG.
  • the information processing device 30 may be realized by a plurality of devices.
  • the control unit 300 may be provided in an information processing terminal realized by a smartphone, a tablet terminal, a PC, or a dedicated terminal arranged in the same space as the user, and the storage unit 320 may be provided in a server on the network. .. Further, at least a part of the functions of the control unit 300 may be executed by the display device 10.
  • the information processing device 30 may be realized by a display device 10, an information processing terminal (smartphone, tablet terminal, PC, etc.) or a dedicated terminal, and a server.
  • FIG. 7 is a flowchart showing an example of the flow of the imaging process according to the present embodiment.
  • the display device 10 starts viewing the VR content based on the information acquired from the information processing device 30 (step S103).
  • the content viewing control unit 301 of the information processing device 30 controls the viewing of VR content, and the image and sound from the user's viewpoint in the virtual space are generated and transmitted to the display device 10.
  • the image pickup processing unit 302 of the information processing device 30 determines whether or not there is an image pickup operation (operation input intended to perform shooting) based on the user's operation information acquired from the display device 10 or the controller 20. (Step S106).
  • the image pickup processing unit 302 may recognize, for example, that a predetermined button provided on the controller 20 is pressed as an image pickup operation.
  • the central axis S of the virtual camera 60 (that is, the user's viewpoint) is an object in the virtual space (here, the subject).
  • a 2D texture (image) having a frame size specified vertically and horizontally (that is, a size of an angle of view 610) is generated around a target point T orthogonal to 401C) (step S109).
  • the frame size (size of the angle of view 610) of the acquired image may be set in advance, or may be arbitrarily set by the user.
  • the image pickup processing unit 302 acquires an image of a part of the field of view (a part of the display range of the display unit 140) of the user who views the virtual space.
  • the target point T is defined because the three-dimensional position of the subject 401 to be photographed is used in the tagging process described later, but the present embodiment is not limited to this, and the angle of view 610 is defined as the angle of view 610. It is a frame of a designated vertical and horizontal size centered on a point in which the plane orthogonal to the central axis S of the virtual camera 60 is orthogonal to the central axis S.
  • the image pickup processing unit 302 continuously acquires a plurality of images at a fixed frame cycle following the acquisition of the above images, and stores them in the storage unit 320 (step S112). That is, as shown in FIG. 9, images (at the same angle of view) are continuously acquired for n frames at a fixed frame period from the shooting start frame (frame0). Such a plurality of images are acquired for insurance in the event of a shooting failure. In other words, when saving a video as a still image, shooting mistakes (subject's eyes closed, subject's costume turned over, camera shake, etc.) may occur due to a delay in shooting timing, so multiple shots are acquired. By keeping it, you can leave a successful image even if you make a mistake in shooting.
  • the number of images to be continuously acquired can be preset.
  • the image pickup processing unit 302 determines the success or failure of shooting in order from the first acquired image (step S115). For example, the subject's eyes closed, face orientation, facial expression, costume turning, etc. are detected, and it is determined whether or not a preset shooting failure state has occurred.
  • step S118 when the determination of the shooting failure is not made (step S118), it can be said that the image is the image for which the shooting success determination is made.
  • a virtual object that can be handled in the virtual space is generated, and the photographic object is arranged in the virtual space by the arrangement control unit 303 (step S121).
  • the photographic object may be arranged in the virtual space by the image pickup processing unit 302. Further, the arrangement in the virtual space may be arranged in a preset place. The arrangement process will be described below with reference to FIG.
  • steps S106 to S121 described above can be repeated until the viewing of the VR content is completed (step S124).
  • the acquisition of the captured image and the placement in the virtual space are performed in a series according to the shooting operation by the user, the troublesome operation is reduced, and the entertainment property of the shooting experience in the virtual space is improved. Can be enhanced.
  • the above imaging process may be performed only in a predetermined time zone in which imaging is permitted within the reproduction time of the VR content. Further, the image pickup processing unit 302 may enable the image pickup of only a predetermined place or target (only the permitted place or target) in the virtual space.
  • the imaging process according to the present embodiment has been described above.
  • the operation process shown in FIG. 7 is an example, and the present disclosure is not limited to the example shown in FIG.
  • the present disclosure is not limited to the order of the steps shown in FIG.
  • At least one of the steps may be processed in parallel or in reverse order.
  • not all the processes shown in FIG. 7 need to be executed.
  • the images may be continuously acquired and the success or failure of shooting may be determined, and the images may be continuously acquired until the shooting is successful.
  • FIG. 7 need to be performed by a single device.
  • all the processes shown in FIG. 7 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 7 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • Arrangement processing of captured images Next, the arrangement of the captured image (photographic object) shown in step S121 in the virtual space will be described. Arrangement in the virtual space may be performed randomly around the user's viewpoint, or may be performed at a preset location. The preset location is assumed to be a position that does not interfere with the viewing of the VR content, that is, a location that does not overlap with the main viewing target (for example, stage, traveling direction, etc.) in the VR content, such as outside the user's field of view.
  • the main viewing target for example, stage, traveling direction, etc.
  • FIG. 10 is a flowchart showing an example of the flow of the arrangement processing of the captured image according to the present embodiment.
  • FIG. 11 is a diagram illustrating an arrangement position of a captured image according to the present embodiment.
  • the arrangement control unit 303 is determined from the viewing position P (user's viewpoint) in the virtual space to view the VR content (for example, in the stage direction, etc., and also in the VR content).
  • the final placement position Q is set outside the horizontal viewing angle of about 110 ° with respect to the front direction (step S203).
  • the "horizontal viewing angle of about 110 °” is an example of the range of the "field of view” in consideration of the human identification viewing angle, but the range (angle) of the "field of view” of the present embodiment is not limited to this. ..
  • the definition of "field of view” is not limited to the one considering the discriminating viewing angle.
  • the arrangement control unit 303 may set the final arrangement position Q at a distance outside the user's field of view and within the reach of the user.
  • the arrangement control unit 303 draws a movement locus of the captured image up to the final arrangement position Q (step S206).
  • a movement locus to the final placement position of the captured image is drawn will be described, but the present disclosure is not limited to this, and the captured image is placed at the final placement position without drawing the movement locus. You may.
  • FIG. 12 is a diagram illustrating a case where a movement locus to an arrangement position of a captured image according to the present embodiment is drawn.
  • FIG. 12 for example, in the image 430 of the virtual space displayed on the display unit 140 of the display device 10, when the user performs a shooting operation, the area of the angle of view 600 emerges from the image 430 and the user's field of view is displayed.
  • the captured image 510 moves toward the final arrangement position Q set outside (outside the virtual space image 430 displayed on the display unit 140).
  • an animation may be presented in which the captured image 510 gradually becomes smaller and fades out to the right of the image 430. This allows the user to intuitively grasp in which direction the captured image is arranged.
  • the movement locus of the captured image may be given a speed effect such as an easy curve (for example, acceleration or deceleration at the start of movement, during movement, at the time of a curve, immediately before arrival, etc.) or an effect such as a curve design of the locus. ..
  • a speed effect such as an easy curve (for example, acceleration or deceleration at the start of movement, during movement, at the time of a curve, immediately before arrival, etc.) or an effect such as a curve design of the locus. ..
  • the placement control unit 303 fixes the captured image at the final placement position Q and notifies the user of the direction of the placement position by a sound effect (step). S212). For example, when the final placement position Q is on the right side of the user, the sound effect can be heard from the right direction, so that the user intuitively understands that the image taken on the right side is placed although it is not visible in the field of view. Can be done.
  • the arrangement control unit 303 immediately arranges the captured image 510 (photo object) at the final arrangement position Q according to the shooting operation without displaying the animation of the movement process, and also produces a sound effect (shutter sound, etc.).
  • Control may be performed to output sound so that it can be heard from the arrangement direction.
  • the notification by sound is given as an example, but the present disclosure is not limited to this, and even if the captured image is placed out of the field of view by display, vibration, etc., and the placement direction, placement position, etc. are notified. good.
  • the display for example, the display of an arrow indicating the arrangement direction can be mentioned.
  • fixing the captured image may be a fixing of the positional relationship relative to the user position in the virtual space, or may be a fixing of the absolute position in the virtual space. In the case of fixing the relative positional relationship, when the user moves in the virtual space, the captured image arranged next to the user also moves following the movement of the user.
  • the user can also pick up the captured image 510 (see FIG. 3) placed at the final placement position Q in the virtual space and move it to another place, or enlarge or reduce it.
  • the interaction with the captured image 510 can be performed by the operation of the controller 20 or the gesture.
  • the content viewing control unit 301 displays a virtual hand (a virtual object in the shape of a hand) that reflects the user's operation, the shape of the hand, the position of the hand, the movement of the hand, and the like in the virtual space.
  • the captured image 510 may be grasped by a virtual hand.
  • the enlargement / reduction of the captured image 510 may be performed by, for example, pinching out / pinching in to the captured image 510 with a virtual hand, or by grasping both ends of the captured image 510 with a virtual hand to extend or contract the captured image 510. It may be possible to perform this by holding or opening a virtual hand on the captured image 510.
  • the user can also rearrange (manually arrange) each captured image in a desired position to create an original viewing space. The rearrangement of the captured image will be described later.
  • the arrangement control unit 303 may superimpose and display a plurality of captured images obtained by a plurality of shooting operations on the final arrangement position Q. For example, in the example shown in FIG. 3, it may be understood that the most recently captured image 510 is arranged in the foreground. Further, the arrangement control unit 303 displays a certain number of captured images on the back surface of the captured image 510 with a slight shift so that the user can intuitively know that a plurality of captured images exist at the final arrangement position Q. You may do it.
  • the placement process according to this embodiment has been described above.
  • the operation process shown in FIG. 10 is an example, and the present disclosure is not limited to the example shown in FIG.
  • the present disclosure is not limited to the order of the steps shown in FIG. At least one of the steps may be processed in parallel or in reverse order. Further, not all the processes shown in FIG. 10 need to be executed.
  • FIG. 10 not all the processes shown in FIG. 10 need to be performed by a single device.
  • all the processes shown in FIG. 10 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 10 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • FIG. 13 is a flowchart showing an example of the flow of tag processing of the captured image according to the present embodiment.
  • the tagging unit 304 estimates the subject information based on the position information of the subject reflected in the captured image or the face recognition result, and attaches it to the captured image as a tag (accompanying information) (step). S223).
  • the position information of the subject is, for example, three-dimensional position coordinates in a virtual space.
  • the tagging unit 304 acquires the standing position Pc (Xc, Yc, Zc) of the subject 401C close to the target point T as the position information of the subject when the image is taken at the angle of view 610 shown in FIG. ..
  • the standing position of the performer may be determined in advance.
  • the tagging unit 304 obtains information (subject information) such as who is the subject reflected in the captured image and the name of the subject based on the information regarding the standing position generated in advance and the imaging time and the standing position of the subject. It becomes possible to acquire. Further, the tagging unit 304 may analyze the face image of the subject and estimate who the subject is based on the face recognition. Information for face recognition of performers and the like in VR contents can be prepared in advance.
  • the tagging unit 304 basically tags the information of the subject reflected in the center of the captured image, but the present disclosure is not limited to this.
  • the tagging unit 304 may tag the information of all the subjects reflected in the captured image.
  • the tagging unit 304 may tag the information of the subject that is in focus (focus) among the subjects reflected in the captured image.
  • the tagging unit 304 may tag the information of the subject that is the largest of the subjects reflected in the captured image.
  • the tagging unit 304 attaches the captured VR content information and the shooting time information (reproduction start position information) to the captured image as tags (step S226).
  • the shooting time information is information on the time when the shooting was performed on the playback time axis of the VR content in which the image was taken, and is treated as a playback start position.
  • the arrangement control unit 303 when the arrangement control unit 303 performs a grouping arrangement operation of captured images by the user (step S229 / Yes), for example, based on the subject information given to each captured image, the arrangement control unit 303 is used for each subject (for example, subject 401A). (For each subject 401C and subject 401D), control is performed to arrange the captured image (step S232).
  • the arrangement control unit 303 may arrange a plurality of captured images vertically or horizontally for each group, or may arrange them in an overlapping manner.
  • the location of the grouping arrangement in the virtual space is not particularly limited, and examples thereof include locations that do not overlap with the main viewing target (stage, traveling direction, etc.) of the VR content. More specifically, it may be a place slightly away from the user, the back of the user, the user's hand, the upper part of the user (ceiling, sky, etc.), and the like.
  • the arrangement control unit 303 may arrange the captured images into groups by other elements based on the tags attached to the captured images.
  • the arrangement control unit 303 may be arranged in groups for each scene (stage change), each type of subject, each type of costume, each group of standing positions, and the like. That is, each captured image may be tagged with a scene at the time of imaging, the type of subject, a standing position, and the like.
  • the content viewing control unit 301 has a playback operation of the VR content that is the acquisition source of the captured image for the captured image (step S235 / Yes)
  • the tag (playback start) of the selected captured image is performed.
  • control is performed to start playback of the VR content (step S238).
  • the user can play the VR content in the virtual space from the time when the shooting is performed.
  • the tag processing according to this embodiment has been described above.
  • the operation process shown in FIG. 13 is an example, and the present disclosure is not limited to the example shown in FIG.
  • the present disclosure is not limited to the order of the steps shown in FIG. At least one of the steps may be processed in parallel or in reverse order. Further, not all the processes shown in FIG. 13 need to be executed.
  • FIG. 13 need to be performed by a single device.
  • all the processes shown in FIG. 13 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 13 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • the image pickup processing unit 302 may perform filtering processing to remove an obstructive effect, a subject other than the performer (for example, an avatar of another user), or the like when generating the captured image. ..
  • FIG. 14 is a diagram illustrating a filtering process of a captured image according to the present embodiment.
  • the captured image 520 at least a part of the target subject 401C (close to the target point T) and the other subject 401B is an effect image 403 (403A, 403B) or It may be hidden by another user's avatar 405 (405A to 405C). Therefore, in the present embodiment, it is possible to shoot only the subject (performer, game character, etc.) that is the main viewing target in the VR content.
  • FIG. 15 is a flowchart showing an example of the flow of the filtering process at the time of imaging according to the present embodiment.
  • the image pickup processing unit 302 excludes CG objects other than the performer (effects, avatars of other users, etc.) (images).
  • Generate a 2D texture (acquire a captured image) (in the range of an angle of 600) (step S245).
  • each virtual object in the virtual space is given information such as whether it is a performer, an effect, or an avatar of another user.
  • the image pickup processing unit 302 recognizes each virtual object reflected in the angle of view 600, removes virtual objects other than the performer, and then acquires an image.
  • the image pickup processing unit 302 may remove the additional virtual object for the effect only when it is located in front of (front) the subject (performer or the like), or the additional virtual object may be removed from the subject (the subject (performer or the like)). It may be removed only when it overlaps with the performer, etc.).
  • the filtering process according to the present embodiment has been described above.
  • the operation process shown in FIG. 15 is an example, and the present disclosure is not limited to the example shown in FIG.
  • FIG. 15 need to be performed by a single device.
  • all the processes shown in FIG. 15 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 15 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • the user can rearrange each captured image at a desired position (manual rearrangement) to create an original viewing space.
  • FIG. 16 shows an example of a case where a user manually rearranges a plurality of captured images.
  • the user can arrange the captured images 510a to 510 g in a place that is easy for him / her to see (for example, in the direction of the front (stage)) in a layout (favorable position, posture) as he / she likes. That is, the arrangement control unit 303 of the information processing apparatus 30 controls to arrange the captured image selected by the user at an arbitrary position designated by the user in an arbitrary posture based on the user operation detected by the controller 20. conduct.
  • the user can experience the creation of his own space surrounded by his favorite photos while watching the stage. Such an experience is different for each viewer and each distribution, and can be a new VR experience value that activates the motivation for repetitive experience of VR contents.
  • the competition between fans can be achieved. It will also revitalize motivation and can be expected to contribute to the expansion of business scale.
  • the manually arranged captured image may be fixed as an absolute arrangement position in the virtual space, or may be fixed as a relative arrangement position with respect to the user position.
  • relative arrangement when the user moves in the virtual space, the captured images 510a to 510 g arranged around the user also move following the movement of the user.
  • the image is manually arranged when the number of captured images manually rearranged by the user exceeds the upper limit or when the occupied area of the captured image exceeds a predetermined value. It is also possible to automatically arrange (automatically rearrange) a plurality of captured images at a place slightly away from the user.
  • the aligned arrangement may be an arrangement that is aligned vertically or horizontally in the virtual space, or may be an arrangement that is aligned in the depth direction.
  • a group of such alignments is hereinafter referred to as an "alignment shelf" in the present specification.
  • the automatic rearrangement may be performed automatically when a predetermined condition is satisfied, such as when the number of manually rearranged captured images exceeds a predetermined number, or the user automatically rearranges the images (alignment arrangement). May be instructed to carry out.
  • FIG. 17 is a diagram illustrating an example of automatic rearrangement (alignment arrangement) according to the present embodiment.
  • the arrangement control unit 303 vertically arranges (arranges) a plurality of captured images manually arranged around the user at a position at a certain distance on the left side of the user with respect to the stage direction, for example.
  • the alignment shelf 710a is formed by vertically aligning the captured images 510a to 510f manually arranged around the user.
  • a plurality of alignment shelves 710 may be created.
  • the arrangement control unit 303 may newly generate an arrangement shelf 710 each time the automatic rearrangement (alignment arrangement) is performed.
  • n alignment shelves 710 are created.
  • the alignment shelf 710 may be prepared for each sorting group.
  • the sorting group is, for example, a group based on the above-mentioned tag.
  • the arrangement control unit 303 may store the captured image in each alignment shelf 710 (alignment shelf of subject A, alignment shelf of subject B, etc.) for each subject reflected in the captured image, for example.
  • the area (size) of the alignment shelf 710 may be set in advance, and the arrangement control unit 303 reduces and aligns (stores) each captured image when the captured image does not fit in the alignment shelf. You may do it. Alternatively, the arrangement control unit 303 may newly generate the next alignment shelf and arrange (store) the captured images when the captured images cannot fit in the alignment shelf.
  • the location of the alignment shelves 710 is not particularly limited, but it is preferable that the alignment shelves are arranged at a distance that does not cover the stage and is slightly away from the user but can ensure the visibility of each captured image.
  • the user can also take out an arbitrary captured image from the alignment shelf 710 and manually arrange it.
  • the alignment shelf 710 is placed within the reach of the user, the user can use an operation item such as a laser pointer in the virtual space to take out an arbitrary captured image from the alignment shelf 710 or the alignment shelf 710. Can be moved and other operations can be performed.
  • the arrangement control unit 303 may display a locus (movement animation) in which each captured image moves to the aligned shelf.
  • a locus may be given a speed effect such as an easy curve or an effect such as a curve design of the locus.
  • the arrangement control unit 303 can store the position and orientation of each captured image at the time of manual arrangement, and can return the plurality of captured images arranged on the alignment shelf to the manual arrangement state again.
  • FIG. 18 is a flowchart showing an example of the flow of the rearrangement processing of the captured image according to the present embodiment.
  • the placement control unit 303 moves the selected captured image to the manual pasting position specified by the user (step S303 / Yes).
  • Step S306 The user, for example, uses the controller 20 to perform a (selection) operation of grasping (selecting) the captured image 510 (see FIG. 3) arranged at a predetermined position immediately after shooting, and holding the captured image 510 in the virtual space as desired. Move the hand holding the controller 20 in the real world to move it to the position.
  • the arrangement control unit 303 controls the position and posture of the captured image 510 according to the user operation (button operation, sensing data such as acceleration, etc.) detected by the controller 20.
  • steps S303 to S306 may be repeated until the upper limit of manual placement is exceeded (step S309). That is, the user can perform an operation of sequentially pasting (moving) a plurality of captured images at arbitrary positions.
  • the placement control unit 303 stores the manual placement coordinates of all the manually placed captured images in the storage unit 320 (step S312).
  • An image ID is assigned to each captured image, and the arrangement control unit 303 stores the manual arrangement coordinates in association with the image ID.
  • the upper limit value of the manual arrangement may be the upper limit number of sheets or the upper limit occupancy rate (the ratio of the manually arranged image to the peripheral area of the user, etc.).
  • the manual placement coordinates include not only the three-dimensional position in the virtual space but also the placement posture (tilt, angle) of each captured image.
  • the arrangement control unit 303 may also store the enlarged / reduced state of each captured image.
  • the arrangement control unit 303 can store the state of manual arrangement of a plurality of captured images in association with the image ID.
  • the arrangement control unit 303 may store an image ID group composed of image IDs of each captured image by assigning a storage date and time (date and time of manual arrangement) and a call number.
  • the arrangement control unit 303 determines the automatic alignment arrangement coordinates of each image and executes the automatic alignment (step S315).
  • the automatic alignment arrangement coordinates of each image are information indicating the alignment destination of the images. Specifically, for example, the address of the aligned shelf corresponds.
  • the arrangement control unit 303 assigns the address of the alignment shelf to each captured image. For example, the arrangement control unit 303 allocates in order from the first address of the arrangement shelf A (the top arrangement place in the case of the arrangement shelves arranged vertically), and when all the addresses are filled, the beginning of the next arrangement shelf B. Assign in the same order from the street address.
  • the arrangement control unit 303 assigns an empty address of the corresponding sorting shelf based on the tag of each captured image.
  • the arrangement control unit 303 moves each captured image to the assigned address (execution of automatic alignment). Further, each automatic alignment arrangement coordinate is stored in association with the image ID.
  • the placement control unit 303 manually pastes each captured image from the alignment shelf based on the manual placement coordinates of the target captured image group. Control to move to the position is performed (step S321).
  • the manual placement call can be made by specifying the above call number and the date and time of the manual placement. The user may specify, for example, from the manual placement call number list display or the like.
  • the rearrangement process of the captured image according to the present embodiment has been described above.
  • the operation process shown in FIG. 18 is an example, and the present disclosure is not limited to the example shown in FIG.
  • FIG. 18 not all the processes shown in FIG. 18 need to be performed by a single device.
  • all the processes shown in FIG. 18 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 18 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • the captured image can be shared with the outside.
  • the user can share the captured image (send a copy of the captured image) to another user who is viewing the VR content together by selecting an arbitrary captured image and performing a predetermined sharing operation.
  • the sharing destination can be arbitrarily selected by the user.
  • the sharing destination may be another user who is watching the VR content together, or may be another user who has registered as a friend.
  • VR content is delivered in real time, it is assumed that you will participate and watch it with your friends. In this case, a friend's avatar is placed in the virtual space, and the user can have a conversation (voice or chat), share a captured image, or the like with the friend.
  • the sharing operation is an operation in which 510 g of a captured image to be shared is grasped by a virtual hand 820 and slid, touched, or inserted into a notch provided in a predetermined shared object 810 (virtual object). It may be.
  • the sharing control unit 305 may display a screen for selecting a sharing destination when such an operation is performed and allow the user to select a sharing destination.
  • the sharing control unit 305 may automatically determine a friend who is participating together (another user registered as a friend who is viewing the same VR content at the same time) as a sharing destination.
  • the shared control unit 305 arranges and presents the shared captured image at a predetermined position in the virtual space of the shared destination user.
  • the presentation of the shared captured image may be notified to the sharing destination user by sound or display.
  • the friends who participate together are not limited to friends who are watching the same VR content on the HMD in the same way, but may be friends who are watching the same VR content on a smartphone, tablet terminal, or the like.
  • sharing of the captured image with the outside may be sharing to a system (another server (not shown)) that provides various services using the captured image to the user.
  • a system another server (not shown)
  • the "outside" in sharing the captured image with the outside means the outside of the display device 10, and all devices other than the display device 10 can be targeted. Therefore, in this system, for example, it is possible to share (transfer) the captured image to the user's smartphone, tablet terminal, or the like. It is also possible to acquire images (place them in a virtual space) from the user's smartphone or tablet terminal or the cloud used by the user as sharing from the outside.
  • FIG. 20 is a flowchart showing an example of the flow of the sharing process of the captured image according to the present embodiment.
  • the sharing control unit 305 transmits the captured image selected in the sharing operation by the user to a predetermined sharing destination (step). S406). More specifically, by arranging the captured image to be shared in the virtual space of the sharing destination user by the content viewing control unit 301, the captured image can be substantially transmitted to the display device of the sharing destination user.
  • the shared control unit 305 transmits the captured image to the display device of the shared destination user, and the display device of the shared destination user controls to arrange the captured image in the virtual space.
  • the sharing destination may be a server of a system that provides various services using captured images.
  • the predetermined sharing destination may be a sharing destination arbitrarily selected by the user, or may be a preset sharing destination.
  • a plurality of shared objects 810 (virtual objects) used for the sharing operation may be prepared, and the shared destination previously associated with the used shared object 810 may be set as a predetermined shared destination.
  • the sharing control unit 305 arranges the shared captured image at a predetermined position in the user's virtual space (step S412).
  • the display device 10 may notify the user by sound or display that the captured image is presented.
  • the predetermined arrangement position of the shared captured image may be outside the user's field of view in, for example, a virtual space. That is, for example, the captured image captured by the user may be arranged on the right side outside the field of view of the user, and the shared captured image may be arranged on the left side outside the field of view of the user.
  • the sharing control unit 305 may clearly indicate from whom (where) the captured image is shared by an icon or the like.
  • the sharing process of the captured image according to the present embodiment has been described above.
  • the operation process shown in FIG. 20 is an example, and the present disclosure is not limited to the example shown in FIG.
  • FIG. 20 not all the processes shown in FIG. 20 need to be performed by a single device.
  • all the processes shown in FIG. 20 are performed by the information processing apparatus 30, but the present disclosure is not limited to this.
  • all the processes shown in FIG. 20 may be performed by the display device 10, or may be performed by the display device 10 and the information processing device 30.
  • Imaging is not limited to the acquisition of still images, but may be the acquisition of moving images.
  • the image pickup processing unit 302 can acquire a more realistic photograph such as a photograph that moves only for a moment such as a few seconds.
  • the moving time (number of seconds, etc.) may be preset by the user.
  • the moving photograph (moving image) may be further accompanied by sound.
  • the determination of success or failure of shooting described with reference to FIGS. 7 and 8 may be performed for each frame.
  • the image pickup processing unit 302 may perform a process of cutting or darkening the frame determined to be a failure such as blinding or turning over the costume.
  • the content distributor may be able to set in advance what kind of frame is regarded as a failure determination.
  • the information processing apparatus 30 may set an upper limit on the face size of the subject when photographing the subject. That is, by limiting the zoom-in process, it is possible to prohibit the taking of a photograph that is too close to the subject's face. Such settings may be appropriately set by the distributor of the content.
  • the captured image pasted in the space is the main content of the content such as a distributor of the content in the virtual space (for example, a performer or a game character on the stage). It may be controlled to flutter (move) in conjunction with the movement of the viewing target). Further, the content viewing control unit 301 acquires bone information of the performer or the like, and when the performer collides with the captured image pasted in the space (for example, the performer on the stage reaches out to the user side and approaches). In some cases, the behavior such as vibrating the captured image may be given. In this way, by moving the captured image pasted in the space according to the movement of the performer or the like, it is possible to give the user a sense of reality in the virtual space.
  • a distributor of the content in the virtual space for example, a performer or a game character on the stage. It may be controlled to flutter (move) in conjunction with the movement of the viewing target). Further, the content viewing control unit 301 acquires bone information of the performer or the like,
  • the arrangement control unit 303 may have a function of recognizing the position of the performer or the like in the virtual space and supporting the arrangement so that the captured image does not overlap with the performer or the like.
  • the images to be placed in the virtual space are not only the captured images acquired by shooting in the virtual space, but also various images already stored in the storage unit 320 and other terminals can be called and desired in the virtual space. It may be laid out and arranged at a position.
  • the captured image to be acquired is not limited to a 2D image (2D texture), but may be a 3D image (3D still image or moving image).
  • the content viewing control unit 301 may display the avatar of another user who is simultaneously viewing the same content in the virtual space. Further, the content viewing control unit 301 may present information indicating the position of the avatar of the user's friend (another user registered as a friend) to the user. Further, the information processing apparatus 306 can specify a place in the virtual space where the captured image is taken from the captured image shared by the user, and present the specified shooting location to the user.
  • the present disclosure can also be applied to AR (Augmented Reality) and MR (Mixed Reality).
  • AR Augmented Reality
  • MR Mated Reality
  • the information processing apparatus 30 displays the subject in the virtual space (an image displayed as information in the virtual world fused with the real world such as a virtual object) superimposed on the real world (real space).
  • a part of the range is acquired as an image (referred to as "imaging" in the present specification), and the captured image is arranged as a photographic object in a virtual space superimposed and displayed in the real space.
  • the display device 10 may be a transmissive HMD, a smartphone, a tablet terminal, or the like.
  • the information processing apparatus 30 may use the various functions described above (acquisition of captured images, manual arrangement of captured images, aligned arrangement of captured images, sharing device for captured images, etc.) as chargeable functions.
  • the arrangement control unit 303 may control to automatically arrange the captured images arranged after imaging as shown in FIG. 3, for example, on the alignment shelf.
  • the control of such automatic alignment may be performed by a user operation as a trigger, or may be performed when the number of arranged captured images reaches the upper limit.
  • the controller 20, or the information processing device 30 described above exhibit the functions of the display device 10, the controller 20, or the information processing device 30.
  • Computer programs can also be created. Also provided is a computer-readable storage medium that stores the computer program.
  • the present technology can also have the following configurations.
  • Information processing including a control unit that generates an image captured by capturing the subject when an imaging trigger for capturing the subject in the virtual space is detected and controls the generated image to be arranged in the virtual space as a virtual object.
  • Device (2) The information processing device according to (1), wherein the control unit arranges the captured image in the virtual space according to a preset arrangement rule.
  • the control unit is arranged at a place preset with respect to the position of a user who views the virtual space.
  • the control unit controls to be arranged outside the user's field of view.
  • control unit controls to arrange the virtual space in a place avoiding a position overlapping with a predetermined viewing target.
  • the control unit captures a part of the field of view of a user who views the virtual space.
  • the field of view of the user who views the virtual space is the display range of the display unit on which the virtual space is displayed.
  • the control unit acquires a part of the display range of the display unit as a captured image.
  • the accompanying information includes at least information on the subject reflected in the captured image or information on the time when the imaging was performed on the reproduction time axis of the content provided in the virtual space, according to the above (11).
  • Information processing equipment (13) The information processing device according to any one of (1) to (12) above, wherein the control unit acquires a captured image excluding at least an additional virtual object that overlaps with the subject.
  • the control unit rearranges the arranged captured image at an arbitrary position and posture in the virtual space according to a user operation. Device.
  • control unit moves and aligns a plurality of captured images arranged at predetermined positions to another place in the virtual space.
  • the control unit stores the arrangement state of the plurality of captured images before the alignment, and controls to move the plurality of captured images to the other location and return the aligned plurality of captured images to the state before the alignment.
  • the information processing apparatus according to (15) above.
  • control unit controls to share the captured image arranged in the virtual space to the outside.
  • the information processing device displays a display indicating the range to be imaged on a display unit on which the virtual space is displayed.
  • the processor An information processing method including controlling to generate an image captured by capturing the subject and arranging the generated image as a virtual object in the virtual space when an image pickup trigger for capturing the subject in the virtual space is detected. .. (20) Display device and With the controller When the controller detects an imaging trigger that captures a subject in a virtual space displayed on the display device, an captured image that captures the subject is generated, and the generated captured image is placed in the virtual space as a virtual object.
  • An information processing device that has a control unit that controls An information processing system equipped with.
  • Display device 140 Display unit 20 Controller 30 Information processing device 300 Control unit 301 Content viewing control unit 302 Imaging processing unit 303 Arrangement control unit 304 Tagging unit 305 Shared control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想空間における撮影体験のエンターテインメント性をより高めることが可能な情報処理装置、情報処理方法、および情報処理システムを提供する。 【解決手段】仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を備える、情報処理装置。

Description

情報処理装置、情報処理方法、および情報処理システム
 本開示は、情報処理装置、情報処理方法、および情報処理システムに関する。
 近年普及しているVR(Virtual Reality)アプリケーションでは、3Dモデルが配置された仮想空間内を、ユーザが任意の視点から視聴することができる。このようなVRの世界は、主にユーザの視界を表示部で覆う非透過型のHMD(Head Mounted Display)を用いて提供され得る。仮想空間での体験をより楽しむためのイベントの1つとして、仮想空間内における写真撮影(仮想空間として表示されている画像の保存)が挙げられる。現状のゲームや動画配信コンテンツでは、表示デバイス全体に描画された映像の静止画を取得するスクリーンショット機能がある。
 また、仮想空間を提供する技術に関し、例えば以下のような文献が挙げられる。
 下記特許文献1では、仮想空間に配置されたカメラオブジェクト(仮想物体)をユーザが操作して仮想空間内(に展開されるパノラマ画像)を撮影すると、撮影により生成された写真画像がモニタオブジェクトに表示される技術が開示されている。そして、ユーザによるモニタオブジェクトへのスライド操作に応じて、写真オブジェクトが仮想空間内に配置される。
 また、下記特許文献2では、仮想空間におけるアバター(ユーザの分身となるキャラクタオブジェクト)の操作により撮影された写真画像を現実世界のプリンタから出力する技術が開示されている。
特開2019-021122号公報 特開2009-176025号公報
 しかし、仮想空間内で撮像した写真画像を仮想空間内に配置する場合、上記特許文献1では、撮影操作とスライド操作といった2つの操作が必要となり、操作が煩雑である。
 そこで、本開示では、仮想空間における撮影体験のエンターテインメント性をより高めることが可能な情報処理装置、情報処理方法、および情報処理システムを提案する。
 本開示によれば、仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行うことを含む、情報処理方法を提案する。
 本開示によれば、表示装置と、コントローラと、前記表示装置に表示される仮想空間の被写体を撮像する撮像トリガが前記コントローラにより検知された際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を有する情報処理装置と、を備える、情報処理システムを提案する。
本開示の一実施形態による情報処理システムの構成例を示す図である。 本実施形態によるユーザ視点による仮想空間映像の一例を示す図である。 本実施形態による撮像画像の仮想空間における配置について説明する図である。 本実施形態による表示装置の構成の一例を示すブロック図である。 本実施形態によるコントローラの構成の一例を示すブロック図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態による撮像処理の流れの一例を示すフローチャートである。 本実施形態による撮影操作に応じた画像取得について説明する図である。 本実施形態による撮影失敗の保険用に行われる画像の連続取得について説明する図である。 本実施形態による撮像画像の配置処理の流れの一例を示すフローチャートである。 本実施形態による撮像画像の配置位置について説明する図である。 本実施形態による撮像画像の配置位置までの移動軌跡を描画する場合について説明する図である。 本実施形態による撮像画像のタグ処理の流れの一例を示すフローチャートである。 本実施形態による撮像画像のフィルタリング処理について説明する図である。 本実施形態による撮像時のフィルタリング処理の流れの一例を示すフローチャートである。 本実施形態による撮像画像の手動による再配置の一例について説明する図である。 本実施形態による自動再配置(整列配置)の一例について説明する図である。 本実施形態による撮像画像の再配置処理の流れの一例を示すフローチャートである。 本実施形態による共有操作の一例について説明する図である。 本実施形態による撮像画像の共有処理の流れの一例を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成例
 3.動作処理
  3-1.撮像処理
  3-2.撮像画像の配置処理
  3-3.撮像画像のタグ処理
  3-4.撮像時のフィルタリング処理
  3-5.撮像画像の再配置処理
  3-6.撮像画像の共有処理
 4.その他
 5.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1~図3を参照して本開示の一実施形態による情報処理システムの概要について説明する。図1は、本開示の一実施形態による情報処理システムの構成例を示す図である。図1に示すように、本実施形態による情報処理システムは、表示装置10、コントローラ20、および情報処理装置30を有する。
 本実施形態では、仮想空間(VR:Virtual Reality)における、よりエンターテインメント性の高い撮影体験を提供する。仮想空間は、例えばユーザの視界を覆う非透過型のHMD(Head Mounted Display)を用いて呈示される。本実施形態では、一例として表示装置10がHMDにより実現される場合を想定する。
 表示装置10を実現するHMDは、ユーザの頭部に装着され、また、左右の眼毎の画像表示部を有すると共に、ヘッドフォンを併用し、ユーザの視覚および聴覚を制御できるよう構成されていてもよい。外界を遮る構成にすることで、視聴時の仮想現実感(仮想空間への没入感)を増すことができる。また、HMDは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示することで3D画像を提示し得る。
 また、仮想空間内には、生成された三次元画像(いわゆる3Dモデル)である仮想オブジェクトや、実空間を撮像して得た情報に基づいて生成された立体視画像等が配置(表示)される。実空間の撮像は、全天球カメラにより撮像されてもよい。また、実空間の撮像は、複数のカメラにより行われてもよい。
 このような仮想空間映像(本明細書において、VRコンテンツとも称する)は、全天球コンテンツや自由視点コンテンツであってもよい。なお自由視点コンテンツとは、任意の位置に仮想カメラを置いた際の映像を生成し、あらゆる視点からの映像視聴を可能としたものである。また、本明細書で使用する「仮想空間」(または「VR」)という用語は、実際のユーザが、1つ以上の表示装置を介して感知し得る、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。
 仮想空間内では、ユーザがアバターによって表現されてもよいし、ディスプレイにアバターを表示せずに、アバターの視点から仮想空間の世界を表示してもよい。本明細書において、仮想空間におけるユーザの(またはアバターの)視点(本明細書において、「仮想空間内のユーザ視点」とも称す)とは、仮想カメラの視界とみなすことができる。「仮想カメラ」とは、仮想空間内の視点を指し、三次元の仮想空間を二次元画像としてディスプレイ(表示装置)に描画するための計算に使用される。
 また、本実施形態によるVRコンテンツは、例えば音楽コンサート、舞台、各種イベント、講演会、授業、番組等の生配信(リアルタイムでの配信)であってもよいし、過去の配信を記録したものであってもよいし、配信用に記録、生成したものであってもよい。また、VRコンテンツは、ゲーム、映画、ドラマ、アニメ等であってもよい。VRコンテンツの中身については特に限定しない。
 また、本実施形態による情報処理システムは、ユーザの意図をシステムに伝えるためのコントローラ20を含む。コントローラ20は複数あってもよい。また、コントローラ20は、ユーザの手に把持されるものであってもよいし、肘や腕、膝、足首、太もも等、身体の一部に装着されるものであってもよい。ユーザは、コントローラ20により仮想空間内における撮影を操作することが可能である。
 また、表示装置10により提供される仮想空間の情報(VRコンテンツ)は、情報処理装置30から取得され得る。情報処理装置30は、ネットワーク上に設けられるサーバであってもよいし、ユーザと同一空間に配置された専用端末や、スマートフォン、タブレット端末、またはPC等により実現されてもよい。また、情報処理装置30は複数の装置により実現されてもよい。例えば、情報処理装置30は、ネットワーク上に設けられるサーバと、ユーザと同一空間に配置された専用端末とにより実現されてもよい。
 情報処理装置30は、VRコンテンツを格納し、VRコンテンツに基づいて構築される仮想空間を表示装置10に提供する機能を有する。具体的には、情報処理装置30は、VRコンテンツから、ユーザの動きやコントローラ操作等に応じて自由視点画像を生成し、表示装置10に出力する。ユーザの動きとは、ユーザの位置や姿勢(頭部の向きを含む)の変化である。表示装置10は、ユーザの位置や姿勢を検出し、情報処理装置30に出力する。情報処理装置30は、実世界でのユーザ視点位置(3次元位置)を認識し、認識したユーザ視点位置に基づいて仮想空間内でのユーザ視点位置を算出する。
 なお、上記VRコンテンツからユーザの動きやコントローラ操作等に応じて自由視点画像を生成する処理は表示装置10で行ってもよい。
 (背景)
 ここで、仮想空間内での特定のシーンを記念に残したり、仲間とシェアしたりする等、仮想空間体験をさらに楽しむための手段として、仮想空間内で撮影を行う機能が挙げられる。
 現状、動画配信をスマートフォン等で視聴している場合におけるシーンの保存方法としては、表示画面に映る動画を静止画像として保存するスクリーンショット機能があるが、単純に表示画面に描画された映像の静止画であるため、現場で撮影した写真といったリアリティ感は得られない。
 一方、仮想空間内においてユーザの視点で撮影を行うことができれば、リアリティのある現場写真を取得することが可能となる。また、このように撮影した写真を仲間とシェアすることができれば、さらにVRコンテンツを楽しむことができ、VRコンテンツの価値も向上し、ビジネススケール拡大にも貢献し得る。
 また、仮想空間内で撮影した写真を仮想空間内において手元で閲覧することができれば、仮想空間への没入感を継続したまま、撮影した写真を楽しむことができる。また、VRコンテンツとして音楽コンサートを視聴している場合など、お気に入りのシーンを写真に撮りながらも視聴対象に注視していたいことも想定されるため、撮影や閲覧における操作の煩わしさはできるだけ低減されることが望ましい。
 そこで、本開示による情報処理システムでは、仮想空間の被写体を撮影するユーザ操作に応じて撮像から撮像画像の配置までを行って操作の煩わしさを低減し、撮像画像を仮想オブジェクトとして仮想空間に配置することで仮想空間における撮影体験のエンターテインメント性をより高めることを可能とする。
 具体的には、例えば図2に示すように、仮想空間の映像400が表示装置10の表示部140に表示されている場合に、ユーザがコントローラ20を用いて映像400に映る被写体401の撮影を行うことを想定する。ユーザは、コントローラ20の所定のボタンを押す等の撮影操作により、所謂シャッターを切ることができる。本明細書において、「仮想空間の被写体」とは、仮想世界の情報として表示部140に表示される画像である。「仮想空間の被写体」は、例えば実写映像に基づいて生成された立体視画像に含まれる人物や物体であってもよいし、CG等によって生成された3Dモデル(仮想オブジェクト)であってもよい。また、「撮影操作」は、仮想空間の被写体を撮像する撮像トリガの一例である。
 情報処理装置30は、コントローラ20で所定のボタンを押す等の撮影操作が行われた場合、シャッターが切られたものとみなし、仮想空間内のユーザ視点に基づいて、所定の画角600(フレームサイズ)の画像を取得(生成)する。かかる画像の生成が、所謂「撮影」に相当する。なお、撮像処理部302は、画角600の表示を仮想空間内に表示するようにしてもよい。これによりユーザは撮影における画角(撮影範囲)を直感的に把握することができる。例えば撮像処理部302は、ユーザによるコントローラ20の所定のボタンの半押し操作で画角600(フレーム)を出現させ、そのままボタンが押し込まれた際に(全押し操作で)撮影を実行するようにしてもよい。また、情報処理装置30は、撮影におけるズームインやズームアウトも操作できるようにしてもよい。
 情報処理装置30は、画角600の2Dテクスチャ(2次元画像)をレンダリング(生成)し、当該2Dテクスチャを写真オブジェクト(写真画像として用いられる仮想オブジェクト)に描画する。かかる2Dテクスチャが描画された写真オブジェクトが、仮想空間内における「撮像画像」(所謂、撮影操作によって得られた写真)に相当する。
 そして、情報処理装置30は、撮像画像を仮想空間に配置する。配置する箇所は、例えばユーザの横など、ユーザの視界を邪魔しない位置(少なくともステージと被らない位置など)としてもよい。例えば図2に示すようにユーザがステージ方向を見た状態で被写体401を撮影した場合、撮像画像(画角600の画像)がユーザの右側(視界外)に配置されてもよい。この場合、ユーザが右側を向くと(顔を右に向けると)、仮想空間におけるユーザ視点が変化し、図3に示すように、右方向の仮想空間の映像410が表示部140に表示される。そして、ユーザの右側に配置された撮像画像510(仮想オブジェクト)を視認することが可能となる。
 以上、本開示の一実施形態による情報処理システムの概要について説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.構成例>>
 <2-1.表示装置10の構成例>
 図4は、本実施形態による表示装置10の構成の一例を示すブロック図である。図4に示すように、表示装置10は、制御部100、通信部110、操作入力部120、センサ部130、表示部140、音声出力部150、および記憶部160を有する。
 制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って表示装置10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 本実施形態による制御部100は、通信部110を介して情報処理装置30から受信した情報に基づいて、表示部140や音声出力部150を制御し、ユーザの視覚や聴覚に仮想空間の情報を提示する制御を行う。また、制御部100は、操作入力部120から入力されたユーザ操作の情報や、センサ部130によりセンシングされたデータに基づくユーザの位置や姿勢等の変化を、通信部110から情報処理装置30に送信する制御を行う。また、制御部100は、コントローラ20から受信したユーザ操作の情報も、情報処理装置30に送信する制御を行う。また、制御部100は、ユーザ操作の情報や、位置、姿勢等の変化に応じて、表示部140や音声出力部150を制御し、ユーザの視覚や聴覚に提示する仮想空間の情報を変化させてもよい。
 センサ部130によりセンシングされたセンシングデータに基づく制御部100による位置や姿勢等の算出について説明する。制御部100は、各種センシングデータに基づいて、ユーザの頭部の動きを追従したり(ヘッドトラッキング)、視線の動きを追従したり(アイトラッキング)、位置や姿勢を追従したり(ポジショントラッキング)する。より具体的には、例えばヘッドトラッキングは、ユーザの頭部に装着された表示装置10に設けられるセンサ部130により検出された9軸の検出結果に基づいて、頭部の姿勢情報を算出することにより行われ得る。また、アイトラッキングは、ユーザの頭部に装着された表示装置10に設けられるセンサ部130により検出されたユーザの眼の撮像画像(例えば赤外線を眼に発光してその反射を撮像した赤外線画像)に基づいて、ユーザの視線(視線方向)を算出することにより行われ得る。また、ポジショントラッキングには、外部に設置したセンサを利用するアウトサイド・イン方式と、計測したいもの自体(表示装置10(HMD))に搭載したセンサを利用するインサイド・アウト方式と、これらの組み合わせであるハイブリッド方式とがある。
 (通信部110)
 通信部110は、有線または無線により、情報処理装置30やコントローラ20と通信接続してデータの送受信を行う。通信部110は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、または携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式)、4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いた通信を行い得る。
 (操作入力部120)
 操作入力部120は、ユーザによる操作指示を受付け、その操作内容を制御部100に出力する。操作入力部120は、例えばタッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部120は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
 (センサ部130)
 センサ部130は、ユーザまたは周辺の状況等、実空間をセンシングする機能を有する。具体的には、センサ部130は、位置情報取得部、カメラ(内向き/外向きカメラ)、マイク(マイクロホン)、加速度センサ、角速度センサ、地磁気センサ、および生体センサ(脈拍、心拍、発汗、血圧、体温、呼吸、筋電値、脳波等の検知)等を含む。なお、センサ部130の具体例はこれらに限定されず、例えば、センサ部130は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサを有していてもよい。また、センサ部130は、ユーザの視線を検出する視線検出センサとして、例えばユーザの眼前に位置する表示部140の周辺に設けられた赤外線センサ(赤外線発光部および赤外線カメラ)等の内向きカメラや、ユーザの眼の周辺の筋肉の動きを検知する筋電センサ、若しくは脳波センサ等を有していてもよい。
 (表示部140)
 表示部140は、例えば表示装置10がHMDとして構成される場合、ユーザの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像および右眼用画像を表示する。表示部140の画面は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL((Electro Luminescence)ディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部140は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。
 (音声出力部150)
 音声出力部150は、例えば表示装置10がHMDとして構成される場合、ユーザの頭部に装着されるヘッドフォンとして構成され、音声信号を再生する。なお音声出力部150は、ヘッドフォン型に限定されず、イヤフォン、若しくは骨伝導スピーカとして構成されてもよい。
 (記憶部160)
 記憶部160は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 以上、表示装置10の構成について具体的に説明したが、本開示による表示装置10の構成は図4に示す例に限定されない。例えば、表示装置10は、複数の装置により実現されてもよい。具体的には、HMD等により実現される表示装置(少なくとも表示部140に対応)と、スマートフォンやタブレット端末、PC等により実現される情報処理端末(少なくとも制御部100に対応)とを含む構成であってもよい。また、上述した制御部100によるトラッキング処理を外部装置で行ってもよい。
 また、制御部100が有する各機能を、ネットワーク上に設けられたサーバ(例えば情報処理装置30)で実現してもよいし、ユーザと同一空間に配置された専用端末や、スマートフォン、タブレット端末、またはPC等により実現してもよい。
 また、表示装置10は、スマートフォンやタブレット端末等の非装着型のデバイスであってもよい。
 <2-2.コントローラ20の構成例>
 図5は、本実施形態によるコントローラ20の構成の一例を示すブロック図である。図5に示すように、コントローラ20は、制御部200、通信部210、操作入力部220、センサ部230、および記憶部240を有する。
 制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従ってコントローラ20内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 本実施形態による制御部200は、操作入力部220から入力されたユーザ操作の情報や、センサ部230によりセンシングされたデータに基づくユーザの動きの変化を、通信部210からコントローラ20に送信する制御を行う。例えば制御部200は、コントローラ20に設けられたボタンが押下されたこと(撮影操作の一例)を検知し、表示装置10に出力する。
 (通信部210)
 通信部210は、有線または無線により、コントローラ20と通信接続してデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、または携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式)、4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いた通信を行い得る。
 (操作入力部220)
 操作入力部220は、ユーザによる操作指示を受付け、その操作内容を制御部200に出力する。操作入力部220は、例えばタッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部220は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
 (センサ部230)
 センサ部230は、ユーザまたは周辺の状況等、実空間をセンシングする機能を有する。具体的には、センサ部230は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサであってもよい。また、センサ部230は、さらにカメラ、マイク、および生体センサ(脈拍、発汗、血圧、体温等の検知)等を含んでいてもよい。
 (記憶部240)
 記憶部240は、制御部200の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 以上、コントローラ20の構成について具体的に説明したが、本開示によるコントローラ20の構成は図5に示す例に限定されない。例えば、コントローラ20は、さらに表示部や振動部、発光部等を有していてもよい。コントローラ20は、表示装置10から受信した制御信号に従って、表示部や振動部、発光部等からユーザへのフィードバックを行い得る。
 また、コントローラ20は、当該VRコンテンツの操作専用のコントローラであってもよいし、スマートフォンや携帯電話端末、また、スマートウォッチ等のウェアラブルデバイスといった汎用装置であってもよい。
 なお、本実施形態では一例としてコントローラ20を含むシステム構成としているが、本開示はこれに限定されない。ユーザはコントローラ20を用いずに、例えば手や身体全体によるジェスチャ、若しくは音声等により、システムに対してユーザの意図を伝えることも可能である。ジェスチャ入力や音声入力は、表示装置10(HMD)に設けられた外向きカメラやマイクにより検出されてもよい。また、ジェスチャ入力は、ユーザの周囲に設けられユーザの全身を撮影するカメラ(不図示)により検出され、表示装置10または情報処理装置30に送信されてもよい。
 <2-3.情報処理装置30の構成例>
 続いて、情報処理装置30の構成例について図6を参照して説明する。情報処理装置30は、ネットワーク上に設けられたサーバであってもよいし、ユーザと同一空間に配置された専用端末や、スマートフォン、タブレット端末、またはPC等であってもよい。
 図6は、本実施形態による情報処理装置30の構成の一例を示すブロック図である。図6に示すように、情報処理装置30は、制御部300、通信部310、および記憶部320を有する。
 制御部300は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置30内の動作全般を制御する。制御部300は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部300は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部300は、コンテンツ視聴制御部301、撮像処理部302、配置制御部303、タグ付け部304、および共有制御部305としても機能する。
 コンテンツ視聴制御部301は、VRコンテンツの視聴を制御する機能を有する。具体的には、コンテンツ視聴制御部301は、記憶部320に格納されたVRコンテンツの情報に基づいて、当該VRコンテンツにより構築(定義)される仮想空間(3次元のバーチャル空間)におけるユーザ視点(3次元位置座標)に対応する仮想空間の映像(自由視点画像)を生成する。コンテンツ視聴制御部301は、仮想空間におけるユーザ視点を、例えば表示装置10から出力されるセンシングデータに基づいて算出されるユーザの位置や姿勢(頭部の向きを含む)から認識し得る。また、コンテンツ視聴制御部301は、生成した仮想空間の映像を、通信部310から表示装置10に送信し、表示部140に表示させる。また、コンテンツ視聴制御部301は、VRコンテンツの情報に基づいて、上記ユーザ視点に対応する仮想空間の音声情報を生成し、表示装置10に送信する。
 コンテンツ視聴制御部301は、以上の処理を継続的に行うことで、ユーザが実世界で前後左右に移動したり(若しくはコントローラ20で前後左右への移動を指示する操作入力をしたり)、視点(例えば頭部の向き)を変化させた際に、仮想空間でも同じ移動量(または所定の比率での対応する移動量)で前後左右に移動したり視点を変化させたりすることができる。これにより仮想空間への没入感を高め、よりリアリティのあるVR体験を提供することができる。
 撮像処理部302は、仮想空間の被写体を撮像する処理を行う。具体的には、撮像処理部302は、ユーザによる撮影操作(例えばコントローラ20で所定のボタンを押す等)が行われた場合に、仮想空間内のユーザ視点に基づいて、(ユーザの視界内における)所定の画角(縦横指定のフレームサイズ)の画像を取得(生成)する。取得する画像は、2次元画像であってもよいし、3次元画像であってもよい。そして、撮像処理部302は、取得した画角600の画像(例えば2Dテクスチャ)を、写真オブジェクトに描画し、仮想空間内における「撮像画像」(仮想空間内で取り扱うことのできる仮想オブジェクト)を生成する。また、撮像処理部302は、被写体と重なる付加的な仮想オブジェクトの除外など撮像時に適宜フィルタリング処理を行ってもよい。
 配置制御部303は、撮像処理部302により生成された撮像画像を仮想空間に配置する制御を行う。配置は、予め設定された配置ルールに従って行ってもよい。例えば配置制御部303は、仮想空間を視聴するユーザの位置に対して予め設定された場所に配置する。例えば配置制御部303は、ユーザの視界外に配置するようにしてもよい。また、配置制御部303は、ユーザの周囲であって、仮想空間のステージ、配信者(演者等)、進行方向など、視聴しているコンテンツのメインとなる視聴対象(予め設定され得る)を避けた場所に配置するようにしてもよい。また、配置制御部303は、ユーザ操作に応じて、仮想空間内に配置された撮像画像をユーザが指定した任意の位置(手動貼り付け位置)に再配置する。また、配置制御部303は、手動で配置された撮像画像を仮想空間内の所定のスペースに自動で整列させることも可能である。
 タグ付け部304は、撮像処理部302により生成される撮像画像に、当該撮像画像に関する付随情報(本明細書において「タグ」と称する)を付与する処理を行う。例えばタグ付け部304は、撮像画像に映る被写体の情報、撮影日時、撮影を行った当該VRコンテンツに関する情報、当該VRコンテンツの再生時間軸上における当該撮影を行った時刻の情報(再生開始位置)等を取得し、タグとして撮像画像に付与する。かかるタグは、撮像画像の検索や、多数の撮像画像をグループ分けして配置する時、また、再生開始時等に利用され得る。
 共有制御部305は、撮像画像を他者(他ユーザの表示装置)や他のシステム等の外部と共有する制御を行う。具体的には、共有制御部305は、ユーザに選択された撮像画像のコピーを共有先(例えば友人の表示装置や、Tシャツやマグカップ、紙などの実物体にプリントを行ってユーザ宅に配送するサービスを提供するシステム等)に送信する制御を行う。また、共有制御部305は、他者から共有された撮像画像を受信して記憶部320に保存したり、当該受信した撮像画像をユーザが視聴している仮想空間に配置したりする制御を行う。
 以上制御部300の各種機能について説明した。なお上述した各種機能は一例であって、本実施形態はこれに限定されない。例えば制御部300は、ユーザに対して仮想空間内の表示や音、表示装置10またはコントローラ20の振動等により各種通知やフィードバックを行い得る。
 (通信部310)
 通信部310は、有線または無線により表示装置10とデータの送受信を行う。通信部310は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式)、4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等により表示装置10と通信接続する。
 (記憶部320)
 記憶部320は、制御部300の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
 本実施形態により記憶部320は、VRコンテンツを格納する。また、記憶部320は、ユーザ情報(ユーザの氏名、ID、アドレス等)を格納していてもよい。
 以上、情報処理装置30の構成について具体的に説明したが、本開示による情報処理装置30の構成は図6に示す例に限定されない。例えば、情報処理装置30は、複数の装置により実現されてもよい。具体的には、制御部300を、スマートフォンやタブレット端末、PC等により実現される情報処理端末又はユーザと同一空間に配置された専用端末に設け、記憶部320をネットワーク上のサーバに設けてよい。また、制御部300の少なくとも一部の機能を表示装置10で実行してもよい。また、情報処理装置30は、表示装置10と、情報処理端末(スマートフォンやタブレット端末、PC等)又は専用端末と、サーバと、により実現されてもよい。
 <<3.動作処理>>
 次に、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
  <3-1.撮像処理>
 図7は、本実施形態による撮像処理の流れの一例を示すフローチャートである。図7に示すように、まず、表示装置10は、情報処理装置30から取得した情報に基づいて、VRコンテンツの視聴を開始する(ステップS103)。具体的には、情報処理装置30のコンテンツ視聴制御部301によりVRコンテンツの視聴制御が行われ、仮想空間内のユーザ視点における画像および音声が生成され、表示装置10に送信される。
 次に、情報処理装置30の撮像処理部302は、表示装置10またはコントローラ20から取得されるユーザの操作情報に基づいて、撮像操作(撮影の実施を意図する操作入力)があったか否かを判断する(ステップS106)。撮像処理部302は、例えばコントローラ20に設けられた所定のボタンが押下されたことを、撮像操作として認識してもよい。
 次いで、撮像操作があった場合(ステップS106/Yes)、撮像処理部302は、図8に示すように、仮想カメラ60(すなわちユーザ視点)の中心軸Sが仮想空間内の物体(ここでは被写体401C)と直交するターゲット点Tを中心に、縦横指定のフレームサイズ(すなわち画角610のサイズ)の2Dテクスチャ(画像)を生成する(ステップS109)。なお、取得画像のフレームサイズ(画角610のサイズ)は予め設定されていてもよいし、ユーザが任意に設定してもよい。このように、撮像処理部302は、仮想空間を視聴するユーザの視界の一部(表示部140の表示範囲の一部)の画像を取得する。なお、図8では、撮影対象である被写体401の3次元位置を後述するタグ付け処理で用いるためターゲット点Tを定めているが、本実施形態はこれに限定されず、画角610とは、仮想カメラ60の中心軸Sに直交する平面における当該平面と中心軸が直交する点を中心とする縦横指定サイズのフレームである。
 次に、撮像処理部302は、上記画像の取得に続けて固定のフレーム周期で複数枚の画像を連続で取得し、記憶部320に格納する(ステップS112)。すなわち、図9に示すように、撮影開始フレーム(frame0)から、固定のフレーム周期でnフレーム分連続して(同じ画角での)画像が取得される。かかる複数の画像は、撮影失敗時の保険用に取得されるものである。すなわち、動画を静止画で保存する際、撮影タイミングの遅れで撮影ミス(被写体が目をつぶっている、被写体の衣装がめくれている、手ブレ等)が起こり得るため、複数の撮影を取得しておくことで、撮影ミスした際も成功画像を残すことができる。連続して取得する画像の枚数は予め設定され得る。
 具体的には、撮像処理部302は、先頭の取得画像から順に撮影成否を判定する(ステップS115)。例えば被写体の目つぶり、顔向き、表情、衣装めくれ等を検出し、予め設定された撮影失敗の状態となっているか否かが判定される。
 次いで、撮影失敗の判定がなされなかった場合(ステップS118)、その画像は撮影成功判定がなされた画像とも言えるため、撮像処理部302は、当該撮影成功判定がなされた画像を確定画像として写真オブジェクト(仮想空間内で取り扱える仮想オブジェクト)を生成し、配置制御部303により当該写真オブジェクトを仮想空間内に配置する(ステップS121)。当該写真オブジェクトの仮想空間内への配置は撮像処理部302により行われてもよい。また、仮想空間内への配置は、予め設定された場所に配置するようにしてもよい。配置処理については図10を参照して次に説明する。
 以上説明したステップS106~S121に示す処理は、VRコンテンツの視聴が終了するまで繰り返され得る(ステップS124)。このように本実施形態では、ユーザによる撮影操作に応じて、撮像画像の取得から仮想空間への配置までが一連に行われ、操作の煩わしさが低減され、仮想空間における撮影体験のエンターテインメント性をより高めることができる。
 なお、上記撮像処理は、VRコンテンツの再生時間内において、撮像が許可された所定の時間帯のみ行えるようにしてもよい。また、撮像処理部302は、仮想空間内の所定の場所や対象のみ(許可された場所や対象のみ)撮像を行えるようにしてもよい。
 以上、本実施形態による撮像処理について説明した。なお図7に示す動作処理は一例であって、本開示は図7に示す例に限定されない。例えば、本開示は、図7に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図7に示す全ての処理が必ずしも実行されてなくともよい。例えば、連続で画像を取得すると共に撮影成否の判定を行い、撮影が成功するまで連続的に画像を取得するようにしてもよい。
 また、図7に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図7に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図7に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <3-2.撮像画像の配置処理>
 次に、上記ステップS121に示す撮像画像(写真オブジェクト)の仮想空間への配置について説明する。仮想空間への配置は、ユーザ視点の周辺にランダムに行ってもよいし、予め設定された場所に行ってもよい。予め設定された場所とは、例えばVRコンテンツの視聴を邪魔しない位置、すなわちユーザの視界外など、VRコンテンツにおいてメインとなる視聴対象(例えばステージや進行方向等)と重複しない場所が想定される。以下、図10~図12を参照して具体的に説明する。
 図10は、本実施形態による撮像画像の配置処理の流れの一例を示すフローチャートである。図11は、本実施形態による撮像画像の配置位置について説明する図である。
 図10および図11に示すように、まず、配置制御部303は、仮想空間における視聴位置P(ユーザ視点)から、当該VRコンテンツの視聴対象(例えばステージ方向など。また、VRコンテンツ内で定められている正面方向であってもよい)に対して水平視野角約110°の外側に、最終配置位置Qを設定する(ステップS203)。ここで、「水平視野角約110°」とは、人間の識別視野角を考慮した「視界」の範囲の一例であるが、本実施形態の「視界」の範囲(角度)はこれに限定されない。また、「視界」の定義は、識別視野角を考慮したものに限定されない。また、配置制御部303は、ユーザの視界外であってさらにユーザの手が届く距離に、最終配置位置Qを設定するようにしてもよい。
 次に、配置制御部303は、最終配置位置Qまで撮像画像の移動軌跡を描画する(ステップS206)。ここでは一例として撮像画像の最終配置位置までの移動軌跡を描画する場合について説明するが、本開示はこれに限定されず、移動軌跡を描画せずに最終配置位置に撮像画像を配置するようにしてもよい。
 図12は、本実施形態による撮像画像の配置位置までの移動軌跡を描画する場合について説明する図である。図12に示すように、例えば表示装置10の表示部140に表示される仮想空間の映像430において、ユーザによる撮影操作がなされた際、当該映像430から画角600の領域が浮き出し、ユーザの視界外(表示部140に表示される仮想空間の映像430外)に設定された最終配置位置Qに向かって撮像画像510が移動する。例えば最終配置位置Qがユーザの右側の場合、撮像画像510が徐々に小さくなりながら映像430の右方向にフェードアウトするアニメーションが提示され得る。これによりユーザは撮影した画像がどの方向に配置されたかを直感的に把握することが可能となる。
 なお、かかる撮像画像の移動軌跡には、イージーカーブなどの速度演出(例えば移動開始時、移動途中、カーブ時、到着直前などにおける加速や減速)や、軌跡の曲線デザインといった演出を与えてもよい。
 次いで、撮像画像が最終配置位置Qに到達すると(ステップS209/Yes)、配置制御部303は、最終配置位置Qに撮像画像を固定し、効果音により配置位置の方向をユーザに通知する(ステップS212)。例えば最終配置位置Qがユーザの右側の場合、右方向から効果音が聞こえることで、ユーザは、視界には見えていないが右側に撮影した画像が配置されていることを直感的に把握することができる。なお配置制御部303は、上記移動過程のアニメーションを表示せずに、撮影操作に応じて即時に撮像画像510(写真オブジェクト)を最終配置位置Qに配置すると共に、効果音(シャッター音等)を配置方向から聞こえるよう音声出力する制御を行ってもよい。ここでは一例として音による通知を挙げているが、本開示はこれに限定されず、表示や振動等により撮像画像を視界外に配置したことや配置方向、配置位置等を通知するようにしてもよい。表示の一例としては、例えば配置方向を示す矢印の表示が挙げられる。
 また、「撮像画像を固定」とは、仮想空間におけるユーザ位置に対して相対的な位置関係の固定でもよいし、仮想空間における絶対的な位置の固定であってもよい。相対的な位置関係の固定の場合、仮想空間でユーザが移動するとユーザの横等に配置された撮像画像もユーザの移動に追随して移動する。
 また、ユーザは、最終配置位置Qに配置された撮像画像510(図3参照)を仮想空間内で手に取って他の場所に移動させたり、拡大縮小することも可能である。撮像画像510(写真オブジェクト)とのインタラクションは、コントローラ20の操作やジェスチャにより行われ得る。具体的には、例えばコンテンツ視聴制御部301は、ユーザの操作や、手の形、手の位置、手の動き等を反映させる仮想手(手の形をした仮想オブジェクト)を仮想空間内に表示し、仮想手により撮像画像510を掴むことができるようにしてもよい。この場合、撮像画像510の拡大縮小は、例えば仮想手で撮像画像510に対してピンチアウト/ピンチインしたり、仮想手で撮像画像510の両端を掴んで撮像画像510を伸ばしたり縮めたりしたり、撮像画像510の上で仮想手を握ったり開いたりすることで行えるようにしてもよい。また、ユーザは、各撮像画像を好みの位置に再配置(手動配置)してオリジナルの視聴空間を創ることも可能である。撮像画像の再配置については後述する。
 また、配置制御部303は、最終配置位置Qに、複数の撮影操作により得られた複数の撮像画像を重ねて表示するようにしてもよい。例えば図3に示す例では、直近に撮影された撮像画像510が最前面に配置されていると解してもよい。また、配置制御部303は、複数の撮像画像が最終配置位置Qに存在していることが直感的にユーザに伝わるよう、撮像画像510の背面に一定数の撮像画像を少しずらして表示するようにしてもよい。
 以上、本実施形態による配置処理について説明した。なお図10に示す動作処理は一例であって、本開示は図10に示す例に限定されない。例えば、本開示は、図10に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図10に示す全ての処理が必ずしも実行されてなくともよい。
 また、図10に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図10に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図10に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <3-3.撮像画像のタグ処理>
 次に、上記ステップS121で生成される撮像画像(写真オブジェクト)へのタグの付与および当該タグの利用について説明する。図13は、本実施形態による撮像画像のタグ処理の流れの一例を示すフローチャートである。
 図13に示すように、まず、タグ付け部304は、撮像画像に映る被写体の位置情報または顔認識結果に基づいて被写体の情報を推定し、タグ(付随情報)として撮像画像に付与する(ステップS223)。被写体の位置情報とは、例えば仮想空間内における三次元位置座標である。例えばタグ付け部304は、図8に示す画角610で撮像が行われた場合、ターゲット点Tと近接する被写体401Cの立ち位置Pc(Xc,Yc,Zc)を、被写体の位置情報として取得する。コンサートや舞台等の場合に、予め演者(パフォーマー)の立ち位置が定められている場合がある。タグ付け部304は、予め生成された立ち位置に関する情報と、撮像時刻および被写体の立ち位置に基づいて、撮像画像に映る被写体が誰であるか、当該被写体の氏名等の情報(被写体情報)を取得することが可能となる。また、タグ付け部304は、被写体の顔画像を解析し、顔認識に基づいて当該被写体が誰であるかを推定してもよい。VRコンテンツにおける演者等の顔認識用情報は予め用意され得る。
 なお、タグ付け部304は、基本的に撮像画像の中心に映る被写体の情報をタグ付けするが、本開示はこれに限定されない。例えばタグ付け部304は、撮像画像に映る全ての被写体の情報をタグ付けしてもよい。また、タグ付け部304は、撮像画像に映る各被写体のうち、ピント(焦点)が合っている被写体の情報をタグ付けするようにしてもよい。また、タグ付け部304は、撮像画像に映る各被写体のうち、最も大きく映っている被写体の情報をタグ付けするようにしてもよい。
 次に、タグ付け部304は、撮像を行ったVRコンテンツの情報と、撮影時刻情報(再生開始位置情報)を、撮像画像にタグとして付与する(ステップS226)。撮影時刻情報とは、撮像を行った当該VRコンテンツの再生時間軸上における当該撮影を行った時刻の情報であって、再生開始位置として扱われる。
 以上、撮像画像へのタグ付与処理について説明した。続いて、撮像画像に付与したタグの利用について説明する。
 例えば、配置制御部303は、ユーザによる撮像画像のグルーピング配置操作があった場合(ステップS229/Yes)、例えば各撮像画像に付与されている被写体情報に基づいて、被写体毎に(例えば、被写体401A、被写体401C、被写体401Dごとに)撮像画像を配置する制御を行う(ステップS232)。配置制御部303は、複数の撮像画像をグループ毎に縦または横に並べて配置してもよいし、重ねて配置してもよい。また、仮想空間内におけるグルーピング配置の場所は特に限定しないが、例えばVRコンテンツのメインとなる視聴対象(ステージや進行方向等)と重ならない場所が挙げられる。より具体的には、ユーザから少し離れた場所、ユーザの背面、ユーザの手元、ユーザの上方(天井や空など)等であってもよい。
 ここでは一例として被写体毎にグループ分けする場合について説明したが、本実施形態はこれに限定されない。配置制御部303は、各撮像画像に付与されているタグに基づいて他の要素で撮像画像をグループ分けして配置してもよい。例えば、配置制御部303は、シーン(舞台転換)ごとや、被写体の種別ごと、衣装の種別ごと、立ち位置のまとまりごと等にグループ分けして配置してもよい。すなわち、各撮像画像には、撮像した時のシーンや被写体の種別、立ち位置等もタグとして付与され得る。
 また、コンテンツ視聴制御部301は、撮像画像に対して、当該撮像画像の取得元であるVRコンテンツの再生操作があった場合(ステップS235/Yes)、選択された当該撮像画像のタグ(再生開始位置情報)に基づいて、当該VRコンテンツの再生を開始する制御を行う(ステップS238)。これにより、ユーザは、仮想空間において、撮影を行った時点からVRコンテンツを再生することが可能となる。
 以上、本実施形態によるタグ処理について説明した。なお図13に示す動作処理は一例であって、本開示は図13に示す例に限定されない。例えば、本開示は、図13に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図13に示す全ての処理が必ずしも実行されてなくともよい。
 また、図13に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図13に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図13に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <3-4.撮像時のフィルタリング処理>
 本実施形態による撮像処理部302は、上記ステップS121において、撮像画像を生成する際に、邪魔になるエフェクトや演者以外の被写体(例えば他ユーザのアバター)等を除去するフィルタリング処理を行ってもよい。
 図14は、本実施形態による撮像画像のフィルタリング処理について説明する図である。図14に示すように、例えば撮像画像520に、ターゲットとなる(ターゲット点Tと近接する)被写体401Cや、さらには他の被写体401Bの少なくとも一部が、エフェクト画像403(403A、403B)や、他ユーザのアバター405(405A~405C)で隠れる場合がある。そこで、本実施形態では、VRコンテンツにおいて主な視聴対象となる被写体(演者やゲームキャラクター等)のみを撮影することを可能とする。
 図15は、本実施形態による撮像時のフィルタリング処理の流れの一例を示すフローチャートである。図15に示すように、演者のみ撮像する設定がされている場合(ステップS243/Yes)、撮像処理部302は、演者以外のCGオブジェクト(エフェクトや他ユーザのアバターなど)を除外して(画角600の範囲で)2Dテクスチャを生成(撮像画像を取得)する(ステップS245)。ここで、仮想空間内の各仮想オブジェクトには、それが演者であるのか、エフェクトであるのか、他ユーザのアバターであるのか等の情報が付与されている。撮像処理部302は、画角600内に映り込む各仮想オブジェクトを認識し、演者以外の仮想オブジェクトを除去した上で画像取得する。なお被写体が実写映像から生成された立体視画像の一部の場合であっても、エフェクトや他ユーザのアバターから成る仮想オブジェクトを除去する処理を行うことで、邪魔になる映り込みを除外することが実現できる。なおここでは「演者」と説明したが、本実施形態では、VRコンテンツにおいてメインとなる視聴対象が、演出のための付加的な仮想オブジェクトに邪魔されることなく確実に撮影することが可能となる。
 また、撮像処理部302は、演出のための付加的な仮想オブジェクトが被写体(演者等)の手前(前面)に位置する場合のみ除去するようにしてもよいし、付加的な仮想オブジェクトが被写体(演者等)に重なる場合のみ除去するようにしてもよい。
 以上、本実施形態によるフィルタリング処理について説明した。なお図15に示す動作処理は一例であって、本開示は図15に示す例に限定されない。
 また、図15に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図15に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図15に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <3-5.撮像画像の再配置処理>
 また、本実施形態では、ユーザは各撮像画像を好みの位置に再配置(手動再配置)してオリジナルの視聴空間を創ることが可能である。
 より具体的には、ユーザは、例えば図3に示すように、撮影操作に応じて所定位置に配置された撮像画像510を、仮想手等により選択し、ユーザの前方(ステージ方向等)など他の見やすい場所や好みの場所に移動させることが可能である。ここで、図16に、ユーザが複数の撮像画像を手動で再配置した場合の一例を示す。図16に示すように、ユーザは撮像画像510a~510gを自分の見やすい場所(例えば正面(ステージ)の方向)に好きにレイアウト(好きな位置、姿勢)で配置することが可能である。すなわち、情報処理装置30の配置制御部303は、コントローラ20により検出されたユーザ操作等に基づいて、ユーザに選択された撮像画像をユーザが指定した任意の位置に任意の姿勢で配置する制御を行う。
 ユーザはステージを視聴しながらも、自分が撮影したお気に入りの写真に囲まれた自分だけの空間創りを体験することができる。かかる体験は、視聴者毎や配信毎に異なるものであって、VRコンテンツの反復体験意欲を活性化する新たなVR体験価値となり得る。また、多数の写真を配置して自分が創ったオリジナルの空間を撮像(例えば視界全体を静止画像または動画像により保存)して他ユーザに見せたりできるようにすることで、ファン同士の競い合いのモチベーション活性化にも繋がり、ビジネススケール拡大への貢献も期待できる。
 なお、手動配置された撮像画像は、仮想空間において絶対的な配置位置として固定されてもよいし、ユーザ位置に対する相対的な配置位置として固定されてもよい。相対的な配置の場合、仮想空間内でユーザが移動するとユーザの周辺に配置された撮像画像510a~510gもユーザの移動に追随して移動する。
 また、本実施形態では、ユーザが手動で自身の周囲等に再配置した撮像画像の配置枚数が上限を超えた場合や撮像画像による専有面積が所定値を超えた場合などに、手動配置された複数の撮像画像を、ユーザから少し離れた場所に自動で整列配置(自動再配置)させることも可能である。整列配置は、仮想空間内において縦方向または横方向に整列させる配置であってもよいし、奥行き方向に整列させる配置であってもよい。このような各整列のまとまりを、本明細書では以下「整列棚」と称する。自動再配置(整列配置)は、手動再配置した撮像画像が所定の枚数を超えた場合等所定の条件を満たした場合に自動で行われてもよいし、ユーザが自動再配置(整列配置)の実施を指示してもよい。
 図17は、本実施形態による自動再配置(整列配置)の一例について説明する図である。配置制御部303は、図17に示すように、ユーザの周囲に手動配置された複数の撮像画像を例えばステージ方向に対してユーザの左側のある程度離れた位置などに縦に並べ(整列させて)、整列棚710aを作成する。整列棚710aは、ユーザの周囲に手動配置されていた撮像画像510a~510fが縦方向に整列されて形成される。
 整列棚710は複数作成されてもよい。例えば配置制御部303は、自動再配置(整列配置)を行う度に新たに整列棚710を生成してもよい。図17に示す例では、n個の整列棚710が作成されている。また、整列棚710は、仕分けグループ毎に用意されていてもよい。仕分けグループとは、例えば上述したタグに基づくグループである。配置制御部303は、例えば撮像画像に映る被写体ごとに各整列棚710(被写体Aの整列棚、被写体Bの整列棚等)に撮像画像を格納してもよい。
 また、整列棚710の領域(大きさ)が予め設定されていてもよく、配置制御部303は、撮像画像が整列棚に入りきらない場合は各撮像画像を縮小して整列(格納)するようにしてもよい。若しくは、配置制御部303は、撮像画像が整列棚に入りきらない場合は、次の整列棚を新たに生成して撮像画像を整列(格納)するようにしてもよい。
 また、整列棚710の配置場所は特に限定しないが、例えばステージに被らず、かつユーザから多少離れてはいるが各撮像画像の視認性は確保できる程度の距離に配置されることが好ましい。ユーザは、整列棚710から任意の撮像画像を取り出して手動配置することも可能である。整列棚710がユーザの手の届かない距離に配置されている場合、ユーザは仮想空間内でレーザーポインター等の操作アイテムを用いることで、整列棚710から任意の撮像画像を取り出したり、整列棚710を移動させたり等の操作を行うことができる。
 また、手動配置された1以上の撮像画像を整列棚に自動整列する際、配置制御部303は、各撮像画像が整列棚に移動する軌跡(移動アニメーション)を表示するようにしてもよい。かかる軌跡には、イージーカーブなどの速度演出や、軌跡の曲線デザインといった演出を与えてもよい。
 また、配置制御部303は、手動配置時における各撮像画像の位置および姿勢を記憶しておき、整列棚に整列された複数の撮像画像を再び手動配置状態に戻すことも可能である。
 以上説明した撮像画像の各再配置に関する動作処理について、以下図18を参照して説明する。
 図18は、本実施形態による撮像画像の再配置処理の流れの一例を示すフローチャートである。図18に示すように、まず、ユーザによる手動配置操作があった場合(ステップS303/Yes)、配置制御部303は、選択された撮像画像をユーザに指定された手動貼り付け位置に移動する(ステップS306)。ユーザは、例えばコントローラ20を用いて、撮影直後に所定位置に配置された撮像画像510(図3参照)を掴む(選択)操作を行い、仮想空間内で撮像画像510を掴んだ状態で任意の位置まで移動させるよう、実世界においてコントローラ20を把持する手を動かす。配置制御部303は、コントローラ20により検出されたユーザ操作(ボタン操作や、加速度等のセンシングデータ)に応じて、撮像画像510の位置や姿勢を制御する。
 上記ステップS303~S306に示す処理は、手動配置の上限値を超えるまで繰り返され得る(ステップS309)。すなわちユーザは、複数の撮像画像を順次任意の位置に貼り付ける(移動させる)操作を行うことが可能である。
 次に、手動配置の上限値を超えた場合(ステップS309/Yes)、配置制御部303は、手動配置されている全ての撮像画像の手動配置座標を記憶部320に記憶する(ステップS312)。各撮像画像には画像IDが付与され、配置制御部303は、画像IDと対応付けて手動配置座標を記憶する。また、手動配置の上限値とは、上限枚数であってもよいし、上限専有率(ユーザの周辺領域に対して手動配置撮像画像が占める割合等)であってもよい。また、手動配置座標には、仮想空間内における三次元位置のみならず、各撮像画像の配置姿勢(傾き、角度)も含まれる。また、配置制御部303は、各撮像画像の拡大/縮小の状態も記憶してもよい。このように、配置制御部303は、複数の撮像画像の手動配置の状態を画像IDに対応付けて記憶し得る。なお配置制御部303は、各撮像画像の画像IDから成る画像ID群を、記憶日時(手動配置していた日時)や呼び出し番号を付与して記憶してもよい。
 次いで、配置制御部303は、各画像の自動整列配置座標を決定し、自動整列を実行する(ステップS315)。各画像の自動整列配置座標とは、画像の整列先を示す情報である。具体的には、例えば整列棚の番地が相当する。配置制御部303は、各撮像画像に、それぞれ整列棚の番地を割り当てる。例えば、配置制御部303は、整列棚Aの先頭番地(縦に並べる整列棚の場合であれば一番上の配置場所)から順に割り当て、全番地まで満たされると、次の整列棚Bの先頭番地から同様に順に割り当てる。なお、複数の整列棚が仕分けグループ毎に用意されている場合、配置制御部303は、各撮像画像のタグに基づいて、それぞれ対応する整列棚の空いている番地を割り当てる。配置制御部303は、割り当てた番地に各撮像画像を移動させる(自動整列の実行)。また、各自動整列配置座標は、それぞれ画像IDに対応付けて記憶される。
 以上、手動配置された撮像画像の整列棚への自動整列について説明した。このように自動整列された撮像画像は、上記記憶された情報に基づいていつでも手動配置位置に戻すことが可能である。
 具体的には、ユーザによる手動配置呼び出し操作があると(ステップS318/Yes)、配置制御部303は、対象の撮像画像群の手動配置座標に基づいて、各撮像画像を整列棚から手動貼り付け位置に移動させる制御を行う(ステップS321)。手動配置の呼び出しは、上記呼び出し番号や、手動配置の日時を指定して行い得る。ユーザは、例えば手動配置の呼び出し番号一覧表示等から指定してもよい。
 以上、本実施形態による撮像画像の再配置処理について説明した。なお図18に示す動作処理は一例であって、本開示は図18に示す例に限定されない。
 また、図18に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図18に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図18に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <3-6.撮像画像の共有処理>
 また、本実施形態では、撮像画像を外部と共有することが可能である。例えばユーザは、任意の撮像画像を選択して所定の共有操作を行うことで、一緒にVRコンテンツを視聴している他ユーザに当該撮像画像を共有(当該撮像画像のコピーを送信)することが可能となる。共有先はユーザが任意に選ぶことが可能である。一例として、共有先は一緒にVRコンテンツを視聴している他ユーザであってもよいし、友達登録している他ユーザであってもよい。VRコンテンツがリアルタイム配信等の場合に、友人と一緒に参加して視聴することも想定される。この場合、仮想空間内に友達のアバターが配置され、ユーザは友達と会話(音声またはチャット)や撮像画像の共有等を行うことが可能となる。
 共有操作は、例えば図19に示すように、共有したい撮像画像510gを仮想手820で掴み、所定の共有オブジェクト810(仮想オブジェクト)に設けられた切り込みにスライドさせたりタッチさせたり差し込んだり等する操作であってもよい。共有制御部305は、かかる操作が行われた場合に共有先を選択する画面を表示してユーザに共有先を選択させてもよい。若しくは、共有制御部305は、一緒に参加している友達(同じVRコンテンツを同時に視聴している友達登録された他ユーザ)を共有先として自動的に決定してもよい。共有制御部305は、共有された撮像画像を、共有先ユーザの仮想空間内の所定位置に配置し、呈示する。共有された撮像画像の呈示は音や表示により共有先ユーザに通知してもよい。なお、一緒に参加している友達とは、同じVRコンテンツをHMDで同様に視聴している友達に限らず、同じVRコンテンツをスマートフォンやタブレット端末等で視聴している友達であってもよい。
 また、撮像画像の外部との共有は、撮像画像を用いた各種のサービスをユーザに提供するシステム(図示しない他サーバ)への共有であってもよい。例えば、撮像画像からアルバムを作成したり、撮像画像を印刷したマグカップやTシャツ、紙等を作成するなど、撮像画像を用いたソフトまたはハードの商品を作成するサービスが挙げられる。かかるサービスの利用は有料であってもよい。
 また、撮像画像の外部との共有における「外部」とは、表示装置10の外を意味し、表示装置10以外の装置が全て対象となり得る。従って、本システムでは、例えば、ユーザのスマートフォンやタブレット端末等に、撮像画像を共有(転送)することも可能である。また、外部からの共有として、ユーザのスマートフォンやタブレット端末、また、ユーザが利用しているクラウドから画像を取得する(仮想空間内に配置する)ことも可能である。
 仮想空間において自分が撮影した画像を外部に共有(転送)する体験など、仮想空間における体験が実世界での体験に及ぶ次世代体験を提供し、VR体験の新たな価値を創出することができる。
 以上説明した撮像画像の共有処理について、以下図20を参照して説明する。
 図20は、本実施形態による撮像画像の共有処理の流れの一例を示すフローチャートである。図20に示すように、まず、外部への共有操作があった場合(ステップS403)、共有制御部305は、ユーザによる共有操作において選択された撮像画像を、所定の共有先に送信する(ステップS406)。より具体的には、コンテンツ視聴制御部301により共有先ユーザの仮想空間に共有する撮像画像が配置されることで、実質的に当該撮像画像が共有先ユーザの表示装置に送信され得る。若しくは共有制御部305が共有先ユーザの表示装置に当該撮像画像を送信し、共有先ユーザの表示装置において、仮想空間内に当該撮像画像を配置する制御が行われる。また、共有先は、撮像画像を用いた各種サービスを提供するシステムのサーバであってもよい。また、所定の共有先とは、ユーザが任意に選択した共有先であってもよいし、予め設定された共有先であってもよい。また、共有操作に用いる共有オブジェクト810(仮想オブジェクト)を複数用意し、利用された共有オブジェクト810に予め対応付けられた共有先を所定の共有先としてもよい。
 一方、外部からの撮像画像の共有があった場合(ステップS409/Yes)、共有制御部305は、共有された撮像画像を、ユーザの仮想空間の所定位置に配置する(ステップS412)。表示装置10は、撮像画像が呈示されたことを音や表示によりユーザに通知してもよい。また、共有された撮像画像の所定配置位置は、例えば仮想空間におけるユーザの視界外であってもよい。すなわち、例えばユーザの視界外右側には、ユーザが撮像した撮像画像が配置され、視界外左側には、共有された撮像画像が配置されるようにしてもよい。また、共有制御部305は、誰から(どこから)共有された撮像画像であるかをアイコン等により明示するようにしてもよい。
 以上、本実施形態による撮像画像の共有処理について説明した。なお図20に示す動作処理は一例であって、本開示は図20に示す例に限定されない。
 また、図20に示す全ての処理が必ずしも単一の装置で行われなくともよい。例えば、上記では図20に示す処理が全て情報処理装置30で行われることを想定して説明したが、本開示はこれに限定されない。例えば図20に示す処理が全て表示装置10で行われてもよいし、表示装置10と情報処理装置30とで行われてもよい。
 <<4.その他>>
 本実施形態による情報処理システムについて、以下補足する。
 撮像は静止画像の取得に限定されず、動画像の取得であってもよい。具体的には、例えば撮像処理部302は、数秒など一瞬だけ動く写真といった、より臨場感のある写真を取得することも可能である。動く時間(秒数等)はユーザが予め設定してもよい。また、かかる動く写真(動画像)は、さらに音声付きであってもよい。
 また、仮想空間内での撮像において動画像を取得する際も、図7および図8を参照して説明した撮影成否の判定をフレーム毎に行ってもよい。撮像処理部302は、目つぶりや衣装めくれ等の失敗判定されたフレームはカットしたり暗転させたりする処理を行うようにしてもよい。どのようなフレームを失敗判定とみなすかはコンテンツの配信者側が予め設定できるようにしてもよい。
 また、情報処理装置30は、被写体を撮像する際の被写体の顔サイズに上限を設定してもよい。すなわち、ズームイン処理に制限を与えることで、あまりに被写体の顔に近付いた写真の撮影を禁止することが可能となる。かかる設定は、コンテンツの配信者側が適宜設定できるようにしてもよい。
 また、コンテンツ視聴制御部301は、図16に示すように空間に貼り付けられた撮像画像が、仮想空間に居る当該コンテンツの配信者(例えばステージ上に居る演者やゲームキャラクター等、当該コンテンツのメインとなる視聴対象)の動きに連動してなびく(動く)よう制御してもよい。また、コンテンツ視聴制御部301は、演者等のボーン情報等を取得し、演者と、空間に貼り付けられた撮像画像が衝突した際(例えばステージ上の演者がユーザ側に手を伸ばして近付いた際等)、撮像画像を振動させる等の挙動を与えるようにしてもよい。このように、演者等の動きに応じて、空間に貼り付けられた撮像画像を動かすことで、仮想空間の臨場感をユーザに与えることができる。
 また、配置制御部303は、仮想空間内における演者等の位置を認識し、撮像画像が演者等と重ならない配置となるよう配置をサポートする機能を有していてもよい。
 また、仮想空間に配置する画像は、仮想空間内での撮影により取得された撮像画像のみならず、記憶部320や他の端末に既に保存されている各種画像を呼び出して仮想空間内において好きな位置にレイアウトして配置してもよい。
 また、取得する撮像画像は、2D画像(2Dテクスチャ)に限定されず、3D画像(3Dの静止画像や動画像)であってもよい。
 また、コンテンツ視聴制御部301は、仮想空間内に、同コンテンツを同時に視聴している他ユーザのアバターを表示してもよい。また、コンテンツ視聴制御部301は、ユーザの友達(友達登録されている他ユーザ)のアバターの位置を示す情報をユーザに提示してもよい。また、情報処理装置306は、ユーザに共有された撮像画像から、当該撮像画像を撮影した仮想空間内の場所を特定し、特定した撮影場所をユーザに提示することも可能である。
 また、上記実施形態は一例としてVRコンテンツを想定して述べたが、本開示は、AR(Augmented Reality)やMR(Mixed Reality)に適用することも可能である。例えばARの場合、情報処理装置30は、実世界(実空間)に重畳表示される仮想空間の被写体(仮想オブジェクトなど、実世界と融合する仮想世界の情報として表示される画像)を含めて表示範囲の一部を画像として取得し(本明細書では「撮像」とみなす)、撮像画像を写真オブジェクトとして、実空間に重畳表示される仮想空間に配置する。また、表示装置10は、透過型のHMDであってもよいし、スマートフォンやタブレット端末等であってもよい。
 また、情報処理装置30は、上述した各種機能(撮像画像の取得、撮像画像の手動配置、撮像画像の整列配置、撮像画像の共有機等)をそれぞれ課金対象機能としてもよい。
 また、上述した実施形態では、手動配置された撮像画像を整列棚に自動整列する旨を説明したが、本開示はこれに限定されない。配置制御部303は、例えば図3に示すような撮像後に配置された撮像画像を、整列棚に自動整列する制御を行ってもよい。かかる自動整列の制御は、ユーザ操作をトリガとして行われてもよいし、配置された撮像画像が上限枚数に達した際に行われてもよい。
 <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、仮想空間における撮影体験のエンターテインメント性をより高めることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した表示装置10、コントローラ20、または情報処理装置30に内蔵されるCPU、ROM、およびRAM等のハードウェアに、表示装置10、コントローラ20、または情報処理装置30の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を備える、情報処理装置。
(2)
 前記制御部は、予め設定された配置ルールに従って前記撮像画像を前記仮想空間に配置する、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記仮想空間を視聴するユーザの位置に対して予め設定された場所に配置する、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、前記ユーザの視界外に配置する制御を行う、前記(3)に記載の情報処理装置。
(5)
 前記制御部は、前記仮想空間の所定の視聴対象と重なる位置を避けた場所に配置する制御を行う、前記(3)または(4)に記載の情報処理装置。
(6)
 前記制御部は、前記仮想空間を視聴するユーザの視界の一部を撮像する、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)
 前記仮想空間を視聴するユーザの視界は、前記仮想空間が表示される表示部の表示範囲であって、
 前記制御部は、前記表示部の表示範囲の一部を撮像画像として取得する、前記(6)に記載の情報処理装置。
(8)
 前記制御部は、前記撮像トリガを検知した際、前記撮像画像を連続で取得し、各撮像画像の撮影成否判定を行う前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記制御部は、前記連続で取得した撮像画像のうち、撮影成功と判定した撮像画像を前記仮想オブジェクトとして前記仮想空間に配置する、前記(8)に記載の情報処理装置。
(10)
 前記制御部は、前記撮像画像を配置したことをユーザに知らせる通知を行う、前記(1)~(9)のいずれか1項に記載の情報処理装置。
(11)
 前記制御部は、前記撮像画像に、前記撮像画像に関する付随情報を付与する、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)
 前記付随情報は、前記撮像画像に映る前記被写体の情報、または、前記仮想空間で提供されるコンテンツの再生時間軸上における前記撮像を行った時刻の情報、を少なくとも含む、前記(11)に記載の情報処理装置。
(13)
 前記制御部は、少なくとも前記被写体と重なる付加的な仮想オブジェクトを除外した撮像画像を取得する、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記制御部は、前記配置された撮像画像を、ユーザ操作に応じて前記仮想空間において任意の位置および姿勢で再配置する、前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記制御部は、所定の位置に配置された複数の撮像画像を前記仮想空間における別の場所に移動させ整列させる、前記(1)~(14)のいずれか1項に記載の情報処理装置。
(16)
 前記制御部は、前記整列される前の前記複数の撮像画像の配置状態を記憶し、前記別の場所に移動させ整列させた前記複数の撮像画像を前記整列の前の状態に戻す制御を行う、前記(15)に記載の情報処理装置。
(17)
 前記制御部は、前記仮想空間に配置された前記撮像画像を外部に共有する制御を行う、前記(1)~(16)のいずれか1項に記載の情報処理装置。
(18)
 前記制御部は、前記仮想空間が表示される表示部に、前記撮像する範囲を示す表示を行う、前記(1)~(17)のいずれか1項に記載の情報処理装置。
(19)
 プロセッサが、
 仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行うことを含む、情報処理方法。
(20)
 表示装置と、
 コントローラと、
 前記表示装置に表示される仮想空間の被写体を撮像する撮像トリガが前記コントローラにより検知された際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を有する情報処理装置と、
を備える、情報処理システム。
 10 表示装置
 140 表示部
 20 コントローラ
 30 情報処理装置
 300 制御部
 301 コンテンツ視聴制御部
 302 撮像処理部
 303 配置制御部
 304 タグ付け部
 305 共有制御部

Claims (20)

  1.  仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を備える、情報処理装置。
  2.  前記制御部は、予め設定された配置ルールに従って前記撮像画像を前記仮想空間に配置する、請求項1に記載の情報処理装置。
  3.  前記制御部は、前記仮想空間を視聴するユーザの位置に対して予め設定された場所に配置する、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記ユーザの視界外に配置する制御を行う、請求項3に記載の情報処理装置。
  5.  前記制御部は、前記仮想空間の所定の視聴対象と重なる位置を避けた場所に配置する制御を行う、請求項3に記載の情報処理装置。
  6.  前記制御部は、前記仮想空間を視聴するユーザの視界の一部を撮像する、請求項1に記載の情報処理装置。
  7.  前記仮想空間を視聴するユーザの視界は、前記仮想空間が表示される表示部の表示範囲であって、
     前記制御部は、前記表示部の表示範囲の一部を撮像画像として取得する、請求項6に記載の情報処理装置。
  8.  前記制御部は、前記撮像トリガを検知した際、前記撮像画像を連続で取得し、各撮像画像の撮影成否判定を行う請求項1に記載の情報処理装置。
  9.  前記制御部は、前記連続で取得した撮像画像のうち、撮影成功と判定した撮像画像を前記仮想オブジェクトとして前記仮想空間に配置する、請求項8に記載の情報処理装置。
  10.  前記制御部は、前記撮像画像を配置したことをユーザに知らせる通知を行う、請求項1に記載の情報処理装置。
  11.  前記制御部は、前記撮像画像に、前記撮像画像に関する付随情報を付与する、請求項1に記載の情報処理装置。
  12.  前記付随情報は、前記撮像画像に映る前記被写体の情報、または、前記仮想空間で提供されるコンテンツの再生時間軸上における前記撮像を行った時刻の情報、を少なくとも含む、請求項11に記載の情報処理装置。
  13.  前記制御部は、少なくとも前記被写体と重なる付加的な仮想オブジェクトを除外した撮像画像を取得する、請求項1に記載の情報処理装置。
  14.  前記制御部は、前記配置された撮像画像を、ユーザ操作に応じて前記仮想空間において任意の位置および姿勢で再配置する、請求項1に記載の情報処理装置。
  15.  前記制御部は、所定の位置に配置された複数の撮像画像を前記仮想空間における別の場所に移動させ整列させる、請求項1に記載の情報処理装置。
  16.  前記制御部は、前記整列される前の前記複数の撮像画像の配置状態を記憶し、前記別の場所に移動させ整列させた前記複数の撮像画像を前記整列の前の状態に戻す制御を行う、請求項15に記載の情報処理装置。
  17.  前記制御部は、前記仮想空間に配置された前記撮像画像を外部に共有する制御を行う、請求項1に記載の情報処理装置。
  18.  前記制御部は、前記仮想空間が表示される表示部に、前記撮像する範囲を示す表示を行う、請求項1に記載の情報処理装置。
  19.  プロセッサが、
     仮想空間の被写体を撮像する撮像トリガを検知した際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行うことを含む、情報処理方法。
  20.  表示装置と、
     コントローラと、
     前記表示装置に表示される仮想空間の被写体を撮像する撮像トリガが前記コントローラにより検知された際、前記被写体を撮像した撮像画像を生成し、当該生成した撮像画像を仮想オブジェクトとして前記仮想空間に配置する制御を行う制御部を有する情報処理装置と、
    を備える、情報処理システム。
PCT/JP2021/019897 2020-07-13 2021-05-26 情報処理装置、情報処理方法、および情報処理システム WO2022014170A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/014,959 US20230260235A1 (en) 2020-07-13 2021-05-26 Information processing apparatus, information processing method, and information processing system
JP2022536161A JPWO2022014170A1 (ja) 2020-07-13 2021-05-26
CN202180037618.3A CN115668301A (zh) 2020-07-13 2021-05-26 信息处理装置、信息处理方法和信息处理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-119777 2020-07-13
JP2020119777 2020-07-13

Publications (1)

Publication Number Publication Date
WO2022014170A1 true WO2022014170A1 (ja) 2022-01-20

Family

ID=79555166

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019897 WO2022014170A1 (ja) 2020-07-13 2021-05-26 情報処理装置、情報処理方法、および情報処理システム

Country Status (4)

Country Link
US (1) US20230260235A1 (ja)
JP (1) JPWO2022014170A1 (ja)
CN (1) CN115668301A (ja)
WO (1) WO2022014170A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7357415B1 (ja) 2023-02-28 2023-10-06 クラスター株式会社 プログラム、情報処理装置および情報処理方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070821A (ja) * 2002-08-08 2004-03-04 Sega Corp ネットワークシステムの制御方法
JP2005045601A (ja) * 2003-07-23 2005-02-17 Casio Comput Co Ltd 画像撮影装置およびプログラム
JP2008059152A (ja) * 2006-08-30 2008-03-13 Sony Computer Entertainment Inc 画像ビューワ、画像表示方法及びプログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2017228901A (ja) * 2016-06-21 2017-12-28 株式会社メイクソフトウェア 画像処理装置及びコンピュータプログラム
JP2019021122A (ja) * 2017-07-19 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
WO2019067902A1 (en) * 2017-09-29 2019-04-04 Apple Inc. USER INTERACTIONS BASED ON THE LOOK
JP2019139673A (ja) * 2018-02-15 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070821A (ja) * 2002-08-08 2004-03-04 Sega Corp ネットワークシステムの制御方法
JP2005045601A (ja) * 2003-07-23 2005-02-17 Casio Comput Co Ltd 画像撮影装置およびプログラム
JP2008059152A (ja) * 2006-08-30 2008-03-13 Sony Computer Entertainment Inc 画像ビューワ、画像表示方法及びプログラム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2017228901A (ja) * 2016-06-21 2017-12-28 株式会社メイクソフトウェア 画像処理装置及びコンピュータプログラム
JP2019021122A (ja) * 2017-07-19 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
WO2019067902A1 (en) * 2017-09-29 2019-04-04 Apple Inc. USER INTERACTIONS BASED ON THE LOOK
JP2019139673A (ja) * 2018-02-15 2019-08-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法およびコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7357415B1 (ja) 2023-02-28 2023-10-06 クラスター株式会社 プログラム、情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US20230260235A1 (en) 2023-08-17
CN115668301A (zh) 2023-01-31
JPWO2022014170A1 (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
JP6431233B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
EP3096208B1 (en) Image processing for head mounted display devices
JP7498209B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2020138107A1 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
CN107315470B (zh) 图形处理方法、处理器和虚拟现实系统
JP6470356B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN108304063B (zh) 信息处理装置、信息处理方法和计算机可读介质
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
JP2020507221A (ja) Hmdを用いたビデオ会議の改良された方法およびシステム
JP6330089B1 (ja) 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP6807455B2 (ja) 情報処理装置および画像生成方法
US20240114214A1 (en) Video distribution system distributing video that includes message from viewing user
EP3077896A1 (en) Location-based system for sharing augmented reality content
JP2019159501A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
WO2022014170A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP6580624B2 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JPWO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023095862A (ja) プログラム及び情報処理方法
JP2019021324A (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP7341674B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6878346B2 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6498832B1 (ja) 視聴ユーザからのメッセージを含む動画を配信する動画配信システム
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2019012517A (ja) 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842915

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022536161

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21842915

Country of ref document: EP

Kind code of ref document: A1