WO2022030209A1 - 情報処理装置、情報処理方法及び情報処理システム - Google Patents

情報処理装置、情報処理方法及び情報処理システム Download PDF

Info

Publication number
WO2022030209A1
WO2022030209A1 PCT/JP2021/026556 JP2021026556W WO2022030209A1 WO 2022030209 A1 WO2022030209 A1 WO 2022030209A1 JP 2021026556 W JP2021026556 W JP 2021026556W WO 2022030209 A1 WO2022030209 A1 WO 2022030209A1
Authority
WO
WIPO (PCT)
Prior art keywords
remote
information processing
user
viewpoint
information
Prior art date
Application number
PCT/JP2021/026556
Other languages
English (en)
French (fr)
Inventor
郁夫 塚越
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022030209A1 publication Critical patent/WO2022030209A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities

Definitions

  • the image information of the remote place provided to the user is only the still image, and further, since these still images are only the existing images taken in the past, the freshness of the provided information. There was a limit to. For this reason, it has not been possible to provide an experience in which the user moves in a remote location with a live feeling.
  • the information processing apparatus includes a display unit that displays an image to be viewed by the user, and the amount and movement of the user at a remote location away from the user.
  • a remote viewpoint generator that sequentially generates the user's remote viewpoint at a remote location based on the direction, and a large number of sensor points arbitrarily arranged at the remote location are selected based on the remote viewpoint. It is provided with a display control unit that displays a live image taken by the sensor point on the display unit.
  • the information processing apparatus includes a storage unit that stores position information of a large number of sensor points arbitrarily arranged in a remote location, and a remote viewpoint acquisition unit that sequentially acquires a user's remote viewpoint in a remote location. And an information output unit that outputs the position information of a plurality of sensor points close to the acquired remote viewpoint.
  • the information processing system 1 includes an information processing terminal 10 and an information processing server 20 as information processing devices.
  • the information processing terminal 10 and the information processing server 20 are connected to each other so as to be able to communicate with each other via the network 50.
  • the information processing server 20 includes a location information server 30 and a distribution server 40.
  • the information processing server 20 may be configured to include a plurality of each of the location information server 30 and the distribution server 40, or may be configured to integrate the location information server 30 and the distribution server 40.
  • a large number of sensor points SP1 and SP2 ... SPn (n is a natural number) for shooting live video are connected to the information processing server 20 via the network 50. When it is not necessary to distinguish the sensor points, it is simply referred to as a sensor point SP.
  • the information processing terminal 10 is an information processing device carried by the user or installed at the user's location.
  • the information processing terminal 10 preferably includes, for example, a head-mounted display (HMD) having a display unit arranged in front of the user's eyes, an eyeglass (AR glass) type device, or the like.
  • the information processing terminal 10 may include a smartphone, a tablet, a personal computer, or the like, and the display device may include a multi-screen display or a display capable of displaying a wide viewing angle.
  • the sensor point SP is installed at an arbitrary location in a remote location and locally captures a live image of the remote location.
  • the sensor point SP is an image pickup device equipped with a wide-angle camera equipped with an ultra-high-definition image sensor (imaging unit), a microphone, and a GPS (Global Positioning System) positioning unit.
  • the sensor point SP may be newly installed for the information processing system 1, but may include, for example, an existing surveillance camera or a security camera fixedly installed in a store or a roadside.
  • the wide-angle camera of the sensor point SP is preferably provided at a height of, for example, about the height of a human eye.
  • Each sensor point SP transmits each information of the sensor point SP to the position information server 30. Further, the sensor point SP transmits the wide-angle image taken by the camera and the sound from the microphone to the distribution server 40, respectively.
  • the network 50 has a function of connecting the information processing terminal 10, the location information server 30, the distribution server 40, and each sensor point SP.
  • the network 50 may include a public line network such as the Internet, a telephone line network, a satellite communication network, and various LANs (Local Area Network) including Ethernet (registered trademark), WAN (Wide Area Network), and the like. Further, the network 50 may include a dedicated line network such as IP-VPN (Internet Protocol-Virtual Private Network). Further, the network 50 may include Wi-Fi (registered trademark), Bluetooth (registered trademark), or other wireless communication networks.
  • the information processing terminal 10 sequentially generates a remote viewpoint of the user in the remote location based on the virtual position of the user in the remote location and the movement amount and the movement direction of the user. Then, the information processing terminal 10 sequentially switches the live image taken by the sensor point SP selected based on the generated remote viewpoint from among a large number of sensor point SPs arbitrarily installed in a remote location, and the user. To provide to. For this reason, it is possible to perceive the 6DoF effect of being able to see the surroundings of the site live while moving without requiring time and financial movement costs. Therefore, it is possible to realize sightseeing and other remote experience where the user moves in a remote place with a live feeling.
  • FIG. 2 is a functional block diagram showing an example of a functional configuration of an information processing system and a sensor point.
  • FIG. 3 is a functional block diagram showing an example of the functional configuration of the view switching unit and the display view configuration unit of the information processing terminal.
  • the movement amount input unit 100 is not limited to the above-mentioned joystick, and for example, a mouse or another input device may be used.
  • the user's movement amount and movement direction may be input by detecting the face orientation and gesture of the user wearing the HMD with a sensor.
  • the user's voice may be detected through the microphone, and the movement amount and the movement direction may be input by the voice.
  • the remote viewpoint generation unit 102 generates the above-mentioned remote viewpoint based on each information of the sensor point SP transmitted from the position information server 30 and the input movement amount and movement direction of the user.
  • the remote viewpoint indicates the user's virtual position at a remote location, and includes the user's line-of-sight direction (movement direction). A specific example of remote viewpoint generation (setting) will be described later.
  • the unpacket processing unit 106 performs a process of packaging (integrating) video information and audio information divided into packets by each distribution server 40 and distributed based on the header information of each packet.
  • the video decoder 108 decodes the packaged video information.
  • the display view component 110 processes the decoded video information to generate a view (display video) to be displayed on the HMD 112. Specifically, a process of cutting out a part including the target of the user's line of sight from the wide-angle image is performed. Further, the display view configuration unit 110 generates and cuts out a guide image showing the situation displayed after switching the sensor point SP, a user line-of-sight image expressing the user's line-of-sight direction in a plane or three-dimensional manner, and the like. It is displayed by superimposing it on the image.
  • the display control unit 120 is configured by including the view switching unit 104 and the display view configuration unit 110.
  • the HMD 112 is a head-mounted display that is attached to the user's head and has a display (display unit) (not shown) in front of the user's eyes.
  • the HMD 112 displays a live image of the sensor point SP that is sequentially switched by the display control unit 120 according to the position of the remote viewpoint and the like. Therefore, it is possible to provide the user with a live image of a remote place in a state of enhancing the sense of presence, and it is possible to realize a remote place experience in which the user moves with a live feeling.
  • the configuration including the HMD 112 has been described in the present embodiment, other embodiments may be used as long as the configuration includes a display unit capable of displaying an image provided to the user.
  • the audio decoder 114 decodes the packaged audio information.
  • the audio decoder 114 may be provided integrally with the video decoder 108.
  • the object renderer 116 reproduces or renders the decoded audio information data.
  • the speaker 118 converts the reproduced or rendered audio information into sound and outputs it.
  • the speaker 118 may be provided in the HMD 112.
  • the position information server 30 includes a position / attitude wide-angle information acquisition unit 300, a remote viewpoint acquisition unit 302, a position calculation unit 304, a storage unit 306, and an information output unit 308.
  • the position / attitude wide-angle information acquisition unit 300 acquires the position information of the sensor point SP, the attitude information of the camera, and the wide-angle information of the camera transmitted from each sensor point SP, respectively.
  • the remote viewpoint acquisition unit 302 acquires the position information of the remote viewpoint generated by the remote viewpoint generation unit 102 each time.
  • the position calculation unit 304 calculates the distance between the acquired remote viewpoint and the surrounding sensor point SP. In addition, the position calculation unit 304 may calculate the line-of-sight difference angle described above.
  • the storage unit 306 stores the acquired sensor point SP information and the remote viewpoint position information in a database.
  • the information output unit 308 selects one or a plurality of sensor point SPs close to the remote viewpoint as candidates based on the distance to the remote viewpoint calculated by the position calculation unit 304, and each of the sensor point SPs.
  • the information is output to the information processing terminal 10.
  • the location information server 30 may appropriately encrypt the location information, the posture / wide-angle information, and the selection determination information to be distributed.
  • the distribution server 40 is provided with units corresponding to the sensor point SP, and each unit includes a packet processing unit 400, a video encoder 402, a wide-angle video packing 404, an audio encoder 406, and an object meta generation 408, respectively.
  • the sensor point SP includes a GPS positioning unit 60, an image sensor (imaging unit) 62, a microphone 64, and a storage unit 66.
  • the GPS positioning unit 60 receives, for example, a GPS signal and positions the sensor point SP.
  • the GPS positioning unit 60 acquires the position information (position coordinate information) of the sensor point on the earth by positioning.
  • the image sensor 62 constitutes a camera together with a lens, and is, for example, an image pickup element that converts light entering through the lens into an electric signal.
  • the location information server 30 uses the input address. And the location information are associated with each other, and each information of a plurality of sensor points SP in the vicinity of this address is transmitted to the information processing terminal 10 (preliminary step S4).
  • the location information server 30 acquires the location information of the generated remote viewpoint RP, the location information server 30 shares this location information in the database. Then, the position information server 30 transmits the sensor point SP group in the vicinity of the remote viewpoint RP to the information processing terminal 10 (step S12).
  • the information processing terminal 10 requests the distribution server 40 to distribute the live video captured by the selected sensor point SP (step S15).
  • the remote viewpoint indicates a virtual position when the user moves to a remote location, and is a criterion for selecting the sensor point SP. Therefore, in order to provide the experience of the user moving to a remote place with a live feeling, it is necessary to accurately set the position of the remote viewpoint.
  • the remote viewpoint is defined as a vector intersection of view angles (shooting directions) of a plurality of surrounding sensor points SP. These view angles are determined by the user's operation from the range of the wide-angle image captured by each sensor point SP.
  • the location information server 30 transmits each information of the sensor point SP defined in the database 306A to the information processing terminal 10 as a list sorted in order of proximity to the input point, and a plurality of information processing terminals 10 from the list are transmitted. Sensor points SP1 to SP3 may be selected.
  • the information processing terminal 10 calculates the position information of the remote viewpoint RP1. Specifically, the remote viewpoint generation unit 102 calculates the distances AB, BC, and CA between the sensor points using the mathematical formula 1 from the acquired position information of the three sensor points SP1 to SP3, respectively.
  • the remote viewpoint generation unit 102 obtains the direction vectors of the straight lines lA to lC passing through the sensor points SP1 to SP3 from the posture information of the cameras at the sensor points SP1 to SP3, and the elevation angle of the sensor points SP1 to SP3. Find ⁇ A to ⁇ C. These elevation angles ⁇ A to ⁇ C are angles calculated and determined from the camera posture information when the above view angle is selected.
  • the remote viewpoint generation unit 102 obtains ⁇ BAP and ⁇ ABP in the ABC plane from the calculated distances AB, BC, CA and elevation angles ⁇ A to ⁇ C.
  • the position information (coordinate position) of the point P (RP1) can be calculated by the relative offset from the position information of each sensor point SP1 to SP3.
  • the calculated position information of the remote viewpoint RP1 is transmitted to the position information server 30.
  • the remote viewpoint acquisition unit 302 of the position information server 30 acquires the position information of the remote viewpoint RP1, and this position information is stored in the database 306B of the storage unit 306 shown in FIG. 7.
  • the remote viewpoint generation unit 102 updates to the new remote viewpoint RP2 based on the input movement amount and the movement direction.
  • the minimum resolution unit for example, n meters (n includes a decimal number)
  • the remote viewpoint generation unit 102 indicates how many units the input movement amount is in the minimum resolution unit.
  • the actual size of the movement amount and the movement direction can be converted by indicating whether or not the movement direction was, and by indicating the input movement direction in any direction of the 360-degree direction.
  • the sensor point SP1 and the sensor point SP2 are listed as candidates.
  • the angle ⁇ (SP2, av3, RP) connecting the sensor point SP2 is the angle ⁇ (SP1, 1, RP) connecting the sensor point SP1, the target av3 and the remote viewpoint RP. It is smaller than av3, RP). Therefore, as shown in FIG. 9, the sensor point SP2 is selected, and the display control unit 120 causes the HMD 112 to display the view of the selected sensor point SP2.
  • the same selection operation as described above is performed for the sensor point SP2 and the sensor point SP3, the sensor point SP3 and the sensor point SP4, and the sensor point SP4 and the sensor point SP1, but the description thereof will be omitted.
  • the sensor point SP having the smallest line-of-sight difference angle with respect to the remote viewpoint RP is selected, so that an extreme mismatch between the line-of-sight direction in the remote viewpoint RP and the view direction of the sensor point SP is reduced. be able to. Therefore, the view of the sensor point SP close to the line of sight from the remote viewpoint RP can be displayed on the HMD 112, and the live feeling experienced by the user can be enhanced.
  • the view of the sensor point SP displayed on the HMD 112 is switched depending on the selected sensor point SP. Therefore, in order to reduce the discomfort that occurs in the angle of the view from the viewpoint position of the remote viewpoint RP, the switching operation between the sensor point SPs is devised. That is, when the line-of-sight angle calculation unit 132 of the view switching unit 104 rotates clockwise and looks around at the remote viewpoint RP, for example, the line-of-sight angle calculation unit 132 of each sensor point with respect to the moving line-of-sight destination (target). The line-of-sight difference angle is calculated, and the switching determination unit 134 executes view switching depending on the size of the line-of-sight difference angle. Specifically, in FIG.
  • the line-of-sight difference angle calculation unit 132 has an angle ⁇ (SP1, av1, RP). And the angle ⁇ (SP2, av1, RP) are calculated, and the view of the sensor point SP displayed on the HMD 112 is switched from the sensor point SP1 to the sensor point SP2 under the condition that these angles match (target av2e). ing.
  • the same selection operation as described above is performed for the sensor point SP2 and the sensor point SP3, the sensor point SP3 and the sensor point SP4, and the sensor point SP4 and the sensor point SP1, but the description thereof will be omitted.
  • the sensor point SP when looking around the remote viewpoint RP, the sensor point SP is switched under the condition that the line-of-sight difference angle matches the remote viewpoint RP. Therefore, as shown in FIG. 10, when the sensor point SP1 is switched to the sensor point SP2, the view 70-2 of the sensor point SP1 including the same target and the view 71-1 of the sensor point SP2 feel uncomfortable. Can be reduced. Similarly, when the sensor point SP2 is switched to the sensor point SP3, it is possible to reduce the discomfort between the view 71-2 of the sensor point SP2 including the same target and the view 72-1 of the sensor point SP3.
  • the sensor point SP3 when the sensor point SP3 is switched to the sensor point SP4, it is possible to reduce the discomfort between the view 72-2 of the sensor point SP3 including the same target and the view 73-1 of the sensor point SP4. Further, when the sensor point SP4 is switched to the sensor point SP1, the discomfort between the view 73-2 of the sensor point SP4 including the same target and the view 70-1 of the sensor point SP1 can be reduced.
  • FIG. 11 is a schematic diagram illustrating a view display process.
  • the display view component 110 of the information processing terminal 10 cuts out a part of the area including the target of the user's line of sight from the wide-angle image captured by each sensor point SP.
  • the display on the HMD 112 is controlled. In this case, the viewing angle of the image at the remote viewpoint RP becomes smaller in proportion to the distance from the sensor point SP with respect to the viewing angle of the image captured at the position of each sensor point SP.
  • the display view configuration unit 110 performs a flattening conversion process on the wide-angle image 75 (decoded image) captured by the sensor point SP to generate a flattened image 76. Then, after correcting the inclination of the flattened image 76, a cutout image 77 is generated by cutting out a predetermined region (part) including the target of the line of sight.
  • the cut-out image 77 includes the same target at each sensor point SP, it is preferable to cut out the target so that the target has the same size. According to this configuration, it is possible to reduce the discomfort of the user when switching the views, and it is possible to enhance the live feeling experienced by the user.
  • the display view configuration unit 110 generates, for example, a sensor capture-class super-resolution image 78 by performing super-resolution processing on the cut-out image 77 whose resolution has been lowered by cutting. Since the super-resolution image 78 is displayed on the HMD 112, the live feeling of the user can be enhanced.
  • the sensor point SP having the smallest line-of-sight difference angle is selected, so that the shooting angle of the view displayed on the HMD 112 changes.
  • the view of the sensor point SP displayed on the HMD 112 can be switched under the condition that the line-of-sight difference angles match (target av2e), and the user's discomfort can be reduced. can.
  • the sensor point SP is an existing one, it is fully assumed that the shooting direction changes significantly before and after the switching of the sensor point SP. In this case, if the sensor point SP is suddenly switched due to the movement in the line-of-sight direction of the user, there is a problem that the user feels uncomfortable.
  • the guide image is not displayed in the view 81B in which the sensor point SP is not switched.
  • the guide images 82A and 82C showing the display contents after the switching are superimposed and displayed on the views 81A and 81C before the switching, respectively, so that the user can display in advance.
  • the switching of the sensor point SP can be recognized. Therefore, it is possible to reduce the user's discomfort when the sensor point SP is switched.
  • the superimposition of the guide images 82A and 82C may be performed before and after the switching of the sensor point SP for a certain period of time.
  • the line-of-sight direction image 90 which flatly expresses that the line-of-sight direction and the shooting direction substantially match, is superimposed and displayed on the image displaying the target V1.
  • the photographing direction 90A and the line-of-sight direction 90B are represented by overlapping in a dot shape.
  • a line-of-sight direction image expressing this line-of-sight difference angle is superimposed and displayed on the image.
  • the line-of-sight difference angle indicating the difference between the line-of-sight direction and the camera shooting direction can be expressed as a horizontal angle A1x and a vertical angle A1y, respectively. Therefore, in the present embodiment, the line-of-sight direction image 94 has a rectangular bottom surface 94C assumed to be flush with the displayed image, and a shooting direction 94A extending one corner of the rectangle perpendicularly to the bottom surface. It has a line-of-sight direction 94B indicated by an arrow that intersects the direction 94A at a predetermined line-of-sight difference angle.
  • FIG. 17 is a flowchart showing an operation procedure of the information processing system according to the modified example.
  • FIG. 18 is a diagram showing a database that stores the position information of the remote viewpoint and the line-of-sight direction of the position information server.
  • the information processing system 1 is configured to include one position information server 30 and one distribution server 40, respectively, but in this modification, two each, that is, the first position information server 30A.
  • the configuration includes a second location information server 30B, a first distribution server 40A, and a second distribution server 40B.
  • the first location information server 30A and the second location information server 30B have the same configuration as the above-mentioned location information server 30, and the first distribution server 40A and the second distribution server 40B have the same configuration as the above-mentioned distribution server 40.
  • the first location information server 30A and the first distribution server 40A are in charge of the area where the sensor points SP1 to SPP are installed, and the second location information server 30B and the second distribution server 40B are the sensor points installed in different areas. It shall be in charge of SPQ to SPZ. It should be noted that these areas in charge (sensor points) may overlap to some extent.
  • the information processing terminal 10 is configured to select the sensor point SP having the smallest line-of-sight difference angle according to the position of the remote viewpoint RP. It may be executed by the second position information server 30B. In this case, the sensor point SP may be selected by the position calculation unit 304.
  • the sensor point SP is the first position information server 30A or the second position information server which is in charge of the position information of its own sensor point, the attitude information of the camera, and the wide angle information of the camera, respectively. It is transmitted to 30B (preliminary steps S1A, S1B). These transmitted information are acquired by the position / attitude wide-angle information acquisition unit 300 of the first position information server 30A and the second position information server 30B, and are stored in the storage unit 306 as a database for each sensor point. Further, the sensor point SP constantly transmits the captured video and audio to the first distribution server 40A or the second distribution server 40B, respectively, and streams the video and audio in response to the request of the information processing terminal 10. (Preliminary steps S2A, S2B).
  • the first location information server 30A is input.
  • the address is associated with the location information, and each information of a plurality of sensor points SP in the vicinity of this address is transmitted to the information processing terminal 10 (preliminary step S4).
  • the information processing terminal 10 determines the user's viewpoint position (virtual position) and inputs it (step S21).
  • This viewpoint position is the starting point of movement and can be arbitrarily set by the user.
  • the information processing terminal 10 generates a remote viewpoint RP from the position information of a plurality of nearby sensor point SPs, and transfers the position information of the remote viewpoint RP to the first position information server 30A and the second position information server 30B. Send each.
  • the position information server for example, the first position information server 30A
  • the position information server 30A acquires the position information and the line-of-sight direction of the generated remote viewpoint RP
  • the position information and the line-of-sight direction are shared in the database.
  • the database 306B1 stores the line-of-sight direction in the remote viewpoint RP by the pitch, azimuth, and roll in the three-dimensional space.
  • the first location information server 30A transmits the sensor point SP group in the vicinity of the remote viewpoint RP to the information processing terminal 10 (step S23).
  • the information processing terminal 10 updates the remote viewpoint RP based on the movement amount and the movement direction of the user as the virtual position of the user moves, and first obtains the position information and the line-of-sight direction of the updated remote viewpoint RP. It is transmitted to the position information server 30A (step S24).
  • the first position information server 30A selects the sensor point SP based on the position information of the remote viewpoint RP and the line-of-sight direction.
  • the first position information server 30A has an angle difference (line-of-sight difference angle) between the user's line-of-sight direction in the remote viewpoint RP and the view direction (shooting direction) of each sensor point extending toward the target of this line-of-sight. ) Is the smallest sensor point SP (step S25). The selected sensor point SP is transmitted to the information processing terminal 10.
  • step S28 when the position of the new remote viewpoint RP moves to the area in charge of the second position information server 30B, another position information server (for example, the second position information server) in charge of the area in which the remote viewpoint RP exists It connects to 30B) and transmits the position information of the remote viewpoint RP and the line-of-sight direction (step S28).
  • the second position information server 30B acquires the position information and the line-of-sight direction of the generated remote viewpoint RP, the position information and the line-of-sight direction are shared by the database 306B1 (FIG. 18).
  • the second location information server 30B transmits the sensor point SP group in the vicinity of the remote viewpoint RP to the information processing terminal 10 (step S29).
  • the information processing terminal 10 updates the remote viewpoint RP based on the movement amount and the movement direction of the user as the virtual position of the user moves, and the updated position information of the remote viewpoint RP and the line-of-sight direction are seconded. It is transmitted to the location information server 30B (step S30).
  • the second position information server 30B selects the sensor point SP based on the position information of the remote viewpoint RP and the line-of-sight direction.
  • the second position information server 30B has an angle difference (line-of-sight difference angle) between the user's line-of-sight direction in the remote viewpoint RP and the view direction (shooting direction) of each sensor point extending toward the target of this line-of-sight. ) Is the smallest sensor point SP (step S31). The selected sensor point SP is transmitted to the information processing terminal 10.
  • the information processing terminal 10 requests the second distribution server 40A in charge of the selected sensor point SP to distribute the live video captured by the sensor point SP (step S32).
  • the second distribution server 40B distributes the live video captured by the requested sensor point SP to the information processing terminal 10 (step S33). After that, the processes of steps S28 to S33 are repeatedly executed until the position of the new remote viewpoint RP moves to the area in charge of another position information server.
  • FIG. 19 is a block diagram showing a hardware configuration example of the information processing terminal, the location information server, and the distribution server according to the present disclosure.
  • the information processing terminal 10, the location information server 30, and the distribution server 40 according to the present disclosure include, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, and an external bus 876. It has an interface 877, an input device 878, an output device 879, a storage 880, a drive 881, a connection port 882, and a communication device 883.
  • the hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.
  • the CPU 871 functions as, for example, an arithmetic processing device or a control device, and controls all or a part of the operation of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901.
  • the ROM 872 is a means for storing programs read into the CPU 871 and data used for operations.
  • a program read into the CPU 871 and various parameters that are appropriately changed when the program is executed are temporarily or permanently stored.
  • the CPU 871, ROM 872, and RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission.
  • the host bus 874 is connected to the external bus 876, which has a relatively low data transmission speed, via, for example, the bridge 875.
  • the external bus 876 is connected to various components via the interface 877.
  • the input device 878 for example, a mouse, a keyboard, a touch panel, buttons, switches, levers, and the like are used. Further, as the input device 878, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used. Further, the input device 878 includes a voice input device such as a microphone.
  • the output device 879 uses acquired information such as a display device such as an HMD, CRT (Cathode Ray Tube), LCD, or organic EL, an audio output device such as a speaker or headphones, a printer, a mobile phone, or a facsimile. It is a device capable of visually or audibly notifying the user.
  • a display device such as an HMD, CRT (Cathode Ray Tube), LCD, or organic EL
  • an audio output device such as a speaker or headphones
  • printer a printer
  • a mobile phone or a facsimile. It is a device capable of visually or audibly notifying the user.
  • the drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901.
  • a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory
  • the removable recording medium 901 is, for example, a DVD media, a Blu-ray (registered trademark) media, an HD DVD media, various semiconductor storage media, and the like.
  • the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.
  • connection port 882 may be an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, an Ethernet (registered trademark), a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. It is a port for connecting.
  • the externally connected device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like.
  • the communication device 883 is a communication device for connecting to a network, and is, for example, a communication card for wired or wireless LAN, Bluetooth, or WUSB (Wireless USB), a router for optical communication, and an ADSL (Asymmetric Digital Subscriber Line). Router, modem for various communication, etc.
  • the information processing terminal 10 is in a remote location based on the HMD 112 displaying the image to be viewed by the user and the movement amount and movement direction of the user in the remote location away from the user.
  • the remote viewpoint generation unit 102 that sequentially generates the user's remote viewpoint RP, and the sensor point SP selected based on the remote viewpoint RP from a large number of sensor point SPs arbitrarily arranged at remote locations are selected.
  • a display control unit 120 for displaying the captured live image on the HMD 112 is provided. For this reason, it is possible to perceive the 6DoF effect of being able to see the surroundings of the site live while moving without requiring time and financial movement costs. Therefore, it is possible to realize a remote location experience in which the user moves in a remote location with a live feeling.
  • each step related to the processing of the information processing terminal 10, the location information server 30, the distribution server 40, and the sensor point SP in the present specification does not necessarily have to be processed in chronological order in the order described in the flowchart.
  • each step related to the processing of the information processing terminal 10, the location information server 30, the distribution server 40, and the sensor point SP may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
  • a display unit that displays the video that the user is watching, and A remote viewpoint generator that sequentially generates remote viewpoints of the user at the remote location based on the amount and direction of movement of the user at a remote location away from the user.
  • a display control unit that displays a live image taken by a sensor point selected based on the remote viewpoint from a large number of sensor points arbitrarily arranged in the remote location on the display unit.
  • Information processing device equipped with (2) The information processing device according to (1) above, wherein the display control unit displays the live image of the sensor point having a shooting direction having a small angle difference from the line-of-sight direction of the user at the remote viewpoint.
  • a storage unit that stores the position information of a large number of sensor points arbitrarily placed in remote areas
  • a remote viewpoint acquisition unit that sequentially acquires a user's remote viewpoint in the remote location
  • An information output unit that outputs the position information of a plurality of the sensor points that are close to the acquired remote viewpoint
  • Information processing device equipped with (8) The information processing device according to (7), wherein the information output unit includes the sensor points having the smallest angle difference from the user's line-of-sight direction at the remote viewpoint to the plurality of sensor points.
  • the storage unit stores the acquired position information of the remote viewpoint.
  • the information processing apparatus according to any one of (7) to (9), further comprising a video information distribution unit that distributes video information captured by the sensor point.
  • the processor A step of sequentially generating a remote viewpoint of the user at the remote location based on the amount and direction of movement of the user at a remote location away from the user.
  • Information processing method (12) It has an information processing terminal and an information processing server.
  • the information processing terminal has a display unit that displays an image to be viewed by a user, and a display unit.
  • a remote viewpoint generator that associates the current position of the user with a virtual position in a remote location and sequentially generates a remote viewpoint of the user in the remote location based on the movement amount and the movement direction of the user.
  • a display control unit that displays a live image taken by a sensor point selected based on the remote viewpoint on the display unit from a large number of sensor points arbitrarily arranged in the remote location including the image pickup unit. Equipped with The information processing server is A storage unit that stores the position information of the sensor point and The remote viewpoint acquisition unit that acquires the remote viewpoint, and An information output unit that outputs the acquired position information of a plurality of sensor points close to the remote viewpoint to the information processing terminal, and Information processing system equipped with.
  • Information processing system 10 Information processing terminal 20 Information processing server 30 Location information server 30A 1st location information server 30B 2nd location information server 40 Distribution server 40A 1st distribution server 40B 2nd distribution server 102 Remote viewpoint generator 104 View switching Unit 110 Display view configuration unit 112 HMD (display unit) 120 Display control unit 302 Remote viewpoint acquisition unit 304 Position calculation unit 306 Storage unit 308 Information output unit RP Remote viewpoint SP Sensor point

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

情報処理端末10は、ユーザが視聴する映像を表示するHMD112と、ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部102と、遠隔地に任意に配置された多数のセンサポイントSPの中から、リモートビューポイントに基づいて選択されたセンサポイントSPが撮影したライブ映像をHMD112に表示させる表示制御部120と、を備える。

Description

情報処理装置、情報処理方法及び情報処理システム
 本開示は、情報処理装置、情報処理方法及び情報処理システムに関し、特に、移動に追従して遠隔地の画像を切換えて提供する情報処理装置、情報処理方法及び情報処理システムに関する。
 近年、離れた場所同士を映像や音声などの情報チャンネルによって接続し、これらの場所がつながっているような臨場感を与える、いわゆるテレプレゼンス(テレイグジスタンスともいう)という技術が開発されている。この種のテレプレゼンスを実現するため、遠隔地におけるユーザの仮想位置を遠隔操作により自在に移動させることが必要となる。従来、仮想現実(VR;virtual reality)にマッピングされた静止画像上で操作することで、この静止画像を切換えて視覚環境を得る技術が提案されている(例えば、特許文献1参照)。
特表2010-531007号公報
 しかし、従来の技術では、ユーザに提供される遠隔地の画像情報は静止画のみであり、さらには、これらの静止画は過去に撮影された既存画像のみであるため、提供される情報の鮮度に制限があった。このため、遠隔地をユーザがライブ感をもって移動する体験を提供することはできなかった。
 本開示は、上記に鑑みてなされたものであって、遠隔地をユーザがライブ感をもって移動する体験を可能とする情報処理装置、情報処理方法及び情報処理システムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本開示に係る情報処理装置は、ユーザが視聴する映像を表示する表示部と、ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、遠隔地に任意に配置された多数のセンサポイントの中から、リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を表示部に表示させる表示制御部と、を備える。
 また、本開示に係る情報処理装置は、遠隔地に任意に配置された多数のセンサポイントの位置情報を記憶する記憶部と、遠隔地におけるユーザのリモートビューポイントを順次取得するリモートビューポイント取得部と、取得したリモートビューポイントに近接した複数のセンサポイントの位置情報を出力する情報出力部と、を備える。
 また、本開示に係る情報処理方法は、プロセッサが、ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、遠隔地における該ユーザのリモートビューポイントを順次生成するステップと、遠隔地に任意に配置された多数のセンサポイントの中から、リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を表示部に表示させるステップと、を備える。
 また、本開示に係る情報処理システムは、情報処理端末と情報処理サーバとを有し、情報処理端末は、ユーザが視聴する映像を表示する表示部と、ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、遠隔地に任意に配置された多数のセンサポイントの中から、リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を表示部に表示させる表示制御部と、を備え、情報処理サーバは、センサポイントの位置情報を記憶する記憶部と、リモートビューポイントを取得するリモートビューポイント取得部と、取得したリモートビューポイントに近接した複数のセンサポイントの位置情報を情報処理端末に出力する情報出力部と、を備える。
本開示の一実施形態に係る情報処理装置を有する情報処理システムの構成を示す説明図である。 情報処理システムとセンサポイントとの機能構成の一例を示す機能ブロック図である。 報処理端末のビュー切換え部と表示ビュー構成部との機能構成の一例を示す機能ブロック図である。 情報処理システムの動作手順を示すフローチャートである。 位置情報サーバが有するセンサポイントの各情報を記憶したデータベースを示す図である。 リモートビューポイントを設定する動作を説明するための図である。 位置情報サーバが有するリモートビューポイントの位置情報を記憶したデータベースを示す図である。 リモートビューポイントの周囲に配置されたセンサポイントの選択を説明する図である。 ターゲットに対するセンサポイントとリモートビューポイントとの視線差角度の状況と、選択されるセンサポイントのビューとの関係を示す図である。 周囲を見回した場合に切換えられるセンサポイントのビューの具体例を示す図である。 ビューの表示処理を説明する模式図である。 センサポイントが撮影した広角映像と、この広角画像から切り出された各種のビューとを示す図である。 ユーザの視線方向と撮影方向との視線差角度を示す図である。 平面表現した視線方向画像を表示ビューに重畳した例を示す図である。 立体表現した視線方向画像を説明するための図である。 図12のビューに立体表現された視線方向画像を重畳した具体例を示す図である。 変形例に係る情報処理システムの動作手順を示すフローチャートである。 位置情報サーバが有するリモートビューポイントの位置情報と視線方向とを記憶したデータベースを示す図である。 本開示に係る情報処理端末、位置情報サーバおよび配信サーバのハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の概要
 2.本実施形態
 2.1.情報処理システム1の機能構成例
 2.2.センサポイントSPの機能構成例
 2.3.情報処理システム1の動作
 3.情報処理システム1の動作の具体例
 3.1.リモートビューポイント設定の具体例
 3.2.センサポイント選択の具体例
 3.3.ビュー表示処理の具体例
 3.4.ビュー切換え時のガイド画像表示の具体例
 3.5.ユーザの視線方向画像表示の具体例
 4.情報処理システムの変形例
 5.ハードウェア構成例
 6.まとめ
<1.本開示の概要>
 まず、図面を参照しながら本開示の一実施形態の概要を説明する。図1は、本開示の一実施形態に係る情報処理装置を有する情報処理システムの構成を示す説明図である。本開示の一実施形態に係る情報処理システムは、ユーザの移動や視線の変化に追従して、遠隔地で撮影されたライブ映像(音声を含む)を動的に切換えてユーザに提供することで、遠隔地体験を可能とする、ライブタウンビューイングシステムである。ここで、遠隔地体験とは、遠隔地での周囲確認や自己存在体験、観光などのエンタテイメント体験を含む。また、遠隔地とは、ユーザの所在地とは異なる場所を示し、日本国内及び国外の任意の場所を含む。
 図1に示すように、情報処理システム1は、情報処理装置としての情報処理端末10及び情報処理サーバ20を備える。これら情報処理端末10及び情報処理サーバ20は、それぞれネットワーク50を介して相互に通信可能に接続されている。情報処理サーバ20は、位置情報サーバ30と配信サーバ40とを備えて構成されている。情報処理サーバ20は、これら位置情報サーバ30と配信サーバ40とをそれぞれ複数台備えた構成としてもよいし、位置情報サーバ30と配信サーバ40とを一体とした構成としてもよい。また、情報処理サーバ20には、ネットワーク50を介して、ライブ映像を撮影するための多数のセンサポイントSP1、SP2・・SPn(nは自然数)が接続されている。なお、センサポイントに関して区別する必要がない場合には単にセンサポイントSPという。
 情報処理端末10は、ユーザに携帯され、もしくはユーザの所在地に設置される情報処理装置である。情報処理端末10は、例えば、ユーザの眼前に配置される表示部を有するヘッドマウントディスプレイ(HMD)や眼鏡(ARグラス)型デバイス等を含むことが好ましい。また、情報処理端末10には、スマートフォン、タブレット、またはパーソナルコンピュータなどを含んでもよいし、表示デバイスには多画面ディスプレイあるいは広視野角表示可能なディスプレイを含むようにしてもよい。
 情報処理端末10は、遠隔地におけるユーザの仮想位置を示すリモートビューポイントを設定(生成)する。このリモートビューポイントは、例えば、選択された複数(3以上)のセンサポイントSPのビューアングル(撮影方向)のベクトル交点として定義される。リモートビューポイントは、先の位置からのユーザの移動量や移動方向に基づいて随時更新される。また、情報処理端末10は、ユーザが視聴可能な表示部を有し、リモートビューポイントの変化に追従してセンサポイントSPが撮影したライブ映像を動的に切換えて表示部に表示する。更新されたリモートビューポイントの位置情報は、更新の都度、位置情報サーバ30に送信されて、位置情報サーバ30で管理(共有)される。
 位置情報サーバ30は、多数のセンサポイントSPの位置情報、カメラの姿勢情報、及びカメラの広角情報をそれぞれ取得して管理する。センサポイントSPの位置情報は、GPS(Global Positioning System)を用いてそれぞれ測位されたセンサポイントSPの設置位置に関する情報である。カメラの姿勢情報は、各センサポイントSPが備えるカメラの軸方向(ピッチ、アジマス、ロール)に関する情報である。また、カメラの広角情報は、該カメラの撮影範囲に関する情報である。なお、センサポイントSPの位置情報、カメラの姿勢情報、及びカメラの広角情報を特定する必要がない場合には、単にセンサポイントSPの各情報という。
 位置情報サーバ30は、上記した遠隔地体験の初期位置として任意の住所が入力されると、入力された住所と位置情報との関連付けを行い、この住所に対する近隣の複数のセンサポイントSPの各情報を情報処理端末10に送信する。また、位置情報サーバ30は、ユーザの移動などに追従して該ユーザのリモートビューポイントが更新された場合、情報処理端末10から更新されたリモートビューポイントの位置情報を順次取得して管理する。また、位置情報サーバ30は、リモートビューポイントの移動(更新)に伴い、新たなリモートビューポイントに対して近隣の複数のセンサポイントSPの各情報を情報処理端末10に送信する。なお、位置情報サーバ30は、ネットワーク遅延を最小にするために情報処理端末10に近いエッジサーバで機能する前提としてもよい。
 配信サーバ40は、多数のセンサポイントSPが撮影したライブ映像(音声情報を含む)を常時受信する。配信サーバ40は、情報処理端末10からのリクエストに応じて、対象範囲(リモートビューポイントの近隣範囲)にあるセンサポイントSPのライブ映像を情報処理端末10に対してストリーミング配信(他の情報端末に対しても同様に同報性を有するマルチキャスト配信)する。この配信サーバ40は、センサポイントSPが撮影した映像情報を配信する映像情報配信部として機能する。
 センサポイントSPは、遠隔地の任意の箇所にそれぞれ設置されて該遠隔地のライブ映像を局地的に撮影する。センサポイントSPは、それぞれ超高精細のイメージセンサ(撮像部)を搭載した広角カメラとマイクとGPS(Global Positioning System)測位部とを備えた撮像装置である。センサポイントSPは、情報処理システム1のために新たに設置してもよいが、例えば店舗や道路脇に固定設置された既存の監視カメラや防犯カメラを含んでもよい。センサポイントSPの広角カメラは、例えば、人間の目線高さ程度の高さ位置に設けられることが好ましい。センサポイントSPは、それぞれ該センサポイントSPの各情報を位置情報サーバ30へ送信する。また、センサポイントSPは、それぞれカメラで撮影した広角映像とマイクからの音声を配信サーバ40へ送信する。
 ネットワーク50は、情報処理端末10、位置情報サーバ30、配信サーバ40、及び各センサポイントSPを接続する機能を有する。ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク50は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク50は、Wi-Fi(登録商標)、Bluetooth(登録商標)など、あるいはその他の無線通信網を含んでもよい。
 本開示では、情報処理端末10は、遠隔地におけるユーザの仮想位置と、該ユーザの移動量及び移動方向とに基づいて、遠隔地における該ユーザのリモートビューポイントを順次生成する。そして、情報処理端末10は、遠隔地に任意に設置された多数のセンサポイントSPの中から、生成されたリモートビューポイントに基づいて選択されたセンサポイントSPが撮影したライブ映像を順次切換えてユーザに提供する。このため、時間的・金銭的な移動コストを要することなく、移動しながら現地の周囲の様子をライブで見渡せるといった6DoF効果を知覚することができる。従って、遠隔地をユーザがライブ感をもって移動する観光、その他の遠隔地体験を実現することができる。
<2.本実施形態>
<2.1.情報処理システム1の機能構成例>
 次に、本実施形態に係る情報処理システム1の機能構成例について説明する。図2は、情報処理システムとセンサポイントとの機能構成の一例を示す機能ブロック図である。また、図3は、情報処理端末のビュー切換え部と表示ビュー構成部との機能構成の一例を示す機能ブロック図である。
 情報処理システム1の情報処理端末10は、図2に示すように、移動量入力部100、リモートビューポイント生成部102、ビュー切換え部104、アンパケット処理部106、ビデオデコーダ108、表示ビュー構成部110、HMD(表示部)112、オーディオデコーダ114、オブジェクトレンダラ116、及びスピーカ118を備える。
 移動量入力部100は、遠隔地におけるユーザの移動量及び移動方向を入力する。具体的には、ジョイスティックのような操縦桿形状を有する入力装置を用いることができる。移動量入力部100は、例えば、スティックの傾ける方向や傾ける量によって、ユーザの移動量や移動方向を異ならせることができる。本実施形態では、ユーザが移動する際の移動方向と視線方向とは同一である。また、ユーザが停止した状態で、その場で回転操作がなされた場合には、ユーザの視線方向は入力操作された回転量(角度)だけ回転したものとする。
 また、移動量入力部100は、上記したジョイスティックに限るものではなく、例えば、マウスや他の入力装置を用いてもよい。また、HMDを装着したユーザの顔の向きやジェスチャをセンサで検知することにより、ユーザの移動量及び移動方向を入力する構成としてもよい。また、マイクを通じて、ユーザの音声を検知し、この音声によって移動量及び移動方向を入力する構成としてもよい。
 リモートビューポイント生成部102は、位置情報サーバ30から送信されたセンサポイントSPの各情報と、入力されたユーザの移動量及び移動方向に基づいて、上記したリモートビューポイントを生成する。リモートビューポイントは、遠隔地におけるユーザの仮想位置を示し、ユーザの視線方向(移動方向)を含むものとする。リモートビューポイント生成(設定)の具体例については後述する。
 ビュー切換え部104は、生成されたリモートビューポイントの位置、および、リモートビューポイントでのユーザの視線方向に基づいて、近隣のセンサポイントSPの中から最適のセンサポイントSPを選択して決定する。また、ビュー切換え部104は、配信サーバ40に所定のセンサポイントSPのライブ映像の配信をリクエストする。具体的には、ビュー切換え部104は、図3に示すように、視線差角度算出部132と切換え判断部134とを備える。視線差角度算出部132は、リモートビューポイントにおけるユーザの視線方向と、この視線のターゲットに向けて延びる各センサポイントSPの撮影方向との角度差(視線差角度)を算出する。切換え判断部134は、算出された角度差がより小さいセンサポイントSPを選択し、このセンサポイントSPに切換える判断をする。また、切換え判断部134は、セレクタ136に対して、ストリーミング受信している複数のセンサポイントSPの中から選択されたセンサポイントSPへの切換えを実行する。このセレクタ136は、図2に記載はないが、例えば、ビデオデコーダ108とアンパケット処理部106との間に設けることができる。
 アンパケット処理部106は、各配信サーバ40にてパケットに分割されて配信された映像情報及び音声情報を、各パケットのヘッダ情報に基づいてパッケージ化(一体化)する処理を行う。ビデオデコーダ108は、パッケージ化された映像情報の復号化(デコード)を行う。
 表示ビュー構成部110は、復号化された映像情報に処理を施し、HMD112に表示されるビュー(表示映像)を生成する。具体的には、広角映像からユーザの視線のターゲットを含む一部を切り出す処理を行う。また、表示ビュー構成部110は、センサポイントSPを切換えた後に表示される状況を示すガイド画像や、ユーザの視線方向を平面的または立体的に表現したユーザ視線画像などを生成し、これらを切り出された映像に重畳して表示する。本実施形態では、ビュー切換え部104と表示ビュー構成部110とを備えて表示制御部120を構成する。
 また、表示ビュー構成部110は、図3に示すように、切換えスイッチ140、傾き補正部142、部分切り出し部144、超解像処理部146、画像拡大縮小部148、UI生成部150、及び表示構成部152と備える。切換えスイッチ140は、例えば、デコーダ1,2でそれぞれ復号化された映像情報を傾き補正部142または画像拡大縮小部148に切換えて送信する。傾き補正部142は、撮影された広角映像の傾きを補正する。部分切り出し部144は、傾き補正がなされた映像から視線のターゲットを含む所定の領域(一部)を切り出して切り出し映像を生成する。また、超解像処理部146は、切り出しによって解像度が低下した切り出し映像に対して超解像処理を行う。
 画像拡大縮小部148は、センサポイントSPの切換えた後に表示される状況を示すガイド画像を生成するために、切換え後の表示されるセンサポイントSPのライブ映像を縮小する処理を行う。UI生成部150は、上記したガイド画像やユーザ視線画像などのユーザインタフェースを作成する。表示構成部152は、超解像度処理が行われた映像にガイド画像やユーザ視線画像を重畳して表示画像を生成し、この表示画像をHMD112に送信する。
 HMD112は、ユーザの頭部に装着され、ユーザの眼前に不図示のディスプレイ(表示部)を有する頭部装着型のディスプレイである。この構成では、HMD112には、表示制御部120がリモートビューポイントの位置などに応じて順次切換えたセンサポイントSPのライブ映像が表示される。このため、遠隔地のライブ映像を、臨場感を高めた状態でユーザに提供することができ、ユーザがライブ感をもって移動する遠隔地体験を実現することができる。なお、本実施形態では、HMD112を備えた構成を説明したが、ユーザに提供される映像を表示できる表示部を備えた構成であれば他の形態であってもよい。
 オーディオデコーダ114は、パッケージ化された音声情報の復号化を行う。オーディオデコーダ114は、ビデオデコーダ108と一体に設けてもよい。オブジェクトレンダラ116は、復号化された音声情報データを再生またはレンダリングする。スピーカ118は、再生またはレンダリングされた音声情報を音に変換して出力する。このスピーカ118は、HMD112に設けられていてもよい。
 また、情報処理端末10は、ネットワーク50を介して、位置情報サーバ30や配信サーバ40と各種情報を送受信する機能を有する通信部を備えてもよい。情報処理端末10は受信する位置情報、姿勢・広角情報、選択決定情報、符号化データが暗号化されている場合、それを解読する機能を持つ。
 位置情報サーバ30は、図2に示すように、位置・姿勢広角情報取得部300、リモートビューポイント取得部302、位置計算部304、記憶部306、及び情報出力部308を備える。位置・姿勢広角情報取得部300は、各センサポイントSPから送信されるセンサポイントSPの位置情報、カメラの姿勢情報、及びカメラの広角情報をそれぞれ取得する。
 リモートビューポイント取得部302は、リモートビューポイント生成部102が生成したリモートビューポイントの位置情報をその都度取得する。位置計算部304は、取得したリモートビューポイントと周囲のセンサポイントSPとの距離を算出する。また、位置計算部304は、上記した視線差角度の算出を行う場合もある。
 記憶部306は、取得したセンサポイントSPの各情報、リモートビューポイントの位置情報を、それぞれデータベース化して記憶する。情報出力部308は、位置計算部304が計算したリモートビューポイントとの距離に基づいて、このリモートビューポイントに近接した一つまたは複数のセンサポイントSPを候補として選択し、このセンサポイントSPの各情報を情報処理端末10に出力する。また、位置情報サーバ30において、配信する位置情報、姿勢・広角情報、選択決定情報に対して適宜暗号化を施すようにしてもよい。
 配信サーバ40は、センサポイントSPに対応したユニットが設けられ、各ユニットは、それぞれパケット処理部400、ビデオエンコーダ402、広角映像パッキング404、オーディオエンコーダ406、及びオブジェクトメタ生成408を備える。
 パケット処理部400は、エンコードされた映像情報及び音声情報をそれぞれパケット化するとともに、各パケットにヘッダ情報を付加する。パケットは、情報処理端末10に送信される。
 ビデオエンコーダ402は、映像情報を所定の規則に従って、符号化する。広角映像パッキング404は、センサポイントSPから送信された映像情報を所定のデータ量ごとにまとめる(パッキング)処理を行う。
 オーディオエンコーダ406は、音声情報を所定の規則に従って、符号化する。オブジェクトメタ生成408は、センサポイントSPから送信された音声情報に、対応するセンサポイントや録音日時などのメタデータを生成して付加する。
 また、配信サーバ40は、ネットワーク50を介して、情報処理端末10やセンサポイントSPと各種情報を送受信する機能を有する通信部を備えてもよい。配信サーバ40において、配信する符号化データに対して適宜暗号化を施すようにしてもよい。
 以上、本実施形態に係る情報処理システム1(情報処理端末10、位置情報サーバ30、及び配信サーバ40)の機能構成例について説明した。なお、図2を用いて説明した上記の機能構成はあくまで一例であり、本実施形態に係る情報処理システム1の機能構成は係る例に限定されない。例えば、上記で述べた機能は、複数の装置により分散して実現されてもよい。また、本実施形態に係る情報処理端末10、位置情報サーバ30、配信サーバ40の各機能構成は柔軟に変形することができる。
<2.2.センサポイントSPの機能構成例>
 次に、センサポイントSPの機能構成例について説明する。図2に示すように、センサポイントSPは、GPS測位部60、イメージセンサ(撮像部)62、マイク64、及び記憶部66を備える。GPS測位部60は、例えばGPS信号を受信してセンサポイントSPの位置を測位する。GPS測位部60は、地球上でのセンサポイントの位置情報(位置座標情報)を測位によって取得する。イメージセンサ62は、レンズとともにカメラを構成し、例えばレンズを通じて入った光を電気信号に変換する撮像素子である。このイメージセンサ62には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いることができる。マイク64は、センサポイントSPの周囲の音、あるいは特定の方向の音を収音し、この音を電気信号に変換して出力する。記憶部66は、例えば、センサポイントSPにおけるカメラの姿勢情報や中心方向情報およびカメラの広角情報を記憶する。なお、姿勢情報と中心方向情報とを合わせて姿勢情報と称する。
 また、センサポイントSPは、広角に映像を撮影するために、画角が例えば120°~360°の広角レンズ(不図示)を有する構成となっている。これによれば、センサポイントSPにおいて、広い範囲を撮影することができ、ユーザの視点の変化に追従することができる。また、センサポイントSPは、ネットワーク50を介して、位置情報サーバ30や配信サーバ40と各種情報を送受信する機能を有する通信部を備えてもよい。
 以上、本実施形態に係る情報処理システム1にライブ映像を配信するセンサポイントSPの機能構成例について説明した。なお、図2を用いて説明した上記の機能構成はあくまで一例であり、この例に限定されるものではない。例えば、センサポイントSPが固定設置されており、センサポイントSPの各情報が予め判明しているものであれば、この各情報を位置情報サーバ30に事前に登録することで、GPS測位部を備えていない構成としてもよい。また、イメージセンサ62で撮影した映像を一時的に記録するための記録部を別途備えていてもよい。
<2.3.情報処理システム1の動作>
 次に、情報処理システムの動作について説明する。図4は、情報処理システムの動作手順を示すフローチャートである。ここでは、情報処理サーバが位置情報サーバと配信サーバとを1台ずつ備えた構成を例示する。
 図4に示すように、初期状態として、センサポイントSPは、それぞれ自己のセンサポイントの位置情報、カメラの姿勢情報およびカメラの広角情報を位置情報サーバ30に送信する(予備ステップS1)。これらの送信された情報は、位置情報サーバ30の位置・姿勢広角情報取得部300が取得して記憶部306にセンサポイントごとにデータベース化して記憶される。また、センサポイントSPは、それぞれ撮影した映像と音声を配信サーバ40に常時送信し、これら映像と音声を情報処理端末10のリクエストに応じてストリーミング配信するように設定する(予備ステップS2)。
 次に、情報処理端末10を通じて、ユーザが遠隔地体験を所望する遠隔地(エリア)の初期位置として所定の住所が入力される(予備ステップS3)と、位置情報サーバ30は、入力された住所と位置情報との関連付けを行い、この住所に対する近隣の複数のセンサポイントSPの各情報を情報処理端末10に送信する(予備ステップS4)。
 次に、情報処理端末10は、ユーザの視点位置(仮想位置)を定めて、これを入力する(ステップS11)。この視点位置は、移動の開始点であり、ユーザが任意に設定することができる。また、情報処理端末10は、近隣の複数のセンサポイントSPの位置情報からリモートビューポイントRPを生成し、このリモートビューポイントRPの位置情報を位置情報サーバ30へ送信する。リモートビューポイントRPの生成の具体例については後述する。
 位置情報サーバ30は、生成されたリモートビューポイントRPの位置情報を取得すると、この位置情報をデータベースで共有する。そして、位置情報サーバ30は、リモートビューポイントRPの近傍のセンサポイントSP群を情報処理端末10へ送信する(ステップS12)。
 次に、情報処理端末10は、ユーザの仮想位置が移動するに従い、ユーザの移動量及び移動方向に基づいて、リモートビューポイントRPを更新し、更新した位置情報を位置情報サーバ30に送信する(ステップS13)。この場合、情報処理端末10は、リモートビューポイントRPの位置情報に基づいてセンサポイントSPを選択する。本実施形態では、情報処理端末10は、リモートビューポイントRPにおけるユーザの視線方向と、この視線のターゲットに向けて延びる各センサポイントのビュー方向(撮影方向)との角度差(視線差角度)が最も小さいセンサポイントSPを選択する(ステップS14)。
 そして、情報処理端末10は、配信サーバ40に対して、選択されたセンサポイントSPが撮影したライブ映像の配信をリクエストする(ステップS15)。
 配信サーバ40は、リクエストされたセンサポイントSPが撮影したライブ映像を情報処理端末10に配信する(ステップS16)。以後、ステップS12~S15の処理を繰り返し実行することにより、情報処理端末10は、遠隔地に任意に設置された多数のセンサポイントSPの中から、生成されたリモートビューポイントに基づいて選択されたセンサポイントSPが撮影したライブ映像を順次切換えてユーザに提供することができる。このため、遠隔地をユーザがライブ感をもって移動する遠隔地体験を実現することができる。
<3.情報処理システム1の動作の具体例>
<3.1.リモートビューポイント設定の具体例>
 次に、リモートビューポイントの設定(生成)について説明する。図5は、位置情報サーバが有するセンサポイントの各情報を記憶したデータベースを示す図である。図6は、リモートビューポイントを設定する動作を説明するための図である。図7は、位置情報サーバが有するリモートビューポイントの位置情報を記憶したデータベースを示す図である。
 リモートビューポイントは、上記したように、遠隔地をユーザが移動する際の仮想位置を示すものであり、センサポイントSPを選択する基準となる。このため、遠隔地をユーザがライブ感をもって移動する体験を提供するには、リモートビューポイントの位置を精度良く設定する必要がある。本実施形態では、リモートビューポイントは、周囲の複数のセンサポイントSPのビューアングル(撮影方向)のベクトル交点として定義される。これらビューアングルは、各センサポイントSPが撮影した広角映像の範囲からユーザの操作によって決定される。
 まず、情報処理端末10から遠隔地でのユーザの初期位置が入力されると、位置情報サーバ30は、入力地点の近隣に設置されているセンサポイントSPのリストを情報処理端末10に提供する。位置情報サーバ30の記憶部306には、図5に示すセンサポイントSPの各情報及び対応する配信サーバアドレスを規定したデータベース306Aが記憶されている。このため、位置情報サーバ30の情報出力部308は、データベース306Aの中から入力地点の近隣に設置された複数(3つ)のセンサポイントSP1~SP3を情報処理端末10に送信する。なお、位置情報サーバ30は、データベース306Aに規定されたセンサポイントSPの各情報を入力地点に近い順にソーティングしたリストとして情報処理端末10に送信し、そのリストの中から情報処理端末10に複数のセンサポイントSP1~SP3を選択させてもよい。
 図6において、入力された初期位置をP、選択されたセンサポイントSP1~SP3の位置をA~Cとする。情報処理端末10の表示制御部120は、センサポイントSP1~SP3に対応する配信サーバアドレスを用いて、配信サーバ40に対して撮影されたライブ映像の配信リクエストを行う。この配信リクエストに応じて、配信サーバ40は、センサポイントSP1~SP3のライブ映像及び音声を情報処理端末10に配信する。
 ユーザは、移動量入力部100を用いて、各センサポイントSP1~SP3の広角のライブ映像に対して、ビューアングルを選択する。図6の例では、センサポイントSP1~SP3のビューアングルは、それぞれAa1、Bb1、Cc1のベクトルとして示され、これらベクトルの交点がリモートビューポイントRP1として設定される。この例では、初期位置PとリモートビューポイントRP1とが同一となったが、これらの位置は当然異なってもよい。
 次に、情報処理端末10は、リモートビューポイントRP1の位置情報を算出する。具体的には、リモートビューポイント生成部102は、取得した3つのセンサポイントSP1~SP3の位置情報から数式1を用いて、各センサポイント間の距離AB、BC、CAをそれぞれ算出する。
Figure JPOXMLDOC01-appb-M000001
 次に、リモートビューポイント生成部102は、各センサポイントSP1~SP3におけるカメラの姿勢情報からセンサポイントSP1~SP3をそれぞれ通過する直線lA~lCの方向ベクトルを求め、各センサポイントSP1~SP3の仰角θA~θCを求める。これらの仰角θA~θCは、上記ビューアングルを選択した際にカメラ姿勢情報から算出決定される角度である。
 次に、リモートビューポイント生成部102は、算出した各センサポイント間の距離AB、BC、CAと仰角θA~θCとから、ABC平面における∠BAPと∠ABPを求める。これにより、点P(RP1)の位置情報(座標位置)を各センサポイントSP1~SP3の位置情報からの相対オフセットにより算出することができる。算出されたリモートビューポイントRP1の位置情報は、位置情報サーバ30に送信される。位置情報サーバ30のリモートビューポイント取得部302は、このリモートビューポイントRP1の位置情報を取得し、この位置情報は、図7に示す記憶部306のデータベース306Bに格納される。
 ユーザの操作によって、移動量及び移動方向が入力されると、リモートビューポイント生成部102は、入力された移動量及び移動方向に基づいて、新たなリモートビューポイントRP2に更新する。本実施系形態では、移動量入力部100の最小解像度単位(例えばnメートル(nは小数を含む))が規定されている。このため、移動量入力部100により入力された移動量と移動方向をリモートビューポイントへ反映(マッピング)する場合、リモートビューポイント生成部102は、入力された移動量が最小解像度単位の何ユニット分であったかが示され、また、入力された移動方向が360度方位の任意の方角で示されることで、移動量及び移動方向を実寸変換することができる。
 上記したセンサポイント間の距離AB、BC、CAを基準とした同一の縮尺で見た場合に、リモートビューポイントRP1から新たなリモートビューポイントRP2への移動量は、各センサポイントSP1~SP3からのビューアングルの変動によって表現できる。すなわち、新たなリモートビューポイントRP2への移動量は、各センサポイントSP1~SP3からリモートビューポイントRP2を通るベクトルAa2、Bb2、Cc2の向きで表現することができる。リモートビューポイント生成部102は、上記と同様に、リモートビューポイントPR2の位置情報を算出し、この位置情報は、位置情報サーバ30に送信されて、図7に示すデータベース306Bに格納される。このように、ユーザによって移動が指示されるたびに、リモートビューポイント生成部102は、入力された移動用及び移動方向に基づいて、新たなリモートビューポイントを順次生成する。この新たなリモートビューポイントの位置情報は所定のデータベース306Bに格納される。
 また、位置情報サーバ30の位置計算部304は、最新のリモートビューポイントと、近隣に配置されるセンサポイントとの距離Δを、数式2を用いてそれぞれ計算している。
Figure JPOXMLDOC01-appb-M000002
 そして、リモートビューポイントが順次移動していくに連れて、現在選択されているセンサポイントSP1~SP3よりも最新のリモートビューポイントに近いセンサポイントSP6(点F)が現れると、位置情報サーバ30の情報出力部308は、このセンサポイントSP6の位置情報を情報処理端末10に送信する。情報処理端末10では、最新のリモートビューポイントの位置と移動方向から、既存のセンサポイントSP1~SP3と新たに提供されたセンサポイントSP6とを入れ替えるかどうかの判断がなされる。この場合、リモートビューポイントが移動する方向にユーザの視線方向が向いていると想定されるため、この視線方向と各センサポイントからのビューアングルとの角度差(視線差角度)が最も小さなセンサポイントが少なくとも含まれるようにするのが好ましい。
<3.2.センサポイント選択の具体例>
 次に、リモートビューポイントにおいて、ライブ映像を提供するセンサポイントSPを選択する動作について説明する。ここでは、説明の便宜上、同一のリモートビューポイントにて、ユーザがその場で360°に亘って見渡す動作をした場合のセンサポイントSPの選択(切換え)動作を例示する。図8は、リモートビューポイントの周囲に配置されたセンサポイントの選択を説明する図である。図9は、ターゲットに対するセンサポイントとリモートビューポイントとの視線差角度の状況と、選択されるセンサポイントのビューとの関係を示す図である。図10は、周囲を見回した場合に切換えられるセンサポイントのビューの具体例を示す図である。
 リモートビューポイントが設定されると、情報処理端末10のビュー切換え部104は、リモートビューポイントに基づいて最適なセンサポイントSPを選択し、このセンサポイントSPの撮影したライブ映像の配信をリクエストする。この場合、ユーザのライブ感を高めるためには、ユーザの視線に合致したライブ映像を提供することが好ましい。一方で、センサポイントSPは、既存に設置されたものであり、ユーザの視線に応じて適宜カメラの位置や向きを変更することは難しい。このため、本実施形態では、ビュー切換え部104は、リモートビューポイントにおけるユーザの視線方向と、この視線のターゲットに向けて延びる各センサポイントのビュー方向(撮影方向)との角度差(視線差角度)が最も小さいセンサポイントSPを選択する。
 具体的には、図8に示すように、リモートビューポイントRPからターゲットav1にユーザの視線が向いている場合、センサポイントSP1とセンサポイントSP2が候補に挙がる。この場合、センサポイントSP1、ターゲットav1及びリモートビューポイントRPを結ぶ角度∠(SP1,av1,RP)は、センサポイントSP2、ターゲットav1及びリモートビューポイントRPを結ぶ角度∠(SP2,av1,RP)よりも小さい。このため、図9に示すように、センサポイントSP1が選択され、表示制御部120は、選択されたセンサポイントSP1のビューをHMD112に表示させる。ここで、センサポイントSPのビューは、センサポイントSPで撮影された広角の映像からユーザの視線のターゲットを含む一部の領域を切り出した映像をいう。
 同様に、リモートビューポイントRPからターゲットav3に視線が向いている場合、センサポイントSP1とセンサポイントSP2が候補に挙がる。この場合、先ほどとは異なり、センサポイントSP2、ターゲットav3及びリモートビューポイントRPを結ぶ角度∠(SP2,av3,RP)は、センサポイントSP1、ターゲットav3及びリモートビューポイントRPを結ぶ角度∠(SP1,av3,RP)よりも小さい。このため、図9に示すように、センサポイントSP2が選択され、表示制御部120は、選択されたセンサポイントSP2のビューをHMD112に表示させる。なお、センサポイントSP2とセンサポイントSP3、センサポイントSP3とセンサポイントSP4、センサポイントSP4とセンサポイントSP1についても上記と同様な選択動作がなされるが、これについては説明を省略する。
 この構成によれば、リモートビューポイントRPに対して視線差角度が最も小さいセンサポイントSPが選択されるため、リモートビューポイントRPにおける視線方向とセンサポイントSPのビュー方向との極端な不一致を低減することができる。このため、リモートビューポイントRPからの視線に近いセンサポイントSPのビューをHMD112に表示することができ、ユーザが体験するライブ感を高めることができる。
 また、選択されるセンサポイントSPによって、HMD112に表示されるセンサポイントSPのビューが切換わる。このため、リモートビューポイントRPの視点位置からのビューのアングルに生じる違和感を低減するため、センサポイントSP間の切換え動作を工夫している。すなわち、ビュー切換え部104の視線差角度算出部132は、リモートビューポイントRPにて、例えば時計方向に回転して周囲を見渡す動作をした場合、移動する視線の先(ターゲット)に対する各センサポイントの視線差角度を算出し、この視線差角度の大ききによって、切換え判断部134がビューの切換えを実行している。具体的には、図8において、リモートビューポイントRPにて、ユーザの視線方向がターゲットav1からav3まで時計方向に移動した場合、視線差角度算出部132は、角度∠(SP1,av1,RP)と、角度∠(SP2,av1,RP)とを算出し、これらの角度が一致した条件(ターゲットav2e)にて、HMD112に表示されるセンサポイントSPのビューをセンサポイントSP1からセンサポイントSP2に切換えている。なお、センサポイントSP2とセンサポイントSP3、センサポイントSP3とセンサポイントSP4、センサポイントSP4とセンサポイントSP1についても上記と同様な選択動作がなされるが、これについては説明を省略する。
 この構成によれば、ビューの切換え時に、ユーザの違和感を低減することができ、ユーザが体験するライブ感を高めることができる。なお、図8では、リモートビューポイントRPと各ターゲットavとの距離は任意に描いているが、リモートビューポイントRPからの各ターゲットavとの距離を所定値(例えば20m)とすることが好ましい。この構成によれば、視線差角度を正確に算出することができ、ビューの切換え時のユーザの違和感をより低減することができる。
 上記したように、リモートビューポイントRPの周囲を見回す場合に、リモートビューポイントRPに対して視線差角度が一致した条件でセンサポイントSPが切換えられる。このため、図10に示すように、センサポイントSP1からセンサポイントSP2へ切換えられた場合、同一のターゲットを含むセンサポイントSP1のビュー70-2と、センサポイントSP2のビュー71-1との違和感を低減することができる。同様に、センサポイントSP2からセンサポイントSP3へ切換えられた場合、同一のターゲットを含むセンサポイントSP2のビュー71-2と、センサポイントSP3のビュー72-1との違和感を低減することができる。また、センサポイントSP3からセンサポイントSP4へ切換えられた場合、同一のターゲットを含むセンサポイントSP3のビュー72-2と、センサポイントSP4のビュー73-1との違和感を低減することができる。また、センサポイントSP4からセンサポイントSP1へ切換えられた場合、同一のターゲットを含むセンサポイントSP4のビュー73-2と、センサポイントSP1のビュー70-1との違和感を低減することができる。
<3.3.ビュー表示処理の具体例>
 次に、上記したセンサポイントSPのビューをHMD112に表示する際の表示処理について説明する。図11は、ビューの表示処理を説明する模式図である。上記したように、本実施形態では、情報処理端末10の表示ビュー構成部110は、各センサポイントSPで撮影された広角の映像からユーザの視線のターゲットを含む一部の領域を切り出したビューをHMD112に表示する制御を行っている。この場合、リモートビューポイントRPでの映像の視野角は、各センサポイントSPの位置で撮影される映像の視野角に対し、該センサポイントSPからの距離に比例して小さくなる。このため、表示ビュー構成部110は、センサポイントSPが撮影した広角映像75(デコード画)に対して、平面化変換処理を行って平面化画76を生成する。そして、平面化画76の傾き補正した後、視線のターゲットを含む所定の領域(一部)を切り出した切り出し画77を生成する。この切り出し画77は、各センサポイントSPにおいて、同一のターゲットを含む場合に、このターゲットが同等の大きさになるように切り出すことが好ましい。この構成によれば、ビューの切換え時に、ユーザの違和感を低減することができ、ユーザが体験するライブ感を高めることができる。最後に、表示ビュー構成部110は、切り出しによって解像度が低下した切り出し画77に超解像度処理を行うことより、例えば、センサキャプチャ級の超解像画78を生成する。この超解像画78がHMD112に表示されるため、ユーザのライブ感を高めることができる。
<3.4.ビュー切換え時のガイド画像表示の具体例>
 次に、ビュー切換え時にガイド画像を重畳して表示する動作について説明する。図12は、センサポイントが撮影した広角映像と、この広角画像から切り出された各種のビューとを示す図である。この図12では、リモートビューポイントにおけるユーザの視線の動きによって、広角映像(デコード画)80から3つのビュー(表示映像)81A~81Cが切り出されている。
 上記したように、リモートビューポイントにおいて、視線方向を動かした場合に、視線差角度が最も小さいセンサポイントSPが選択されるため、HMD112に表示されるビューの撮影角度が変わる。この場合、センサポイントSPの配置関係によっては、視線差角度が一致した条件(ターゲットav2e)にて、HMD112に表示されるセンサポイントSPのビューを切換えることもでき、ユーザの違和感を低減することができる。一方で、センサポイントSPは、既存のものであるため、センサポイントSPの切換えの前後で撮影方向が大きく変化することも十分に想定される。この場合、ユーザの視線方向の移動によって、突然、センサポイントSPが切換わると、ユーザの違和感が大きくなる問題がある。
 このため、本構成では、表示ビュー構成部110は、センサポイントSPの切換え前のビュー81A,81Cに、それぞれ切換え後のセンサポイントSP表示内容を示すガイド画像(ユーザインタフェース)82A,82Cをそれぞれ重畳して表示する。これらのガイド画像の生成そして重畳は、画像拡大縮小部148と表示ビュー構成部110のUI生成部150によって生成される。これらのガイド画像82A,82Cは、視線方向の移動に伴って切換えられた後のセンサポイントSPの広角画像(デコード画)83A,83Cと、これら広角画像83A,83Cから切り出された同一のターゲットを含む切り出し予定画像84A,84Cと、視線方向の移動を示す矢印画像85A,85Cとを含む。なお、センサポイントSPの切換えのないビュー81Bには、ガイド画像は表示されない。この構成によれば、センサポイントSPが切換えられる場合、切換え前のビュー81A,81Cに、それぞれ切換え後の表示内容を示すガイド画像82A,82Cがそれぞれ重畳して表示されるため、事前にユーザはセンサポイントSPの切換えを認識することができる。このため、センサポイントSPが切換わった場合におけるユーザの違和感が低減することができる。なお、ガイド画像82A,82Cの重畳は、センサポイントSPの切換え前、そして切換え後の一定期間に行われるようにしてもよい。
<3.5.ユーザの視線方向画像表示の具体例>
 次に、表示されるビューに対して、ユーザの視線方向画像を重畳して表示する動作について説明する。図13は、ユーザの視線方向と撮影方向との視線差角度を示す図である。図14は、平面表現した視線方向画像を表示ビューに重畳した例を示す図である。図15は、立体表現した視線方向画像を説明するための図である。図16は、図12のビューに立体表現された視線方向画像を重畳した具体例を示す図である。
 上記したように、センサポイントSPにおける撮影方向とリモートビューポイントにおけるユーザの視線方向とは一般に異なるため、HMD112に表示される撮影映像(ライブ映像)は、リモートビューポイントで見える風景とは異なる角度で撮影された映像となる。このため、ユーザが撮影方向と視線方向とのギャップによって生じる違和感を覚えることが想定される。このため、本実施形態では、撮影方向と視線方向との視線差角度を求め、この視線差角度を示す視線方向画像を表示画像に重畳することで、ユーザの違和感の低減を図っている。
 図13に示すように、リモートビューポイントRPにおけるターゲットV1へ向かう視線方向と、センサポイントSP1でのターゲットV1の撮影方向とはほぼ一致する。これに対して、ターゲットV2では、視線方向とセンサポイントSP1の撮影方向とは視線差角度A1の視線差を生じる。同様に、ターゲットV3では、視線方向とセンサポイントSP1の撮影方向とは視線差角度A2の視線差を生じ、ターゲットV4では、視線方向とセンサポイントSP2の撮影方向とは視線差角度A3の視線差を生じることとなる。
 このため、図14に示すように、ターゲットV1を表示する映像には、視線方向と撮影方向とがほぼ一致したことを平面的に表現した視線方向画像90が重畳して表示される。この視線方向画像90は、撮影方向90Aと視線方向90Bとが点状に重ねて表現されている。これに対して、視線差角度が生じている場合には、この視線差角度を表現した視線方向画像が映像に重畳して表示される。例えば、ターゲットV2を表示する映像に重畳される視線方向画像91は、上下の鉛直線で示した撮影方向91Aと、この撮影方向91Aに対して左側から所定の視線差角度A1で交差する矢印で示した視線方向91Bとを有する。この構成では、表示されている映像に対して、リモートビューポイントにおける視線方向と視線差角度の大きさがどの程度であるかを平面的に表現した視線方向のグラフィックス表示で簡易に示すことができるため、映像を視聴しているユーザの違和感を低減することができる。
 同様に、ターゲットV3を表示する映像に重畳される視線方向画像92は、上下の鉛直線で示した撮影方向92Aと、この撮影方向92Aに対して左側から所定の視線差角度A2で交差する矢印で示した視線方向92Bとを有する。また、ターゲットV4を表示する映像に重畳される視線方向画像93は、上下の鉛直線で示した撮影方向93Aと、この撮影方向93Aに対して右側から所定の視線差角度A3で交差する矢印で示した視線方向93Bとを有する。
 また、通常、3次元空間では、図15に示すように、視線方向とカメラ撮影方向との差を示す視線差角度は、各々、水平角A1x、垂直各A1yと表現できる。このため、本実施形態では、視線方向画像94は、表示される映像と同一平面に想定された矩形の底面94Cと、この矩形の一角部を該底面に垂直に延びる撮影方向94Aと、この撮影方向94Aに対して所定の視線差角度で交差する矢印で示した視線方向94Bとを有する。例えば、ターゲットV3を表示する映像に視線方向画像94を重畳することにより、表示されている映像に対して、リモートビューポイントにおける視線方向と、視線差角度の大きさがどの程度であるかを立体的に表現した視線方向のグラフィックス表示で示すことができる。このため、映像を視聴しているユーザの違和感を低減することができる。
 また、図12に示したビュー81A~81Cにそれぞれ立体的に表現した視線方向画像95~97を重畳して表現してみると、例えば、ビュー81A、81Bは、同じセンサポイントSPが撮影した画像に対して、視線方向画像95、96を重畳しているため、視線方向画像95、96の視線方向95B、96Bはほぼ同じ方向に向いている。これに対して、例えば、ビュー81Cがビュー81A、81Bと異なるセンサポイントSPが撮影している場合、ビュー81Cに重畳される視線方向画像97の視線方向97Bは、上記した視線方向画像95、96の視線方向95B、96Bと異なる。このため、ビュー81Bとビュー81Cとで切換えられた場合、視線方向画像96、97によって、撮影するセンサポイントSPが切換えられたことを判断することができ、映像を視聴しているユーザの違和感を低減することができる。
<4.情報処理システムの変形例>
 次に、本実施形態に係る情報処理システムの変形例を説明する。図17は、変形例に係る情報処理システムの動作手順を示すフローチャートである。図18は、位置情報サーバが有するリモートビューポイントの位置情報と視線方向とを記憶したデータベースを示す図である。上記した実施形態では、情報処理システム1は、それぞれ1台ずつの位置情報サーバ30、配信サーバ40を備えた構成としたが、この変形例では、それぞれ2台ずつ、すなわち第1位置情報サーバ30A及び第2位置情報サーバ30Bと、第1配信サーバ40A及び第2配信サーバ40Bとを備えた構成となっている。これら第1位置情報サーバ30A及び第2位置情報サーバ30Bは、上記した位置情報サーバ30と同一の構成を有し、第1配信サーバ40A及び第2配信サーバ40Bは、上記した配信サーバ40と同一の構成を有する。第1位置情報サーバ30Aと第1配信サーバ40Aは、センサポイントSP1~SPPが設置されたエリアを担当し、第2位置情報サーバ30Bと第2配信サーバ40Bは、異なるエリアに設置されたセンサポイントSPQ~SPZを担当するものとする。なお、これらの担当エリア(センサポイント)は多少重複してもよい。
 この構成では、リモートビューポイントRPの位置の移動に伴い、該当するセンサポイントSPの担当エリアにより位置情報サーバ及び配信サーバが切換わる。この構成によれば、各位置情報サーバ及び配信サーバの負荷が軽減される。
 また、上記した実施形態では、情報処理端末10がリモートビューポイントRPの位置に応じて、視線差角度が最も小さなセンサポイントSPを選択する構成としたが、この選択を第1位置情報サーバ30A及び第2位置情報サーバ30Bに実行させてもよい。この場合、センサポイントSPの選択は、位置計算部304が実行する構成とすればよい。
 変形例に係る情報処理システムの動作について説明する。図17に示すように、初期状態として、センサポイントSPは、それぞれ自己のセンサポイントの位置情報、カメラの姿勢情報およびカメラの広角情報を担当する第1位置情報サーバ30A、または第2位置情報サーバ30Bに送信する(予備ステップS1A、S1B)。これらの送信された情報は、第1位置情報サーバ30A、第2位置情報サーバ30Bの位置・姿勢広角情報取得部300が取得して記憶部306にセンサポイントごとにデータベース化して記憶される。また、センサポイントSPは、それぞれ撮影した映像と音声を担当する第1配信サーバ40Aまたは第2配信サーバ40Bに常時送信し、これら映像と音声を情報処理端末10のリクエストに応じてストリーミング配信するように設定する(予備ステップS2A、S2B)。
 次に、情報処理端末10を通じて、ユーザが遠隔地体験を所望する遠隔地(エリア)の初期位置として所定の住所が入力される(予備ステップS3)と、第1位置情報サーバ30Aは、入力された住所と位置情報との関連付けを行い、この住所に対する近隣の複数のセンサポイントSPの各情報を情報処理端末10に送信する(予備ステップS4)。
 次に、情報処理端末10は、ユーザの視点位置(仮想位置)を定めて、これを入力する(ステップS21)。この視点位置は、移動の開始点であり、ユーザが任意に設定することができる。また、情報処理端末10は、近隣の複数のセンサポイントSPの位置情報からリモートビューポイントRPを生成し、このリモートビューポイントRPの位置情報を第1位置情報サーバ30A及び第2位置情報サーバ30Bへそれぞれ送信する。
 次に、生成されたリモートビューポイントRPが存在するエリアを担当する位置情報サーバ(例えば第1位置情報サーバ30A)へ接続し、リモートビューポイントRPの位置情報と視線方向とを送信する(ステップS22)。この場合、第1位置情報サーバ30Aは、生成されたリモートビューポイントRPの位置情報及び視線方向を取得すると、この位置情報及び視線方向をデータベースで共有する。このデータベース306B1は、図18に示すように、リモートビューポイントRPにおける視線方向を3次元空間のピッチ、アジマス、ロールで記憶する。
 次に、第1位置情報サーバ30Aは、リモートビューポイントRPの近傍のセンサポイントSP群を情報処理端末10へ送信する(ステップS23)。情報処理端末10は、ユーザの仮想位置が移動するに従い、ユーザの移動量及び移動方向に基づいて、リモートビューポイントRPを更新し、更新したリモートビューポイントRPの位置情報と視線方向とを第1位置情報サーバ30Aに送信する(ステップS24)。この場合、第1位置情報サーバ30Aは、リモートビューポイントRPの位置情報及び視線方向に基づいてセンサポイントSPを選択する。この変形例では、第1位置情報サーバ30Aは、リモートビューポイントRPにおけるユーザの視線方向と、この視線のターゲットに向けて延びる各センサポイントのビュー方向(撮影方向)との角度差(視線差角度)が最も小さいセンサポイントSPを選択する(ステップS25)。この選択されたセンサポイントSPは、情報処理端末10に送信される。
 情報処理端末10は、選択されたセンサポイントSPを担当する第1配信サーバ40Aに対して、該センサポイントSPが撮影したライブ映像の配信をリクエストする(ステップS26)。第1配信サーバ40Aは、リクエストされたセンサポイントSPが撮影したライブ映像を情報処理端末10に配信する(ステップS27)。以後、新たなリモートビューポイントRPの位置が第2位置情報サーバ30Bの担当エリアに移るまで、ステップS23~S27の処理が繰り返し実行される。
 次に、新たなリモートビューポイントRPの位置が第2位置情報サーバ30Bの担当エリアに移った場合、このリモートビューポイントRPが存在するエリアを担当する別の位置情報サーバ(例えば第2位置情報サーバ30B)へ接続し、リモートビューポイントRPの位置情報と視線方向とを送信する(ステップS28)。この場合、第2位置情報サーバ30Bは、生成されたリモートビューポイントRPの位置情報及び視線方向を取得すると、この位置情報及び視線方向をデータベース306B1(図18)で共有する。
 次に、第2位置情報サーバ30Bは、リモートビューポイントRPの近傍のセンサポイントSP群を情報処理端末10へ送信する(ステップS29)。情報処理端末10は、ユーザの仮想位置が移動するに従い、ユーザの移動量及び移動方向に基づいて、リモートビューポイントRPを更新し、更新したリモートビューポイントRPの位置情報と視線方向とを第2位置情報サーバ30Bに送信する(ステップS30)。この場合、第2位置情報サーバ30Bは、リモートビューポイントRPの位置情報及び視線方向に基づいてセンサポイントSPを選択する。この変形例では、第2位置情報サーバ30Bは、リモートビューポイントRPにおけるユーザの視線方向と、この視線のターゲットに向けて延びる各センサポイントのビュー方向(撮影方向)との角度差(視線差角度)が最も小さいセンサポイントSPを選択する(ステップS31)。この選択されたセンサポイントSPは、情報処理端末10に送信される。
 情報処理端末10は、選択されたセンサポイントSPを担当する第2配信サーバ40Aに対して、該センサポイントSPが撮影したライブ映像の配信をリクエストする(ステップS32)。第2配信サーバ40Bは、リクエストされたセンサポイントSPが撮影したライブ映像を情報処理端末10に配信する(ステップS33)。以後、新たなリモートビューポイントRPの位置が別の位置情報サーバの担当エリアに移るまで、ステップS28~S33の処理が繰り返し実行される。
 この変形例においても、情報処理端末10は、遠隔地に任意に設置された多数のセンサポイントSPの中から、生成されたリモートビューポイントに基づいて選択されたセンサポイントSPが撮影したライブ映像を順次切換えてユーザに提供することができる。このため、遠隔地をユーザがライブ感をもって移動する遠隔地体験を実現することができる。さらに、この変形例では、リモートビューポイントRPの位置の移動に伴い、該当するセンサポイントSPの担当エリアにより位置情報サーバ及び配信サーバがそれぞれ切換わる。このため、各位置情報サーバ及び配信サーバの負荷を軽減することができる。
<5.ハードウェア構成例>
 次に、本開示に係る情報処理端末10、位置情報サーバ30及び配信サーバ40に共通するハードウェア構成例について説明する。図19は、本開示に係る情報処理端末、位置情報サーバおよび配信サーバのハードウェア構成例を示すブロック図である。図19を参照すると、本開示に係る情報処理端末10、位置情報サーバ30および配信サーバ40は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
 CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
 ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
 入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、およびレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
 出力装置879は、例えば、HMD、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
 ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
 ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
 リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
 接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、イーサネット(登録商標)、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
 外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
 通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<6.まとめ>
 以上説明したように、本開示に係る情報処理端末10は、ユーザが視聴する映像を表示するHMD112と、ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、遠隔地における該ユーザのリモートビューポイントRPを順次生成するリモートビューポイント生成部102と、遠隔地に任意に配置された多数のセンサポイントSPの中から、リモートビューポイントRPに基づいて選択されたセンサポイントSPが撮影したライブ映像をHMD112に表示させる表示制御部120と、を備える。このため、時間的・金銭的な移動コストを要することなく、移動しながら現地の周囲の様子をライブで見渡せるといった6DoF効果を知覚することができる。従って、遠隔地をユーザがライブ感をもって移動する遠隔地体験を実現することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 また、本明細書の情報処理端末10、位置情報サーバ30、配信サーバ40及びセンサポイントSPの処理に係る各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理端末10、位置情報サーバ30、配信サーバ40及びセンサポイントSPの処理に係る各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザが視聴する映像を表示する表示部と、
 前記ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、
 前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を前記表示部に表示させる表示制御部と、
 を備える情報処理装置。
(2)
 前記表示制御部は、前記リモートビューポイントにおける前記ユーザの視線方向との角度差が小さい撮影方向を有するセンサポイントの前記ライブ映像を表示させる前記(1)に記載の情報処理装置。
(3)
 前記表示制御部は、広角に撮影された前記ライブ映像の一部を切り出して表示させる前記(1)または(2)に記載の情報処理装置。
(4)
 前記表示制御部は、前記センサポイントが切換えられる場合に、一部を切り出した前記ライブ映像に、前記センサポイントの切換え後の表示内容を示すガイド画像を重ねて表示する前記(3)に記載の情報処理装置。
(5)
 前記表示制御部は、一部を切り出した前記ライブ映像に、前記リモートビューポイントにおける前記ユーザの視線方向を重ねて表示する前記(3)または(4)に記載の情報処理装置。
(6)
 前記表示部は、前記ユーザの頭部に装着されるヘッドマウントディスプレイである前記(1)から(5)のいずれか1つに記載の情報処理装置。
(7)
 遠隔地に任意に配置された多数のセンサポイントの位置情報を記憶する記憶部と、
 前記遠隔地におけるユーザのリモートビューポイントを順次取得するリモートビューポイント取得部と、
 取得した前記リモートビューポイントに近接した複数の前記センサポイントの位置情報を出力する情報出力部と、
 を備える情報処理装置。
(8)
 前記情報出力部は、複数の前記センサポイントに、前記リモートビューポイントにおける前記ユーザの視線方向との角度差が最も小さい前記センサポイントを含めて出力する前記(7)に記載の情報処理装置。
(9)
 前記記憶部は、取得した前記リモートビューポイントの位置情報を記憶する前記(7)または(8)に記載の情報処理装置。
(10)
 前記センサポイントが撮影した映像情報を配信する映像情報配信部を備える前記(7)から(9)のいずれか1つに記載の情報処理装置。
(11)
 プロセッサが、
 ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するステップと、
 前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を表示部に表示させるステップと、
 を備える情報処理方法。
(12)
 情報処理端末と情報処理サーバとを有し、
 前記情報処理端末は、ユーザが視聴する映像を表示する表示部と、
 前記ユーザの現在位置と遠隔地における仮想位置とを対応づけ、前記ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、
 撮像部を含み前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を前記表示部に表示させる表示制御部と、を備え、
 前記情報処理サーバは、
 前記センサポイントの位置情報を記憶する記憶部と、
 前記リモートビューポイントを取得するリモートビューポイント取得部と、
 取得した前記リモートビューポイントに近接した複数の前記センサポイントの位置情報を前記情報処理端末に出力する情報出力部と、
 を備える情報処理システム。
 1 情報処理システム
 10 情報処理端末
 20 情報処理サーバ
 30 位置情報サーバ
 30A 第1位置情報サーバ
 30B 第2位置情報サーバ
 40 配信サーバ
 40A 第1配信サーバ
 40B 第2配信サーバ
 102 リモートビューポイント生成部
 104 ビュー切換え部
 110 表示ビュー構成部
 112 HMD(表示部)
 120 表示制御部
 302 リモートビューポイント取得部
 304 位置計算部
 306 記憶部
 308 情報出力部
 RP リモートビューポイント
 SP センサポイント

Claims (12)

  1.  ユーザが視聴する映像を表示する表示部と、
     前記ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、
     前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を前記表示部に表示させる表示制御部と、
     を備える情報処理装置。
  2.  前記表示制御部は、前記リモートビューポイントにおける前記ユーザの視線方向との角度差が小さい撮影方向を有するセンサポイントの前記ライブ映像を表示させる請求項1に記載の情報処理装置。
  3.  前記表示制御部は、広角に撮影された前記ライブ映像の一部を切り出して表示させる請求項1に記載の情報処理装置。
  4.  前記表示制御部は、前記センサポイントが切換えられる場合に、一部を切り出した前記ライブ映像に、前記センサポイントの切換え後の表示内容を示すガイド画像を重ねて表示する請求項3に記載の情報処理装置。
  5.  前記表示制御部は、一部を切り出した前記ライブ映像に、前記リモートビューポイントにおける前記ユーザの視線方向を重ねて表示する請求項3に記載の情報処理装置。
  6.  前記表示部は、前記ユーザの頭部に装着されるヘッドマウントディスプレイである請求項1に記載の情報処理装置。
  7.  遠隔地に任意に配置された多数のセンサポイントの位置情報を記憶する記憶部と、
     前記遠隔地におけるユーザのリモートビューポイントを順次取得するリモートビューポイント取得部と、
     取得した前記リモートビューポイントに近接した複数の前記センサポイントの位置情報を出力する情報出力部と、
     を備える情報処理装置。
  8.  前記情報出力部は、複数の前記センサポイントに、前記リモートビューポイントにおける前記ユーザの視線方向との角度差が最も小さい前記センサポイントを含めて出力する請求項7に記載の情報処理装置。
  9.  前記記憶部は、取得した前記リモートビューポイントの位置情報を記憶する請求項7に記載の情報処理装置。
  10.  前記センサポイントが撮影した映像情報を配信する映像情報配信部を備える請求項7に記載の情報処理装置。
  11.  プロセッサが、
     ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するステップと、
     前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を表示部に表示させるステップと、
     を備える情報処理方法。
  12.  情報処理端末と情報処理サーバとを有し、
     前記情報処理端末は、ユーザが視聴する映像を表示する表示部と、
     前記ユーザから離れた遠隔地での該ユーザの移動量及び移動方向に基づいて、前記遠隔地における該ユーザのリモートビューポイントを順次生成するリモートビューポイント生成部と、
     前記遠隔地に任意に配置された多数のセンサポイントの中から、前記リモートビューポイントに基づいて選択されたセンサポイントが撮影したライブ映像を前記表示部に表示させる表示制御部と、を備え、
     前記情報処理サーバは、
     前記センサポイントの位置情報を記憶する記憶部と、
     前記リモートビューポイントを取得するリモートビューポイント取得部と、
     取得した前記リモートビューポイントに近接した複数の前記センサポイントの位置情報を前記情報処理端末に出力する情報出力部と、
     を備える情報処理システム。
PCT/JP2021/026556 2020-08-07 2021-07-15 情報処理装置、情報処理方法及び情報処理システム WO2022030209A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020135344A JP2022030985A (ja) 2020-08-07 2020-08-07 情報処理装置、情報処理方法及び情報処理システム
JP2020-135344 2020-08-07

Publications (1)

Publication Number Publication Date
WO2022030209A1 true WO2022030209A1 (ja) 2022-02-10

Family

ID=80118024

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026556 WO2022030209A1 (ja) 2020-08-07 2021-07-15 情報処理装置、情報処理方法及び情報処理システム

Country Status (2)

Country Link
JP (1) JP2022030985A (ja)
WO (1) WO2022030209A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042237A (ja) * 2016-08-31 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2018049591A (ja) * 2016-09-14 2018-03-29 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
JP2020035392A (ja) * 2018-08-31 2020-03-05 真一 福重 遠隔コミュニケーションシステム等
JP2020510928A (ja) * 2017-03-03 2020-04-09 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 画像表示方法及び電子デバイス

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042237A (ja) * 2016-08-31 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2018049591A (ja) * 2016-09-14 2018-03-29 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
JP2020510928A (ja) * 2017-03-03 2020-04-09 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 画像表示方法及び電子デバイス
JP2020035392A (ja) * 2018-08-31 2020-03-05 真一 福重 遠隔コミュニケーションシステム等

Also Published As

Publication number Publication date
JP2022030985A (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
US9858643B2 (en) Image generating device, image generating method, and program
US11575876B2 (en) Stereo viewing
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US10629107B2 (en) Information processing apparatus and image generation method
US20180309982A1 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
EP3065049A2 (en) Interactive video display method, device, and system
US20230111408A1 (en) Techniques for capturing and rendering videos with simulated reality systems and for connecting services with service providers
JP5483027B2 (ja) 3次元画像計測方法、及び3次元画像計測装置
WO2001005154A1 (fr) Procede de sortie video tous azimuts et dispositif associe
AU2014396467B2 (en) System and method for remote monitoring at least one observation area
WO2015122052A1 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
JPWO2017187764A1 (ja) 情報処理端末装置並びに配信装置
JP2017199958A (ja) 撮像装置、その制御方法、および制御プログラム
JP2011151773A (ja) 映像処理装置及び制御方法
KR102200115B1 (ko) 다시점 360도 vr 컨텐츠 제공 시스템
WO2022030209A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP7203157B2 (ja) 映像処理装置およびプログラム
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
JP2000152216A (ja) 映像出力システム
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2020262391A1 (ja) 表示制御装置、表示制御方法、及びプログラム
JP6234859B2 (ja) 画像処理システム
CN112272817A (zh) 用于在沉浸式现实中提供音频内容的方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21854604

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21854604

Country of ref document: EP

Kind code of ref document: A1