WO2023248832A1 - 遠隔視認システム、現地撮像システム - Google Patents

遠隔視認システム、現地撮像システム Download PDF

Info

Publication number
WO2023248832A1
WO2023248832A1 PCT/JP2023/021515 JP2023021515W WO2023248832A1 WO 2023248832 A1 WO2023248832 A1 WO 2023248832A1 JP 2023021515 W JP2023021515 W JP 2023021515W WO 2023248832 A1 WO2023248832 A1 WO 2023248832A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
remote
display device
information
imaging system
Prior art date
Application number
PCT/JP2023/021515
Other languages
English (en)
French (fr)
Inventor
翔吾 久保田
麻里子 西山
淳弘 千葉
哲男 池田
洋章 鳥海
裕也 高山
真秀 林
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023248832A1 publication Critical patent/WO2023248832A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • This technology relates to remote viewing systems and on-site imaging systems that communicate with each other.
  • a user communicates with participants on the local side of the travel destination and views video and audio transmitted in real time of the situation on the local side without going to the travel destination. Thereby, the user can enjoy an experience as if he or she had gone on a trip himself.
  • omnidirectional displays This refers to a display that is arranged so that a single or multiple users can be surrounded by a series of screens made up of curved surfaces or multiple planes. Specifically, it is constructed by projection using multiple projectors and a modular display such as an LED (Light Emitting Diode) board.
  • Patent Document 1 listed below discloses a technology related to an all-around display.
  • Patent Document 2 discloses an invention related to displaying images captured and distributed by an imaging device, particularly regarding exposure control.
  • All-around displays provide the user with a realistic and immersive visual experience, making them suitable for the purposes of remote travel mentioned above.
  • the participants on the local side and the user on the omnidirectional display side to feel like they went on the trip together during this remote trip, it is necessary for both participants to see the same thing in the same way on the local side.
  • the situation is ideal.
  • the state that ⁇ the same things look the same'' cannot be achieved by simply distributing captured images of a travel destination or other location and having them viewed by a user in a remote location.
  • the present technology aims to enable images (scenes) to be appropriately shared between a local user and a user viewing a display at a remote location, for example, during a remote trip.
  • a remote viewing system includes: a display device that displays an image at a wider angle than a human visual field; a head position/direction detection device that detects the position and direction of the head of a viewer of the display device; A process of displaying a captured image at a remote location transmitted from a local imaging system on the display device, and generating gaze direction information based on information on the position and direction of the viewer's head by the head position/direction detection device. and a control device that performs a process of transmitting the gaze direction information to the on-site imaging system.
  • the remote viewing system the scene captured by the on-site imaging system located at a remote location can be viewed on the display device. In that case, the direction of gaze of the viewer is communicated to the on-site imaging system.
  • the on-site imaging system includes an imaging device that captures an image wider than a human visual field, a direction indicating device that indicates a direction, a process for transmitting an image captured by the imaging device to a remote viewing system, and the A control device that performs a process of controlling a direction indicated by the direction indicating device based on gaze direction information of a viewer on a display device in a remote viewing system.
  • the on-site imaging system side is configured to indicate which direction the viewer of the remote viewing system is gazing at in the real scene.
  • the on-site imaging system includes an imaging device that captures an image wider than a human visual field, a process for transmitting an image captured by the imaging device to a remote viewing system, and a display device in the remote viewing system.
  • a control device that controls the imaging device based on gaze direction information of a viewer.
  • the viewer of the remote viewing system controls the imaging device according to the viewing direction.
  • FIG. 1 is a block diagram of a system configuration according to a first embodiment of the present technology.
  • FIG. 2 is an explanatory diagram of a celestial sphere display device used in an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a direction indicating device according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a direction indicating device according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a direction indicating device according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 2 is an explanatory diagram of an aspect of a local system according to an embodiment.
  • FIG. 1 is a block diagram of an information processing device according to an embodiment.
  • FIG. 2 is an explanatory diagram of a sequence of communication and processing between systems according to an embodiment.
  • FIG. 6 is an explanatory diagram of generation of gaze direction information according to the embodiment. It is a flowchart of processing of the remote viewing system of a 1st embodiment. It is a flowchart of processing of the on-site imaging system of a 1st embodiment.
  • FIG. 2 is a block diagram of a system configuration according to a second embodiment.
  • FIG. 3 is a block diagram of a system configuration according to a third embodiment.
  • FIG. 7 is an explanatory diagram of a display image of a celestial sphere display according to a third embodiment.
  • FIG. 7 is an explanatory diagram of a display image of a sub-display according to a third embodiment.
  • It is a flowchart of the process of the remote viewing system of 3rd Embodiment.
  • FIG. 7 is an explanatory diagram of a display image of a sub-display according to a third embodiment. It is a flowchart of the process of the remote viewing system of 4th Embodiment.
  • FIG. 7 is an explanatory diagram of a display image of a spherical display according to a fifth embodiment.
  • FIG. 7 is an explanatory diagram of a display image of a spherical display according to a fifth embodiment.
  • FIG. 12 is an explanatory diagram of generation of gaze direction information according to the fifth embodiment.
  • FIG. 12 is an explanatory diagram of compression ratios for each region according to the sixth embodiment. It is a flowchart of the process of the on-site imaging system of 6th Embodiment.
  • image refers to both moving images and still images.
  • images refers to both moving images and still images.
  • images are not limited to moving images, but may also be still images or slideshows of a plurality of still images.
  • images and “videos,” and hereinafter they will mainly be referred to as “images.”
  • an “image” refers to an image that is actually displayed on a screen, but an “image” refers to image data in the signal processing process and transmission path until it is displayed on a screen.
  • FIG. 1 shows the system configuration of the first embodiment.
  • a remote viewing system 1 and an on-site imaging system 3 are configured to be able to communicate with each other via a network 2.
  • the remote viewing system 1 and the on-site imaging system 3 can communicate with each other through network communication between the communication device 21 on the remote viewing system 1 side and the communication device 22 on the on-site imaging system 3 side.
  • the network 2 is assumed to be, for example, the Internet, a home network, a LAN (Local Area Network), a satellite communication network, a telephone communication network, and other various networks. Note that the remote viewing system 1 and the on-site imaging system 3 may be directly connected for communication without going through the network 2.
  • the remote viewing system 1 includes at least a control terminal 10, a celestial sphere display device 11, and a head position/direction detection device 12.
  • devices for a user interface such as a microphone 13, a speaker 14, an operation section 19, etc. may be provided.
  • the on-site imaging system 3 includes at least a control terminal 30, an omnidirectional camera 31, and a direction indicating device 32.
  • devices for user interface such as a microphone 33 and a speaker 34, may be provided as shown.
  • the remote viewing system 1 and the local imaging system 3 provide the user with an experience similar to, for example, a remote trip.
  • the local imaging system 3 is assumed to be owned by a user who is present at a destination such as a travel destination (hereinafter referred to as a "local user 6" (see FIG. 7, etc.)), or is assumed to act together with the local user 6.
  • Ru The remote viewing system 1 is a facility located at a location remote from the site, and is constructed at a location where the omnidirectional display device 11 is installed, and is used by a user (hereinafter referred to as "remote user 5") in the remote location (Fig. 2 (Reference)) shall be able to visually recognize the scene at the site through the images distributed.
  • an omnidirectional camera 31 images the surrounding scene.
  • the captured image is transmitted to the remote viewing system 1 via the network 2.
  • a spherical display device 11 displays the local scene.
  • the remote user 5 who views the omnidirectional display device 11 can view a scene equivalent to the scene that the local user 6 actually sees.
  • the omnidirectional display device 11 is configured as a display device that displays images at a wider angle than the human visual field, which is called an omnidirectional display.
  • an omnidirectional display the entire celestial sphere or “the entire periphery” are not necessarily used in a strict sense. In other words, it does not necessarily mean 360 degrees around the area or the entire surrounding area as a three-dimensional space, but rather it means that the image can be displayed in a wider range than the visual field of an ordinary person.
  • FIG. An example of the omnidirectional display device 11 is shown in FIG. ⁇ Box-shaped/prismatic-shaped ⁇ spherical (dome or part of a dome) ⁇ Cylindrical (part of a cylinder) - Possible forms include a torus, a combination of a plane and a curved surface, etc.
  • a large display that widely surrounds one or more remote users 5 is assumed, and the remote users 5 can freely move within the internal area surrounded by the display.
  • a configuration may be adopted in which a chair, a sofa, etc. are provided in the internal area, and the remote user 5 can sit on the chair or the like and visually check the surroundings.
  • the remote user 5 shares the scene of the destination of the local user 6.
  • the omnidirectional display device 11 is a large display that widely surrounds the remote user 5, the remote user 5 can easily feel immersed. Since the omnidirectional display device 11 displays a wider range than the human field of view, the remote user 5 can look around at any position within the internal area and have an experience similar to being actually there. It is.
  • Such a celestial sphere display device 11 can realize the above-described shape, for example, by the following configuration example.
  • a modular display such as an LED wall is one in which, for example, a plurality of LED display panels are arranged horizontally and vertically to form large displays in various shapes as shown in FIG.
  • the projector it is conceivable that one projector performs omnidirectional projection through a fisheye lens or the like.
  • a plurality of projectors may be used to perform edge blending and project so that the image is smooth near the boundaries of the viewing angle ranges of each projector.
  • FPDs and curved displays may be used alone or in a tiled form.
  • the omnidirectional display device 11 may be configured to be able to display stereo images.
  • the omnidirectional display device 11 may be provided with an audio output section to output local audio.
  • the sound collected by the microphone 33 in the on-site imaging system 3 in FIG. 1 is transmitted to the remote viewing system 1.
  • the speaker 14 outputs the audio transmitted from the on-site imaging system 3 to the internal area of the omnidirectional display device 11.
  • the remote user 5 can not only see the local scene but also hear the local environmental sounds and the voice of the local user 6.
  • a microphone 13 is provided to collect the voice of the remote user 5 within the spherical display device 11 and transmit it to the on-site imaging system 3.
  • audio such as the voice of the remote user 5 is received and output from the speaker 34 . This allows the local user 6 to hear the voice of the remote user 5.
  • the remote user 5 can have an experience more like actually being at the travel destination with the local user 6.
  • the on-site imaging system 3 is provided with an omnidirectional camera 31.
  • the omnidirectional camera 31 is selected from the following, for example. ⁇ Single camera with a fisheye lens with an angle of view of 180 to 250 degrees ⁇ Two cameras equipped with fisheye lenses placed back to back to be able to capture 360 degrees ⁇ Multiple cameras arranged approximately on the circumference or approximately Placed on a spherical surface, it is possible to capture images from 180 degrees to 360 degrees.
  • the omnidirectional camera 31 may further perform stereo photography using adjacent cameras. This allows a three-dimensional image to be displayed on the omnidirectional display device 11, allowing the remote user 5 to experience a stronger sense of immersion.
  • the head position/direction detection device 12 is provided in the remote viewing system 1 so that the gaze direction of the remote user 5 can be detected and this can be notified to the local imaging system 3 as gaze direction information.
  • the local imaging system 3 is provided with a direction indicating device 32 so that the local user 6 can be shown the direction in which the remote user 5 is gazing. This is due to the following reason.
  • images shared between remote locations are generally assumed to be viewed on a small flat display such as a personal computer or television monitor.
  • the user can specify an area on the display screen using a pointing device or touch operation. For example, when cutting out and displaying a part of a spherical image, such an operation is possible, and the user can view an image in any direction within the spherical image.
  • the omnidirectional display device 11 In order to input the gaze area of the remote user 5 with respect to the omnidirectional display device 11 into the system as in the present embodiment, it is considered effective to sense the direction of the gaze of the remote user 5.
  • the positional relationship between the omnidirectional display device 11 and the user is not fixed, unlike in the case of a flat display.
  • the user In the case of a flat display, the user is assumed to face the center of the screen, but in the case of the present embodiment, the remote user 5 can move within the internal area of the spherical display device 11 as described above. Therefore, for the remote user 5, it is necessary to measure not only the line of sight direction but also the position of the head.
  • the remote viewing system 1 is provided with a head position/direction detecting device 12 to detect the position and direction of the head of the remote user 5 viewing the omnidirectional display device 11 .
  • the position of the head is a position in the internal area of the omnidirectional display device 11, and may be considered as a position where the remote user 5 is present.
  • the direction of the head is the direction of the face (eyes) and corresponds to the line of sight direction.
  • the head position/direction detection device 12 detects the position/direction of the head of the remote user 5 and notifies the control terminal 10 of the same. This allows the control terminal 10 to determine which direction within the omnidirectional display device 11 the remote user 5 is viewing. Details of the determination process will be described later.
  • This head position/direction detection device 12 can be realized, for example, as a tracker worn on the head of the remote user 5, a photography/image analysis system that photographs the remote user 5, and estimates the posture.
  • Some trackers are of an outside-in type. This consists of a synchronized combination of light source and detector (tracker side).
  • a light source sweeps a sheet-shaped beam in the X and Y directions of the internal area of the omnidirectional display device 11, and a detector detects and calculates coordinates. If there are three or more detectors, the direction (normal vector of the plane containing the three points) can also be calculated.
  • a reflective marker method as a tracker.
  • a camera with an integrated light source is installed at a corner of the internal area of the omnidirectional display device 11, and the position of the marker (retroreflective material) is measured.
  • magnetic trackers This detects the excitation current generated in the sensor coil by the magnetic field generated from the source, and calculates the position and angle.
  • posture estimation it is conceivable to use a system that images a person with a camera that obtains an RGB image and depth (distance information) and performs image analysis. For example, for an image of a person, bone data (skeletal data) is obtained to estimate the posture using machine learning-based estimation, and the position and direction of the head are detected from the posture.
  • RGB image and depth distance information
  • image analysis For example, for an image of a person, bone data (skeletal data) is obtained to estimate the posture using machine learning-based estimation, and the position and direction of the head are detected from the posture.
  • the head position/direction detection device 12 as described above is provided so that the user's gaze direction can be calculated. Note that, in reality, the direction of gaze changes not only depending on the position and orientation of the head of the remote user 5 but also the direction of the line of sight. However, since the range of eye movement is around 30 degrees, it is possible to determine the area on the image that includes the user's actual gaze area by roughly determining the area the user is gazing at so as to cover that range. become.
  • the local imaging system 3 is provided with a direction indicating device 32 for conveying the gaze area of the remote user 5 to the local user 6.
  • the direction indicating device 32 is assumed to be one that provides visual information, one that provides audio information, or one that provides both. For example, visually, ⁇ Displays displaying the indicator needle, robot face, stuffed animal face, avatar front, etc., and a rotating mechanism to turn them in any direction ⁇ Flat display displaying the top of the avatar ⁇ Avatar can be observed from any direction A cylindrical display is expected.
  • ⁇ Directional speaker arrays or directional speakers with a rotation mechanism ⁇ Headphones or earphones that have built-in gyro sensors, compasses, etc. and can reproduce stereophonic sound are expected.
  • FIG. 3 shows an example in which the on-site imaging system 3 is configured in a wheelchair type.
  • a omnidirectional camera 31 and a direction indicating device 32 are mounted on a table provided on the wheelchair 40.
  • the omnidirectional camera 31 and the direction indicating device 32 may be attached to the seat surface or frame instead of the table.
  • the direction indicating device 32 may have a cylindrical shape as shown in FIG. 4 and can display avatars, characters, etc. in three dimensions.
  • it may have a transparent cylindrical shape so that an avatar or the like can be displayed three-dimensionally inside.
  • FIG. 6 it may be transparent and capable of displaying facial images or the like three-dimensionally.
  • the avatar, character, or actual face image represents the remote user 5. Then, the gaze direction of the remote user 5 is presented based on the direction of the face of the avatar or the like.
  • FIG. 7 shows an example in which the on-site imaging system 3 is configured as a backpack.
  • a spherical camera 31 is attached to the end of an arm attached to a rucksack 41.
  • the direction indicating device 32 is an example of a shoulder-mounted type. This direction indicating device 32 can be worn on the shoulder of the local user 6 as a stuffed toy, a doll, a robot, or the like.
  • a mechanism is then provided that allows the head to rotate and move up and down. In other words, the direction of the face of the stuffed toy or the like actually changes to indicate the gaze direction of the remote user 5.
  • FIG. 8 shows an example in which the on-site imaging system 3 is configured with a carry case 42 and a self-propelled robot 44.
  • a spherical camera 31 is attached to the end of an arm attached to a carrying case 42.
  • the direction indicating device 32 is a display panel attached to the self-propelled robot 44.
  • the self-propelled robot 44 is assumed to move together with the local user 6, and displays an avatar or the like on the display panel. Then, the gaze direction of the remote user 5 is presented based on the direction of the face of the avatar or the like.
  • FIG. 9 shows an example in which a human-shaped direction indicating device 32 is placed on a wheelchair 40.
  • a humanoid robot riding on a wheelchair 40 is provided with a display panel on its head, and a person's face etc. are displayed on the display panel. Then, the gaze direction of the remote user 5 is presented based on the direction of the displayed face.
  • FIG. 10 is an example using a rickshaw 43.
  • a spherical camera 31 is attached to the rickshaw 43, and a direction indicating device 32 in the form of a stuffed toy, a doll, etc. is provided.
  • a stuffed animal or the like may be riding on the rickshaw 43 along with the local user 6.
  • the head of a stuffed animal must move up, down, left and right.
  • the local user 6 is able to know the gaze direction of the remote user 5 from the direction of the head of the stuffed toy or the like.
  • the remote visual recognition system 1 is merely an example, and various combinations and forms of the remote visual recognition system 1 are possible.
  • dolls, stuffed animals, etc. not only the head can move in any direction, but also the eyes may move.
  • the device equipped with the remote viewing system 1 is not limited to the wheelchair 40, backpack 41, carrying case 42, rickshaw 43, and self-propelled robot 44, but may also be clothes, hats, bicycles, automobiles, aircraft, ships, etc. .
  • the form of the direction indicating device 32 may be a two-dimensional display, a three-dimensional display, a hologram display device, a doll, a stuffed animal, a robot, a mechanism that indicates direction with arrows, etc., a mechanism that indicates direction with light or color, etc.
  • the direction indicating device 32 may indicate the direction by voice.
  • the local user 6 is wearing an earphone 45, but this may function as the speaker 34 in FIG. 1 to convey the direction by voice.
  • the output directivity of the speaker 34 mounted on the wheelchair 40, rickshaw 43, self-propelled robot 44, etc. may be controlled so that the direction of gaze can be determined from the direction of the sound.
  • the control terminal 10 in the remote viewing system 1 has functions as a display control section 10a and a gaze information processing section 10b as shown in the figure.
  • the display control unit 10a has a function of controlling the display of the omnidirectional display device 11.
  • the display control unit 10a performs a process of displaying the captured image of the omnidirectional camera 31 received via the communication device 21 on the omnidirectional display device 11.
  • the display control unit 10a performs processing to output the transmitted audio signal from the speaker 14.
  • the gaze information processing unit 10b generates direction information based on the position and direction of the head of the remote user 5 detected by the head position and direction detection device 12, with the position of the omnidirectional camera 31 as a reference. A process of generating gaze direction information and transmitting it to the on-site imaging system 3 is performed.
  • control terminal 10 performs various processes in addition to the processes of the display control unit 10a and gaze information processing unit 10b described above. For example, it also performs processing for transmitting audio from the microphone 13 to the local imaging system 3, processing for transmitting operation information from the operation unit 19 to the local imaging system 3, and the like.
  • the control terminal 30 of the local imaging system 3 has functions as a camera control section 30a and a direction instruction control section 30b.
  • the camera control unit 30a performs processing for controlling the imaging operation of the omnidirectional camera 31 and processing for transmitting images captured by the omnidirectional camera 31 to the remote viewing system 1.
  • Control of the omnidirectional camera 31 by the camera control unit 30a includes, for example, control related to exposure correction.
  • exposure correction is performed using one or a combination of the following control processes. ⁇ Shutter speed adjustment ⁇ Aperture adjustment ⁇ ISO sensitivity (image sensor signal amplification) adjustment ⁇ ND filter insertion
  • the camera control unit 30a can also perform focus adjustment control and white balance adjustment control.
  • Focus control allows the remote user 5 to view any object on the local side with that object in focus.
  • white balance adjustment control allows the remote user 5 to view the situation on the local side with more faithful color reproduction.
  • the camera control unit 30a performs the above exposure control, focus adjustment control, white balance adjustment control, etc. based on the gaze direction information from the remote viewing system 1.
  • the exposure of the area that the remote user 5 is gazing at in the captured image of the omnidirectional camera 31 is controlled to be appropriate. For example, by referring to the brightness of a representative point within the region of interest, the highest value, lowest value, average value, and brightness histogram of the brightness within the region, it is determined whether the exposure of that region is appropriate, and if it is not, the exposure is Take control.
  • the image in the direction in which the remote user 5 is gazing becomes an image captured with proper exposure.
  • the omnidirectional camera 31 captures an image that includes sunlight and lowers the exposure using automatic exposure control or the like, the image in the direction that the remote user 5 is viewing will be underexposed and dark.
  • the viewing area of the remote user 5 can be adjusted regardless of the brightness or darkness of the surrounding scene at the site. will be imaged with appropriate brightness.
  • the object that the remote user 5 is gazing at can be brought into focus, and the remote user 5 can view the image in an appropriate focus state. .
  • an image with an appropriate hue can be displayed on the spherical display device 11 by appropriately adjusting it depending on whether the site is outdoors (under sunlight) or indoors (under illumination).
  • the site is outdoors (under sunlight) or indoors (under illumination).
  • the remote user 5 is gazing, especially based on the gaze direction information, it is possible to visually recognize an object with the same color tone as the local user 6.
  • the camera control unit 30a performs a process of transmitting a captured image by transmitting an image captured by the omnidirectional camera 31, that is, a video captured at the site, in a predetermined communication format. Audio from the microphone 33 may also be transmitted at the same time.
  • the direction instruction control unit 30b in the control terminal 30 has a function of controlling the direction instruction device 32.
  • the direction instruction control unit 30b controls the direction instruction device 32 to present the direction of gaze of the remote user 5 in accordance with the gaze direction information transmitted from the remote viewing system 1.
  • the direction instruction control unit 30b performs processing to indicate a corresponding direction by an arrow, avatar, or other display on the direction instruction device 32.
  • the direction indicating device 32 is a stuffed toy or the like, control is performed to drive the head and eyes to execute direction presentation.
  • the direction instruction control unit 30b when presenting the direction by voice, the direction instruction control unit 30b generates an audio signal for presenting the direction, and performs processing to output it from the speaker 34.
  • the control terminals 10 and 30 having the above functions can be configured by an information processing device 70 as shown in FIG. 11, for example.
  • the information processing device 70 is a device capable of processing information, such as a computer device.
  • the information processing device 70 is assumed to be a personal computer, a workstation, a mobile terminal device such as a smartphone or a tablet, or the like.
  • the information processing device 70 may be a computer device configured as a server device or an arithmetic device in cloud computing.
  • the RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
  • the image processing unit 85 is configured as a processor that performs various types of image processing.
  • the processor is capable of performing one or more of brightness processing, color processing, image analysis processing, image compression/expansion processing, image editing processing, stitching processing, and the like.
  • This image processing unit 85 can be realized by, for example, a CPU separate from the CPU 71, a GPU (Graphics Processing Unit), a GPGPU (General-purpose computing on graphics processing units), an AI (artificial intelligence) processor, or the like. Note that the image processing section 85 may be provided as a function within the CPU 71.
  • the CPU 71, ROM 72, RAM 73, nonvolatile memory section 74, and image processing section 85 are interconnected via a bus 83.
  • An input/output interface 75 is also connected to this bus 83.
  • the input/output interface 75 is connected to an input section 76 consisting of an operator or an operating device.
  • the input unit 76 may be various operators or operating devices such as a keyboard, mouse, keys, trackball, dial, touch panel, touch pad, or remote controller.
  • a user's operation is detected by the input unit 76, and a signal corresponding to the input operation is interpreted by the CPU 71.
  • a microphone is also assumed as the input section 76. Voices uttered by the user can also be input as operation information.
  • This input section 76 may also function as, for example, the microphones 13 and 33 in FIG.
  • a display section 77 made of an LCD (Liquid Crystal Display) or an organic EL (electro-luminescence) panel is connected to the input/output interface 75 either integrally or separately.
  • the display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the information processing device 70, a separate display device connected to the information processing device 70, or the like.
  • the display unit 77 displays various images, operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), on the display screen based on instructions from the CPU 71.
  • GUI Graphic User Interface
  • an audio output section 78 consisting of a speaker unit or the like is connected to the input/output interface 75 either integrally or separately.
  • This audio output section 78 may function as the speakers 14 and 34 in FIG. 1 in some cases.
  • the input/output interface 75 may also be connected to a storage section 79 and a communication section 80, which are comprised of an HDD (Hard Disk Drive), solid-state memory, or the like.
  • HDD Hard Disk Drive
  • solid-state memory solid-state memory
  • the storage unit 79 can store various data and programs.
  • a DB Data Base
  • a DB Data Base
  • the communication unit 80 performs communication processing via a transmission path such as the Internet, and communicates with various devices such as an external DB, editing device, and information processing device through wired/wireless communication, bus communication, and the like.
  • the communication unit 80 can function as an interface with the communication devices 21 and 22 in FIG.
  • a drive 81 is also connected to the input/output interface 75 as required, and a removable recording medium 82 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately loaded.
  • the drive 81 can read image data and various computer programs from the removable recording medium 82 .
  • the read data is stored in the storage section 79, and the video and audio included in the data are outputted on the display section 77 and the audio output section 78. Further, computer programs and the like read from the removable recording medium 82 are installed in the storage unit 79 as necessary.
  • this information processing device 70 for example, software for processing the control terminal 10 or the control terminal 30 of this embodiment can be installed via network communication by the communication unit 80 or the removable recording medium 82.
  • the software may be stored in advance in the ROM 72, storage unit 79, or the like.
  • the remote viewing system 1 and the on-site imaging system 3 start a session as step ST0.
  • the remote viewing system 1 performs reference matching in step ST10
  • the on-site imaging system 3 also performs reference matching in step ST20.
  • the reference alignment is a process of aligning the reference direction of the imaging direction of the omnidirectional camera 31 on the field side with the reference direction as the viewing direction of the remote user 5.
  • FIG. 13A shows a state in which the omnidirectional camera 31 is at the origin position. The center of the circle indicated by the dotted line is the origin.
  • the omnidirectional camera 31 uses the direction of the position BP1, which is, for example, the front direction, as a reference direction. For example, assume that the in-plane center (horizontal center) of the image captured by the omnidirectional camera 31 is in the direction indicated by position BP1.
  • FIG. 13B shows a state in which the remote user 5 in the internal area of the omnidirectional display device 11 is at the origin position.
  • the circle indicated by the solid line is considered to be the image display surface of the omnidirectional display device 11.
  • the center of the circle is the origin.
  • the remote user 5 is looking at the direction indicated by the position BP2 of the omnidirectional display device 11, and this is set as the reference direction for the direction of gaze.
  • the states shown in FIGS. 13A and 13B are set as reference position states, and the remote viewing system 1 and the on-site imaging system 3 are made to match.
  • the center of the image captured by the omnidirectional camera 31 (the object at the position BP1) is displayed at the position BP2 of the omnidirectional display device 11.
  • the direction indicating device 32 is made to indicate the front direction.
  • FIG. 13A schematically shows the direction indicating device 32, and assumes that the direction indicated by the arrow is indicated.
  • the state in which the remote user 5 is at the origin position of the internal area of the omnidirectional display device 11 in FIG. 13B and visually recognizes the position BP corresponds to the state in which the direction indicating device 32 indicates the front direction as shown in FIG. 13A. It is something that makes you
  • FIGS. 13A and 13B show positions in the horizontal direction (horizontal direction (yaw direction) for the remote user 5), they are also shown in the vertical direction (vertical direction (pitch direction) for the remote user 5). Align in the same way.
  • the remote viewing system 1 and the on-site imaging system 3 repeatedly execute the subsequent processes as a loop process while the session continues as step ST1 in FIG. While the session continues, images captured by the on-site imaging system 3 are transmitted to the remote viewing system 1 and displayed on the spherical display device 11.
  • the remote viewing system 1 detects the position and direction of the head of the remote user 5 in step ST11.
  • FIG. 13D shows a state in which the remote user 5 is at a certain position in the internal area of the omnidirectional display device 11 and looking in a certain direction.
  • the coordinates of the position of the head of the remote user 5 be (x, y, z).
  • x and y be two-dimensional coordinates in the horizontal direction, and z be a coordinate in the vertical direction.
  • the coordinates (x, y, z) are detected by the head position/direction detection device 12.
  • be the direction of the head viewed in the horizontal direction
  • be the direction of the head viewed in the vertical direction. Note that since FIG. 13D is a representation of only the horizontal plane, the coordinates (x, y) and the head direction ⁇ are shown. When viewed in the vertical direction, the coordinate z and head direction ⁇ appear.
  • coordinates (x, y, z) and head direction ( ⁇ , ⁇ ) are determined as the head position. Additionally, the orientation of the head in the roll direction may be detected as the head direction ⁇ .
  • the roll direction is the direction of movement when the remote user 5 tilts his or her head.
  • the remote viewing system 1 obtains gaze direction information ( ⁇ , ⁇ ). This is information about the direction seen from the reference direction of the omnidirectional camera 31 as shown in FIG. 13A, ⁇ is the amount of displacement from the reference direction in the horizontal direction, and ⁇ is the amount of displacement from the reference direction in the vertical direction. Note that the gaze direction information ( ⁇ , ⁇ , ⁇ ) may also be obtained. ⁇ indicates the head direction ⁇ in the roll direction as the amount of displacement from the normal posture of the omnidirectional camera 31.
  • the intersection point M between the display surface and the line L1 in the direction ⁇ of the head starting from the coordinates (x, y, z) of the head position of the remote user 5 is determined, and the intersection point M from the position BP2 is determined.
  • Gaze direction information ⁇ is calculated as the orientation difference of M.
  • the line L2 from the origin toward the intersection M indicates the direction toward the intersection M as seen from the omnidirectional camera 31, as shown in FIG. 5 indicates the direction in which the user is gazing.
  • the direction indicating device 32 will indicate a direction parallel to the line L2. Therefore, the gaze direction information ⁇ is information indicating the gaze direction of the remote user 5 with respect to the position of the omnidirectional camera 31, regardless of the coordinates (x, y, z) of the remote user's 5 position.
  • the gaze direction information ⁇ is shown to represent the horizontal direction, but when considered in the vertical direction, the gaze direction information ⁇ is calculated in the same way. That is, the intersection point between the line of the head direction ⁇ starting from the coordinates (x, y, z) of the head position of the remote user 5 and the display surface is obtained, and the gaze direction information ⁇ is obtained as the azimuth difference from the position BP2. demand.
  • the gaze direction information ⁇ indicating the amount of displacement according to the head direction ⁇ in the roll direction is calculated based on the normal posture of the head and the normal posture of the omnidirectional camera 31. good.
  • step ST13 the remote viewing system 1 transmits the thus obtained gaze direction information ( ⁇ , ⁇ ) or gaze direction information ( ⁇ , ⁇ , ⁇ ) to the on-site imaging system 3.
  • step ST21 the on-site imaging system 3 causes the direction indicating device 32 to reflect the gaze direction information ( ⁇ , ⁇ , ⁇ ). That is, processing is performed to cause the avatar, stuffed animal, etc. in the direction indicating device 32 to face the direction indicated by the gaze direction information ( ⁇ , ⁇ ), or to convey the direction by voice.
  • the direction indicating device 32 only presents the direction, the head direction ⁇ and the gaze direction information ⁇ in the roll direction are not necessary, but the direction indicating device 32 can also present the roll direction. For example, depending on the gaze direction information ⁇ , it is possible to make an expression such that an avatar or a stuffed animal tilts its head.
  • the local user 6 can use the direction indicating device 32 to recognize the direction in which the remote user 5 is gazing.
  • Option opt1 is a process in response to an instruction from the remote user 5.
  • the remote viewing system 1 transmits an exposure correction instruction to the on-site imaging system 3 in step ST14.
  • the on-site imaging system 3 performs exposure correction of the omnidirectional camera 31.
  • Option opt2 is processing in response to an instruction from the remote user 5 based on automatic determination.
  • the remote viewing system 1 determines the exposure state of the area that the remote user 5 is gazing at. Since the remote viewing system 1 can detect the gaze direction of the remote user 5, it can determine whether the exposure of the image in that area is appropriate. If the exposure is not appropriate, the remote viewing system 1 transmits an exposure correction instruction as step ST16.
  • the exposure state of the area that the remote user 5 is gazing at may be determined on the local imaging system 3 side.
  • the on-site imaging system 3 can detect the gaze direction of the remote user 5, and therefore can determine whether or not the exposure is appropriate for the captured image of the area.
  • the on-site imaging system 3 determines that the exposure of the area in the direction in which the remote user 5 is currently gazing is not appropriate, the on-site imaging system 3 determines that the exposure of the area in the direction in which the remote user 5 is currently gazing is not appropriate. Exposure compensation for the camera 31 is performed. Thereby, the image that the remote user 5 is gazing at is displayed on the omnidirectional display device 11 with appropriate exposure.
  • the processing is performed between the remote viewing system 1 and the local imaging system 3, so that the remote user 5 can view the same scene as the local user 6. Further, the local user 6 can recognize the direction in which the remote user 5 is gazing using the direction indicating device 32. Further, the object in the direction in which the remote user 5 is gazing will be displayed on the omnidirectional display device 11 in an appropriate exposure state.
  • FIGS. 14 and 15 Examples of processing by the control terminals 10 and 30 to realize such operations are shown in FIGS. 14 and 15.
  • FIG. 14 shows an example of processing by the control terminal 10. Upon starting the session, the control terminal 10 starts the process shown in FIG. 14 .
  • FIG. 14 mainly shows processing by the functions of the gaze information processing unit 10b and processing corresponding to user operations.
  • control terminal 10 After starting the session, the control terminal 10 first performs the above-mentioned reference adjustment in step S101.
  • step S103 the control terminal 10 detects the position and direction of the head. That is, the control terminal 10 acquires detection information from the head position/direction detection device 12.
  • step S104 the control terminal 10 calculates gaze direction information ( ⁇ , ⁇ ) or gaze direction information ( ⁇ , ⁇ , ⁇ ) using the acquired detection information, and performs a process of transmitting the calculated gaze direction information. .
  • the above is the process explained in steps ST11, ST12, and ST13 in FIG.
  • step S105 of FIG. 14 the control terminal 10 determines whether there is an exposure correction request from the remote user 5. For example, it is determined whether the remote user 5 has operated the operation unit 19 to request exposure correction. If there is an exposure correction request, the control terminal 10 transmits an exposure correction instruction to the on-site imaging system 3 in step S106. This is a process corresponding to option opt1 in FIG.
  • the control terminal 10 repeatedly executes steps S102 to S106 in FIG. 14 until the session ends in step S107.
  • control terminal 10 may or may not perform exposure determination and exposure correction instructions as option opt2 in FIG.
  • the exposure determination is performed on the on-site imaging system 3, so although it is not shown in FIG. 14, for example, the control terminal 10 repeatedly performs exposure determination until the session ends in step S107. , an exposure correction instruction may be given as necessary.
  • FIG. 15 shows an example of processing by the control terminal 30. Upon starting the session, the control terminal 30 starts the process shown in FIG. 15.
  • FIG. 15 mainly shows exposure control processing by the camera control section 30a and control processing by the direction instruction control section 30b.
  • control terminal 30 After starting the session, the control terminal 30 first performs the above-mentioned reference adjustment in step S201.
  • control terminal 10 While the session is continuing, the control terminal 10 repeatedly executes the processes from step S202 to step S206, for example.
  • step S202 the control terminal 30 receives the gaze direction information ( ⁇ , ⁇ ) or the gaze direction information ( ⁇ , ⁇ , ⁇ ).
  • step S203 the control terminal 30 performs control to reflect the gaze direction information on the direction indicating device 32. That is, the control terminal 30 controls the direction indicating device 32 to present a direction according to the gaze direction information ( ⁇ , ⁇ ). If the gaze direction information ⁇ is included, the direction indicating device 32 is controlled to present an appearance of tilting its head based on the amount of displacement of the gaze direction information ⁇ . This becomes the process of step ST21 in FIG.
  • step S204 of FIG. 15 the control terminal 30 determines whether there is an exposure correction instruction from the control terminal 10. For example, when the control terminal 10 transmits an exposure correction instruction in the process of step S106 in FIG. 14, the control terminal 30 determines that there is an exposure correction instruction and proceeds to step S206.
  • step S205 the control terminal 30 proceeds to step S205 and performs exposure determination. That is, it is determined whether or not the area in the direction of the subject indicated by the gaze direction information is in an appropriate exposure state.
  • the control terminal 30 sets an image area within a certain in-plane range including the direction indicated by the gaze direction information ( ⁇ , ⁇ ) in the captured image, and determines the brightness of the representative point within the image area and the brightness within the area. The highest value, lowest value, average value, and brightness histogram are referred to to determine whether the exposure of the area is appropriate.
  • step S206 the control terminal 30 proceeds to step S206. If the exposure is appropriate, the process advances to step S207 without passing through step S206.
  • step S204 or step S205 to step S206 the control terminal 30 performs exposure correction so that the captured image of the gaze area has an appropriate exposure. That is, for the omnidirectional camera 31, adjustment control is performed to bring the exposure to an appropriate state by shutter speed adjustment, aperture adjustment, ISO sensitivity adjustment, ND filter insertion, etc., or a combination thereof.
  • the above steps S204 to S206 correspond to steps ST22, ST23, and ST24 in FIG. 12.
  • the control terminal 30 repeatedly executes the processes from step S202 onwards until the session ends in step S207 of FIG.
  • step S205 the exposure determination is performed in step S205, but as explained in FIG. 12, when the exposure determination is performed on the remote viewing system 1 (control terminal 10) side, the process in step S205 is not performed. You can do it like this. However, even if the exposure determination is performed on the remote viewing system 1 (control terminal 10) side, the process of step S205 may also be performed on the control terminal 30 side.
  • control terminal 30 may perform focus determination and white balance determination regarding the gaze area indicated by the gaze direction information at step S205 in FIG. 15 .
  • focus adjustment control is performed in step S206, for example, to bring the subject that the remote user 5 is watching into a focused state.
  • white balance control is performed to make the hue of the image viewed by the remote user 5 as similar as possible to the hue of the scenery viewed by the local user 6. .
  • the focus determination of the gaze area of the image may be performed on the control terminal 10 side, and a focus adjustment instruction may be transmitted to the control terminal 30 according to the determination.
  • the remote user 5 is allowed to operate the focus and white balance using the operation unit 19, and in response to detecting such an operation in step S105 of FIG. 14, the control terminal 10 performs control in step S106.
  • a focus adjustment instruction and a white balance adjustment instruction may be transmitted to the terminal 30. In that case, the control terminal 30 performs focus adjustment control and white balance adjustment control in accordance with the instructions.
  • FIG. 16 shows a configuration example.
  • an eye tracking device 15 is provided in the remote viewing system 1.
  • the eye tracking device 15 is provided in combination with the head position/direction detection device 12 to detect the gaze position of the remote user 5 on the display screen of the omnidirectional display device 11.
  • the eye tracking device 15 may be of a stationary type or a wearable type.
  • the eye tracking device 15 uses, for example, a monocular or stereo camera to photograph the pupil illuminated with infrared light, and detects the line of sight direction from the pupil position and the position of a virtual image (Purkinje image) due to corneal reflection.
  • the pupil position is detected by the dark pupil method/bright pupil method.
  • the gaze direction of the remote user 5 detected by the eye tracking device 15 can be reflected in the gaze direction information in the following two ways.
  • One method is to correct the direction of the head obtained by the head position/direction detection device 12 using the line-of-sight direction obtained by the eye tracking device 15.
  • a display can be made in which the line of sight direction is presented based on the direction of the head.
  • the gaze direction information ( ⁇ , ⁇ ) can more accurately indicate the gaze direction of the remote user 5.
  • the other method is to transmit the head direction obtained by the head position/direction detection device 12 and the line-of-sight direction obtained by the eye tracking device 15 as separate information to the on-site imaging system 3. If the stuffed animal, avatar, etc. can move its head and eyeballs in the direction indicating device 32, the direction of the head can be reflected in the head movement of the avatar, etc., and the line of sight direction can be reflected in the eyeball movement. It becomes possible. Thereby, the situation of the remote user 5 can be more faithfully conveyed to the local user 6.
  • FIG. 17 shows a processing example of the control terminal 10. Note that in each of the subsequent flowcharts, the same step numbers are given to the previously described processes to avoid redundant explanation.
  • the control terminal 10 acquires the detection value from the head position/direction detection device 12 in step S103, and also acquires the detection information of the gaze direction by the eye tracking device 15 in step S110. Then, in step S104A, gaze direction information is generated and transmitted to the on-site imaging system 3.
  • the gaze direction information in this case reflects the information from the eye tracking device 15 as described above.
  • FIG. 18 shows a configuration example of the third embodiment.
  • a sub-display 16 is provided in the remote viewing system 1.
  • the sub-display 16 is assumed to be something that the remote user 5 can carry, such as a tablet terminal, a smartphone, or a small notebook PC.
  • FIG. 19 is an image expressed in an equirectangular projection for explaining a spherical image captured by the spherical camera 31 of the on-site imaging system 3.
  • the control terminal 10 can determine the direction in which the remote user 5 is gazing from the detection result by the head position/direction detection device 12. Therefore, the control terminal 10 generates a rectilinear image by cutting out the area that the remote user 5 is watching from the video transmitted from the local imaging system 3, and displays it on the sub-display 16.
  • the image is as shown in FIG.
  • the remote user 5 can specify a more detailed gaze point by touch operation or the like while viewing an image such as that shown in FIG. 20 on the sub-display 16 at hand. Note that when the remote user 5 looks at the sub-display 16, he moves his head to gaze at the side of the sub-display 16 at hand. For this reason, it is appropriate for the control terminal 10 to temporarily turn off detection by the head position/direction detection device 12.
  • FIG. 10 An example of processing by the control terminal 10 is shown in FIG. After acquiring the detection result by the head position/direction detection device 12 in step S103, the control terminal 10 controls the display of the sub-display 16 in step S120.
  • the control terminal 10 determines the gaze direction of the remote user 5 based on the coordinates (x, y, z) of the head position and the head direction ( ⁇ , ⁇ ) or ( ⁇ , ⁇ , ⁇ ).
  • a rectilinear image is generated according to the gaze direction and displayed on the sub-display 16.
  • step S121 the control terminal 10 determines whether the remote user 5 has performed an operation input on the sub-display 16.
  • the control terminal 10 proceeds to step S122, and based on the head position/direction detection in step S103, gaze direction information ( ⁇ , ⁇ ) or ( ⁇ , ⁇ , ⁇ ) and transmits them to the on-site imaging system 3.
  • step S121 When the remote user 5 operates the sub-display 16, the control terminal 10 proceeds from step S121 to step S122, and displays the gaze direction information ( ⁇ , ⁇ ) or the position specified by the operation on the sub-display 16. ( ⁇ , ⁇ , ⁇ ) is generated and transmitted to the on-site imaging system 3. In this case as well, the gaze direction information ⁇ is based on the head direction ⁇ in the roll direction.
  • the gaze direction information is sent to the local imaging system 3 as more accurate information (information indicating the direction specified by the remote user 5). I can tell you.
  • the remote user 5 views the sub-display 16
  • he or she turns his or her head toward the sub-display 16
  • the detection result by the head position/direction detection device 12 at that time is determined by the spherical display device. It does not indicate the gaze direction for 11. Therefore, for example, if it can be determined that the head movement indicates that the sub-display 16 is being viewed, the detection result by the head position/direction detection device 12 may not be used to generate the gaze direction information in step S122. Appropriate.
  • control terminal 10 may cause the sub-display 16 to display an equirectangular projection that is scrolled so that the gaze area is in the center instead of the cutout rectilinear image.
  • FIG. 22 is an example of an image displayed on the sub-display 16. This is an equirectangular projection image that is scrolled so that when the remote user 5 gazes around the frame 50 in FIG. 19, that area becomes the center.
  • the fourth embodiment allows the emotions (feelings and behavior) of a remote user 5 to be expressed in the on-site imaging system 3.
  • FIG. 23 is an example of processing by the control terminal 10. Following the processing in steps S102 and S103, the control terminal 10 performs emotion determination in step S130. Emotion determination is a process of determining the emotions and behavior of the remote user 5.
  • Examples of determination methods for determining the behavior of the remote user 5 with respect to the omnidirectional display device 11 are as follows. - A camera is installed in the internal area of the omnidirectional display device 11, analyzes the captured image of the remote user 5, detects the posture using bone data, and determines the behavior from the posture. - Determine the movement based on the transition of position detection by the head position/direction detection device 12.
  • Examples of determination methods for determining the emotion of the remote user 5 are as follows. Estimation of emotion based on the size, intonation, pitch, language recognition, etc. of the voice detected by the microphone 13. - A camera is installed in the internal area of the omnidirectional display device 11 to analyze the facial image of the remote user 5, and perform facial expression determination and emotion estimation. - The remote user 5 is enabled to perform an emotion selection operation using the operation unit 19, and the remote user 5 inputs his or her own emotion. ⁇ Use the above behavior judgment for emotion estimation.
  • the control terminal 10 determines the emotion of the remote user 5 using these methods and generates emotion data.
  • Emotional data includes emotions such as laughing, being happy, being sad, and being angry, as well as gestures such as raising your hands, spreading your hands, pointing, crossing your arms, shaking your head from side to side, nodding, and jumping and running around. Assume that the information indicates behavior.
  • step S131 the control terminal 10 generates gaze direction information based on the detection in step S103.
  • the control terminal 10 then performs a process of transmitting the gaze direction information and emotion data to the on-site imaging system 3.
  • the rest is the same as in FIG. 14.
  • FIG. 24 shows an example of processing by the control terminal 30.
  • the control terminal 30 receives gaze direction information and emotion data.
  • step S231 the control terminal 30 performs control to reflect the gaze direction information on the direction indicating device 32, and also performs control to cause the emotional data to be reflected on the direction indicating device 32.
  • the control terminal 30 controls the direction indicating device 32 to present a direction according to the gaze direction information or to present a direction that makes the user tilt their head.
  • the control terminal 30 controls the direction indicating device 32 to express the emotion and behavior indicated by the emotion data.
  • the facial expressions of avatars, stuffed animals, etc. can be changed according to emotions such as laughing, happy, sad, or angry.
  • gestures and actions are made to be performed by avatars, stuffed animals, etc.
  • the speaker 34 may output audio according to the emotion.
  • FIG. 24 Other processing in FIG. 24 is the same as that in FIG. 15.
  • the control terminals 10 and 30 performing the processes shown in FIGS. 23 and 24, even the emotion of the remote user 5 expressed in the direction indicating device 32 is transmitted to the local user 6. This allows the local user 6 to understand the emotions of the remote user 5 while taking actions on site.
  • the fifth embodiment is an example in which a remote user 5 can operate the display on the omnidirectional display device 11.
  • a remote user 5 can operate the display on the omnidirectional display device 11.
  • a 3D mouse, a joystick, or the like is provided as the operation unit 19 so that the remote user 5 can rotate (scroll) the screen of the omnidirectional display device 11 in the yaw and pitch directions. It is preferable that the localization of the sound is also changed in accordance with the scrolling of the image.
  • FIG. 25 is an example of an image before the operation
  • FIG. 26 shows a state where the image has been rotated in the yaw direction by the operation.
  • a line 51 indicates, for example, the front direction of the captured image.
  • the front direction indicated by line 51 is displaced to the right.
  • the gaze direction information transmitted to the on-site imaging system 3 needs to be corrected according to the rotation operation amount and direction.
  • the remote user 5 is gazing at the area indicated by the star mark 52 in FIG. 25.
  • the remote user 5 rotates the display image of the omnidirectional display device 11 by -90 degrees in the yaw direction.
  • the reference position BP2 is a position rotated by ⁇ 90 degrees in the yaw direction.
  • the intersection point M between the line L1 in the direction of the head ( ⁇ , ⁇ ) starting from the coordinates (x, y, z) of the head position of the remote user 5 and the display surface is determined. This is the position of the star mark 52.
  • gaze direction information with the omnidirectional camera 31 as a reference is calculated using a line L2 from the origin toward the intersection M. This becomes gaze direction information ⁇ in the yaw direction.
  • the gaze direction information ⁇ indicates the direction toward the intersection M as seen from the omnidirectional camera 31, and this is the direction in the captured image of the omnidirectional camera 31. This indicates the direction in which the remote user 5 is gazing.
  • the direction indicating device 32 will indicate a direction parallel to the line L2.
  • the control terminal 10 when the remote user 5 arbitrarily rotates the image, the control terminal 10 generates gaze direction information taking the rotation into consideration, so that the local imaging system 3 can correctly present the gaze direction of the remote user 5.
  • the sixth embodiment is an example in which the amount of data transmitted for images captured by the omnidirectional camera 31 can be reduced.
  • the remote user 5 visually recognizes the image in the gaze direction indicated by the gaze direction information. In other words, images in other directions are not visible. Then, it can be said that the image of the area that is not visible to the remote user 5 does not need to be a very high-definition image.
  • FIG. 28 shows an image taken by the omnidirectional camera 31, where an area 61 is a 30 degree x 30 degree area centered on the direction of gaze determined from the gaze direction information, and a 250 degree x 90 area around the area 61 is An area 62 is a range of degrees, and an area 63 is a range of 360 degrees x 180 degrees around the area 62.
  • Area 61 has the lowest compression rate as a high resolution area.
  • the area 62 has a medium resolution and has a medium compression ratio.
  • Area 61 has the highest compression rate as a low resolution area.
  • control terminal 30 sets the in-plane areas 61, 62, and 63 of the captured image based on the gaze direction information, and also sets the compression rate for each area 61, 62, and 63, and performs compression encoding. , to the remote viewing system 1. This allows you to lower the bit rate of the video being sent.
  • step S240 the control terminal 30 sets a plurality of areas 61, 62, and 63 based on the gaze direction information received in step S202, and sets a compression rate for each area. According to this setting, each frame of the moving image to be transmitted is subjected to compression processing with a different compression rate for each area within the frame, and then transmitted.
  • the area setting is updated every frame or every predetermined number of frames. In other words, if the gaze direction of the remote user 5 changes, the area setting will also change.
  • the plurality of areas with different compression rates are not limited to three areas such as areas 61, 62, and 63 in FIG. 28, but may be two areas or may be divided into four or more areas. .
  • the processing in the first to sixth embodiments may be performed when there is only one remote user 5 or a plurality of remote users 5, but in the explanation up to this point, the gaze direction information of one remote user 5 is obtained by local imaging.
  • the explanation has been made assuming that the data is sent to System 3.
  • the processing of each embodiment can be applied as follows.
  • the remote viewing system 1 detects the head position and direction of each local user 6, generates and transmits a plurality of gaze direction information corresponding to each local user 6.
  • the corresponding direction indicating devices 32 are controlled according to each gaze direction information.
  • the local user 6 can know the gaze direction, emotion, etc. of each of the plurality of remote users 5.
  • the processing of the embodiment may be performed for a specific local user 6 determined in advance.
  • a person near the center of the internal area of the omnidirectional display device 11 may be selected, and the process of the embodiment may be performed using that person as the remote user 5 to be processed.
  • the person to be processed as the remote user 5 may be selected fixedly or dynamically depending on some condition.
  • the remote viewing system 1 includes a celestial sphere display device 11 that displays an image at a wider angle than a human visual field, and a viewer of the celestial sphere display device 11 (remote user 5). ) and a control terminal 10 as a control device.
  • the control terminal 10 performs a process of displaying a captured image at a remote location transmitted from the local imaging system 3 on the omnidirectional display device 11.
  • the control terminal 10 also generates gaze direction information based on the information on the position and direction of the viewer's head obtained by the head position/direction detection device 12, and performs a process of transmitting the gaze direction information to the on-site imaging system 3. .
  • the on-site imaging system 3 includes a spherical camera 31 as an imaging device that captures images at a wider angle than a human visual field, a direction indicating device 32 that indicates a direction, and a control terminal 30 as a control device.
  • the control terminal 30 performs a process of transmitting images captured by the omnidirectional camera 31 to the remote viewing system 1 .
  • the control terminal 30 also performs a process of controlling the direction indicated by the direction indicating device 32 based on the gaze direction information of the viewer on the omnidirectional display device 11 in the remote viewing system 1 .
  • the remote user 5 using the remote viewing system 1 can visually check the scene at the remote location.
  • the local user 6 using the local imaging system 3 can know in which direction the remote user 5 in the remote viewing system 1 is gazing with respect to the local scene. Therefore, the local user 6 and the remote user 5 can share the gaze direction during a trip or an event, and can create a situation where they see the same thing, so the remote user 5 can travel with the local user 6. You can get an experience like being there.
  • sharing the local space in a pseudo manner also contributes to good communication between the local user 6 and the remote user 5. For example, a person at home or a hospital can experience the feeling of traveling with an acquaintance.
  • the gaze direction information is a direction in which the gaze direction of the remote user 5 determined based on the position and direction of the head is based on the position of the omnidirectional camera 31 of the on-site imaging system 3. (See FIG. 13).
  • the on-site imaging system 3 side can determine which area of the image the remote user 5 who is viewing the omnidirectional display device 11 on the remote viewing system 1 side is gazing at, based on the direction from the omnidirectional camera 31. It will be possible to judge. Therefore, the control terminal 30 can correctly determine the gaze area of the remote user 5 within the captured image of the omnidirectional camera 31.
  • the omnidirectional display device 11 is a display device that allows one or more viewers to view the displayed image by moving their position arbitrarily (see FIG. 2). ).
  • the omnidirectional display device 11 On the side of the remote viewing system 1, one or more remote users 5 can view images from the field at any position or while moving with respect to the omnidirectional display device 11 having a large image display surface. This makes it easier to experience a simulated local space.
  • the control terminal 30 controls the omnidirectional camera 31 based on the gaze direction information received from the remote viewing system 1.
  • the on-site imaging system 3 uses the camera control unit 30a to optimize the exposure, focus state, color tone, etc. in the gaze area based on the gaze direction information. Even if the local imaging system 3 does not include the direction indicating device 32, performing such control is preferable in that the remote user 5 can view the same scene as the local user 6.
  • the control terminal 30 controls the exposure of the omnidirectional camera 31 based on the gaze direction information (see FIG. 15, etc.). Based on the gaze direction information of the remote user 5, the relevant area of the image captured by the omnidirectional camera 31 (the area that the remote user 5 is gazing at) is determined, and the area is exposed to an appropriate exposure state. Take control. This allows the remote user 5 of the remote viewing system 1 to view an appropriately exposed image.
  • the image on the celestial sphere display device 11 has areas that are not visible to the remote user 5, and there may be large differences in brightness depending on the width of the viewing angle.
  • the remote user 5 By ensuring that the area that the remote user 5 is gazing at is in an appropriate exposure state, a high-quality image can be provided to the remote user 5 regardless of the width of the viewing angle or the difference in brightness. If the exposure in the gaze area is not appropriate, the remote user 5 will feel less immersed in the site. Therefore, this is also extremely suitable in that the remote user 5 can view the same scene as the local user 6 and see the same thing in the same way. This can be expected to strengthen the sharing of space, for example, the feeling of being together in a pseudo sense.
  • the control terminal 30 performs focus control and white balance control of the omnidirectional camera 31 based on the gaze direction information.
  • the relevant area of the image captured by the omnidirectional camera 31 (the area that the remote user 5 is gazing at) is determined, and the focus is adjusted to bring the area into an appropriate focus state. Take control.
  • white balance control is performed according to the area.
  • the remote user 5 of the remote viewing system 1 can view the image as an in-focus image or as an image with more faithful color reproduction.
  • the remote viewing system 1 includes an eye tracking device 15 (gaze detection device) that detects the gaze direction of the viewer, and the control terminal 10 uses the detection result of the eye tracking device 15 to determine the gaze direction.
  • eye tracking device 15 gaze detection device
  • An example of generating information has been described (see FIGS. 16 and 17).
  • the gaze direction of the remote user 5 can be determined more accurately.
  • the accuracy of the gaze direction is improved.
  • the direction indicating device 32 can control the head and eyeballs of an avatar, etc.
  • the situation of the remote user 5 can be accurately communicated to the local user 6.
  • the detection results by the head position/direction detection device 12 are only information on the position and direction of the head, and do not include the direction of the line of sight.
  • the gaze area can be determined as a range that covers differences in viewing directions. Therefore, the use of the eye tracking device 15 is not necessarily essential. However, determining the correct gaze area using the information from the eye tracking device 15 is meaningful in that the control of the omnidirectional camera 31 and the range of visibility improvement thereby become more appropriate.
  • the remote viewing system 1 includes the sub-display 16 (sub-display device) on which the viewer can input operations.
  • the control terminal 10 controls the display image on the sub-display 16 based on the information on the position and direction of the viewer's head from the head position/direction detection device 12, and performs an operation to specify the inside of the display image on the sub-display 16.
  • the gaze direction information is generated according to the following (see FIGS. 18 to 22).
  • the remote user 5 can check the image of the area he is watching within the spherical display device 11 at hand. You can then specify the position within the image using touch operations. Thereby, the gaze position of the remote user 5 can be determined more accurately, and appropriate gaze direction information can be generated.
  • the control terminal 10 of the remote viewing system 1 generates emotion data of the viewer and transmits the data to the on-site imaging system 3. Furthermore, the control terminal 30 of the on-site imaging system 3 performs a process of causing the direction indicating device 32 to execute emotion presentation based on the emotion data from the remote viewing system 1 (see FIGS. 23 and 24). Thereby, the local user 6 can know the feelings and gestures of the remote user 5 who shares the local space in a pseudo manner. This facilitates smooth communication.
  • the control terminal 10 of the remote viewing system 1 controls the rotation of the image displayed on the omnidirectional display device 11 according to the rotation operation of the viewer, and also controls the amount of rotation operation.
  • An example was given in which the rotation direction and rotation direction are reflected in the gaze direction information (see FIGS. 25 to 27).
  • the remote user 5 can rotate the image on the celestial sphere display device 11 by operation, and can obtain an easy-to-view state according to the remote user's convenience.
  • the gaze direction information transmitted to the on-site imaging system 3 can be correct information as the direction from the omnidirectional camera 31.
  • the control terminal 30 of the on-site imaging system 3 controls the captured image to be transmitted to the remote viewing system 1 based on the gaze direction information of the viewer on the omnidirectional display device 11 in the remote viewing system 1.
  • An example was given in which the compression rate is controlled for each image area (see FIGS. 28 and 29). This improves the quality of the experience for the remote user 5 by displaying a high-definition image for the area that the remote user 5 is looking at, while transmitting the area that the remote user 5 is not looking at as a highly compressed image. The amount of transmitted data can be reduced without compromising communication bandwidth.
  • the direction indicating device 32 in the embodiment expresses the head as a real object or an image, and indicates the direction based on the orientation of the head (see FIGS. 3 to 10).
  • the direction indicating device 32 represents the head of a human being, an animal, a fantasy creature, a two-dimensional character, a robot, etc., and the orientation of the head represents the direction in which the remote user 5 is gazing.
  • the local user 6 can grasp the direction in which the remote user 5 is gazing in the same way as if they were present together at the local site.
  • the embodiment has been described mainly using the case of remote travel as an example, the technology of the embodiment is useful not only for remote travel but also for various cases.
  • the site is an event venue, a theme park, etc., or even a sports venue, live music venue, theater, campground, art museum, museum, etc., experiences can be shared between the site and a remote location.
  • the field may be a place where an omnidirectional camera 31 or the like as a fixed point camera is installed.
  • the program of the embodiment executes the processing of the control terminal 10 as shown in FIGS. 14, 17, 21, and 22, or the processing of the control terminal 30 as shown in FIGS.
  • This is a program that is executed by a processor such as , DSP, or a device including these.
  • the program of the embodiment includes a process of displaying a captured image at a remote location transmitted from the local imaging system 3 on a display device (the spherical display device 11) that displays an image with a wider angle than the human visual field;
  • the program of the embodiment also includes a process of transmitting an image captured by an imaging device (the omnidirectional camera 31) that captures an image wider than a human visual field range to the remote viewing system 1, and a display device in the remote viewing system 1.
  • This is a program that causes the control device to execute a process of controlling the direction indicated by the direction indicating device 32 based on the gaze direction information of the viewer.
  • the program of the embodiment also includes a process of transmitting an image captured by an imaging device (the omnidirectional camera 31) that captures an image wider than a human visual field range to the remote viewing system 1, and a display device in the remote viewing system 1.
  • This is a program that causes a control device to control an imaging device based on gaze direction information of a viewer.
  • the information processing device 70 that can be used as the control terminals 10 and 30 in the remote viewing system 1 and the on-site imaging system 3 described above can be realized using various computer devices.
  • Such a program can be recorded in advance in an HDD as a recording medium built into equipment such as a computer device, or in a ROM in a microcomputer having a CPU.
  • such programs can be used for flexible discs, CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray Discs (registered trademark), magnetic It can be stored (recorded) temporarily or permanently in a removable recording medium such as a disk, semiconductor memory, or memory card.
  • a removable recording medium can be provided as so-called package software.
  • a program In addition to installing such a program into a personal computer or the like from a removable recording medium, it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • Such a program is suitable for widely providing the information processing device 70 of the embodiment.
  • a program for example, by downloading a program to a personal computer, communication device, mobile terminal device such as a smartphone or tablet, mobile phone, game device, video device, PDA (Personal Digital Assistant), etc., these devices can be used as the information processing device of the present disclosure.
  • 70 control terminals 10, 30.
  • the present technology can also adopt the following configuration.
  • a display device that displays an image wider than a human visual field; a head position/direction detection device that detects the position and direction of the head of a viewer of the display device; A process of displaying a captured image at a remote location transmitted from a local imaging system on the display device, and generating gaze direction information based on information on the position and direction of the viewer's head by the head position/direction detection device. and a control device that performs a process of transmitting the gaze direction information to the on-site imaging system.
  • the gaze direction information is information that represents the gaze direction of the viewer, which is determined based on the position and direction of the head, in a direction based on the position of the imaging device of the on-site imaging system.
  • Remote viewing system as described.
  • the display device is a spherical display device that allows one or more viewers to view the displayed image by moving their positions arbitrarily.
  • (4) comprising a line-of-sight detection device that detects the line-of-sight direction of the viewer;
  • the control device generates the gaze direction information using the detection result of the line of sight detection device.
  • the control device controls the display image of the sub-display device based on information on the position and direction of the viewer's head obtained by the head position/direction detection device, and specifies the inside of the display image of the sub-display device.
  • the remote viewing system according to any one of (1) to (4) above, wherein the gaze direction information is generated in accordance with an operation to be performed.
  • the control device generates emotional data of the viewer and performs a process of transmitting it to the on-site imaging system.
  • the control device performs rotation control of the image displayed on the display device in response to a rotation operation of the viewer, and The remote viewing system according to any one of (1) to (6) above, wherein the operation amount and rotation direction of the rotation operation are reflected in the gaze direction information.
  • an imaging device that captures an image wider than a human visual field; a direction indicating device that indicates the direction; a control device that performs a process of transmitting a captured image of the imaging device to a remote viewing system, and a process of controlling a direction indicated by the direction indicating device based on gaze direction information of a viewer of a display device in the remote viewing system; Equipped with an on-site imaging system.
  • the on-site imaging system according to (8) above wherein the control device performs exposure control of the imaging device based on the gaze direction information.
  • the control device according to any one of (8) to (10) above performs a process of causing the direction indicating device to execute emotion presentation based on emotional data about a viewer of a display device in the remote viewing system.
  • On-site imaging system. (12) The control device controls the compression rate of the captured image to be transmitted to the remote viewing system for each image area based on the gaze direction information of the viewer of the display device in the remote viewing system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

遠隔視認システムは、人の視野範囲より広角の画像の表示を行う表示装置と、表示装置の視認者の頭部の位置及び方向を検出する頭部位置・方向検出装置と、現地撮像システムから受信された遠隔地における撮像画像を表示装置に表示させる処理、及び頭部位置・方向検出装置による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、注視方向情報を前記現地撮像システムに送信する処理を行う制御装置を備える。現地撮像システムは、人の視野範囲より広角の画像の撮像を行う撮像装置と、方向を示す方向指示装置と、撮像装置の撮像画像を遠隔視認システムに送信する処理、及び受信した注視方向情報に基づいて方向指示装置による指示方向を制御する処理を行う制御装置を備える。

Description

遠隔視認システム、現地撮像システム
 本技術は互いに通信を行う遠隔視認システム、現地撮像システムに関する。
 通信技術の発展に伴い、遠隔旅行というユースケースが提案されている。ユーザは、旅行先に行くことなしに、旅行先の現地側の参加者とコミュニケーションを取りながら、現地側の様子をリアルタイムに伝送される映像・音声を視聴する。これにより、あたかもユーザ自身が旅行に行ったかのような体験を楽しむことができる。
 一方、全周囲ディスプレイと分類できる技術がある。これは、曲面や複数の平面で構成されるひとつづきの画面によって、単独または複数のユーザを取り囲むことができるように配置されたディスプレイを指す。具体的には複数台のプロジェクターによる投影やLED(Light Emitting Diode)ボードのようなモジュラー型ディスプレイによって構成される。
 下記特許文献1には全周囲ディスプレイに関する技術が開示されている。
 また撮像装置によって撮像され配信された画像の表示に関し、特に露出制御についての発明が特許文献2に開示されている。
特開2020-155847号公報 特開2006-319474号公報
 全周囲ディスプレイはユーザに臨場感や没入感のある映像体験を提供するので、上述の遠隔旅行の目的に適っている。
この遠隔旅行などで現地側での参加者と、全周囲ディスプレイ側のユーザが、旅行に一緒に行った感覚を得るためには、両者で現地側の「同じものが同じように見えている」状態が理想である。
ところが「同じものが同じように見えている」という状態は、単に旅行先などの現地の撮像画像を配信して、それを遠隔地のユーザに見てもらうだけでは実現できない。
 そこで本技術は、例えば遠隔旅行などにおいて、現地ユーザと遠隔地でディスプレイ表示を視認するユーザとの間で適切に画像(光景)が共有できるようにすることを目的とする。
 本技術に係る遠隔視認システムは、人の視野範囲より広角の画像の表示を行う表示装置と、前記表示装置の視認者の頭部の位置及び方向を検出する頭部位置・方向検出装置と、現地撮像システムから送信された遠隔地における撮像画像を前記表示装置に表示させる処理、及び前記頭部位置・方向検出装置による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、前記注視方向情報を前記現地撮像システムに送信する処理を行う制御装置と、を備える。
 遠隔視認システムでは、表示装置によって遠隔地にある現地撮像システムが撮像する光景を視認できる。その場合に視認者の注視方向を現地撮像システムに伝えるようにする。
 本技術に係る現地撮像システムは、人の視野範囲より広角の画像の撮像を行う撮像装置と、方向を示す方向指示装置と、前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記方向指示装置による指示方向を制御する処理を行う制御装置と、を備える。
 現地撮像システム側では、遠隔視認システムの視認者が、現実の光景においてどの方向を注視しているかを示すようにする。
 また本技術に係る現地撮像システムは、人の視野範囲より広角の画像の撮像を行う撮像装置と、前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記撮像装置の制御を行う制御装置と、を備える。
 現地撮像システム側では、遠隔視認システムの視認者が、視認している方向に応じて撮像装置の制御を行うようにする。
本技術の第1の実施の形態のシステム構成のブロック図である。 実施の形態で用いる全天球表示装置の説明図である。 実施の形態の現地側システムの態様の説明図である。 実施の形態の方向指示装置の態様の説明図である。 実施の形態の方向指示装置の態様の説明図である。 実施の形態の方向指示装置の態様の説明図である。 実施の形態の現地側システムの態様の説明図である。 実施の形態の現地側システムの態様の説明図である。 実施の形態の現地側システムの態様の説明図である。 実施の形態の現地側システムの態様の説明図である。 実施の形態の情報処理装置のブロック図である。 実施の形態のシステム間の通信及び処理のシーケンスの説明図である。 実施の形態の注視方向情報の生成の説明図である。 第1の実施の形態の遠隔視認システムの処理のフローチャートである。 第1の実施の形態の現地撮像システムの処理のフローチャートである。 第2の実施の形態のシステム構成のブロック図である。 第2の実施の形態の遠隔視認システムの処理のフローチャートである。 第3の実施の形態のシステム構成のブロック図である。 第3の実施の形態の全天球ディスプレイの表示画像の説明図である。 第3の実施の形態のサブディスプレイの表示画像の説明図である。 第3の実施の形態の遠隔視認システムの処理のフローチャートである。 第3の実施の形態のサブディスプレイの表示画像の説明図である。 第4の実施の形態の遠隔視認システムの処理のフローチャートである。 第4の実施の形態の現地撮像システムの処理のフローチャートである。 第5の実施の形態の全天球ディスプレイの表示画像の説明図である。 第5の実施の形態の全天球ディスプレイの表示画像の説明図である。 第5の実施の形態の注視方向情報の生成の説明図である。 第6の実施の形態の領域毎の圧縮率の説明図である。 第6の実施の形態の現地撮像システムの処理のフローチャートである。
 以下、実施の形態を次の順序で説明する。
<1.第1の実施の形態>
<2.第2の実施の形態>
<3.第3の実施の形態>
<4.第4の実施の形態>
<5.第5の実施の形態>
<6.第6の実施の形態>
<7.複数の遠隔ユーザ5>
<8.まとめ及び変形例>
 なお、本開示では「画像」とは、動画、静止画のいずれをも指す。主に動画を例にして説明するが、撮像されたり表示されたりする画像は動画に限らず静止画や、複数の静止画によるスライドショウのようなものでもよい。特に「画像」と「映像」を区別せず、以下では主に「画像」と表記する。
 また「画像」とは、実際に画面に表示される画像を指すが、画面に表示されるまでの信号処理過程や伝送路における「画像」とは画像データを指す。
<1.第1の実施の形態>
 図1は第1の実施の形態のシステム構成を示している。
 実施の形態のシステムは、遠隔視認システム1と現地撮像システム3がネットワーク2により相互に通信可能に構成されている。
即ち遠隔視認システム1と現地撮像システム3は、遠隔視認システム1側の通信装置21と、現地撮像システム3側の通信装置22の間のネットワーク通信により、相互に通信可能とされる。
 ネットワーク2は、例えばインターネット、ホームネットワーク、LAN(Local Area Network)、衛星通信網、電話通信網、その他の各種のネットワークが想定される。なおネットワーク2を介さずに遠隔視認システム1と現地撮像システム3が直接通信接続してもよい。
 遠隔視認システム1は、制御端末10、全天球表示装置11、頭部位置・方向検出装置12を少なくとも備える。加えて図示のようにマイクロフォン13、スピーカ14、操作部19等、ユーザインタフェースのための装置を備えてもよい。
 現地撮像システム3は、制御端末30、全天球カメラ31、方向指示装置32を少なくとも備える。加えて図示のようにマイクロフォン33、スピーカ34等、ユーザインタフェースのための装置を備えてもよい。
 この遠隔視認システム1と現地撮像システム3により、例えば遠隔旅行のような体験をユーザに提供する。
 現地撮像システム3は、旅行先などの現地に居るユーザ(以下「現地ユーザ6」とする(図7等参照))が所持するものとされたり、或いは現地ユーザ6とともに行動したりするものとされる。
 遠隔視認システム1は、現地とは離れた場所における施設であって、全天球表示装置11が配置された場所に構築され、その遠隔地のユーザ(以下「遠隔ユーザ5」とする(図2参照))が、現地の光景を配信される画像により視認できるものとする。
 例えば現地撮像システム3においては周囲の光景を全天球カメラ31で撮像する。その撮像画像はネットワーク2を介して遠隔視認システム1に送信される。
 遠隔視認システム1では全天球表示装置11により、現地の光景を表示する。これにより全天球表示装置11を視認する遠隔ユーザ5は、現地ユーザ6が実際に見ている光景と同等の光景を視認することができる。
 特に全天球表示装置11は、全周囲ディスプレイなどとして呼ばれる、人の視野範囲より広角の画像の表示を行う表示装置として構成される。
 但し本開示において「全天球」或いは「全周囲」は、必ずしも厳密な意味で用いているのではない。つまり必ずしも360度周囲、或いは3次元空間としての周囲全面という意味ではなく、あくまでも、一般的な人の視野範囲より広い範囲で画像を表示できるものとする。
 例えば全天球表示装置11の例を図2に示す。
・箱状/角柱状
・球状(ドーム又はドームの一部)
・円筒状(円筒の一部)
・トーラス
・平面と曲面の組合せ
 などの形態が想定される。
 望ましくは、図示のように、1又は複数の遠隔ユーザ5の周囲を広く囲むような大型ディスプレイとされ、ディスプレイで囲まれた内部エリアを遠隔ユーザ5が自由に移動できるようなものが想定される。また内部エリアに椅子、ソファー等が設けられ、遠隔ユーザ5が椅子等に座って周囲を視認できるような形態でもよい。
 このような全天球表示装置11に現地ユーザ6が見ている光景が表示されることで、遠隔ユーザ5は、現地ユーザ6の旅行先の光景を共有する。特に全天球表示装置11が、遠隔ユーザ5の周囲を広く囲む大型のディスプレイであることで、遠隔ユーザ5は没入感を得やすいものとなる。全天球表示装置11が、人の視野より広い範囲の表示を行うため、遠隔ユーザ5は内部エリア内で任意の位置で周囲を見渡すことで、実際に現地に居る状態に近い体験ができるためである。
 このような全天球表示装置11は、例えば次のような構成例により、上述の形状を実現できる。
・LEDウォールのようなモジュラーディスプレイ
・プロジェクター
・FPD(Flat Panel Display)もしくはカーブドディスプレイ
 LEDウォールのようなモジュラーディスプレイとは、例えばLED表示パネルを複数、水平・垂直方向に並べることで、図2のような各種の形状の大型ディスプレイとするものである。
プロジェクターについては、1つのプロジェクターにより魚眼レンズなどを介して全周囲投影をすることが考えられる。或いは複数のプロジェクターを用い、各プロジェクターの画角範囲の境界付近が円滑な画像となるように、エッジブレンディングして投影するようにしてもよい。
FPDやカーブドディスプレイは、単独で用いてもよいし、複数をタイリングして用いてもよい。
 なお全天球表示装置11は、ステレオ画像を表示できるようにしてもよい。
さらに全天球表示装置11は、音声出力部を備え、現地の音声を出力するようにしもよい。
 例えば図1の現地撮像システム3におけるマイクロフォン33で集音された音声が遠隔視認システム1に送信されるようにする。そして遠隔視認システム1ではスピーカ14が全天球表示装置11の内部エリアに対して現地撮像システム3から送信されてきた音声を出力するようにする。
 これにより遠隔ユーザ5は、現地の光景を見るだけでなく、現地の環境音や、現地ユーザ6の声なども聞くことができる。
 また全天球表示装置11内に居る遠隔ユーザ5の発する声などを集音するマイクロフォン13が設けられ、現地撮像システム3に送信されるようにするとよい。現地撮像システム3側では、遠隔ユーザ5の声などの音声を受信し、スピーカ34から出力する。これにより現地ユーザ6は遠隔ユーザ5の声などを聞くことができる。
 このように相互に音声も伝えることで、遠隔ユーザ5は、より実際に現地ユーザ6と一緒に旅行先に居るような体験が可能となる。
 以上のような全天球表示装置11での表示のために、現地撮像システム3には全天球カメラ31が設けられる。
 全天球カメラ31は、たとえば、次のものから選択される。
・画角180度から250度の魚眼レンズを備えた単独のカメラ
・魚眼レンズを備えたカメラ2台を背中合わせに配置して360度を撮影可能にしたもの
・複数台のカメラを略円周上もしくは略球面上に配置して180度から360度を撮影可能にしたもの
2台以上のカメラを使用する場合、現地撮像システム3側か遠隔視認システム1側で撮像画像のスティッチ処理を行い、シームレスな全周囲画像が表示できるようにする。
また全天球カメラ31は、さらに、隣接させたカメラでステレオ撮影を行うようにしてもよい。これにより全天球表示装置11に3次元映像を表示し、遠隔ユーザ5がより強い没入感を得ることが可能になる。
 本実施の形態では、遠隔視認システム1において頭部位置・方向検出装置12を設けることで、遠隔ユーザ5の注視方向を検出し、これを注視方向情報として現地撮像システム3に通知できるようにする。
 またこれに対応して現地撮像システム3には方向指示装置32を設け、現地ユーザ6に遠隔ユーザ5が注視している方向を提示できるようにしている。
これは次の理由による。
 現状、遠隔地間での画像共有は、一般的にパーソナルコンピュータやテレビジョンモニタなどの小型の平面ディスプレイで見ることが想定されている。その場合、ユーザはポインティングデバイスやタッチによる操作で表示画面上の領域を指定することができる。例えば全天球画像から一部を切り出して表示させるような場合に、そのような操作が可能であり、ユーザは全天球画像のうちで任意の方向の画像を見ることができる。
 ところが、遠隔旅行のようなユースケースで上述の全天球表示装置11のような大型のディスプレイを用いる場合、遠隔ユーザ5が自分の注視領域を現地ユーザ6に伝えることは容易ではない。
 なぜなら、全天球表示装置11のように表示領域が広く、ユーザからディスプレイに対する見込み角が大きいと、一度に見渡すことができず、表示領域の代表点(例えば表示領域の中心)と注視領域が必ずしも一致しないからである。
 また、表示領域が広いため、ポインティングデバイスやタッチによる操作も広い範囲内で行わなければならず、容易な操作とならない。
 本実施の形態のように、全天球表示装置11に対する遠隔ユーザ5の注視領域をシステムに入力するためには、遠隔ユーザ5の視線方向をセンシングすることが有効であると考えられる。ところが全天球表示装置11とユーザの位置関係(ユーザの向きも含む)は、平面ディスプレイの場合とは異なり固定でない。平面ディスプレイの場合、ユーザは画面中央に正対すると想定されるが、本実施の形態の場合、上述のように遠隔ユーザ5は全天球表示装置11の内部エリアを移動できるためである。そのため遠隔ユーザ5については視線方向だけでなく、頭部の位置を測定することが必要となる。
 そのため遠隔視認システム1には頭部位置・方向検出装置12が設けられ、全天球表示装置11を視認している遠隔ユーザ5の頭部の位置及び方向を検出する。
 頭部の位置とは、全天球表示装置11の内部エリアにおける位置であり、遠隔ユーザ5の居る位置と考えてもよい。
 頭部の方向とは顔(目)の向きであり、視線方向に相当する。
 頭部位置・方向検出装置12が、遠隔ユーザ5の頭部の位置・方向を検出し、それを制御端末10に通知する。これにより制御端末10は、遠隔ユーザ5が全天球表示装置11内のどの方向を視認しているかを判定できるようにしている。判定処理の詳細は後述する。
 この頭部位置・方向検出装置12は、例えば遠隔ユーザ5が頭部に装着するトラッカーや、遠隔ユーザ5を撮影して姿勢推定を行う撮影・画像解析システムなどとして実現可能である。
 トラッカーとしては、アウトサイドイン方式のものがある。これは同期がとれた光源とディテクタ(トラッカー側)の組み合わせで構成される。
 光源がシート状ビームを、全天球表示装置11の内部エリアのXY方向にそれぞれ掃引し、ディテクタが検出して座標を計算するものである。ディテクタが3カ所以上あれば方向(3点を含む平面の法線ベクトル)も計算できる。
 またトラッカーとして反射マーカー方式もある。光源一体型カメラを全天球表示装置11の内部エリアの隅などに設置し、マーカー(再帰反射材)の位置を測定するものである。
 またトラッカーとして磁気式のものもある。これはソースから発生した磁場によりセンサコイルに発生する励磁電流を検出し、位置及び角度を計算するものである。
 姿勢推定については、RGB画像及びデプス(距離情報)を得るカメラで人物を撮像し、画像解析を行うシステムを用いることが考えられる。例えば人物の画像について、機械学習ベースの推定で、ボーンデータ(骨格データ)を求めて姿勢を推定し、姿勢から頭部の位置と方向を検出するものである。
 以上のような頭部位置・方向検出装置12を設け、ユーザの注視方向が計算できるようにする。
 なお、実際には遠隔ユーザ5の頭部の位置及び向きだけでなく、視線方向により注視方向は変化する。但し、眼球運動の範囲が30度前後であることから、その範囲をカバーするように注視している領域を大まかに判定することで、ユーザの実際の注視領域を含む画像上の領域を判定できることになる。
 現地撮像システム3には、遠隔ユーザ5の注視領域を現地ユーザ6に伝えるための方向指示装置32が設けられている。方向指示装置32は、視覚により提示するもの、聴覚により提示するもの、或いはそれらの両方を備えるものが想定される。
 例えば視覚によるものとしては、
・指示針、ロボットの顔、ぬいぐるみの顔、アバター正面を表示したディスプレイ等とそれらを任意方向に向ける回転機構
・アバター上面を表示した平置きされた平面ディスプレイ
・アバターを任意方向から観察可能にした円筒ディスプレイ
 などが想定される。
 また聴覚によるものとしては、
・指向性スピーカアレイまたは回転機構を持つ指向性スピーカ
・ジャイロセンサーやコンパス等を内蔵し、立体音響を再現することのできるヘッドフォンまたはイヤーフォン
 などが想定される。
 方向指示装置32の具体例とともに現地撮像システム3の態様をいくつか例示する。
 図3は、現地撮像システム3を車椅子型で構成した例である。
 車椅子40に設けられたテーブルに、全天球カメラ31や方向指示装置32が搭載されている。テーブルではなく座面或いはフレームなどに全天球カメラ31や方向指示装置32が取り付けられてもよい。
 この場合の方向指示装置32としては、図4のように円筒形でアバターやキャラクター等が立体表示可能なものがある。或いは図5のように透明な円筒形として、内部にアバター等が立体表示可能としてもよい。さらには図6のように、透明で顔画像などを立体表示可能なものとしてもよい。
 アバター、キャラクター、或いは実際の顔画像などは、遠隔ユーザ5を示すものとする。そしてアバター等の顔の向きにより、遠隔ユーザ5の注視方向が提示されるようにする。
 図7は現地撮像システム3をリュックサック型で構成した例である。
 リュックサック41に取り付けたアームの先に全天球カメラ31を取り付ける。方向指示装置32は、肩乗せ型とした例である。この方向指示装置32は、ぬいぐるみ、人形、ロボットなどとして、現地ユーザ6の肩などに装着できるようにする。そして頭部が回転したり上下したりするなどの機構を設ける。つまりぬいぐるみ等の顔の方向が実際に変化して、遠隔ユーザ5の注視方向を提示するようにする。
 図8は現地撮像システム3をキャリーケース42及び自走式ロボット44で構成した例である。
 キャリーケース42に取り付けたアームの先に全天球カメラ31を取り付ける。また方向指示装置32は、自走式ロボット44に取り付けたディスプレイパネルとする。自走式ロボット44は現地ユーザ6とともに移動するものとし、ディスプレイパネルにアバター等を表示する。そしてアバター等の顔の方向により遠隔ユーザ5の注視方向を提示するようにする。
 図9は、車椅子40に人型の方向指示装置32を乗せた例である。車椅子40に乗った人型のロボットとして頭部にディスプレイパネルを設け、ディスプレイパネルに人物の顔などを表示する。そして表示される顔の方向により遠隔ユーザ5の注視方向を提示する。
 図10は人力車43を用いる例である。人力車43に全天球カメラ31を取り付けるとともに、ぬいぐるみ、人形などの形態の方向指示装置32を設ける。例えば現地ユーザ6とともにぬいぐるみ等が人力車43に乗っているようにする。ぬいぐるみ等は頭部が上下左右に動くものとする。現地ユーザ6は、ぬいぐるみ等の頭部の方向により遠隔ユーザ5の注視方向を知ることができるようにする。
 以上は例示に過ぎず、遠隔視認システム1としては多様な組み合わせや形態が考えられる。人形、ぬいぐるみ等は、頭部が任意の方向に動くだけでなく、目が動くようにしてもよい。
 例えば遠隔視認システム1を搭載するものとしては、車椅子40、リュックサック41、キャリーケース42、人力車43、自走式ロボット44に限らず、衣服、帽子、自転車、自動車、飛行体、船舶などでもよい。
 方向指示装置32の形態としては、二次元ディスプレイ、三次元ディスプレイ、ホログラム表示装置、人形、ぬいぐるみ、ロボット、矢印等で方向を示す機構、光や色で方向を示す機構などでもよい。
 さらに方向指示装置32は、音声で方向を示すものでもよい。図7では現地ユーザ6がイヤーフォン45を装着しているが、これが図1のスピーカ34として機能し、方向を音声で伝えるようにしてもよい。
 また車椅子40、人力車43、自走式ロボット44などに搭載するスピーカ34の出力指向性を制御して、音声の方向により、注視方向がわかるようにしてもよい。
 以上のような例を想定した上で図1に戻って説明する。
 遠隔視認システム1における制御端末10は、図示のように表示制御部10a、注視情報処理部10bとしての機能を有する。
 表示制御部10aは、全天球表示装置11の表示制御を行う機能である。表示制御部10aは、通信装置21を介して受信した全天球カメラ31の撮像画像を全天球表示装置11に表示させる処理を行う。
 現地撮像システム3から画像とともに音声が送信されてくる場合は、表示制御部10aは送信されてきた音声信号をスピーカ14から出力させる処理を行う。
 注視情報処理部10bは、頭部位置・方向検出装置12が検出した遠隔ユーザ5の頭部の位置・方向の情報に基づいて、全天球カメラ31の位置を基準とした方向の情報である注視方向情報を生成して、現地撮像システム3に送信する処理を行う。
 なお制御端末10は、以上の表示制御部10a、注視情報処理部10bの処理以外に、各種の処理を行う。
 例えばマイクロフォン13による音声を現地撮像システム3に送信する処理、操作部19による操作情報を現地撮像システム3に送信する処理なども行う。
 現地撮像システム3の制御端末30は、カメラ制御部30a、方向指示制御部30bとしての機能を有する。
 カメラ制御部30aは、全天球カメラ31の撮像動作を制御する処理や、全天球カメラ31による撮像画像を遠隔視認システム1に送信する処理を行う。
 カメラ制御部30aによる全天球カメラ31の制御としては、例えば露光補正に関する制御がある。例えば次の制御処理のいずれか、または組合せによって露光補正を行う。
・シャッタースピード調整
・絞り調整
・ISO感度(イメージセンサの信号増幅)調整
・NDフィルタ挿入
 またカメラ制御部30aは、フォーカス調整制御やホワイトバランス調整制御を行うこともできる。
 フォーカス制御により、遠隔ユーザ5が、現地側の任意の対象物を、その対象物にフォーカスがあった状態で見ることができるにすることができる。
 またホワイトバランス調整制御により、遠隔ユーザ5が、現地側の様子をより忠実な色再現で見ることができるようにすることができる。
 そして特にカメラ制御部30aは、以上の露出制御、フォーカス調整制御、ホワイトバランス調整制御などを、遠隔視認システム1からの注視方向情報に基づいて行う。
 露出制御に関しては、注視方向情報に基づくことで、全天球カメラ31の撮像画像内で、遠隔ユーザ5の注視している領域の露出が適切になるように制御する。例えば注視領域内の代表点の輝度、領域内の輝度の最高値、最低値、平均値、輝度ヒストグラムを参照して、その領域の露出が適切であるか否か判定し、適切でなければ露出制御を行う。
 これにより、全天球表示装置11の表示画像のうちで、遠隔ユーザ5が注視している方向の画像は適正な露出で撮像された画像となる。
 例えば全天球カメラ31が日光を含んで撮像している場合に自動露出制御等により露出を下げてしまうと、遠隔ユーザ5が視認している方向の画像が露出不足で暗い画像となってしまうことがある。ところが、遠隔ユーザ5が視認している画像領域で露出が適切であるか否かを判定して露出制御を行うことで、現地での周囲の光景の明暗に関わらず、遠隔ユーザ5の注視領域が適切な明るさで撮像されることになる。
 フォーカス調整制御に関しても、注視方向情報に基づくことで、遠隔ユーザ5が注視している被写体に対して合焦状態とすることができ、遠隔ユーザ5が適切なフォーカス状態で画像を見ることができる。
 ホワイトバランス調整制御に関しては、例えば現地が屋外(太陽光の下)か、屋内(照明下)などに応じて適切に調整することで、適切な色合いの画像を全天球表示装置11で表示させることができるが、特に注視方向情報に基づくことで、遠隔ユーザ5が注視している方向の被写体に応じた調整を行うことで、現地ユーザ6と同様の色合いの被写体を視認できる。
 カメラ制御部30aによる撮像画像の送信処理としては、全天球カメラ31で撮像された画像、即ち現地で撮像される動画等について、所定の通信フォーマットにして送信する処理を行う。マイクロフォン33による音声も同時に送信する場合もある。
 制御端末30における方向指示制御部30bは、方向指示装置32を制御する機能である。方向指示制御部30bは、遠隔視認システム1から送信されてきた注視方向情報に応じて、遠隔ユーザ5の注視方向を提示するように方向指示装置32を制御する。
 例えば方向指示制御部30bは、方向指示装置32における矢印、アバター、その他の表示により、該当の方向を示すようにする処理を行う。或いは方向指示装置32がぬいぐるみ等である場合、頭部や目を駆動させる制御を行って、方向提示を実行させる。
 また音声で方向提示する場合は、方向指示制御部30bは、方向提示のための音声信号を生成し、スピーカ34から出力させる処理を行う。
 以上のような機能を備える制御端末10、30は、例えば図11に示すような情報処理装置70により構成可能である。
 情報処理装置70は、コンピュータ機器など、情報処理が可能な機器である。この情報処理装置70としては、具体的には、パーソナルコンピュータ、ワークステーション、スマートフォンやタブレット等の携帯端末装置等が想定される。また情報処理装置70は、クラウドコンピューティングにおけるサーバ装置や演算装置として構成されるコンピュータ装置であってもよい。
 図11に示す情報処理装置70のCPU(Central Processing Unit)71は、ROM(Read Only Memory)72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
 画像処理部85は各種の画像処理を行うプロセッサとして構成される。例えば輝度処理、色処理、画像解析処理、画像の圧縮・伸張処理、画像編集処理、スティッチ処理などのいずれか、或いは複数の処理を行うことができるプロセッサとされる。
 この画像処理部85は例えば、CPU71とは別体のCPU、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、AI(artificial intelligence)プロセッサ等により実現できる。
 なお画像処理部85はCPU71内の機能として設けられてもよい。
 CPU71、ROM72、RAM73、不揮発性メモリ部74、画像処理部85は、バス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。例えば入力部76としては、キーボード、マウス、キー、トラックボール、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 入力部76としてはマイクロフォンも想定される。ユーザの発する音声を操作情報として入力することもできる。この入力部76例えば図1のマイクロフォン13、33として機能することもある。
 また入出力インタフェース75には、LCD(Liquid Crystal Display)或いは有機EL(electro-luminescence)パネルなどよりなる表示部77が一体又は別体として接続される。表示部77は各種表示を行う表示部であり、例えば情報処理装置70の筐体に設けられるディスプレイデバイスや、情報処理装置70に接続される別体のディスプレイデバイス等により構成される。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像、操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 また入出力インタフェース75には、スピーカユニットなどよりなる音声出力部78が一体又は別体として接続される。この音声出力部78が図1のスピーカ14、34として機能する場合もある。
 入出力インタフェース75には、HDD(Hard Disk Drive)や固体メモリなどより構成される記憶部79や通信部80が接続される場合もある。
 記憶部79は、各種のデータやプログラムを記憶することができる。記憶部79においてDB(Data Base)を構成することもできる。
 通信部80は、インターネット等の伝送路を介しての通信処理や、外部のDB、編集装置、情報処理装置等の各種機器との有線/無線通信、バス通信などによる通信を行う。
 例えば通信部80は、図1の通信装置21,22とのインタフェースとして機能することができる。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体82が適宜装着される。
 ドライブ81により、リムーバブル記録媒体82からは画像データや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータは記憶部79に記憶されたり、データに含まれる映像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置70では、例えば本実施の形態の制御端末10、或いは制御端末30の処理のためのソフトウェアを、通信部80によるネットワーク通信やリムーバブル記録媒体82を介してインストールすることができる。或いは当該ソフトウェアは予めROM72や記憶部79等に記憶されていてもよい。
 以下、第1の実施の形態としての処理例を説明する。
 まず図12により、遠隔視認システム1と現地撮像システム3の処理の流れを説明する。
 遠隔視認システム1と現地撮像システム3は、ステップST0としてセッションを開始する。
 まず遠隔視認システム1はステップST10で基準合わせを行い、現地撮像システム3もステップST20で基準合わせを行う。
 基準合わせとは現地側の全天球カメラ31の撮像方向の基準方向と、遠隔ユーザ5の視認方向としての基準方向を合わせる処理である。
 図13Aには、全天球カメラ31が原点位置にある状態を示している。点線で示す円の中心が原点とする。全天球カメラ31は、例えば正面方向である位置BP1の方向を基準方向とする。例えば全天球カメラ31の撮像画像の面内の中央(水平方向の中央)が位置BP1で示す方向であるとする。
 図13Bには、全天球表示装置11の内部エリアにいる遠隔ユーザ5が原点位置にいる状態を示している。実線で示す円は、全天球表示装置11の画像表示面と考える。円の中心が原点とする。遠隔ユーザ5は、全天球表示装置11の位置BP2で示す方向を見ている状態であるが、これを注視方向についての基準方向とする。
 この図13A、図13Bの状態を基準位置状態として遠隔視認システム1と現地撮像システム3で一致させる。例えば全天球表示装置11の位置BP2に、全天球カメラ31の撮像画像の中央(位置BP1の被写体)が表示されるようにする。
 これにより、遠隔ユーザ5が原点位置で正面を見ているときに、方向指示装置32が正面方向を示すようにする。
 図13Aには、方向指示装置32を模式的に示し、矢印が提示している方向であるとする。図13Bの全天球表示装置11の内部エリアの原点位置に遠隔ユーザ5が居て、位置BPを視認している状態を、図13Aのように方向指示装置32が正面方向を示す状態に一致させるものである。
 なお図13A、図13Bは水平方向(遠隔ユーザ5にとっての水平方向(ヨー方向))についての位置で示しているが、同様に垂直方向(遠隔ユーザ5にとっての垂直方向(ピッチ方向))についても同様に位置合わせをする。
 基準合わせを行ったら、遠隔視認システム1と現地撮像システム3は、図12のステップST1としてセッションを継続している間、以降の処理をループ処理として繰り返し実行する。
 セッション継続中は、現地撮像システム3での撮像画像が遠隔視認システム1に送信され、全天球表示装置11において表示されている。
 遠隔視認システム1はステップST11で遠隔ユーザ5の頭部の位置・方向を検出する。図13Dに、遠隔ユーザ5が全天球表示装置11の内部エリアの或る位置にいて或る方向を見ている状態を示している。
 遠隔ユーザ5の頭部の位置の座標を(x,y,z)とする。x、yは水平方向の二次元の座標、zは垂直方向の座標とする。
 座標(x,y,z)は、頭部位置・方向検出装置12により検出される。
 また頭部方向(ψ,θ)を求める。ψは水平方向でみた頭部方向、θは垂直方向でみた頭部方向とする。
 なお図13Dは水平面のみの表現であるため、座標(x,y)と頭部方向ψを示している。垂直方向に見れば、座標z及び頭部方向θが現れる。
 以上のように頭部位置として座標(x,y,z)と、頭部方向(ψ,θ)を求める。また加えて頭部方向φとして、ロール方向での頭部の向きを検出してもよい。ロール方向とは、遠隔ユーザ5が首をかしげるときの動きの方向である。
 続いてステップST12で遠隔視認システム1は、注視方向情報(α,β)を求める。これは、図13Aのように全天球カメラ31の基準方向からみた方向の情報であり、αは水平方向の基準方向からの変位量、βは垂直方向の基準方向からの変位量である。
 なお、注視方向情報(α,β,γ)を求めてもよい。γはロール方向の頭部方向φを、全天球カメラ31の通常の姿勢状態からの変位量として示すものである。
 図13Dのように、遠隔ユーザ5の頭部位置の座標(x,y,z)を始点とする頭部の方向ψのラインL1と、ディスプレイ面との交点Mを求め、位置BP2からの交点Mの方位差として注視方向情報αを算出する。
 そして原点からの交点Mに向かうラインL2は、図13Cのように全天球カメラ31から見て交点Mに向かう方向を示すものとなり、これが、全天球カメラ31の撮像画像内で、遠隔ユーザ5が注視している方向を示すことになる。方向指示装置32は、ラインL2と平行な方向を示すことになる。
 従って注視方向情報αは、遠隔ユーザ5の位置の座標(x,y,z)に関わらず、全天球カメラ31の位置を基準として遠隔ユーザ5の注視方向を示す情報となる。
 なお図13Cでは、水平方向の表現のため、注視方向情報αのみを示しているが、垂直方向で考えれば注視方向情報βも同様に算出される。
 即ち遠隔ユーザ5の頭部位置の座標(x,y,z)を始点とする頭部の方向θのラインと、ディスプレイ面との交点を求め、位置BP2からの方位差として注視方向情報βを求める。
 また注視方向情報γを生成する場合は、頭部の通常姿勢と全天球カメラ31の通常姿勢を基準として、ロール方向の頭部方向φに応じた変位量を示す注視方向情報γを求めればよい。
 ステップST13で遠隔視認システム1は、このように求めた注視方向情報(α,β)或いは注視方向情報(α,β,γ)を現地撮像システム3に送信する。
 ステップST21で現地撮像システム3は、注視方向情報(α,β,γ)を方向指示装置32において反映させるようにする。即ち、方向指示装置32におけるアバターやぬいぐるみ等が、注視方向情報(α,β)で示された方向を向くようにしたり、当該方向が音声で伝えられたりする処理を行う。
 また方向指示装置32が方向だけを提示するのであれば、ロール方向の頭部方向φ及び注視方向情報γは必要ないが、ロール方向を方向指示装置32で提示することもできる。例えば注視方向情報γに応じて、アバターやぬいぐるみなどが首をかしげるような表現を行うことが可能である。
 以上のステップST11,ST12,ST13,ST21の処理が、継続的に行われることで、現地ユーザ6は、方向指示装置32により、遠隔ユーザ5が注視している方向を認識できることになる。
 またセッション継続中は、オプションopt1,opt2として示す処理も行われる。
 オプションopt1は、遠隔ユーザ5の指示に応じた処理である。
 遠隔ユーザ5が操作等を行って露出補正のリクエストをすることで、遠隔視認システム1はステップST14で露出補正指示を現地撮像システム3に送信する。
 これに応じて現地撮像システム3では、全天球カメラ31の露出補正を行う。
 オプションopt2は、自動的な判定に基づく遠隔ユーザ5の指示に応じた処理である。ステップST15として、遠隔視認システム1は、遠隔ユーザ5が注視している領域についての露出状態を判定する。遠隔視認システム1は遠隔ユーザ5の注視方向が検出できるため、その領域の画像について露出が適切であるか否かを判定できる。
 露出が適切でなければ、遠隔視認システム1はステップST16として露出補正指示を送信する。
 或いはステップST23として、現地撮像システム3側で遠隔ユーザ5が注視している領域についての露出状態を判定してもよい。現地撮像システム3は注視方向情報を受信していることで、遠隔ユーザ5の注視方向が検出できるため、その領域の撮像画像について露出が適切であるか否かを判定できる。
 遠隔視認システム1側又は現地撮像システム3側のいずれかで、現在、遠隔ユーザ5が注視している方向の領域の露出が適切でないと判定した場合、現地撮像システム3ではステップST24で全天球カメラ31の露出補正を行う。これにより、遠隔ユーザ5が注視している画像を適切な露出の状態で全天球表示装置11において表示させるようにする。
 以上の図12のように、遠隔視認システム1と現地撮像システム3の間で処理が行われることで、遠隔ユーザ5は、現地ユーザ6と同様の光景を視認できる。また現地ユーザ6は、遠隔ユーザ5が注視している方向を方向指示装置32により認識できる。
 また遠隔ユーザ5が注視している方向の被写体が、適切な露光状態で全天球表示装置11において表示されることになる。
 このような動作を実現するための、制御端末10、30のそれぞれの処理例を図14,図15に示す。
 図14は制御端末10の処理例を示している。
 セッション開始により制御端末10は図14の処理を開始する。
 なおセッション開始により、現地撮像システム3からの撮像映像の送信が開始され、制御端末10は表示制御部10aの機能により。全天球表示装置11において受信した画像の表示が行われるようにするが、この処理はセッション終了まで継続されるものであり、フローチャートでの図示を省略している。図14では主に注視情報処理部10bの機能による処理及びユーザ操作に対応する処理を示している。
セッション開始後、まず制御端末10はステップS101で上述した基準合わせを行う。
 セッション継続中は、制御端末10は例えばステップS102で待機時間Δtを経過する毎に、ステップS103以降の処理を行う。
 ステップS103で制御端末10は、頭部の位置・方向を検出する。即ち制御端末10は頭部位置・方向検出装置12からの検出情報を取得する。
 ステップS104で制御端末10は、取得した検出情報を用いて、注視方向情報(α,β)又は注視方向情報(α,β,γ)を算出し、算出した注視方向情報を送信する処理を行う。
 以上は図12のステップST11,ST12,ST13で説明した処理である。
 図14のステップS105で制御端末10は、遠隔ユーザ5による露出補正リクエストの有無を判定する。例えば遠隔ユーザ5が操作部19を操作して露出補正リクエストを行ったか否かを判定する。
 露出補正リクエストがあった場合は、制御端末10はステップS106で、露出補正指示を現地撮像システム3に送信する。
 これは図12のオプションopt1に対応する処理である。
 制御端末10は、図14のステップS102からステップS106を、ステップS107でセッション終了となるまで、繰り返し実行する。
 なお制御端末10は図12のオプションopt2としての露出判定や露出補正指示を、行ってもよいし、行わなくてもよい。図14,図15では、露出判定は現地撮像システム3側で行う例としているため、図14には示していないが、例えば制御端末10はステップS107でセッション終了となるまで、くりかえし露出判定を行い、必要に応じて露出補正指示を行うようにしてもよい。
図15は制御端末30の処理例を示している。
セッション開始により制御端末30は図15の処理を開始する。
 なおセッション開始により、制御端末30は全天球カメラ31の撮像を開始させ、撮像画像を遠隔視認システム1に送信する処理を開始する。この処理はセッション終了まで継続されるものであり、フローチャートでの図示を省略している。
 図15では主にカメラ制御部30aによる露出制御処理と、方向指示制御部30bによる制御処理を示している。
セッション開始後、まず制御端末30はステップS201で上述した基準合わせを行う。
 セッション継続中は、制御端末10は例えばステップS202からステップS206の処理を繰り返し実行する。
 ステップS202で制御端末30は、注視方向情報(α,β)又は注視方向情報(α,β,γ)を受信する。
 ステップS203で制御端末30は、注視方向情報を方向指示装置32に反映させる制御を行う。つまり制御端末30は、注視方向情報(α,β)に応じた方向を提示するように方向指示装置32を制御する。注視方向情報γが含まれていれば、方向指示装置32において注視方向情報γの変位量で首をかしげるような様子を提示させる制御を行う。
 これは図12のステップST21の処理となる。
 図15のステップS204で制御端末30は、制御端末10からの露出補正指示があったか否かを判定する。
 例えば制御端末10が図14のステップS106の処理で露出補正指示を送信してきた場合、制御端末30は露出補正指示があったとしてステップS206に進む。
 また露出補正指示がない場合は、制御端末30はステップS205に進み、露出判定を行う。即ち注視方向情報で示される被写体の方向の領域について、適切な露光状態であるか否かを判定する。
 制御端末30は、撮像画像内で、注視方向情報(α,β)で示される方向を含むある程度の面内範囲の画像領域を設定し、その画像領域内の代表点の輝度、領域内の輝度の最高値、最低値、平均値、輝度ヒストグラムを参照して、その領域の露出が適切であるか否か判定する。
 判定の結果、露出が適切でなければ制御端末30はステップS206に進む。露出が適切であれば、ステップS206を経ずにステップS207に進む。
 ステップS204又はステップS205からステップS206に進んだ場合、制御端末30は、注視領域の撮像画像が適切な露出になるように露出補正を行う。即ち全天球カメラ31についてシャッタースピード調整、絞り調整、ISO感度調整、NDフィルタ挿入などのいずれか又は複合制御で、露出を適切な状態とする調整制御を行う。
 以上のステップS204からステップS206は図12のステップST22,ST23,ST24に相当する処理となる。
 制御端末30は、図15のステップS207でセッション終了となるまで、ステップS202以降の処理を繰り返し実行する。
 なお、この例ではステップS205で露出判定を行うようにしたが、図12で説明したように、露出判定を遠隔視認システム1(制御端末10)側で行う場合は、ステップS205の処理は行わないようにしてもよい。
 但し、露出判定を遠隔視認システム1(制御端末10)側で行う場合であっても、制御端末30側でもステップS205の処理を行うこととしてもよい。
以上の図14,図15の処理を制御端末10、制御端末30が行うことで、図12のようなシステム間の連係動作が実現される。
 なお、制御端末30が、図15のステップS205の段階で、注視方向情報で示される注視領域についてのフォーカス判定やホワイトバランス判定を行うようにしてもよい。
 その場合、注視領域でデフォーカスを検出したときは、例えばステップS206でフォーカス調整制御を行って、遠隔ユーザ5が注視している被写体を合焦状態とする。
 またホワイトバランスが適切でないことを検出した場合は、ホワイトバランス制御を行い、遠隔ユーザ5が視認している画像の色合いを、現地ユーザ6が見ている景色の色合いとなるべく同等とするようにする。
 なお画像の注視領域のフォーカス判定は、制御端末10側で行って、判定に応じて制御端末30に対してフォーカス調整指示を送信するようにしてもよい。
 また遠隔ユーザ5が操作部19によりフォーカスやホワイトバランスの操作を行うことができるようにし、図14のステップS105において、そのような操作を検知することに応じて、ステップS106で制御端末10が制御端末30にフォーカス調整指示やホワイトバランス調整指示を送信するようにしてもよい。その場合、制御端末30は指示に応じてフォーカス調整制御やホワイトバランス調整制御を行うようにする。
 <2.第2の実施の形態>
 第2の実施の形態を説明する。図16に構成例を示す。この例では、遠隔視認システム1においてアイトラッキング装置15が設けられるようにする。
 アイトラッキング装置15は、頭部位置・方向検出装置12と組み合わせて、全天球表示装置11の表示画面上に対する遠隔ユーザ5の注視位置を検出するために設ける。
 アイトラッキング装置15としては、据え置き型やウェアラブル型などがある。
 アイトラッキング装置15は、例えば単眼もしくはステレオカメラで、赤外線照明を当てた瞳を撮影し、瞳孔位置や角膜反射による虚像(プルキンエ像)位置から視線方向を検出する。瞳孔位置は、暗瞳孔法/明瞳孔法で検出する。
 アイトラッキング装置15により検出した遠隔ユーザ5の視線方向は、次の2通りのように注視方向情報に反映させることが考えられる。
 1つは、頭部位置・方向検出装置12で得られた頭部の方向を、アイトラッキング装置15で得られた視線方向で補正する手法である。
このようにすると、例えば方向指示装置32でぬいぐるみやアバターの目線が正面に固定されるものであっても頭の向きで視線方向を提示するような表示ができる。特に頭部の方向を視線方向で補正することで、注視方向情報(α、β)をより正確に遠隔ユーザ5の注視方向を示すものとすることができる。
 もう1つは、頭部位置・方向検出装置12で得られた頭部の方向と、アイトラッキング装置15で得られた視線方向を別々の情報として現地撮像システム3に送信する手法である。
 方向指示装置32においてぬいぐるみやアバター等が、頭部移動とともに眼球移動もできるものであれば、頭部の方向をアバター等の頭部移動に反映させ、視線方向を眼球移動に反映させるといったことが可能となる。これにより遠隔ユーザ5の様子をより忠実に現地ユーザ6に伝えることができる。
 図17に制御端末10の処理例を示す。
 なお以降の各フローチャートにおいて、既述の処理については同一のステップ番号を付し、重複説明を避ける。
 図17の処理例では、制御端末10はステップS103で頭部位置・方向検出装置12からの検出値を取得し、またステップS110でアイトラッキング装置15による視線方向の検出情報を取得する。
 そしてステップS104Aでは、注視方向情報を生成し、現地撮像システム3に送信する。この場合の注視方向情報は、上記のようにアイトラッキング装置15からの情報を反映させたものとする。
<3.第3の実施の形態>
 第3の実施の形態の構成例を図18に示す。この例では、遠隔視認システム1においてサブディスプレイ16が設けられる。
 サブディスプレイ16は、例えばタブレット端末やスマートフォン、或いは小型のノートPCなどとして、遠隔ユーザ5が携帯できるものを想定する。
 図19は現地撮像システム3の全天球カメラ31で撮像された全天球画像の説明のために正距円筒図法で表現した画像である。
 このような画像に対して、遠隔ユーザ5が図中の枠50で示すあたりを注視していたとする。制御端末10は、頭部位置・方向検出装置12による検出結果から、遠隔ユーザ5が注視している方向を判定できる。そこで制御端末10は、現地撮像システム3から送信されてくる映像において、遠隔ユーザ5が注視している領域を切り抜いたレクティリニア画像を生成し、サブディスプレイ16に表示させる。例えば図20のような画像である。
 遠隔ユーザ5は、手元のサブディスプレイ16で、この図20のような画像を見ながら、タッチ操作等で、さらに細かい注視点を指定することができる。
 なお、遠隔ユーザ5がサブディスプレイ16を見るときは、手元のサブディスプレイ16側を注視するために頭部を動かす。このため、制御端末10は一時的に頭部位置・方向検出装置12による検出をオフにすることが適切である。
 制御端末10の処理例を図21に示す。
 ステップS103で頭部位置・方向検出装置12による検出結果を取得したら、制御端末10はステップS120でサブディスプレイ16の表示制御を行う。
 つまり制御端末10は、頭部の位置の座標(x,y,z)と、頭部方向(ψ,θ)又は(ψ,θ,φ)を取得したら、それにより遠隔ユーザ5の注視方向を判定し、注視方向に応じたレクティリニア画像を生成してサブディスプレイ16に表示させる。
 ステップS121で制御端末10は、遠隔ユーザ5がサブディスプレイ16に対する操作入力を行ったか否かを判定する。
 遠隔ユーザ5がサブディスプレイ16の操作を行っていないときは、制御端末10はステップS122に進み、先のステップS103の頭部位置・方向検出に基づき、注視方向情報(α,β)又は(α,β,γ)を生成し、現地撮像システム3に送信する。
 遠隔ユーザ5がサブディスプレイ16の操作を行った場合は、制御端末10はステップS121からステップS122に進み、サブディスプレイ16上の操作で指定された位置に応じて注視方向情報(α,β)又は(α,β,γ)を生成し、現地撮像システム3に送信する。なおこの場合も、注視方向情報γについては、ロール方向の頭部方向φに基づく。
 他の処理は図14と同様である。
 この図21の処理により、遠隔ユーザ5が手元のサブディスプレイ16で操作を行った場合は、注視方向情報をより正確な情報(遠隔ユーザ5が指定した方向を示す情報)として現地撮像システム3に伝えることができる。
 なお、上述のように、遠隔ユーザ5がサブディスプレイ16を見るときは、頭部をサブディスプレイ16に向けるため、そのときの頭部位置・方向検出装置12による検出結果は、全天球表示装置11に対する注視方向を示すものではない。そのため、例えば頭部の動きがサブディスプレイ16を見ていると判定できる場合は、ステップS122において頭部位置・方向検出装置12による検出結果を、注視方向情報の生成に用いないようにすることが適切である。
 ところで、制御端末10は、サブディスプレイ16に、切り抜きのレクティリニア画像の代わりに、注視領域が中央に来るようにスクロールさせた正距円筒図法を表示させるようにしてもよい。図22はサブディスプレイ16に表示される画像例である。これは遠隔ユーザ5が図19の枠50のあたりを注視したときに、その領域が中央となるようにスクロールさせた状態の正距円筒図法の画像である。
<4.第4の実施の形態>
 第4の実施の形態は、遠隔ユーザ5の情動(感情や挙動)を現地撮像システム3において表現できるようにするものである。
 図23は制御端末10の処理例である。制御端末10はステップS102,S103の処理に続いて、ステップS130で情動判定を行う。
 情動判定は、遠隔ユーザ5の感情や挙動を判定する処理である。
 遠隔ユーザ5の全天球表示装置11に対する挙動の判定としては、次のような判定手法の例がある。
・全天球表示装置11の内部エリアにカメラを設け、遠隔ユーザ5の撮像画像を解析し、ボーンデータによる姿勢検出を行い、姿勢から挙動を判定する。
・頭部位置・方向検出装置12による位置検出の遷移による動きの判定を行う。
 遠隔ユーザ5の感情の判定としては、次のような判定手法の例がある。
・マイクロフォン13で検出される音声の大小、抑揚、高低、言語認識などにより感情を推定する。
・全天球表示装置11の内部エリアにカメラを設け、遠隔ユーザ5の顔画像を解析し、表情判定、感情推定を行う。
・操作部19により遠隔ユーザ5が感情選択の操作をできるようにし、遠隔ユーザ5が自分の感情を入力する。
・上記の挙動の判定を感情推定に用いる。
 例えばこれらのような手法で制御端末10は遠隔ユーザ5の情動を判定し、情動データを生成する。情動データは笑う、喜ぶ、悲しむ、怒る、といった感情や、手を上げる、手を広げる、指を指す、腕を組む、首を左右に振る、うなずく等のしぐさや、ジャンプする、走り回るというような挙動を示す情報であるとする。
 ステップS131で制御端末10は、ステップS103の検出に基づいて注視方向情報を生成する。そして制御端末10は、注視方向情報と情動データを、現地撮像システム3に送信する処理を行う。
 他は図14と同様である。
 図24は制御端末30の処理例である。
 制御端末30はステップS230で、制御端末30は、注視方向情報と情動データを受信する。
 そして制御端末30はステップS231で、注視方向情報を方向指示装置32に反映させる制御を行うとともに、情動データも方向指示装置32に反映させる制御を行う。
 まず制御端末30は、注視方向情報に応じた方向の提示や首をかしげるような提示を行うように方向指示装置32を制御する。
 加えて制御端末30は方向指示装置32において情動データで示された感情や挙動を表現するように制御する。
 例えばアバターやぬいぐるみ等の表情を、笑う、喜ぶ、悲しむ、怒る等の感情に応じて変化させる。また、しぐさや動作をアバターやぬいぐるみ等に実行させるようにする。
 もちろんスピーカ34から情動に応じた音声出力を行うようにしてもよい。
 図24の他の処理は図15と同様である。
 制御端末10,30が図23,図24の処理を行うことで、遠隔ユーザ5の情動が方向指示装置32において表現さえ、現地ユーザ6に伝わることになる。これにより現地ユーザ6は遠隔ユーザ5の感情を理解しながら現地での行動を行うことができる。
<5.第5の実施の形態>
 第5の実施の形態は、遠隔ユーザ5が全天球表示装置11の表示を操作できるようにする例である。
 例えば操作部19として、3Dマウス、ジョイスティックなどを設け、遠隔ユーザ5が全天球表示装置11の画面をヨー・ピッチ方向に回転(スクロール)させることができるようにする。画像のスクロールに応じて音声の定位も変化させることが好適である。
 図25は操作前の画像の例であり、図26は操作によりヨー方向に回転された状態を示している。ライン51は例えば撮像画像の正面方向を示している。図26ではライン51で示す正面方向を右側に変位させた状態である。
 このように操作可能とすることで、遠隔ユーザ5は自分の好きな姿勢で見たい方向の映像を見ることができる。例えば全天球表示装置11の内部エリアで椅子に座っている場合、或いは車椅子に乗っているような場合でも、望みの箇所を容易に注視できる。
 ただし、このように全天球表示装置11の表示を回転させる場合、現地撮像システム3へ送信する注視方向情報については回転の操作量及び方向に応じた補正が必要になる。
 例えば、遠隔ユーザ5は、図25の星マーク52で示すあたりを注視していたとする。そして遠隔ユーザ5が操作により全天球表示装置11の表示画像をヨー方向に-90度回転させたとする。
 この場合、図27の遠隔視認システム1側として示すように、基準位置BP2はヨー方向に-90度回転した位置とする。そして遠隔ユーザ5の頭部位置の座標(x,y,z)を始点とする頭部の方向(ψ,θ)のラインL1と、ディスプレイ面との交点Mを求める。星マーク52の位置である。そして原点からの交点Mに向かうラインL2により全天球カメラ31を基準とする注視方向情報を算出する。これがヨー方向の注視方向情報αとなる。
 同図に現地撮像システム3側として示すように、注視方向情報αは、全天球カメラ31から見て交点Mに向かう方向を示すものとなり、これが、全天球カメラ31の撮像画像内で、遠隔ユーザ5が注視している方向を示すことになる。方向指示装置32は、ラインL2と平行な方向を示すことになる。
 以上はヨー方向のみで説明したが、ピッチ方向についても同様である。
 即ち、遠隔ユーザ5が任意に画像を回転させる場合、制御端末10はその回転を加味して注視方向情報を生成することで、現地撮像システム3側で正しく遠隔ユーザ5の注視方向を提示できる。
<6.第6の実施の形態>
 第6の実施の形態は、全天球カメラ31による撮像画像の送信データ量を削減できるようにした例である。
 遠隔ユーザ5は、全天球表示装置11の画像のうちで、注視方向情報で示される注視方向の画像を視認している。換言すれば、他の方向の画像は見えていない。すると遠隔ユーザ5が見えていない領域の画像は、さほど高精細な画像とする必要はないといえる。
 そこで、全天球カメラ31の撮像画像について領域毎に圧縮率を異なるものとして圧縮して伝送する。
 図28に例を示す。図28は全天球カメラ31の撮像画像を示しているが、注視方向情報から判定される注視方向を中心とする30度×30度の範囲をエリア61、エリア61の周囲の250度×90度の範囲をエリア62、エリア62の周囲の360度×180度の範囲をエリア63とする。
 エリア61は高解像度の領域として圧縮率を最も低くする。
 エリア62は中解像度の領域として圧縮率を中程度とする。
 エリア61は低解像度の領域として圧縮率を最も高くする。
 制御端末30は、このように注視方向情報に基づいて撮像画像の面内のエリア61,62,63を設定するとともに、圧縮率をエリア61,62,63毎に設定して圧縮エンコードを行って、遠隔視認システム1に送信する。
 これにより送信する動画のビットレートを下げることができる。
 制御端末30の処理例を図29に示す。これは図15の処理にステップS240を加えたものである。
 制御端末30は、ステップS240において、ステップS202で受信した注視方向情報に基づいて複数のエリア61,62,63を設定し、エリア毎の圧縮率を設定する。
 この設定に応じて、送信する動画のフレーム毎に、面内のエリア毎で異なる圧縮率の圧縮処理が行われて送信される。
 なお、複数のエリアは注視方向情報に基づいて設定されるため、エリア設定はフレーム毎、或いは所定フレーム数毎などに更新される。つまり遠隔ユーザ5の注視方向が変化すれば、エリア設定も変化することになる。
 また、圧縮率を異なるようにする複数のエリアは図28のエリア61,62,63のように3つのエリアに限定されず、2つのエリアでもよいし、4以上のエリアに分けられても良い。
<7.複数の遠隔ユーザ5>
 ところで、第1から第6の実施の形態の処理は、遠隔ユーザ5が一人であっても複数であっても良いが、ここまでの説明では、一人の遠隔ユーザ5の注視方向情報を現地撮像システム3に送信するものとして説明してきた。
 遠隔視認システム1において複数の遠隔ユーザ5が全天球表示装置11を視認している場合については、各実施の形態の処理は、以下のように適用できる。
 例えば現地撮像システム3に複数の方向指示装置32を設け、現地ユーザ6と方向指示装置32を1:1で対応付けするようにすることが考えられる。この場合、遠隔視認システム1では、各現地ユーザ6の頭部位置・方向検出を行って各現地ユーザ6に対応する複数の注視方向情報を生成して送信する。
 現地撮像システム3側では、各注視方向情報に応じて、それぞれ対応する方向指示装置32を制御する。
 これにより、複数の遠隔ユーザ5のそれぞれの注視方向や情動などを現地ユーザ6は知ることができる。
 方向指示装置32が1つであって、一人のみに対応する場合は、複数の遠隔ユーザ5のうちで、一人を選択することが考えられる。
 予め決定した特定の現地ユーザ6を対象として実施の形態の処理を行っても良い。
 また例えば全天球表示装置11の内部エリアの中央位置に近い人を選択し、その人を処理対象の遠隔ユーザ5として実施の形態の処理を行ってもよい。
 その他、何らかの条件により、遠隔ユーザ5として処理対象とする人を、固定的、或いは動的に変化させながら選択することが考えられる。
<8.まとめ及び変形例>
 以上の実施の形態では次のような効果が得られる。
 第1から第6の実施の形態では、遠隔視認システム1は、人の視野範囲より広角の画像の表示を行う全天球表示装置11と、全天球表示装置11の視認者(遠隔ユーザ5)の頭部の位置及び方向を検出する頭部位置・方向検出装置12と、制御装置としての制御端末10を備える。制御端末10は、現地撮像システム3から送信された遠隔地における撮像画像を全天球表示装置11に表示させる処理を行う。また制御端末10は、頭部位置・方向検出装置12による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、注視方向情報を現地撮像システム3に送信する処理を行う。
 現地撮像システム3は、人の視野範囲より広角の画像の撮像を行う撮像装置としての全天球カメラ31と、方向を示す方向指示装置32と、制御装置としての制御端末30を備える。制御端末30は、全天球カメラ31の撮像画像を遠隔視認システム1に送信する処理を行う。また制御端末30は、遠隔視認システム1における全天球表示装置11の視認者の注視方向情報に基づいて方向指示装置32による指示方向を制御する処理を行う。
 このため、遠隔視認システム1を使用する遠隔ユーザ5は、遠隔地である現地の光景を視認することができる。現地撮像システム3を使用する現地ユーザ6は、遠隔視認システム1における遠隔ユーザ5が、現地の光景に対してどの方向を注視しているかを知ることができる。
 従って現地ユーザ6と遠隔ユーザ5の間で旅行やイベントなどで注視方向を共有でき、同じものを見るような状況をつくることができるため、遠隔ユーザ5が現地ユーザ6と一緒に旅行をしているような体験を得ることができる。
 また現地の空間を擬似的に共有することは、現地ユーザ6と遠隔ユーザ5の良好なコミュニケーションにも資することとなる。
 例えば自宅に居る人、病院に居る人などが、知人と一緒に旅行をしているような体験が可能となる。
 第1から第6の実施の形態では、注視方向情報は、頭部の位置及び方向で求められる遠隔ユーザ5の注視方向を、現地撮像システム3の全天球カメラ31の位置を基準とする方向で表す情報であるとした(図13参照)。
 これにより現地撮像システム3側では、遠隔視認システム1側で全天球表示装置11を視認している遠隔ユーザ5が画像のどの領域を注視しているかを、全天球カメラ31からの方向として判定できることになる。従って制御端末30は、全天球カメラ31の撮像画像内で、遠隔ユーザ5の注視領域を正しく判定できる。
 第1から第6の実施の形態では、全天球表示装置11は、1又は複数の視認者が位置を任意に移動して表示画像を視認できる表示装置である例を挙げた(図2参照)。
 遠隔視認システム1側において大型の画像表示面を有する全天球表示装置11に対して、1又は複数の遠隔ユーザ5は任意の位置で、或いは移動しながら、現地からの画像を視認できる。これにより、より現地の空間を擬似的に体感しやすいものとなる。
 第1から第6の実施の形態では、制御端末30は、遠隔視認システム1から受信した注視方向情報に基づいて全天球カメラ31の制御を行うものとした。
 現地撮像システム3は、カメラ制御部30aによって注視方向情報に基づいて注視領域での露出やフォーカス状態、色合いなどを適正化する。現地撮像システム3が方向指示装置32を備えないような場合でも、このような制御を行うことで、遠隔ユーザ5が現地ユーザ6と同じ光景を視認するという点で好適となる。
 実施の形態において、制御端末30は、注視方向情報に基づいて、全天球カメラ31の露出制御を行う例を挙げた(図15等参照)。
 遠隔ユーザ5の注視方向情報に基づいて、全天球カメラ31における撮像画像の該当領域(遠隔ユーザ5が注視している領域)を判定し、その領域について、適切な露出状態となるように露出制御を行う。これにより遠隔視認システム1の遠隔ユーザ5は、適正露出の画像を視認できるようになる。特に全天球表示装置11の画像は、遠隔ユーザ5が視認していない領域があり、また画角の広さにより輝度の差が大きい場合もある。遠隔ユーザ5が注視している領域が適切な露出状態となるようにすることで、画角の広さや輝度差に関わらず、遠隔ユーザ5に高品質な画像を提供できる。注視領域での露出が適正でないと、遠隔ユーザ5は、現地への没入感が低下してしまう。従ってこれも遠隔ユーザ5が現地ユーザ6と同じ光景を視認し、同じものを同じように見えているようにするという点で極めて好適となる。これにより空間の共有、例えば擬似的に一緒に居る感覚を強めることが期待できる。
 また実施の形態において、制御端末30は、注視方向情報に基づいて、全天球カメラ31のフォーカス制御、ホワイトバランス制御を行う例を挙げた。
 遠隔ユーザ5の注視方向情報に基づいて、全天球カメラ31における撮像画像の該当領域(遠隔ユーザ5が注視している領域)を判定し、その領域について、適切なフォーカス状態となるようにフォーカス制御を行う。或いは当該領域に合わせてホワイトバランス制御を行う。これにより遠隔視認システム1の遠隔ユーザ5は、フォーカスの合った画像や、より忠実な色再現の画像として視認できるようになる。
 第2の実施の形態では、遠隔視認システム1は視認者の視線方向を検出するアイトラッキング装置15(視線検出装置)を備え、制御端末10は、アイトラッキング装置15の検出結果を用いて注視方向情報を生成する例を述べた(図16,図17参照)。
 アイトラッキング装置15の検出も加味して注視方向情報を生成することで、遠隔ユーザ5の注視方向をより正確に判定できる。特にアイトラッキング装置15が検出した視線方向で、頭部位置・方向検出装置12の検出に基づく注視方向情報(α、β)を補正することで、注視方向の正確性が向上する。
 またアイトラッキング装置15が検出した視線方向を、注視方向情報(α、β)に加えて送信することで、方向指示装置32においてアバター等の頭部制御と眼球制御などを行うことができ、より遠隔ユーザ5の様子を現地ユーザ6に正確に伝えることができるようになる。
 なお、頭部位置・方向検出装置12による検出結果はあくまで頭部の位置と方向の情報であり、視線方向は含まれないが、人の視野では全体を見ることができない大きな画面を備える全天球表示装置11を用いる場合は、視線方向の違いをカバーする範囲として注視領域を判定できる。このため、必ずしもアイトラッキング装置15の利用は必須ではない。但し、アイトラッキング装置15の情報を用いて正確な注視領域を判定することは、全天球カメラ31の制御や、それによる視認性向上範囲がより適切化されるという点で意味がある。
 第3の実施の形態では、遠隔視認システム1は、視認者が操作入力可能なサブディスプレイ16(副表示装置)を備える例を挙げた。そして制御端末10は、頭部位置・方向検出装置12による視認者の頭部の位置及び方向の情報に基づいてサブディスプレイ16の表示画像を制御し、サブディスプレイ16の表示画像内を指定する操作に応じて、注視方向情報を生成するものとした(図18から図22参照)。
 遠隔ユーザ5はサブディスプレイ16を用いることで、全天球表示装置11内で注視している領域の画像を手元で確認できる。そしてタッチ操作などで、画像内の位置を指定できる。これにより、遠隔ユーザ5の注視位置をより正確に判定でき、適切な注視方向情報を生成できる。
 第4の実施の形態では、遠隔視認システム1の制御端末10は、視認者の情動データを生成し、現地撮像システム3に送信する処理を行うものとした。
 また現地撮像システム3の制御端末30は、遠隔視認システム1からの情動データに基づいて、方向指示装置32で情動提示を実行させる処理を行うものとした(図23,図24参照)。
 これにより、現地ユーザ6は、擬似的に現地空間を共有する遠隔ユーザ5の気持ちやしぐさなどを知ることができる。これにより円滑なコミュニケーションを促進できる。
 第5の実施の形態では、遠隔視認システム1の制御端末10は、視認者の回転操作に応じて全天球表示装置11に表示されている画像の回転制御を行うとともに、回転操作の操作量及び回転方向を、注視方向情報に反映させる例を挙げた(図25から図27参照)。
 遠隔ユーザ5は、操作により全天球表示装置11の画像を回転させることができ、遠隔ユーザ5の都合により見やすい状態を得ることができる。この場合に、注視方向情報にも回転操作の量及び方向を反映させることで、現地撮像システム3に送信する注視方向情報は、全天球カメラ31からの方向として正しい情報とすることができる。
 第6の実施の形態では、現地撮像システム3の制御端末30は、遠隔視認システム1における全天球表示装置11の視認者の注視方向情報に基づいて、遠隔視認システム1に送信する撮像画像の圧縮率を画像領域毎に制御する例を挙げた(図28,図29参照)。
 これにより、遠隔ユーザ5が注視している領域については高精細な画像を表示させつつ、遠隔ユーザ5が見ていない領域は圧縮率の高い画像として送信することで、遠隔ユーザ5の体験の質を損なうことなく送信データ量を削減でき通信帯域の節約ができる。
 実施の形態における方向指示装置32は、頭部を実体物又は画像で表現するとともに、頭部の向きにより方向を指示するものであるとした(図3から図10参照)。
 方向指示装置32は、人間、動物、空想の生物、二次元キャラクター、ロボットなどの頭部を表現するものとし、その頭部の向きで、遠隔ユーザ5が注視している方向を表現する。これにより、現地ユーザ6は、遠隔ユーザ5が注視している方向が、一緒に現地にいる場合と同様に把握できる。
 実施の形態は、主に遠隔旅行というケースを例にして説明してきたが、実施の形態の技術は遠隔旅行に限らず多様なケースに有用である。例えば現地がイベント会場である場合、テーマパーク等である場合、さらにはスポーツ会場、音楽ライブ会場、演劇場、キャンプ場、美術館、博物館等である場合も、現地と遠隔地で体験を共有できる。また現地とは定点カメラとしての全天球カメラ31等を設置した場所でもよい。
 また第1から第6の実施の形態で説明した技術は、任意に組み合わせて適用することができる。
 実施の形態のプログラムは、上述の図14,図17,図21,図22のような制御端末10の処理、或いは図15,図24,図29のような制御端末30の処理を、例えばCPU、DSP等のプロセッサ、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち実施の形態のプログラムは、現地撮像システム3から送信された遠隔地における撮像画像を人の視野範囲より広角の画像の表示を行う表示装置(全天球表示装置11)に表示させる処理、及び頭部位置・方向検出装置12による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、注視方向情報を現地撮像システム3に送信する処理を制御装置に実行させるプログラムである。
 また実施の形態のプログラムは、人の視野範囲より広角の画像の撮像を行う撮像装置(全天球カメラ31)の撮像画像を遠隔視認システム1に送信する処理、及び遠隔視認システム1における表示装置の視認者の注視方向情報に基づいて方向指示装置32による指示方向を制御する処理を制御装置に実行させるプログラムである。
 また実施の形態のプログラムは、人の視野範囲より広角の画像の撮像を行う撮像装置(全天球カメラ31)の撮像画像を遠隔視認システム1に送信する処理、及び遠隔視認システム1における表示装置の視認者の注視方向情報に基づく撮像装置の制御を制御装置に実行させるプログラムである。
 こられのようなプログラムにより、上述した遠隔視認システム1や現地撮像システム3において制御端末10、30として用いることのできる情報処理装置70を、各種のコンピュータ装置により実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。また、このようなプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の情報処理装置70の広範な提供に適している。例えばパーソナルコンピュータ、通信機器、スマートフォンやタブレット等の携帯端末装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、これらの装置を本開示の情報処理装置70(制御端末10、30)として機能させることができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 人の視野範囲より広角の画像の表示を行う表示装置と、
 前記表示装置の視認者の頭部の位置及び方向を検出する頭部位置・方向検出装置と、
 現地撮像システムから送信された遠隔地における撮像画像を前記表示装置に表示させる処理、及び前記頭部位置・方向検出装置による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、前記注視方向情報を前記現地撮像システムに送信する処理を行う制御装置と、を備える
 遠隔視認システム。
 (2)
 前記注視方向情報は、頭部の位置及び方向で求められる前記視認者の注視方向を、前記現地撮像システムの撮像装置の位置を基準とする方向で表す情報としたものである
 上記(1)に記載の遠隔視認システム。
 (3)
 前記表示装置は、1又は複数の視認者が位置を任意に移動して表示画像を視認できる全天球表示装置である
 上記(1)又は(2)に記載の遠隔視認システム。
 (4)
 前記視認者の視線方向を検出する視線検出装置を備え、
 前記制御装置は、前記視線検出装置の検出結果を用いて前記注視方向情報を生成する
 上記(1)から(3)のいずれかに記載の遠隔視認システム。
 (5)
 前記視認者が操作入力可能な副表示装置を備え、
 前記制御装置は、前記頭部位置・方向検出装置による前記視認者の頭部の位置及び方向の情報に基づいて前記副表示装置の表示画像を制御し、前記副表示装置の表示画像内を指定する操作に応じて、前記注視方向情報を生成する
 上記(1)から(4)のいずれかに記載の遠隔視認システム。
 (6)
 前記制御装置は、前記視認者の情動データを生成し、前記現地撮像システムに送信する処理を行う
 上記(1)から(5)のいずれかに記載の遠隔視認システム。
 (7)
 前記制御装置は、前記視認者の回転操作に応じて、前記表示装置に表示されている画像の回転制御を行うとともに、
 回転操作の操作量及び回転方向を、前記注視方向情報に反映させる
 上記(1)から(6)のいずれかに記載の遠隔視認システム。
 (8)
 人の視野範囲より広角の画像の撮像を行う撮像装置と、
 方向を示す方向指示装置と、
 前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記方向指示装置による指示方向を制御する処理を行う制御装置と、を備える
 現地撮像システム。
 (9)
 前記制御装置は、前記注視方向情報に基づいて、前記撮像装置の露出制御を行う
 上記(8)に記載の現地撮像システム。
 (10)
 前記制御装置は、前記注視方向情報に基づいて、前記撮像装置のフォーカス制御、ホワイトバランス制御のいずれかを行う
 上記(8)又は(9)に記載の現地撮像システム。
 (11)
 前記制御装置は、前記遠隔視認システムにおける表示装置の視認者についての情動データに基づいて、前記方向指示装置で情動提示を実行させる処理を行う
 上記(8)から(10)のいずれかに記載の現地撮像システム。
 (12)
 前記制御装置は、前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて、前記遠隔視認システムに送信する撮像画像の圧縮率を画像領域毎に制御する
 上記(8)から(11)のいずれかに記載の現地撮像システム。
 (13)
 前記方向指示装置は、頭部を実体物又は画像で表現するとともに、前記頭部の向きにより方向を指示するものである
 上記(8)から(12)のいずれかに記載の現地撮像システム。
 (14)
 人の視野範囲より広角の画像の撮像を行う撮像装置と、
 前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記撮像装置の制御を行う制御装置と、を備える
 現地撮像システム。
 (15)
 前記制御装置は、前記注視方向情報に基づいて、前記撮像装置の露出制御を行う
 上記(14)に記載の現地撮像システム。
 (16)
 前記制御装置は、前記注視方向情報に基づいて、前記撮像装置のフォーカス制御、ホワイトバランス制御のいずれかを行う
 上記(14)又は(15)に記載の現地撮像システム。
1 遠隔視認システム
2 ネットワーク
3 現地撮像システム
5 遠隔ユーザ(視認者)
6 現地ユーザ
10 制御端末
10a 表示制御部
10b 注視情報処理部
11 全天球表示装置
12 頭部位置・方向検出装置
15 アイトラッキング装置
16 サブディスプレイ
19 操作部
30 制御端末
30a カメラ制御部
30b 方向指示制御部
31 全天球カメラ
32 方向指示装置

Claims (16)

  1.  人の視野範囲より広角の画像の表示を行う表示装置と、
     前記表示装置の視認者の頭部の位置及び方向を検出する頭部位置・方向検出装置と、
     現地撮像システムから送信された遠隔地における撮像画像を前記表示装置に表示させる処理、及び前記頭部位置・方向検出装置による視認者の頭部の位置及び方向の情報に基づいて注視方向情報を生成し、前記注視方向情報を前記現地撮像システムに送信する処理を行う制御装置と、を備える
     遠隔視認システム。
  2.  前記注視方向情報は、頭部の位置及び方向で求められる前記視認者の注視方向を、前記現地撮像システムの撮像装置の位置を基準とする方向で表す情報としたものである
     請求項1に記載の遠隔視認システム。
  3.  前記表示装置は、1又は複数の視認者が位置を任意に移動して表示画像を視認できる全天球表示装置である
     請求項1に記載の遠隔視認システム。
  4.  前記視認者の視線方向を検出する視線検出装置を備え、
     前記制御装置は、前記視線検出装置の検出結果を用いて前記注視方向情報を生成する
     請求項1に記載の遠隔視認システム。
  5.  前記視認者が操作入力可能な副表示装置を備え、
     前記制御装置は、前記頭部位置・方向検出装置による前記視認者の頭部の位置及び方向の情報に基づいて前記副表示装置の表示画像を制御し、前記副表示装置の表示画像内を指定する操作に応じて、前記注視方向情報を生成する
     請求項1に記載の遠隔視認システム。
  6.  前記制御装置は、前記視認者の情動データを生成し、前記現地撮像システムに送信する処理を行う
     請求項1に記載の遠隔視認システム。
  7.  前記制御装置は、前記視認者の回転操作に応じて、前記表示装置に表示されている画像の回転制御を行うとともに、
     回転操作の操作量及び回転方向を、前記注視方向情報に反映させる
     請求項1に記載の遠隔視認システム。
  8.  人の視野範囲より広角の画像の撮像を行う撮像装置と、
     方向を示す方向指示装置と、
     前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記方向指示装置による指示方向を制御する処理を行う制御装置と、を備える
     現地撮像システム。
  9.  前記制御装置は、前記注視方向情報に基づいて、前記撮像装置の露出制御を行う
     請求項8に記載の現地撮像システム。
  10.  前記制御装置は、前記注視方向情報に基づいて、前記撮像装置のフォーカス制御、ホワイトバランス制御のいずれかを行う
     請求項8に記載の現地撮像システム。
  11.  前記制御装置は、前記遠隔視認システムにおける表示装置の視認者についての情動データに基づいて、前記方向指示装置で情動提示を実行させる処理を行う
     請求項8に記載の現地撮像システム。
  12.  前記制御装置は、前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて、前記遠隔視認システムに送信する撮像画像の圧縮率を画像領域毎に制御する
     請求項8に記載の現地撮像システム。
  13.  前記方向指示装置は、頭部を実体物又は画像で表現するとともに、前記頭部の向きにより方向を指示するものである
     請求項8に記載の現地撮像システム。
  14.  人の視野範囲より広角の画像の撮像を行う撮像装置と、
     前記撮像装置の撮像画像を遠隔視認システムに送信する処理、及び前記遠隔視認システムにおける表示装置の視認者の注視方向情報に基づいて前記撮像装置の制御を行う制御装置と、を備える
     現地撮像システム。
  15.  前記制御装置は、前記注視方向情報に基づいて、前記撮像装置の露出制御を行う
     請求項14に記載の現地撮像システム。
  16.  前記制御装置は、前記注視方向情報に基づいて、前記撮像装置のフォーカス制御、ホワイトバランス制御のいずれかを行う
     請求項14に記載の現地撮像システム。
PCT/JP2023/021515 2022-06-22 2023-06-09 遠隔視認システム、現地撮像システム WO2023248832A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022100377 2022-06-22
JP2022-100377 2022-06-22

Publications (1)

Publication Number Publication Date
WO2023248832A1 true WO2023248832A1 (ja) 2023-12-28

Family

ID=89379683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021515 WO2023248832A1 (ja) 2022-06-22 2023-06-09 遠隔視認システム、現地撮像システム

Country Status (1)

Country Link
WO (1) WO2023248832A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022665A (ja) * 2015-07-14 2017-01-26 パナソニックIpマネジメント株式会社 映像表示システム、映像表示装置及び映像表示方法
US20170257564A1 (en) * 2013-06-27 2017-09-07 Google Inc. Systems and Methods for Environment Content Sharing
JP2021036415A (ja) * 2019-07-25 2021-03-04 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
JP2021081943A (ja) * 2019-11-19 2021-05-27 株式会社桑山瓦 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム
JP2021168461A (ja) * 2020-04-13 2021-10-21 ミナミホールディングス株式会社 撮影者端末、情報処理装置、情報処理方法、及びコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170257564A1 (en) * 2013-06-27 2017-09-07 Google Inc. Systems and Methods for Environment Content Sharing
JP2017022665A (ja) * 2015-07-14 2017-01-26 パナソニックIpマネジメント株式会社 映像表示システム、映像表示装置及び映像表示方法
JP2021036415A (ja) * 2019-07-25 2021-03-04 株式会社プロドローン 遠隔操縦システムおよびその操縦装置
JP2021081943A (ja) * 2019-11-19 2021-05-27 株式会社桑山瓦 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム
JP2021168461A (ja) * 2020-04-13 2021-10-21 ミナミホールディングス株式会社 撮影者端末、情報処理装置、情報処理方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
KR102419065B1 (ko) 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
JP7498209B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US9858643B2 (en) Image generating device, image generating method, and program
JP5891131B2 (ja) 画像生成装置および画像生成方法
RU2621644C2 (ru) Мир массового одновременного удаленного цифрового присутствия
US20190045125A1 (en) Virtual reality video processing
JP6523493B1 (ja) プログラム、情報処理装置、及び情報処理方法
JP6216398B2 (ja) 画像生成装置および画像生成方法
JP2017208676A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
CN112272817B (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
US11314082B2 (en) Motion signal generation
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
JP6487512B2 (ja) ヘッドマウントディスプレイおよび画像生成方法
JP4148252B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
WO2023242981A1 (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法
US20240104862A1 (en) Spatially aware playback for extended reality content
US20240022688A1 (en) Multiuser teleconferencing with spotlight feature
WO2020054585A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN117083556A (zh) 改进的沉浸式观看体验

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23827018

Country of ref document: EP

Kind code of ref document: A1