WO2021230363A1 - 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム - Google Patents

遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム Download PDF

Info

Publication number
WO2021230363A1
WO2021230363A1 PCT/JP2021/018475 JP2021018475W WO2021230363A1 WO 2021230363 A1 WO2021230363 A1 WO 2021230363A1 JP 2021018475 W JP2021018475 W JP 2021018475W WO 2021230363 A1 WO2021230363 A1 WO 2021230363A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
user
viewing angle
remote
Prior art date
Application number
PCT/JP2021/018475
Other languages
English (en)
French (fr)
Inventor
聡哉 中蔵
Original Assignee
エヌ・ティ・ティ・コミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コミュニケーションズ株式会社 filed Critical エヌ・ティ・ティ・コミュニケーションズ株式会社
Priority to EP21803246.4A priority Critical patent/EP4152746A4/en
Priority to CN202180035202.8A priority patent/CN115606173A/zh
Publication of WO2021230363A1 publication Critical patent/WO2021230363A1/ja
Priority to US18/054,231 priority patent/US20230071690A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Definitions

  • An embodiment of the present invention relates to, for example, a remote control system in which a user device controls a remote work device arranged in a remote location via a network, and a remote work device, a video processing device, and a program used in this system.
  • a system has been developed in which a user remotely controls a work device in a remote location via a network while watching an image displayed on the display device.
  • a head-mounted display hereinafter, also referred to as a headset
  • the user is configured to remotely control the movement of the robot by moving his / her body while viewing the image captured by the robot existing in a remote place with a headset (see, for example, Patent Document 1). ..
  • the present invention has been made by paying attention to the above circumstances, and on one aspect, it is intended to provide a technique for improving both the viewing angle and the image quality of an image obtained by a remote work device.
  • the first aspect of the present invention is a remote control system including a user device and a remote work device operated by a control signal transmitted from the user device via a network according to the user operation.
  • the remote working device includes a first image pickup device having a first viewing angle and a second image pickup device including the first viewing angle and having a second viewing angle larger than the first viewing angle. Be prepared. Then, the remote working device transmits the first image obtained by the first image pickup device and the second image obtained by the second image pickup device to the user device via the network.
  • the user device includes a receiving unit, a video compositing unit, and a display unit.
  • the receiving unit receives the first video and the second video transmitted from the remote working device via the network.
  • the image compositing unit generates a third image by synthesizing the received first image and the second image at coordinate positions and time positions.
  • the display unit displays the generated third image.
  • a second aspect of the present invention relates to a remote work device operated by a control signal transmitted from a user device via a network according to a user operation.
  • the remote working device includes a first image pickup device having a first viewing angle and a second image pickup device including the first viewing angle and having a second viewing angle larger than the first viewing angle. It also has a video compositing unit and a transmitting unit.
  • the image compositing unit synthesizes the first image obtained by the first image pickup device and the second image obtained by the second image pickup device in accordance with the coordinate position and the time position. Generate the image of 3.
  • the transmission unit transmits the generated third image to the user device via the network.
  • a third aspect of the present invention comprises a user device and a remote work device operated by a control signal transmitted from the user device via a network according to the user operation, and the remote work device is the first.
  • the user of a remote control system comprising a first imaging device having a viewing angle and a second imaging device including the first viewing angle and having a second viewing angle greater than the first viewing angle.
  • the present invention relates to a video processing apparatus provided in either the apparatus or the remote working apparatus.
  • the video processing device includes a video compositing unit and an output unit.
  • the image compositing unit synthesizes the first image obtained by the first image pickup device and the second image obtained by the second image pickup device in accordance with the coordinate position and the time position. Generate the image of 3.
  • the output unit outputs the generated third image.
  • the images captured by the first and second image pickup devices having different viewing angles are transmitted to the user device.
  • each image sent from the remote work device is combined with the coordinate position and the time position and displayed to the user. Therefore, for the main gaze range including the line-of-sight direction, the image obtained by the first imaging device can provide, for example, a high-quality image with a sense of depth to the user, while the peripheral area outside the gaze range is wide. It is possible to provide an image of a viewing angle.
  • the images captured by the first and second image pickup devices having different viewing angles are combined with the coordinate position and the time position, and the user device is used. Will be sent to. Therefore, the combined video is displayed on the user device. Therefore, for the main gaze range including the line-of-sight direction, the image obtained by the first imaging device can provide, for example, a high-quality image with a sense of depth to the user, while the peripheral area outside the gaze range is wide. It is possible to provide an image of a viewing angle.
  • the images captured by the first and second imaging devices having different viewing angles provided in the remote work device are provided in either the remote work device or the user device. It is synthesized by the video processing device and used for display on the user device. Therefore, for the main gaze range including the line-of-sight direction, the image obtained by the first imaging device can provide, for example, a high-quality image with a sense of depth to the user, while the peripheral area outside the gaze range can be provided. It is possible to provide an image with a wide viewing angle.
  • each aspect of the present invention it is possible to provide a technique for improving both the viewing angle and the image quality of the image obtained in the remote working device.
  • FIG. 1 is a diagram showing an overall configuration of a remote control system according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a hardware configuration of a robot used as a remote work device in the remote control system shown in FIG.
  • FIG. 3 is a block diagram showing a hardware configuration of a head-mounted display worn by a user in the remote control system shown in FIG.
  • FIG. 4 is a block diagram showing a hardware configuration of an information processing device used as a user device in the remote control system shown in FIG.
  • FIG. 5 is a block diagram showing a software configuration of an information processing device used as a user device in the remote control system shown in FIG.
  • FIG. 6 is a flowchart showing a processing procedure and processing contents of the information processing apparatus shown in FIG. FIG.
  • FIG. 7 is a diagram showing a first example of a synthetic image generated by the information processing apparatus shown in FIG.
  • FIG. 8 is a diagram showing a second example of the synthetic video generated by the information processing apparatus shown in FIG.
  • FIG. 9 is a diagram showing a third example of the synthetic video generated by the information processing apparatus shown in FIG.
  • FIG. 10 is a diagram showing another arrangement example of the camera provided in the robot.
  • FIG. 1 is a diagram showing an overall configuration of a remote control system according to a first embodiment of the present invention.
  • the remote control system according to the first embodiment can communicate between the head-mounted display (HMD) 1, the information processing device 2 operating as a user device, and the information processing device 2 via the network 4. It is equipped with a remote work device 3.
  • HMD head-mounted display
  • the user device includes only the information processing device 2 will be described here as an example, the user device may include both the information processing device 2 and the HMD 1.
  • the network 4 is composed of, for example, a public IP (Internet Protocol) network such as the Internet and an access network for accessing the public IP network, and the access network includes a LAN (Local Area Network), a wireless LAN, and a public wired network.
  • a public mobile communication network and a CATV (Cable Television) network are used.
  • the remote work device 3 is composed of, for example, a humanoid robot that operates at a remote location.
  • the remote work device 3 will also be referred to as a robot hereafter.
  • the robot 3 is composed of a body portion, a head portion, an arm portion, and a leg portion, and the head portion, the arm portion, and the leg portion are configured to operate within a predetermined movable range by a drive unit including a servo mechanism.
  • a stereo camera 34 as a first imaging device is installed in, for example, the front surface of the head of the robot 3, that is, a portion corresponding to the face. Further, an omnidirectional camera 35 as a second image pickup device is installed in a portion of the robot 3 corresponding to, for example, the crown. A microphone 36 is also installed in a portion corresponding to the temporal region of the robot 3.
  • FIG. 2 is a block diagram showing a hardware configuration of the robot 3.
  • the robot 3 includes, for example, a control unit 31.
  • the control unit 31 has a hardware processor such as a central processing unit (CPU).
  • the control unit 31 includes a storage unit 32, a sensor interface (sensor I / F) 33, a drive interface (drive I / F) 37, and a communication interface (communication I / F) 39 via a bus 30. It is connected.
  • the storage unit 32 uses a non-volatile memory such as Solid State Drive (SSD) that can be written and read at any time as a storage medium, and has a program storage area and a data storage area. Various application programs for realizing the operation of the robot 3 are stored in the program storage area.
  • the data storage area is used to store various data acquired or generated in the operation process of the robot 3.
  • ROM ReadOnlyMemory
  • RAM RandomAccessMemory
  • the stereo camera 34, the omnidirectional camera 35, and the microphone 36 are connected to the sensor I / F 33.
  • the stereoscopic camera 34 is composed of, for example, a twin-lens camera, captures the front direction of the robot 3 within a range of a first viewing angle (for example, 130 degrees), and obtains video data (hereinafter referred to as stereoscopic video data) as sensor I. Output to / F33.
  • the omnidirectional camera 35 has a second viewing angle (for example, 360 degrees corresponding to the entire circumference) larger than the first viewing angle of the stereo camera 34. Then, the surroundings of the robot 3 are imaged in all directions, and the obtained video data (hereinafter referred to as omnidirectional video data) is output to the sensor I / F33.
  • the microphone 36 detects the sound around the robot 3 and outputs the obtained voice data to the sensor I / F 33.
  • a drive unit 38 for driving the head, arms, and legs is connected to the drive I / F 37.
  • the drive I / F 37 converts the control signal output from the control unit 31 into a drive signal, outputs the converted drive signal to the drive unit 38, and operates the drive unit 38. For example, in the case of a driving unit that operates the head, the head is rotated in each of the pan and tilt directions within a predetermined angle.
  • the communication I / F 39 includes an interface corresponding to, for example, a wireless LAN, a short-range wireless data communication standard (for example, Bluetooth (registered trademark)), or a public mobile communication network, and is connected to the information processing apparatus 2 via the network 4. Data is transmitted with.
  • the communication I / F 30 may be provided with an interface corresponding to a wired network such as a public wired network, a wired LAN, or a CATV network.
  • the control unit 31 controls the movements of the head, arms, and legs according to the remote control signal sent from the information processing device 2.
  • the operation to be controlled for example, there is an operation of variably controlling the imaging target range by the stereo camera 34 and the omnidirectional camera 35 by controlling the direction of the head of the robot 3.
  • the remote work device may be, for example, an industrial robot or a gantry on which a surveillance camera is simply installed.
  • control unit 31 receives the stereoscopic image data captured by the stereoscopic camera 34 and the omnidirectional image data captured by the omnidirectional camera 35 via the sensor I / F 33. Then, the received stereoscopic video data and the omnidirectional video data are packetized and multiplexed according to a predetermined format, and the multiplexed video data is transmitted from the communication I / F 39 to the information processing device 2. .. At that time, it is also possible to multiplex the audio data detected by the microphone 36 with each of the above video data and transmit the data. Further, when a plurality of communication links are set in parallel between the robot 3A and the information processing apparatus 2, the stereoscopic video data and the omnidirectional video data are transmitted as separate streams using these plurality of communication links. You may do so.
  • the control unit 31 adds time data representing the imaging time or the reception time to the stereoscopic video data and the omnidirectional video data. Further, the control unit 31 adds reference coordinate data indicating the relative positional relationship of the respective imaging ranges to the stereoscopic video data and the omnidirectional video data. These time data and reference coordinate data are used when synthesizing the stereoscopic image data and the omnidirectional image data in the information processing apparatus 2 described later.
  • FIG. 3 is a block diagram showing a hardware configuration of HMD1.
  • the HMD 1 has a storage unit 12, a display interface (display I / F) 13, a sensor interface (sensor I / F) 15, and a communication interface (communication I / F) 17 for a control unit 11 having a CPU. , It is connected via the bus 10.
  • various switches, microphones, speakers, cameras, position sensors, and other devices may be connected to the control unit 11.
  • the storage unit 12 uses a non-volatile memory such as an SSD that can be written and read at any time as a storage medium, and has a program storage area and a data storage area.
  • Various application programs for realizing the operation of HMD1 are stored in the program storage area.
  • the data storage area is used to store various data acquired or generated in the operation process of the HMD1.
  • the storage medium it is also possible to use ROM, RAM, or the like in combination.
  • the display unit 14 is connected to the display I / F13.
  • the display unit 14 includes, for example, two display panels made of an organic EL (ElectroLuminescence) display corresponding to the left and right eyes of the user in order to support virtual reality (VR) display.
  • the number of display panels may be one.
  • the display unit 14 is not limited to the organic EL display, and may be another type of display such as a liquid crystal display (Liquid Cristal Display: LCD) or a display using 7 segments.
  • the display I / F 13 causes the display unit 14 to display the video data generated by the information processing apparatus 2 described later.
  • a motion sensor 16 is connected to the sensor I / F15.
  • the motion sensor 16 comprises, for example, an angular velocity sensor (gyro sensor), and is used to detect the motion of the HMD 1, that is, the motion of the user's head.
  • the movement of the head to be detected is preferably, for example, a movement in the six-axis direction, but may be only a movement in the two-axis direction of pan and tilt.
  • the sensor I / F 15 generates motion data representing the movement of the user's head based on the output signal of the motion sensor 16.
  • a magnetic sensor, an acceleration sensor, a position sensor, an infrared sensor, a brightness sensor, a proximity sensor, a camera, or the like may be connected to the sensor I / F15. Further, the sensor I / F15 may be connected to a sensor for detecting the movement of the user's line of sight in addition to the movement of the user's head. The movement of the user's line of sight can be detected, for example, by using a camera that captures the user's eyeball.
  • a wired interface using a signal cable such as a Universal Serial Bus (USB) cable is used. Then, the communication I / F 17 receives the video data transmitted from the information processing device 2 under the control of the control unit 11, and transfers the motion data and the like generated by the sensor I / F 15 to the information processing device 2. ..
  • a short-range wireless data communication standard for example, Bluetooth (registered trademark) may be used for the communication I / F17.
  • the HMD 1 may be a standard or simplified display having only a display unit 14, a display I / F13, a sensor 16 and a sensor I / F15.
  • Information processing device 2 4 and 5 are block diagrams showing the hardware and software configurations of the information processing apparatus 2 used as the user apparatus, respectively.
  • the information processing device 2 is composed of a mobile information terminal such as a smartphone or a tablet terminal, or a notebook type or a stationary personal computer.
  • the information processing device 2 provides a control unit 21 having a hardware processor such as a CPU with a storage unit 22, an input / output interface (input / output I / F) 23, and a communication interface (communication I / F) 24 via a bus 20. It is connected.
  • the HMD1 is connected to the input / output I / F23 via the USB cable or wireless interface. Further, a controller or the like for remotely controlling the robot 3 may be connected to the input / output I / F 23.
  • the communication I / F 24 includes, for example, an interface compatible with a wireless LAN, a short-range wireless data communication standard (for example, Bluetooth®) or a public mobile communication network, and data is transmitted to and from the robot 3 via the network 4. I do.
  • the communication I / F 24 may be provided with an interface corresponding to a wired network such as a public wired network, a wired LAN, or a CATV network.
  • the storage unit 22 is configured as a storage medium by combining, for example, a non-volatile memory such as an HDD or SSD that can be written and read at any time, a non-volatile memory such as a ROM, and a volatile memory such as a RAM.
  • the storage area is provided with a program storage area and a data storage area.
  • middleware such as an OS
  • application programs necessary for executing various control processes according to the first embodiment of the present invention are stored.
  • a video content storage unit 221 is provided in the data storage area.
  • the video content storage unit 221 is used to temporarily store each data of the stereoscopic video and the omnidirectional video transmitted from the robot 3.
  • the control unit 21 has a motion data acquisition unit 211, a face direction detection unit 212, a face direction detection data transmission unit 213, and a video content reception unit as control processing functions for realizing the first embodiment of the present invention. It includes 214, a video composition unit 215, and a video composition control unit 216. All of these control processing functions are realized by causing the hardware processor of the control unit 21 to execute the application program stored in the program storage area in the storage unit 22.
  • the motion data acquisition unit 211 performs a process of acquiring motion data representing the movement of the user's head detected by the sensor 16 of the HMD1 from the HMD1 via the input / output I / F23.
  • the face direction detection unit 212 performs a process of detecting a change in the direction of the user's face based on the acquired motion data, for example. For example, based on the above motion data, a process of calculating changes in the direction (angle) of the user's face in the pan direction and the tilt direction is performed.
  • the direction of the face to be detected may include other directions such as the left-right tilt of the neck and the zoom direction in addition to the pan direction and the tilt direction.
  • the face direction detection unit 212 may have a function of detecting a change in the user's line-of-sight direction based on the image of the camera. ..
  • the face direction detection data transmission unit 213 performs a process of transmitting the face direction detection data obtained by the face direction detection unit 212 from the communication I / F 24 to the robot 3 via the network 4.
  • the video content receiving unit 214 receives video content transmitted from the robot 3 via the network 4, that is, video data in which stereoscopic video data and omnidirectional video data are multiplexed via the communication I / F 24. Then, the stereoscopic video data and the omnidirectional video data are separated from the received multiplexed video data, further depacked, and then temporarily stored in the video content storage unit 221.
  • the video synthesis unit 215 reads the stereoscopic video data and the omnidirectional video data from the video content storage unit 221, and based on the reference coordinate data and the time data given to the video data, the stereoscopic video data and the omnidirectional video data. Combine with video data. Then, the synthesized video data is output from the input / output I / F23 to the HMD1.
  • the following method can be considered.
  • (1) The stereoscopic video data is simply superimposed on the omnidirectional video data by matching the respective coordinate positions and times.
  • (2) After synthesizing the omnidirectional video data and the stereoscopic video data according to (1), in order to make the boundary part inconspicuous, at least one of brightness, density and color is matched with the boundary part on a pixel-by-pixel basis. Perform processing.
  • the video compositing control unit 216 controls the video compositing process by the video compositing unit 215, and is used during a period in which the user's face direction is changing based on the result of the face direction detection by the face direction detection unit 212.
  • the stereoscopic video of the composite video data is subjected to a process of stilling, erasing, or lowering the resolution from a predetermined value.
  • FIG. 6 is a flowchart showing a processing procedure and processing contents of the information processing apparatus 2.
  • the communication I / F 17 of the HMD 1 and the input / output I / F 23 of the information processing device 2 are first connected, and then the information processing device 2 is further connected.
  • a communication link is formed between the communication I / F 24 of the above and the communication I / F 39 of the robot 3 via the network 4.
  • the information processing apparatus 2 acquires the motion data in step S11, and in step S12, the face direction detection unit 212 detects a change in the user's face direction from the motion data.
  • the face direction detection unit 212 calculates a change in the vector indicating the direction of the user's face from the 6-axis angular velocity detection signal output from the angular velocity sensor (gyro sensor).
  • the information processing apparatus 2 transmits the detection data indicating the change in the face orientation of the user from the communication I / F 24 to the robot 3 in step S13 under the control of the face direction detection data transmission unit 213.
  • the robot 3 when the robot 3 receives the detection data of the face direction transmitted from the information processing apparatus 2, the robot 3 is a drive unit having, for example, a servo mechanism by the drive I / F 37 based on the detection data of the face direction.
  • the 38 is operated to change the direction of the head.
  • the image pickup direction of the stereoscopic camera 34 attached to the head changes, and the process of the change and the stereoscopic image data of the image pickup target range after the change can be obtained.
  • the omnidirectional camera 35 can obtain video data over the entire circumference around the robot 3.
  • the control unit 31 of the robot 3 converts the obtained stereoscopic video data and omnidirectional video data into packets and then multiplexes them, and transmits the multiplexed video data from the communication I / F 39 to the information processing device 2.
  • the control unit 31 adds time data representing the imaging time or the reception time to the stereoscopic video data and the omnidirectional video data. Further, the control unit 31 adds reference coordinate data indicating the relative positional relationship of the respective imaging ranges to the stereoscopic video data and the omnidirectional video data.
  • the information processing device 2 receives the multiplexed video data transmitted from the robot 3 in step S14 under the control of the video content receiving unit 214.
  • the received multiplexed video data is separated into stereoscopic video data and omnidirectional video data, further depacked, and temporarily stored in the video content storage unit 221.
  • step S15 the control unit 21 of the information processing device 2 reads out the stereoscopic video data and the omnidirectional video data from the video content storage unit 221 by the video synthesis unit 215. Then, the stereoscopic video data and the omnidirectional video data are combined based on the reference coordinate data and the time data given to the respective video data. For example, a stereoscopic image is superimposed on an omnidirectional image by matching the coordinate position and time of the image frame.
  • step S18 the video compositing unit 215 outputs the synthesized video data from the input / output I / F 23 to the HMD 1. As a result, in the HMD 1, a composite image in which a stereoscopic image is superimposed on the omnidirectional image is displayed on the display.
  • FIG. 7 shows the first example of the composite image displayed on the HMD 1, and shows a 360-degree omnidirectional image developed on a two-dimensional plane.
  • the stereoscopic image VD1 is simply superimposed on the omnidirectional image VD2 by aligning the positions, and the boundary between the images is displayed.
  • FIG. 8 shows a second example of the synthetic video displayed on the HMD1.
  • the boundary portion between the omnidirectional video VD2 and the stereoscopic video VD1 is subjected to a process of reducing the difference between each of the luminance, the density, and the color on a pixel-by-pixel basis. By doing so, the boundary between the omnidirectional video VD2 and the stereoscopic video VD1 can be made inconspicuous.
  • the control unit 21 of the information processing device 2 determines whether or not the direction of the user's face is changing in step S16 under the control of the video composition control unit 216. This determination is made based on, for example, the state of the face direction detected by the face direction detection unit 212. As a result of the above determination, when it is determined that the direction of the user's face is changing, the image composition control unit 216 performs the synthesized image in step S17 during the period in which the direction of the user's face is changing. The display of the stereoscopic image VD1 in is stopped. In step S18, the video compositing unit 215 outputs the composite video from which the display of the stereoscopic video is stopped from the input / output I / F23 to the HMD1.
  • the HMD1 displays the composite image in which the display of the stereoscopic image is stopped.
  • FIG. 9 shows an example of a composite video including a stereoscopic video VD3 whose display has been stopped.
  • the stereoscopic image in the composite image may be stopped without stopping the display, or the resolution may be lowered below a certain level without stopping or stopping the display.
  • the image compositing unit 215 may not perform the compositing process itself of the stereoscopic image VD1 on the omnidirectional image VD2 during the period when the direction of the user's face is changing.
  • the robot 3 is provided with an omnidirectional camera 35 in addition to the stereo camera 34, and each video data captured by these cameras 34 and 35 is transmitted from the robot 3 to the user via the network 4. It is transmitted to the information processing device 2 on the side.
  • the information processing device 2 on the user side receives each video data sent from the robot 3, the video data is synthesized by matching the coordinate position and the time position in the video frame, and the combined video data. Is output to HMD1 and displayed.
  • the HMD 1 displays an image in which the stereoscopic image captured by the stereoscopic camera 34 in the robot 3 and the omnidirectional image captured by the omnidirectional camera 35 are combined. Therefore, for the main gaze range including the line-of-sight direction, the stereoscopic image obtained by the stereoscopic camera 34 can provide, for example, a high-quality image with a sense of depth to the user, while the peripheral area outside the gaze range is the entire area.
  • An omnidirectional image obtained by the directional camera 35 can provide an image having a wide viewing angle.
  • the user can perform the work while confirming the work object or the monitoring target included in the gaze range by the stereoscopic image while ensuring the visibility over a wide range by the omnidirectional image, thereby increasing the accuracy. Work or monitoring can be performed efficiently.
  • the display of the stereoscopic image in the composite image is stopped or stopped, or the resolution of the stereoscopic image is lowered during the period when the direction of the user's face is changing. Therefore, even if a display delay due to a transmission delay or a drawing delay occurs in the display operation of the stereoscopic image sent from the robot 3 according to the movement of the user's head, it is possible to suppress the occurrence of VR sickness in the user. It becomes. At that time, only the display of the stereoscopic image is stopped or stopped so that the display of the omnidirectional image is maintained. Therefore, the user can smoothly move the direction of his / her face while confirming which direction the robot 3 is facing by the omnidirectional image.
  • a stereoscopic image obtained by a stereoscopic camera 34 and an omnidirectional image obtained by an omnidirectional camera 35 are placed at coordinate positions on an image frame.
  • the images are synthesized with the imaging time adjusted, and the combined video is transmitted to the information processing apparatus 2 on the user side via the network 4.
  • This second embodiment can be realized by equipping the control unit 31 of the robot 3 with the video compositing unit 215 and the video compositing control unit 216 included in the control unit 21 of the information processing apparatus 2 in the first embodiment. .. Also in this example, the processing of the video compositing unit 215 and the video compositing control unit 216 can be realized by causing the hardware processor included in the control unit 31 to execute the program.
  • the image composition control unit 216 determines whether or not the user's face orientation is changing based on the face direction detection data sent from the information processing device 2, and is generated by the image composition unit 215 during the change. Stop or stop the display of the stereoscopic image of the composite image.
  • the video composition control unit 216 determines whether or not the user's face direction is changing based on the face direction detection data sent from the information processing device 2, but whether or not the head of the robot 3 is moving. It may be determined whether or not the robot 3 is moving, and the display of the stereoscopic image of the synthesized image generated by the image synthesizing unit 215 may be stopped or stopped while the head of the robot 3 is moving.
  • the robot 3 generates video data obtained by synthesizing a stereoscopic video and an omnidirectional video and sends the video data to the information processing apparatus 2, so that the robot 3 transmits the video data to the information processing apparatus 2. It is possible to reduce the amount of information in the video data and propose a transmission delay. Further, the information processing apparatus 2 does not need to perform the video compositing process and the video compositing control process, and the processing load is reduced accordingly.
  • twin-lens camera 34 is arranged on the portion corresponding to the face of the head of the robot 3A and the omnidirectional camera 35 is arranged on the crown has been described as an example.
  • the present invention is not limited to this, for example, a twin-lens camera 34 that functions as a first image pickup device is arranged in a portion corresponding to the face of the robot 3A, and a second eye camera 34 is placed in the middle portion of the twin-lens camera 34.
  • the wide-angle camera 35b that functions as the image pickup device of 2 may be arranged.
  • FIG. 10 shows an example of the arrangement.
  • the wide-angle camera 35b captures the front direction of the robot 3A with a field of view of 180 degrees. Therefore, the viewing angle is smaller than when the omnidirectional camera 35 is used, but if the viewing angle is 180 degrees, a sufficiently wide viewing angle image close to the user's viewing angle can be transmitted to the user device. Therefore, a sufficient effect can be expected for practical use.
  • the direction of the robot 3 may be moved in the pan direction by remote control from the user device.
  • a remote control signal is sent from the information processing device 2 to the remote robot 3 via the network 4. Sent. Then, in the robot 3, the direction of the head is rotated in response to the remote control signal to change the video data captured by the camera, and this video data is transmitted to the information processing device 2 via the network 4. It is displayed on HMD1. Therefore, there is a time difference due to transmission delay and drawing delay from the time when the user starts to move the head until the corresponding robot image is displayed on the user's HMD1.
  • the wide-angle image having a viewing angle of 180 degrees is already displayed on the HMD1 by the wide-angle camera 35b before the user starts to rotate his / her head. It is possible to present to the user an image similar to the robot image obtained when the unit rotates. Therefore, the image is not fixed during the period from the robot 3 in the remote location to the HMD1 of the user, and this alleviates the problem that the user causes VR sickness.
  • the robot 3 is provided with a stereo camera 34 as a first image pickup device and an omnidirectional camera 35 as a second image pickup device has been described as an example.
  • the present invention is not limited to this, and the first imaging device may be provided with a single-lens camera, and the second imaging device may be provided with a plurality of single-lens cameras arranged so as to divide the imaging range for imaging. good.
  • the display of the stereoscopic image that the user mainly pays attention to is displayed. Made it stop or stand still. However, in addition to that, the display of the omnidirectional image may be stopped. By doing so, the user cannot confirm the orientation of the robot 3, but it is possible to prevent the user from causing VR sickness when the transmission delay of the video data or the drawing delay is large.
  • the information processing device 2 provided separately from the HMD 1 is used to perform data communication and video display control with the robot 3.
  • the HMD 1 has the function of the information processing device 2, that is, when the HMD integrated with the information processing device is used, the HMD is configured to perform data communication and video display control with the robot 3. You may.
  • the present invention is not limited to each of the above embodiments as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various inventions can be formed by an appropriate combination of the plurality of components disclosed in each of the above embodiments. For example, some components may be removed from all the components shown in each embodiment. In addition, components from different embodiments may be combined as appropriate.
  • HMD Head-mounted display
  • Information processing device 3A, 3B ... Robot 4 ... Network 10, 20, 30 ... Bus 11, 21, 31 ... Control unit 12, 22, 32 ... Storage unit 13 ... Display interface (display I / F) 14 ... Display unit 15, 33 ... Sensor interface (sensor I / F) 16 ... Motion sensor 17, 24, 39 ... Communication interface (communication I / F) 23 ... Input / output interface (input / output I / F) 34 ... Stereo camera 35 ... Omnidirectional camera 35b ... Wide-angle camera 36 ... Microphone 37 ... Drive interface (drive I / F) 38 ... Drive unit 211 ... Motion data acquisition unit 212 ... Face direction detection unit 213 ... Face direction detection data transmission unit 214 ... Video content receiving unit 215 ... Video composition unit 216 ... Video composition control unit 221 ... Video content storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Manipulator (AREA)

Abstract

遠隔作業装置において得られる映像の視野角と画質の両方を改善する。ユーザ装置と遠隔作業装置とを具備する遠隔制御システムにあって、遠隔作業装置は、第1の視野角を有する第1の撮像デバイスと、上記第1の視野角を含みかつ第1の視野角より大きい第2の視野角を有する第2の撮像デバイスとを備え、上記第1の撮像デバイスにより得られた第1の映像および上記第2の撮像デバイスにより得られた第2の映像を、ネットワークを介してユーザ装置へ送信する。一方ユーザ装置は、遠隔作業装置からネットワークを介して送られた上記第1の映像および上記第2の映像を受信し、受信された上記第1の映像と上記第2の映像とを、座標位置および時間位置を合わせて合成して第3の映像を生成し、生成された上記第3の映像を表示部へ出力するようにしたものである。

Description

遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
 この発明の実施形態は、例えば、ユーザ装置が遠隔地に配置された遠隔作業装置をネットワークを介して制御する遠隔制御システムと、このシステムで使用される遠隔作業装置、映像処理装置およびプログラムに関する。
 ユーザが、表示装置に表示される映像を見ながら、遠隔地にある作業装置をネットワークを介して遠隔制御するシステムが開発されている。この種のシステムは、例えば、ユーザの頭部にヘッドマウントディスプレイ(Head Mount Display:HMD)(以後ヘッドセットとも称する)を装着する。そしてユーザが、遠隔地に存在するロボットが撮像した映像をヘッドセットにより見ながら自身の体を動かすことで、上記ロボットの動きを遠隔制御するように構成されている(例えば特許文献1を参照)。
日本国特開2019-106628号公報
 ところが、一般的な遠隔制御システムでは、遠隔地の映像をユーザが見ようとすると以下の2つの課題がある。一つは、一般にロボット等の遠隔作業装置に設けられるカメラは一眼カメラであるため、その映像では奥行き方向の情報が失われてしまい、ユーザは物体の前後を認識できず操作性の低下を招くという点である。この課題を軽減するために、2台のカメラを人の目を模して配置し、その撮像映像をもとに例えばヘッドセットで立体映像を生成して表示する技術が提案されている。この技術は例えばstereoscopicとして知られている。しかしながら、この技術を使用してもその視野角は人の目に比べると依然として小さく、ユーザにとって十分な視認性を得ることは困難である。
 もう一つの課題は、奥行きの情報が失われてしまい、立体としてものを捉えることができないという点である。この課題を解決するために、例えば360度カメラを利用して広い範囲の映像を取得する方法がある。しかしながら、360度カメラは、例えばカメラ内に備えるセンサや映像処理部により360度全方向の映像を処理する必要があり、これにより画質の劣化が生じたり、映像の描画遅延が大きくなるという別の課題を有する。
 この発明は上記事情に着目してなされたもので、一側面では、遠隔作業装置において得られる映像の視野角と画質の両方を改善する技術を提供しようとするものである。
 上記課題を解決するためにこの発明の第1の態様は、ユーザ装置と、このユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作する遠隔作業装置とを具備する遠隔制御システムに関する。遠隔作業装置は、第1の視野角を有する第1の撮像デバイスと、前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスとを備える。そして遠隔作業装置は、前記第1の撮像デバイスにより得られた第1の映像および前記第2の撮像デバイスにより得られた第2の映像を、前記ネットワークを介して前記ユーザ装置へ送信する。一方、前記ユーザ装置は、受信部と、映像合成部と、表示部とを備える。受信部は、前記遠隔作業装置から前記ネットワークを介して送られた前記第1の映像および前記第2の映像を受信する。映像合成部は、受信された前記第1の映像と前記第2の映像とを座標位置および時間位置を合わせて合成して第3の映像を生成する。表示部は、生成された前記第3の映像を表示する。
 この発明の第2の態様は、ユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作する遠隔作業装置に関する。遠隔作業装置は、第1の視野角を有する第1の撮像デバイスと、前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスとを備え、さらに映像合成部と、送信部とを備える。映像合成部は、前記第1の撮像デバイスにより得られた第1の映像と、前記第2の撮像デバイスにより得られた第2の映像とを、座標位置および時間位置を合わせて合成し、第3の映像を生成する。送信部は、生成された前記第3の映像を前記ネットワークを介して前記ユーザ装置へ送信する。
 この発明の第3の態様は、ユーザ装置と、このユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作する遠隔作業装置とを具備し、前記遠隔作業装置が、第1の視野角を有する第1の撮像デバイスと、前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスとを備える遠隔制御システムの、前記ユーザ装置または前記遠隔作業装置のいずれかに設けられる映像処理装置に関する。映像処理装置は、映像合成部と、出力部とを備える。映像合成部は、前記第1の撮像デバイスにより得られた第1の映像と、前記第2の撮像デバイスにより得られた第2の映像とを、座標位置および時間位置を合わせて合成し、第3の映像を生成する。出力部は、生成された前記第3の映像を出力する。
 この発明の第1の態様によれば、遠隔作業装置では、視野角の異なる第1および第2の撮像デバイスにより撮像された映像がユーザ装置へ伝送される。ユーザ装置では、上記遠隔作業装置から送られた各映像がその座標位置および時間位置を合わせて合成され、ユーザに向け表示される。このためユーザに対し、その視線方向を含む主たる注視範囲については第1の撮像デバイスにより得られる映像により例えば奥行き感のある高画質の映像を提供でき、一方注視範囲外の周辺の領域については広い視野角の映像を提供することができる。
 また、この発明の第2の態様によれば、遠隔作業装置において、視野角の異なる第1および第2の撮像デバイスにより撮像された映像がその座標位置および時間位置を合わせて合成され、ユーザ装置に送られる。このためユーザ装置では、上記合成された映像が表示されることになる。このためユーザに対し、その視線方向を含む主たる注視範囲については第1の撮像デバイスにより得られる映像により例えば奥行き感のある高画質の映像を提供でき、一方注視範囲外の周辺の領域については広い視野角の映像を提供することができる。
 この発明の第3の態様によれば、遠隔作業装置に設けられた視野角の異なる第1および第2の撮像デバイスにより撮像された映像が、遠隔作業装置またはユーザ装置のいずれか一方に設けられた映像処理装置により合成され、ユーザ装置における表示に供される。このため、ユーザに対し、その視線方向を含む主たる注視範囲については第1の撮像デバイスにより得られる映像により例えば奥行き感のある高画質の映像を提供でき、一方注視範囲外の周辺の領域については広い視野角の映像を提供することができる。
 すなわちこの発明の各態様によれば、遠隔作業装置において得られる映像の視野角と画質の両方を改善する技術を提供することができる。
図1は、この発明の第1の実施形態に係る遠隔制御システムの全体構成を示す図である。 図2は、図1に示した遠隔制御システムにおいて遠隔作業装置として使用されるロボットのハードウェア構成を示すブロック図である。 図3は、図1に示した遠隔制御システムにおいてユーザが装着するヘッドマウントディスプレイのハードウェア構成を示すブロック図である。 図4は、図1に示した遠隔制御システムにおいてユーザ装置として使用される情報処理装置のハードウェア構成を示すブロック図である。 図5は、図1に示した遠隔制御システムにおいてユーザ装置として使用される情報処理装置のソフトウェア構成を示すブロック図である。 図6は、図5に示した情報処理装置の処理手順と処理内容を示すフローチャートである。 図7は、図5に示した情報処理装置により生成された合成映像の第1の例を示す図である。 図8は、図5に示した情報処理装置により生成された合成映像の第2の例を示す図である。 図9は、図5に示した情報処理装置により生成された合成映像の第3の例を示す図である。 図10は、ロボットに設けられるカメラの他の配置例を示す図である。
 以下、図面を参照してこの発明に係わるいくつかの実施形態を説明する。
 [第1の実施形態]
 (構成例)
 (1)システム
 図1は、この発明の第1の実施形態に係る遠隔制御システムの全体構成を示す図である。 
 第1の実施形態に係る遠隔制御システムは、ヘッドマウントディスプレイ(HMD)1と、ユーザ装置として動作する情報処理装置2と、上記情報処理装置2との間でネットワーク4を介して通信が可能な遠隔作業装置3とを備えている。なお、ここではユーザ装置が情報処理装置2のみを含む場合を例にとって説明するが、ユーザ装置は情報処理装置2とHMD1の両方を含んでいてもよい。
 ネットワーク4は、例えばインターネット等の公衆IP(Internet Protocol)網と、当該公衆IP網にアクセスするためのアクセス網とからなり、アクセス網にはLAN(Local Area Network)、無線LAN、公衆有線ネットワーク、公衆移動通信ネットワーク、CATV(Cable Television)ネットワークが用いられる。
 (2)装置
 (2-1)遠隔作業装置3
 遠隔作業装置3は、例えば遠隔地で動作する人型のロボットからなる。なお、遠隔作業装置3を以後ロボットとも呼ぶ。ロボット3は、胴体部、頭部、腕部および脚部からなり、頭部、腕部および脚部はそれぞれサーボ機構を備える駆動部により所定の可動範囲内で動作するように構成されている。
 ロボット3の例えば頭部前面部、つまり顔に相当する部位には、第1の撮像デバイスとしての立体カメラ34が設置されている。またロボット3の例えば頭頂部に相当する部位には、第2の撮像デバイスとしての全方位カメラ35が設置されている。なお、ロボット3の側頭部に相当する部位にはマイクロフォン36も設置されている。
 図2は、ロボット3のハードウェア構成を示すブロック図である。 
 ロボット3は、例えば制御部31を備える。制御部31は、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する。この制御部31には、記憶部32と、センサインタフェース(センサI/F)33と、駆動インタフェース(駆動I/F)37と、通信インタフェース(通信I/F)39が、バス30を介して接続されている。
 記憶部32は、記憶媒体として例えばSolid State Drive(SSD)等の随時書込みおよび読出しが可能な不揮発性メモリを用いたもので、プログラム記憶領域とデータ記憶領域とを有する。プログラム記憶領域には、ロボット3の動作を実現するための各種アプリケーション・プログラムが格納される。データ記憶領域は、ロボット3の動作過程で取得或いは生成された各種データを保存するために用いられる。なお、記憶媒体としては、他にRead Only Memory(ROM)やRandom Access Memory(RAM)等を併用することも可能である。
 センサI/F33には、上記立体カメラ34、全方位カメラ35およびマイクロフォン36が接続される。立体カメラ34は、例えば二眼カメラからなり、ロボット3の前方向を第1の視野角(例えば130度)の範囲で撮像し、得られた映像データ(以後立体映像データと云う)をセンサI/F33へ出力する。
 全方位カメラ35は、上記立体カメラ34が有する第1の視野角より大きい第2の視野角(例えば全周に相当する360度)を有する。そして、ロボット3の周囲を全方位に渡って撮像し、得られた映像データ(以後全方位映像データと云う)をセンサI/F33へ出力する。 
 なお、マイクロフォン36は、ロボット3の周囲の音を検出し、得られた音声データをセンサI/F33へ出力する。
 駆動I/F37には、上記頭部、腕部および脚部を駆動するための駆動部38が接続される。駆動I/F37は、制御部31から出力される制御信号を駆動信号に変換し、変換された駆動信号を駆動部38へ出力して駆動部38を動作させる。例えば、頭部を動作させる駆動部であれば、頭部をパンおよびチルトの各方向へ所定の角度の範囲内で回動させる。
 通信I/F39は、例えば、無線LAN、近距離無線データ通信規格(例えばBluetooth(登録商標))、または公衆移動通信ネットワークに対応したインタフェースを備え、ネットワーク4を介して情報処理装置2との間でデータ伝送を行う。なお、通信I/F30は、公衆有線網や有線LAN、CATVネットワーク等の有線網に対応するインタフェースを備えていてもよい。
 制御部31は、情報処理装置2から送られる遠隔制御信号に従い上記頭部、腕部および脚部の動きを制御する。制御対象となる動作としては、例えば、ロボット3の頭部の向きを制御することで、立体カメラ34および全方位カメラ35による撮像対象範囲を可変制御する動作がある。なお、遠隔作業装置は人型のロボット3以外に、例えば産業用ロボットや単に監視カメラが設置された架台であってもよい。
 また制御部31は、上記立体カメラ34により撮像された立体映像データ、および上記全方位カメラ35により撮像された全方位映像データをセンサI/F33を介して受信する。そして、受信された上記立体映像データと上記全方位映像データとを所定のフォーマットに従いパケット化して多重化し、多重化された映像データを通信I/F39から情報処理装置2に向け送信する処理を行う。なお、その際、マイクロフォン36により検出された音声データを上記各映像データに多重化して送信することも可能である。また、ロボット3Aと情報処理装置2との間に複数の通信リンクを並行して設定する場合には、これら複数の通信リンクを用いて立体映像データと全方位映像データを別々のストリームとして送信するようにしてもよい。
 なお、上記パケット化に際し制御部31は、上記立体映像データおよび全方位映像データに撮像時刻または受信時刻を表す時刻データを付与する。また制御部31は、上記立体映像データおよび全方位映像データに、それぞれの撮像範囲の相対的な位置関係を示す基準座標データを付与する。これらの時刻データおよび基準座標データは、後述する情報処理装置2において上記立体映像データと全方位映像データとを合成する際に使用される。
 (2-2)ヘッドマウントディスプレイ(HMD)1
 HMD1は、例えばゴーグル型をなし、ユーザの頭部に着脱自在に装着される。図3は、HMD1のハードウェア構成を示すブロック図である。
 HMD1は、例えばCPUを有する制御部11に対し、記憶部12と、表示インタフェース(表示I/F)13と、センサインタフェース(センサI/F)15と、通信インタフェース(通信I/F)17を、バス10を介して接続したものとなっている。なお、上記制御部11には、他に、各種スイッチやマイクロフォン、スピーカ、カメラ、位置センサ等のデバイスが接続されてもよい。
 記憶部12は、記憶媒体として例えばSSD等の随時書込みおよび読出しが可能な不揮発性メモリを用いたもので、プログラム記憶領域とデータ記憶領域とを有する。プログラム記憶領域には、HMD1の動作を実現するための各種アプリケーション・プログラムが格納される。データ記憶領域は、HMD1の動作過程で取得或いは生成された各種データを保存するために用いられる。なお、記憶媒体としては、他にROMやRAM等を併用することも可能である。
 表示I/F13には表示部14が接続される。表示部14は、例えば、有機EL(Electro Luminescence)ディスプレイからなる表示パネルを、仮想現実(Virtual Reality:VR)表示に対応するためにユーザの左右の眼に対応して2枚備える。なお、表示パネルは1枚であってもよい。また表示部14は、有機ELディスプレイに限られるものではなく、例えば液晶ディスプレイ(Liquid Cristal Display:LCD)や7セグメントを用いた表示器等の、他のタイプの表示器であってもよい。表示I/F13は、後述する情報処理装置2により生成された映像データを表示部14に表示させる。
 センサI/F15には、動きセンサ16が接続される。動きセンサ16は、例えば角速度センサ(ジャイロセンサ)からなり、HMD1の動き、つまりユーザの頭部の動きを検出するために使用される。検出対象となる頭部の動きは、例えば六軸方向の動きが好ましいが、パンおよびチルトの2軸方向の動きだけでもよい。センサI/F15は、上記動きセンサ16の出力信号をもとに、ユーザの頭部の動きを表す動きデータを生成する。
 なお、センサI/F15には、上記動きセンサ16の他に、磁気センサ、加速度センサ、位置センサ、赤外センサ、輝度センサ、近接センサ、カメラ等が接続されてもよい。またセンサI/F15には、ユーザの頭部の動きのほか、ユーザの視線の動きを検出するためのセンサが接続されてもよい。ユーザの視線の動きは、例えばユーザの眼球を撮像するカメラを用いることで検出可能である。
 通信I/F17には、例えばUniversal Serial Bus(USB)ケーブル等の信号ケーブルを使用した有線インタフェースが用いられる。そして通信I/F17は、制御部11の制御の下、情報処理装置2から送信される映像データを受信すると共に、上記センサI/F15により生成された動きデータ等を情報処理装置2へ転送する。なお、通信I/F17には、近距離無線データ通信規格(例えばBluetooth(登録商標))が使用されてもよい。
 なお、この例では、HMD1として制御部11および記憶部12を備えた多機能型のディスプレイを例にとって説明している。しかし、HMD1は、表示部14、表示I/F13、センサ16およびセンサI/F15のみを有する標準型または簡易型のディスプレイであってもよい。
 (2-3)情報処理装置2
 図4および図5は、それぞれユーザ装置として使用される情報処理装置2のハードウェアおよびソフトウェアの構成を示すブロック図である。
 情報処理装置2は、例えばスマートフォンやタブレット型端末等の携帯情報端末、またはノート型もしくは据え置き型のパーソナルコンピュータにより構成される。情報処理装置2は、CPU等のハードウェアプロセッサを有する制御部21に、バス20を介して記憶部22、入出力インタフェース(入出力I/F)23および通信インタフェース(通信I/F)24を接続したものとなっている。
 入出力I/F23には、上記USBケーブルまたは無線インタフェースを介して上記HMD1が接続される。また入出力I/F23には、ロボット3を遠隔制御するためのコントローラ等が接続されてもよい。
 通信I/F24は、例えば、無線LAN、近距離無線データ通信規格(例えばBluetooth(登録商標))または公衆移動通信ネットワークに対応したインタフェースを備え、ネットワーク4を介してロボット3との間でデータ伝送を行う。なお、通信I/F24は、公衆有線網や有線LAN、CATVネットワーク等の有線網に対応するインタフェースを備えていてもよい。
 記憶部22は、記憶媒体として、例えば、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM等の不揮発性メモリと、RAM等の揮発性メモリとを組み合わせて構成される。その記憶領域には、プログラム記憶領域と、データ記憶領域とが設けられる。プログラム記憶領域には、OS等のミドルウェアに加えて、この発明の第1の実施形態に係る各種制御処理を実行するために必要なアプリケーション・プログラムが格納される。
 データ記憶領域には、映像コンテンツ記憶部221が設けられている。映像コンテンツ記憶部221は、ロボット3から送信される立体映像および全方位映像の各データを一時保存するために使用される。
 制御部21は、この発明の第1の実施形態を実現するための制御処理機能として、動きデータ取得部211と、顔方向検出部212と、顔方向検出データ送信部213と、映像コンテンツ受信部214と、映像合成部215と、映像合成制御部216とを備えている。これらの制御処理機能は、いずれも上記記憶部22内のプログラム記憶領域に格納されたアプリケーション・プログラムを制御部21のハードウェアプロセッサに実行させることにより実現される。
 動きデータ取得部211は、上記HMD1のセンサ16により検出されたユーザの頭部の動きを表す動きデータを、HMD1から入出力I/F23を介して取得する処理を行う。
 顔方向検出部212は、例えば、取得された上記動きデータをもとにユーザの顔の向きの変化を検出する処理を行う。例えば、上記動きデータをもとに、ユーザの顔のパン方向およびチルト方向の向き(角度)の変化を算出する処理を行う。なお、検出対象となる顔の方向には、パン方向およびチルト方向以外に、首の左右方向の傾きやズーム方向等の他の方向を含めてもよい。
 なお、HMD1にユーザの顔を撮像するカメラが設けられている場合、顔方向検出部212は、当該カメラの映像をもとにユーザの視線方向の変化を検出する機能を有していてもよい。
 顔方向検出データ送信部213は、上記顔方向検出部212により得られた顔方向の検出データを、通信I/F24からネットワーク4を介してロボット3へ送信する処理を行う。
 映像コンテンツ受信部214は、ロボット3からネットワーク4を介して送られる映像コンテンツ、つまり立体映像データと全方位映像データとを多重化した映像データを通信I/F24を介して受信する。そして、受信された多重化映像データから立体映像データと全方位映像データとを分離し、さらにデパケットしたのち映像コンテンツ記憶部221に一時保存させる処理を行う。
 映像合成部215は、上記映像コンテンツ記憶部221から立体映像データおよび全方位映像データを読み出し、これらの映像データに付与されている基準座標データおよび時刻データに基づいて、上記立体映像データと全方位映像データとを合成する。そして、合成された映像データを入出力I/F23からHMD1へ出力する。
 上記映像の合成手法としては、例えば以下の手法が考えられる。 
 (1) 全方位映像データ上に立体映像データを、それぞれの座標位置および時刻を合わせて単純に重畳させる。 
 (2) (1) により全方位映像データと立体映像データとを合成した上で、その境界部位を目立たなくするため、境界部位に対し画素単位で輝度、濃度および色の少なくとも一つを一致させる処理を行う。
 映像合成制御部216は、上記映像合成部215による映像合成処理を制御するもので、上記顔方向検出部212による顔方向の検出結果に基づいて、ユーザの顔方向が変化している期間に、上記合成映像データの上記立体映像に対し、静止、消去または解像度を所定値より低下させる処理を行う。
 (動作例)
 次に、以上のように構成された遠隔制御システムの動作例を説明する。図6は情報処理装置2の処理手順と処理内容を示すフローチャートである。
 ユーザが自身の頭部にHMD1を装着したのち情報処理装置2を起動すると、まずHMD1の通信I/F17と情報処理装置2の入出力I/F23との間が接続され、さらに情報処理装置2の通信I/F24とロボット3の通信I/F39との間にネットワーク4を介して通信リンクが形成される。
 この状態で、ユーザが自身の頭部を動かして顔の方向を変化させたとする。そうすると、この頭部の動きがHMD1のセンサ16により検出され、その動きデータが情報処理装置2に入力される。情報処理装置2は、動きデータ取得部211の制御の下、ステップS11により上記動きデータを取得し、ステップS12において顔方向検出部212により上記動きデータからユーザの顔の方向の変化を検出する。
 例えば、顔方向検出部212は、角速度センサ(ジャイロセンサ)から出力される6軸の角速度検出信号から、ユーザの顔の方向を示すベクトルの変化を算出する。情報処理装置2は、上記ユーザの顔の向きの変化を示す検出データを、顔方向検出データ送信部213の制御の下、ステップS13により通信I/F24からロボット3に向け送信する。
 これに対しロボット3は、上記情報処理装置2から送信された顔の方向の検出データを受信すると、この顔の方向の検出データをもとに、駆動I/F37により例えばサーボ機構を有する駆動部38を動作させて頭部の向きを変化させる。そうすると、頭部に取り付けられた立体カメラ34の撮像方向が変化し、その変化の過程および変化後の撮像対象範囲の立体映像データが得られる。また、それと同時に全方位カメラ35では、ロボット3周辺の全周に渡る映像データが得られる。
 ロボット3の制御部31は、得られた上記立体映像データおよび全方位映像データをそれぞれパケットに変換したのち多重化し、多重化された映像データを通信I/F39から情報処理装置2へ送信する。なお、上記各映像データをパケット化する際に、制御部31は上記立体映像データおよび全方位映像データに撮像時刻または受信時刻を表す時刻データを付与する。また制御部31は、上記立体映像データおよび全方位映像データに、それぞれの撮像範囲の相対的な位置関係を示す基準座標データを付与する。
 情報処理装置2は、上記ロボット3から送信される多重化映像データを、映像コンテンツ受信部214の制御の下、ステップS14で受信する。このステップS14では、受信された多重化映像データが立体映像データと全方位映像データとに分離され、さらにデパケットされて映像コンテンツ記憶部221に一旦保存される。
 情報処理装置2の制御部21は、ステップS15において、映像合成部215により、上記映像コンテンツ記憶部221から上記立体映像データおよび全方位映像データを読み出す。そして、それぞれの映像データに付与されている基準座標データおよび時刻データをもとに、上記立体映像データと上記全方位映像データとを合成する。例えば、全方位映像上に立体映像を、映像フレームの座標位置および時刻を合わせて重畳させる。映像合成部215は、ステップS18において、上記合成された映像データを入出力I/F23からHMD1へ出力する。この結果、HMD1では、上記全方位映像上に立体映像が重畳された合成映像がディスプレイに表示される。
 図7は、HMD1に表示された合成映像の第1の例を示すもので、360度の全方位映像を二次元平面に展開した状態で示している。この例では、全方位映像VD2上に立体映像VD1が位置を合わせて単純に重畳された状態を示しており、映像間の境界が表示された状態を示している。
 図8は、HMD1に表示された合成映像の第2の例を示す。この例では、全方位映像VD2と立体映像VD1との境界部位に対し、画素単位で輝度、濃度および色の少なくとも一つについてそれぞれの差分を減少させる処理を行っている。このようにすることで、全方位映像VD2と立体映像VD1との境界を目立たなくすることができる。
 一方、情報処理装置2の制御部21は、映像合成制御部216の制御の下、ステップS16において、ユーザの顔の方向が変化中であるか否かを判定する。この判定は、例えば、顔方向検出部212により検出された顔の方向の状態に基づいて行われる。上記判定の結果、ユーザの顔の方向が変化中であると判定された場合、映像合成制御部216はステップS17において、上記ユーザの顔の方向が変化している期間において、上記合成された映像における立体映像VD1の表示を停止させる。映像合成部215は、ステップS18において、上記立体映像の表示が停止された合成映像を入出力I/F23からHMD1へ出力する。
 この結果、HMD1では立体映像の表示が停止された合成映像が表示される。図9は、表示が停止された立体映像VD3を含む合成映像の一例を示したものである。なお、合成映像中の立体映像は表示を停止させずに静止させるようにしてもよく、また表示を停止または静止させずに、解像度を一定レベル以下にて低下させるようにしてもよい。さらに映像合成部215において、ユーザの顔の方向が変化している期間には、全方位映像VD2への立体映像VD1の合成処理自体を行わないようにしてもよい。
 (作用・効果)
 以上述べたように第1の実施形態では、ロボット3に立体カメラ34に加え全方位カメラ35を設け、これらのカメラ34,35により撮像された各映像データをロボット3からネットワーク4を介してユーザ側の情報処理装置2へ送信する。一方、ユーザ側の情報処理装置2では、上記ロボット3から送られた各映像データを受信すると、当該各映像データを映像フレーム中の座標位置および時間位置を合わせて合成し、合成された映像データをHMD1へ出力し表示させるようにしている。
 従って、HMD1には、ロボット3において立体カメラ34により撮像された立体映像と全方位カメラ35により撮像された全方位映像とが合成された映像が表示されることになる。このため、ユーザに対し、その視線方向を含む主たる注視範囲については立体カメラ34により得られる立体映像により例えば奥行き感のある高画質の映像を提供でき、一方注視範囲外の周辺の領域については全方位カメラ35により得られる全方位映像により広い視野角の映像を提供することができる。
 従ってユーザは、例えば、全方位映像により広範囲にわたって視認性を確保しつつ、注視範囲に含まれる作業対象物または監視対象を立体映像により確認しながら作業を行うことが可能となり、これにより精度の高い作業または監視を能率良く行うことが可能となる。
 さらに、第1の実施形態では、ユーザの顔の方向が変化している期間中に、合成映像における立体映像の表示を停止または静止させるか、あるいは立体映像の解像度を低下させるようにしている。このため、ユーザの頭部の動きに応じてロボット3から送られる立体映像の表示動作に、伝送遅延や描画遅延による表示遅延が発生しても、ユーザにおけるVR酔いの発生を抑制することが可能となる。またその際、立体映像の表示のみを停止または静止させ、全方位映像の表示を維持させるようにしている。従って、ユーザは全方位映像によりロボット3がどちらの方向を向いているかを確認しながら、自身の顔の向きを円滑に移動させることができる。
 [第2の実施形態]
 この発明の第2の実施形態は、遠隔作業装置としてのロボット3において、立体カメラ34により得られた立体映像と、全方位カメラ35により得られた全方位映像とを、画像フレーム上の座標位置および撮像時刻を合わせた状態で合成し、合成された映像をネットワーク4を介してユーザ側の情報処理装置2へ送信するようにしたものである。
 この第2の実施形態は、第1の実施形態において情報処理装置2の制御部21が備える映像合成部215および映像合成制御部216をロボット3の制御部31に備えるようにすることで実現できる。この例でも、上記映像合成部215および映像合成制御部216の処理は、制御部31が備えるハードウェアプロセッサにプログラムを実行させることにより実現できる。
 この場合、映像合成制御部216は、情報処理装置2から送られる顔方向検出データに基づいてユーザの顔向きが変化中か否かを判定し、変化中に上記映像合成部215により生成される合成映像の立体映像の表示を停止または静止させる。なお、映像合成制御部216は、情報処理装置2から送られる顔方向検出データをもとにユーザの顔方向が変化中か否かを判定する代わりに、ロボット3の頭部が動いているか否かを判定し、ロボット3の頭部が動いている期間に、上記映像合成部215により生成される合成映像の立体映像の表示を停止または静止させるようにしてもよい。
 この発明の第2の実施形態によれば、ロボット3において立体映像と全方位映像とを合成した映像データが生成されて情報処理装置2へ送られるので、ロボット3から情報処理装置2へ伝送する映像データの情報量を減らして伝送遅延を提言することが可能となる。また、情報処理装置2は、映像合成処理および映像合成制御処理を行う必要がなくなり、その分処理負荷が軽減される。
 [その他の実施形態]
 (1)第1の実施形態では、ロボット3Aの頭部の顔に相当する部位に二眼カメラ34を配置し、頭頂部に全方位カメラ35を配置した場合を例にとって説明した。しかし、この発明はそれに限定されるものではなく、例えばロボット3Aの顔に相当する部位に第1の撮像デバイスとして機能する二眼カメラ34を配置すると共に、この二眼カメラ34の中間部に第2の撮像デバイスとして機能する広角カメラ35bを配置するように構成してもよい。
 図10にその配置例を示す。この例では、広角カメラ35bはロボット3Aの前方向を180度の視野で撮像する。このため、全方位カメラ35を使用する場合に比べ視野角は小さくなるが、視野角が180度であればユーザの視野角に近い十分に広視野角の映像をユーザ装置へ送信することができるので、実用上十分な効果が期待できる。なお、ユーザが広角カメラ35bの視野角外の映像を視認しようとする場合には、ユーザ装置から遠隔操作によりロボット3の向きをパン方向に移動させればよい。
 以上の構成により以下のような作用効果が奏せられる。すなわち、一般に遠隔制御システムでは、ユーザの頭部が回動し始めたことがHMD1で検出されると、それに応じて情報処理装置2から遠隔地のロボット3へネットワーク4を介して遠隔制御信号が送られる。そして、ロボット3では、上記遠隔制御信号に応じて頭部の向きが回動してカメラにより撮像される映像データが変化し、この映像データがネットワーク4を介して情報処理装置2へ送信され、HMD1に表示される。このため、ユーザが頭部を動かし始めてからそれに応じたロボット映像がユーザのHMD1に表示されるまでに、伝送遅延や描画遅延による時間差が生じる。
 これに対し上記構成によれば、ユーザが頭を回動し始める前に、広角カメラ35bにより180度の視野角の広角映像がHMD1に既に表示されているため、この広角映像により、ユーザの頭部が回動した際に得られるロボット映像に近い映像をユーザに提示することが可能である。従って、遠隔地のロボット3からユーザのHMD1に映像が届くまでの間に映像は固定されることがなく、これによりユーザがVR酔いを起こす不具合は軽減される。
 (2)第1の実施形態では、ロボット3に、第1の撮像デバイスとして立体カメラ34を設けると共に、第2の撮像デバイスとして全方位カメラ35を設けた場合を例にとって説明した。しかし、それに限らず、第1の撮像デバイスとしては一眼カメラを設けてもよく、また第2の撮像デバイスとしては撮像範囲を分割して撮像するように配置された複数の一眼カメラを設けてもよい。
 (3)第2の実施形態では、立体映像と全方位映像との映像合成処理と、合成映像における立体映像の表示の停止または静止させる制御をロボット3の制御部31により行う場合を例にとって説明した。しかし、それに限らず、立体映像と全方位映像との映像合成処理のみをロボット3の制御部31で行い、合成映像における立体映像の表示の停止または静止させる制御については情報処理装置2において行うようにしてもよい。
 (4)さらに第1および第2の実施形態では、ユーザが顔の方向を変化させたときの映像の表示遅延によるVR酔いを抑制するために、ユーザの主として注視している立体映像の表示を停止または静止させるようにした。しかし、それに加えて、全方位映像の表示を静止させるようにしてもよい。このようにすると、ユーザはロボット3の向きを確認できなくなるが、映像データの伝送遅延や描画遅延が大きい場合に、ユーザがVR酔いを起こさないようにすることができる。
 (5)前記第1の実施形態では、HMD1とは別に設けた情報処理装置2により、ロボット3との間のデータ通信および映像表示制御を行うようにした。しかし、HMD1が情報処理装置2の機能を備える場合、つまり情報処理装置と一体型のHMDを使用する場合には、HMDにおいてロボット3との間のデータ通信および映像表示制御を行うように構成してもよい。
 (6)その他、遠隔作業装置の種類と構成、第1および第2の撮像デバイスの種類と構成、情報処理装置の構成、映像合成処理および合成制御処理の手順とその処理内容等についても、この発明の範囲を逸脱することなく種々の改良や変形を行うことができる。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
 要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
 1…ヘッドマウントディスプレイ(HMD)
 2…情報処理装置
 3A,3B…ロボット
 4…ネットワーク
 10,20,30…バス
 11,21,31…制御部
 12,22,32…記憶部
 13…表示インタフェース(表示I/F)
 14…表示部
 15,33…センサインタフェース(センサI/F)
 16…動きセンサ
 17,24,39…通信インタフェース(通信I/F)
 23…入出力インタフェース(入出力I/F)
 34…立体カメラ
 35…全方位カメラ
 35b…広角カメラ
 36…マイクロフォン
 37…駆動インタフェース(駆動I/F)
 38…駆動部
 211…動きデータ取得部
 212…顔方向検出部
 213…顔方向検出データ送信部
 214…映像コンテンツ受信部
 215…映像合成部
 216…映像合成制御部
 221…映像コンテンツ記憶部

Claims (8)

  1.  ユーザ装置と、前記ユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作する遠隔作業装置とを具備する遠隔制御システムであって、
     前記遠隔作業装置は、
      第1の視野角を有する第1の撮像デバイスと、
      前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスと、
      前記第1の撮像デバイスにより得られた第1の映像および前記第2の撮像デバイスにより得られた第2の映像を、前記ネットワークを介して前記ユーザ装置へ送信する送信部と
     を備え、
     前記ユーザ装置は、
      前記遠隔作業装置から前記ネットワークを介して送られた前記第1の映像および前記第2の映像を受信する受信部と、
      受信された前記第1の映像と前記第2の映像とを、座標位置および時間位置を合わせて合成し、第3の映像を生成する映像合成部と、
      生成された前記第3の映像を表示部へ出力する出力部と
     を備える遠隔制御システム。
  2.  ユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作する遠隔作業装置であって、
     第1の視野角を有する第1の撮像デバイスと、
     前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスと、
     前記第1の撮像デバイスにより得られた第1の映像と、前記第2の撮像デバイスにより得られた第2の映像とを、座標位置および時間位置を合わせて合成し、第3の映像を生成する映像合成部と、
      生成された前記第3の映像を前記ネットワークを介して前記ユーザ装置へ送信する送信部と
     を具備する遠隔作業装置。
  3.  前記第1の撮像デバイスは、前記第1の視野角を有する立体カメラを有し、
     前記第2の撮像デバイスは、前記第2の視野角として全周を撮像可能な視野角を有する全方位カメラを有する、請求項2に記載の遠隔作業装置。
  4.  ユーザ装置と、前記ユーザ装置からユーザ動作に応じてネットワークを介して送られる制御信号により動作し、かつ第1の視野角を有する第1の撮像デバイスと、前記第1の視野角を含みかつ前記第1の視野角より大きい第2の視野角を有する第2の撮像デバイスとを有する遠隔作業装置とを具備する遠隔制御システムの、前記ユーザ装置または前記遠隔作業装置のいずれかに設けられる映像処理装置であって、
     前記第1の撮像デバイスにより得られた第1の映像と、前記第2の撮像デバイスにより得られた第2の映像とを、座標位置および時間位置を合わせて合成し、第3の映像を生成する映像合成部と、
      生成された前記第3の映像を出力する出力部と
     を備える映像処理装置。
  5.  前記映像合成部は、前記第2の映像に前記第1の映像を座標位置および時間位置を合わせて重畳する、請求項4に記載の映像処理装置。
  6.  前記映像合成部は、前記第2の映像に前記第1の映像を座標位置および時間位置を合わせて重畳し、かつ前記第1の映像と前記第2の映像との境界部位に対し画素単位で輝度、濃度および色の少なくとも一つの差分を減少させるための補正処理を行う、請求項4に記載の映像処理装置。
  7.  前記ユーザ装置が、前記ユーザの頭部の位置又は向きの変化を検出する検出部を備える場合に、
     前記映像合成部は、前記検出部による検出出力をもとに、前記ユーザの頭部の位置または向きが変化している期間に、前記第3の映像における前記第2の映像に対し、静止、消去または解像度を所定値より低下させる処理を行う、請求項4に記載の映像処理装置。
  8.  請求項4乃至7のいずれかに記載の映像処理装置が備える前記各部による処理を、前記映像処理装置が備えるプロセッサに実行させるプログラム。
PCT/JP2021/018475 2020-05-14 2021-05-14 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム WO2021230363A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21803246.4A EP4152746A4 (en) 2020-05-14 2021-05-14 REMOTE CONTROL SYSTEM, REMOTE WORKING APPARATUS, VIDEO PROCESSING APPARATUS AND PROGRAM
CN202180035202.8A CN115606173A (zh) 2020-05-14 2021-05-14 远程控制系统、远程作业装置、影像处理装置以及程序
US18/054,231 US20230071690A1 (en) 2020-05-14 2022-11-10 Remote control system, remote operation apparatus, video image processing apparatus, and computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020085305A JP6965398B1 (ja) 2020-05-14 2020-05-14 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
JP2020-085305 2020-05-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/054,231 Continuation US20230071690A1 (en) 2020-05-14 2022-11-10 Remote control system, remote operation apparatus, video image processing apparatus, and computer-readable medium

Publications (1)

Publication Number Publication Date
WO2021230363A1 true WO2021230363A1 (ja) 2021-11-18

Family

ID=78466241

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/018475 WO2021230363A1 (ja) 2020-05-14 2021-05-14 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム

Country Status (5)

Country Link
US (1) US20230071690A1 (ja)
EP (1) EP4152746A4 (ja)
JP (2) JP6965398B1 (ja)
CN (1) CN115606173A (ja)
WO (1) WO2021230363A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070398A1 (ja) * 2022-09-26 2024-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178292A (ja) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 画像更新装置
JP2000244905A (ja) * 1999-02-22 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> 映像観察システム
JP2002174840A (ja) * 2000-12-08 2002-06-21 Matsushita Electric Ind Co Ltd プリセット監視装置
JP2003134375A (ja) * 2001-10-26 2003-05-09 Matsushita Electric Works Ltd 画像撮影システム
WO2012001755A1 (ja) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
WO2017134770A1 (ja) * 2016-02-03 2017-08-10 三菱電機株式会社 映像同期装置
JP2017204674A (ja) * 2016-05-09 2017-11-16 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
JP2017216736A (ja) * 2017-08-09 2017-12-07 Smk株式会社 画像処理システム
JP2019106628A (ja) 2017-12-12 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像補正装置、画像補正方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0569832A (ja) * 1991-09-17 1993-03-23 Nippon Telegr & Teleph Corp <Ntt> 遠隔操縦ロボツト操舵システム
JPH08149356A (ja) * 1994-11-17 1996-06-07 Canon Inc 動画表示装置
JP5953658B2 (ja) 2011-05-25 2016-07-20 ソニー株式会社 ロボット制御装置及びロボット装置の制御方法、コンピューター・プログラム、プログラム記憶媒体、並びにロボット装置
JP6538003B2 (ja) 2016-06-01 2019-07-03 株式会社ソニー・インタラクティブエンタテインメント アクチュエータ装置
FR3052252B1 (fr) * 2016-06-07 2019-05-10 Thales Equipement optronique de vision pour un vehicule terrestre
CN110662631B (zh) 2017-05-17 2023-03-31 远程连接株式会社 控制装置、机器人控制方法以及机器人控制系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178292A (ja) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 画像更新装置
JP2000244905A (ja) * 1999-02-22 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> 映像観察システム
JP2002174840A (ja) * 2000-12-08 2002-06-21 Matsushita Electric Ind Co Ltd プリセット監視装置
JP2003134375A (ja) * 2001-10-26 2003-05-09 Matsushita Electric Works Ltd 画像撮影システム
WO2012001755A1 (ja) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
WO2017134770A1 (ja) * 2016-02-03 2017-08-10 三菱電機株式会社 映像同期装置
JP2017204674A (ja) * 2016-05-09 2017-11-16 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
JP2017216736A (ja) * 2017-08-09 2017-12-07 Smk株式会社 画像処理システム
JP2019106628A (ja) 2017-12-12 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像補正装置、画像補正方法およびプログラム

Also Published As

Publication number Publication date
JP7203157B2 (ja) 2023-01-12
CN115606173A (zh) 2023-01-13
US20230071690A1 (en) 2023-03-09
EP4152746A1 (en) 2023-03-22
JP2021180421A (ja) 2021-11-18
JP2021180496A (ja) 2021-11-18
EP4152746A4 (en) 2023-10-25
JP6965398B1 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
KR102502404B1 (ko) 정보 처리 장치 및 방법, 그리고 프로그램
US9858643B2 (en) Image generating device, image generating method, and program
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
WO2016013272A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
KR20170044451A (ko) 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법
US20210191124A1 (en) Image generation apparatus, head mounted display, image generation system, image generation method, and program
WO2021230363A1 (ja) 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
US20230069407A1 (en) Remote operation apparatus and computer-readable medium
JP6711803B2 (ja) 画像生成装置および画像生成方法
JP2021009647A (ja) 仮想現実制御装置、仮想現実ヘッドセット、仮想現実制御方法およびプログラム
WO2021014673A1 (ja) 映像表示制御装置、方法およびプログラム
WO2018074262A1 (ja) 通信装置および通信方法、並びにプログラム
WO2021230364A1 (ja) 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
WO2019229816A1 (ja) 画像生成装置、画像生成方法、およびプログラム
WO2022255058A1 (ja) 情報処理装置および画像生成方法
Tanase et al. Video stabilization for HMD-based telexistence-Concept and prototype configuration
WO2022030209A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2002218288A (ja) カメラ表示システム
JP2020145612A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21803246

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021803246

Country of ref document: EP

Effective date: 20221214