WO2022123772A1 - 映像表示方法、映像表示装置およびプログラム - Google Patents

映像表示方法、映像表示装置およびプログラム Download PDF

Info

Publication number
WO2022123772A1
WO2022123772A1 PCT/JP2020/046302 JP2020046302W WO2022123772A1 WO 2022123772 A1 WO2022123772 A1 WO 2022123772A1 JP 2020046302 W JP2020046302 W JP 2020046302W WO 2022123772 A1 WO2022123772 A1 WO 2022123772A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
display
subject
image
video
Prior art date
Application number
PCT/JP2020/046302
Other languages
English (en)
French (fr)
Inventor
誠 武藤
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2022568012A priority Critical patent/JP7495644B2/ja
Priority to PCT/JP2020/046302 priority patent/WO2022123772A1/ja
Priority to US18/266,206 priority patent/US20240038201A1/en
Publication of WO2022123772A1 publication Critical patent/WO2022123772A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/395Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Definitions

  • This disclosure relates to a video display method, a video display device, and a program.
  • a plurality of subjects in an image are presented to the viewer by a plurality of pseudo virtual image devices (display devices) arranged in the depth direction when viewed from the viewer.
  • a plurality of pseudo-virtual image devices are arranged according to the positions of a plurality of subjects in the actual depth direction, and the image corresponding to each subject is transferred to the pseudo-virtual image devices arranged at the positions corresponding to the subjects. indicate.
  • the image of the subject actually located on the front side is displayed on the pseudo virtual image device on the front side
  • the image of the subject actually located on the back side is displayed on the pseudo virtual image device on the back side.
  • the viewer can get a more realistic sense of depth.
  • the transmissive display device the portion where the subject is not displayed can be seen through, so that the user can visually recognize the image to be displayed on the pseudo virtual image device on the back side in the transparent portion (for example,). See Non-Patent Document 1).
  • FIG. 13 is a diagram showing an example of arrangement of a plurality of subjects. As shown in FIG. 13, it is assumed that the subject s1 exists at the position of the distance T1 from the photographing device 2 and the subject s2 exists at the position of the distance T2 (T1> T2) from the photographing device 2. Since T1> T2, the subject s1 is located behind the subject s2 when viewed from the photographing device 2.
  • the display device 3b is arranged at the position of the distance P1 from the viewer, and the display device 3f is arranged at the position of the distance P2 (P1> P2) from the viewer. Since P2> P1, the display device 3f is arranged in front of the display device 3b when viewed from the viewer.
  • the display device 3b displays the subject s1 located on the back side, and the display device 3f displays the subject s2 located on the front side.
  • the display device 3f and the display device 3b are arranged side by side in the depth direction when viewed from the viewer. Further, the display device 3f is configured to transmit the display image of the display device 3b so as to be visually recognized by the viewer. Therefore, as shown in FIG.
  • the display image of the display device 3b and the display image of the display device 3f are superimposed and visually recognized by the viewer.
  • the distances P1 and P2 to the actual distances T1 and T2, respectively, the distance from the viewer to the subject s1 and s2 matches the distance to the actual subject, so that the depth is more realistic. A feeling can be given to the viewer.
  • the distance T1'from the photographing device 2 to the subject s1 and the distance from the photographing device 2 to the subject s2. Will be close. Even though the distance between the subject s1 and the subject s2 in the depth direction has changed, the distance from the photographing device 2 to the display device 3b and the display device 3f (distances P1 and P2) does not change, so that the distance to the actual subject is not changed. As a result, the distances to the display devices 3b and 3f do not match, and the viewer cannot obtain a realistic sense of depth.
  • An object of the present disclosure made in view of the above-mentioned problems is to provide a video display method, a video display device, and a program capable of presenting a more realistic video.
  • a display target is displayed by a first display device and a second display device arranged in front of the first display device when viewed from the user. It is an image display method in an image display device in which the display image of the first display device and the display image of the second display device are superimposed and visually recognized by the user, and the display as seen from the user side. It includes a step of measuring a distance in the depth direction of an object and a step of displaying the display object on either the first display device or the second display device based on the measured distance.
  • the video display device is to be displayed by the first display device and the second display device arranged in front of the first display device when viewed from the user.
  • a measurement unit that measures the distance in the depth direction
  • a display control unit that displays the display target on either the first display device or the second display device based on the distance measured by the measurement unit
  • a display control unit Equipped with.
  • the program according to the present disclosure causes the computer to function as the above-mentioned video display device.
  • FIG. 2 It is a block diagram which shows the schematic structure of the computer which functions as the image display device which concerns on 1st Embodiment of this disclosure. It is a figure which shows the structural example of the image display system including the image display device which concerns on 1st Embodiment of this disclosure. It is a flowchart which shows an example of the operation of the image display device shown in FIG. It is a figure which shows an example of the movement of a subject. It is a figure which shows another example of the movement of a subject. It is a figure for demonstrating the operation of the image display apparatus shown in FIG. 2 with the movement of the subject shown in FIG. 4A. It is a figure for demonstrating the operation of the image display apparatus shown in FIG. 2 with the movement of the subject shown in FIG. 4B.
  • FIG. 1 It is a figure for demonstrating the difference in the position shift of a subject according to the position of a viewer. It is a figure which shows the example of the thinning pattern by the subject image thinning part shown in FIG. It is a figure which shows an example of the arrangement of a photographing apparatus and a subject. It is a figure for demonstrating the display of a subject by a conventional method. It is a figure which shows an example of the display image by a conventional method. It is a figure which shows another example of the arrangement of a photographing apparatus and a subject.
  • FIG. 1 is a block diagram showing a hardware configuration when the video display device 10 according to the first embodiment of the present disclosure is a computer capable of executing a program instruction.
  • the computer may be a general-purpose computer, a dedicated computer, a workstation, a PC (Personal Computer), an electronic notepad, or the like.
  • the program instruction may be a program code, a code segment, or the like for executing a necessary task.
  • the video display device 10 includes a processor 110, a ROM (ReadOnlyMemory) 120, a RAM (RandomAccessMemory) 130, a storage 140, an input unit 150, a display unit 160, and a communication interface (I / F). Has 170.
  • the processor 110 is a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), a SoC (System on a Chip), or the like, and is of the same type or different types. It may be composed of a plurality of processors.
  • the processor 110 controls each configuration and executes various arithmetic processes. That is, the processor 110 reads the program from the ROM 120 or the storage 140, and executes the program using the RAM 130 as a work area. The processor 110 controls each of the above configurations and performs various arithmetic processes according to the program stored in the ROM 120 or the storage 140. In the present embodiment, the program according to the present disclosure is stored in the ROM 120 or the storage 140.
  • the program is stored in a non-transitory storage medium such as a CD-ROM (CompactDiskReadOnlyMemory), a DVD-ROM (DigitalVersatileDiskReadOnlyMemory), or a USB (UniversalSerialBus) memory. May be provided at. Further, the program may be downloaded from an external device via a network.
  • a non-transitory storage medium such as a CD-ROM (CompactDiskReadOnlyMemory), a DVD-ROM (DigitalVersatileDiskReadOnlyMemory), or a USB (UniversalSerialBus) memory. May be provided at. Further, the program may be downloaded from an external device via a network.
  • the ROM 120 stores various programs and various data.
  • the RAM 130 temporarily stores a program or data as a work area.
  • the storage 140 is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.
  • the input unit 150 includes a pointing device such as a mouse and a keyboard, and is used for performing various inputs.
  • the display unit 160 is, for example, a liquid crystal display and displays various information.
  • the display unit 160 may adopt a touch panel method and function as an input unit 150.
  • the communication interface 170 is an interface for communicating with other devices such as an external device (not shown), and for example, standards such as Ethernet (registered trademark), FDDI, and Wi-Fi (registered trademark) are used.
  • Ethernet registered trademark
  • FDDI FDDI
  • Wi-Fi registered trademark
  • FIG. 2 is a diagram showing an example of the functional configuration of the video display system 1 including the video display device 10 according to the present embodiment.
  • the video display device 10 according to the present embodiment has a plurality of display devices 3f, in which the subjects in the video shot by the shooting device 2 are arranged in the depth direction when viewed from the viewer (user) as shown in FIG. It is displayed by 3b.
  • the video display system 1 includes a photographing device 2, display devices 3b and 3f, and a video display device 10.
  • the shooting device 2 is a camera that shoots a subject within a predetermined shooting range, and outputs the shot image to the video display device 10.
  • the display devices 3b and 3f display images according to the control of the image display device 10. As shown in FIG. 14, the display devices 3f and 3b are arranged side by side in the depth direction when viewed from the viewer (user). Specifically, the display device 3b is arranged on the back side when viewed from the viewer, and the display device 3f is arranged on the front side when viewed from the viewer. That is, the display device 3b is arranged behind the display device 3f when viewed from the viewer.
  • the display devices 3b and 3f display the image in such a manner that the display image of the display device 3b and the display image of the display device 3f are superimposed and visually recognized by the viewer.
  • the display devices 3b and 3f display (project) an image by, for example, holography.
  • the method of displaying the image by the display devices 3b and 3f is not limited to this, and if the display image of the display device 3b and the display image of the display device 3f can be superimposed and visually recognized by the viewer. Any method can be used.
  • the display device 3b and the display device 3f are not distinguished, they are referred to as a display device 3.
  • the video display device 10 displays the shot video shot by the shooting device 2 by the display devices 3b and 3f. Specifically, the image display device 10 displays the subject in the captured image of the photographing device 2 on the display devices 3b and 3f, and the display image of the display device 3b and the display image of the display device 3f are superimposed and the viewer. Make it visible to. In the following, the image display device 10 displays the subject s1 located on the back side of the photographing device 2 and the subject s2 located on the front side of the photographing device 2 as display targets as shown in FIG. An example of displaying on the devices 3b and 3f will be described.
  • the image display device 10 may display not only the image captured by the image pickup device 2 but also the subject included in the image reproduced by the reproduction device on the display devices 3b and 3f. Therefore, it is not limited to the photographing device 2 that the video including the display target is input to the video display device 10.
  • the video display device 10 includes a subject extraction unit 11, a subject depth measurement unit 12 as a measurement unit, and a display destination determination unit 13 as a display control unit.
  • the subject extraction unit 11, the subject depth measurement unit 12, and the display destination determination unit 13 may be configured by dedicated hardware such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array), or as described above. It may be configured by one or more processors, or may be configured by including both.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • the subject extraction unit 11 extracts the subject (subject s1, s2) to be displayed from the image captured by the photographing device 2, and outputs the subject (subject s1, s2) to the subject depth measuring unit 12.
  • the subject can be extracted by the subject extraction unit 11 by using an arbitrary image processing technique or by using a model learned by an arbitrary deep learning technique.
  • the subject depth measuring unit 12 measures the distance in the depth direction of each subject extracted by the subject extracting unit 11 from a predetermined position (for example, the position of the photographing device 2).
  • the subject depth measuring unit 12 can measure the distance in the depth direction of the subject by using an arbitrary image processing technique or by using a model learned by an arbitrary deep learning technique.
  • the subject depth measuring unit 12 may measure the distance in the depth direction of the subject by using the depth sensor.
  • the subject depth measuring unit 12 outputs the measurement result of the distance in the depth direction of each subject to the display destination determination unit 13.
  • the display destination determination unit 13 sets the display destination of the subject as the display device 3b or the display device 3f based on the measurement result in the depth direction of the subject to be displayed, which is measured by the subject depth measurement unit 12. Is determined. That is, the display destination determination unit 13 as the display control unit has the display device 3b as the first display device and the display device 3f as the second display device based on the measured distance of the subject in the depth direction. Display in one of.
  • the display device 3 on which the display target is displayed is switched as the display target moves in the depth direction, so that a more realistic image can be presented without impairing the realistic sense of depth. Can be done.
  • FIG. 3 is a flowchart showing an example of the operation of the video display device 10 according to the present embodiment, and is a diagram for explaining a video display method in the video display device 10.
  • the subject extraction unit 11 extracts the subject to be displayed from the captured image of the photographing device 2 (step S11).
  • the subject depth measuring unit 12 measures the distance in the depth direction of the extracted subject as seen from the viewer side (step S12).
  • the display destination determination unit 13 determines whether or not the measured distance of the subject in the depth direction is larger than the predetermined threshold value M (step S13).
  • the threshold value M is the distance to a predetermined point between the display device 3b and the display device 3f as seen from the viewer side.
  • step S13: Yes the display destination determination unit 13 determines that the display destination of the subject is the display device 3b and displays the subject on the display device 3b (step S13: Yes). Step S14).
  • the display destination determination unit 13 determines that the display destination of the subject is the display device 3f and displays the subject on the display device 3f (step S13: No). Step S15).
  • the operation of the video display device 10 according to the present embodiment will be described more specifically with reference to FIGS. 4A to 5B.
  • the subject s1 existing at the position of the distance T1 from the imaged device 2 is displayed on the display device 3b
  • the subject s2 existing at the position of the distance T2 from the photographing device 2 is displayed on the display device.
  • the display destination determination unit 13 displays the subject s1 on the display device 3b as shown in FIG. 5A.
  • the display destination determination unit 13 moves the subject s1 together with the subject s2 as shown in FIG. 5B. , Displayed on the display device 3f.
  • FIGS. 4A to 5B an example of switching the display destination of the subject s1 with the movement of the subject s1 has been described, but the present disclosure is not limited to this.
  • the display destination of the subject s2 may be switched from the display device 3f to the display device 3b as the subject s2 moves.
  • the video display device 10 includes a subject depth measuring unit 12 as a measuring unit and a display destination determination unit 13 as a display control unit.
  • the subject depth measuring unit 12 measures the distance in the depth direction of the display target (subjects s1 and s2) as seen from the viewer (user) side.
  • the display destination determination unit 13 displays the display target on either the display device 3b as the first display device or the display device 3f as the second display device based on the measured distance.
  • the video display method in the video display device 10 includes a measurement step (step S12) and a display step (steps S13 to S15).
  • the measurement step the distance in the depth direction of the display target (subject s1, s2) seen from the viewer (user) side is measured.
  • the display step the display target is displayed on either the display device 3b as the first display device or the display device 3f as the second display device based on the measured distance.
  • the display target By displaying the display target on either the display device 3b or the display device 3f based on the distance in the depth direction of the display target as seen from the viewer side, the display target is displayed as the display target moves. Since the display device 3 can be switched, it is possible to present a more realistic image without impairing the realistic sense of depth.
  • the display destination of the subject s1 is switched from the display device 3b to the display device 3f at a certain point.
  • reference viewing position the position of the display devices 3b and 3f so that the position of the subject s1 does not change before and after the switching at the position of a certain viewer (hereinafter referred to as “reference viewing position") at the time when the display destination is switched.
  • reference viewing position it is possible to prevent the subject s1 from being displaced.
  • non-reference viewing position a position deviating from the reference viewing position
  • the position of the display target visually recognized by the viewer shifts due to the switching of the display destination of the display target.
  • FIG. 6 is a diagram showing a state in which an object in physical space is projected onto the display device 3f and the display device 3b.
  • the numbered solid line circles indicate the positions when the object in the physical space is projected onto the display device 3b
  • the numbered broken line circles indicate the objects in the physical space. The position when projected on 3f is shown.
  • the black line circle and the broken line circle with the same number indicate the position where the same object in the physical space is projected on the display device 3b and the position projected on the display device 3f, respectively. ing.
  • FIG. 8 is a diagram showing an example of the functional configuration of the video display device 20 according to the second embodiment of the present disclosure.
  • the same components as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted.
  • the image display device 20 includes a subject extraction unit 11, a subject depth measurement unit 12, a display destination determination unit 13, a subject image storage unit 21, and a subject image thinning unit 22. And prepare.
  • the image display device 20 according to the present embodiment is different from the image display device 10 according to the first embodiment in that a subject image storage unit 21 and a subject image thinning unit 22 are added.
  • the subject image storage unit 21 accumulates the image (image frame) of the subject to be displayed, delays it by a predetermined time, and outputs it to the subject image thinning unit 22.
  • the subject image thinning unit 22 thins out the image frame of the subject output from the subject image storage unit 21 in a predetermined period before and after the switching.
  • the output is output to the display device 3 determined to be the display destination by the display destination determination unit 13. That is, when the display device 3 for displaying the display target is switched, the subject image thinning unit 22 thins out the video frames of the subject in a predetermined period before and after the switching.
  • the subject image thinning unit 22 will be described in more detail.
  • an example will be described in which the subject to be displayed moves from the back side to the front side, and the display destination of the image of the subject is switched from the display device 3b to the display device 3f as the subject moves.
  • FIG. 9A is a flowchart showing an example of the operation of the subject image thinning unit 22 relating to the display of the subject image on the display device 3b when the display destination is switched from the display device 3b to the display device 3f.
  • the subject image thinning unit 22 determines whether or not the display device 3b to which the subject is displayed is switched to the display device 3f after X seconds (step S21).
  • step S21 When it is determined that the display destination of the subject is not switched after X seconds (step S21: No), the subject image thinning unit 22 repeats the process of step S21.
  • step S21: Yes the subject image thinning unit 22 performs the thinning process of the image frame of the subject to be displayed (step S22).
  • FIG. 10 is a diagram showing an example of display of a subject before and after switching the display destination.
  • the subject image thinning unit 22 thins out the image frames of the subject for a predetermined time (6 frames in the example of FIG. 10) before the display destination is switched. Therefore, the subject is hidden in the thinned out video frame.
  • the subject image thinning unit 22 determines that the display destination of the subject is switched after X seconds, and when X seconds have elapsed, the display destination of the subject is changed from the display device 3b to the display device 3f. Since the switching is possible, the output of the video frame to the display device 3b is stopped (step S23).
  • FIG. 9B is a flowchart showing an example of the operation of the subject image thinning unit 22 relating to the display of the subject image on the display device 3f when the display destination is switched from the display device 3b to the display device 3f.
  • the subject image thinning unit 22 determines whether or not the display device 3b to which the subject is displayed is switched to the display device 3f after X seconds (step S31).
  • step S31 When it is determined that the display destination of the subject is not switched after X seconds (step S31: No), the subject image thinning unit 22 repeats the process of step S31.
  • step S31 When it is determined that the display destination of the subject is switched after X seconds (step S31: Yes), the subject image thinning unit 22 waits for X seconds (step S32).
  • the display destination of the subject After determining that the display destination of the subject is switched after X seconds, the display destination is switched after waiting for X seconds, and the subject image thinning unit 22 outputs the image frame of the subject to the display device 3f. Is started (step S33).
  • the subject video thinning unit 22 When the video frame of the subject is output to the display device 3f by switching the display destination, the subject video thinning unit 22 performs the thinning process of the video frame of the subject to be displayed (step S34). Specifically, as shown in FIG. 10, the subject image thinning unit 22 thins out the image frames of the subject until a predetermined time (6 frames in the example of FIG. 10) elapses after switching the display destination. I do. After a lapse of a predetermined time, the subject image thinning unit 22 finishes thinning out the image frames of the subject.
  • a predetermined time 6 frames in the example of FIG. 10
  • the subject image thinning unit 22 is displayed in a predetermined period before and after the switching. Thin out the video frames.
  • the subject image thinning unit 22 thins out the image frames more frequently as the timing of switching the display destination of the subject approaches. By doing so, it is possible to reduce the amount of change in the position of the subject in the moving direction when the subject to be displayed is visually recognized as moving discontinuously at the non-reference viewing position.
  • the subject image thinning unit 22 prepares in advance a plurality of thinning patterns (patterns 1 to N) for thinning out the image frames of the subject as shown in FIG.
  • Patterns 1 to N are patterns in which at least one of the number of thinning out of the video frames to be displayed and the timing of thinning out the video frames are different from each other.
  • the small amount of change in the moving direction of the subject at the time of switching is defined as follows, for example.
  • the large amount of thinning is, for example, the number of thinning out video frames in each pattern.
  • the subject image thinning unit 22 searches for N in which the following equation (1) is minimized.
  • the viewing position is, for example, the position group of the audience seats of the venue where the video display system 1 according to the present disclosure is used. Since the position of the subject displayed on the display device 3b and the subject displayed on the display device 3f are different due to the difference in the viewing position, the addition value of the evaluation function values at all the viewing positions is minimized. This makes it as realistic as possible for all viewers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示に係る映像表示方法は、ユーザ側から見た表示対象の奥行き方向の距離を計測するステップ(S12)と、計測された距離に基づき、表示対象を第1の表示装置および第1の表示装置よりもユーザから見て手前に配置された第2の表示装置のいずれかに表示するステップ(S14,S15)と、を含む。

Description

映像表示方法、映像表示装置およびプログラム
 本開示は、映像表示方法、映像表示装置およびプログラムに関する。
 従来、映像中の複数の被写体(例えば、バドミントン競技の映像中の選手部分を切り出した映像)を、視聴者から見て奥行き方向に配置した複数の疑似虚像装置(表示装置)により視聴者に提示する手法がある。この手法によれば、複数の被写体の実際の奥行き方向の位置に合わせて複数の疑似虚像装置を配置し、各被写体に対応する映像を、その被写体に対応する位置に配置された疑似虚像装置に表示する。こうすることで、現実に手前側に位置する被写体の映像は、手前側の疑似虚像装置に表示され、現実に奥側に位置する被写体の映像は、奥側の疑似虚像装置に表示されるため、視聴者はより現実味のある奥行き感を得ることができる。ここで、透過型の表示装置を用いることで、被写体を表示しない部分は透けて見えるので、その透けた部分において奥側の疑似虚像装置に表示する映像をユーザは視認することができる(例えば、非特許文献1参照)。
井坂建、巻口誉宗、高田英明、「競技空間を取り囲んで観戦する"Kirari! for Arena"」、NTT技術ジャーナル 2018.10 p21-p24
 図13から図15を参照して、上述した手法についてより具体的に説明する。図13は、複数の被写体の配置の一例を示す図である。図13に示すように、撮影装置2から距離T1の位置に被写体s1が存在し、撮影装置2から距離T2(T1>T2)の位置に被写体s2が存在するとする。T1>T2であるため、撮影装置2から見て、被写体s1が被写体s2よりも奥側に位置する。
 上述した手法では、図14に示すように、視聴者から距離P1の位置に表示装置3bが配置され、視聴者から距離P2(P1>P2)の位置に表示装置3fが配置される。P2>P1であるため、視聴者から見て、表示装置3fが表示装置3bよりも手前に配置されている。表示装置3bには奥側に位置する被写体s1が表示され、表示装置3fには手前側に位置する被写体s2が表示される。表示装置3fと表示装置3bとは視聴者から見て奥行き方向に並んで配置される。また、表示装置3fは、表示装置3bの表示映像を透過して視聴者に視認させるように構成される。したがって、図15に示すように、表示装置3bの表示映像と表示装置3fの表示映像とが重畳して視聴者に視認される。ここで、距離P1,P2をそれぞれ、現実の距離T1,T2に合わせることで、視聴者から見た被写体s1,s2までの距離が現実の被写体までの距離と一致するので、より現実味のある奥行き感を視聴者に与えることができる。
 しかしながら、上述した手法では、奥側の被写体s1および手前側の被写体s2が奥行き方向に広範囲に移動することについては想定されていなかった。
 例えば、図16に示すように、奥側の被写体s1が手前側の被写体s2の近くまで移動した場合、撮影装置2から被写体s1までの距離T1’と、撮影装置2から被写体s2までの距離とは近い値になる。被写体s1と被写体s2との奥行き方向の距離が変化したにも関わらず、撮影装置2から表示装置3bおよび表示装置3fまでの距離(距離P1,P2)は変わらないため、現実の被写体までの距離と、表示装置3b,3fまでの距離とに不一致が生じ、視聴者にとって現実味のある奥行き感が得られなくなってしまう。
 したがって、よりリアリティのある映像を提示することができる技術が求められている。
 上記のような問題点に鑑みてなされた本開示の目的は、よりリアリティのある映像を提示することができる映像表示方法、映像表示装置およびプログラムを提供することにある。
 上記課題を解決するため、本開示に係る映像表示方法は、第1の表示装置および前記第1の表示装置よりもユーザから見て手前に配置された第2の表示装置により、表示対象を表示し、前記第1の表示装置の表示映像と前記第2の表示装置の表示映像とを重畳して前記ユーザに視認させる映像表示装置における映像表示方法であって、前記ユーザ側から見た前記表示対象の奥行き方向の距離を計測するステップと、前記計測された距離に基づき、前記表示対象を前記第1の表示装置および前記第2の表示装置のいずれかに表示するステップと、を含む。
 また、上記課題を解決するため、本開示に係る映像表示装置は、第1の表示装置および前記第1の表示装置よりもユーザから見て手前に配置された第2の表示装置により、表示対象を表示し、前記第1の表示装置の表示映像と前記第2の表示装置の表示映像とを重畳して前記ユーザに視認させる映像表示装置であって、前記ユーザ側から見た前記表示対象の奥行き方向の距離を計測する計測部と、前記計測部により計測された距離に基づき、前記表示対象を前記第1の表示装置および前記第2の表示装置のいずれかに表示する表示制御部と、を備える。
 また、上記課題を解決するため、本開示に係るプログラムは、コンピュータを上述した映像表示装置として機能させる。
 本開示に係る映像表示方法、映像表示装置およびプログラムによれば、よりリアリティのある映像を提示することができる。
本開示の第1の実施形態に係る映像表示装置として機能するコンピュータの概略構成を示すブロック図である。 本開示の第1の実施形態に係る映像表示装置を含む映像表示システムの構成例を示す図である。 図2に示す映像表示装置の動作の一例を示すフローチャートである。 被写体の移動の一例を示す図である。 被写体の移動の他の一例を示す図である。 図4Aに示す被写体の移動に伴う、図2に示す映像表示装置の動作について説明するための図である。 図4Bに示す被写体の移動に伴う、図2に示す映像表示装置の動作について説明するための図である。 基準視聴位置と非基準視聴位置とでの見え方の違いについて説明するための図である。 被写体の表示先の切り替えに伴う、被写体の位置ずれについて説明するための図である。 本開示の第2の実施形態に係る映像表示装置の機能構成の一例を示す図である。 図8に示す映像表示装置の、表示装置3bへの表示の際の動作の一例を示すフローチャートである。 図8に示す映像表示装置の、表示装置3fへの表示の際の動作の一例を示すフローチャートである。 図8に示す映像表示装置による被写体の表示の一例を示す図である。 視聴者の位置に応じた被写体の位置ずれの違いについて説明するための図である。 図8に示す被写体映像間引き部による間引きパタンの例を示す図である。 撮影装置と被写体との配置の一例を示す図である。 従来の手法による被写体の表示について説明するための図である。 従来の手法による表示映像の一例を示す図である。 撮影装置と被写体との配置の他の一例を示す図である。
 以下、本開示の実施の形態について図面を参照して説明する。
(第1の実施形態)
 図1は、本開示の第1の実施形態に係る映像表示装置10がプログラム命令を実行可能なコンピュータである場合のハードウェア構成を示すブロック図である。ここで、コンピュータは、汎用コンピュータ、専用コンピュータ、ワークステーション、PC(Personal Computer)、電子ノートパッドなどであってもよい。プログラム命令は、必要なタスクを実行するためのプログラムコード、コードセグメントなどであってもよい。
 図1に示すように、映像表示装置10は、プロセッサ110、ROM(Read Only Memory)120、RAM(Random Access Memory)130、ストレージ140、入力部150、表示部160および通信インタフェース(I/F)170を有する。各構成は、バス190を介して相互に通信可能に接続されている。プロセッサ110は、具体的にはCPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on a Chip)などであり、同種または異種の複数のプロセッサにより構成されてもよい。
 プロセッサ110は、各構成の制御、および各種の演算処理を実行する。すなわち、プロセッサ110は、ROM120またはストレージ140からプログラムを読み出し、RAM130を作業領域としてプログラムを実行する。プロセッサ110は、ROM120またはストレージ140に記憶されているプログラムに従って、上記各構成の制御および各種の演算処理を行う。本実施形態では、ROM120またはストレージ140には、本開示に係るプログラムが格納されている。
 プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 ROM120は、各種プログラムおよび各種データを格納する。RAM130は、作業領域として一時的にプログラムまたはデータを記憶する。ストレージ140は、HDD(Hard Disk Drive)またはSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラムおよび各種データを格納する。
 入力部150は、マウスなどのポインティングデバイス、およびキーボードを含み、各種の入力を行うために使用される。
 表示部160は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部160は、タッチパネル方式を採用して、入力部150として機能してもよい。
 通信インタフェース170は、外部装置(図示しない)などの他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)などの規格が用いられる。
 図2は、本実施形態に係る映像表示装置10を含む映像表示システム1の機能構成の一例を示す図である。本実施形態に係る映像表示装置10は、撮影装置2により撮影された映像中の被写体を、図14に示すような、視聴者(ユーザ)から見て奥行き方向に並んだ複数の表示装置3f,3bにより表示するものである。
 図2に示すように、映像表示システム1は、撮影装置2と、表示装置3b,3fと、映像表示装置10とを備える。
 撮影装置2は、所定の撮影範囲内の被写体を撮影するカメラであり、撮影映像を映像表示装置10に出力する。
 表示装置3b,3fは、映像表示装置10の制御に従い、映像を表示する。表示装置3f,3bは、図14に示すように、視聴者(ユーザ)から見て奥行き方向に並んで配置される。具体的には、表示装置3bが視聴者から見て奥側に、表示装置3fが視聴者から見て手前側に配置される。すなわち、表示装置3bは、視聴者から見て、表示装置3fよりも奥側に配置される。表示装置3b,3fは、表示装置3bの表示映像と、表示装置3fの表示映像とが重畳して視聴者に視認されるような態様で映像を表示する。表示装置3b,3fは、例えば、ホログラフィーにより映像を表示(投影)する。ただし、表示装置3b、3fによる映像の表示方法は、これに限られるものではなく、表示装置3bの表示映像と、表示装置3fの表示映像とを重畳して視聴者に視認させることができれば、任意の方法を用いることができる。以下では、表示装置3bと表示装置3fとを区別しない場合には、表示装置3と称する。
 本実施形態に係る映像表示装置10は、撮影装置2が撮影した撮影映像を、表示装置3b,3fにより表示する。具体的には、映像表示装置10は、撮影装置2の撮影映像中の被写体を表示装置3b,3fに表示し、表示装置3bの表示映像と表示装置3fの表示映像とを重畳して視聴者に視認させる。以下では、映像表示装置10は、図13に示すような、撮影装置2から見て奥側側に位置する被写体s1および撮影装置2から見て手前側に位置する被写体s2を表示対象として、表示装置3b,3fに表示する例を用いて説明する。なお、映像表示装置10は、撮影装置2の撮影映像だけでなく、再生装置により再生された映像に含まれる被写体を表示装置3b,3fに表示してよい。従って、映像表示装置10に表示対象を含む映像を入力するのは、撮影装置2に限られない。
 次に、本実施形態に係る映像表示装置10の機能構成について、図2を参照して説明する。
 図2に示すように、本実施形態に係る映像表示装置10は、被写体抽出部11と、計測部としての被写体奥行計測部12と、表示制御部としての表示先判定部13とを備える。被写体抽出部11、被写体奥行計測部12および表示先判定部13は、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)など専用のハードウェアによって構成されてもよいし、上述したように1つ以上のプロセッサによって構成されてもよいし、双方を含んで構成されてもよい。
 被写体抽出部11は、撮影装置2の撮影映像から、表示対象である被写体(被写体s1,s2)を抽出し、被写体奥行計測部12に出力する。被写体抽出部11による被写体の抽出は、任意の画像処理技術を用いて、あるいは、任意の深層学習技術により学習されたモデルを用いて行うことができる。
 被写体奥行計測部12は、所定の位置(例えば、撮影装置2の位置)からの被写体抽出部11により抽出された被写体それぞれの奥行き方向の距離を計測する。被写体奥行計測部12による被写体の奥行き方向の距離の計測は、任意の画像処理技術を用いて、あるいは、任意の深層学習技術により学習されたモデルを用いて行うことができる。被写体奥行計測部12は、深度センサを用いて被写体の奥行き方向の距離を計測してもよい。被写体奥行計測部12は、被写体それぞれの奥行き方向の距離の計測結果を表示先判定部13に出力する。
 表示先判定部13は、被写体奥行計測部12により計測された、表示対象である被写体の奥行き方向の計測結果に基づき、その被写体の表示先を、表示装置3bとするか、表示装置3fとするかを判定する。すなわち、表示制御部としての表示先判定部13は、計測された被写体の奥行き方向の距離に基づき、その被写体を第1の表示装置としての表示装置3bおよび第2の表示装置としての表示装置3fのいずれかに表示する。
 こうすることで、表示対象の奥行き方向の移動に伴って、表示対象が表示される表示装置3が切り替えられるので、現実味のある奥行き感が損なわれることなく、よりリアリティのある映像を提示することができる。
 次に、本実施形態に係る映像表示装置10の動作について説明する。図3は、本実施形態に係る映像表示装置10の動作の一例を示すフローチャートであり、映像表示装置10における映像表示方法について説明するための図である。
 被写体抽出部11は、撮影装置2の撮影映像から表示対象の被写体を抽出する(ステップS11)。
 被写体奥行計測部12は、視聴者側から見た、抽出された被写体の奥行き方向の距離を計測する(ステップS12)。
 表示先判定部13は、計測された被写体の奥行き方向の距離が所定の閾値Mより大きいか否かを判定する(ステップS13)。閾値Mは、視聴者側から見た、表示装置3bと表示装置3fとの間の所定の地点までの距離である。
 被写体の奥行き方向の距離が閾値Mより大きいと判定した場合(ステップS13:Yes)、表示先判定部13は、被写体の表示先を表示装置3bと判定し、被写体を表示装置3bに表示する(ステップS14)。
 被写体の奥行き方向の距離が閾値M以下であると判定した場合(ステップS13:No)、表示先判定部13は被写体の表示先を表示装置3fと判定し、被写体を表示装置3fに表示する(ステップS15)。
 図4A~図5Bを参照して、本実施形態に係る映像表示装置10の動作についてより具体的に説明する。以下では、図13,14に示すように、被撮影装置2から距離T1の位置に存在する被写体s1が表示装置3bに表示され、撮影装置2から距離T2の位置に存在する被写体s2が表示装置3fに表示された状態から、被写体s1が撮影装置2に向かって移動した場合を考える。
 この場合、図4Aに示すように、被写体s1の奥行き方向の距離T1’が閾値Mより大きい場合、表示先判定部13は、図5Aに示すように、被写体s1を表示装置3bに表示する。
 被写体s1がさらに移動し、図4Bに示すように、被写体s1の奥行き方向の距離T1’が閾値M以下になると、表示先判定部13は、図5Bに示すように、被写体s1を被写体s2とともに、表示装置3fに表示する。
 なお、図4A~図5Bにおいては、被写体s1の移動に伴って、被写体s1の表示先を切り替える例を用いて説明したが、本開示はこれに限られるものではない。被写体s2が奥側に向かって移動する場合には、被写体s2の移動に伴って、被写体s2の表示先を、表示装置3fから表示装置3bに切り替えてもよい。
 このように、本実施形態に係る映像表示装置10は、計測部としての被写体奥行計測部12と、表示制御部としての表示先判定部13とを備える。被写体奥行計測部12は、視聴者(ユーザ)側から見た表示対象(被写体s1,s2)の奥行き方向の距離を計測する。表示先判定部13は、計測された距離に基づき、表示対象を第1の表示装置としての表示装置3bおよび第2の表示装置としての表示装置3fのいずれかに表示する。
 また、本実施形態に係る映像表示装置10における映像表示方法は、計測するステップ(ステップS12)と、表示するステップ(ステップS13~S15)とを含む。計測ステップでは、視聴者(ユーザ)側から見た表示対象(被写体s1,s2)の奥行き方向の距離を計測する。表示するステップでは、計測された距離に基づき、表示対象を第1の表示装置としての表示装置3bおよび第2の表示装置としての表示装置3fのいずれかに表示する。
 視聴者側から見た表示対象の奥行き方向の距離に基づき、表示対象を表示装置3bおよび表示装置3fのいずれかに表示することで、表示対象の移動に伴って、その表示対象が表示される表示装置3が切り替えられるので、現実味のある奥行き感が損なわれることなく、よりリアリティのある映像を提示することができる。
 (第2の実施形態)
 第1の実施形態に係る映像表示装置10においては、奥側の被写体s1が手前側に連続的に移動した場合、ある時点で被写体s1の表示先が表示装置3bから表示装置3fに切り替わる。表示先の切り替わる時点で、ある視聴者の位置(以下、「基準視聴位置」と称する)において、切り替わりの前後で被写体s1の位置が変わらないように表示装置3b,3fの位置を調整することで、基準視聴位置では、被写体s1の位置ずれが生じるのを防ぐことができる。しかしながら、基準視聴位置から外れた位置(以下、「非基準視聴位置」と称する。)では、表示対象の表示先の切り替わりにより、視聴者が視認する表示対象の位置ずれが生じてしまう。
 図6は、物理空間上の物体を表示装置3fと表示装置3bとに投影した状態を示す図である。図6において、番号が付された実線丸印は、物理空間上の物体を表示装置3bに投影した場合の位置を示し、番号が付された破線丸印は、物理空間上の物体を表示装置3fに投影した場合の位置を示す。また、図6において、同じ番号を付された黒線丸印と破線丸印とはそれぞれ、物理空間上の同じ物体を、表示装置3bに投影した位置と表示装置3fに投影した位置とを示している。
 図6に示すように、基準視聴位置から見た場合、物理空間上の同じ位置の物体は、奥側の表示装置3b・手前側の表示装置3fに関わらず、同じ位置に視認される。そのため、基準視聴位置では、表示対象の表示先の切り替わりの際に、視認される表示対象の位置ずれが生じない。一方、基準視聴位置該の非基準視聴位置では、物理空間上の同じ位置の物体であっても、奥側の表示装置3bと手前側の表示装置3fとで異なる位置で視認される。そのため、非基準視聴位置では、表示対象の表示先の切り替わりの際に、視認される表示対象の位置ずれが生じてしまう。そのため、非基準視聴位置から視聴する視聴者からは、表示対象の表示先の切り替わりの際に、図7に示すように、表示対象が非連続に移動するように見えてしまう。本実施形態では、この課題への対処を目的としている。
 図8は、本開示の第2の実施形態に係る映像表示装置20の機能構成の一例を示す図である。図8において、図2と同様の構成には同じ符号を付し、説明を省略する。
 図8に示すように、本実施形態に係る映像表示装置20は、被写体抽出部11と、被写体奥行計測部12と、表示先判定部13と、被写体映像蓄積部21と、被写体映像間引き部22とを備える。本実施形態に係る映像表示装置20は、第1の実施形態に係る映像表示装置10と比較して、被写体映像蓄積部21と、被写体映像間引き部22とを追加した点が異なる。
 被写体映像蓄積部21は、表示対象である被写体の映像(映像フレーム)を蓄積し、所定時間だけ遅らせて被写体映像間引き部22に出力する。
 被写体映像間引き部22は、表示先判定部13により被写体の表示先を切り替えると判定されると、切り替えの前後の所定期間において、被写体映像蓄積部21から出力された被写体の映像フレームを間引いて、表示先判定部13により表示先と判定された表示装置3に出力する。すなわち、被写体映像間引き部22は、表示対象を表示する表示装置3を切り替える場合、切り替えの前後の所定期間において、被写体の映像フレームを間引く。
 被写体映像間引き部22の動作について、より詳細に説明する。以下では、表示対象である被写体が奥側から手前側に向かって移動し、被写体の移動に伴って、被写体の映像の表示先を表示装置3bから表示装置3fに切り替える例を用いて説明する。
 図9Aは、表示装置3bから表示装置3fへの表示先の切り替えが行われる場合の、表示装置3bへの被写体の映像の表示に関する被写体映像間引き部22の動作の一例を示すフローチャートである。
 被写体映像間引き部22は、X秒後に被写体の表示先の表示装置3bから表示装置3fへの切り替えが行われるか否かを判定する(ステップS21)。
 X秒後に被写体の表示先の切り替えが行われないと判定した場合(ステップS21:No)、被写体映像間引き部22は、ステップS21の処理を繰り返す。
 X秒後に被写体の表示先の切り替えが行われると判定した場合(ステップS21:Yes)、被写体映像間引き部22は、表示対象である被写体の映像フレームの間引き処理を行う(ステップS22)。
 図10は、表示先の切り替え前後の被写体の表示の一例を示す図である。
 図10に示すように、被写体映像間引き部22は、表示先の切り替わりよりも所定の時間(図10の例では、6フレーム分)だけ前から、被写体の映像フレームの間引きを行う。そのため、間引かれた映像フレームに被写体は非表示となる。
 図9Aを再び参照すると、被写体映像間引き部22は、X秒後に被写体の表示先の切り替えが行われると判定した後、X秒が経過すると、被写体の表示先が表示装置3bから表示装置3fに切り替えられるので、表示装置3bへの映像フレームの出力を停止する(ステップS23)。
 図9Bは、表示装置3bから表示装置3fへの表示先の切り替えが行われる場合の、表示装置3fへの被写体の映像の表示に関する被写体映像間引き部22の動作の一例を示すフローチャートである。
 被写体映像間引き部22は、X秒後に被写体の表示先の表示装置3bから表示装置3fへの切り替えが行われるか否かを判定する(ステップS31)。
 X秒後に被写体の表示先の切り替えが行われないと判定した場合(ステップS31:No)、被写体映像間引き部22は、ステップS31の処理を繰り返す。
 X秒後に被写体の表示先の切り替えが行われると判定した場合(ステップS31:Yes)、被写体映像間引き部22は、X秒間待機する(ステップS32)。
 X秒後に被写体の表示先の切り替えが行われると判定した後、X秒間待機して、表示先の切り替えが行われると、被写体映像間引き部22は、表示装置3fへの被写体の映像フレームの出力を開始する(ステップS33)。
 表示先の切り替えにより表示装置3fに被写体の映像フレームを出力する場合、被写体映像間引き部22は、表示対象である被写体の映像フレームの間引き処理を行う(ステップS34)。具体的には、被写体映像間引き部22は、図10に示すように、表示先の切り替え後、所定の時間(図10の例では、6フレーム分)が経過するまで、被写体の映像フレームの間引きを行う。所定の時間が経過すると、被写体映像間引き部22は、被写体の映像フレームの間引きを終了する。
 図9A,9Bおよび図10を参照して説明したように、被写体映像間引き部22は、表示対象である被写体を表示する表示装置3を切り替える場合、切り替えの前後の所定の期間において、表示対象の映像フレームを間引く。ここで、被写体映像間引き部22は、図10に示すように、被写体の表示先の切り替わりのタイミングに近づくほど、より頻繁に映像フレームを間引くようにする。こうすることで、非基準視聴位置において表示対象の被写体が非連続に移動するように視認される場合に、被写体の移動方向の位置の変化量を低減することができる。
 なお、図11に示すように、非基準視聴位置では、視聴者の視聴位置に応じて、被写体の表示先の切り替えによる被写体の位置ずれの見え方が異なる。以下では、非基準視聴位置において、被写体の表示先の切り替えに伴う被写体の位置ずれをさらに低減する方法について説明する。
 被写体映像間引き部22は、図12に示すような、被写体の映像フレームを間引く複数の間引きパタン(パタン1~パタンN)を予め用意する。パタン1~パタンNは、表示対象の映像フレームの間引き数および映像フレームを間引くタイミングの少なくとも一方が互いに異なるパタンである。
 被写体映像間引き部22は、複数の間引きパタンの中から、表示先の切り替えに伴う表示対象の移動方向の変化量および各間引きパタンにおける映像フレームの間引き数に基づき、一の間引きパタンを選択する。具体的には、被写体映像間引き部22は、以下の評価関数を定義する。
 評価関数(間引きパタンN)
  =切り替え時の被写体の移動方向の変化量の少なさ+間引き量の多さ
 上記の評価関数において、切り替え時の被写体の移動方向の変化量の少なさは、例えば、以下のように定義される。
 |sin(切り替え前の被写体の移動角度-切り替え時の被写体の移動角度)|
 この値が小さいほど、切り替えの前後で被写体の移動方向の変化が少ないため、視聴者にとってより現実味を損なわないようになる。また、間引きの量の多さは、例えば、各パタンにおいて映像フレームを間引く数である。
 被写体映像間引き部22は、以下の式(1)が最小となるNを探索する。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、視聴位置は、例えば、本開示に係る映像表示システム1を利用する会場の客席の位置群である。視聴位置の違いにより、表示装置3bに表示される被写体と、表示装置3fに表示される被写体との位置のずれ方が異なるため、全ての視聴位置における評価関数の値の加算値を最小化することで、全ての視聴者にとっての現実味を可能な限り高めることができる。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記載された場合と同程度に、本明細書中に参照により取り込まれる。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、請求の範囲から逸脱することなく、種々の変形や変更が可能である。
 1  映像表示システム
 2  撮影装置
 3b  表示装置(第1の表示装置)
 3f  表示装置(第2の表示装置)
 10,20  映像表示装置
 11  被写体抽出部
 12  被写体奥行計測部(計測部)
 13  表示先判定部(表示制御部)
 21  被写体映像蓄積部
 22  被写体映像間引き部(間引き部)
 110  プロセッサ
 120  ROM
 130  RAM
 140  ストレージ
 150  入力部
 160  表示部
 170  通信I/F
 190  バス

Claims (6)

  1.  第1の表示装置および前記第1の表示装置よりもユーザから見て手前に配置された第2の表示装置により、表示対象を表示し、前記第1の表示装置の表示映像と前記第2の表示装置の表示映像とを重畳して前記ユーザに視認させる映像表示装置における映像表示方法であって、
     前記ユーザ側から見た前記表示対象の奥行き方向の距離を計測するステップと、
     前記計測された距離に基づき、前記表示対象を前記第1の表示装置および前記第2の表示装置のいずれかに表示するステップと、を含む映像表示方法。
  2.  請求項1に記載の映像表示方法において、
     前記表示対象を表示する表示装置を切り替える場合、切り替えの前後の所定の期間において、前記表示対象の映像フレームを間引くステップを、さらに含む映像表示方法。
  3.  請求項2に記載の映像表示方法において、
     前記表示対象を表示する表示装置の切り替えに近づくほど、前記映像フレームの間引き数を多くする、映像表示方法。
  4.  請求項2に記載の映像表示方法において、
     前記表示対象の映像フレームの間引き数および前記映像フレームを間引くタイミングの少なくとも一方が互いに異なる複数の間引きパタンの中から、前記切り替えに伴う前記表示対象の移動方向の変化量および各間引きパタンにおける前記映像フレームの間引き数に基づき、一の間引きパタンを選択し、該選択した間引きパタンに従い前記映像フレームを間引く、映像表示方法。
  5.  第1の表示装置および前記第1の表示装置よりもユーザから見て手前に配置された第2の表示装置により、表示対象を表示し、前記第1の表示装置の表示映像と前記第2の表示装置の表示映像とを重畳して前記ユーザに視認させる映像表示装置であって、
     前記ユーザ側から見た前記表示対象の奥行き方向の距離を計測する計測部と、
     前記計測部により計測された距離に基づき、前記表示対象を前記第1の表示装置および前記第2の表示装置のいずれかに表示する表示制御部と、を備える映像表示装置。
  6.  コンピュータを、請求項5に記載の映像表示装置として機能させるためのプログラム。
     
     
PCT/JP2020/046302 2020-12-11 2020-12-11 映像表示方法、映像表示装置およびプログラム WO2022123772A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022568012A JP7495644B2 (ja) 2020-12-11 2020-12-11 映像表示方法、映像表示装置およびプログラム
PCT/JP2020/046302 WO2022123772A1 (ja) 2020-12-11 2020-12-11 映像表示方法、映像表示装置およびプログラム
US18/266,206 US20240038201A1 (en) 2020-12-11 2020-12-11 Image display method, image display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/046302 WO2022123772A1 (ja) 2020-12-11 2020-12-11 映像表示方法、映像表示装置およびプログラム

Publications (1)

Publication Number Publication Date
WO2022123772A1 true WO2022123772A1 (ja) 2022-06-16

Family

ID=81974302

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/046302 WO2022123772A1 (ja) 2020-12-11 2020-12-11 映像表示方法、映像表示装置およびプログラム

Country Status (3)

Country Link
US (1) US20240038201A1 (ja)
JP (1) JP7495644B2 (ja)
WO (1) WO2022123772A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63100898A (ja) * 1986-10-17 1988-05-02 Hitachi Ltd 立体テレビジヨン装置
JP2001333438A (ja) * 2000-05-23 2001-11-30 Nippon Hoso Kyokai <Nhk> 立体表示装置
JP2005236821A (ja) * 2004-02-23 2005-09-02 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2007053496A (ja) * 2005-08-16 2007-03-01 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2019188855A (ja) * 2018-04-18 2019-10-31 株式会社東海理化電機製作所 車両用視認装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63100898A (ja) * 1986-10-17 1988-05-02 Hitachi Ltd 立体テレビジヨン装置
JP2001333438A (ja) * 2000-05-23 2001-11-30 Nippon Hoso Kyokai <Nhk> 立体表示装置
JP2005236821A (ja) * 2004-02-23 2005-09-02 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2007053496A (ja) * 2005-08-16 2007-03-01 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2019188855A (ja) * 2018-04-18 2019-10-31 株式会社東海理化電機製作所 車両用視認装置

Also Published As

Publication number Publication date
US20240038201A1 (en) 2024-02-01
JPWO2022123772A1 (ja) 2022-06-16
JP7495644B2 (ja) 2024-06-05

Similar Documents

Publication Publication Date Title
US10659769B2 (en) Image processing apparatus, image processing method, and storage medium
CN103139463B (zh) 扩增实境的方法、系统及移动装置
JP5791433B2 (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
KR20190129093A (ko) 증강 현실 데이터를 레코딩하기 위한 기술
US20200068188A1 (en) Generating apparatus, generating method, and storage medium
JP6419278B1 (ja) 制御装置、制御方法、及びプログラム
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
JPWO2017183346A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012058968A (ja) プログラム、情報記憶媒体及び画像生成システム
US10748341B2 (en) Terminal device, system, program and method for compositing a real-space image of a player into a virtual space
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
JP2013050883A (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
CN106843790B (zh) 一种信息展示系统和方法
JP2023103265A (ja) 制御装置、制御方法、及びプログラム
JP2013050882A (ja) 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2021016547A (ja) プログラム、記録媒体、物体検出装置、物体検出方法及び物体検出システム
WO2022123772A1 (ja) 映像表示方法、映像表示装置およびプログラム
WO2022123771A1 (ja) 映像表示方法、映像表示装置およびプログラム
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
CN110313021A (zh) 用于提供增强现实的方法和设备以及计算机程序
KR101850134B1 (ko) 3차원 동작 모델 생성 방법 및 장치
KR20200004754A (ko) 정보 처리장치, 그 제어방법 및 컴퓨터 프로그램
US20240185543A1 (en) Head-mounted display apparatus that controls exposure timings of plurality of imaging units
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20965154

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022568012

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18266206

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20965154

Country of ref document: EP

Kind code of ref document: A1