WO2016098411A1 - 映像表示装置、映像表示システム、及び映像表示方法 - Google Patents

映像表示装置、映像表示システム、及び映像表示方法 Download PDF

Info

Publication number
WO2016098411A1
WO2016098411A1 PCT/JP2015/076541 JP2015076541W WO2016098411A1 WO 2016098411 A1 WO2016098411 A1 WO 2016098411A1 JP 2015076541 W JP2015076541 W JP 2015076541W WO 2016098411 A1 WO2016098411 A1 WO 2016098411A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
viewer
image
correction
video display
Prior art date
Application number
PCT/JP2015/076541
Other languages
English (en)
French (fr)
Inventor
中嶋 満雄
伸宏 福田
田中 和彦
甲 展明
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to US15/533,863 priority Critical patent/US10511823B2/en
Priority to CN201580064411.XA priority patent/CN107005670B/zh
Publication of WO2016098411A1 publication Critical patent/WO2016098411A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Definitions

  • the present invention relates to a technique for performing image correction processing on a video signal and displaying it.
  • a video presentation unit that presents video
  • a video projection unit that projects video to present video to the video presentation unit
  • a drive unit that changes the positions of the video presentation unit and the video projection unit
  • the video projection unit changes a video of a predetermined area including the observer's gazing point in the video presented to the video presentation unit to a high resolution video
  • the drive unit converts the subject in the high resolution video
  • the position is changed so that the size substantially matches the size of the subject in the video of the predetermined area ”(summary excerpt).
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique capable of improving the image quality while considering an increase in the amount of data.
  • the present invention receives an input of a video input signal and displays a display screen on which the video is displayed and a viewer who views the video when displaying the video based on the video input signal.
  • a positional relationship is detected, a partial region corresponding to the positional relationship in the image based on the video input signal is set as a correction region, image correction processing is executed on the correction region, and the image correction processing is performed.
  • the video based on the video input signal related to the image thus displayed is displayed on the display screen.
  • FIG. 1 It is a block diagram which shows schematic structure of the video display apparatus which concerns on 1st embodiment. It is a block diagram which shows the internal structure of an image process part. It is a figure which shows the correction
  • FIG. 7 is a diagram showing the positional relationship between the screen 20 and the viewer 21, where (a) shows the x coordinate of the reference point (gaze point), and (b) shows the y coordinate of the reference point (gaze point).
  • a front projector will be described, but the form may be a rear projection television.
  • a display device using a direct-view flat display such as a liquid crystal display, a plasma display, or an organic EL display may be used without enlarging the panel.
  • the video display device is not limited to a projector, and may be any device as long as it is a device that projects and outputs a video signal, such as a television or a game machine. This is the same in any of the following embodiments.
  • FIG. 1 is a block diagram showing a schematic configuration of a video display apparatus according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an internal configuration of the image processing unit.
  • 3A and 3B are diagrams showing examples of correction area determination data, where FIG. 3A shows a step-up type, FIG. 3B shows a linear type, and FIG. 3C shows a step type.
  • the video display apparatus 1 of FIG. 1 receives a video input signal 10 and receives, for example, an input signal processing unit 11 that converts the video signal into an internal video signal 12 by IP conversion, a scaler, and the like, and an internal video signal 12 as inputs.
  • the image processing unit 100 that executes the high resolution processing and outputs the corrected video signal 13 and the corrected video signal 13 as an input, and the corrected video signal 13 is displayed on the display screen (corresponding to the screen 2 in this embodiment). It includes a timing control unit 14 that generates a display control signal 15 based on a vertical synchronization signal, and an optical system device 200 (corresponding to a video display unit) that displays an image.
  • “image” and “video” include both moving images (video) and still images.
  • the optical system device 200 receives a light source 203 for irradiating a light beam for projecting an image on the screen 20 and a display control signal 15 and adjusts the gradation of the light beam from the light source 203 for each pixel to create a projected image.
  • Panel 202 and a lens 201 for enlarging and projecting a projected image on a screen.
  • the lens 201 of the optical system device 200 is not necessary. The user looks directly at the panel 202.
  • the image processing unit 100 is connected to the viewer detection unit 16 that detects the position of the viewer who views the video projected on the screen 20 and outputs the viewer position information 17.
  • the aspect of the viewer detection unit 16 is not particularly limited, and can be realized by existing techniques such as distance measurement using a parallax image of a stereo camera and a TOF sensor (distance image sensor).
  • the image processing unit 100 is connected to a viewpoint detection unit 18 that detects a viewer's viewpoint and outputs viewpoint information.
  • the viewpoint detection unit 18 extracts a camera that captures the viewer's eyeballs and generates an eyeball image, and an area in which the viewer's left and right black eyes are captured from the eyeball image, and calculates a viewpoint position and a line-of-sight direction. And configured. Note that the function of this calculation unit may be performed by the image processing unit 100. In this case, the viewpoint detection unit 18 outputs an eyeball image as viewpoint information to the image processing unit 100.
  • the image processing unit 100 determines at least one of the position and size of the correction area and the correction characteristic of the image correction process based on the viewer position information and the viewpoint information, and the correction area is determined according to the determination content. To execute image correction processing.
  • the image processing unit 100 includes a fineness enhancement processing unit 40, a correction region control unit 41, and a correction region determination data storage unit 43.
  • the fineness improvement processing unit 40 performs high-definition processing on a partial region of the image based on the internal video signal 12.
  • the partial area to be subjected to the high definition processing is referred to as a correction area.
  • the correction area control unit 41 acquires the viewer position information 17 from the viewer detection unit 16, determines a correction area using the viewer position information 17, and uses parameters (for example, gain, An area control signal 42 indicating the enhancement intensity or the like is generated.
  • the correction area determination data storage unit 43 stores correction area determination data that is referred to when the correction area control unit 41 determines a correction area. The correction area determination data will be described with reference to FIG.
  • the image correction process for the correction area 30 is merely an example, and the present invention is not limited to this.
  • the parameter r is defined as an increasing function with respect to the distance d.
  • the parameter r may be increased with respect to the distance d as shown in FIG. 3A, may be increased linearly as shown in FIG. 3B, or as shown in FIG. You may increase in steps.
  • the correction area determination data is data indicating the relationship between the distance d between the screen and the viewer and the parameter r that defines the size of the correction area.
  • the correction area determination data is illustrated in the form of a graph, but it may be a function or a table, and the data form is not limited.
  • the image processing unit 100 performs the internal video signal 12 based on the viewer position information 17. High-definition processing is performed. An example of this processing will be described with reference to FIGS.
  • FIG. 4 is a diagram showing the positional relationship between the plan view of the screen 20 and the viewer 21.
  • the viewer 21 faces the screen 20 near the center of the screen 20 in the X-axis direction.
  • a TOF sensor 16a as a viewer detection unit 16 is provided at the left end of the screen 20 in the x-axis direction (left and right direction when viewed from the viewer). The left end is the measurement reference point of the distance x along the horizontal direction.
  • a stereo camera may be provided at each of the left and right ends of the screen 20.
  • the viewer detection unit 16 composed of the TOF sensor calculates the profile 28 of the detection point based on the reflected wave, and uses the distance L to each point of the profile 28 and the irradiation angle ⁇ of the laser to the screen 20 at that time.
  • the viewer detection unit 16 determines the shortest distance among d calculated for each point as the distance between the viewer and the screen 20, and generates viewer position information.
  • FIG. 5 is a diagram showing an example of the correction area and the correction characteristics.
  • the image processing unit 100 refers to the correction area determination data in FIG. 3 and extracts the parameter r for the distance d. Then, the correction area 30 is set, and high definition processing is performed on the inside of the correction area.
  • the image processing unit 100 maximizes the correction amount inside the correction region 30 and corrects the correction amount so that the correction amount decreases as the distance from the correction region 30 increases.
  • the attenuation amount in FIG. 5 is an example, and if the inclination is reduced, the difference in image quality near the boundary of the correction area 30 can be reduced. Therefore, visually natural image correction can be performed, and conversely, the inclination is increased. A difference in image quality can be caused.
  • the correction characteristics may be arbitrarily selected according to the quality and content of the display video.
  • the size of the correction area is changed according to the distance of the viewer 21.
  • the inside of the correction area 31 shown in FIG. 5 indicated by the dotted line is subjected to high definition processing, and when the distance of the viewer 21 is larger than d, the correction area 32 is indicated by the dotted line.
  • High-definition processing is performed on the inside shown.
  • the area where the spatial resolution of the visual field is high is limited. Therefore, the display image of the area with the high spatial resolution is made high-definition according to the distance between the screen and the viewer. The area is not refined.
  • FIG. 6 is a diagram illustrating an example of the position of the screen 20 and the viewer 21 and the position of the correction area.
  • the viewer detection unit 16 detects the viewer's position with respect to the distance d between the screen 20 and the viewer 21 and the horizontal position of the screen 20.
  • FIG. 6 shows an example in which the viewer 21 exists at a distance a from the left end of the screen and a distance b from the right end of the screen.
  • the fineness enhancement processing unit 40 of the image processing unit 100 performs the high definition processing on the correction region 30 shown in the front view of the screen 20.
  • the size of the correction area 30 is changed according to the distance d from the screen 20 to the viewer 21.
  • the inside of the correction area 31 is processed for high definition
  • the inside of the correction area 32 is processed for high definition.
  • FIG. 7 is a diagram showing the positional relationship between the screen 20 and the viewer 21, where (a) shows the x coordinate of the reference point (gaze point), and (b) shows the y coordinate of the reference point (gaze point).
  • the viewer detection unit 16 detects a distance d between the screen 20 and the viewer 21 and a distance a along the X-axis direction from the left end of the screen. Further, the viewpoint detection unit 18 detects the angle ⁇ 1 of the line of sight with respect to the screen of the viewer 21.
  • Correction area control unit 41 is thus detected distance d, based on the theta 1, it is possible to determine the gaze position of the screen 20.
  • the viewer detection unit 16 detects the eye height h of the viewer 21 from the lower end portion of the screen 20, and the viewpoint detection unit 18 detects the viewer's 21 line of sight.
  • the viewer detection unit 16 detects the highest portion (the top of the head) of the viewer, and the correction area control unit 41 dissects the distance from the top to the eye stored in advance from that height. It may be obtained by subtracting with reference to scientific data. Alternatively, the eye position information detected by the viewpoint detection unit 18 may be used.
  • the correction area control unit 41 sets the correction areas 30, 31, and 32 using the parameter r according to the distance d with the reference point 50 as the center.
  • FIG. 8 is a diagram illustrating an example of display control in consideration of the projection direction from the projector to the screen.
  • FIG. 9 is a diagram illustrating an example of the reflection gain and the correction gain according to the projection angle.
  • the image is projected in the direction indicated by the dotted line 23 to the dotted line 25 and displayed on the screen 20.
  • the viewer 21 is separated from the screen 20 by the distance d, and the line-of-sight direction is gazing at the angle direction ⁇ 1 with respect to the screen 20. Therefore, the viewer 21 is watching the position of the distance (a + dtan ⁇ 1 ) from the left end of the screen and the distance (b ⁇ dtan ⁇ 1 ) from the right end of the screen.
  • it is projected on the screen 20 at an incident angle of ⁇ 2 and is reflected to the opposite side at the same angle.
  • the screen 20 has various light reflection characteristics.
  • the screen 20 has a characteristic with a peak at ⁇ 0 degrees with respect to the reflection direction. Therefore, in the present embodiment, image correction amount control is performed in consideration of the viewing direction of the viewer 21 and the angle of the projection light of the projector 22 reflected from the screen 20.
  • the correction area control unit 41 sets the correction areas 30, 31, and 32 using the parameter r corresponding to the distance d with the reference point 50 as the center.
  • the image correction amount is changed with the characteristics shown in the lower diagram of FIG.
  • the image correction amount 9 varies in attenuation amount according to the magnitude and angle of the peak gain depending on the screen, and the image correction amount may be selected according to the characteristic. Furthermore, in the example of the present embodiment, high definition has been described as video correction. However, the contrast correction amount may be changed in the same manner, thereby improving the visibility of the correction area and increasing the contrast as well as the definition. Thus, it is possible to realize a video display that is easier to see.
  • FIG. 10 is a flowchart showing an operation flow of the video display apparatus.
  • FIG. 11 is a diagram illustrating an operation example of the image processing unit using the front view of the screen.
  • the input signal processing unit 11 receives a video input signal from a video signal supply source (not shown) and outputs it as an internal video signal to the image processing unit 100 (S11).
  • the video supply source is a device that outputs an image signal like a PC, a smartphone, a television, or a recording / playback device.
  • the viewer detection unit 16 calculates the position (distance d) of the viewer with respect to the screen 20.
  • the viewpoint detection unit 18 detects the position and line-of-sight direction of the viewer's viewpoint (S21).
  • the correction area control unit 41 sets a reference point 50 on the screen 20 as shown in FIG.
  • the correction area control unit 41 may set the reference point 50 in advance in the center of the screen 20 in the horizontal and vertical directions, or the user may select and set one arbitrary point. Further, the correction area control unit 41 may dynamically set the reference point 50 in the viewer position information 17, that is, the coordinates in the X axis direction and the Y axis direction each time the viewer position information 17 is updated. Good.
  • the correction area control unit 41 refers to the correction area determination data storage unit 43 and reads the parameter r according to the distance d (S22).
  • the correction area control unit 41 sets the reference point 50 and the area determined using the parameter r as the correction area 30 (see FIG. 11).
  • the correction area control unit 41 generates an area control signal 42 indicating the position of the correction area 30 (S23).
  • the correction area control unit 41 determines a correction parameter such as a correction gain (see FIG. 9), if necessary, and includes the contents in the area control signal 42.
  • the correction area control unit 41 outputs the area control signal 42 to the fineness improvement processing unit 40.
  • the fineness improvement processing unit 40 performs high definition processing on the internal video signal 12 in accordance with the area control signal 42 and outputs it to the timing control unit 14 as the corrected video signal 13 (S24).
  • the specific processing of the fineness enhancement processing unit 40 is particularly a process that can improve the fineness of the video, such as a high-frequency enhancer of a general video signal or a super-resolution process that restores the resolution. It is not limited.
  • the timing control unit 14 generates the display control signal 15 based on the input corrected video signal 13, outputs it to the panel 202, and the video signal is projected through the lens 201 (S25). Thereafter, the process returns to step S11 and step S21 to receive the next video signal and repeat the process of detecting the viewer's position and line-of-sight direction.
  • the processing flow is shown in a loop. However, if no video signal is input, a standby state is entered in S11, and the sequence for terminating the video display device 1 when the main power supply is turned off (not shown). 10) is executed, and the processing of FIG.
  • the correction area is set according to the distance from the screen 20 to the viewer 21 and high definition processing is performed on the correction area, so that the spatial resolution of the area close to the central visual field of the viewer 21 is increased. As compared with the case where the high definition processing is performed on the entire video, it is possible to reduce the load related to the image processing.
  • the correction region can be made to follow the viewpoint 21 of the viewer 21 by determining the position of the correction region in consideration of the line-of-sight direction.
  • the shape of the correction region is shown as a circle, but the shape is not limited to this, and the effect of the present invention can be obtained in the case of an ellipse or a rectangle.
  • the explanation has been made so that the inside of the set correction area is made high definition, but the inside of the correction area is not made high definition, and the correction is made so as to reduce the definition outside the correction area. Also good. As a result, the definition inside the correction area becomes relatively higher than that outside the correction area, so that the effect of the present invention can be obtained.
  • the second embodiment is an embodiment in which the present invention is applied to a stereoscopic image.
  • the second embodiment will be described with reference to FIGS. 12 and 13.
  • FIG. 12 is a front view and a plan view showing an example in which a stereoscopic image is displayed on the screen 20.
  • FIG. 13 is a diagram illustrating a calculation example of the correction area in the second embodiment, where (a) shows the case of the left eye and (b) shows the case of the right eye.
  • the positions of the left and right eyes of the viewer are illustrated by reference numerals 21a and 21b. It is said that when the human eye gazes at a certain point, the left and right eyes look at different directions to perceive a sense of distance, and the angle that each of the left and right eyes is looking at is called the convergence angle. Therefore, in the example of the present embodiment, the high-definition position in the depth direction is added to the control using the left and right gaze directions.
  • gaze including the distance d from the left and right eyes and the respective angles to the gaze position.
  • the position can be determined. It controls to perform high-resolution processing of the range indicated for this gazing point P 30 in correction region 30.
  • the gaze position of the eyes is on the screen.
  • the image of the actual gaze position is made highly visible so that the position of the displayed video can be gazeed. It is possible to reproduce images that are closer to seeing the real thing.
  • the range of the correction area 30 is controlled in the same manner as in the above-described embodiment according to the distance d of the viewer.
  • FIG. 13 shows an example of a calculation process for the correction region 30 in the positional relationship shown in FIG.
  • Correction region 30 including a gaze point P 30 on the three-dimensional image is actually a left eye image left eye 21a projected on the screen 20 is visible, that it is formed by the virtual image of the right eye image eye 21b is visible It is. Therefore, as shown in FIG. 13A, the correction area control unit 41 sets the distance from the screen 20 to the viewer 21 as d (this is a detection value of the viewer detection unit 16), and views from the left end of the screen.
  • the correction area control unit 41 uses the distance d from the screen 20 to the viewer 21, the distance a from the left end of the screen to the viewer 21, and the convergence angle ⁇ 4.
  • the x coordinate x 30b of the reference point 50b of the region 30b where the correction region 30 in the right eye image is actually captured is obtained by the following equation (5).
  • x 30b a ⁇ w 2 dtan ⁇ 4 (5)
  • w 2 is a weighting factor that increases as d increases.
  • the left and right eyes generally form the same elevation angle ⁇ . Therefore, the y coordinate of the reference point of the left eye image and the right eye image for forming the correction region 30 with respect to the gazing point P 30 can be obtained by the above-described equation (3).
  • the present embodiment even when there is a gazing point on a stereoscopic video, by performing high definition processing on a partial region including the gazing point, the spatial resolution is improved, the amount of data is reduced, and image processing is performed. It is possible to achieve both reduction of the load related to the above.
  • FIG. 14 is a block diagram illustrating a configuration example of the image processing unit 100 according to the third embodiment.
  • FIG. 15 is a diagram illustrating a gaze point estimation process.
  • the image processing unit 100 a further includes a viewpoint movement estimation unit 44.
  • the viewer position information detected by the viewer detection unit 16 and the viewpoint information detected by the viewpoint detection unit 18 are input to the viewpoint movement estimation unit 44.
  • the viewpoint movement estimation unit 44 estimates the viewpoint movement destination based on the viewer position information and the viewpoint information. This estimation method will be described with reference to FIG.
  • the viewpoint movement estimation unit 44 obtains the movement vector 60 of the gazing points 51 and 52 and The gaze point 53 is obtained by adding the same amount of movement vector 61 as the movement vector 60. Then, the viewpoint movement estimation unit 44 outputs the coordinates of the gazing point 53 as the estimated position information 45.
  • the correction area control unit 41 outputs an area control signal 42 based on the estimated position information 45.
  • the fineness improvement processing unit 40 performs high definition processing of the internal video signal 12 based on the region control signal 42 and outputs the corrected video signal 13. Subsequent operations are the same as those in the above-described embodiment.
  • the video at the next viewpoint position can be corrected in advance, there is no delay and a more natural video display can be realized.
  • a movement vector is obtained using only two points of information of the gazing points 51 and 52 obtained in time series.
  • the information need not be two points, and information of two or more points can be obtained.
  • the prediction may be based on the above.
  • the fourth embodiment is an embodiment in which a video to be displayed is also generated in the video display device according to the present invention.
  • a fourth embodiment will be described with reference to FIG.
  • FIG. 16 is a block diagram showing the configuration of the video display apparatus according to the fourth embodiment.
  • the video display device 1 a shown in FIG. 16 further includes a video storage unit 70 and a video generation unit 72, and the viewer detection unit 16 inputs viewer position information to the video generation unit 72 in the first embodiment. This is different from the configuration of the video display device 1.
  • the video storage unit 70 stores the stereoscopic video model data 71 and outputs the stereoscopic video model data 71 to the video generation unit 72 as necessary.
  • the video generation unit 72 performs viewpoint conversion processing of the stereoscopic video model data 71 and outputs the video input signal 10 to the image processing unit 100 via the input signal processing unit 11. At that time, the viewpoint conversion processing of the video generation unit 72 performs processing based on the viewer position information and the line-of-sight information detected by the viewer detection unit 16 and the viewpoint detection unit 18.
  • the video generation unit 72 performs a conversion process on the stereoscopic video model data 71 based on the viewer position information and the line-of-sight information, such as the size and angle of an object in the video to be displayed, and the video corresponding to the direction in which the viewer is looking Is generated.
  • the video generation unit 72 sets a correction area using the viewer position information and the line-of-sight information for the stereoscopic video model data 71 subjected to the size and angle conversion processing, and performs high definition processing. Therefore, the video generation unit 72 corresponds to the image processing unit 100.
  • the fifth embodiment is an embodiment in which the compression rate of the correction region for high definition and the compression rate of a region different from the correction region are changed.
  • FIG. 17 is a diagram showing a schematic configuration of a video display system according to the fifth embodiment.
  • 17 is configured by communication connection between the server 300 and the video display device 1b.
  • the server 300 includes a video storage unit 70, a video generation unit 72, a video compression unit 74, and a communication processing unit 76.
  • the server 300 is, for example, a server personal computer on the cloud.
  • the video display device 1b includes a communication processing unit 78 and a video expansion unit 80 in addition to the video display device 1 according to the first embodiment. Then, the viewer detection unit 16 and the viewpoint detection unit 18 output the viewer position information 17a and the viewpoint information to the communication processing unit 78. Further, in the video display system 3, since the high definition processing is executed by the server 300, the server 300 includes a function corresponding to the image processing unit 100 instead of the video display device 1b.
  • the communication processing unit 76 of the server 300 and the communication processing unit 78 of the video display device 1b are connected via a network 77, for example, a public line such as the Internet or a dedicated line.
  • the communication processing unit 78 of the video display device 1b transmits the viewer position information and the viewpoint information to the server 300.
  • the communication processing unit 76 of the server 300 outputs the received viewer position information and viewpoint information to the video generation unit 72.
  • the video generation unit 72 generates a video signal 73 by performing viewpoint conversion processing and high definition processing on the stereoscopic video model data 71 acquired from the video storage unit 70 using the viewer position information and viewpoint information. Therefore, the video generation unit 72 corresponds to the image processing unit 100.
  • the video generation unit 72 outputs correction area information indicating the position of the correction area subjected to the high definition processing together with the video signal 73 to the video compression unit 74.
  • the video compression unit 74 executes the compression process while changing the compression characteristics for the correction area of the video signal 73 and areas other than the correction area (hereinafter referred to as “non-correction area”) based on the correction area information.
  • the video compression unit 74 performs compression processing by relatively reducing the video compression rate in the correction region and relatively increasing the compression rate in the non-correction region based on the correction region information. I do.
  • the compressed video signal (hereinafter referred to as “compressed video signal”) 75 and the correction area information are transmitted from the communication processing unit 76 to the video display device 1b.
  • the transmitted compressed video signal 75 and correction area information are received by the communication processing unit 78 and output to the video decompression unit 80.
  • the video decompression unit 80 refers to the position and compression rate of the correction area indicated in the correction area information and the position and compression ratio of the non-correction area, performs decompression processing of the compressed video signal, and outputs the video input signal 10.
  • the subsequent processing is the same as in the operation example described above.
  • the image processing unit 100 does not perform high definition processing, but may perform other image processing, for example, noise reduction, contour enhancement processing, bit rate conversion processing, or the like, or an image other than the high definition processing. When the process is not executed, the image processing unit 100 may not be provided.
  • the high-definition processing is executed by the information processing apparatus (server 300) configured separately from the video display apparatus 1b, thereby reducing the image processing load related to the video display apparatus 1b. Can do.
  • the amount of data to be transmitted can be reduced by increasing the compression rate in the non-correction area while maintaining the video quality by reducing the compression ratio in the correction area subjected to high definition processing. Also in this embodiment, similarly to the above-described embodiment, it is possible to realize a more natural video display with less delay by predicting the viewpoint movement and performing each video processing based on the predicted position information.
  • the sixth embodiment is an embodiment using a plurality of video display devices according to the present invention.
  • the following example will be described using two projectors, but is not limited to two.
  • the sixth embodiment will be described with reference to FIGS. 18 and 19.
  • FIG. 18 shows a configuration example when two video display devices project on the same screen.
  • FIG. 19 shows a configuration example when two video display devices project side by side on the same screen.
  • the first video display device 1c and the second video display device 1d are projected on the same screen.
  • the first video display device 1c receives the video input signal 10a as an input, for example, an input signal processing unit 11a that converts the video signal to the internal video signal 12a by IP conversion, a scaler, and the like, and an image processing unit 100a that receives the internal video signal 12a. And a timing control unit 14a that receives the corrected video signal 13a as input and generates the display control signal 15a based on the horizontal / vertical synchronization signal of the display screen, and an optical system device 200a that displays the video.
  • the image processing unit 100 a is connected to the viewer detection unit 16 that detects the position of the viewer who views the video projected on the screen and outputs the viewer position information 17.
  • the optical system device 200a receives a light source 203a for irradiating a light beam for projecting an image on a screen and a display control signal 15a, adjusts the gradation of the light beam from the light source 203a for each pixel, and creates a projected image. It comprises a panel 202a and a lens 201a for enlarging and projecting the projected image on the screen.
  • the second video display device 1d has the same configuration as the first video display device 1c.
  • the viewer detection unit 16 connected to the image processing unit 100a of the first video display device 1c is also connected to the image processing unit 100b of the second video display device 1d.
  • the same video processing is performed in each of the first video display device 1c and the second video display device 1d, and on the screen. Can display an image whose luminance is doubled.
  • the right-eye video of the stereoscopic video is input to the video input signal 10a
  • the left-eye video is input to the video input signal 10b.
  • Each of the first and second video display devices 1c and 1d performs video processing for the right eye and the left eye based on the viewer position information 17 and projects it onto the screen.
  • a polarizing plate having a different polarization direction is inserted between the lens and the screen, and viewing is performed by wearing polarized glasses corresponding to the polarized light. By doing so, viewing of a stereoscopic video can be realized.
  • the stereoscopic image displayed in this way can be displayed more naturally and easily by performing high definition processing according to the position of the viewer.
  • the first video display device 1c and the second video display device 1d project side by side on the same screen.
  • the difference from the video display system 4 of FIG. 17 is that the internal video signal 12b of the second video display device 1d is obtained from the input signal processing unit 11a of the first video display device 1c. That is, the input signal processing unit 11a outputs the separated video corresponding to the display position when displaying side by side as the internal video signal 12a and the internal video signal 12b, and outputs them as the first video display device 1c.
  • the image processing unit 100a and the image processing unit 100b of the second video display device 1d are output to the image processing unit 100a and the image processing unit 100b of the second video display device 1d.
  • the image processing unit 100a and the image processing unit 100b are connected. Then, each of the image processing unit 100a and the image processing unit 100b detects and estimates the line-of-sight position, and outputs the information estimated to each other to the image processing units 100b and 100a of the other party. Is also used to determine the correction area. Thereby, when the correction area 30 of the first video display device 1c gradually approaches the boundary line between the screens 1 and 2, the second video display device 1d is approaching the projection range of the own device. Can be detected. Accordingly, even when the reference point is in the first video display device 1c and only a part of the correction area 30 is included in the screen 2, the second video display apparatus 1d performs high-definition for the partial area. Can be applied.
  • the correction area is obtained using both the viewer position information and the viewpoint information.
  • the correction area may be obtained using only the viewer position information or only the viewpoint information.
  • one correction area is illustrated and described for one image (in other words, in the case of a video signal, one frame).
  • a correction area based on the gaze point of the person may be set. That is, a plurality of correction areas may be set for one image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 映像の視聴者の視聴位置や視聴方向が変わった場合にも、視認性の好適な映像表示を得る。映像入力信号10の入力を受け付け、映像入力信号10に基づく映像を表示する映像表示装置1であって、映像が表示されるスクリーン20及び映像を視聴する視聴者の位置関係を検出し、その結果を含む視聴者位置情報を生成する視聴者検出部16と、映像入力信号10に基づく画像のうち、視聴者位置情報17に対応させて設定された部分領域からなる補正領域に対して、画像補正処理を実行する画像処理部100と、画像補正処理が施された補正映像信号13に基づく映像をスクリーン20に表示する映像表示部200と、を備える。

Description

映像表示装置、映像表示システム、及び映像表示方法
 本発明は、映像信号に対して画像補正処理を行い、表示する技術に関する。
 近年、映像表示装置の高精細化や高輝度化など、性能が向上しており、プロジェクションマッピングに代表されるような、大規模な映像表示装置も登場している。このような没入型の表示装置では、人の視野全体に映像表示を行うことで、高い没入間を実現している。一方、人間の視野は、水平方向、垂直方向に広がりを持つが、一般的に視野の中でも注視する領域(中心視野)と、それ以外の領域(周辺視野)があり、中心視野では細かな映像も認識できるのに対して、周辺視野では細かな映像は認識できない。つまり中心視野ほど、映像の空間分解能が高い特性を持っている。このような人の視覚特性を利用した映像表示装置の背景技術として、特許文献1がある。この公報には、「映像を提示する映像提示部と、映像提示部に映像を提示すべく、映像を投影する映像投影部と、映像提示部と映像投影部との位置を変更する駆動部とを備え、映像投影部は、映像提示部に提示された映像のうち、観察者の注視点を含む所定領域の映像を高解像度の映像に変更し、駆動部は、高解像度の映像における被写体のサイズが所定領域の映像における被写体のサイズと略一致するように前記位置を変更する。」(要約抜粋)ことが記載されている。
特開2010-153983号公報
 上記特許文献1では、映像の観察者の注視点に従った高解像度化については述べられているものの、映像が表示されている部分(スクリーン)と観察者の位置関係や両者の距離については述べられていない。人間の視覚特性において、一般的に中心視野の中でも特に空間解像度が高い部分は、注視点を中心とした数度の視野の範囲内といわれている。従って、その空間解像度が高い範囲、つまりスクリーン上の領域は、スクリーンから観察者の距離により変わる。前述の先行技術文献では、映像表示の制御のための処理において、スクリーンと観察者の距離については述べられていない。
 一方、スクリーン全体にわたって高解像度化を行うと、画像処理のための負荷が高くなり、映像信号のデータ量が増大してデータ転送上好ましくない。このように、高解像度化を図りつつ、データ量が増大することを防ぐ点について更なる工夫の余地がある。
 本発明は上記事情に鑑みてなされたものであり、データ量の増加に配慮しつつ、画質の向上も行える技術を提供することを目的とする。
 上記課題を解決するために、本発明は、映像入力信号の入力を受け付け、前記映像入力信号に基づく映像を表示する際に、前記映像が表示される表示画面及び前記映像を視聴する視聴者の位置関係を検出し、前記映像入力信号に基づく画像のうち前記位置関係に対応する部分領域を補正領域として設定し、前記補正領域に対して、画像補正処理を実行し、前記画像補正処理が施された前記画像に係る前記映像入力信号に基づく前記映像を前記表示画面に表示する。
 本発明によれば、データ量の増加に配慮しつつ、画質の向上も行える技術を提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第一実施形態に係る映像表示装置の概略構成を示すブロック図である。 画像処理部の内部構成を示すブロック図である。 補正領域決定データ例を示す図であって、(a)は逓増型、(b)はリニア型、(c)はステップ型を示す。 スクリーンの平面図と視聴者の位置関係を示す図である。 補正領域及び補正特性の例を示す図である。 スクリーンと視聴者の位置、及び補正領域の位置の一例を示す図である。 図7は、スクリーン20と視聴者21の位置関係を示す図であって、(a)は基準点(注視点)のx座標、(b)は基準点(注視点)のy座標を示す。 プロジェクタからスクリーンへの投影方向を考慮した表示制御の例を示す図である。 投影角度に応じた反射ゲイン及び補正ゲインの例を示す図である。 映像表示装置の動作の流れを示すフローチャートである。 スクリーン正面図を用いて画像処理部の動作例を示す図である。 スクリーンに立体映像を表示した一例を正面図、平面図で示した図である。 第二実施形態における補正領域の算出例を示す図であって、(a)は左目、(b)は右目の場合を示す。 第三実施形態に係る画像処理部の構成例を示すブロック図である。 注視点の推定処理を示す図である。 第四実施形態に係る映像表示装置の構成を示すブロック図である。 第五実施形態に係る映像表示システムの概略構成を示す図である。 第六実施形態に係る映像表示システムの概略構成を示す図であって、同一スクリーン上に重ねて投影する場合の構成例を示す。 第六実施形態に係る映像表示システムの概略構成を示す図であって、同一スクリーン上に重ねて投影する場合の構成例を示す。
 以下、本発明の実施の形態について図面に基づいて説明するが、本発明は必ずしもこれらの実施形態に限定されるものではない。なお、実施形態を説明する各図面において、同一の部材には同一の符号を付し、その繰り返しの説明は省略する。
<第一実施形態>
 第一実施形態では、映像表示位置と視聴者の位置関係に基づき、表示映像に補正を加えて表示する映像表示装置をプロジェクタの構成にて説明する。なお、以下ではフロントプロジェクタの例で説明するが、その形態は、リヤプロジェクションテレビでもよい。また、パネルの拡大投影を行わず、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどの直視平面ディスプレイを用いた表示装置でも構わない。また映像表示装置は、プロジェクタに関らず、テレビ、ゲーム機にように、映像信号を投影、出力する装置であればその態様を問わない。この点については、以降のいずれの実施形態でも同様である。
 まず、図1及び図2を参照して第一実施形態に係る映像表示装置の概略構成につい説明する。図1は、第一実施形態に係る映像表示装置の概略構成を示すブロック図である。図2は、画像処理部の内部構成を示すブロック図である。図3は、補正領域決定データ例を示す図であって、(a)は逓増型、(b)はリニア型、(c)はステップ型を示す。
 図1の映像表示装置1は、映像入力信号10を入力とし、例えばIP変換、スケーラ等により内部映像信号12に変換する入力信号処理部11と、内部映像信号12を入力とし、本発明に係る高解像度化処理を実行し、補正映像信号13を出力する画像処理部100と、補正映像信号13を入力とし、補正映像信号13を表示画面(本実施形態ではスクリーン2に相当する)の水平・垂直同期信号に基づいて表示制御信号15を生成するタイミング制御部14と、映像を表示する光学系装置200(映像表示部に相当する)と、を含んで構成される。本実施形態において、「画像」及び「映像」は動画像(映像)及び静止画像の双方を含む。
 光学系装置200は、スクリーン20へ映像を投影するための光線を照射する光源203と、表示制御信号15を入力とし、光源203からの光線の階調を画素毎に調整し、投射映像を作成するパネル202と、投射映像をスクリーンに拡大投影するためのレンズ201とを含んで構成される。
 なお、映像表示装置1が、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどの直視平面ディスプレイである場合は、光学系装置200のレンズ201は不要である。ユーザはパネル202を直視することとなる。
 画像処理部100は、スクリーン20に投影する映像を視聴する視聴者の位置を検出し、視聴者位置情報17を出力する視聴者検出部16に接続される。視聴者検出部16の態様は特に限定せず、例えば、ステレオカメラの視差映像による距離計測や、TOFセンサ(距離画像センサ)など、既存の技術で実現できる。
 更に、画像処理部100は、視聴者の視点を検出し、視点情報を出力する視点検出部18に接続される。視点検出部18は、視聴者の眼球を撮像して眼球画像を生成するカメラと、その眼球画像から視聴者の左右の黒目が撮像された領域を抽出し、視点位置及び視線方向を演算する演算部とを備えて構成される。なお、この演算部の機能は、画像処理部100が担ってもよい。この場合、視点検出部18は、視点情報としての眼球画像を画像処理部100に出力する。
 画像処理部100は、視聴者位置情報及び視点情報に基づいて、補正領域の位置、大きさ、及び前記画像補正処理の補正特性の少なくとも1つを決定し、その決定内容に従って、補正領域に対して画像補正処理を実行する。
 図2に示すように、画像処理部100は精細感向上処理部40、補正領域制御部41、及び補正領域決定データ記憶部43を含む。精細感向上処理部40は、内部映像信号12に基づく画像の部分領域に対して高精細化処理を施す。以下、高精細化処理の対象となる部分領域を補正領域という。補正領域制御部41は、視聴者検出部16から視聴者位置情報17を取得し、これを用いて補正領域を決定し、補正領域の座標及び高精細化処理の内容を示すパラメータ(例えばゲイン、エンハンス強度等)を示す領域制御信号42を生成する。補正領域決定データ記憶部43は、補正領域制御部41が補正領域を決定する際に参照する補正領域決定データを記憶する。図3を参照して補正領域決定データについて説明する。
 上記補正領域30に対する画像補正処理は一例にすぎず、これに限定されない。
 一般に、視聴者がスクリーンに近づくにつれて、スクリーン20における中心視野は狭く、遠ざかるにつれて中心視野は広くなると考えられる。そこで、本実施形態では、距離dに対してパラメータrを増加関数として規定する。例えば、図3(a)のように距離dに対してパラメータrが逓増してもよいし、図3(b)のようにリニアに増加してもよいし、図3(c)のようにステップ状に増加してもよい。補正領域決定データは、スクリーン及び視聴者の間の距離dと、補正領域の大きさを規定するパラメータrとの関係を示すデータである。なお、本実施形態では、補正領域決定データをグラフ形式で図示したが、関数やテーブルでもよく、データ形態を問わない。
 図1の構成において、視聴者検出部16はスクリーン20に対する視聴者の位置を検出し、視聴者位置情報17を出力すると、画像処理部100は、視聴者位置情報17に基づいて内部映像信号12の高精細化処理を行う。この処理の一例を図4及び図5を用いて説明する。
 図4は、スクリーン20の平面図と視聴者21の位置関係を示す図である。図4では、スクリーン20に対して視聴者21がスクリーン20のX軸方向中央付近に正対しているとする。スクリーン20のx軸方向(視聴者から見て左右方向)の左端部には、視聴者検出部16としてのTOFセンサ16aが備えられる。上記左端部が水平方向に沿った距離xの測定基準点である。又は、スクリーン20の左右の各端部にステレオカメラを備えてもよい。TOFセンサからなる視聴者検出部16は、反射波を基に検出点のプロファイル28を算出し、プロファイル28の各点までの距離Lと、そのときのレーザのスクリーン20に対する照射角θとを用いて、各点とスクリーン20までの距離dを以下の式(1)により求める。
d=Lsinθ・・・(1)
 そして視聴者検出部16は、各点について求めたdのうち、最短の距離を視聴者とスクリーン20との距離として求め、視聴者位置情報を生成する。
 図5は、補正領域及び補正特性の例を示す図である。スクリーン20と視聴者が距離d離れていた場合、画像処理部100は図3の補正領域決定データを参照し、距離dに対するパラメータrを抽出する。そして、補正領域30を設定し、この補正領域の内側に対して高精細化処理を行う。
 画像処理部100は、補正領域30の内側で補正量を最大とし、補正領域30から離れるに従い、補正量が減衰するように補正する。図5の減衰量は一例であり、傾きを小さくすれば、補正領域30の境界付近の画質差を小さくできるため、視覚的に自然な映像補正ができ、逆に傾きを大きくとることで、敢えて画質差を生じさせることができる。このように補正特性については、表示映像の品質や内容に応じて、任意に選べばよい。
 補正領域の大きさは、視聴者21の距離に応じて変化させる。視聴者21の距離がdよりも小さい場合は、図5の補正領域31の点線で示す内部を高精細化処理し、視聴者21の距離がdよりも大きい場合は、補正領域32の点線で示す内部を高精細化処理する。つまり、前述したように人の視覚特性では、視野の空間分解能が高い領域は限られるため、スクリーンと視聴者の距離に応じて、空間分解能が高い領域の表示映像を高精細化し、それ以外の領域は高精細化しない。このように高精細化領域を制御することで、高精細で視認しやすい映像表示を、より少ない画像処理量で実現することができる
 次に、図6を参照してスクリーン20と視聴者21の位置に応じた表示制御に際し、スクリーンの水平位置関係を考慮した一例を示す。図6は、スクリーン20と視聴者21の位置、及び補正領域の位置の一例を示す図である。
 視聴者検出部16は、スクリーン20と視聴者21の距離dとスクリーン20の水平位置に対する視聴者の位置を検出する。図6では、スクリーン左端から距離a、スクリーン右端から距離bの位置に視聴者21が存在する場合の例を示している。この場合には、スクリーン20の正面図に示す補正領域30について、画像処理部100の精細感向上処理部40が高精細化処理を行う。
 また、図4及び図5を用いて説明した一例と同様に補正領域30の大きさは、スクリーン20から視聴者21までの距離dに応じて変化させる。視聴者21の距離がdよりも小さい場合は、補正領域31の内部を高精細化処理し、視聴者21の距離がdよりも大きい場合は、補正領域32の内部を高精細化処理する。このように視聴者21の位置に対応したスクリーン20の水平位置において高精細化処理を行うことで、視聴者21が移動した場合にも、高精細で視認しやすい映像表示を、より少ない画像処理量で実現することができる。
 次に、図7を参照して、スクリーン20に対する視聴者21の位置に加え、視聴者21の視線の方向を考慮した表示制御の一例を示す。図7は、スクリーン20と視聴者21の位置関係を示す図であって、(a)は基準点(注視点)のx座標、(b)は基準点(注視点)のy座標を示す。視聴者検出部16は、スクリーン20と視聴者21の距離dと、スクリーン左端部からX軸方向に沿った距離aと、を検出する。また、視点検出部18は、視聴者21のスクリーンに対する視線の角度θを検出する。
 補正領域制御部41は、このように検出した距離d、θに基づき、スクリーン20の注視位置を求めることができる。図7(a)の基準点50のx座標x50は、次の式(2)により求められる。
 x50=a+dtanθ・・・(2)
 同様に図7(b)に示すように、視聴者検出部16が、スクリーン20の下端部から視聴者21の目の高さhを検出し、視点検出部18が、視聴者21の視線の俯仰角αを検出した場合、基準点50のy座標y50は、次の式(3)により求められる。
 y50=h+dtanα・・・(3)
 目の高さhは、視聴者検出部16が視聴者の最も高い部分(頭頂部)を検出し、補正領域制御部41がその高さから予め記憶された頭頂部から目までの距離の解剖学的なデータを参照して減算して求めてもよい。又は視点検出部18が検出した目の位置情報を用いてもよい。
 補正領域制御部41は、基準点50を中心とし、距離dに応じたパラメータrを用いて補正領域30、31、32を設定する。このように視聴者21の位置及び視線方向に対応したスクリーン20の水平位置及び垂直位置において高精細化処理を行うことで、視聴者21の視線方向が変化した場合にも、高精細で視認しやすい映像表示を、より少ない画像処理量で実現することができる。なお、上記では、水平位置及び垂直位置の両方を考慮して補正領域を決定したが、水平位置又は垂直位置のどちらか一方だけを考慮して補正領域を求めてもよい。
 次に、図8及び図9を参照して、スクリーン20に対する視聴者21の位置、視聴者21の視線の方向に加え、プロジェクタからスクリーンへの投影方向を考慮した表示制御の例について説明する。図8は、プロジェクタからスクリーンへの投影方向を考慮した表示制御の例を示す図である。図9は、投影角度に応じた反射ゲイン及び補正ゲインの例を示す図である。
 図8のプロジェクタ22からは、映像は点線23から点線25に示す方向に投影されスクリーン20に表示される。視聴者21は、図7で説明した一例と同様に、スクリーン20から距離dだけ離れ、視線方向はスクリーン20に対してθの角度方向を注視している。従って、スクリーン左端から距離(a+dtanθ)、スクリーン右端から距離(b-dtanθ)の位置を視聴者21が注視している。その位置におけるプロジェクタ22からスクリーン20に対して投影される映像、つまり光の入射方向を矢印の点線24で示し、スクリーン20からの反射光の方向を矢印の点線26で示している。この一例では、スクリーン20に対してθの入射角度で投影され、同じ角度で反対側に反射している。ここで、スクリーン20には様々な光の反射特性を有しているが、一般的には、図9に示すように、反射方向に対して、±0度をピークとした特性となる。そこで、本実施形態では、視聴者21の視線方向とスクリーン20から反射するプロジェクタ22の投影光の角度を考慮した映像の補正量制御を行う。
 補正領域制御部41は、基準点50を中心とし、距離dに応じたパラメータrを用いて補正領域30、31、32を設定する。ここで、前述したスクリーン20からの反射角度θと視線方向θに基づき、図9の反射特性を補正するように映像補正量を変化させる。つまり、θ-θが、反射光に対する視線角度であるので、この角度に基づき、例えば図9の下図にある特性で映像の補正量を変化させる。この制御により、視聴者21の位置や視線方向によらず、見やすい映像表示を実現できる。以上の説明で、図9の反射特性はスクリーンによってピークゲインの大きさや角度に応じた減衰量が変わるが、その特性に応じて映像の補正量を選べばよい。更に、本実施形態の一例では、映像補正として高精細化について説明してきたが、コントラスト補正量を同様に変化させてもよく、これにより補正領域の視認性を向上でき、精細度とともにコントラストを高めることで、より見やすい映像表示が実現できる。
 図10及び図11を参照して、本実施形態に係る映像表示装置画像処理部の構成及び動作例について説明する。図10は、映像表示装置の動作の流れを示すフローチャートである。図11はスクリーン正面図を用いて画像処理部の動作例を示す図である。
 入力信号処理部11は、不図示の映像信号供給源から映像入力信号を受信し、画像処理部100に対して内部映像信号として出力する(S11)。映像供給源とは、PCやスマートフォン、テレビ、録画再生機器のように、画像信号を出力するものである。
 入力信号の取得と平行して、視聴者検出部16はスクリーン20に対する視聴者の位置(距離d)を算出する。また、視点検出部18は、視聴者の視点の位置、視線方向を検出する(S21)。
 補正領域制御部41は、例えば、図7のように、スクリーン20上に基準点50を設定する。補正領域制御部41は、基準点50をスクリーン20の水平方向、垂直方向の中央に予め設定してもよいし、ユーザが任意の一点を選択して設定してもよい。更に、補正領域制御部41は、視聴者位置情報17に基準点50を動的に、すなわち、X軸方向、Y軸方向の座標を視聴者位置情報17が更新される度に設定してもよい。
 補正領域制御部41は、基準点50を設定すると、補正領域決定データ記憶部43を参照し、距離dに応じたパラメータrを読み出す(S22)。
 そして、補正領域制御部41は、基準点50とし、パラメータrを用いて決定される領域を補正領域30として設定する(図11参照)。補正領域制御部41は、補正領域30の位置を示す領域制御信号42を生成する(S23)。同時に、補正領域制御部41は、必要があれば、補正ゲイン(図9参照)等の補正パラメータを決定し、領域制御信号42にその内容を含める。補正領域制御部41は、領域制御信号42を精細感向上処理部40に出力する。
 精細感向上処理部40では、その領域制御信号42に従って、内部映像信号12に対して高精細化処理を行い、補正映像信号13としてタイミング制御部14に出力する(S24)。精細感向上処理部40の具体的な処理については、一般的な映像信号の高域エンハンサのような処理や解像度を復元する超解像処理など、映像の精細感が向上できる処理であれば特に限定されない。
 タイミング制御部14は、入力された補正映像信号13を基に表示制御信号15を生成し、パネル202へ出力し、レンズ201を通して映像信号が投影される(S25)。その後、ステップS11及びステップS21へ戻り、次の映像信号を受信すると共に、視聴者の位置及び視線方向を検出する処理を繰り返す。図10では、ループ状に処理の流れを示しているが、映像信号の入力がなければS11において待機状態となり、映像表示装置1の主電源がOFFにされると、終了するためのシーケンス(不図示)が実行されて、図10の処理も終了する。
 本実施形態によれば、スクリーン20から視聴者21までの距離に応じて補正領域を設定し、そこについて高精細化処理を行うので、視聴者21の中心視野に近い領域の空間解像度を上げつつ、映像全体に対して高精細化処理をする場合に比べて画像処理に係る負荷を低減することができる。
 更に上記実施形態では、視線方向を考慮して補正領域の位置を決定することにより、視聴者21の視点移動に補正領域を追従させることができる。
 また、プロジェクタへの投影方向及び視線方向を考慮することにより、スクリーンに対する角度の違いによる画像の不鮮明さを補正することができる。
 以上の説明において、補正領域の形状は円形で図示したが、これに限ったものではなく、楕円形や矩形でも同様に本発明の効果が得られる。また、ここまでは、設定した補正領域の内部を高精細化するように説明しているが、補正領域の内部を高精細化せずに補正領域の外部の精細度を下げるように補正してもよい。これにより補正領域の内部の精細度が補正領域の外部よりも相対的に高くなるので本発明の効果が得られる。
<第二実施形態>
 第二実施形態は、立体映像に本発明を適用した実施形態である。以下、図12及び図13を参照して第二実施形態について説明する。図12は、スクリーン20に立体映像を表示した一例を正面図、平面図で示した図である。図13は、第二実施形態における補正領域の算出例を示す図であって、(a)は左目、(b)は右目の場合を示す。
 図12では、視聴者の左右の目の位置を符号21a、21bにより図示する。人の目はある一点を注視する場合、左右の目が異なる方向を見て距離感を知覚するといわれており、左右それぞれの目が見ている角度を輻輳角という。そこで、本実施形態の一例では、左右の視線方向を用いて、奥行き方向の高精細化位置を制御に加える。
 図12において、左目21aが見ている方向をθ、右目21bが見ている方向をθとすると、左右の目の間隔と、それぞれの角度から、注視位置までの距離dを含めた注視位置を求めることができる。この注視点P30に対して補正領域30で示す範囲の高精細化処理を行うように制御する。一般的な立体表示では、目の注視位置はスクリーン上にあるが、本実施形態のように、実際の注視位置の映像を高視認化することで、表示される映像の位置を注視できるようになり、より実物を見るのに近い映像を再現できる。なお、補正領域30の範囲は、視聴者の距離dにより、前述の実施形態と同様に制御を行う。
 図13に、図12に示す位置関係における補正領域30に対する演算処理の一例を示す。立体画像上の注視点P30を含む補正領域30は、実際には、スクリーン20上に投影された左目21aが視認する左目画像と、右目21bが視認する右目画像との虚像により形成される点である。そこで、図13(a)に示すように、補正領域制御部41は、スクリーン20から視聴者21までの距離をd(これは視聴者検出部16の検出値である)、スクリーン左端部から視聴者21までの距離(左右の目の中点までの距離と見做す)a、輻輳角θを用いて、下式(4)により、左目画像における補正領域30が実写された領域30aの基準点50のx座標x30aを求める。
30a=a+w×dtanθ・・・(4)
 但し、wはdが大きくなるにつれて大きくなる重み係数
 同様に、図13(b)に示すように補正領域制御部41は、スクリーン20から視聴者21までの距離をd、スクリーン左端部から視聴者21までの距離a、輻輳角θを用いて、下式(5)により、右目画像における補正領域30が実写された領域30bの基準点50bのx座標x30bを求める。
30b=a-wdtanθ・・・(5)
 但し、wはdが大きくなるにつれて大きくなる重み係数
 また、俯仰角をαとすると、一般に左右の目は同じ俯仰角αを形成する。そこで、既述の式(3)により、注視点P30に対する補正領域30を形成するための左目画像、右目画像の基準点のy座標を求めることができる。
 本実施形態によれば、立体映像上に注視点がある場合にも、その注視点を含む部分領域に対して高精細化処理を行うことにより、空間解像度の向上とデータ量の削減及び画像処理に係る負荷の低減との両立を図ることができる。
<第三実施形態>
 第三実施形態は、本発明における高精細化処理を視聴者の移動や視点の変化に基づき制御する場合に、その変化に予測を加えて制御するものである。一般的な映像処理では、処理過程で時間的な遅延が生ずる。その遅延を推定し、次に移動する場所を推定して、予め画像処理しておきことで、より現実に近い表示を実現することができる。以下、図14及び図15を参照して第三実施形態について説明する。図14は、第三実施形態に係る画像処理部100の構成例を示すブロック図である。図15は、注視点の推定処理を示す図である。
 図14に示すように、画像処理部100aは、視点移動推定部44を更に備える。そして、視聴者検出部16で検出した視聴者位置情報と、視点検出部18が検出した視点情報とが、視点移動推定部44へ入力される。視点移動推定部44は、視聴者位置情報及び視点情報を基に、視点の移動先を推定する。この推定方法を、図15を基に説明する。
 図15の注視点51、注視点52が時系列に沿って視点移動推定部44へ入力された場合、視点移動推定部44は、注視点51、52の移動ベクトル60を求め、注視点52に移動ベクトル60と同量の移動ベクトル61の移動を加えて、注視点53を求める。そして、視点移動推定部44は注視点53の座標を推定位置情報45として出力する。
 補正領域制御部41は、推定位置情報45に基づき領域制御信号42を出力する。精細感向上処理部40では、領域制御信号42に基づき、内部映像信号12の高精細化処理を行い、補正映像信号13を出力する。以降の動作は前述の実施形態の一例と同様である。
 本実施形態によれば、次の視点位置の映像を事前に補正することができるので、遅延がなく、より自然な映像表示が実現できる。なお、上記説明で、時系列に得られる注視点51、52の2点の情報だけを用いて移動ベクトルを求める一例を説明したが、情報は2点である必要はなく、2点以上の情報に基づき予測すればよい。
<第四実施形態>
 第四実施形態は、本発明における映像表示装置で、表示する映像の生成も実行する実施形態である。以下、図16を参照して第四実施形態について説明する。図16は、第四実施形態に係る映像表示装置の構成を示すブロック図である。
 図16に示す映像表示装置1aは、映像蓄積部70及び映像生成部72を更に備えると共に、視聴者検出部16は視聴者位置情報を映像生成部72に入力する点で、第一実施形態に係る映像表示装置1の構成とは異なる。
 映像蓄積部70は、立体映像モデルデータ71を蓄積し、必要に応じて映像生成部72に立体映像モデルデータ71を出力する。映像生成部72は、立体映像モデルデータ71の視点変換処理を行い、映像入力信号10として入力信号処理部11を経由して画像処理部100に出力する。その際、映像生成部72の視点変換処理は、視聴者検出部16、及び視点検出部18で検出する視聴者位置情報及び視線情報に基づき処理を行う。映像生成部72は、立体映像モデルデータ71に対し、視聴者位置情報及び視線情報に基づき表示する映像中の物体の大きさや角度などの変換処理を行い視聴者が見ている方向に対応した映像を生成する。
 映像生成部72は、大きさ、角度の変換処理を施した立体映像モデルデータ71に対し、視聴者位置情報及び視線情報を用いて補正領域を設定し、高精細化処理を施す。従って、映像生成部72は、画像処理部100に相当する。
 本実施形態によれば、視聴者検出部16で検出する情報を用いて、立体映像モデルデータ71の視点変換処理、及び視聴者が注視する位置の高精細化処理を行うことができ、見やすい立体映像表示が実現できる。
<第五実施形態>
 第五実施形態は、高精細化を行う補正領域の圧縮率と、補正領域とは異なる領域の圧縮率とを変える実施形態である。以下、図17を参照して第五実施形態について説明する。図17は、第五実施形態に係る映像表示システムの概略構成を示す図である。
 図17の映像表示システム3は、サーバ300と映像表示装置1bとを通信接続をして構成される。
 サーバ300は、映像蓄積部70、映像生成部72、映像圧縮部74、及び通信処理部76を備える。サーバ300は、例えばクラウド上のサーバパソコンである。
 一方、映像表示装置1bは、第一実施形態に係る映像表示装置1に加え、通信処理部78及び映像伸張部80を備える。そして、視聴者検出部16及び視点検出部18は、視聴者位置情報17a及び視点情報を通信処理部78へ出力する。また、本映像表示システム3では、高精細化処理をサーバ300で実行するので、映像表示装置1bに代えてサーバ300に画像処理部100に相当する機能を備える。
 上述したサーバ300の通信処理部76と、映像表示装置1bの通信処理部78とは、ネットワーク77、例えばインターネット等の公衆回線や専用回線を介して接続される。
 次に、映像表示装置1bの動作について説明する。映像表示装置1bの通信処理部78は、視聴者位置情報及び視点情報をサーバ300に送信する。サーバ300の通信処理部76は受信した視聴者位置情報及び視点情報を映像生成部72に出力する。映像生成部72は、映像蓄積部70から取得した立体映像モデルデータ71に対して、視聴者位置情報及び視点情報を用いて視点変換処理及び高精細化処理を施し映像信号73を生成する。従って、映像生成部72は画像処理部100に相当する。
 映像生成部72は、映像信号73とともに高精細化処理を施した補正領域の位置を示す補正領域情報を映像圧縮部74に出力する。映像圧縮部74は、補正領域情報を基に映像信号73の補正領域と補正領域以外の領域(以下「補正外領域」という)に対する圧縮特性を変更させつつ、圧縮処理を実行する。具体的には、映像圧縮部74は、補正領域情報を基に補正領域内については相対的に映像の圧縮率を低く、補正外領域に対しては相対的に圧縮率を高くして圧縮処理を行う。圧縮された映像信号(以下「圧縮映像信号」という)75及び補正領域情報は通信処理部76から、映像表示装置1bに伝送される。
 伝送された圧縮映像信号75及び補正領域情報は、通信処理部78で受信され、映像伸張部80に出力される。
 映像伸張部80は、補正領域情報に示す補正領域の位置及び圧縮率と、補正外領域の位置及び圧縮率とを参照し、圧縮映像信号の伸張処理を行って映像入力信号10を出力する。この以降の処理は前述した動作例と同様である。なお、画像処理部100は、高精細化処理を行わないが、その他の画像処理、例えばノイズリダクションや輪郭強調処理、ビットレートの変換処理等を行ってもよいし、高精細化処理以外の画像処理を実行しない場合は、画像処理部100を備えなくてもよい。
 本実施形態によれば、映像表示装置1bとは別体に構成された情報処理装置(サーバ300)で高精細化処理を実行することにより、映像表示装置1bに係る画像処理の負荷を下げることができる。
 更に、高精細化処理を施した補正領域の圧縮率は低くして映像品質を保ちつつ、補正外領域の圧縮率は高くすることで伝送するデータ量を減らすことができる。本実施形態でも、前述した実施形態と同様に、視点移動を予測し、予測された位置情報に基づき各映像処理を行うことで、遅延の少ない、より自然な映像表示が実現できる。
<第六実施形態>
 第六実施形態は、本発明における映像表示装置を複数台用いる実施形態である。以下の一例は、2台のプロジェクタで説明するが2台に限ったものではない。以下、図18及び図19を参照して第六実施形態について説明する。図18は、二台の映像表示装置が、同一スクリーン上に重ねて投影する場合の構成例を示す。図19は、二台の映像表示装置が、同一スクリーン上に並べて投影する場合の構成例を示す。
 図18に示す映像表示システム4では、第一の映像表示装置1c及び第二の映像表示装置1dが同一スクリーン上に重ねて投影する。
 第一の映像表示装置1cは、映像入力信号10aを入力とし、例えばIP変換、スケーラ等により内部映像信号12aに変換する入力信号処理部11aと、内部映像信号12aを入力とする画像処理部100aと、補正映像信号13aを入力とし、補正映像信号を表示画面の水平・垂直同期信号に基づいて表示制御信号15aを生成するタイミング制御部14aと、映像を表示する光学系装置200aとを含む。画像処理部100aは、スクリーンに投影する映像を視聴する視聴者の位置を検出し、視聴者位置情報17を出力する視聴者検出部16に接続される。
 光学系装置200aは、スクリーンへ映像を投影するための光線を照射する光源203aと、表示制御信号15aを入力とし、光源203aからの光線の階調を画素毎に調整し、投射映像を作成するパネル202aと、投射映像をスクリーンに拡大投影するためのレンズ201aで構成される。
 次に第二の映像表示装置1dは、第一の映像表示装置1cと同一な構成である。そして、第一の映像表示装置1cの画像処理部100aに接続された視聴者検出部16が、第二の映像表示装置1dの画像処理部100bにも接続される。この構成において、まず、映像入力信号10a及び映像入力信号10bを同一映像信号にすると、第一の映像表示装置1cと第二の映像表示装置1dのそれぞれで同じ映像処理が行われ、スクリーン上には輝度が2倍となった映像表示を行うことができる。
 次に立体映像を表示する一例を説明する。まず映像入力信号10aには立体映像の右目用の映像を入力し、映像入力信号10bには左目用の映像を入力する。第一及び第二の映像表示装置1c、1dのそれぞれは、視聴者位置情報17に基づいて右目用、左目用の映像処理を行い、スクリーンへ投影する。その投影する際に、レンズとスクリーンの間に偏光方向の異なる偏光板を挿入するとともに、その偏光に対応した偏光メガネを装着して視聴を行う。このようにすることで、立体映像の視聴を実現できる。その際の偏光方式には直線偏光や円偏光などがあるが、特に偏光方式は問わない。
 このようにして表示された立体映像も、視聴者の位置に応じて高精細化処理を行うことで、より自然で見やすい表示を行うことができる。
 図19に示す映像表示システム4aでは、第一の映像表示装置1c及び第二の映像表示装置1dが同一スクリーン上に並べて投影する。図17の映像表示システム4と異なる点は、第二の映像表示装置1dの内部映像信号12bを、第一の映像表示装置1cの入力信号処理部11aから得る点である。すなわち、入力信号処理部11aは、左右に並べて表示する際の表示位置に対応して分離した映像を、内部映像信号12a、内部映像信号12bとして出力して、それぞれを第一の映像表示装置1cの画像処理部100a、及び第二の映像表示装置1dの画像処理部100bのそれぞれに出力する。これにより左右に並べて表示する際にも、視聴者の位置に応じて高精細化処理を行うことで、より自然で見やすい表示を行うことができる。
 また、画像処理部100a及び画像処理部100bを接続する。そして、画像処理部100a及び画像処理部100bのそれぞれが視線位置を検出、推定した情報を互いに相手の画像処理部100b、100aに出力し、相手の画像処理部100b、100aから取得した視線位置情報も用いて、補正領域を決定する。これにより、第一の映像表示装置1cの補正領域30が徐々にスクリーン1、2の境界線に近づく場合、第二の映像表示装置1dは補正領域30が、自機の投影範囲に近づきつつあることを検知できる。これにより、基準点が第一の映像表示装置1c内にあり、補正領域30の一部のみがスクリーン2に含まれる場合にも、第二の映像表示装置1dがその一部の領域について高精細化処理を施すことができる。
 これにより、視聴者の視点がスクリーン1、スクリーン2の境界線を越えて移動しても、より滑らかな高精細化映像を視聴することができる。
 上記各実施形態は、本発明を限定するものではなく、本発明の趣旨を逸脱しない範囲で様々な変更態様があり、これらも本発明の技術的範囲に属する。また、上記第一実施形態から第六実施形態のそれぞれについての任意の組み合わせも可能である。
 また上記において、視聴者位置情報及び視点情報を共に用いて補正領域を求める例につて説明したが、視聴者位置情報だけ、又は視点情報だけを用いて補正領域を求めてもよい。
 更に、上記各実施形態では、1画像(映像信号の場合は1フレームと言い換えてもよい)に対して1つの補正領域を図示して説明したが、複数の視聴者がいる場合は、各視聴者の注視点を基準とする補正領域を設定してもよい。すなわち、1画像に対して複数の補正領域を設定してもよい。
1:映像表示装置、20:スクリーン、21:視聴者、22:プロジェクタ、30、31、32:補正領域。

Claims (13)

  1.  映像入力信号の入力を受け付け、前記映像入力信号に基づく映像を表示する映像表示装置であって、
     前記映像が表示される表示画面及び前記映像を視聴する視聴者の位置関係を検出し、その結果を含む視聴者位置情報を生成する視聴者検出部と、
     前記映像入力信号に基づく画像に対し、前記視聴者位置情報に基づいて補正領域を設定し、前記補正領域に画像補正処理を施す画像処理部と、
     前記画像補正処理が施された前記画像に係る前記映像入力信号に基づく前記映像を前記表示画面に表示する映像表示部と、
     を備える、
    映像表示装置。
  2.  請求項1に記載の映像表示装置において、
     前記視聴者検出部は、前記表示画面から前記視聴者までの距離を検出し、
     前記画像処理部は、前記表示画面から前記視聴者までの距離が相対的に近い場合に、前記補正領域の大きさを相対的に小さくし、前記距離が相対的に遠い場合に、前記補正領域の大きさを相対的に大きくする、
    映像表示装置。
  3.  請求項1に記載の映像表示装置において、
     前記画像処理部は、前記視聴者位置情報に基づいて、前記補正領域の位置、大きさ、及び前記画像補正処理の補正特性の少なくとも1つを決定し、その決定内容に従って前記画像補正処理を実行する、
    映像表示装置。
  4.  請求項1に記載の映像表示装置において、
     前記視聴者検出部は、前記位置関係として、前記表示画面から前記視聴者までの距離、前記表示画面の測定基準点から前記視聴者までの水平方向に沿った距離、及び前記表示画面の測定基準点から前記視聴者の目までの高さの少なくとも1つを検出する、
    映像表示装置。
  5.  請求項1に記載の映像表示装置において、
     前記視聴者の視点位置及び視線方向の少なくとも1つを検出して視点情報を出力する視点検出部を更に備え、
     前記画像処理部は、前記視点情報を更に用いて前記補正領域の位置を決定する、
    映像表示装置。
  6.  請求項5に記載の映像表示装置において、
     前記映像表示部は、前記表示画面に前記映像を投影する映像投影部であって、
     前記画像処理部は、前記映像投影部が投影する際の前記表示画面に対する角度、前記表示画面の反射特性を更に用いて、前記補正領域の大きさ及び補正特性のうち少なくとも1つを決定する、
    映像表示装置。
  7.  請求項5に記載の映像表示装置において、
     前記映像表示部は、前記表示画面に前記映像を投影する映像投影部であって、
     前記視点検出部は、前記映像投影部により表示される前記映像を視聴する前記視聴者の左右の目の輻輳角を検出し、
     前記画像処理部は、前記輻輳角により求められる空間上の注視点に対応する、前記表示画面上の前記映像に含まれる前記補正領域に対して、前記画像補正処理を行う、
    映像表示装置。
  8.  請求項5に記載の映像表示装置において、
     前記画像処理部は、前記視点情報の過去の履歴に基づき、前記視聴者の視点方向を推定し、視点移動の推定位置に基づいて前記補正領域を設定する、
    映像表示装置。
  9.  請求項8に記載の映像表示装置において、
     前記画像処理部は、自装置とは異なる他の映像表示装置から、前記他の映像表示装置が推定した前記視点移動の推定位置を示す情報を取得し、それを用いて前記自装置に入力された前記映像入力信号に対して前記画像補正処理を実行する、
    映像表示装置。
  10.  請求項1に記載の映像表示装置において、
     前記画像処理部は、前記補正領域に対し、精細度補正及びコントラスト補正の少なくとも1つを行う、
    映像表示装置。
  11.  映像入力信号に対して画像補正処理を行うサーバ、及びそのサーバから前記画像補正処理後の映像信号を受信して前記映像信号に基づく映像を表示する映像表示装置を含む映像表示システムであって、
     前記映像表示装置は、
     前記映像が表示される表示画面及び前記映像を視聴する視聴者の位置関係を検出し、その結果を含む視聴者位置情報を生成する視聴者検出部と、
     前記視聴者位置情報を前記サーバに送信する装置側通信処理部と、
     圧縮画像を伸張する映像伸張部と、
     前記表示画面に前記映像を表示する映像表示部と、
     を備え、
     前記サーバは、
     前記視聴者位置情報を受信するサーバ側通信処理部と、
     前記映像入力信号に基づく画像に対し、前記視聴者位置情報に基づいて補正領域を設定し、前記補正領域に前記画像補正処理を実行する画像処理部と、
     前記補正領域の圧縮率は相対的に低く、前記画像のうちの前記補正領域とは異なる領域である補正外領域の圧縮率は相対的に高くして、前記画像補正処理後の画像に圧縮処理を施す圧縮処理部と、
     を備え、
     前記サーバ側通信処理部は、前記圧縮処理後の前記画像を前記映像表示装置に送信し、
     前記装置側通信処理部は、前記圧縮処理後の前記画像を受信し、
     前記映像伸張部は、受信した前記圧縮処理後の前記画像に伸張処理を施す、
    映像表示システム。
  12.  請求項11に記載の映像表示システムにおいて、
     前記サーバは、前記映像信号として立体画像データの入力を受け付け、
     前記画像処理部は、前記視聴者位置情報に基づき、前記立体画像データの大きさ、及び角度の少なくとも1つを変換する処理を行い、その変換後の前記立体画像データに対して前記補正領域を設定する、
    映像表示システム。
  13.  映像入力信号の入力を受け付けるとともに、前記映像入力信号に基づく映像を表示する映像表示方法であって、
     前記映像が表示される表示画面及び前記映像を視聴する視聴者の位置関係を検出するステップと、
     前記映像入力信号に基づく画像に対し、前記位置関係に基づいて補正領域を設定するステップと、
     前記補正領域に対して画像補正処理を実行するステップと、
     前記画像補正処理が施された前記画像に係る前記映像入力信号に基づく前記映像を前記表示画面に表示するステップと、
     を含む、
    映像表示方法。
PCT/JP2015/076541 2014-12-17 2015-09-17 映像表示装置、映像表示システム、及び映像表示方法 WO2016098411A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/533,863 US10511823B2 (en) 2014-12-17 2015-09-17 Video display apparatus, video display system, and video display method
CN201580064411.XA CN107005670B (zh) 2014-12-17 2015-09-17 影像显示装置、影像显示系统以及影像显示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014255166A JP6644371B2 (ja) 2014-12-17 2014-12-17 映像表示装置
JP2014-255166 2014-12-17

Publications (1)

Publication Number Publication Date
WO2016098411A1 true WO2016098411A1 (ja) 2016-06-23

Family

ID=56126313

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076541 WO2016098411A1 (ja) 2014-12-17 2015-09-17 映像表示装置、映像表示システム、及び映像表示方法

Country Status (4)

Country Link
US (1) US10511823B2 (ja)
JP (1) JP6644371B2 (ja)
CN (1) CN107005670B (ja)
WO (1) WO2016098411A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019000661A1 (zh) * 2017-06-26 2019-01-03 上海斐讯数据通信技术有限公司 一种信息推送方法及系统
WO2019025895A1 (ja) * 2017-07-31 2019-02-07 株式会社半導体エネルギー研究所 表示装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018110821A1 (en) 2016-12-14 2018-06-21 Samsung Electronics Co., Ltd. Display apparatus and method for controlling the display apparatus
CN110998703A (zh) 2017-08-24 2020-04-10 株式会社半导体能源研究所 图像处理方法
CN109903231A (zh) * 2017-12-11 2019-06-18 上海聚虹光电科技有限公司 Vr或ar设备虹膜图像的矫正方法
WO2019171522A1 (ja) * 2018-03-08 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント 電子機器、ヘッドマウントディスプレイ、注視点検出器、および画素データ読み出し方法
CN111050147A (zh) * 2018-10-11 2020-04-21 上海云绅智能科技有限公司 基于五折幕场地的投影方法及系统、五折幕场地
CN111050146B (zh) * 2018-10-11 2022-04-15 上海云绅智能科技有限公司 一种单屏成像的方法、智能设备及系统
JP7161934B2 (ja) * 2018-12-21 2022-10-27 株式会社日立エルジーデータストレージ 映像表示装置及び映像表示システム
JP7300294B2 (ja) * 2019-03-27 2023-06-29 日本放送協会 立体画像伝送システム、立体画像送信装置及び立体画像表示装置
US11843763B2 (en) 2019-05-14 2023-12-12 Nippon Telegraph And Telephone Corporation Display device and method
US11735078B2 (en) 2019-06-06 2023-08-22 Sony Group Corporation Control device, control method, control program, and control system
CN110830781B (zh) * 2019-10-30 2021-03-23 歌尔科技有限公司 一种基于双目视觉的投影图像自动校正方法及系统
CN110992883A (zh) * 2019-12-24 2020-04-10 北京集创北方科技股份有限公司 显示补偿方法、装置、设备和存储介质
JPWO2021140886A1 (ja) * 2020-01-10 2021-07-15
US20230132045A1 (en) * 2020-03-09 2023-04-27 Sony Group Corporation Information processing device, information processing method, and recording medium
KR20230026126A (ko) * 2021-08-17 2023-02-24 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713497A (ja) * 1993-06-14 1995-01-17 Atr Tsushin Syst Kenkyusho:Kk 画像表示装置
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置
WO2012077601A1 (ja) * 2010-12-08 2012-06-14 シャープ株式会社 画像処理装置、画像処理方法、および表示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08234141A (ja) * 1994-12-01 1996-09-13 Olympus Optical Co Ltd 頭部装着型映像表示装置
JPH08266481A (ja) * 1995-03-29 1996-10-15 Hitachi Ltd 動画診断システム
JP4374708B2 (ja) * 2000-03-30 2009-12-02 株式会社デンソー 網膜走査ディスプレイ装置及び光走査装置
JP3814491B2 (ja) * 2001-04-03 2006-08-30 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体及びプログラム
US7134080B2 (en) * 2002-08-23 2006-11-07 International Business Machines Corporation Method and system for a user-following interface
US8473869B2 (en) * 2004-11-16 2013-06-25 Koninklijke Philips Electronics N.V. Touchless manipulation of images for regional enhancement
US8094717B2 (en) * 2006-10-19 2012-01-10 Panasonic Corporation Image generation apparatus and image generation method
JP4839448B2 (ja) * 2007-03-19 2011-12-21 国立大学法人東京工業大学 複数領域に対応した画質改善処理方法及び画質改善処理プログラム
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010153983A (ja) 2008-12-24 2010-07-08 Panasonic Electric Works Co Ltd 投影型映像表示装置および該方法
JP5129377B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
JP6029294B2 (ja) * 2012-03-07 2016-11-24 日本放送協会 映像提示装置および映像提示プログラム
JP6104516B2 (ja) * 2012-04-04 2017-03-29 東芝メディカルシステムズ株式会社 医用画像診断装置及び制御プログラム
JP2014077993A (ja) * 2012-09-18 2014-05-01 Sharp Corp 表示装置
US9557813B2 (en) * 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
US9332216B2 (en) * 2014-03-12 2016-05-03 Sony Computer Entertainment America, LLC Video frame rate compensation through adjustment of vertical blanking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713497A (ja) * 1993-06-14 1995-01-17 Atr Tsushin Syst Kenkyusho:Kk 画像表示装置
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置
WO2012077601A1 (ja) * 2010-12-08 2012-06-14 シャープ株式会社 画像処理装置、画像処理方法、および表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019000661A1 (zh) * 2017-06-26 2019-01-03 上海斐讯数据通信技术有限公司 一种信息推送方法及系统
WO2019025895A1 (ja) * 2017-07-31 2019-02-07 株式会社半導体エネルギー研究所 表示装置

Also Published As

Publication number Publication date
JP6644371B2 (ja) 2020-02-12
US20170324944A1 (en) 2017-11-09
CN107005670A (zh) 2017-08-01
JP2016116162A (ja) 2016-06-23
CN107005670B (zh) 2019-11-26
US10511823B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
WO2016098411A1 (ja) 映像表示装置、映像表示システム、及び映像表示方法
US9355455B2 (en) Image data processing method and stereoscopic image display using the same
US9380295B2 (en) Non-linear navigation of a three dimensional stereoscopic display
US20110304613A1 (en) Autospectroscopic display device and method for operating an auto-stereoscopic display device
US9549174B1 (en) Head tracked stereoscopic display system that uses light field type data
KR20160149252A (ko) 시선 위치에 기초한 안정 평면 결정
US20120274629A1 (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
US20130222410A1 (en) Image display apparatus
US8368696B2 (en) Temporal parallax induced display
US9261710B2 (en) 2D quality enhancer in polarized 3D systems for 2D-3D co-existence
WO2011096280A1 (ja) 画像表示装置、画像表示システム及び画像表示方法
US10572764B1 (en) Adaptive stereo rendering to reduce motion sickness
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
JPWO2019229906A1 (ja) 画像表示システム
US9225960B2 (en) Apparatus and method for attenuating stereoscopic sense of stereoscopic image
US20120121163A1 (en) 3d display apparatus and method for extracting depth of 3d image thereof
WO2017199495A1 (ja) 画像処理システム、画像処理装置、及びプログラム
US8952957B2 (en) Three-dimensional display apparatus
US8830150B2 (en) 3D glasses and a 3D display apparatus
US20190313077A1 (en) Virtual reality environment
KR102143944B1 (ko) 입체감 조절 방법과 이를 이용한 입체 영상 표시장치
KR102080611B1 (ko) 이미지 생성 장치 및 방법
JP2013153421A (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15869619

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15533863

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15869619

Country of ref document: EP

Kind code of ref document: A1