WO2010151044A2 - 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 - Google Patents

3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 Download PDF

Info

Publication number
WO2010151044A2
WO2010151044A2 PCT/KR2010/004073 KR2010004073W WO2010151044A2 WO 2010151044 A2 WO2010151044 A2 WO 2010151044A2 KR 2010004073 W KR2010004073 W KR 2010004073W WO 2010151044 A2 WO2010151044 A2 WO 2010151044A2
Authority
WO
WIPO (PCT)
Prior art keywords
image data
enlargement
display device
enlarged
reduction
Prior art date
Application number
PCT/KR2010/004073
Other languages
English (en)
French (fr)
Other versions
WO2010151044A3 (ko
Inventor
지상훈
이기영
황보상규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to EP10792326.0A priority Critical patent/EP2410753B1/en
Priority to US13/265,117 priority patent/US20120050502A1/en
Priority to CN201080022817.9A priority patent/CN102450022B/zh
Publication of WO2010151044A2 publication Critical patent/WO2010151044A2/ko
Publication of WO2010151044A3 publication Critical patent/WO2010151044A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Definitions

  • the present invention relates to an image processing method of a display device for outputting three-dimensional content and a display device employing the method. More specifically, the left image data and the right image data of the three-dimensional image data in the display device for outputting the three-dimensional content.
  • the present invention relates to an image processing method of a display device that performs image processing of each image data and outputs a 3D format, and a display device employing the method.
  • the image processing method of the display device to provide a high-quality image data by processing the three-dimensional image data, the user can conveniently view and use the three-dimensional image data and There is a need for developing a display device employing the method.
  • the present invention solves the problems of the prior art as described above, the display device for providing high-quality three-dimensional image data by processing the three-dimensional image data, the user can conveniently view and use the three-dimensional image data It is an object of the present invention to provide a video processing method and a display device employing the method.
  • the left image data and the right image data of the 3D image data are respectively enlarged or reduced in proportion to an enlargement command or a reduction command for the 3D image data. Zooming in or out; And outputting the enlarged or reduced processed left image data and right image data in a 3D format.
  • the image processing method of the 3D display device comprises the steps of image processing each of the left image data and the right image data of the three-dimensional image data; And outputting the image processed left image data and right image data in a 3D format at a predetermined depth value.
  • the 3D display device is to display the left image data and the right image data of the three-dimensional image data at an enlargement ratio or reduction ratio corresponding to the magnification command or reduction command for the three-dimensional image data, respectively.
  • an output formatter configured to output the enlarged or reduced processed left image data and right image data in a 3D format.
  • the 3D display device includes a scaler for image processing each of the left image data and the right image data of the three-dimensional image data; And an output formatter configured to output the image processed left image data and right image data in a 3D format at a predetermined depth value.
  • the present invention has the effect of allowing the user to select the depth value with the enlargement or reduction of the 3D image data so that the user can conveniently use the 3D image data.
  • the present invention adjusts the depth value of the 3D image data together to make the image processed region appear more prominently, thereby allowing the user to display the 3D image data. It has the effect of making it more convenient to use.
  • the present invention has the effect of providing a more dynamic enlargement reduction function by determining the area to include the enlargement or reduction and the enlargement or reduction ratio in accordance with the user's position change.
  • the present invention performs the overscan of the left image data and the right image data, respectively, and then outputs the 3D format, so that the alignment of the left image data and the right image data is performed accurately, and the 3D image data is overscanned and then 3D.
  • the present invention performs the overscan of the left image data and the right image data, respectively, and then outputs the 3D format, so that the alignment of the left image data and the right image data is performed accurately, and the 3D image data is overscanned and then 3D.
  • FIG. 1 is a view showing an embodiment of a display device for providing three-dimensional content according to the present invention.
  • FIG. 2 is a diagram for explaining perspective according to an interval or parallax (hereinafter, referred to as interval) between left image data and right image data;
  • interval an interval or parallax
  • FIG. 3 is a diagram for explaining an example of a method for implementing a 3D image in a display device in connection with the present invention
  • FIG. 4 is a diagram illustrating formats of a 3D video signal including the left image data and the right image data as described above.
  • FIG. 5 is a flowchart illustrating a process of image processing 3D image data in a display device according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a process of enlarging or reducing the three-dimensional image data according to an embodiment of the present invention.
  • FIG. 7 illustrates a first user interface for receiving an enlargement or reduction command and a second user interface for receiving a depth adjustment command according to an embodiment of the present invention.
  • FIG. 8 shows an embodiment of storage means for storing a depth value corresponding to an enlargement ratio in accordance with an embodiment of the present invention.
  • FIG 9 illustrates a process of enlarging or reducing three-dimensional image data according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an embodiment of three-dimensional image data which has been enlarged or reduced in accordance with one embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a process of enlarging or reducing three-dimensional image data according to a user's position change according to another embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an embodiment of determining a user position change value according to the present invention.
  • FIG. 13 is a diagram illustrating an embodiment in which an enlarged or reduced area and a depth value are determined according to a position change value of a user in a display device according to the present invention
  • FIG. 14 is a diagram for one embodiment of storing an enlargement or reduction ratio and a depth value corresponding to a position change value of a user according to one embodiment of the present invention.
  • 15 is a flowchart illustrating a process of performing image processing of 3D image data in a display device according to another embodiment of the present invention.
  • 16 is a diagram illustrating a process of overscanning 3D image data according to an embodiment of the present invention.
  • FIG. 17 illustrates an embodiment of outputting overscanned left image data and right image data in a 3D format according to the present invention
  • FIG. 18 is a diagram illustrating a result of overscanning each of left image data and right image data and outputting them in 3D format according to one embodiment of the present invention.
  • FIG. 19 is a block diagram illustrating a configuration of a display device according to an embodiment of the present invention.
  • FIG. 20 is a block diagram illustrating a display device according to another embodiment of the present invention.
  • 21 is a view showing the configuration of shutter glasses according to an embodiment of the present invention.
  • the present invention relates to an image processing method of a display device for outputting 3D content and a display device employing the method, which will be described below in more detail with reference to the accompanying drawings.
  • FIG. 1 is a view showing an embodiment of a display device for providing three-dimensional content according to the present invention.
  • the method of wearing glasses is divided into a passive method and an active method.
  • the passive method distinguishes between a left image and a right image by using a polarization filter.
  • wearing both blue and red sunglasses on both eyes is also passive.
  • the active method is a method of dividing left and right eyes using a liquid crystal shutter, and distinguishing left and right images by sequentially covering the left eye (left eye) and right eye (right eye) in time.
  • the active method is a method of periodically wearing a timed screen and wearing glasses that have electronic shutters synchronized with the period, and may be referred to as a time split type or shuttered glass method.
  • Representatives known as a glasses-free method without wearing glasses include a lenticular method in which a lenticular lens plate in which a cylindrical lens array is vertically arranged in front of the image panel, and a periodic slit in the upper part of the image panel.
  • FIG. 1 illustrates an exemplary embodiment of a stereoscopic type among 3D display methods and an active type among the stereoscopic methods.
  • the shutter glasses are described as an example of the active type media, the present invention is not limited thereto, and it is apparent that the present invention can be applied to other media as described below.
  • a display device configured to output 3D image data on a display unit and to synchronize the 3D image data output when watching the shutter glasses 200.
  • a synchronization signal Vsync related to 3D image data is generated and output to an IR emitter (not shown) in the shutter glasses, so that the shutter glasses 200 can watch in synchronization with the display.
  • the shutter glasses 200 adjusts the open period of the left-eye or right-eye shutter liquid crystal panel according to a synchronization signal received through an IR emitter (not shown), thereby outputting the three-dimensional image data 300 output from the display unit 100. Can be motivated.
  • the display device processes the three-dimensional image data using the principle of the stereoscopic method. That is, when one object is photographed by two cameras of different positions, the left image data and the right image data are generated, and each generated image data is inputted separately so as to be orthogonal to each other in the left and right eyes of the person. It is a principle that the 3D image is generated by combining the image data inputted into the left and right eyes of the brain. In the above, the fact that the image data is arranged to be orthogonal to each other means that each image data does not interfere with each other.
  • FIG. 2 is a diagram illustrating perspective according to a gap or parallax (hereinafter, referred to as a gap) between the left image data and the right image data.
  • FIG. 2 (a) illustrates an upper position 203 where both of the above data are combined when the distance between the right image data 201 and the left image data 202 is narrow
  • FIG. 2 (b) illustrates the right image data ( 211 and the left image data 212, the position of the upper image 213 is described.
  • 2 (a) to 2 (b) show the degree of perspective at which different images are formed at different positions according to the interval between the left image data and the right image data in the image signal processing apparatus.
  • the upper side draws extension lines R1 and R2 facing one side and the other side of the right image data 201 to the right eye, and the one side and the other side of the left image data 202 to the left eye.
  • the extension line R1 for the right image data and the extension line L1 for the left image data intersect each other at a distance d1 from the right eye and the left eye at a distance 203. Bears.
  • the image is based on the foregoing description in FIG. 2A, and the extension line R3 for the right image data and the extension line L3 for the left image data have a predetermined distance from the right eye and the left eye. at point 213 crossing each other at d2).
  • the distance d1 is greater from the left eye to the right eye than d2. far. That is, the image in Fig. 2 (a) is formed at a distance farther from the left and right eyes than the image in Fig. 3 (b).
  • the interval between the right image data 201 and the left image data 202 in FIG. 2A is the interval between the right image data 203 and the left image data 204 in FIG. 2B. Relatively narrow compared with
  • the 3D image data may be implemented in 3D by various methods such as giving a tilt to a depth or giving a 3D effect.
  • a method of giving depth among the above methods Briefly describe.
  • FIG. 3 is a diagram illustrating an example of a method of implementing a 3D image in a display device in relation to the present invention.
  • the distance between the left image data 301 and the right image data 302 constituting the three-dimensional image is narrow.
  • the left image constituting the three-dimensional image This is the case where the interval between the data 304 and the right image data 305 is wide.
  • the 3D image implemented according to the interval of each image data in FIGS. 3 (a) and 3 (b) is based on the principle of FIG. 2 described above, and the 3D image 303 implemented in FIG. 3D image 306 implemented in FIG. 3 (b) is closer to the human eye, that is, the image is more prominent near the human eye. That is, by adjusting the distance between the left image data and the right image data constituting the three-dimensional image, it is possible to give an appropriate depth to the three-dimensional image.
  • FIG. 4 is a diagram illustrating formats of a 3D video signal including the left image data and the right image data as described above.
  • 3D content or 3D video signals may be classified into various types.
  • Left and right image data are generated by photographing one object with two cameras at different positions.
  • Side by side format (401) for inputting the generated left image data and the right image data separately so that they are orthogonal to each other in the left eye and the right eye, respectively,
  • FIG. 5 is a flowchart illustrating a process of image processing 3D image data in a display device according to an embodiment of the present invention.
  • the display device determines the format of 3D image data to be output.
  • format information of the 3D image data may be received from the external input source, and the module includes a module for determining the format of the 3D image data inside the display device.
  • the format of the 3D image data to be output in the corresponding module may be determined.
  • a format of 3D image data may be selected by a user.
  • the format of the 3D image data determined according to the embodiment may be determined as one of a side by side format, a checker board format, and a frame sequential format.
  • step S502 the display device classifies the left image data and the right image data of the 3D image data according to the format information of the 3D image data determined in step S501.
  • the left region may be determined as the left image data
  • the right region may be determined as the right image data
  • the display apparatus processes the left image data and the right image data of the 3D image data, respectively.
  • various processes related to the output of the 3D image data may be applied to the image processing.
  • overscan is applied to the 3D image data to be output, the left image data is overscanned and the right image data is processed.
  • Can overscan is applied to the 3D image data to be output.
  • the display device may enlarge or reduce the left image data, and enlarge or reduce the right image data.
  • the display apparatus outputs the image processed left image data and the right image data in a 3D format with a predetermined depth value.
  • the depth value at which the left image data and the right image data are output may be a previously stored value, a value determined in an image processing process, or a value input by a user.
  • the display device receives a depth adjustment command, and then shifts the image processed left image data and right image data by pixel shifting to the depth adjustment command. It can output with the corresponding depth value.
  • FIG. 6 is a flowchart illustrating a process of enlarging or reducing the three-dimensional image data according to an embodiment of the present invention.
  • the display device determines whether an enlargement command or a reduction command for 3D image data is received.
  • the magnification command or the reduction command for the 3D image data may be input from the user through the first user interface, or may be input through the remote control apparatus.
  • the user when the user's location changes, the user may sense the location change and set the sensed location change value as an enlargement or reduction command.
  • step S601 when an enlargement command or a reduction command for the 3D image data is received, the display device determines an enlargement ratio or a reduction ratio corresponding to the enlargement command or the reduction command in step S602.
  • the display device determines an enlarged or reduced area of the 3D image data.
  • the area to be enlarged or reduced in the 3D image data may be designated by the user. If there is no user specification, the preset area may be determined as the enlarged or reduced area. In addition, according to an embodiment, it may be designated according to a user's location change value.
  • step S604 the display device enlarges or reduces each of the enlarged or reduced areas in the left image data and the right image data of the 3D image data at a determined enlargement ratio or reduction ratio.
  • step S605 the display device determines whether a depth adjustment command has been received.
  • the depth adjustment command for the 3D image data may be input from the user through the second user interface, or may be input through the remote control apparatus.
  • a first user interface for receiving an enlargement command or a reduction command for 3D image data and a second user interface for receiving a depth adjustment command for the 3D image data may be output on one display screen.
  • the user may select an enlargement or reduction ratio in the first user interface and select a depth value to be output in the second user interface.
  • step S607 the display device determines a depth value corresponding to the enlargement ratio or the reduction ratio.
  • depth values corresponding to each of the plurality of enlargement ratios or reduction ratios may be preset and stored in storage means included in the display device.
  • depth values corresponding to each enlargement ratio or reduction ratio may be set to a constant value, or may be set to different values.
  • the depth value at which the enlarged region is output may also be set to a value closer to the user.
  • step S608 the display device outputs left image data and right image data that have been enlarged or reduced to the depth value determined in step S607 in a 3D format.
  • step S605 If it is determined in step S605 that the depth adjustment command has been received, the display device outputs the enlarged or reduced left image data and the right image data as a depth value corresponding to the depth adjustment command in step S606. do.
  • FIG. 7 illustrates a first user interface for receiving an enlargement or reduction command and a second user interface for receiving a depth adjustment command according to an embodiment of the present invention.
  • a display device may provide a first user interface 701 that receives an enlargement command or a reduction command for 3D image data and a depth adjustment command for the 3D image data.
  • the input second user interface 702 may be output on the display screen.
  • only the first interface 701 may be output on the display screen or only the second user interface 702 may be output on the display screen.
  • the user may select an enlargement or reduction ratio in the first user interface 701 and select a depth value to be output from the second user interface 702. have.
  • the area 703 to be enlarged or reduced in the 3D image data may be designated in various ways.
  • the area 703 may be designated by a predetermined pointer through a remote control device, or may be detected by detecting a change in the position of a user to be described later. It is also possible to designate an enlarged or reduced area 703 corresponding to the change.
  • a predetermined area for example, a center area of the 3D image
  • it may be designated according to a user's location change value.
  • the display device When the enlargement or reduction ratio is selected in the first user interface 701, the left image data and the right image data of the 3D image data are enlarged and reduced, respectively, as described above, and the depth adjustment command is executed by the user selecting the depth value. If it is determined that the image is received, the display device outputs the left image data and the right image data, which are enlarged or reduced in accordance with the enlargement or reduction ratio, as a depth value corresponding to the depth adjustment command.
  • the present invention has an effect of allowing the user to select the depth value with the enlargement or reduction of the 3D image data so that the user can conveniently use the 3D image data.
  • the display device may further output a third user interface 703 that can set the transparency of the 3D image data, along with the reduction, enlargement, and depth adjustment.
  • a third user interface 703 can set the transparency of the 3D image data, along with the reduction, enlargement, and depth adjustment.
  • the selected transparency may be applied to the left image data and the right image data which are enlarged or reduced.
  • FIG. 8 is a view showing an embodiment of a storage means for storing a depth value corresponding to an enlargement ratio according to an embodiment of the present invention.
  • a display device may set a depth value corresponding to an enlargement ratio or a reduction ratio.
  • the depth value 802 corresponding to each of the plurality of enlargement ratios or reduction ratios 801 may be preset and stored in storage means included in the display device.
  • depth values corresponding to each enlargement ratio or reduction ratio 801 may be set to a constant value, or may be set to different values. For example, as the enlargement ratio increases, the depth value at which the enlarged region is output may also be set to a value closer to the user.
  • the display device may also store pixel number information 803 in which left image data and right image data should be shifted in order to adjust the depth value.
  • the transparency information 804 corresponding to the enlargement or reduction ratio 801 may be stored.
  • the display device determines the enlargement ratio or reduction ratio 801 and applies the enlargement ratio or reduction ratio 801 to the left image data and the right image data.
  • the 3D image data may be output as the depth value 802 corresponding to the enlargement ratio or the reduction ratio by moving the left image data and the right image data to the pixel shift value corresponding to the determined enlargement ratio or reduction ratio 801. have.
  • FIG. 9 is a diagram illustrating a process of enlarging or reducing three-dimensional image data according to an embodiment of the present invention.
  • an enlargement process will be described as an example, and a process of reducing may be processed in the following manner.
  • the display device may include an enlarged area 901 of the left image data of the 3D image data and an enlarged area of the right image data ( 902 is enlarged at an enlargement ratio.
  • the display apparatus pixel shifts the enlarged left image data 903 and the right image data 904.
  • the adjusted depth value may be received from the second user interface, and it may be determined according to the enlargement ratio as described above.
  • the left image data 903 may be pixel shifted by the pixel d1 in the left direction
  • the right image data 904 may be pixel shifted by the pixel d1 in the right direction.
  • pixel shifted left image data 905 and pixel shifted right image data 906 are output as three-dimensional image data.
  • the display device may output the 3D image data in at least one of line by line, frame sequential, and checker board methods using the determined format information of the 3D image data.
  • the format of the 3D image data is converted according to the output method of the display device, and the 3D image data of the converted format is output.
  • the 3D image data of line by line, top and bottom, and side by side methods may be converted into a frame sequential method and then output. Can be.
  • FIG. 10 is a diagram illustrating an embodiment of three-dimensional image data that has been enlarged or reduced in accordance with one embodiment of the present invention.
  • an enlarged or reduced selected area of the 3D image data may be enlarged or reduced, and may be output after being adjusted for depth.
  • the area 1001 enlarged and selected from the original three-dimensional image data may be enlarged and each of the corresponding areas of the left image data and the right image data, and may be output as shown by reference numeral 1002.
  • the original 3D image data 1001 may also be output as it is before being enlarged or reduced in some embodiments.
  • the enlarged 3D image data 1002 may be the original 3D image data 1001. Transparency can be adjusted and output so that can be seen together.
  • the present invention when performing image processing on the 3D image data, by adjusting the depth value for the 3D image data together to make the image processed area appear more prominent, the user can see the 3D image data It has the effect of making it more convenient to use.
  • FIG. 11 is a diagram illustrating a process of enlarging or reducing 3D image data according to a change in a user's position according to another exemplary embodiment of the present invention.
  • the display apparatus determines whether the user selects a predetermined mode (for example, a dynamic zoom function) in which the enlargement or reduction function is adjusted according to the user position. To judge.
  • a predetermined mode for example, a dynamic zoom function
  • step S1101 when the user selects the corresponding function, the display device determines the location of the user in step S1102.
  • the method for determining the user location according to the present invention can be implemented in various ways, when the display device of the present invention is a glasses-free method, to detect the user location in the sensor included in the display device to generate the location information
  • the display device of the present invention is an eyeglass type
  • the position of the shutter eyeglasses may be sensed or the position information of the shutter eyeglasses may be obtained by receiving the position information from the shutter eyeglasses.
  • the shutter glasses sense the information for detecting the user's position by the position sensor, and then transmit the sensed sensing information to the display device, and the display device receives the sensing information sensed by the shutter glasses and receives the received information.
  • the position of the shutter glasses, that is, the user position may be determined using the sensed information.
  • the position of the shutter glasses may be determined by detecting an IR signal transmitted from the shutter glasses to calculate a distance from the x, y, and z axes.
  • the location of the user may be determined.
  • the position of the shutter glasses may be determined by analyzing image data of the IR transmission module photographed by the IR camera.
  • the positions of the shutter glasses may be determined by analyzing images of the plurality of IR transmitting modules from the images photographed by the shutter glasses, and the positions of the shutter glasses may be used as the user position. .
  • step S1103 If the location of the user is changed as a result of the determination in step S1103, the display device determines the location change value of the user in step S1104.
  • the display device determines an enlargement ratio or a reduction ratio of the 3D image data according to the determined position change value, and determines an enlargement or reduction region in step S1106.
  • the display device senses a user's position at predetermined time intervals, and when the sensed user's position is changed, generates a vector value corresponding to the position change value, and enlarges in response to the vector value. You can determine the ratio or reduction ratio and the area to be enlarged or reduced.
  • the display apparatus determines the depth value corresponding to the enlargement or reduction ratio in step S1107.
  • the depth value corresponding to the enlargement or reduction ratio may be stored in advance in the storage means as described with reference to FIG. 8.
  • the display apparatus enlarges or reduces the determined enlarged or reduced area of the left image data and the right image data of the 3D image data according to the determined enlargement ratio or reduction ratio, respectively, and corresponds to the enlargement or reduction ratio.
  • the 3D format is output at the depth value.
  • 12 is a diagram illustrating an embodiment of determining a user position change value according to the present invention. 12 illustrates an example of 3D image data 1210 outputted in a spectacles method.
  • the display device 1200 includes a predetermined position sensor 1201 to determine whether the position of the shutter glasses 1220 is changed.
  • the shutter glasses 1220 and 1230 may include a predetermined IR output unit or IR sensors 1202 and 1203 so that the display apparatus 1200 may determine the position thereof.
  • the display apparatus 1200 may generate a vector value 1204 corresponding to the position change value.
  • FIG. 13 is a diagram illustrating an embodiment of determining an enlarged or reduced area and a depth value according to a change in position of a user in a display device according to the present invention.
  • the display device determines the size d2 and the direction of the vector value 1204 corresponding to the user's position change value, and determines the size and the direction of the vector value 1204.
  • the depth value of the area to be enlarged or reduced and the area to be enlarged or reduced is determined accordingly.
  • the predetermined area 1310 of the 3D image data 1210 corresponding to the direction of the vector value is determined, and the area is determined as an area to be enlarged or reduced. In addition, it may be determined whether to enlarge or reduce according to the direction of the vector value.
  • the 3D image data may be determined to be enlarged, and when the vector value is a direction away from the display device, the 3D image data may be reduced.
  • the enlargement or reduction ratio can be determined according to the magnitude d2 of the vector value, and the enlargement or reduction ratio corresponding to each vector value magnitude can be stored in advance in the storage means.
  • FIG. 14 is a diagram illustrating an embodiment of storing an enlargement or reduction ratio and a depth value corresponding to a position change value of a user according to an embodiment of the present invention.
  • a display device may correspond to an enlargement or reduction ratio 1402 and a position change value corresponding to a position change value of a user (for example, a changed distance, 1401).
  • the depth value 1403 may be stored in advance.
  • the pixel shift value 1404 to be shifted and the transparency value 1405 corresponding to the enlargement or reduction ratio may be additionally stored to output the area to be enlarged or reduced in the 3D image data as the depth value 1403. .
  • the present invention has an effect of providing a more dynamic enlargement reduction function by determining an area to include an enlargement or reduction and an enlargement or reduction ratio according to a change in the position of the user. For example, in consideration of the direction and distance that the user is approaching, the corresponding area is enlarged and the depth is closer to the user so that the user can feel more realistic 3D image including 3D image data. It works.
  • 15 is a flowchart illustrating a process of image processing 3D image data in a display device according to another embodiment of the present invention.
  • the display device determines whether overscan is set when outputting 3D image data in step S1501.
  • the overscan means to scale and output an edge region of the video signal after the edge region of the video signal is removed in order to prevent a phenomenon in which image quality is filmed when noise is present at the edge of the video signal.
  • the overscan setting may be preset in the display device according to the type of 3D image data or the type of source providing the 3D image data, and whether or not the user directly overscans the 3D image data to be output from a predetermined user interface. You can also set
  • the display device determines a format of the 3D image data.
  • the process of determining the format of the 3D image data has been described above with reference to FIGS. 5 and 6.
  • format information of the 3D image data may be received from the external input source, and includes a module that determines the format of the 3D image data inside the display device.
  • the format of the 3D image data output from the corresponding module may be determined.
  • a format of 3D image data may be selected by a user.
  • the format of the 3D image data may be determined as one of a side by side format, a checker board format, and a frame sequential format.
  • step S1503 the display device classifies the left image data and the right image data of the 3D image data according to the format information of the 3D image data determined in step S1501.
  • the left region may be determined as the left image data
  • the right region may be determined as the right image data
  • the display apparatus overscans the left image data and the right image data of the 3D image data, and then outputs the overscanned left image data and the right image data in the 3D format.
  • the depth value at which the left image data and the right image data are output may be a previously stored value, a value determined in an image processing process, or a value input by a user.
  • the display device receives a depth adjustment command, and then, after receiving the depth adjustment command, a depth corresponding to the depth adjustment command of the image processed left image data and right image data. Can be output as a value.
  • the display device just scans and outputs the 3D image data in step S1506.
  • the just scan refers to minimizing and outputting an operation process on an image signal without performing overscan.
  • 16 is a diagram illustrating a process of overscanning 3D image data according to an embodiment of the present invention.
  • the display device after determining the format of the 3D image data 1601 and 1602, the display device according to an embodiment of the present disclosure classifies the left image data and the right image data according to the format determination result. Each of the left image data and the right image data is overscanned.
  • the left region may be determined as the left image data
  • the right region may be determined as the right image data
  • the left image data is overscanned, the right image data is overscanned, and the overscanned left image data 1602 and the right image data 1603 are output in 3D format.
  • the format of the 3D image data 1604 is a top-and-bottom method
  • the overscanned left image data 1605 and the right image data 1606 are output in 3D format.
  • the overscan area is determined using the determination result, and the overscan process is performed.
  • the 3D image data 1608 may be output in a 3D format.
  • the overscan area 1608 may determine that the order of the left image data and the right image data is not changed so that an error does not occur in outputting the 3D image data by overscan.
  • the left image data and the right image data which are sequentially input may be determined, and the 3D format may be output after overscanning the 1616 and 1611 respectively. Can be.
  • 17 is a diagram illustrating an embodiment of outputting overscanned left image data and right image data in a 3D format according to the present invention.
  • a display device outputs overscanned left image data 1701 and right image data 1702 as 3D image data 1703.
  • the display device may output the 3D image data in at least one of line by line, frame sequential, and checker board methods using the determined format information of the 3D image data.
  • the format of the 3D image data is converted according to the output method of the display device, and the 3D image data of the converted format is output.
  • the 3D image data of line by line, top and bottom, and side by side methods may be converted into a frame sequential method and then output. Can be.
  • FIG. 18 is a diagram illustrating a result of overscanning each of left image data and right image data and outputting them in a 3D format according to an embodiment of the present invention.
  • the 3D image data 1801 in which the 3D image data 1800 itself is overscanned by the prior art the alignment of the left image data 1803 and the right image data 1804 is not performed correctly.
  • Deterioration of the dimensional image data occurs or there is a problem that is not output in 3D at all, according to the present invention, after performing the left overscan of the left image data and the right image data, respectively, by outputting the 3D format, left image data And the right image data is correctly aligned, and after overscanning the 3D image data 1802, the 3D image data can be output in a 3D format as well as the noise can be output in high quality. have.
  • a display device outputs 3D image data in accordance with a format and an image processor 1501 for processing 3D image data according to a panel of a display unit and a user setting.
  • the display device outputs a scaler 1503 for image-processing each of the left image data and the right image data of the 3D image data, and outputs the processed left image data and the right image data in a 3D format at a predetermined depth value. It may be configured to include a formatter 1505, a user input unit 1506 for receiving a depth adjustment command for the 3D image data. In some embodiments, the image processing may include overscan processing.
  • the output formatter 1505 outputs the image processed left image data and right image data in a 3D format with a depth value corresponding to the depth adjustment command.
  • the scaler 1503 enlarges or reduces each of the left image data and the right image data of the 3D image data at an enlargement ratio or a reduction ratio corresponding to an enlargement command or a reduction command for the 3D image data. can do.
  • the application controller 1507 may display a first user interface for receiving an enlargement command or a reduction command for 3D image data and a second user interface for receiving a depth adjustment command for the 3D image data. ), And the user input unit 1506 may receive an enlargement command, a reduction command, and a depth adjustment command. In addition, the user input unit 1506 may be designated as an enlarged or reduced area of the 3D image data.
  • the FRC 1504 adjusts the frame rate of three-dimensional image data to the output frame rate of the display device.
  • the scaler 1503 enlarges or reduces the designated enlarged or reduced area of the left image data and the right image data of the 3D image data according to the enlargement ratio or the reduction ratio, respectively.
  • the output formatter 1505 outputs the enlarged or reduced processed left image data and right image data in a 3D format.
  • the output formatter 1505 may output the enlarged or reduced processed left image data and the right image data as a depth value corresponding to the enlarged ratio or reduced ratio, or the user input unit 1506 may output three-dimensional image data.
  • the output formatter 1505 may output the enlarged or reduced left image data and the right image data as a depth value corresponding to the depth adjustment command.
  • the display device further includes a position determination module 1508 for determining a position change value of the user
  • the scaler 1503 further includes an enlargement ratio or a reduction ratio for the 3D image data according to the determined position change value.
  • the enlarged or reduced area may be determined, and the enlarged or reduced area of the left image data and the right image data of the 3D image data may be enlarged or reduced, respectively, according to the determined enlargement ratio or reduction ratio.
  • the position determination module 1508 senses the position of the user at predetermined time intervals, and when the position of the sensed user is changed, generates a vector value corresponding to the position change value, and the scaler 1503 is performed. An enlargement ratio or a reduction ratio and an enlargement or reduction region may be determined corresponding to the vector value.
  • 20 is a block diagram illustrating a display device according to another embodiment of the present invention. 20 is a block diagram showing the configuration when the display device of the present invention is a digital broadcast receiver.
  • the digital broadcast receiver includes a tuner 101, a demodulator 102, a demultiplexer 103, a signaling information processor 104, an application controller 105, a storage 108, The external input receiver 109, the decoder / scaler 110, the controller 115, the mixer 118, the output formatter 119, and the display 120 may be configured.
  • the digital broadcast receiver may further include other necessary components in addition to the configuration shown in FIG. 20.
  • the tuner 101 tunes a specific channel to receive a broadcast signal including content.
  • the demodulator 102 demodulates the broadcast signal input from the tuner 101.
  • the demultiplexer 103 demultiplexes an audio signal, a video signal, and signaling information from the demodulated broadcast signal.
  • the demultiplexing may be performed through PID (Packet IDentifier) filtering.
  • PID Packet IDentifier
  • the signaling information will be described below using System Information (SI) information such as PSI / PSIP (Program Specific Information / Program and System Information Protocol) as an example for convenience of description.
  • SI System Information
  • the demultiplexer 103 outputs the demultiplexed audio signal / video signal to the decoder / scaler 110 and the signaling information to the signaling information processor 104.
  • the signaling information processor 104 processes the demultiplexed signaling information and outputs the demultiplexed signaling information to the application controller 105, the controller 115, and the mixer 118.
  • the signaling processor 104 may include a database (not shown) for temporarily storing the processed signaling information.
  • the application control unit 105 includes a channel manager 106 and a channel map 107.
  • the channel manager 106 may form and manage the channel map 107 based on the signaling information, and control the channel map 107 to be switched based on the channel map 107 according to a user input.
  • the decoder / scaler 110 includes a video decoder 111, an audio decoder 112, a scaler 113, and a video processor 114.
  • the video decoder / audio decoders 111 and 112 receive and process demultiplexed audio signals and video signals.
  • the scaler 113 scales the signal processed by the decoders 111/112 into a signal of an appropriate magnitude for output.
  • the user input unit 123 may include a user input unit (not shown) that receives a key input of a user or the like through a remote controller.
  • the application controller 105 may further include an OSD data generator (not shown) for configuring the UI.
  • the OSD data generator may generate OSD data for UI configuration under the control of the application controller 105.
  • the display 120 outputs content, a UI, and the like.
  • the mixer 118 mixes and outputs inputs of the signaling processor 104, the decoder / scaler 110, and the application control unit 105.
  • the output formatter 119 configures the output of the mixer 118 according to the output format of the display unit.
  • the output formatter 119 bypasses, for example, 2D content, and processes the 3D content in 3D format according to the format and the output frequency of the display unit 120 under the control of the controller 115. Can work as a 3D formatter.
  • the output formatter 119 outputs 3D image data to the display unit 120 and synchronizes the 3D image data with the configured 3D image data so that the 3D image data is synchronized with the shutter glasses 121.
  • (Vsync) is generated and output to an IR emitter (not shown) in the shutter glasses so that the shutter glasses 121 can watch in synchronization with the display.
  • the digital broadcast receiver further includes a scaler (not shown) for image processing the left image data and the right image data of the 3D image data, and the output formatter 119 includes the processed left image data and the right image.
  • Image data is output in 3D format at a predetermined depth value.
  • the user input unit 123 receives a depth adjustment command for 3D image data.
  • the output formatter 119 outputs the image processed left image data and right image data as a depth value corresponding to the depth adjustment command.
  • the scaler (not shown) enlarges or enlarges each of the left image data and the right image data of the 3D image data at an enlargement ratio or reduction ratio corresponding to an enlargement command or a reduction command for the 3D image data. Can be reduced.
  • the application controller 105 may display a first user interface for receiving an enlargement command or a reduction command for 3D image data and a second user interface for receiving a depth adjustment command for the 3D image data. ), And the user input unit 123 may receive an enlargement command, a reduction command, or a depth adjustment command. In addition, the user input unit 1506 may be designated as an enlarged or reduced area of the 3D image data.
  • a scaler (not shown) enlarges or reduces the designated enlarged or reduced area of the left image data and the right image data of the 3D image data according to the enlargement ratio or the reduction ratio, respectively.
  • the output formatter 119 outputs the enlarged or reduced processed left image data and right image data in a 3D format.
  • the output formatter 119 may output the enlarged or reduced processed left image data and the right image data as a depth value corresponding to the enlarged ratio or reduced ratio, or the user input unit 123 may output three-dimensional image data.
  • the output formatter 119 may output the enlarged or reduced left image data and the right image data as a depth value corresponding to the depth adjustment command.
  • the display apparatus further includes a position determination module 122 for determining a position change value of the user, and a scaler (not shown) may enlarge or reduce the enlargement ratio of the 3D image data according to the determined position change value.
  • the ratio and the enlarged or reduced area may be determined, and the enlarged or reduced area of the left image data and the right image data of the 3D image data may be enlarged or reduced according to the determined enlarged ratio or reduced ratio, respectively.
  • the position determination module 122 senses the position of the user at predetermined time intervals, and if the position of the sensed user is changed, generates a vector value corresponding to the position change value, and scales (not shown) ) May determine an enlargement ratio or a reduction ratio and an enlargement or reduction region corresponding to the vector value.
  • the IR emitter receives the sync signal generated by the output formatter 119 and outputs the sync signal to the light receiving unit (not shown) in the shutter glasses 121, and the shutter glasses 150 pass through the IR emitter (not shown) through the light receiving unit.
  • 21 is a diagram illustrating a configuration of shutter glasses according to an embodiment of the present invention.
  • the shutter glasses include a left eye shutter liquid crystal panel 1100 and a right eye shutter liquid crystal panel 1130.
  • the shutter liquid crystal panels 1100 and 1130 may simply pass or block light according to the source driving voltage.
  • the left eye shutter liquid crystal panel 1100 passes light and the right eye shutter liquid crystal panel 1130 blocks light transmission, so that the left image data is transmitted only to the left eye of the user of the shutter glasses. do.
  • the right image data is displayed on the display device, the left eye shutter liquid crystal panel 1100 blocks light transmission, and the right eye shutter liquid crystal panel 1130 passes light so that the right image data is transmitted only to the right eye of the user.
  • the left eye shutter liquid crystal panel 1100 blocks light transmission
  • the right eye shutter liquid crystal panel 1130 passes light so that the right image data is transmitted only to the right eye of the user.
  • the infrared receiver 1160 of the shutter glasses converts the infrared signal received from the display device into an electrical signal and provides the converted signal to the controller 1170.
  • the controller 1170 controls the left eye shutter liquid crystal panel 1100 and the right eye shutter liquid crystal panel 1130 to be alternately turned on and off according to the synchronization reference signal.
  • the shutter glasses may pass or block light to the left eye shutter liquid crystal panel 1100 or the right eye shutter liquid crystal panel 1130 according to a control signal received from the display device.
  • the present invention allows the user to select the depth value with the enlargement or reduction of the 3D image data so that the user can conveniently use the 3D image data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 더욱 상세하게는 3차원 컨텐츠를 출력하는 디스플레이 기기에서 3차원 이미지 데이터의 좌이미지 데이터와 우이미지 데이터 각각을 영상 처리하여 3D 포맷 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것이다.

Description

3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 더욱 상세하게는 3차원 컨텐츠를 출력하는 디스플레이 기기에서 3차원 이미지 데이터의 좌이미지 데이터와 우이미지 데이터 각각을 영상 처리하여 3D 포맷 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것이다.
현재 방송 환경은 아날로그 방송에서 디지털 방송으로의 전환이 급속히 이루어지고 있다. 이와 함께 종래 아날로그 방송에 비하여 디지털 방송을 위한 컨텐츠의 양이 많이 증가하고 있으며 그 종류도 매우 다양해지고 있다. 특히, 최근에는 2차원(2-dimensional: 2D)의 컨텐츠에 비해 보다 현실감과 입체감을 주는 3차원(3-dimensional: 3D) 컨텐츠에 대한 관심이 증가하였으며 많이 제작되고 있다.
그런데, 종래 기술의 디스플레이 기기의 경우 3차원 컨텐츠의 영상을 처리하는 방법이 개발되지 않거나, 2차원 컨텐츠에 적용하던 영상 처리 방식을 3차원 컨텐츠에 그대로 적용함으로써, 사용자가 3차원 컨텐츠를 정상적으로 시청할 수 없는 문제점이 있었다.
따라서, 이러한 종래 기술의 문제점을 해결하여, 3차원 이미지 데이터를 영상 처리하여 고화질의 이미지 데이터를 제공하고, 사용자가 3차원 이미지 데이터를 편리하게 시청하고, 이용할 수 있도록 하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 개발의 필요성이 요청되고 있다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하여, 3차원 이미지 데이터를 영상 처리하여 고화질의 3차원 이미지 데이터를 제공하고, 사용자가 3차원 이미지 데이터를 편리하게 시청하고, 이용할 수 있도록 하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기를 제공하는 것을 그 목적으로 한다.
본 발명의 일실시예에 따른 3D 디스플레이 기기의 영상 처리 방법은 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 단계; 및 상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 실시예에 따른 3D 디스플레이 기기의 영상 처리 방법은 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 영상 처리하는 단계; 및 상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 또 다른 실시예에 따른 3D 디스플레이 기기는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 스케일러; 및 상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 출력 포맷터를 포함하는 것을 특징으로 한다.
또한, 본 발명의 또 다른 실시예에 따른 3D 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 영상 처리하는 스케일러; 및 상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 출력 포맷터를 포함하는 것을 특징으로 한다.
본 발명은 사용자가 3차원 이미지 데이터의 확대 또는 축소와 함께 뎁스값을 선택할 수 있도록 하여 사용자가 3차원 이미지 데이터를 편리하게 이용할 수 있도록 하는 효과가 있다.
또한, 본 발명은 3차원 이미지 데이터에 대한 영상처리를 수행할 경우, 3차원 이미지 데이터에 대한 뎁스값을 함께 조정하여 영상 처리된 영역이 좀 더 부각되어 보이도록 함으로써, 사용자가 3차원 이미지 데이터를 좀더 편리하게 사용할 수 있도록 하는 효과가 있다.
또한, 본 발명은 사용자의 위치 변화에 따라 확대 또는 축소를 포함할 영역 및 확대 또는 축소 비율을 결정함으로써, 더욱 다이내믹한 확대 축소 기능을 제공할 수 있는 효과가 있다.
또한, 본 발명은 좌이미지 데이터 및 우이미지 데이터의 오버스캔을 각각 수행한 후, 3D 포맷 출력함으로써, 좌이미지 데이터 및 우이미지 데이터의 정렬이 정확하게 수행되어, 3차원 이미지 데이터를 오버스캔한 후 3D 포맷으로 출력할 수 있음은 물론 노이즈가 제거된 고화질로 3차원 이미지 데이터를 출력될 수 있는 효과가 있다.
도 1은 본 발명에 따라 3차원 컨텐츠를 제공하는 디스플레이 기기의 일실시예를 도시한 도면.
도 2은 좌 이미지 데이터와 우 이미지 데이터의 간격 또는 시차(이하 간격이라 함)에 따른 원근감을 설명하기 위해 도시한 도면.
도 3은 본 발명과 관련하여, 디스플레이 기기에서 3차원 이미지를 구현하는 방법의 일 예를 설명하기 위해 도시한 다이어그램.
도 4는 상기와 같은 좌 이미지 데이터와 우 이미지 데이터를 포함한 3차원 영상 신호의 포맷들을 도시한 도면.
도 5는 본 발명의 일실시예에 따라 디스플레이 기기에서 3차원 이미지 데이터를 영상 처리하는 과정을 도시한 흐름도.
도 6은 본 발명의 일실시예에 따라 3차원 이미지 데이터에 확대 또는 축소처리하는 과정을 도시한 흐름도.
도 7은 본 발명의 일실시예에 따라 확대 또는 축소 명령을 입력받는 제1 사용자 인터페이스, 뎁스조정 명령을 입력받는 제2 사용자 인터페이스를 도시한 도면.
도 8은 본 발명의 일실시예에 따라 확대 비율에 대응하는 뎁스값을 저장하는 저장 수단의 일실시예를 도시한 도면.
도 9는 본 발명의 일실시예에 따라 3차원 이미지 데이터를 확대 또는 축소하는 과정을 도시한 도면.
도 10은 본 발명의 일실시예에 따라 확대 또는 축소 처리된 3차원 이미지 데이터의 일실시예를 도시한 도면.
도 11은 본 발명의 다른 실시예에 따라 사용자의 위치 변화에 따라 3차원 이미지 데이터를 확대 또는 축소 처리하는 과정을 도시한 도면.
도 12는 본 발명에 따라 사용자 위치 변화값을 판단하는 일실시예를 도시한 도면.
도 13은 본 발명에 따른 디스플레이 기기에서 사용자의 위치 변화값에 따라 확대 또는 축소 영역 및 뎁스값을 판단하는 일실시예를 도시한 도면.
도 14는 본 발명의 일실시예에 따라 사용자의 위치 변화값에 대응되는 확대 또는 축소 비율 및 뎁스값을 저장하는 일실시예를 도시한 도면.
도 15는 본 발명의 다른 일실시예에 따라 디스플레이 기기에서 3차원 이미지 데이터를 영상 처리하는 과정을 도시한 흐름도.
도 16은 본 발명의 일실시예에 따라 3차원 이미지 데이터를 오버스캔 처리하는 과정을 도시한 도면.
도 17은 본 발명의 오버스캔 처리된 좌이미지 데이터 및 우이미지 데이터를 3D 포맷으로 출력하는 일실시예를 도시한 도면.
도 18은 본 발명의 일실시예에 따라 좌이미지 데이터 및 우이미지 데이터 각각을 오버스캔 처리하여 3D 포맷으로 출력한 결과를 도시한 도면.
도 19는 본 발명의 일실시예에 따른 디스플레이 기기의 구성을 도시한 블럭도
도 20은 본 발명의 다른 실시예에 따른 디스플레이 기기를 도시한 블럭도.
도 21은 본 발명의 일실시예에 따른 셔터 안경의 구성을 도시한 도면.
본 발명은 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기에 관한 것으로, 이하 첨부된 도면을 참조하여 더욱 상세하게 설명한다.
도면에 도시되고 도면에 의해 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이러한 실시예 등에 의해 본 발명의 기술적 사상과 구성 및 작용이 제한되지 않는다. 본 발명에서 사용되는 용어는 본 발명의 구성과 기능을 고려하여 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 및 관례 또는 새로운 기술의 출현 등에 의해 달라질 수도 있다. 특정 경우에는 본 명세서에서 임의로 선정한 용어도 있으며, 이 경우 해당 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다.
도 1은 본 발명에 따라 3차원 컨텐츠를 제공하는 디스플레이 기기의 일실시예를 도시한 도면이다.
본 발명과 관련하여 3차원 컨텐츠를 보여주는 방식에는 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다. 또한, 안경을 착용하는 방식은 다시 패시브(passive) 방식과 액티브(active) 방식으로 나뉜다. 상기 패시브 방식은 편광 필터를 사용해서 좌 이미지와 우 이미지를 구분해서 보여주는 방식이다. 또는 양안에 각각 청색과 적색의 색안경을 쓰고 보는 방식도 패시브 방식에 해당된다. 상기 액티브 방식은 액정 셔터를 이용하여 좌우 안을 구분하는 방식으로, 시간적으로 좌안(왼쪽 눈)과 우안(오른쪽 눈)을 순차적으로 가림으로써 좌 이미지와 우 이미지를 구분하는 방식이다. 즉, 상기 액티브 방식은 시간 분할된 화면을 주기적으로 반복시키고 이 주기에 동기 시킨 전자 셔터가 설치된 안경을 쓰고 보는 방식이며, 시분할 방식(time split type) 또는 셔텨드 글래스(shuttered glass) 방식이라 하기도 한다. 안경을 착용하지 않는 무안경 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈 어레이(lens array)를 수직으로 배열한 렌티큘러(lenticular) 렌즈 판을 이미지 패널 전방에 설치하는 렌티큘러 방식과, 이미지 패널 상부에 주기적인 슬릿을 갖는 배리어 층을 구비하는 패러랙스 배리어(parallax barrier) 방식이 있다.
도 1은 3D 디스플레이 방식 중 스테레오스코픽 방식, 상기 스테레오스코픽 방식 중 액티브 방식인 경우의 실시예이다. 다만, 액티브 방식의 매체로 셔터 안경을 예로 하여 설명하나 본 발명은 이에 한정되는 것은 아니고, 다른 매체를 이용하는 경우에도 후술하는 바와 같이 적용 가능함을 미리 밝혀둔다.
도 1을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3차원 이미지 데이터를 디스플레이부에서 출력하고, 출력되는 3차원 이미지 데이터를 셔터 안경(200)에서 시청 시에 동기가 맞도록 상기 구성된 3차원 이미지 데이터에 관한 동기 신호(Vsync)를 생성하여 상기 셔터 안경 내 IR 에미터(Emitter)(미도시)로 출력하여 셔터 안경(200)에서 디스플레이 동기에 맞춰 시청 가능하도록 한다.
셔터 안경(200)은 IR 에미터(미도시)를 거쳐 수신되는 동기 신호에 따라 좌안 또는 우안 셔터 액정 패널의 오픈 주기를 조정함으로써, 디스플레이부 기기(100)에서 출력되는 3차원 이미지 데이터(300)의 동기에 맞출 수 있다.
이 때, 디스플레이 기기는, 3차원 이미지 데이터를 스테레오스코픽 방식의 원리를 이용하여 처리한다. 즉, 하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 생성된 각 이미지 데이터가 사람의 좌안과 우안에 각각 서로 직교하도록 분리하여 입력하면, 사람의 두뇌에서 좌안과 우안에 각각 입력된 이미지 데이터가 결합되어 3차원 이미지가 생성되도록 하는 원리이다. 상기에서 이미지 데이터가 서로 직교하도록 배열된다는 의미는, 각 이미지 데이터가 서로 간섭을 일으키지 않는다는 것을 의미한다.
도 2은 좌 이미지 데이터와 우 이미지 데이터의 간격 또는 시차(이하 간격이라 함)에 따른 원근감을 설명하기 위해 도시한 도면이다.
도 2(a)는 우 이미지 데이터(201)와 좌 이미지 데이터(202)의 간격이 좁은 경우 상기 양 데이터가 겹합되어 맺히는 상의 위치(203)를 설명하고, 도 2(b)는 우 이미지 데이터(211)와 좌 이미지 데이터(212)의 간격이 넓은 경우 맺히는 상의 위치(213)를 설명하고 있다.
즉, 도 2(a) 내지 2(b)는 이미지 신호 처리장치에서 좌 이미지 데이터와 우 이미지 데이터의 간격에 따라 서로 다른 위치에서 상이 맺히는 원근감의 정도를 나타낸다.
도 2(a)를 참조하면, 상은 우안으로 우 이미지 데이터(201)의 일측과 다른 측을 바라보는 연장선(R1,R2)을 그리고, 좌안으로 좌 이미지 데이터(202)의 일측과 다른 측을 바라보는 연장선(L1,L2)을 그릴 때, 상기 우 이미지 데이터에 대한 연장선(R1)과 좌 이미지 데이터에 대한 연장선(L1)이 우안 및 좌안으로부터 일정 거리(d1)에서 서로 교차되는 지점(203)에 맺힌다.
도 2(b)를 참조하면, 상은 도 2(a)에서 전술한 내용을 기초로 하면 우 이미지 데이터에 대한 연장선(R3)과 좌 이미지 데이터에 대한 연장선(L3)이 우안 및 좌안으로부터 일정 거리(d2)에서 서로 교차되는 지점(213)에서 맺힌다.
여기서, 좌안 및 우안으로부터 상이 맺히는 위치(203, 213)까지의 거리를 나타내는 도 2(a)에서 d1과 도 2(b)에서 d2를 비교하면, 상기 d1이 d2보다 좌안 내지 우안으로부터 거리가 더 멀다. 즉, 도 2(a)에서의 상이 도 3(b)에서의 상보다 좌안 및 우안으로부터 보다 먼 거리에서 맺힌다.
이는 우 이미지 데이터와 좌 이미지 데이터의 간격(도면을 기준으로 동서 방향)에서 기인한다.
예를 들면, 도 2(a)에서의 우 이미지 데이터(201)와 좌 이미지 데이터(202)의 간격은, 도 2(b)에서의 우 이미지 데이터(203)와 좌 이미지 데이터(204)의 간격에 비하여 상대적으로 좁다.
그러므로 도 2(a) 및 2(b)에 근거하여 유추하면, 각 이미지 데이터의 간격이 좁을수록 좌 이미지 데이터와 우 이미지 데이터의 결합에 의해 맺혀지는 상은 사람의 눈으로부터 먼 거리에서 맺혀 멀게 느껴진다.
한편, 3차원 이미지 데이터는 틸트(tilt) 내지 뎁스(depth)를 주거나 3D 이펙트(3D effect)를 주는 등 여러 가지 방법에 의해 3D로 구현될 수 있는데, 이하에서는, 상기한 방법 중 뎁스를 주는 방법에 대해 간략하게 설명한다.
도 3은 본 발명과 관련하여, 디스플레이 기기에서 3차원 이미지를 구현하는 방법의 일 예를 설명하기 위해 도시한 다이어그램이다.
도 3(a)의 경우에는 3차원 이미지를 구성하는 좌 이미지 데이터(301)와 우 이미지 데이터(302)의 간격이 좁은 경우이고, 도 3(b)의 경우에는 3차원 이미지를 구성하는 좌 이미지 데이터(304)와 우 이미지 데이터(305)의 간격이 넓은 경우이다.
따라서, 도 3(a)와 3(b)에서 각 이미지 데이터의 간격에 따라 구현되는 3차원 이미지는 전술한 도 2의 원리에 근거하면 도 3(a)에서 구현된 3D 이미지(303)는 사람의 눈에서 먼 곳에 상이 맺혀 멀리 보이고, 도 3(b)에서 구현된 3D 이미지(306)는 사람의 눈에서 가까운 곳에 상이 맺혀 가까이 즉, 상대적으로 더 튀어 나와 보인다. 상술한 원리 즉, 3차원 이미지를 구성하는 좌 이미지 데이터와 우 이미지 데이터의 간격을 조정함으로써 3차원 이미지에 적절한 정도의 뎁스를 줄 수 있다.
이하에서는, 이러한 3차원 이미지를 제공하는 디스플레이 기기의 3차원 이미지 데이터의 영상 처리하는 실시예를 상세히 설명한다.
도 4는 상기와 같은 좌 이미지 데이터와 우 이미지 데이터를 포함한 3차원 영상 신호의 포맷들을 도시한 도면이다.
도 4를 참조하면, 3D 콘텐츠 또는 3D 영상 신호는 여러 가지 종류로 구분될 수 있는데, (1) 하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 생성된 좌 이미지 데이터와 우 이미지 데이터가 사람의 좌안과 우안에 각각 서로 직교하도록 분리하여 입력하는 사이드 바이 사이드(side by side) 포맷(401), (2) 하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 생성된 좌 이미지 데이터와 우 이미지 데이터가 상하로 입력하는 탑 앤 바텀(top and bottom) 포맷(402), (3) 하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 좌 이미지 데이터와 우 이미지 데이터를 체스판 모양으로 시간적으로 번갈아 입력하는 체커 보드(checker board) 포맷(403), (3)하나의 객체를 서로 다른 위치의 2개의 카메라로 촬영하여 좌 이미지 데이터와 우 이미지 데이터를 생성하고, 좌 이미지 데이터와 우 이미지 데이터를 시간차를 두어 입력하는 프레임 시퀀셜(Frame sequential) 포맷(404)으로 구분될 수 있다. 이와 같은 포맷으로 입력된 좌 이미지 데이터와 우 이미지 데이터는 사람의 두뇌에서 결합되어 3D 이미지로 보이게 된다.
이하에서는, 이와 같은 포맷들로 구성된 3차원 이미지 데이터의 영상 처리 과정을 설명한다.
도 5는 본 발명의 일실시예에 따라 디스플레이 기기에서 3차원 이미지 데이터를 영상 처리하는 과정을 도시한 흐름도이다.
도 5를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 단계(S501)에서 출력 대상인 3차원 이미지 데이터의 포맷을 판단한다.
이 때, 3차원 이미지 데이터가 외부 입력 소스로부터 수신되는 경우, 외부 입력 소스로부터 3차원 이미지 데이터의 포맷 정보를 수신할 수도 있으며, 디스플레이 기기 내부에 3차원 이미지 데이터의 포맷을 판단하는 모듈을 포함하고, 해당 모듈에서 출력 대상인 3차원 이미지 데이터의 포맷을 판단할 수도 있다.
또한, 사용자로부터 3차원 이미지 데이터의 포맷을 선택받을 수도 있다.
실시예에 따라 판단된 3차원 이미지 데이터의 포맷은 사이드 바이 사이드(side by side) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 중 하나로 판단될 수 있다.
다음으로, 단계(S502)에서 디스플레이 기기는 단계(S501)에서 판단된 3차원 이미지 데이터의 포맷 정보에 따라, 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터를 구분한다.
예를 들어, 3차원 이미지 데이터의 포맷이 사이드 바이 사이드 포맷인 경우, 좌측 영역은 좌 이미지 데이터로, 우측 영역은 우 이미지 데이터로 판단될 수 있다.
단계(S503)에서 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 각각을 영상 처리한다.
이 때, 영상 처리는 3차원 이미지 데이터의 출력과 관련한 여러가지 과정이 적용될 수 있는데, 예를 들어, 출력 대상인 3차원 이미지 데이터에 오버스캔이 적용될 경우, 좌이미지 데이터를 오버스캔 처리하고, 우 이미지 데이터를 오버스캔 처리할 수 있다.
또한, 다른 예로, 디스플레이 기기는 사용자가 3차원 이미지 데이터에 대한 확대 또는 축소를 선택할 경우, 좌 이미지 데이터를 확대 또는 축소 처리하고, 우이미지 데이터를 확대 또는 축소 처리할 수 있다.
단계(S504)에서 디스플레이 기기는 영상 처리된 좌이미지 데이터 및 우이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력한다.
이 때, 좌이미지 데이터 및 우이미지 데이터가 출력되는 뎁스값은 기저장된 값이거나, 영상 처리 과정에서 결정된 값이거나, 또는 사용자가 입력한 값일 수 있다.
예를 들어, 사용자가 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력하는 경우, 디스플레이 기기는 뎁스조정 명령을 수신한 후, 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 픽셀 쉬프트하여 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력할 수 있다.
도 6은 본 발명의 일실시예에 따라 3차원 이미지 데이터에 확대 또는 축소처리하는 과정을 도시한 흐름도이다.
단계(S601)에서 디스플레이 기기는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령이 수신되는지를 판단한다.
3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령은 제1 사용자 인터페이스를 통해 사용자로부터 입력될 수도 있으며, 원격 제어 장치를 통해 입력될 수도 있다.
또한, 실시예에 따라 사용자의 위치가 변경되는 경우 사용자의 위치 변경을 센싱하고, 센싱된 위치 변경값을 확대 또는 축소 명령으로 설정할 수도 있다.
단계(S601)의 판단 결과, 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령이 수신되는 경우, 단계(S602)에서 디스플레이 기기는 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율을 판단한다.
단계(S603)에서 디스플레이 기기는 3차원 이미지 데이터에서 확대 또는 축소 영역을 결정한다. 이 때, 3차원 이미지 데이터에서 확대 또는 축소될 영역은 사용자로부터 지정받을 수도 있으며, 별도의 사용자 지정이 없는 경우, 미리 설정된 영역이 확대 또는 축소 영역으로 결정될 수도 있다. 또한 실시예에 따라, 사용자의 위치 변경값에 따라 지정될 수도 있다.
단계(S604)에서 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터에서 확대 또는 축소 영역을 결정된 확대 비율 또는 축소 비율로 각각을 확대 또는 축소 처리한다.
다음으로, 단계(S605)에서 디스플레이 기기는 뎁스조정 명령이 수신되었는지를 판단한다.
3차원 이미지 데이터에 대한 뎁스조정 명령은 제2 사용자 인터페이스를 통해 사용자로부터 입력될 수도 있으며, 원격 제어 장치를 통해 입력될 수도 있다.
실시예에 따라 3 차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스 및 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 제2 사용자 인터페이는 하나의 디스플레이 화면에 출력될 수 있으며, 사용자는 제1 사용자 인터페이스에서 확대 또는 축소 비율을 선택하고, 제2 사용자 인터페이스에서 출력될 뎁스값을 선택할 수 있다.
단계(S605)의 판단 결과, 뎁스조정 명령이 수신되지 않은 경우, 단계(S607)에서 디스플레이 기기는 확대 비율 또는 축소 비율에 대응하는 뎁스값을 판단한다. 이 때, 복수의 확대 비율 또는 축소 비율 각각에 대응하는 뎁스값은 기설정되어 디스플레이 기기에 포함된 저장 수단에 저장될 수 있다.
실시예에 따라 각각의 확대 비율 또는 축소 비율에 대응하는 뎁스값들이 일정한 값으로 설정될 수도 있으며, 각기 상이한 값으로 설정될 수도 있다.
예를 들어, 확대 비율이 높아질 수록 확대된 영역이 출력되는 뎁스값도 사용자에게 가까운 값으로 설정될 수 있다.
다음으로, 단계(S608)에서 디스플레이 기기는 단계(S607)에서 판단된 뎁스값으로 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력한다.
단계(S605)의 판단 결과, 뎁스조정 명령이 수신된 것으로 판단되면, 단계(S606)에서 디스플레이 기기는 상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 뎁스조정 명령에 대응하는 뎁스값으로 출력한다.
도 7은 본 발명의 일실시예에 따라 확대 또는 축소 명령을 입력받는 제1 사용자 인터페이스, 뎁스조정 명령을 입력받는 제2 사용자 인터페이스를 도시한 도면이다.
도 7을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3 차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스(701) 및 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 제2 사용자 인터페이스(702)를 디스플레이 화면에 출력될 수 있다. 물론, 실시예에 따라 제1 인터페이스(701)만 디스플레이 화면에 출력하거나 제2 사용자 인터페이스(702)만을 디스플레이 화면에 출력하는 것도 가능하다.
사용자는 3차원 이미지 데이터에서 확대 또는 축소할 영역(703)을 지정한 후, 제1 사용자 인터페이스(701)에서 확대 또는 축소 비율을 선택하고, 제2 사용자 인터페이스(702)에서 출력될 뎁스값을 선택할 수 있다.
3차원 이미지 데이터에서 확대 또는 축소할 영역(703) 지정은 여러가지 방식으로 지정될 수 있는데, 예를 들어, 원격제어 장치를 통해 소정의 포인터로 지정하거나, 또는 후술할 사용자의 위치 변화를 감지하여 위치 변화에 대응하는 확대 또는 축소 영역(703)을 지정할 수도 있다.
또한, 별도의 사용자 지정이 없는 경우, 미리 설정된 영역(예를 들어, 3차원 이미지의 중앙 영역)이 확대 또는 축소 영역으로 결정될 수도 있다. 또한 실시예에 따라, 사용자의 위치 변경값에 따라 지정될 수도 있다.
제1 사용자 인터페이스(701)에서 확대 또는 축소 비율이 선택되면, 상술한 바와 같이 3차원 이미지 데이터의 좌 이미지 데이터 및 우 이미지 데이터를 각각 확대 축소처리하고, 사용자의 뎁스값 선택에 의해 뎁스조정 명령이 수신된 것으로 판단되면, 디스플레이 기기는 확대 또는 축소 비율에 따라 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 뎁스조정 명령에 대응하는 뎁스값으로 출력한다.
따라서, 본 발명은 사용자가 3차원 이미지 데이터의 확대 또는 축소와 함께 뎁스값을 선택할 수 있도록 하여 사용자가 3차원 이미지 데이터를 편리하게 이용할 수 있도록 하는 효과가 있다.
또한, 실시예에 따라 디스플레이 기기는 축소 또는 확대, 뎁스조정과 함께, 3차원 이미지 데이터에 대한 투명도를 설정할 수 있는 제3 사용자 인터페이스(703)를 추가로 출력할 수 있다. 제3 사용자 인터페이스(703)에서 투명도가 선택된 경우, 선택된 투명도를 확대 또는 축소 처리된 좌이미지 데이터 및 우이미지 데이터에 적용할 수도 있다.
도 8은 본 발명의 일실시예에 따라 확대 비율에 대응하는 뎁스값을 저장하는 저장 수단의 일실시예를 도시한 도면이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 확대 비율 또는 축소 비율에 대응하는 뎁스값을 설정할 수 있다.
이 때, 복수의 확대 비율 또는 축소 비율(801) 각각에 대응하는 뎁스값(802)은 기설정되어 디스플레이 기기에 포함된 저장 수단에 저장될 수 있다.
실시예에 따라 각각의 확대 비율 또는 축소 비율(801)에 대응하는 뎁스값들이 일정한 값으로 설정될 수도 있으며, 각기 상이한 값으로 설정될 수도 있다. 예를 들어, 확대 비율이 높아 질수록 확대된 영역이 출력되는 뎁스값도 사용자에게 가까운 값으로 설정될 수 있다.
또한, 디스플레이 기기는 뎁스값을 조정하기 위해 좌이미지 데이터 및 우이미지 데이터가 쉬프트되어야 하는 픽셀 수 정보(803) 또한 저장할 수 있다.
또한, 상술한 바와 같이 확대 또는 축소 비율에 따라 투명도를 조절할 경우, 확대 또는 축소 비율(801)에 대응하는 투명도 정보(804)를 저장할 수도 있다.
따라서, 3차원 이미지 데이터에 대한 확대 또는 축소 명령이 수신될 경우, 디스플레이 기기는 확대 비율 또는 축소 비율(801)을 판단하여 좌이미지 데이터 및 우이미지 데이터에 확대 비율 또는 축소 비율(801)을 적용하고, 판단된 확대 비율 또는 축소 비율(801)에 대응하는 픽셀 쉬프트값으로 좌이미지 데이터 및 우이미지 데이터를 이동시켜 확대 비율 또는 축소 비율에 대응하는 뎁스값(802)으로 3차원 이미지 데이터를 출력할 수 있다.
도 9는 본 발명의 일실시예에 따라 3차원 이미지 데이터를 확대 또는 축소하는 과정을 도시한 도면이다. 도 9에서는 확대 처리되는 경우를 예로 들어 설명하며, 축소 처리되는 과정도 아래와 같은 방식으로 처리될 수 있다.
도 9를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3차원 이미지 데이터 중 확대 영역이 결정되면, 3차원 이미지 데이터의 좌이미지 데이터의 확대 영역(901) 및 우 이미지 데이터의 확대 영역(902)을 확대 비율로 확대 처리한다.
다음으로, 확대된 3차원 이미지 데이터에 뎁스값을 조정하기 위해 디스플레이 기기는 확대 처리된 좌이미지 데이터(903) 및 우 이미지 데이터(904)를 픽셀 쉬프트한다. 이 때, 조정되는 뎁스값은 제2 사용자 인터페이스로부터 수신될 수도 있으며, 확대 비율에 따라 결정될 수도 있음은 이미 설명한 바와 같다.
예를 들어, 좌이미지 데이터(903)는 좌 방향으로 d1 픽셀만큼 픽셀 쉬프트하고, 우 이미지 데이터(904)는 우 방향으로 d1 픽셀만큼 픽셀 쉬프트할 수 있다.
다음으로, 픽셀 쉬프트한 좌 이미지 데이터(905)와 픽셀 쉬프트한 우 이미지 데이터(906)을 3차원 이미지 데이터로 출력한다.
이 때, 디스플레이 기기는 판단된 3차원 이미지 데이터의 포맷 정보를 이용하여 상기 3차원 이미지 데이터를 라인 바이 라인, 프레임 시퀀셜, 체커 보드 방식 중 하나 이상으로 출력할 수 있다.
또한, 필요할 경우, 디스플레이 기기의 출력 방식에 따라 3차원 이미지 데이터의 포맷을 변환하고, 변환된 포맷의 3차원 이미지 데이터를 출력한다.
예를 들어, 디스플레이 기기에서 3차원 이미지 데이터를 제공하는 방식이 셔터 안경을 이용하는 방식인 경우, 라인 바이 라인, 탑앤바텀, 사이드 바이 사이드 방식의 3차원 이미지 데이터를 프레임 시퀀셜 방식으로 변환한 후 출력할 수 있다.
도 10은 본 발명의 일실시예에 따라 확대 또는 축소 처리된 3차원 이미지 데이터의 일실시예를 도시한 도면이다.
도 10을 참조하면, 3차원 이미지 데이터 중 확대 또는 축소 선택된 영역은 확대 또는 축소 처리되고, 뎁스조정되어 출력될 수 있다.
즉, 원래의 3차원 이미지 데이터에서 확대 선택된 영역(1001)은 좌이미지 데이터 및 우이미지 데이터의 해당 영역 각각이 확대 처리되고, 뎁스 조정되어 도면부호(1002)와 같이 출력될 수 있다.
이 때, 실시예에 따라 확대 또는 축소 되기 전 원래의 3차원 이미지 데이터(1001)도 그대로 출력될 수 있으며, 이 경우, 확대된 3차원 이미지 데이터(1002)는 원래의 3차원 이미지 데이터(1001)가 함께 보여질 수 있도록 투명도가 조정되어 출력될 수 있다.
따라서 본 발명은, 3차원 이미지 데이터에 대한 영상처리를 수행할 경우, 3차원 이미지 데이터에 대한 뎁스값을 함께 조정하여 영상 처리된 영역이 좀 더 부각되어 보이도록 함으로써, 사용자가 3차원 이미지 데이터를 좀더 편리하게 사용할 수 있도록 하는 효과가 있다.
도 11은 본 발명의 다른 실시예에 따라 사용자의 위치 변화에 따라 3차원 이미지 데이터를 확대 또는 축소 처리하는 과정을 도시한 도면이다.
도 11을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 단계(S1101)에서 사용자가 사용자 위치에 따라 확대 또는 축소 기능이 조정되는 소정의 모드(예를 들어, 다이내믹 줌 기능)를 선택하는지 판단한다.
단계(S1101)의 판단 결과 사용자가 해당 기능을 선택하는 경우, 단계(S1102)에서 디스플레이 기기는 사용자의 위치를 판단한다.
이 때, 본 발명에 따라 사용자 위치를 판단하는 방법은 여러가지로 구현될 수 있는데, 본 발명의 디스플레이 기기가 무안경 방식인 경우, 디스플레이 기기에 포함된 센서에서 사용자 위치를 디텍팅하여 위치 정보를 생성할 수 있고, 본 발명의 디스플레이 기기가 안경 방식인 경우, 셔터 안경의 위치를 감지하거나, 셔터 안경으로부터 위치 정보를 수신하여 셔터 안경에 대한 위치 정보를 획득할 수 있다.
예를 들어, 셔터 안경은 위치 감지 센서에서 사용자의 위치를 감지하기 위한 정보를 센싱한 후, 센싱된 센싱 정보를 디스플레이 기기로 전송하고, 디스플레이 기기는 셔터 안경에서 센싱된 센싱 정보를 수신하고, 수신된 센싱 정보를 이용하여 셔터 안경의 위치, 즉 사용자 위치를 판단할 수 있다.
또한, 디스플레이 기기에 IR 센서를 장착한 후, 셔터 안경에서 송출하는 IR 신호를 디텍팅하여 x,y,z 축과의 거리를 계산하여 셔터 안경의 위치를 판단할 수 있다.
또한, 다른 실시예에 따르면 디스플레이 기기에 카메라 모듈을 구비하여 이미지를 촬영한 후, 촬영된 이미지에서 기지정된 패턴(셔터 안경 이미지 또는 사용자의 안면) 인식한 후, 인식된 패턴의 크기 및 각도를 분석하여 따라 사용자의 위치를 판단할 수도 있다.
또한, 디스플레이 기기에 IR 송신 모듈을 장착하고, 셔터 안경에 IR 카메라를 장착한 후, IR 카메라에서 촬영된 IR 송신 모듈의 이미지 데이터를 분석하여 셔터 안경의 위치를 판단할 수 있다. 이 때, IR 송신 모듈이 복수로 장착되면, 셔터 안경에서 촬영된 이미지에서 복수의 IR 송신 모듈의 이미지를 분석하여 셔터 안경의 위치를 판단할 수 있으며, 셔터 안경의 위치가 사용자 위치로 사용될 수 있다.
단계(S1103)의 판단 결과 사용자의 위치가 변화되는 경우, 단계(S1104)에서 디스플레이 기기는 사용자의 위치 변화값을 판단한다.
단계(S1105)에서 디스플레이 기기는 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율을 판단하고, 단계(S1106)에서 확대 또는 축소 영역을 결정한다.
이 때, 실시예에 따라 디스플레이 기기는 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 센싱된 사용자의 위치가 변경되면, 위치 변화값에 대응하는 벡터값을 생성하고, 상기 벡터값에 대응하여 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정할 수 있다
다음으로, 디스플레이 기기는 단계(S1107)에서 확대 또는 축소 비율에 대응하는 뎁스값을 판단한다. 확대 또는 축소 비율에 대응하는 뎁스값은 도 8에서 설명한 바와 같이 저장 수단에 미리 저장될 수 있다.
단계(S1108)에서 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 결정된 확대 또는 축소 영역을 상기 결정된 확대 비율 또는 축소 비율에 따라 각각 확대 또는 축소 처리하고, 확대 또는 축소 비율에 대응하는 뎁스값으로 3D 포맷 출력한다.
도 12는 본 발명에 따라 사용자 위치 변화값을 판단하는 일실시예를 도시한 도면이다. 도 12은 안경 방식으로 출력되는 3차원 이미지 데이터(1210)의 경우를 예로 들어 설명한 것이다.
도 12를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기(1200)는 소정의 위치 감지 센서(1201)를 포함하여, 셔터 안경(1220)의 위치가 변화되는 지를 판단한다.
셔터 안경(1220, 1230)는 소정의 IR 출력부 또는 IR 센서(1202, 1203)을 포함하여, 디스플레이 기기(1200)에서 그 위치를 판단할 수 있도록 구현된다.
셔터 안경의 위치가 도면부호(1220)에서 도면부호(1230)으로 변경될 경우, 디스플레이 기기(1200)는 위치 변화값에 대응하는 벡터값(1204)을 생성할 수 있다.
도 13은 본 발명에 따른 디스플레이 기기에서 사용자의 위치 변화값에 따라 확대 또는 축소 영역 및 뎁스값을 판단하는 일실시예를 도시한 도면이다.
도 13을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 사용자의 위치 변화값에 대응하는 벡터값(1204)의 크기(d2) 및 방향을 판단하고, 벡터값(1204)의 크기 및 방향에 따라 확대 또는 축소할 영역 및 확대 또는 축소할 영역의 뎁스값을 결정한다.
예를 들어, 벡터값의 방향에 대응하는 3차원 이미지 데이터(1210)의 소정 영역(1310)을 판단하고, 해당 영역을 확대 또는 축소 처리할 영역으로 결정한다. 또한, 벡터값의 방향에 따라 확대 또는 축소 여부를 결정할 수도 있다.
예를 들어, 벡터값이 디스플레이 기기로 접근하는 방향인 경우, 3차원 이미지 데이터를 확대하는 것으로 결정하고, 디스플레이 기기에서 멀어지는 방향인 경우, 3차원 이미지 데이터를 축소하는 것으로 결정할 수 있다.
또한, 벡터값의 크기 d2에 따라 확대 또는 축소 비율을 결정할 수 있으며, 각각의 벡터값 크기에 대응하는 확대 또는 축소 비율은 저장 수단에 미리 저장될 수 있다.
도 14는 본 발명의 일실시예에 따라 사용자의 위치 변화값에 대응되는 확대 또는 축소 비율 및 뎁스값을 저장하는 일실시예를 도시한 도면이다.
도 14를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 사용자의 위치 변화값(예를 들어, 변화되는 거리, 1401)에 대응하는 확대 또는 축소 비율(1402) 및 위치 변화값에 대응하는 뎁스값(1403)를 미리 저장할 수 있다.
또한, 추가적으로 3차원 이미지 데이터의 확대 또는 축소될 영역을 뎁스값(1403)으로 출력하기 위해 쉬프트 되어야할 픽셀 쉬프트값(1404) 및 확대 또는 축소 비율에 대응되는 투명도값(1405) 또한 추가적으로 저장할 수 있다.
좌이미지 데이터 및 우이미지 데이터의 해당 영역을 확대 또는 축소 처리하여 뎁스값을 가진 3D 포맷으로 출력하는 과정은 이미 상술한 바와 같다.
따라서, 본 발명은 사용자의 위치 변화에 따라 확대 또는 축소를 포함할 영역 및 확대 또는 축소 비율을 결정함으로써, 더욱 다이내믹한 확대 축소 기능을 제공할 수 있는 효과가 있다. 예를 들어, 사용자가 접근하는 방향 및 거리를 고려하여 그에 대응하는 영역을 확대하고, 사용자에게 더 근접하도록 뎁스를 줌으로써, 사용자가 3차원 이미지 데이터를 포함한 3차원 영상을 더욱 실감나게 느낄 수 있도록 하는 효과가 있다.
도 15는 본 발명의 다른 일실시예에 따라 디스플레이 기기에서 3차원 이미지 데이터를 영상 처리하는 과정을 도시한 흐름도이다.
도 15를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 단계(S1501)에서 3차원 이미지 데이터 출력시 오버 스캔 설정이 되어 있는가를 판단한다.
오버 스캔이란, 영상 신호의 가장 자리에 노이즈가 존재하는 경우 화질이 영화되는 현상을 방지하기 위해, 영상 신호의 가장 자리 영역을 제거한 후, 스케일하여 출력하는 것을 말한다.
오버 스캔 설정은 3차원 이미지 데이터의 종류 또는 3차원 이미지 데이터를 제공하는 소스 종류에 따라 디스플레이 기기에서 미리 설정될 수 있으며, 사용자가 직접 소정의 사용자 인터페이스에서 출력될 3차원 이미지 데이터의 오버 스캔 수행 여부를 설정할 수도 있다.
단계(S1502)에서 디스플레이 기기는 3차원 이미지 데이터의 포맷을 판단한다. 3차원 이미지 데이터의 포맷을 판단하는 과정은 도 5 및 도 6을 참조하여 이미 설명한 바와 같다.
즉, 3차원 이미지 데이터가 외부 입력 소스로부터 수신되는 경우, 외부 입력 소스로부터 3차원 이미지 데이터의 포맷 정보를 수신할 수도 있으며, 디스플레이 기기 내부에 3차원 이미지 데이터의 포맷을 판단하는 모듈을 포함하고, 해당 모듈에서 출력 대상인 3차원 이미지 데이터의 포맷을 판단할 수도 있다. 또한, 사용자로부터 3차원 이미지 데이터의 포맷을 선택받을 수도 있다.
예를 들어, 3차원 이미지 데이터의 포맷은 사이드 바이 사이드(side by side) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 중 하나로 판단될 수 있다.
다음으로, 단계(S1503)에서 디스플레이 기기는 단계(S1501)에서 판단된 3차원 이미지 데이터의 포맷 정보에 따라, 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터를 구분한다.
예를 들어, 3차원 이미지 데이터의 포맷이 사이드 바이 사이드 포맷인 경우, 좌측 영역은 좌 이미지 데이터로, 우측 영역은 우 이미지 데이터로 판단될 수 있다.
단계(S1504)에서 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 각각을 오버 스캔 처리한 후, 오버스캔된 좌이미지 데이터 및우이미지 데이터를 3D 포맷으로 출력한다.
이 때, 좌이미지 데이터 및 우이미지 데이터가 출력되는 뎁스값은 기저장된 값이거나, 영상 처리 과정에서 결정된 값이거나, 또는 사용자가 입력한 값일 수 있다.
예를 들어, 사용자가 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력하는 경우, 디스플레이 기기는 뎁스조정 명령을 수신한 후, 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력할 수 있다.
단계(S1501)의 판단 결과, 오버스캔 설정되지 않은 경우, 단계(S1506)에서 디스플레이 기기는 3차원 이미지 데이터를 져스트 스캔하여 출력한다. 이 때, 져스트 스캔(Just scan)이란, 오버 스캔을 수행하지 않고, 영상 신호에 대한 조작 과정을 최소화하여 출력하는 것을 말한다.
도 16은 본 발명의 일실시예에 따라 3차원 이미지 데이터를 오버스캔 처리하는 과정을 도시한 도면이다.
도 16을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3차원 이미지 데이터(1601, 1602)의 포맷을 판단한 후, 포맷 판단 결과에 따라 좌이미지 데이터 및 우이미지 데이터를 구분하고, 구분된 좌이미지 데이터 및 우이미지 데이터 각각을 오버스캔 처리한다.
예를 들어, 3차원 이미지 데이터(1601)의 포맷이 사이드 바이 사이드인 경우, 좌측 영역은 좌 이미지 데이터로, 우측 영역은 우 이미지 데이터로 판단될 수 있다.
다음으로 좌이미지 데이터를 오버스캔하고, 우이미지 데이터를 오버스캔한 후, 오버스캔 처리된 좌이미지 데이터(1602) 및 우이미지 데이터(1603)를 3D 포맷 으로 출력한다.
마찬가지로, 3차원 이미지 데이터(1604)의 포맷이 탑앤바텀 방식인 경우, 상측 영역은 좌이미지 데이터로, 하측 영역은 우이미지 데이터로 판단한 후, 좌이미지 데이터 및 우이미지 데이터 각각을 오버스캔 처리하고, 오버스캔 처리된 좌이미지 데이터(1605) 및 우이미지 데이터(1606)을 3D 포맷으로 출력한다.
또한, 3차원 이미지 데이터(1607)의 포맷이 체커 보드 방식인 경우, 좌이미지 데이터 및 우이미지 데이터 영역을 판단한 후, 판단 결과를 이용하여 오버스캔 영역을 결정한 후 오버스캔 처리하고, 오버스캔 처리된 3차원 이미지 데이터(1608)를 3D 포맷으로 출력할 수 있다. 이 때, 오버 스캔되는 영역(1608)은 좌이미지 데이터 및 우이미지 데이터의 순서가 바뀌지 않도록 결정하여 오버스캔에 의한 3차원 이미지 데이터 출력에 오류가 생기지 않도록 할 수 있다.
또한, 3차원 이미지 데이터(1609)의 포맷이 프레임 시퀀셜 방식인 경우에도, 순차로 입력되는 좌이미지 데이터 및 우이미지 데이터를 판단하여 각각(1610, 1611)을 오버스캔 처리한 후, 3D 포맷 출력할 수 있다.
도 17은 본 발명의 오버스캔 처리된 좌이미지 데이터 및 우이미지 데이터를 3D 포맷으로 출력하는 일실시예를 도시한 도면이다.
도 17을 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 오버스캔 처리된 좌이미지 데이터(1701) 및 우이미지 데이터(1702)를 3차원 이미지 데이터(1703)로 출력한다.
이 때, 디스플레이 기기는 판단된 3차원 이미지 데이터의 포맷 정보를 이용하여 상기 3차원 이미지 데이터를 라인 바이 라인, 프레임 시퀀셜, 체커 보드 방식 중 하나 이상으로 출력할 수 있다.
또한, 필요할 경우, 디스플레이 기기의 출력 방식에 따라 3차원 이미지 데이터의 포맷을 변환하고, 변환된 포맷의 3차원 이미지 데이터를 출력한다.
예를 들어, 디스플레이 기기에서 3차원 이미지 데이터를 제공하는 방식이 셔터 안경을 이용하는 방식인 경우, 라인 바이 라인, 탑앤바텀, 사이드 바이 사이드 방식의 3차원 이미지 데이터를 프레임 시퀀셜 방식으로 변환한 후 출력할 수 있다.
도 18은 본 발명의 일실시예에 따라 좌이미지 데이터 및 우이미지 데이터 각각을 오버스캔 처리하여 3D 포맷으로 출력한 결과를 도시한 도면이다.
도 18을 참조하면, 본 발명을 이용하여 좌이미지 데이터 및 우이미지 데이터 각각을 오버스캔 처리하여 3D 포맷으로 출력한 결과(1802)와 종래 기술을 이용하여 3차원 이미지 데이터(1800) 자체를 오버스캔 처리하여 3D 포맷으로 출력한 결과(1801)를 비교하면, 본 발명을 이용하여 좌이미지 데이터 및 우이미지 데이터를 오버스캔하여 처리한 결과(1802)의 3차원 이미지가 훨씬 선명하고 정확한 것임을 알 수 있다.
즉, 종래 기술에 의해 3차원 이미지 데이터(1800) 자체가 오버스캔 처리된 3차원 이미지 데이터(1801)의 경우, 좌이미지 데이터(1803) 및 우이미지 데이터(1804)의 정렬이 정확하게 수행되지 않아 3차원 이미지 데이터의 열화가 발생하거나, 아예 3D로 출력되지 않는 문제점이 있으나, 본 발명에 의할 경우, 좌이미지 데이터 및 우이미지 데이터의 오버스캔을 각각 수행한 후, 3D 포맷 출력함으로써, 좌이미지 데이터 및 우이미지 데이터의 정렬이 정확하게 수행되어, 3차원 이미지 데이터(1802)를 오버스캔한 후, 3D 포맷으로 출력할 수 있음은 물론 노이즈가 제거된 고화질로 3차원 이미지 데이터를 출력될 수 있는 효과가 있다.
도 19는 본 발명의 일실시예에 따른 디스플레이 기기의 구성을 도시한 블럭도이다. 도 19를 참조하면, 본 발명의 일실시예에 따른 디스플레이 기기는 3차원 이미지 데이터를 디스플레이부의 패널 및 유저 설정에 따라 영상 처리하기 위한 영상 처리부(1501), 3차원 이미지 데이터를 포맷에 맞게 출력하기 위한 3D 포맷 컨버터(1505), 3D 포맷 처리된 3차원 이미지 데이터를 출력하기 위한 디스플레이부(1509), 사용자 입력을 수신하는 사용자 입력부(1506), 어플리케이션 제어부(1507) 및 위치 판단 모듈(1508)을 추가적으로 포함할 수 있다.
실시예에 따라 디스플레이 기기는 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 영상 처리하는 스케일러(1503) 및 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 출력 포맷터(1505), 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 사용자 입력부(1506)를 포함하여 구성될 수 있다. 실시예에 따라, 상기 영상 처리는 오버 스캔 처리를 포함할 수 있다.
이 때, 출력 포맷터(1505)는 상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 3D 포맷 출력한다.
또한, 실시예에 따라 스케일러(1503)는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리할 수 있다.
이 때, 어플리케이션 제어부(1507)는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스 및 상기 3차원 이미지 데이터에 대한 뎁스 조정 명령을 입력받는 제2 사용자 인터페이스를 디스플레이부(1509)에 출력하고, 사용자 입력부(1506)는 확대 명령 또는 축소 명령, 뎁스 조정 명령을 입력받을 수 있다. 또한, 사용자 입력부(1506)는 3차원 이미지 데이터의 확대 또는 축소 영역을 지정받을 수 있다.
FRC(1504)는 3차원 이미지 데이터의 프레임 레이트를 디스플레이 기기의 출력 프레임 레이트로 조절한다.
스케일러(1503)는 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 지정받은 확대 또는 축소 영역을 각각 확대 비율에 또는 축소 비율에 따라 확대 또는 축소 처리한다.
출력 포맷터(1505)는 상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력한다.
이 때, 출력 포맷터(1505)는, 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 확대 비율 또는 축소 비율에 대응하는 뎁스값으로 출력할 수도 있고, 사용자 입력부(1506)에서 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 경우, 출력 포맷터(1505)는, 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력할 수도 있다.
또한, 디스플레이 기기는 사용자의 위치 변화값을 판단하는 위치 판단 모듈(1508)을 더 포함하고, 스케일러(1503)는 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하고, 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 결정된 확대 또는 축소 영역을 상기 결정된 확대 비율 또는 축소 비율에 따라 각각 확대 또는 축소 처리할 수 있다.
이 때, 위치 판단 모듈(1508)은, 상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 센싱된 사용자의 위치가 변경되면, 위치 변화값에 대응하는 벡터값을 생성하고, 스케일러(1503)는 상기 벡터값에 대응하여 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정할 수 있다
도 20은 본 발명의 다른 실시예에 따른 디스플레이 기기를 도시한 블럭도이다. 도 20은 본 발명의 디스플레이 기기가 디지털 방송 수신기인 경우의 구성을 도시한 블록도이다.
도 20을 참조하면, 본 발명에 따른 디지털 방송 수신기는 튜너(101), 복조기(102), 역다중화부(103), 시그널링 정보 프로세서(104), 어플리케이션 제어부(105), 저장부(108), 외부 입력 수신부(109), 디코더/스케일러(110), 제어부(115), 믹서(118), 출력 포맷터(119) 및 디스플레이부(120)을 포함하여 구성된다. 상기 디지털 방송 수신기에는 도 20에서 도시되는 구성 이외에 필요한 다른 구성이 더 포함될 수 있다.
튜너(101)는 특정 채널을 튜닝하여 컨텐츠가 포함된 방송 신호를 수신한다.
복조기(102)는 튜너(101)로부터 입력되는 방송 신호를 복조한다.
역다중화부(103)는 복조된 방송 신호로부터 오디오 신호, 비디오 신호 및 시그널링 정보를 역다중화(demultiplex)한다. 여기서, 상기 역다중화는 PID(Packet IDentifier) 필터링을 통해 수행될 수 있다. 또한, 상기 시그널링 정보는 설명의 편의를 위해 이하 본 명세서에서는 PSI/PSIP(Program Specific Information/Program and System Information Protocol)와 같은 SI(System Information) 정보를 예로 하여 설명한다.
역다중화부(103)는 역다중화된 오디오 신호/비디오 신호는 디코더/스케일러(110)로 출력하고, 시그널링 정보(signaling information)는 시그널링 정보 프로세서(104)로 출력한다.
시그널링 정보 프로세서(104)는 역다중화된 시그널링 정보를 처리하여 어플리케이션 제어부(105), 제어부(115) 및 믹서(118)로 출력한다. 여기서, 상기 시그널링 프로세서(104)는 상기 처리되는 시그널링 정보를 일시 저장하는 데이터베이스(미도시)를 내부에 포함할 수도 있다.
어플리케이션 제어부(105)는, 채널 매니저(106)와 채널 맵(107)을 포함한다. 채널 매니저(106)는 시그널링 정보에 기초하여 채널 맵(107)을 형성하고 관리하며, 사용자의 입력에 따라 상기 채널 맵(107)에 기초하여 채널 전환 등이 되도록 제어할 수 있다.
디코더/스케일러(110)는, 비디오 디코더(111), 오디오 디코더(112), 스케일러(113) 및 비디오 프로세서(114)를 포함한다.
비디오 디코더/오디오 디코더(111/112)는 역다중화된 오디오 신호와 비디오 신호를 수신하여 처리한다.
스케일러(113)는 상기 디코더들(111/112)에서 처리된 신호를 출력을 위한 적절한 크기의 신호로 스케일링한다.
사용자 입력부(123)는, 리모컨 등을 통한 사용자 등의 키 입력을 수신하는 사용자 입력부(미도시) 포함한다.
어플리케이션 제어부(105)는 상기 UI 구성을 위한 OSD 데이터 생성부(미도시)를 더 포함할 수 있다. 또는 OSD 데이터 생성부는 상기 어플리케이션 제어부(105)의 제어에 따라 UI 구성을 위한 OSD 데이터를 생성할 수 있다.
디스플레이부(120)은 컨텐츠, UI 등을 출력한다.
믹서(118)는, 시그널링 프로세서(104), 디코더/스케일러(110) 및 어플리케이션 제어부(105)의 입력을 믹싱하여 출력한다.
출력 포맷터(119)는 믹서(118)의 출력을 디스플레이부의 출력 포맷에 맞게 구성한다. 여기서, 출력 포맷터(119)는 예를 들어, 2D 컨텐츠의 경우에는 바이패스 하고, 3D 컨텐츠는 제어부(115)의 제어에 따라 그 포맷 및 디스플레이부(120)의 출력 주파수 등에 맞게 3D 포맷으로 처리하는 3D 포맷터로 동작할 수 있다.
출력 포맷터(119)는 3차원 이미지 데이터를 디스플레이부(120)로 출력하고, 출력되는 3차원 이미지 데이터를 셔터 안경(121)으로 시청 시에 동기가 맞도록 상기 구성된 3차원 이미지 데이터에 관한 동기 신호(Vsync)를 생성하여 상기 셔터 안경 내 IR 에미터(Emitter)(미도시)로 출력하여 셔터 안경(121)에서 디스플레이 동기에 맞춰 시청 가능하도록 한다.
실시예에 따라 디지털 방송 수신기는 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 영상 처리하는 스케일러(도시되지 않음)을 추가적으로 포함하고, 출력 포맷터(119)는 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력한다.
사용자 입력부(123)는 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는다.
이 때, 출력 포맷터(119)는 상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력한다.
또한, 실시예에 따라 스케일러(도시되지 않음)는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리할 수 있다.
이 때, 어플리케이션 제어부(105)는 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스 및 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 제2 사용자 인터페이스를 디스플레이부(120)에 출력하고, 사용자 입력부(123)는 확대 명령 또는 축소 명령, 뎁스조정 명령을 입력받을 수 있다. 또한, 사용자 입력부(1506)는 3차원 이미지 데이터의 확대 또는 축소 영역을 지정받을 수 있다.
스케일러(도시되지 않음)는 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 지정받은 확대 또는 축소 영역을 각각 확대 비율에 또는 축소 비율에 따라 확대 또는 축소 처리한다.
출력 포맷터(119)는 상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력한다.
이 때, 출력 포맷터(119)는, 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 확대 비율 또는 축소 비율에 대응하는 뎁스값으로 출력할 수도 있고, 사용자 입력부(123)에서 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 경우, 출력 포맷터(119)는, 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력할 수도 있다.
또한, 디스플레이 기기는 사용자의 위치 변화값을 판단하는 위치 판단 모듈(122)을 더 포함하고, 스케일러(도시되지 않음)는 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하고, 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 결정된 확대 또는 축소 영역을 상기 결정된 확대 비율 또는 축소 비율에 따라 각각 확대 또는 축소 처리할 수 있다.
이 때, 위치 판단 모듈(122)은, 상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 센싱된 사용자의 위치가 변경되면, 위치 변화값에 대응하는 벡터값을 생성하고, 스케일러(도시되지 않음)는 상기 벡터값에 대응하여 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정할 수 있다
IR 에미터는 출력 포맷터(119)에서 생성된 동기 신호를 수신하여 셔터 안경(121) 내 수광부(미도시)로 출력하고, 셔터 안경(150)은 상기 수광부를 통해 IR 에미터(미도시)를 거쳐 수신되는 동기 신호에 따라 셔터 오픈 주기를 조정함으로써, 상기 디스플레이부(120)에서 출력되는 3차원 이미지 데이터의 동기에 맞출 수 있다.
도 21는 본 발명의 일실시예에 따른 셔터 안경의 구성을 도시한 도면이다.
도 21을 참조하면, 셔터 안경은 좌안 셔터 액정 패널(1100)과 우안 셔터 액정 패널(1130)을 구비한다. 셔터 액정 패널들(1100, 1130)은 소스 구동 전압에 따라 광을 단순히 통과 또는 차단시키는 기능을 수행한다. 디스플레이 기기에 좌 이미지 데이터가 표시될 때, 좌안 셔터 액정 패널(1100)은 광을 통과시키고 우안 셔터 액정 패널(1130)은 광 투과를 차단하여, 좌 이미지 데이터가 셔터 안경 사용자의 좌측 눈에만 전달되게 한다. 한편, 디스플레이 기기에 우 이미지 데이터가 표시될 때에는, 좌안 셔터 액정 패널(1100)은 광 투과를 차단하고, 우안 셔터 액정 패널(1130)은 광을 통과시켜서, 우 이미지 데이터가 사용자의 우측 눈에만 전달되게 한다.
이 과정에서, 셔터 안경의 적외선 수신부(1160)는 디스플레이 기기로부터 수신된 적외선 신호를 전기적 신호로 변환하여 제어부(1170)에 제공한다. 제어부(1170)는 동기 기준 신호에 따라서 좌안 셔터 액정 패널(1100)과 우안 셔터 액정 패널(1130)이 교대로 온오프되게 제어한다.
상술한 바와 같이 셔터 안경는 디스플레이 기기로부터 수신되는 제어 신호에 따라 좌안 셔터 액정 패널(1100) 또는 우안 셔터 액정 패널(1130)에 광을 통과시키거나 차단시킬 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
여러 가지 실시예가 상기한 발명의 실시를 위한 최적 형태에서 기술되었다.
본 발명은 사용자가 3차원 이미지 데이터의 확대 또는 축소와 함께 뎁스값을 선택할 수 있도록 하여 사용자가 3차원 이미지 데이터를 편리하게 이용할 수 있도록 한다.

Claims (20)

  1. 3D 디스플레이 기기의 영상 처리 방법에 있어서,
    3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 단계; 및
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 단계는,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 확대 비율 또는 축소 비율에 대응하는 뎁스값으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  3. 제1항에 있어서,
    상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 단계
    를 더 포함하고,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 단계는,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  4. 제3항에 있어서,
    상기 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스 및 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 제2 사용자 인터페이스를 디스플레이 화면에 출력하는 단계
    를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  5. 제1항에 있어서,
    상기 3차원 이미지 데이터의 확대 또는 축소 영역을 지정받는 단계
    를 더 포함하고,
    상기 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 단계는,
    상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 지정받은 확대 또는 축소 영역을 각각 확대 또는 축소 처리하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  6. 제1항에 있어서,
    사용자의 위치 변화값을 판단하고, 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하는 단계
    를 더 포함하고,
    상기 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 단계는,
    상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 결정된 확대 또는 축소 영역을 상기 결정된 확대 비율 또는 축소 비율에 따라 각각 확대 또는 축소 처리하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  7. 제1항에 있어서,
    사용자의 위치 변화값을 판단하고, 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하는 단계는,
    상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 센싱된 사용자의 위치가 변경되면, 위치 변화값에 대응하는 벡터값을 생성하고, 상기 벡터값에 대응하여 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  8. 3D 디스플레이 기기의 영상 처리 방법에 있어서,
    3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터를 판단하는 단계;
    상기 좌이미지 데이터 및 우이미지 데이터 각각을 영상 처리하는 단계; 및
    상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  9. 제8항에 있어서,
    상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 단계
    를 더 포함하고,
    상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 단계는,
    상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력하는 단계
    를 포함하는 것을 특징으로 하는 영상 처리 방법.
  10. 제8항에 있어서,
    상기 영상 처리는 오버 스캔 처리를 포함하는 것을 특징으로 하는 영상 처리 방법.
  11. 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령에 대응하는 확대 비율 또는 축소 비율로 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 확대 또는 축소 처리하는 스케일러; 및
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 3D 포맷으로 출력하는 출력 포맷터
    를 포함하는 것을 특징으로 하는 3D 디스플레이 기기.
  12. 제11항에 있어서,
    상기 출력 포맷터는,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 확대 비율 또는 축소 비율에 대응하는 뎁스값으로 출력하는 것을 특징으로 하는 3D디스플레이 기기.
  13. 제11항에 있어서,
    상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 사용자 입력부
    를 더 포함하고,
    상기 출력 포맷터는,
    상기 확대 또는 축소 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력하는 것을 특징으로 하는 3D 디스플레이 기기.
  14. 제13항에 있어서,
    상기 3차원 이미지 데이터에 대한 확대 명령 또는 축소 명령을 입력받는 제1 사용자 인터페이스 및 상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 제2 사용자 인터페이스를 디스플레이 화면에 출력하는 어플리케이션 제어부
    를 더 포함하는 것을 특징으로 하는 3D 디스플레이 기기.
  15. 제11항에 있어서,
    상기 3차원 이미지 데이터의 확대 또는 축소 영역을 지정받는 사용자 입력부를 더 포함하고,
    상기 스케일러는,
    상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 지정받은 확대 또는 축소 영역을 각각 확대 또는 축소 처리하는 것을 특징으로 하는 3D 디스플레이 기기.
  16. 제11항에 있어서,
    사용자의 위치 변화값을 판단하는 위치 판단 모듈을 더 포함하고
    상기 스케일러는 상기 판단된 위치 변화값에 따라 상기 3차원 이미지 데이터에 대한 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하고, 상기 3차원 이미지 데이터의 좌이미지 데이터 및 우이미지 데이터 중 상기 결정된 확대 또는 축소 영역을 상기 결정된 확대 비율 또는 축소 비율에 따라 각각 확대 또는 축소 처리하는 것을 특징으로 하는 3D 디스플레이 기기.
  17. 제16항에 있어서,
    상기 위치 판단 모듈은, 상기 사용자의 위치를 소정 시간 간격으로 센싱하고, 상기 센싱된 사용자의 위치가 변경되면, 위치 변화값에 대응하는 벡터값을 생성하고,
    상기 스케일러는 상기 벡터값에 대응하여 확대 비율 또는 축소 비율 및 확대 또는 축소 영역을 결정하는 것을 특징으로 하는 3D 디스플레이 기기.
  18. 3D 디스플레이 기기에 있어서,
    3차원 이미지 데이터의 좌이미지 데이터 및 우 이미지 데이터 각각을 영상 처리하는 스케일러; 및
    상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 소정의 뎁스값으로 3D 포맷 출력하는 출력 포맷터
    를 포함하는 것을 특징으로 하는 3D 디스플레이 기기.
  19. 제18항에 있어서,
    상기 3차원 이미지 데이터에 대한 뎁스조정 명령을 입력받는 사용자 입력부
    를 더 포함하고,
    상기 출력 포맷터는 상기 영상 처리된 좌이미지 데이터 및 우 이미지 데이터를 상기 뎁스조정 명령에 대응하는 뎁스값으로 출력하는 것을 특징으로 하는 3D 디스플레이 기기.
  20. 제18항에 있어서,
    상기 영상 처리는 오버 스캔 처리를 포함하는 것을 특징으로 하는 3D 디스플레이 기기.
PCT/KR2010/004073 2009-06-23 2010-06-23 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기 WO2010151044A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10792326.0A EP2410753B1 (en) 2009-06-23 2010-06-23 Image-processing method for a display device which outputs three-dimensional content, and display device adopting the method
US13/265,117 US20120050502A1 (en) 2009-06-23 2010-06-23 Image-processing method for a display device which outputs three-dimensional content, and display device adopting the method
CN201080022817.9A CN102450022B (zh) 2009-06-23 2010-06-23 输出三维内容的显示装置的图像处理方法以及采用该方法的显示装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US21973309P 2009-06-23 2009-06-23
US61/219,733 2009-06-23
KR1020100059216A KR101719980B1 (ko) 2010-06-22 2010-06-22 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
KR10-2010-0059216 2010-06-22

Publications (2)

Publication Number Publication Date
WO2010151044A2 true WO2010151044A2 (ko) 2010-12-29
WO2010151044A3 WO2010151044A3 (ko) 2011-04-07

Family

ID=43387042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/004073 WO2010151044A2 (ko) 2009-06-23 2010-06-23 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기

Country Status (5)

Country Link
US (1) US20120050502A1 (ko)
EP (1) EP2410753B1 (ko)
KR (1) KR101719980B1 (ko)
CN (1) CN102450022B (ko)
WO (1) WO2010151044A2 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102215420A (zh) * 2011-06-20 2011-10-12 深圳创维-Rgb电子有限公司 一种电视机3d格式切换的方法、系统及电视机
CN103024410A (zh) * 2011-09-23 2013-04-03 Lg电子株式会社 图像显示设备及其操作方法
CN103609104A (zh) * 2011-05-23 2014-02-26 高通股份有限公司 用于立体效应调整的交互式用户接口
EP2574068A3 (en) * 2011-09-20 2014-05-07 LG Electronics Image display apparatus and method for operating the same
US9161016B2 (en) 2011-01-26 2015-10-13 Fujifilm Corporation Image processing apparatus, imaging apparatus, reproduction apparatus, and image processing method for processing zoom in 3D imaging
EP2509325A3 (en) * 2011-04-08 2015-10-21 Sony Corporation Image processing apparatus, image processing method, and program
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8797348B2 (en) * 2008-11-25 2014-08-05 Sony Corporation Image display apparatus, image display method, and information storage medium
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
CN102714743B (zh) * 2010-05-27 2016-08-03 任天堂株式会社 便携式电子设备
CN102340678B (zh) * 2010-07-21 2014-07-23 深圳Tcl新技术有限公司 一种景深可调的立体显示装置及其景深调整方法
EP2608547B1 (en) 2010-08-17 2018-03-21 LG Electronics Inc. Apparatus and method for receiving digital broadcasting signal
JP5059922B2 (ja) * 2010-09-15 2012-10-31 シャープ株式会社 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
KR101212170B1 (ko) * 2010-12-10 2012-12-13 엘지디스플레이 주식회사 패턴드 리타더를 이용한 입체 영상 표시 장치 및 그 구동 방법
US20120206450A1 (en) * 2011-02-14 2012-08-16 Htc Corporation 3d format conversion systems and methods
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9674499B2 (en) * 2012-08-15 2017-06-06 Qualcomm Incorporated Compatible three-dimensional video communications
CN102843570B (zh) * 2012-09-11 2016-02-03 深圳Tcl新技术有限公司 基于原始视频选择3d模式的方法和装置
KR102329814B1 (ko) * 2014-12-01 2021-11-22 삼성전자주식회사 3d 디스플레이를 위한 양안 거리 인식 장치
KR102132406B1 (ko) * 2015-04-29 2020-07-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
CN106273470B (zh) * 2015-06-10 2018-11-30 三纬国际立体列印科技股份有限公司 立体打印装置及其打印数据存储方法
JP6755809B2 (ja) * 2017-01-23 2020-09-16 株式会社ジャパンディスプレイ 表示装置
EP3528496A1 (en) * 2018-02-16 2019-08-21 Ultra-D Coöperatief U.A. Overscan for 3d display
US11224801B2 (en) * 2019-11-22 2022-01-18 International Business Machines Corporation Enhanced split-screen display via augmented reality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
WO2004021151A2 (en) * 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
AU2003303111A1 (en) * 2002-11-29 2004-07-29 Bracco Imaging, S.P.A. Method and system for scaling control in 3d displays
JP4118146B2 (ja) * 2003-01-09 2008-07-16 三洋電機株式会社 立体画像処理装置
JP4490074B2 (ja) * 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
KR100657275B1 (ko) * 2004-08-26 2006-12-14 삼성전자주식회사 입체 영상 신호 발생 방법 및 이에 적합한 스케일링 방법
DE102006014902B4 (de) * 2006-03-30 2009-07-23 Siemens Ag Bildverarbeitungseinrichtung zur erweiterten Darstellung von dreidimensionalen Bilddatensätzen
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR100942765B1 (ko) * 2008-03-18 2010-02-18 (주)블루비스 입체 영상 편집을 위한 장치 및 방법
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
CN101271678A (zh) * 2008-04-30 2008-09-24 深圳华为通信技术有限公司 屏幕字体缩放的方法及终端设备
EP2357823A4 (en) * 2008-12-02 2017-03-01 Lg Electronics Inc. 3d image signal transmission method, 3d image display apparatus and signal processing method therein
US8199186B2 (en) * 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
WO2011060525A1 (en) * 2009-11-19 2011-05-26 Esight Corporation Image magnification on a head mounted display

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2410753A4

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9161016B2 (en) 2011-01-26 2015-10-13 Fujifilm Corporation Image processing apparatus, imaging apparatus, reproduction apparatus, and image processing method for processing zoom in 3D imaging
EP2574065B1 (en) * 2011-01-26 2016-09-07 FUJIFILM Corporation Image processing device, image-capturing device, reproduction device, and image processing method
US9516300B2 (en) 2011-04-08 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
EP2509325A3 (en) * 2011-04-08 2015-10-21 Sony Corporation Image processing apparatus, image processing method, and program
EP2716052A1 (en) * 2011-05-23 2014-04-09 Qualcomm Incorporated Interactive user interface for stereoscopic effect adjustment
JP2014517619A (ja) * 2011-05-23 2014-07-17 クゥアルコム・インコーポレイテッド 立体視効果の調整用の対話型ユーザインターフェース
CN103609104A (zh) * 2011-05-23 2014-02-26 高通股份有限公司 用于立体效应调整的交互式用户接口
JP2016192773A (ja) * 2011-05-23 2016-11-10 クゥアルコム・インコーポレイテッドQualcomm Incorporated 立体視効果の調整用の対話型ユーザインターフェース
CN102215420A (zh) * 2011-06-20 2011-10-12 深圳创维-Rgb电子有限公司 一种电视机3d格式切换的方法、系统及电视机
EP2574068A3 (en) * 2011-09-20 2014-05-07 LG Electronics Image display apparatus and method for operating the same
US9024875B2 (en) 2011-09-23 2015-05-05 Lg Electronics Inc. Image display apparatus and method for operating the same
EP2574062A3 (en) * 2011-09-23 2014-05-07 LG Electronics Image display apparatus and method for operating the same
CN103024410B (zh) * 2011-09-23 2015-11-18 Lg电子株式会社 图像显示设备及其操作方法
CN103024410A (zh) * 2011-09-23 2013-04-03 Lg电子株式会社 图像显示设备及其操作方法
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments

Also Published As

Publication number Publication date
CN102450022B (zh) 2015-03-25
EP2410753A2 (en) 2012-01-25
KR101719980B1 (ko) 2017-03-27
WO2010151044A3 (ko) 2011-04-07
US20120050502A1 (en) 2012-03-01
KR20110138995A (ko) 2011-12-28
EP2410753B1 (en) 2016-10-19
CN102450022A (zh) 2012-05-09
EP2410753A4 (en) 2014-01-01

Similar Documents

Publication Publication Date Title
WO2010151044A2 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
WO2010107227A2 (en) A method of displaying three-dimensional image data and an apparatus of processing three-dimensional image data
WO2011046279A1 (en) Method for indicating a 3d contents and apparatus for processing a signal
WO2012044130A2 (ko) 배리어를 이용하는 3d 디스플레이 장치 및 그 구동 방법
WO2010151028A4 (en) Image display apparatus, 3d glasses, and method for operating the image display apparatus
WO2011059261A2 (en) Image display apparatus and operating method thereof
WO2012074328A2 (ko) 다시점 3차원 방송 신호를 수신하기 위한 수신 장치 및 방법
WO2013081429A1 (en) Image processing apparatus and method for subpixel rendering
WO2011155766A2 (ko) 영상 처리 방법 및 그에 따른 영상 표시 장치
WO2014010871A1 (en) Image display apparatus and menu display method
WO2012002690A2 (ko) 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
WO2011102699A2 (ko) 전자 장치 및 입체영상 재생 방법
WO2011129566A2 (ko) 이미지 디스플레이 방법 및 장치
WO2012177049A2 (en) Method and apparatus for processing broadcast signal for 3-dimensional broadcast service
WO2011152633A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
WO2010151027A4 (ko) 영상표시장치 및 그 동작방법
WO2011004963A2 (en) Method for displaying three-dimensional user interface
WO2011021894A2 (en) Image display apparatus and method for operating the same
WO2013100376A1 (en) Apparatus and method for displaying
WO2012057434A1 (en) Stereoscopic image processing system and device and glasses
WO2012050366A2 (en) 3d image display apparatus and display method thereof
WO2012102522A2 (ko) 디지털 방송 신호 송/수신 방법 및 장치
WO2013100722A1 (en) Glasses apparatus, display apparatus, content providing method using the same and method for converting mode of display apparatus
WO2023210887A1 (ko) 펜타일 방식 입체표시장치 및 시스템
WO2015002442A1 (ko) 다시점 영상이 제공되는 시스템에서 부가 오브젝트를 포함하는 3차원 영상 처리 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080022817.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10792326

Country of ref document: EP

Kind code of ref document: A2

REEP Request for entry into the european phase

Ref document number: 2010792326

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13265117

Country of ref document: US

Ref document number: 2010792326

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE