WO2012169694A1 - 3차원 그래픽 콘텐츠 재생 방법 및 장치 - Google Patents

3차원 그래픽 콘텐츠 재생 방법 및 장치 Download PDF

Info

Publication number
WO2012169694A1
WO2012169694A1 PCT/KR2011/006079 KR2011006079W WO2012169694A1 WO 2012169694 A1 WO2012169694 A1 WO 2012169694A1 KR 2011006079 W KR2011006079 W KR 2011006079W WO 2012169694 A1 WO2012169694 A1 WO 2012169694A1
Authority
WO
WIPO (PCT)
Prior art keywords
graphic
graphic content
depth information
output
user
Prior art date
Application number
PCT/KR2011/006079
Other languages
English (en)
French (fr)
Inventor
하래주
임효준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US14/123,950 priority Critical patent/US20140111610A1/en
Publication of WO2012169694A1 publication Critical patent/WO2012169694A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Definitions

  • the present invention relates to a method and apparatus for reproducing three-dimensional graphic contents, and more particularly, to a method and apparatus for converting and reproducing two-dimensional graphic contents into three-dimensional graphic contents using an object output order.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a method and apparatus for reproducing three-dimensional graphic contents which efficiently converts existing two-dimensional graphic contents into three-dimensional graphic contents.
  • the present invention comprises the steps of reading two-dimensional graphic content consisting of a two-dimensional graphic image comprising at least one object; Receiving an output command signal of the object; Setting depth information indicating a stereoscopic sense of the object from which the output command signal is received; And generating 3D graphic content including a left eye graphic image and a right eye graphic image by using the depth information of the set object, wherein the depth information setting step is performed according to a reception order of an output command signal of the object.
  • the present invention provides a 3D graphic content reproduction method for increasing a value of depth information of an object.
  • the depth information setting step of the present invention includes an embodiment of setting using the position information in the two-dimensional graphic image of the object.
  • the depth information setting step includes an embodiment of setting using the size information in the two-dimensional graphic image of the object.
  • the present invention includes an embodiment in which the output command signal is an application programming interface (API).
  • API application programming interface
  • the present invention comprises the steps of grouping the object into an object group; And setting the depth information for each object group.
  • the present invention comprises the steps of measuring the gaze direction of the user; And outputting the object in three-dimensional inclination in the direction of the user's gaze.
  • the present invention includes a step of measuring the gaze direction of the user, including measuring the position of the user or measuring the inclination of the output device.
  • the generating of the 3D graphic content may include setting an difference in distance between the object in the left eye graphic image and the object in the right eye graphic image according to depth information of the object.
  • the present invention includes an output unit for outputting the three-dimensional graphic content consisting of a left eye graphic image and a right eye graphic image;
  • a signal processor which decodes the 3D graphic contents; And reading two-dimensional graphic contents composed of two-dimensional graphic images including at least one object, receiving an output command signal of the object, and setting depth information indicating a three-dimensional effect of the received object.
  • a controller configured to control the signal processor to generate the 3D graphic content using the depth information of the set object, and to control the output unit to output the generated 3D graphic content to a user.
  • an apparatus for reproducing a 3D graphic content which increases a value of depth information of the object according to a reception order of an output command signal of the object.
  • the present invention also includes an embodiment in which the control unit sets depth information of the object by using position information in a two-dimensional graphic image of the object.
  • the present invention also includes an embodiment in which the control unit sets depth information of the object by using size information in a 2D graphic image of the object.
  • the present invention includes an embodiment in which the output command signal is an application programming interface (API).
  • API application programming interface
  • the present invention also includes an embodiment in which the control unit groups the objects into object groups and sets the depth information for each object group.
  • the present invention includes an embodiment further comprising a sensor unit for measuring the position of the user or the inclination of the output device.
  • the present invention also includes an embodiment in which the control unit controls the sensor unit to measure the gaze direction of the user, and outputs the object in three-dimensional inclination in the measured gaze direction of the user.
  • the present invention also includes an embodiment in which the controller generates the 3D graphic content by setting a distance difference between the object in the left eye graphic image and the object in the right eye graphic image according to depth information of the object. .
  • the method and apparatus for reproducing 3D graphic contents according to the present invention can convert 2D graphic content into 3D graphic content without modifying the 2D graphic content itself.
  • two-dimensional graphic content can be efficiently converted into three-dimensional graphic content without additional equipment or cost. Since the 2D graphic content on the market is used as it is, various 3D graphic contents can be provided to the user.
  • FIG. 1 is a diagram illustrating two-dimensional graphic content and three-dimensional graphic content according to an embodiment of the present invention.
  • FIG. 2 is a diagram for describing depth information of 3D graphic content according to an exemplary embodiment of the present invention.
  • 3 and 4 are diagrams for describing a method of outputting 2D graphic content and 3D graphic content according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart of a method for converting 2D graphic content into 3D graphic content according to an embodiment of the present invention.
  • FIG. 6 is a conceptual diagram of an object group according to an embodiment of the present invention.
  • FIG. 7 is a diagram for describing output of 3D graphic content according to a user's gaze direction according to an exemplary embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a method of outputting 3D graphic content according to a user's gaze direction according to an exemplary embodiment of the present invention.
  • FIG. 9 is a block diagram illustrating an apparatus for reproducing 3D graphic contents according to an exemplary embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating the configuration of the signal processor of FIG. 9 in more detail.
  • the three-dimensional graphic content reproduction apparatus 100 described in the present specification includes a TV, a mobile phone, a smart phone, a personal computer, a laptop computer, a digital broadcasting terminal. All devices capable of outputting 3D images such as navigation, navigation, portable multimedia player (PMP), and personal digital assistants (PDA) may be included.
  • PMP portable multimedia player
  • PDA personal digital assistants
  • FIG. 1 is a diagram illustrating two-dimensional graphic content 200 and three-dimensional graphic content 300 according to an embodiment of the present invention.
  • FIG. (A) shows two-dimensional graphic content (2D Graphic Content) 200, and (b) shows three-dimensional graphic content (3D Graphic Content, 300).
  • the two-dimensional graphic content 200 is composed of one graphic image.
  • Each graphic image includes at least one object.
  • Four objects are included in the graphic image of the two-dimensional graphic content 200 of the drawing.
  • the apparatus for reproducing three-dimensional graphic contents of the present invention may reproduce two-dimensional graphic contents by outputting objects on one screen.
  • the 3D graphic content 300 includes a left eye graphic image 301 and a right eye graphic image 303.
  • the left eye graphic image 301 includes objects viewed by the user in the left view
  • the right eye graphic image 303 includes objects viewed by the user in the right view.
  • binocular disparity may be used to obtain the stereoscopic effect by viewing the same object in different directions with the left and right eyes.
  • a two-dimensional image having binocular disparity is separately outputted to the left eye and the right eye.
  • the 3D image is provided to the user by exposing the left image to the left and right images alternately through the special glasses such as polarization filter glasses.
  • the three-dimensional graphic content 300 of the present invention is composed of a left eye graphic image 301 exposed to the left eye of the user and a right eye graphic image 303 exposed to the right eye of the user.
  • the apparatus for reproducing three-dimensional graphic contents 100 reads and decodes the above-mentioned three-dimensional graphic contents 300.
  • the left eye graphic image 301 and the right eye graphic image 303 are sequentially read and decoded into one three-dimensional stereoscopic image.
  • the decoded 3D image data is output to the user through an output device (Displayer) of the 3D graphic content reproduction device 100.
  • the user wears special glasses 13, such as polarized filter glasses, to view a three-dimensional image.
  • the present invention can be applied to the autostereoscopic method.
  • the three-dimensional graphic content 300 is configured such that each object has a three-dimensional effect. That is, the graphical images 301, 303 are configured such that the objects appear away from the output device in the user's direction.
  • the three-dimensional graphic content 300 of the drawing is configured such that the object 4 (object # 4) has a three-dimensional effect. Between the left eye graphic image 301 and the right eye graphic image 303, the object 4 (object # 4) is output to have a three-dimensional effect due to the distance difference of the object 4 (object # 4).
  • the degree of three-dimensional effect of objects is called depth information.
  • FIG. 2 is a view for explaining depth information of the three-dimensional graphic content 300 according to an embodiment of the present invention.
  • the depth information is information indicating how much three-dimensionality the object is output. That is, information indicating how far the object is output from the output device toward the user.
  • 3D graphic content 300 of the drawing includes four objects, object 1 (object # 1) is output with the smallest three-dimensional, and object 4 (object # 4) is output with the largest three-dimensional. That is, object 1 (object # 1) is output at the position closest to the output device, and object 4 (object # 4) is output at the position farthest from the output device.
  • the depth information of object 1 (object # 1) has the smallest value
  • the depth information of object 4 (object # 4) has the largest value.
  • the apparatus for reproducing 3D graphic contents 100 may adjust the difference in distance of the same object in the left eye graphic image 301 and the right eye graphic image 303 to adjust the three-dimensional effect of the corresponding object.
  • 3 and 4 are diagrams for describing a method of outputting the 2D graphic content 200 and the 3D graphic content 300 according to an exemplary embodiment of the present invention.
  • FIG. 3 illustrates the output of the two-dimensional graphic content 200
  • FIG. 4 illustrates the output of the three-dimensional graphic content 300.
  • the 2D graphic content 200 and the 3D graphic content 300 are composed of one graphic image including a plurality of objects. Each object is output on the screen according to the output command of the object.
  • An example of the output command of the present invention is an API (Application Programming Interface) or a control signal of the 3D graphic content reproducing apparatus 100.
  • An application programming interface refers to a set of instructions included in an application program for playing graphic content. Therefore, the apparatus for reproducing 3D graphic contents 100 of the present invention may call the output API of the corresponding object in a predetermined object output order.
  • the two-dimensional graphic content 200 and the three-dimensional graphic content 300 have an object output order determined so as to be sequentially output from the object 1 (Object # 1) to the object 4 (Object # 4).
  • the reproduction device 100 calls the corresponding object output command in accordance with the output order of the determined object.
  • the object 1 (Object # 1) When the output command of the object 1 (Object # 1) is called, the object 1 (Object # 1) is output on the screen as shown in Fig. (A), and when the output command of the object 2 (Object # 2) is called, Fig. (B) ), Object # 2 is displayed on the screen.
  • the output command of the object 3 (Object # 3) is called, the object 3 (Object # 3) is output on the screen as shown in Fig. (C), and when the output command of the object 4 (Object # 2) is called, As shown in (d), the object 4 (Object # 4) is output on the screen, and one 2D image or 3D image is output.
  • the output order of each object is stored in an application program or two-dimensional graphic content 200, and the apparatus for reproducing three-dimensional graphic content of the present invention receives an output command signal of an object called according to the output order and receives the corresponding object.
  • FIG. 5 is a flowchart of a method for converting two-dimensional graphic content 200 into three-dimensional graphic content 300 according to an embodiment of the present invention.
  • the 3D graphic content reproducing apparatus 100 of the present invention receives the 2D graphic content 200.
  • the 2D graphic content 200 includes a graphic image including a plurality of objects. It consists of
  • the 3D graphic content reproducing apparatus 100 determines whether to reproduce the 2D graphic content 200 as a 2D image or to convert the 3D graphic content to a 3D image according to a user's command.
  • the 3D graphic content reproducing apparatus 100 According to a user's command to reproduce the 2D graphic content 200 as a 2D image, the 3D graphic content reproducing apparatus 100 outputs the 2D graphic content 200 as a 2D image without converting it. (S114)
  • the 3D graphic content reproducing apparatus 100 converts the 2D graphic content 200 into the 3D graphic content 300. To perform.
  • a process of converting the 2D graphic content 200 into the 3D graphic content 300 will be described.
  • the 3D graphic content reproducing apparatus 100 receives an output command of the objects included in the 2D graphic content 200. (S104) As described above, the output command (API) of the object in accordance with the object output order. Is called. The 3D graphics content reproducing apparatus 100 receives the called object output command signal.
  • the 3D graphic content reproducing apparatus 100 sets depth information of the object for which the output command is called.
  • the apparatus for reproducing 3D graphic contents 100 of the present invention may set depth information of a corresponding object in various ways.
  • the 3D graphic content reproducing apparatus 100 may set depth information of an object by using a call order of an object output command.
  • the object in which the first output command is called has the smallest depth information
  • the object in which the output command is called last has the largest depth information. That is, the depth information may be set to increase gradually according to the calling order of the output command.
  • the 3D graphic content reproducing apparatus 100 may set depth information of the object by using the position information of the object. For example, as the object is positioned above the two-dimensional graphic image, depth information of a smaller value may be set, and as the object is located below, the depth information of a larger value may be set.
  • the 3D graphic content reproduction apparatus 100 may set the depth information of the object by using the size information of the object. For example, as the size of the object is smaller, depth information of a smaller value may be set, and as the object size is larger, depth information of a larger value may be set.
  • the apparatus for reproducing 3D graphic contents 100 of the present invention may perform the above-described methods singly or simultaneously.
  • the apparatus 100 for reproducing 3D graphics content determines whether an object to be output remains (S108), and if there are more objects to be output, the process of setting depth information of the corresponding object is performed again.
  • the 3D graphic content reproducing apparatus 100 If there is no object to be output, the 3D graphic content reproducing apparatus 100 generates 3D graphic content using the depth information of the objects set above (S110).
  • the 3D graphic content reproducing apparatus 100 may adjust the difference in distance between the object in the left eye graphic image 301 and the right eye graphic image 303 to adjust the stereoscopic feeling of the object.
  • the 3D graphic content reproducing apparatus 100 generates the left eye graphic image 301 and the right eye graphic image 303 based on the depth information of the objects set above. That is, the left eye graphic image 301 and the right eye graphic image 303 are generated by adjusting the distance difference of each object in the graphic image of the 2D graphic content according to the depth information.
  • the 3D graphic content reproducing apparatus 100 outputs the generated 3D graphic content 300 to the user through the video output unit 190 to be described later (S112).
  • FIG. 6 is a conceptual diagram of an object group according to an embodiment of the present invention.
  • depth information is set for each object included in the 2D graphic content 200.
  • the two-dimensional graphic content 200 includes a plurality of objects, a plurality of depth information is also set for each object. This has the advantage of giving the user a variety of three-dimensional feeling, but may cause dizziness or confusion in the user due to the characteristics of the three-dimensional image.
  • the present invention is characterized in that the objects are grouped and the depth information is set for each object group.
  • the objects of the 2D graphic content 200 in the drawing are set to have four types of depth information. That is, the two-dimensional graphic content 200 is converted into the three-dimensional graphic content 300 with four dimensions.
  • the objects of the two-dimensional graphic content 200 in the drawing are set to have three depth information. That is, the two-dimensional graphic content 200 is converted into three-dimensional graphic content 300 having three-dimensional feeling.
  • objects corresponding to the same object group may have different depth information according to the above-described output command call order, object position, and object size.
  • the output command of the object 2 (Object # 2) and the object 3 (Object # 3) Depth information can be set differently according to the calling order, object position, and object size difference.
  • the 3D graphic content reproduction method of the present invention may add the 3D graphic content 300 to the object according to the user's gaze direction and output it to the user.
  • FIG. 7 is a view for explaining the output of the three-dimensional graphic content 300 according to the direction of the user's gaze according to an embodiment of the present invention.
  • FIG. (A) shows a screen on which the 3D graphic content 300 is output when the user views the 3D graphic content reproduction apparatus 100 from the front.
  • each object is output with a three-dimensional effect in accordance with the above-described depth information.
  • FIG. (B) shows a screen on which the 3D graphic content 300 is output when the user looks at the 3D graphic content reproducing apparatus 100 from the left diagonal direction.
  • each object is output to have a three-dimensional inclination to the left along with a three-dimensional sense according to the above-described depth information.
  • FIG. (A) illustrates a screen on which the 3D graphic content 300 is output when the user looks at the 3D graphic content reproducing apparatus 100 in a diagonal direction on the right.
  • each object is output to have a three-dimensional inclination to the right along with a three-dimensional sense according to the above-described depth information.
  • the 3D graphic content reproduction method of the present invention may output each object in a three-dimensional inclination according to the user's gaze direction.
  • FIG. 8 is a flowchart illustrating a method of outputting 3D graphic content according to a user's gaze direction according to an exemplary embodiment of the present invention.
  • the apparatus for reproducing 3D graphic contents of the present invention 100 measures a user's gaze direction measurement (S200).
  • the apparatus for reproducing 3D graphic contents of the present invention 100 uses various sensors to determine the gaze direction of the user. It can be measured.
  • the 3D graphic content reproducing apparatus 100 may set a user's gaze direction by measuring a user's position and head direction using a camera sensor.
  • the 3D graphic content reproducing apparatus 100 may measure the inclination of the 3D graphic content reproducing apparatus 100 using a gyro sensor or a gravity sensor. As the 3D graphic content reproducing apparatus 100 is inclined, the user's gaze direction may be determined. For example, when the left portion of the 3D graphic content reproduction apparatus 100 is inclined backward, it may be understood that the user's gaze direction is right.
  • the 3D graphic content reproducing apparatus 100 generates a 3D object inclined in the measured user's gaze direction (S202).
  • a 3D object is generated according to the output command call order, object position, and object size of the object. The method is described above, and further sets the three-dimensional effect of the generated three-dimensional object to be inclined in the direction of the user's eyes.
  • the 3D graphic content 300 is generated by using the 3D objects set in the 3D graphic content reproducing apparatus 100. (S204) Since all 3D objects have the same inclination, the respective objects are integrated, The three-dimensional graphic content 300 is generated.
  • the 3D graphic content reproducing apparatus 100 outputs the generated 3D graphic content 300 to the user through the video output unit 190 (S206).
  • FIG. 9 is a block diagram illustrating an apparatus 100 for reproducing 3D graphic contents according to an exemplary embodiment of the present invention.
  • the apparatus for reproducing 3D graphic contents 100 includes a tuner 110, a demodulator 120, an interface 112, a controller 114, a storage 160, and a signal processor ( 170, an audio output unit 180 and a video output unit 190.
  • the tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna.
  • the selected RF broadcast signal is converted into an intermediate frequency signal or a baseband video or audio signal.
  • the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF).
  • DIF digital IF signal
  • the analog broadcast signal is converted into an analog baseband video or audio signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal.
  • the analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the signal processor 170.
  • the tuner unit 110 may receive a single broadcast RF broadcast signal according to an ATSC (Advanced Television System Committee) scheme or a multiple broadcast RF broadcast signal according to a digital video broadcasting (DVB) scheme.
  • ATSC Advanced Television System Committee
  • DVD digital video broadcasting
  • the tuner unit 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna and converts them into intermediate frequency signals or baseband video or audio signals. I can convert it.
  • the demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation. For example, when the digital IF signal output from the tuner unit 110 is an ATSC scheme, the demodulator 120 performs 7-VSB (7-Vestigal Side Band) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, a reed solomon decoder, and the like, for trellis decoding, deinterleaving, and read. Soloman decryption can be performed.
  • the demodulator 120 when the digital IF signal output from the tuner unit 110 is a DVB scheme, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. In addition, the demodulator 120 may perform channel decoding. To this end, the demodulator 120 may include a convolution decoder, a deinterleaver, a reed-soloman decoder, and the like to perform convolutional decoding, deinterleaving, and reed soloman decoding.
  • COFDMA coded orthogonal frequency division modulation
  • the demodulator 120 may output a stream signal TS after performing demodulation and channel decoding.
  • the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal.
  • the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like.
  • the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.
  • the stream signal output from the demodulator 120 is input to the signal processor 170.
  • the signal processor 170 performs demultiplexing, image / audio signal processing, and the like, and then outputs an image to the video output unit 190 and outputs audio to the audio output unit 180.
  • the interface unit 112 transmits and receives data to and from a mobile terminal connected to communicate with each other, and receives a user's command.
  • the interface unit 112 includes a network interface unit 130, an external device interface unit 140, and a user input interface unit 150.
  • the network interface unit 130 provides an interface for connecting the 3D graphic content reproducing apparatus 100 to a wired / wireless network including an internet network.
  • the network interface unit 130 may include an Ethernet terminal for connecting to a wired network, and includes a WLAN (Wi-Fi), a Wibro (Wireless broadband), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA) communication standard terminal, and the like.
  • WLAN Wi-Fi
  • Wibro Wireless broadband
  • Wimax World Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • the network interface unit 130 is configured to receive content or data provided by the Internet or a content provider or a network operator through a network. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from the Internet, a content provider, etc. may be received through a network. In addition, it is possible to receive the update information and the update file of the firmware provided by the network operator. It may also transmit data to the Internet or content provider or network operator.
  • the network interface unit 130 is configured to search for the mobile terminal 200 to be communicatively connected, and to transmit and receive data with the connected mobile terminal.
  • the network interface unit 130 is connected to, for example, an IP (Internet Protocol) TV, and receives a video, audio, or data signal processed by the set-top box for the IPTV to enable bidirectional communication. It may be delivered to, and the signal processed by the signal processing unit 170 may be delivered to the set-top box for IPTV.
  • IP Internet Protocol
  • the external device interface unit 140 is configured to transmit or receive data with the external device.
  • the external device interface unit 140 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
  • the external device interface unit 140 may be connected to an external device such as a DVD (Digital Versatile Disk), Blu-ray (Blu ray), a game device, a camera, a camcorder, a computer (laptop) or the like by wire / wireless. .
  • the external device interface unit 140 transmits an externally input image, audio, or data signal to the signal processor 170 of the 3D graphic content reproducing apparatus 100 through the connected external device.
  • the video, audio, or data signal processed by the signal processor 170 may be output to the connected external device.
  • the external device interface unit 140 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).
  • the A / V input / output unit may input a video and audio signal of an external device to the 3D graphic content reproducing apparatus 100, such as a USB terminal, a Composite Video Banking Sync (CVBS) terminal, a component terminal, and an S-video terminal ( Analog (DVI), Digital Visual Interface (DVI) terminal, High Definition Multimedia Interface (HDMI) terminal, RGB terminal, D-SUB terminal and the like.
  • a USB terminal such as a USB terminal, a Composite Video Banking Sync (CVBS) terminal, a component terminal, and an S-video terminal ( Analog (DVI), Digital Visual Interface (DVI) terminal, High Definition Multimedia Interface (HDMI) terminal, RGB terminal, D-SUB terminal and the like.
  • HDMI High Definition Multimedia Interface
  • the external device interface unit 140 may be connected through at least one of the various set-top boxes and the various terminals described above to perform input / output operations with the set-top box.
  • the user input interface unit 150 transmits a signal input by the user to the controller 114 or transmits a signal from the controller 114 to the user.
  • the user input interface unit 150 may power on / off, select a channel, and display a screen from a remote controller (not shown) according to various communication methods such as RF (Radio Frequency) communication and infrared (IR) communication.
  • RF Radio Frequency
  • IR infrared
  • the user input interface unit 150 may transmit a user input signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 114.
  • a local key such as a power key, a channel key, a volume key, and a set value
  • the storage unit 160 may store a program for processing and controlling each signal in the controller 114 and the signal processor 170, or may store a signal-processed video, audio, or data signal. In addition, the storage unit 160 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 140.
  • the storage unit 160 may store a predetermined broadcast channel through a channel storage function such as a channel map. Information can be stored.
  • the storage 160 may store the aforementioned 2D graphic content 200 and 3D graphic content 300.
  • the storage unit 160 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), RAM, ROM (EEPROM, etc.) may be composed of at least one type of storage medium.
  • the 3D graphic content reproducing apparatus 100 may reproduce and provide the 2D graphic content 200 or the 3D graphic content 300 stored in the storage 160 to the user.
  • FIG 9 illustrates an embodiment in which the storage unit 160 is provided separately from the control unit 114, but the scope of the present invention is not limited thereto, and the storage unit 160 may be configured to be included in the control unit 114. have.
  • the signal processor 170 may include the 2D graphic content 200 and the 3D graphic content 300 input through the tuner 110 or the demodulator 120 or the external device interface 140 or the storage 160. Decode and generate and output a signal for video or audio output.
  • the voice signal processed by the signal processor 170 may be sound output to the audio output unit 180.
  • the voice signal processed by the signal processor 170 may be input to the external output device through the external device interface unit 140.
  • the image signal processed by the signal processor 170 may be input to the video output unit 190 and displayed as an image corresponding to the image signal.
  • the image signal processed by the signal processor 170 may be input to an external output device through the external device interface unit 140.
  • the signal processing unit 170 may be included in the control unit 114, the present invention is not limited to such a configuration, the detailed configuration of the signal processing unit 170 will be described later.
  • the controller 114 may control overall operations in the 3D graphic content playback device 100. For example, the controller 114 controls the signal processor 170 according to a user's command received from the interface 112. The controller 114 may control the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.
  • the controller 114 may control the 3D graphic content reproduction apparatus 100 by a user command or an internal program input through the user input interface unit 150.
  • the controller 114 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface 150.
  • the signal processor 170 is controlled to process video, audio, or data signals of the selected channel.
  • the controller 114 controls the signal processor 170 so that the channel information selected by the user may be output through the video output unit 190 or the audio output unit 180 together with the processed image or audio signal.
  • control unit 114 controls the signal processing unit 170, according to the external device image playback command received through the user input interface unit 150, an external device input through the external device interface unit 140, for example
  • an image signal or an audio signal from a camera or a camcorder may be output through the video output unit 190 or the audio output unit 180.
  • the controller 114 may control the video output unit 190 to display an image through the signal processor 170. For example, a broadcast image input through the tuner unit 110, an external input image input through the external device interface unit 140, or an image input through the network interface unit 130 or stored in the storage unit 160. The image may be controlled to be displayed on the video output unit 190.
  • controller 114 controls the above-described components to perform a method of converting the 2D graphic content 200 of the 3D graphic content reproduction apparatus 100 to the 3D graphic content 300 and playing the same. can do.
  • the controller 114 controls the signal processor 170 to decode the 2D graphic content 200 into the 3D graphic content 300.
  • the method of converting the 2D graphic content 200 into the 3D graphic content 300 using the output command call order of the object, the position of the object, and the size of the object has been described above.
  • the audio output unit 180 receives a signal processed by the signal processor 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal.
  • the voice output unit 185 may be implemented by various types of speakers.
  • the video output unit 190 converts and drives an image signal, a data signal, an OSD signal, a control signal, or an image signal received from the external device interface unit 140 processed by the signal processor 170. Generate a signal.
  • the video output unit 190 may be configured of a PDP, an LCD, an OLED, a flexible display capable of a 3D display, and the like. Meanwhile, the video output unit 190 may be configured as a touch screen and used as an input device in addition to the output device.
  • the sensor unit 116 including at least one of a camera sensor, a gyro sensor, a gravity sensor may be further provided in the 3D graphic content playback device 100.
  • the signal detected by the sensor unit 116 is transmitted to the control unit 114.
  • the apparatus for reproducing 3D graphic contents 100 shown in FIG. 9 is for illustrating the present invention, and may be integrated, added, or omitted according to a specification that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • FIG. 10 is a block diagram illustrating the configuration of the signal processor 170 of FIG. 9 in more detail.
  • the signal processor 170 may include a demultiplexer 172, an image processor 176, an audio processor 174, an OSD generator 182, a mixer 184, and a frame rate converter ( 186). In addition, although not shown, the signal processor 170 may further include a data processor.
  • the demultiplexer 172 demultiplexes an input stream.
  • the MPEG-2 TS may be demultiplexed and separated into video, audio, and data signals, respectively.
  • the stream signal input to the demultiplexer 172 may be a stream signal output from the tuner 110, the demodulator 120, or the external device interface 140.
  • the audio processor 174 may perform voice processing of the demultiplexed voice signal. To this end, the audio processor 174 includes various decoders to decode audio signals encoded in various ways.
  • the video processor 176 decodes the demultiplexed video signal.
  • the video processor 176 may include decoders of various standards.
  • the video processor 176 may include at least one of an MPEG-2 decoder, an H.264 decoder, an MPEC-C decoder (MPEC-C part 3), an MVC decoder, and an FTV decoder.
  • the video processor 176 may include a 3D video decoder for decoding the 3D video signal.
  • the OSD generator 182 generates an OSD signal according to a user input or itself. For example, based on the user text input signal, a signal for displaying various types of information on a screen of the video output unit 190 as a graphic or text is generated.
  • the generated OSD signal may be a user interface screen of the 3D graphic content reproducing apparatus 100 and may include various data such as various menu screens, a bookmark tray 303 screen, widgets, icons, and the like.
  • the mixer 184 mixes the OSD signal generated by the OSD generator 182 with the decoded image signal processed by the image processor 176.
  • the mixed video signal is provided to the frame rate converter 186, and the frame rate converter 186 converts the frame rate of the input image.
  • the present invention relates to a method and apparatus for reproducing 3D graphic contents, and to a method and apparatus for converting and reproducing 2D graphic contents into 3D graphic contents using object output order.

Abstract

본 발명은 3차원 그래픽 콘텐츠 재생 방법 및 장치에 관한 것으로, 본 발명은 적어도 하나의 오브젝트를 포함하는 2차원 그래픽 이미지로 구성된 2차원 그래픽 콘텐츠를 읽는 단계; 상기 오브젝트의 출력 명령 신호를 수신하는 단계; 상기 출력 명령 신호가 수신된 오브젝트의 입체감을 의미하는 깊이 정보를 설정하는 단계; 및 상기 설정된 오브젝트의 깊이 정보를 이용하여, 좌안 그래픽 이미지와 우안 그래픽 이미지로 구성된 3차원 그래픽 콘텐츠를 생성하는 단계를 포함하고, 상기 깊이 정보 설정 단계는, 상기 오브젝트의 출력 명령 신호의 수신 순서에 따라, 상기 오브젝트의 깊이 정보의 값을 증가시키는 3차원 그래픽 콘텐츠 재생 방법 및 장치를 제공한다. 상기와 같은 구성을 통하여, 본 발명에 따른 3차원 그래픽 콘텐츠 재생 방법 및 장치에 의하면, 2차원 그래픽 콘텐츠 자체에 대한 수정 없이, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 변환할 수 있다. 그리고, 추가 장비나 비용 없이, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 효율적으로 변환할 수 있다.

Description

3차원 그래픽 콘텐츠 재생 방법 및 장치
본 발명은 3차원 그래픽 콘텐츠 재생 방법 및 장치에 관한 것으로, 더욱 상세하게는 오브젝트 출력 순서를 이용하여, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 변환하여 재생하는 방법 및 장치에 관한 것이다.
최근 기술의 급격한 발달로 다양한 3차원 그래픽 콘텐츠를 재생할 수 있는 장치들이 개발되어 상용화되고 있다. 그러나, 3차원 그래픽 콘텐츠의 수가 많지 않아, 사용자들이 3차원 그래픽 콘텐츠 재생 장치를 제대로 활용하지 못하는 경우가 다수 발생하고 있다.
사용자가 원하는 3차원 그래픽 콘텐츠를 감상하기 위해서는, 그래픽 콘텐츠 제조사들이 기존의 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 전환하여 출시할 때까지 기다려야만 했다.
이에 따라, 사용자가 다양한 3차원 그래픽 콘텐츠들을 감상하기 위해서는, 기존의 2차원 그래픽 콘텐츠를 이용하여, 3차원 그래픽 콘텐츠를 생성하여 재생하는 방법 및 장치 등이 요구되고 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 기존의 2차원 그래픽 콘텐츠들을 효율적으로 3차원 그래픽 콘텐츠로 변환하는 3차원 그래픽 콘텐츠 재생 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 적어도 하나의 오브젝트를 포함하는 2차원 그래픽 이미지로 구성된 2차원 그래픽 콘텐츠를 읽는 단계; 상기 오브젝트의 출력 명령 신호를 수신하는 단계; 상기 출력 명령 신호가 수신된 오브젝트의 입체감을 의미하는 깊이 정보를 설정하는 단계; 및 상기 설정된 오브젝트의 깊이 정보를 이용하여, 좌안 그래픽 이미지와 우안 그래픽 이미지로 구성된 3차원 그래픽 콘텐츠를 생성하는 단계를 포함하고, 상기 깊이 정보 설정 단계는, 상기 오브젝트의 출력 명령 신호의 수신 순서에 따라, 상기 오브젝트의 깊이 정보의 값을 증가시키는 3차원 그래픽 콘텐츠 재생 방법을 제공한다.
또한, 본 발명은 상기 깊이 정보 설정 단계는,상기 오브젝트의 2차원 그래픽 이미지 내 위치 정보를 이용하여 설정하는 실시예를 포함한다.
또한, 본 발명은 상기 깊이 정보 설정 단계는, 상기 오브젝트의 2차원 그래픽 이미지 내 크기 정보를 이용하여 설정하는 실시예를 포함한다.
또한, 본 발명은 상기 출력 명령 신호는, API(Application Programming Interface)인 실시예를 포함한다.
또한, 본 발명은 상기 오브젝트를 오브젝트 그룹으로 그룹핑하는 단계; 및 상기 깊이 정보를 상기 오브젝트 그룹별로 설정하는 단계를 포함하는 실시예를 포함한다.
또한, 본 발명은 사용자의 시선 방향을 측정하는 단계; 및 상기 오브젝트를 상기 측정된 사용자의 시선 방향으로 기울어진 입체감으로 출력하는 단계를 더 포함하는 실시예를 포함한다.
또한, 본 발명은 상기 사용자의 시선 방향 측정 단계는, 사용자의 위치를 측정하는 단계 또는 출력 장치의 기울어짐을 측정하는 단계를 포함하는 실시예를 포함한다.
또한, 본 발명은 상기 3차원 그래픽 콘텐츠를 생성 단계는, 상기 오브젝트의 깊이 정보에 따라, 상기 좌안 그래픽 이미지 내 상기 오브젝트와 우안 그래픽 이미지 내의 상기 오브젝트의 거리 차이를 설정하는 실시예를 포함한다.
또한, 본 발명은 좌안 그래픽 이미지와 우안 그래픽 이미지로 구성된 3차원 그래픽 콘텐츠를 출력하는 출력부; 상기 3차원 그래픽 콘텐츠를 디코드하는 신호처리부; 및 적어도 하나의 오브젝트를 포함하는 2차원 그래픽 이미지로 구성된 2차원 그래픽 콘텐츠를 읽고, 상기 오브젝트의 출력 명령 신호를 수신하고, 상기 출력 명령 신호가 수신된 오브젝트의 입체감을 의미하는 깊이 정보를 설정하고, 상기 설정된 오브젝트의 깊이 정보를 이용하여, 상기 3차원 그래픽 콘텐츠를 생성하도록 상기 신호처리부를 제어하고, 상기 생성된 3차원 그래픽 콘텐츠를 사용자에게 출력하도록 상기 출력부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 오브젝트의 출력 명령 신호의 수신 순서에 따라, 상기 오브젝트의 깊이 정보의 값을 증가시키는 3차원 그래픽 콘텐츠 재생 장치를 제공한다.
또한, 본 발명은 상기 제어부는, 상기 오브젝트의 2차원 그래픽 이미지 내 위치 정보를 이용하여, 상기 오브젝트의 깊이 정보를 설정하는 실시예를 포함한다.
또한, 본 발명은 상기 제어부는, 상기 오브젝트의 2차원 그래픽 이미지 내 크기 정보를 이용하여, 상기 오브젝트의 깊이 정보를 설정하는 실시예를 포함한다.
또한, 본 발명은 상기 출력 명령 신호는, API(Application Programming Interface)인 실시예를 포함한다.
또한, 본 발명은 상기 제어부는, 상기 오브젝트를 오브젝트 그룹으로 그룹핑하고, 상기 깊이 정보를 상기 오브젝트 그룹별로 설정하는 실시예를 포함한다.
또한, 본 발명은 사용자의 위치를 측정하거나 출력 장치의 기울어짐을 측정하는 센서부를 더 포함하는 실시예를 포함한다.
또한, 본 발명은 상기 제어부는, 상기 센서부를 제어하여, 상기 사용자의 시선 방향을 측정하고, 상기 오브젝트를 상기 측정된 사용자의 시선 방향으로 기울어진 입체감으로 출력하는 실시예를 포함한다.
또한, 본 발명은 상기 제어부는, 상기 오브젝트의 깊이 정보에 따라, 상기 좌안 그래픽 이미지 내 상기 오브젝트와 우안 그래픽 이미지 내의 상기 오브젝트의 거리 차이를 설정하여 상기 3차원 그래픽 콘텐츠를 생성하는 실시예를 포함한다.
본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속함을 밝혀둔다.
상기와 같은 구성을 통하여, 본 발명에 따른 3차원 그래픽 콘텐츠 재생 방법 및 장치에 의하면, 2차원 그래픽 콘텐츠 자체에 대한 수정 없이, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 변환할 수 있다. 그리고, 추가 장비나 비용 없이, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 효율적으로 변환할 수 있다. 시장에 출시되어 있는 2차원 그래픽 콘텐츠를 그대로 이용하므로, 사용자에게 다양한 3차원 그래픽 콘텐츠를 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠와 3차원 그래픽 콘텐츠를 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 3차원 그래픽 콘텐츠의 깊이 정보를 설명하기 위한 도면이다.
도 3과 4는 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠와 3차원 그래픽 콘텐츠의 출력 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 변환하는 방법의 순서도이다.
도 6은 본 발명의 실시예에 따른 오브젝트 그룹의 개념도이다.
도 7은 본 발명의 실시예에 따른 사용자의 시선 방향에 따른 3차원 그래픽 콘텐츠의 출력을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 사용자의 시선 방향에 따라 3차원 그래픽 콘텐츠의 출력하는 방법의 순서도이다.
도 9는 본 발명의 실시예에 따른 3차원 그래픽 콘텐츠 재생 장치를 도시한 블록도이다.
도 10은 도 9의 신호처리부의 구성을 더욱 상세하게 예시한 블록도이다.
이하 첨부된 도면을 참조하여 본 발명의 실시예를 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명한다. 이하 설명에서 동일한 구성 요소에는 설명의 편의상 동일 명칭 및 동일 부호를 부여한다.
본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우는 해당되는 발명의 설명부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 3차원 그래픽 콘텐츠 재생 장치(100)에는 TV(Television), 핸드폰(Hand Phone), 스마트폰(Smart Phone), 퍼스널 컴퓨터(Personal Computer), 노트북 컴퓨터(Laptop Computer), 디지털방송용 단말기, 내비게이션, PMP(Portable Multimedia Player), PDA(Personal Digital Assistants) 등 3차원 영상을 출력할 수 있는 모든 장치가 포함될 수 있다.
본 명세서에서는 TV(Television)를 3차원 그래픽 콘텐츠 재생 장치(100)의 일례로 하여 설명하도록 한다.
도 1은 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)를 도시한 도면이다.
도 (a)는 2차원 그래픽 콘텐츠(2D Graphic Content, 200)를 도시한 것이고, 도 (b)는 3차원 그래픽 콘텐츠(3D Graphic Content, 300)를 도시한 것이다.
도면과 같이, 2차원 그래픽 콘텐츠(200)는 하나의 그래픽 이미지(Graphic Image)들로 구성된다. 각 그래픽 이미지는 적어도 하나의 오브젝트(Object)를 포함하여 구성된다. 도면의 2차원 그래픽 콘텐츠(200)의 그래픽 이미지에는 4개의 오브젝트들이 포함되어 있다. 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 하나의 화면에 오브젝트들을 출력하여, 2차원 그래픽 콘텐츠를 재생할 수 있다.
그리고, 3차원 그래픽 콘텐츠(300)는 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)로 구성된다. 좌안 그래픽 이미지(301)에는 사용자가 왼쪽 시야에서 바라본 오브젝트들이 포함되어 있으며, 우안 그래픽 이미지(303)에는 사용자가 오른쪽 시야에서 바라본 오브젝트들이 포함되어 있다.
3차원 그래픽 콘텐츠(300)를 사용자에게 제공하는 방법으로, 동일 물체를 좌우의 눈으로 서로 다른 방향에서 보도록 하여, 입체감을 얻는 양안 시차(binocular disparity)를 이용할 수 있다.
이에 의하면, 양안 시차를 갖는 2차원 영상을 좌안과 우안에 따로따로 분리 출력한다. 그리고, 편광필터 안경과 같은 특수 안경을 통해, 좌측 영상을 좌안에 우측 영상을 우안에 교대로 노출하는 방식으로 3차원 영상을 사용자에게 제공하는 것이다.
따라서, 본 발명의 3차원 그래픽 콘텐츠(300)는 사용자의 좌안에 노출되는 좌안 그래픽 이미지(301)와 사용자의 우안에 노출되는 우안 그래픽 이미지(303)로 구성되는 것이다.
그리고, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 전술한 3차원 그래픽 콘텐츠(300)를 읽어서 디코드(Decode)한다. 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)를 순차적으로 읽어서, 하나의 3차원 입체 영상으로 디코드한다. 디코드된 3차원 영상 데이터는 3차원 그래픽 콘텐츠 재생 장치(100)의 출력 장치(Displayer)를 통해 사용자에게 출력되는 것이다. 그리고, 사용자는 편광필터 안경과 같은 특수 안경(13)을 착용하여, 3차원 영상을 감상하게 된다.
참고로, 상기에서는 특수 안경이 필요한 안경(Stereoscopic) 방식에 대해 예시하였으나, 본 발명은 무안경(Autostereoscopic) 방식에도 적용 가능하다.
3차원 그래픽 콘텐츠(300)는 각 오브젝트들이 입체감을 가지도록 구성된다. 즉, 오브젝트들이 출력 장치에서 사용자 방향으로 떨어져 보이도록, 그래픽 이미지(301,303)들이 구성된다.
도면에서 설명하면, 도면의 3차원 그래픽 콘텐츠(300)는 오브젝트 4(object #4)가 입체감을 가지도록 구성된다. 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303) 사이에, 오브젝트 4(object #4)의 거리 차이로 인하여, 오브젝트 4(object #4)는 입체감을 가지도록 출력되는 것이다.
좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)의 오브젝트 4(object #4)의 거리 차이가 클수록 큰 입체감을 가지도록 출력되며, 거리 차이가 작을수록 작은 입체감을 가지도록 출력된다.
본 발명에서 오브젝트들의 입체감의 정도를 깊이 정보(Depth Information)라 명명한다.
도 2는 본 발명의 실시예에 따른 3차원 그래픽 콘텐츠(300)의 깊이 정보를 설명하기 위한 도면이다.
깊이 정보는 오브젝트가 어느 정도의 입체감을 가지고 출력되는지를 나타내는 정보이다. 즉, 해당 오브젝트가 출력 장치에서 사용자방향으로 어느 정도 떨어져서 출력되는지를 나타내는 정보이다.
도면의 3차원 그래픽 콘텐츠(300)는 4개의 오브젝트들을 포함하며, 오브젝트 1(object #1)이 가장 작은 입체감을 가지며 출력되고, 오브젝트 4(object #4)가 가장 큰 입체감을 가지고 출력된다. 즉, 오브젝트 1(object #1)이 출력 장치에 가장 가까운 위치에서 출력되고, 오브젝트 4(object #4)가 출력 장치에서 가장 먼 위치에서 출력되는 것이다.
따라서, 오브젝트 1(object #1)의 깊이 정보가 가장 작은 값을 가지며, 오브젝트 4(object #4)의 깊이 정보가 가장 큰 값을 가지게 된다.
그리고, 전술한 바와 같이, 각 오브젝트들의 깊이 정보는, 해당 오브젝트가 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)에서의 거리 차이로 정해진다. 따라서, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)에서, 동일한 오브젝트의 거리 차이를 조절하여, 해당 오브젝트의 입체감을 조절할 수 있다.
도 3과 4는 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)의 출력 방법을 설명하기 위한 도면이다.
도 3은 2차원 그래픽 콘텐츠(200)의 출력을 도시하고 있으며, 도 4는 3차원 그래픽 콘텐츠(300)의 출력을 도시하고 있다..
전술한 바와 같이, 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)는 다수의 오브젝트들이 포함된 하나의 그래픽 이미지로 구성된다. 각 오브젝트들은 오브젝트의 출력 명령에 따라 화면에 출력된다.
본 발명의 출력 명령의 일례로는 API(Application Programming Interface)나 3차원 그래픽 콘텐츠 재생 장치(100)의 제어 신호가 있다.
API(Application Programming Interface)는 그래픽 콘텐츠를 재생하는 응용 프로그램에 포함된 명령어 집합을 의미한다. 따라서, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 정해진 오브젝트 출력 순서에 따라, 해당 오브젝트의 출력 API를 호출할 수 있다.
도면의 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)는, 오브젝트 1(Object #1)에서 오브젝트 4(Object #4)까지 순차적으로 출력되도록 오브젝트 출력 순서가 정해져 있으며, 3차원 그래픽 콘텐츠 재생 장치(100)는 정해진 오브젝트의 출력 순서에 따라, 해당 오브젝트 출력 명령을 호출한다.
오브젝트 1(Object #1)의 출력 명령이 호출되면, 도 (a)와 같이 화면에 오브젝트 1(Object #1)이 출력되고, 오브젝트 2(Object #2)의 출력 명령이 호출되면, 도 (b)와 같이 화면에 오브젝트 2(Object #2)가 출력된다. 동일하게, 오브젝트 3(Object #3)의 출력 명령이 호출되면, 도 (c)와 같이 화면에 오브젝트 3(Object #3)이 출력되고, 오브젝트 4(Object #2)의 출력 명령이 호출되면, 도 (d)와 같이 화면에 오브젝트 4(Object #4)가 출력되어, 하나의 2차원 영상 또는 3차원 영상이 출력되는 것이다.
각 오브젝트의 출력 순서는 응용 프로그램이나 2차원 그래픽 콘텐츠(200) 내에 저장되며, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 출력 순서에 따라 호출된 오브젝트의 출력 명령 신호를 수신하여, 해당 오브젝트를 출력하게 된다.
이하에서는, 전술한 오브젝트의 출력 순서를 이용하여, 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)를 변환하여 재생하는 방법에 대하여 설명하도록 한다.
도 5는 본 발명의 실시예에 따른 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 방법의 순서도이다.
우선, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 2차원 그래픽 콘텐츠(200)를 입력받는다.(S100) 2차원 그래픽 콘텐츠(200)는 전술한 바와 같이, 다수의 오브젝트들을 포함하는 그래픽 이미지들로 구성된다.
그리고, 3차원 그래픽 콘텐츠 재생 장치(100)는 사용자의 명령에 따라, 2차원 그래픽 콘텐츠(200)를 2차원 영상으로 재생할 것인지, 3차원 영상으로 변환하여 재생할 것인지 판단한다.(S102)
2차원 그래픽 콘텐츠(200)를 2차원 영상으로 재생하라는 사용자의 명령에 의하면, 3차원 그래픽 콘텐츠 재생 장치(100)는 2차원 그래픽 콘텐츠(200)를 변환하지 않고, 그래도 2차원 영상으로 출력하게 된다.(S114)
2차원 그래픽 콘텐츠(200)를 3차원 영상으로 재생하라는 사용자의 명령에 의하면, 3차원 그래픽 콘텐츠 재생 장치(100)는 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 과정을 수행한다. 이하에서는, 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 과정을 설명하도록 한다.
3차원 그래픽 콘텐츠 재생 장치(100)는 2차원 그래픽 콘텐츠(200)에 포함된 오브젝트들의 출력 명령을 수신한다.(S104) 전술한 바와 같이, 오브젝트 출력 순서에 따라, 해당 오브젝트의 출력 명령(API)이 호출된다. 3차원 그래픽 콘텐츠 재생 장치(100)는 호출된 오브젝트 출력 명령 신호를 수신하는 것이다.
3차원 그래픽 콘텐츠 재생 장치(100)는 출력 명령이 호출된 오브젝트의 깊이 정보를 설정한다. 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 다양한 방법으로, 해당 오브젝트의 깊이 정보를 설정할 수 있다.
첫째로, 3차원 그래픽 콘텐츠 재생 장치(100)는 오브젝트 출력 명령의 호출 순서를 이용하여, 오브젝트의 깊이 정보를 설정할 수 있다. 일례로, 처음 출력 명령이 호출된 오브젝트는 가장 작은 값의 깊이 정보를 가지게 되며, 가장 마지막에 출력 명령이 호출된 오브젝트는 가장 큰 값의 깊이 정보를 가지게 된다. 즉, 출력 명령의 호출 순서에 따라 깊이 정보가 점차 증가하도록 설정할 수 있다.
둘째로, 3차원 그래픽 콘텐츠 재생 장치(100)는 오브젝트의 위치 정보를 이용하여, 오브젝트의 깊이 정보를 설정할 수 있다. 일례로, 오브젝트가 2차원 그래픽 이미지의 위쪽에 위치할수록 작은 값의 깊이 정보를 설정하고, 아래쪽에 위치할수록 큰 값의 깊이 정보를 설정할 수 있다.
셋째로, 3차원 그래픽 콘텐츠 재생 장치(100)는 오브젝트의 크기 정보를 이용하여, 오브젝트의 깊이 정보를 설정할 수 있다. 일례로, 오브젝트의 크기가 작을수록 작은 값의 깊이 정보를 설정하고, 클수록 큰 값의 깊이 정보를 설정할 수 있다.
본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 오브젝트의 깊이 정보를 설정하기 위하여, 전술한 방법들을 단독으로 수행하거나, 여러 방법들을 동시에 수행할 수 있다.
그리고, 3차원 그래픽 콘텐츠 재생 장치(100)는 출력될 오브젝트가 남아있는지 판단하여,(S108) 출력될 오브젝트가 더 있으면 해당 오브젝트의 깊이 정보 설정 과정을 재수행한다.
그리고, 출력될 오브젝트가 없으면, 3차원 그래픽 콘텐츠 재생 장치(100)는는 상기에서 설정된 오브젝트들의 깊이 정보를 이용하여, 3차원 그래픽 콘텐츠를 생성한다.(S110)
전술한 바와 같이, 3차원 그래픽 콘텐츠 재생 장치(100)는 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)에서의 오브젝트의 거리 차이를 조절하여, 해당 오브젝트의 입체감을 조절할 수 있다.
따라서, 3차원 그래픽 콘텐츠 재생 장치(100)는 상기에서 설정된 오브젝트들의 깊이 정보를 바탕으로, 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)를 생성하게 된다. 즉, 2차원 그래픽 콘텐츠의 그래픽 이미지에서 각 오브젝트들을 깊이 정보에 따라, 거리 차이를 조절하여, 좌안 그래픽 이미지(301)와 우안 그래픽 이미지(303)를 생성하는 것이다.
마지막으로, 3차원 그래픽 콘텐츠 재생 장치(100)는 생성된 3차원 그래픽 콘텐츠(300)를 후술할 비디오 출력부(190)를 통하여, 사용자에게 출력하는 것이다.(S112)
도 6은 본 발명의 실시예에 따른 오브젝트 그룹의 개념도이다.
전술한 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 방법에서는, 2차원 그래픽 콘텐츠(200)에 포함된 오브젝트 별로 깊이 정보를 각각 설정하였다.
그러나, 2차원 그래픽 콘텐츠(200)에 다수의 오브젝트가 포함되어 있으면, 깊이 정보 또한 각 오브젝트 별로 다수 설정된다. 이는, 사용자에게 다양한 입체감을 줄 수 있는 장점이 있지만, 3차원 영상의 특성상 사용자에게 어지러움이나 혼란을 야기할 수 있다.
따라서, 본 발명에서는 오브젝트들을 그룹화(Groupping)하며, 깊이 정보를 오브젝트 그룹(Object Group) 별로 설정하는 것을 특징으로 한다.
도면에서처럼, 오브젝트 1(Object #1)을 오브젝트 그룹 1(Object Group #1)으로 설정하고, 오브젝트 2(Object #2)와 오브젝트 3(Object #3)를 오브젝트 그룹 2(Object Group #2)로 설정하고, 오브젝트 4(Object #4)를 오브젝트 그룹 3(Object Group #3)으로 설정할 수 있다.
깊이 정보를 오브젝트 별로 설정하면, 도면의 2차원 그래픽 콘텐츠(200)의 오브젝트들은 4가지의 깊이 정보를 가지도록 설정된다. 즉, 2차원 그래픽 콘텐츠(200)는 4가지의 입체감을 가지고 3차원 그래픽 콘텐츠(300)로 변환된다.
그러나, 오브젝트 그룹화를 통하면, 도면의 2차원 그래픽 콘텐츠(200)의 오브젝트들은 3가지의 깊이 정보를 가지도록 설정된다. 즉, 2차원 그래픽 콘텐츠(200)는 3가지의 입체감을 가지고 3차원 그래픽 콘텐츠(300)로 변환된다.
관련하여, 동일한 오브젝트 그룹에 해당하는 오브젝트들이라도 전술한 출력 명령 호출 순서, 오브젝트 위치, 오브젝트 크기에 따라, 깊이 정보를 미세하게 다르게 설정할 수 있다.
일례로, 동일한 오브젝트 그룹(Obejct Group #2)에 해당하는 오브젝트 2(Object #2)와 오브젝트 3(Object #3)이라도, 오브젝트 2(Object #2)와 오브젝트 3(Object #3)의 출력 명령 호출 순서, 오브젝트 위치, 오브젝트 크기 차이에 따라, 깊이 정보를 각각 다르게 설정할 수 있다.
이상에서는, 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 방법에 대하여 설명하였다. 더 나아가, 본 발명의 3차원 그래픽 콘텐츠 재생 방법은, 변환된 3차원 그래픽 콘텐츠(300)를 사용자의 시선 방향에 따라 오브젝트에 입체감을 추가하여 사용자에게 출력할 수 있다.
도 7은 본 발명의 실시예에 따른 사용자의 시선 방향에 따른 3차원 그래픽 콘텐츠(300)의 출력을 설명하기 위한 도면이다.
도면 (a)는 사용자가 3차원 그래픽 콘텐츠 재생 장치(100)를 정면에서 바라본 경우에, 3차원 그래픽 콘텐츠(300)가 출력되는 화면을 도시하고 있다. 이 경우에는, 각 오브젝트들은 전술한 깊이 정보에 따라, 입체감을 가지고 출력된다.
도면 (b)는 사용자가 3차원 그래픽 콘텐츠 재생 장치(100)를 좌측 대각선 방향에서 바라본 경우에, 3차원 그래픽 콘텐츠(300)가 출력되는 화면을 도시하고 있다. 이 경우에는, 각 오브젝트들은 전술한 깊이 정보에 따른 입체감과 함께 좌측으로 기울어진 입체감을 가지도록 출력된다.
도면 (a)는 사용자가 3차원 그래픽 콘텐츠 재생 장치(100)를 우측 대각선 방향에서 바라본 경우에, 3차원 그래픽 콘텐츠(300)가 출력되는 화면을 도시하고 있다. 이 경우에는, 각 오브젝트들은 전술한 깊이 정보에 따른 입체감과 함께 우측으로 기울어진 입체감을 가지도록 출력된다.
즉, 본 발명의 3차원 그래픽 콘텐츠 재생 방법은, 각 오브젝트들을 사용자의 시선 방향에 따라 기울어진 입체감으로 출력할 수 있다.
도 8은 본 발명의 실시예에 따른 사용자의 시선 방향에 따라 3차원 그래픽 콘텐츠의 출력하는 방법의 순서도이다.
우선, 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 사용자의 시선 방향 측정를 측정한다.(S200) 본 발명의 3차원 그래픽 콘텐츠 재생 장치(100)는 각종 센서를 이용하여, 사용자의 시선 방향을 측정할 수 있다.
일례로, 3차원 그래픽 콘텐츠 재생 장치(100)는 카메라 센서를 이용하여, 사용자의 위치, 머리 방향 등을 측정하여, 사용자의 시선 방향을 설정할 수 있다
또한, 3차원 그래픽 콘텐츠 재생 장치(100)는 자이로(Gyro) 센서 또는 중력 센서를 이용하여, 3차원 그래픽 콘텐츠 재생 장치(100)의 기울어짐을 측정할 수 있다. 3차원 그래픽 콘텐츠 재생 장치(100)의 기울어짐에 따라, 사용자의 시선 방향이 결정될 수 있다. 일례로, 3차원 그래픽 콘텐츠 재생 장치(100)의 왼쪽 부분이 뒤로 기울어져 있으면, 사용자의 시선 방향을 오른쪽임을 알 수 있다.
그리고, 3차원 그래픽 콘텐츠 재생 장치(100) 측정된 사용자의 시선 방향으로 기울어진 3차원 오브젝트를 생성한다.(S202) 오브젝트의 출력 명령 호출 순서, 오브젝트 위치, 오브젝트 크기에 따라, 3차원 오브젝트를 생성하는 방법은 전술하였으며, 더 나아가 생성된 3차원 오브젝트를 사용자의 시선 방향을 기울어지도록 입체감을 설정하는 것이다.
그리고, 3차원 그래픽 콘텐츠 재생 장치(100) 설정된 3차원 오브젝트들 이용하여, 3차원 그래픽 콘텐츠(300)를 생성한다.(S204) 모든 3차원 오브젝트들은 동일한 기울어짐을 가지므로, 각 오브젝트들을 통합하여, 3차원 그래픽 콘텐츠(300)를 생성하는 것이다.
마지막으로, 3차원 그래픽 콘텐츠 재생 장치(100) 생성된 3차원 그래픽 콘텐츠(300)를 비디오 출력부(190)를 통해 사용자에게 출력한다.(S206)
도 9는 본 발명의 실시예에 따른 3차원 그래픽 콘텐츠 재생 장치(100)를 도시한 블록도이다.
도 9에 도시한 바와 같이, 3차원 그래픽 콘텐츠 재생 장치(100)는 튜너부(110), 복조부(120), 인터페이스부(112), 제어부(114), 저장부(160), 신호처리부(170), 오디오 출력부(180) 및 비디오 출력부(190)를 포함한다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기 저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. 예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 신호처리부(170)로 직접 입력될 수 있다.
또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너부(110)는 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 예를 들어, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일례로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(120)에서 출력한 스트림 신호는 신호처리부(170)로 입력된다. 신호처리부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 비디오 출력부(190)에 영상을 출력하고, 오디오 출력부(180)로 음성을 출력한다.
인터페이스부(112)는 통신 가능하도록 연결되는 이동 단말기와 데이터를 송수신하고, 사용자의 명령을 수신한다. 인터페이스부(112)는 네트워크 인터페이스부(130), 외부장치 인터페이스부(140) 및 사용자입력 인터페이스부(150)를 포함한다.
네트워크 인터페이스부(130)는 3차원 그래픽 콘텐츠 재생 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(130)는 유선 네트워크와의 접속을 위한 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위한 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 단자 등을 구비할 수 있다.
네트워크 인터페이스부(130)는 네트워크를 통해, 인터넷 또는 콘텐츠 제공자 또는 네트워크 운영자가 제공하는 콘텐츠 또는 데이터들을 수신하도록 구성된다. 즉, 네트워크를 통하여 인터넷, 콘텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 콘텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 콘텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
그리고, 네트워크 인터페이스부(130)는 통신 가능하도록 연결되는 이동 단말기(200)를 검색하고, 연결된 이동 단말기 등과 데이터를 송수신하도록 구성된다.
또한, 네트워크 인터페이스부(130)는 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 신호처리부(170)로 전달할 수 있으며, 신호처리부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.
외부장치 인터페이스부(140)는 외부 장치와 데이터를 송신 또는 수신할 수 있도록 구성된다. 이를 위해, 외부장치 인터페이스부(140)는 A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. 예를 들어, 외부장치 인터페이스부(140)는 DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(140)는 접속된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 3차원 그래픽 콘텐츠 재생 장치(100)의 신호처리부(170)로 전달한다. 또한, 신호처리부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(140)는 A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
이때, A/V 입출력부는 외부 장치의 영상 및 음성 신호를 3차원 그래픽 콘텐츠 재생 장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
또한, 외부장치 인터페이스부(140)는 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(114)로 전달하거나, 제어부(114)로부터의 신호를 사용자에게 전달한다. 예를 들어, 사용자입력 인터페이스부(150)는 RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(미도시)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(114)로부터의 신호를 원격제어장치로 송신할 수 있다.
또한, 예를 들어, 사용자입력 인터페이스부(150)는 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(114)에 전달할 수 있다.
저장부(160)는 제어부(114) 및 신호처리부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. 또한, 저장부(160)는 외부장치 인터페이스부(140)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. 또한, 저장부(160)는 전술한 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)들을 저장할 수 있다.
저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체로 구성될 수 있다. 3차원 그래픽 콘텐츠 재생 장치(100)는 저장부(160) 내에 저장되어 있는, 2차원 그래픽 콘텐츠(200) 또는 3차원 그래픽 콘텐츠(300)들 재생하여 사용자에게 제공할 수 있다.
도 9는 저장부(160)가 제어부(114)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않으며, 저장부(160)가 제어부(114) 내에 포함되도록 구성될 수 있다.
신호처리부(170)는 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(140) 또는 저장부(160)를 통하여 입력되는 2차원 그래픽 콘텐츠(200)와 3차원 그래픽 콘텐츠(300)를 디코드(decode)하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력한다.
신호처리부(170)에서 처리된 음성 신호는 오디오 출력부(180)로 음향 출력될 수 있다. 또한, 신호처리부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(140)를 통하여 외부 출력장치로 입력될 수 있다.
그리고, 신호처리부(170)에서 처리된 영상 신호는 비디오 출력부(190)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 신호처리부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(140)를 통하여 외부 출력장치로 입력될 수 있다. 또한, 신호처리부(170)는 제어부(114)에 포함되어 구성될 수도 있으며, 본 발명이 이와 같은 구성에 한정되는 것은 아니며, 신호처리부(170)의 상세한 구성은 후술한다.
제어부(114)는 3차원 그래픽 콘텐츠 재생 장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(114)는 인터페이스부(112)에서 수신한 사용자의 명령에 따라 신호처리부(170)를 제어한다. 제어부(114)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기 저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
또한, 제어부(114)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 3차원 그래픽 콘텐츠 재생 장치(100)를 제어할 수 있다. 예를 들어, 제어부(114)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너부(110)를 제어한다. 그리고, 신호처리부(170)를 제어하여 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(114)는 신호처리부(170)를 제어하여 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 비디오 출력부(190) 또는 오디오 출력부(180)를 통하여 출력될 수 있도록 한다.
또한, 제어부(114)는 신호처리부(170)를 제어하여, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(140)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 비디오 출력부(190) 또는 오디오 출력부(180)를 통해 출력될 수 있도록 한다.
한편, 제어부(114)는 신호처리부(170)를 통해 영상을 표시하도록 비디오 출력부(190)를 제어할 수 있다. 예를 들어, 튜너부(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(140)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(130)를 통해 입력되는 영상 또는 저장부(160)에 저장된 영상을 비디오 출력부(190)에 표시하도록 제어할 수 있다.
또한, 제어부(114)는 전술한 3차원 그래픽 콘텐츠 재생 장치(100)의 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하여 재생하는 방법을 수행하기 위하여, 전술한 구성들을 제어할 수 있다.
즉, 제어부(114)는 신호처리부(170)를 제어하여, 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 디코드한다. 오브젝트의 출력 명령 호출 순서, 오브젝트의 위치, 오브젝트의 크기를 이용하여, 2차원 그래픽 콘텐츠(200)를 3차원 그래픽 콘텐츠(300)로 변환하는 방법은 전술하였다.
오디오 출력부(180)는 신호처리부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
비디오 출력부(190)는 신호처리부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(140)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. 비디오 출력부(190)는 3차원 디스플레이(3D display)가 가능한 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구성될 수 있다. 한편, 비디오 출력부(190)는 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
한편, 사용자의 시선 방향을 측정하기 위해, 카메라 센서, 자이로 센서, 중력 센서 중 적어도 하나를 구비하는 센서부(116)가 3차원 그래픽 콘텐츠 재생 장치(100)에 더 구비될 수 있다. 센서부(116)에서 감지된 신호는 제어부(114)로 전달된다.
한편, 도 9에 도시된 3차원 그래픽 콘텐츠 재생 장치(100)는 본 발명을 예시하기 위한 것으로, 실제 구현되는 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 10은 도 9의 신호처리부(170)의 구성을 더욱 상세하게 예시한 블록도이다.
도 10에 도시한 바와 같이, 신호처리부(170)는 역다중화부(172), 영상 처리부(176), 오디오 처리부(174), OSD 생성부(182), 믹서(184) 및 프레임 레이트 변환부(186)를 포함한다. 그 외, 도시하지 않았으나, 신호처리부(170)는 데이터 처리부를 더 포함할 수도 있다.
역다중화부(172)는 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(172)에 입력되는 스트림 신호는 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(140)에서 출력되는 스트림 신호일 수 있다.
오디오 처리부(174)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(174)는 다양한 방식으로 부호화된 오디오 신호를 복호화하기 위해 다양한 디코더를 구비한다.
비디오 처리부(176)는 역다중화된 영상신호를 복호화한다. 비디오 처리부(176)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, 비디오 처리부(176)는 MPEG-2 디코더, H.264 디코더, MPEC-C 디코더(MPEC-C part 3), MVC 디코더, FTV 디코더 중 적어도 하나를 구비할 수 있다. 또한, 비디오 처리부(176)는 3차원 영상 신호를 복호화하기 위한 3차원 비디오 디코더를 포함할 수 있다.
OSD 생성부(182)는 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 텍스트 입력 신호에 기초하여, 비디오 출력부(190)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성한다. 생성되는 OSD 신호는 3차원 그래픽 콘텐츠 재생 장치(100)의 사용자 인터페이스 화면으로 다양한 메뉴 화면, 즐겨찾기 트레이(303) 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
믹서(184)는 OSD 생성부(182)에서 생성된 OSD 신호와 영상 처리부(176)에서 영상 처리된 복호화된 영상 신호를 믹싱한다. 믹싱된 영상 신호는 프레임 레이트 변환부(186)에 제공되며, 프레임 레이트 변환부(Frame Rate Converter, 186)는 입력되는 영상의 프레임 레이트를 변환한다.
본 발명의 다양한 실시예들은 발명의 실시를 위한 최선의 형태에서 전술하였다.
본 발명은 3차원 그래픽 콘텐츠 재생 방법 및 장치에 관한 것으로, 오브젝트 출력 순서를 이용하여, 2차원 그래픽 콘텐츠를 3차원 그래픽 콘텐츠로 변환하여 재생하는 방법 및 장치에 관한 것이다.
상기에서 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다.

Claims (16)

  1. 적어도 하나의 오브젝트를 포함하는 2차원 그래픽 이미지로 구성된 2차원 그래픽 콘텐츠를 읽는 단계;
    상기 오브젝트의 출력 명령 신호를 수신하는 단계;
    상기 출력 명령 신호가 수신된 오브젝트의 입체감을 의미하는 깊이 정보를 설정하는 단계; 및
    상기 설정된 오브젝트의 깊이 정보를 이용하여, 좌안 그래픽 이미지와 우안 그래픽 이미지로 구성된 3차원 그래픽 콘텐츠를 생성하는 단계를 포함하고,
    상기 깊이 정보 설정 단계는,
    상기 오브젝트의 출력 명령 신호의 수신 순서에 따라, 상기 오브젝트의 깊이 정보의 값을 증가시키는 3차원 그래픽 콘텐츠 재생 방법.
  2. 제 1 항에 있어서,
    상기 깊이 정보 설정 단계는,
    상기 오브젝트의 2차원 그래픽 이미지 내 위치 정보를 이용하여 설정하는 3차원 그래픽 콘텐츠 재생 방법.
  3. 제 1 항에 있어서,
    상기 깊이 정보 설정 단계는,
    상기 오브젝트의 2차원 그래픽 이미지 내 크기 정보를 이용하여 설정하는 3차원 그래픽 콘텐츠 재생 방법.
  4. 제 1 항에 있어서,
    상기 출력 명령 신호는,
    API(Application Programming Interface)인 3차원 그래픽 콘텐츠 재생 방법.
  5. 제 1 항에 있어서,
    상기 오브젝트를 오브젝트 그룹으로 그룹핑하는 단계; 및
    상기 깊이 정보를 상기 오브젝트 그룹별로 설정하는 단계를 포함하는 3차원 그래픽 콘텐츠 재생 방법.
  6. 제 1 항에 있어서,
    사용자의 시선 방향을 측정하는 단계; 및
    상기 오브젝트를 상기 측정된 사용자의 시선 방향으로 기울어진 입체감으로 출력하는 단계를 더 포함하는 3차원 그래픽 콘텐츠 재생 방법.
  7. 제 6 항에 있어서,
    상기 사용자의 시선 방향 측정 단계는,
    사용자의 위치를 측정하는 단계 또는 출력 장치의 기울어짐을 측정하는 단계를 포함하는 3차원 그래픽 콘텐츠 재생 방법.
  8. 제 1 항에 있어서,
    상기 3차원 그래픽 콘텐츠를 생성 단계는,
    상기 오브젝트의 깊이 정보에 따라, 상기 좌안 그래픽 이미지 내 상기 오브젝트와 우안 그래픽 이미지 내의 상기 오브젝트의 거리 차이를 설정하는 3차원 그래픽 콘텐츠 재생 방법.
  9. 좌안 그래픽 이미지와 우안 그래픽 이미지로 구성된 3차원 그래픽 콘텐츠를 출력하는 출력부;
    상기 3차원 그래픽 콘텐츠를 디코드하는 신호처리부; 및
    적어도 하나의 오브젝트를 포함하는 2차원 그래픽 이미지로 구성된 2차원 그래픽 콘텐츠를 읽고, 상기 오브젝트의 출력 명령 신호를 수신하고, 상기 출력 명령 신호가 수신된 오브젝트의 입체감을 의미하는 깊이 정보를 설정하고, 상기 설정된 오브젝트의 깊이 정보를 이용하여, 상기 3차원 그래픽 콘텐츠를 생성하도록 상기 신호처리부를 제어하고, 상기 생성된 3차원 그래픽 콘텐츠를 사용자에게 출력하도록 상기 출력부를 제어하는 제어부를 포함하고,
    상기 제어부는,
    상기 오브젝트의 출력 명령 신호의 수신 순서에 따라, 상기 오브젝트의 깊이 정보의 값을 증가시키는 3차원 그래픽 콘텐츠 재생 장치.
  10. 제 9 항에 있어서,
    상기 제어부는,
    상기 오브젝트의 2차원 그래픽 이미지 내 위치 정보를 이용하여, 상기 오브젝트의 깊이 정보를 설정하는 3차원 그래픽 콘텐츠 재생 장치.
  11. 제 9 항에 있어서,
    상기 제어부는,
    상기 오브젝트의 2차원 그래픽 이미지 내 크기 정보를 이용하여, 상기 오브젝트의 깊이 정보를 설정하는 3차원 그래픽 콘텐츠 재생 장치.
  12. 제 9 항에 있어서,
    상기 출력 명령 신호는,
    API(Application Programming Interface)인 3차원 그래픽 콘텐츠 재생 장치.
  13. 제 9 항에 있어서,
    상기 제어부는,
    상기 오브젝트를 오브젝트 그룹으로 그룹핑하고, 상기 깊이 정보를 상기 오브젝트 그룹별로 설정하는 3차원 그래픽 콘텐츠 재생 장치.
  14. 제 9 항에 있어서,
    사용자의 위치를 측정하거나 출력 장치의 기울어짐을 측정하는 센서부를 더 포함하는 3차원 그래픽 콘텐츠 재생 장치.
  15. 제 14 항에 있어서,
    상기 제어부는,
    상기 센서부를 제어하여, 상기 사용자의 시선 방향을 측정하고,
    상기 오브젝트를 상기 측정된 사용자의 시선 방향으로 기울어진 입체감으로 출력하는 3차원 그래픽 콘텐츠 재생 장치.
  16. 제 9 항에 있어서,
    상기 제어부는,
    상기 오브젝트의 깊이 정보에 따라, 상기 좌안 그래픽 이미지 내 상기 오브젝트와 우안 그래픽 이미지 내의 상기 오브젝트의 거리 차이를 설정하여 상기 3차원 그래픽 콘텐츠를 생성하는 3차원 그래픽 콘텐츠 재생 장치.
PCT/KR2011/006079 2011-06-10 2011-08-18 3차원 그래픽 콘텐츠 재생 방법 및 장치 WO2012169694A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/123,950 US20140111610A1 (en) 2011-06-10 2011-08-18 Method and apparatus for playing three-dimensional graphic content

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0056458 2011-06-10
KR1020110056458A KR101853660B1 (ko) 2011-06-10 2011-06-10 3차원 그래픽 콘텐츠 재생 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2012169694A1 true WO2012169694A1 (ko) 2012-12-13

Family

ID=47296233

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/006079 WO2012169694A1 (ko) 2011-06-10 2011-08-18 3차원 그래픽 콘텐츠 재생 방법 및 장치

Country Status (3)

Country Link
US (1) US20140111610A1 (ko)
KR (1) KR101853660B1 (ko)
WO (1) WO2012169694A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575319B2 (en) 2014-03-10 2017-02-21 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US9529200B2 (en) 2014-03-10 2016-12-27 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US20160019720A1 (en) * 2014-07-15 2016-01-21 Ion Virtual Technology Corporation Method for Viewing Two-Dimensional Content for Virtual Reality Applications
US9829711B2 (en) 2014-12-18 2017-11-28 Ion Virtual Technology Corporation Inflatable virtual reality headset system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010106535A (ko) * 2000-04-26 2001-12-07 이승현 2차원 영상을 3차원 영상으로 변환하는 방법
KR20070095031A (ko) * 2006-03-20 2007-09-28 정기철 오프라인 이차원 이미지를 3차원 이미지로 변환
KR20100034789A (ko) * 2008-09-25 2010-04-02 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3902508B2 (ja) * 2002-05-20 2007-04-11 任天堂株式会社 ゲームシステムおよびゲームプログラム
EP2074832A2 (en) * 2006-09-28 2009-07-01 Koninklijke Philips Electronics N.V. 3 menu display
US20090002368A1 (en) * 2007-06-26 2009-01-01 Nokia Corporation Method, apparatus and a computer program product for utilizing a graphical processing unit to provide depth information for autostereoscopic display
KR101420681B1 (ko) * 2008-02-01 2014-07-17 한국과학기술원 비디오 영상의 깊이 지도 생성 방법 및 장치
US8890941B2 (en) * 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP5643549B2 (ja) * 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
US20120044241A1 (en) * 2010-08-20 2012-02-23 Himax Technologies Limited Three-dimensional on-screen display imaging system and method
JP5122659B2 (ja) * 2011-01-07 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010106535A (ko) * 2000-04-26 2001-12-07 이승현 2차원 영상을 3차원 영상으로 변환하는 방법
KR20070095031A (ko) * 2006-03-20 2007-09-28 정기철 오프라인 이차원 이미지를 3차원 이미지로 변환
KR20100034789A (ko) * 2008-09-25 2010-04-02 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치

Also Published As

Publication number Publication date
KR101853660B1 (ko) 2018-05-02
KR20120137121A (ko) 2012-12-20
US20140111610A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
WO2011055950A2 (en) Image display apparatus, method for controlling the image display apparatus, and image display system
KR101771262B1 (ko) 영상 전송 장치, 영상 표시 장치, 영상 표시 시스템, 영상 전송 방법 및 컴퓨터 프로그램
WO2010143820A2 (ko) 3차원 pip 영상 제공 장치 및 그 방법
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
WO2011084021A2 (ko) 방송 수신기 및 3d 이미지 디스플레이 방법
US20110149034A1 (en) Stereo image data transmitting apparatus and stereo image data transmittimg method
WO2011102699A2 (ko) 전자 장치 및 입체영상 재생 방법
JP5448558B2 (ja) 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
WO2014054847A1 (en) Content processing apparatus for processing high resolution content and content processing method thereof
WO2011021894A2 (en) Image display apparatus and method for operating the same
WO2013100376A1 (en) Apparatus and method for displaying
WO2010151027A4 (ko) 영상표시장치 및 그 동작방법
KR20120112978A (ko) 영상표시장치 및 이를 이용한 텍스트 디스플레이 방법
WO2010123324A9 (ko) 영상표시장치 및 그 동작방법
WO2016098992A1 (ko) 디스플레이 디바이스 및 그 제어 방법
WO2012169694A1 (ko) 3차원 그래픽 콘텐츠 재생 방법 및 장치
US8836757B2 (en) 3D image providing device, display device, and method thereof
US20160065923A1 (en) Electronic device and color gamut determination method
WO2015178576A1 (ko) 영상 디스플레이 장치 및 영상 디스플레이 방법
JP6307856B2 (ja) 送信装置、広色域画像データ送信方法、受信装置、広色域画像データ受信方法およびプログラム
US20130215222A1 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
WO2019172478A1 (ko) 표시장치와 그 영상 처리 방법
KR101668245B1 (ko) 원격제어장치로 제어할 수 있는 영상표시장치 및 그 동작 제어방법
WO2024039140A1 (en) Display device and method for controlling same
WO2022005190A1 (ko) 방송 수신 장치 및 그 동작방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11867445

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14123950

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11867445

Country of ref document: EP

Kind code of ref document: A1