KR101314601B1 - apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents - Google Patents

apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents Download PDF

Info

Publication number
KR101314601B1
KR101314601B1 KR1020060105837A KR20060105837A KR101314601B1 KR 101314601 B1 KR101314601 B1 KR 101314601B1 KR 1020060105837 A KR1020060105837 A KR 1020060105837A KR 20060105837 A KR20060105837 A KR 20060105837A KR 101314601 B1 KR101314601 B1 KR 101314601B1
Authority
KR
South Korea
Prior art keywords
image
content
information
dimensional
screen
Prior art date
Application number
KR1020060105837A
Other languages
Korean (ko)
Other versions
KR20080038666A (en
Inventor
곽재도
한성철
이승호
최병호
정문호
성시훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060105837A priority Critical patent/KR101314601B1/en
Publication of KR20080038666A publication Critical patent/KR20080038666A/en
Application granted granted Critical
Publication of KR101314601B1 publication Critical patent/KR101314601B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및 콘텐츠 표출 방법에 관한 것이다. 본 발명은 3차원 이미지와 2차원 이미지를 함께 화면상에 표출하도록 하고, 화면 중 3차원 이미지가 위치하는 부분만 3차원 이미지를 위한 배리어 패널을 활성화하여 사용자가 두 이미지를 동시에 볼 수 있도록 할 수 있다. 반대로 3차원 이미지를 표출을 위해 화면 전체에 배리어 패널을 활성화한 경우, 2차원 이미지가 위치하는 부분만 배리어 패널을 비활성화하여 입체 이미지가 위치하는 곳에만 3차원 이미지가 보이도록 하고, 평면 이미지가 위치하는 곳은 2차원 이미지가 보이도록 할 수 있다. 따라서, 3차원 이미지가 있는 부분의 시선을 집중시킬 수 있고, 2차원 이미지에 비해 3차원 이미지를 생동감있게 볼 수 있다. The present invention relates to a content delivery device, a content presentation device, a content delivery method, and a content presentation method. According to the present invention, the 3D image and the 2D image can be displayed together on the screen, and only a portion of the screen where the 3D image is located can be activated to enable the user to view both images simultaneously by activating a barrier panel for the 3D image. have. On the contrary, when the barrier panel is activated on the entire screen to display the 3D image, the barrier panel is deactivated only in the portion where the 2D image is located so that the 3D image is visible only where the 3D image is located and the plane image is positioned. The place can make the two-dimensional image visible. Therefore, the line of sight of the portion where the three-dimensional image is located can be focused, and the three-dimensional image can be seen more vividly than the two-dimensional image.

입체, 3D, 3차원, 배리어, 양안시차, 객체, 이미지 Stereoscopic 3D 3D barrier binocular object image

Description

콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및 콘텐츠 표출 방법{apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents} Apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents}

도 1은 2개의 2차원 이미지로 화면상 3차원 이미지가 표출되는 개념도1 is a conceptual diagram in which a three-dimensional image on the screen is expressed as two two-dimensional images

도 2는 도 1의 이미지 표출 개념도를 평면적으로 나타낸 도면FIG. 2 is a plan view illustrating the image display conceptual diagram of FIG. 1.

도 3은 화면을 통해 입체적인 이미지를 인식할 경우 깊이 정보에 기술하기 위한 도면3 is a diagram for describing in depth information when a stereoscopic image is recognized through a screen;

도 4은 본 발명에 따른 이미지 송신 방법의 일 실시예를 나타낸 흐름도4 is a flowchart illustrating an embodiment of an image transmission method according to the present invention.

도 5는 본 발명에 따른 이미지 송신 방법의 다른 일 실시예를 나타낸 흐름도5 is a flowchart illustrating another embodiment of an image transmission method according to the present invention.

도 6는 본 발명에 따른 이미지 송신 방법의 실시예에 따라 이미지를 송신할 경우 이미지 객체의 구조의 예를 나타낸 도면6 is a diagram illustrating an example of a structure of an image object when transmitting an image according to an embodiment of the image transmitting method according to the present invention.

도 7은 도 6에 따른 이미지 송신 방법의 또 다른 일 실시예를 나타낸 흐름도7 is a flowchart illustrating still another embodiment of the image transmitting method according to FIG. 6.

도 8은 본 발명에 따른 이미지 수신 방법의 일 실시예를 나타낸 흐름도8 is a flowchart illustrating an embodiment of an image receiving method according to the present invention.

도 9은 본 발명에 따른 이미지 수신 방법의 다른 일 실시예를 나타낸 흐름도9 is a flowchart illustrating another embodiment of an image receiving method according to the present invention.

도 10은 본 발명에 따른 이미지 수신 방법의 또 다른 일 실시예를 나타낸 흐름도10 is a flowchart illustrating still another embodiment of an image receiving method according to the present invention.

도 11은 이미지 객체를 송수신하는 BIFS 형식의 신호를 포함한 MPEG-2 TS 형식의 신호로부터 이미지 객체를 얻는 과정을 예시한 도면11 is a diagram illustrating a process of obtaining an image object from an MPEG-2 TS format signal including a BIFS format signal for transmitting and receiving an image object.

도 12은 본 발명에 따른 이미지 송신 장치의 일 실시예를 나타낸 도면12 illustrates an embodiment of an image transmitting apparatus according to the present invention.

도 13는 본 발명에 따른 이미지 수신 장치의 일 실시예를 나타낸 도면13 illustrates an embodiment of an image receiving apparatus according to the present invention.

본 발명은 이미지 송수신 방법 및 이미지 송수신 장치에 관한 것으로서, 보다 상세하게는 이미지 수신자의 시선을 집중시킬 수 있도록 사실적이면서도 생동감 있는 이미지를 표출할 수 있는 이미지 송수신 방법 및 이미지 송수신 장치에 관한 것이다. The present invention relates to an image transmission and reception method and an image transmission and reception apparatus, and more particularly, to an image transmission and reception method and an image transmission and reception apparatus capable of expressing a realistic and lively image to focus the gaze of an image receiver.

종래의 이미지를 유무선 네트워크로 송수신할 경우 2차원 이미지를 압축하여 전송하고, 압축된 2차원 이미지를 복원하여 2차원 이미지와 시각적으로 동일한 2차원 이미지를 표출하도록 하였다. 그러나, 표출된 2차원 이미지는 평면적으로 표출되기 때문에 사실적이지 않고, 이미지를 보는 이로 하여금 평면 이상의 특별한 입체감을 전달하지 못하는 문제점이 있다. When transmitting and receiving a conventional image over a wired or wireless network, a two-dimensional image is compressed and transmitted, and the compressed two-dimensional image is restored to display a two-dimensional image that is visually identical to the two-dimensional image. However, the expressed two-dimensional image is not realistic because it is expressed in a plane, and there is a problem that the viewer of the image does not deliver a special three-dimensional feeling beyond the plane.

종래에 보다 사실적인 이미지를 표출하도록 하기 위해 3차원 이미지를 구성하여 이를 압축하여 전송하는 여러 가지 방법이 고안되었다. 2차원 이미지와는 다르게 3차원 이미지는 생동감이나 사실감이 더하여 보는 사람의 시선을 더욱 집중시키도록 할 수 있다. 하지만, 3차원 이미지는 전송 대역폭에 한계가 있을 뿐만 아니라, 그 한계를 극복할 수 있도록 3차원 이미지를 전송하더라도 수신자가 3차원 이미지만을 볼 경우 불편한 문제점이 있을 수 있다. 예를 들어 표출되는 이미지가 3차원 이미지일 경우 이미지를 보는 사람은 모든 이미지를 입체 이미지로 느끼기 때문에, 텍스트 등이 화면에 표출될 경우 그 텍스트를 제대로 인식하지 못할 수 있다. 텍스트는 2차원으로 표현되어야 의미 전달 기능이 더욱 명확하기 때문에 3차원 이미지를 통해 텍스트를 보면 그 텍스트를 인식하는데 불편하고 또한 해상도가 낮게 보이는 문제점이 있을 수 있다. In order to express more realistic images, various methods of constructing a 3D image, compressing it, and transmitting the same have been devised. Unlike two-dimensional images, three-dimensional images can add more liveliness or realism to focus the viewer's attention. However, the 3D image may not only have a limitation in transmission bandwidth, but may also be inconvenient when the receiver views only the 3D image even when the 3D image is transmitted to overcome the limitation. For example, when the image to be displayed is a three-dimensional image, the viewer of the image feels all the images as a three-dimensional image, and thus, when the text and the like are displayed on the screen, the text may not be properly recognized. Since the text must be expressed in two dimensions, the meaning transfer function is more clear. When the text is viewed through the three-dimensional image, it may be inconvenient to recognize the text and the resolution may be low.

즉, 3차원 이미지와 2차원 이미지를 동시에 표출하더라도 표출되는 이미지는 수신자에게 모두 3차원 이미지로 보이거나 아니면 2차원 이미지로 밖에 보일 수 없는 문제점이 있다. That is, even if the 3D image and the 2D image are simultaneously displayed, the displayed image may be viewed as a 3D image or only as a 2D image to the receiver.

본 발명은 상기와 같은 문제점을 해결하고 새로운 방식으로 이미지를 송수신하여 표출하기 위한 것으로서, 본 발명의 목적은 이미지 수신자의 시선을 집중시킬 수 있도록 하는 이미지 송수신 방법 및 이미지 송수신 장치를 제공하는 것이다.The present invention is to solve the above problems and to express and transmit and display an image in a new way, an object of the present invention is to provide an image transmission and reception method and an image transmission and reception apparatus that can focus the gaze of the image receiver.

본 발명의 다른 목적은 입체감 있고 사실적인 이미지 표출이 가능하도록 하는 이미지 송수신 방법 및 이미지 송수신 장치를 제공하는 것이다.Another object of the present invention is to provide an image transmitting / receiving method and an image transmitting / receiving apparatus capable of displaying a three-dimensional and realistic image.

본 발명의 또 다른 목적은 2차원 이미지와 3차원 이미지를 각각 하나의 화면에 함께 표출할 수 있도록 하는 이미지 송수신 방법 및 이미지 송수신 장치를 제공하는 것이다. It is still another object of the present invention to provide an image transmission / reception method and an image transmission / reception apparatus for displaying a two-dimensional image and a three-dimensional image on a single screen.

상기 목적을 달성하기 위하여 본 발명은 2차원 이미지와 상기 2차원 이미지에 대한 뎁스 맵(depth map) 정보를 각각 생성하는 단계, 상기 2차원 이미지와 상 기 2차원 이미지에 대한 뎁스 맵 정보를 다중화하여 송신 데이터 형태로 변환시키는 단계 및 상기 2차원 이미지, 상기 변환된 형식의 데이터를 송신하는 단계를 포함하는 이미지 송신 방법을 제공한다.In order to achieve the above object, the present invention includes generating depth map information for the 2D image and the 2D image, and multiplexing depth map information for the 2D image and the 2D image. And converting the two-dimensional image and the converted form of data into a transmission data form.

다른 관점에서 본 발명은 3차원 이미지를 표출할 수 있는 한 쌍의 이미지 객체들, 2차원 이미지 객체, 및 한 쌍의 이미지 객체들이 3차원 이미지를 표출할 수 있는 한 쌍의 이미지 객체들임을 의미하는 차원 정보, 상기 이미지 객체들의 화면상 위치 정보들을 각각 생성하는 단계, 상기 생성한 이미지 객체들과 상기 위치 정보들을 다중화하여 이미지 전송을 위한 신호 형식으로 변환시키는 단계 및 상기 변환시킨 형식의 신호를 송신하는 단계를 포함하는 이미지 송신 방법을 제공한다.In another aspect, the present invention means that a pair of image objects capable of displaying a 3D image, a 2D image object, and a pair of image objects are a pair of image objects capable of displaying a 3D image. Generating dimension information and location information on the screen of the image objects, converting the generated image objects and the location information into a signal format for image transmission, and transmitting the converted format signal. It provides an image transmission method comprising the step.

또 다른 관점에서 본 발명은 화면상에 배리어 패널을 통해 이미지를 표출하기 위한 이미지 수신 방법에 있어서, 3차원 이미지 객체를 포함하는 이미지 객체들과, 상기 3차원 이미지 객체의 위치 정보를 포함하는 객체 기술 정보를 수신하는 단계, 상기 수신한 3차원 이미지 객체로부터, 3차원 이미지를 생성하기 위한 오른쪽 이미지 객체 및 왼쪽 이미지 객체를 생성하고, 상기 생성한 이미지 객체를 픽셀단위로 합성하는 단계 및 상기 배리어 패널의 배리어 중 상기 객체 기술 정보에 포함된 위치 정보에 따른 화면상의 위치에 대응되는 배리어만을 활성화하여 상기 합성한 이미지를 표출하는 단계를 포함하는 이미지 수신 방법을 제공한다.In still another aspect, the present invention provides an image receiving method for displaying an image through a barrier panel on a screen, comprising: image objects including a 3D image object and an object description including position information of the 3D image object Receiving information, generating a right image object and a left image object for generating a 3D image from the received 3D image object, synthesizing the generated image object pixel by pixel, and And activating only a barrier corresponding to a position on a screen according to the position information included in the object description information among the barriers to display the synthesized image.

또 다른 관점에서 본 발명은 화면상에 배리어 패널을 통해 이미지를 표출하기 위한 이미지 수신 방법에 있어서, 2차원 이미지와, 그 2차원 이미지에 대한 뎁스 맵(depth map) 정보를 포함하는 신호를 수신하고, 상기 수신한 신호로부터 상기 2차원 이미지와 상기 뎁스 맵 정보를 얻는 단계, 상기 2차원 이미지와 상기 뎁스 맵 정보를 이용해 3차원 이미지를 표출하기 위한 왼쪽 이미지와 오른쪽 이미지를 생성하고, 상기 생성한 이미지들을 픽셀단위로 합성하는 단계 및 상기 뎁스 맵 정보 중 3차원 이미지임을 의미하는 뎁스 값의 위치에 대응하여 상기 배리어 패널의 배리어를 활성화하는 이미지 수신 방법을 제공한다.In still another aspect, the present invention provides an image receiving method for displaying an image through a barrier panel on a screen, comprising: receiving a signal including a two-dimensional image and depth map information of the two-dimensional image; Obtaining the 2D image and the depth map information from the received signal, generating a left image and a right image for displaying a 3D image using the 2D image and the depth map information, and generating the generated image. Comprising the step of synthesizing the pixel by pixel and the image receiving method for activating the barrier of the barrier panel corresponding to the position of the depth value means that the three-dimensional image of the depth map information.

또 다른 관점에서 본 발명은 화면상에 배리어 패널을 통해 이미지를 표출하기 위한 이미지 수신 방법에 있어서, 하나의 3차원 이미지를 표출하기 위한 한 쌍의 이미지 객체들, 상기 한 쌍의 이미지 객체들이 하나의 3차원 이미지를 표출하기 위한 이미지임을 의미하는 식별자 정보 및 상기 이미지 객체들의 위치 정보가 포함된 신호를 수신하여 복호하는 단계, 상기 한 쌍의 이미지 객체를 합성하여 3차원 이미지 표출을 위한 하나의 이미지를 생성하는 단계 및 상기 배리어 패널의 배리어 중 상기 위치 정보에 대응하는 위치의 배리어만을 활성화시켜 상기 생성한 이미지를 표출하는 단계를 포함하는 이미지 수신 방법을 제공한다.In still another aspect, the present invention provides an image receiving method for displaying an image through a barrier panel on a screen, comprising: a pair of image objects for displaying one three-dimensional image, the pair of image objects Receiving and decoding a signal including identifier information indicating an image for displaying a 3D image and position information of the image objects, and synthesizing the pair of image objects to form a single image for displaying a 3D image And generating the generated image by activating only a barrier at a position corresponding to the position information among barriers of the barrier panel.

또 다른 관점에서 본 발명은 3차원 이미지 객체를 포함하는 이미지 객체들과 상기 이미지 객체들의 각각의 위치 정보들이 다중화된 신호를 수신하는 신호수신부, 상기 수신한 상기 이미지 객체들과 상기 이미지 객체들의 위치 정보들을 각각의 분리하여 출력하는 역다중화부, 상기 역다중화부가 출력하는 이미지 객체들과 상기 이미지 객체들의 위치 정보들을 복호하고, 상기 복호한 객체들 중 3차원 이미지 객체를 이용하여 상기 3차원 이미지 객체를 표출하기 위한 왼쪽 이미지 객체와 오른쪽 이미지 객체로 각각 생성하고, 상기 생성한 왼쪽 이미지 객체와 오른쪽 이 미지 객체를 픽셀 단위로 합성하여 출력하는 이미지복호부, 상기 이미지복호부가 출력하는 이미지 객체들을 표출하는 디스플레이부, 상기 디스플레이부 상에 위치하여 활성화됨에 따라 입사 시각을 분리할 수 있는 배리어 패널(barrier panel) 및 상기 배리어 패널의 배리어 중 상기 이미지복호부가 복호한 3차원 이미지 객체의 위치 정보에 대응하는 배리어만을 활성화하는 배리어패널제어부를 포함하는 이미지 수신 장치를 제공한다. In another aspect, the present invention provides a signal receiver for receiving a signal multiplexed with image objects including the three-dimensional image object and the respective position information of the image object, the received position information of the image object and the image object A demultiplexer for separating and outputting the respective signals, and decoding the image objects outputted by the demultiplexer and the position information of the image objects, and using the 3D image object among the decoded objects to generate the 3D image object. An image decoder for generating a left image object and a right image object for display, and synthesizing the generated left image object and the right image object in units of pixels and displaying the image objects outputted by the image decoder. As it is located on the display unit and activated An image receiving apparatus including a barrier panel capable of separating an incident time and a barrier panel controller for activating only a barrier corresponding to position information of a three-dimensional image object decoded by the image decoder among barriers of the barrier panel; to provide.

또 다른 관점에서 본 발명은 2차원 이미지와 상기 2차원 이미지에 대한 뎁스 맵(depth map) 정보를 포함하는 신호를 수신하는 신호수신부, 상기 수신한 상기 2차원 이미지와 뎁스 맵 정보를 각각 분리하여 출력하는 역다중화부, 상기 역다중화부가 출력하는 상기 2차원 이미지와 상기 뎁스 맵 정보를 복호하고, 상기 뎁스 맵 정보를 이용하여 상기 2차원 이미지를 3차원 이미지를 포함하는 이미지로 생성하되, 상기 생성한 이미지 중 3차원 이미지가 위치하는 부분은 상기 3차원 이미지를 위한 왼쪽 이미지와 오른쪽 이미지의 합성 이미지로 생성하는 이미지복호부, 상기 이미지복호부가 출력하는 이미지 객체들을 표출하는 디스플레이부, 상기 디스플레이부 상에서 활성되어 입사 시각을 분리할 수 있는 배리어 패널(barrier panel) 및 상기 배리어 패널의 배리어 중 상기 이미지복호부가 복호한 3차원 이미지를 위한 합성 이미지의 위치에 배리어만을 활성화하는 배리어패널제어부를 포함하는 이미지 수신 장치를 제공한다.In another aspect, the present invention is a signal receiver for receiving a signal including a two-dimensional image and depth map (depth map) information for the two-dimensional image, and separately outputs the received two-dimensional image and depth map information A demultiplexer to decode the two-dimensional image and the depth map information output by the demultiplexer, and generate the two-dimensional image as an image including a three-dimensional image by using the depth map information; The part where the 3D image is located in the image is an image decoder for generating a composite image of a left image and a right image for the 3D image, a display unit for displaying image objects output by the image decoder, and an active part on the display unit. A barrier panel capable of separating incident time and a barrier of the barrier panel It provides an image receiving apparatus comprising a barrier panel controller for enabling only barrier to the position of the synthetic image for three-dimensional image of the said image decoding portion decoding.

또 다른 관점에서 본 발명은 3차원 이미지 객체를 포함하는 이미지 객체들과 상기 이미지 객체들의 각각의 위치 정보들이 다중화된 신호를 수신하는 신호수신 부, 상기 수신한 상기 이미지 객체들과 상기 이미지 객체들의 위치 정보들을 각각의 분리하여 출력하는 역다중화부, 상기 역다중화부가 출력하는 이미지 객체들과 상기 이미지 객체들의 위치 정보들을 복호하고, 상기 복호한 객체들 중 3차원 이미지 객체를 이용하여 상기 3차원 이미지 객체를 표출하기 위한 왼쪽 이미지 객체와 오른쪽 이미지 객체로 각각 생성하고, 상기 생성한 왼쪽 이미지 객체와 오른쪽 이미지 객체를 픽셀 단위로 합성하여 출력하는 이미지복호부, 상기 이미지복호부가 출력하는 이미지 객체들을 표출하는 디스플레이부, 상기 디스플레이부 상에 위치하여 활성화됨에 따라 입사 시각을 분리할 수 있는 배리어 패널(barrier panel) 및 상기 배리어 패널의 배리어 중 상기 이미지복호부가 복호한 3차원 이미지 객체의 위치 정보에 대응하는 배리어만을 활성화하는 배리어패널제어부를 포함하는 이미지 수신 장치를 제공한다.In another aspect, the present invention provides a signal receiving unit for receiving a signal multiplexed with the image objects including the three-dimensional image object and the respective position information of the image object, the position of the received image object and the image object A demultiplexer for separating and outputting the respective information; decoding the image objects outputted by the demultiplexer and position information of the image objects, and using the 3D image object among the decoded objects; An image decoder for generating a left image object and a right image object for expressing the image, and synthesizing the generated left image object and the right image object in units of pixels and displaying the image objects output by the image decoder. As it is located on the display unit and activated An image receiving apparatus including a barrier panel capable of separating an incident time and a barrier panel controller for activating only a barrier corresponding to position information of a three-dimensional image object decoded by the image decoder among barriers of the barrier panel; to provide.

또 다른 관점에서 본 발명은 3차원 이미지 생성을 위한 오른쪽 이미지 객체와, 왼쪽 이미지 객체를 포함하는 이미지 객체들을 저장하는 이미지저장부, 상기 이미지 객체들의 화면상 위치 정보를 포함하는 객체 기술 정보와 상기 이미지 객체의 식별자 정보를 생성하는 이미지정보생성부, 상기 이미지저장부가 저장한 이미지 객체들과 상기 이미지정보생성부가 생성한 이미지 정보들 중 상기 이미지저장부에 저장된 이미지 객체들에 대응하는 이미지 정보들을 다중화하여 송신 데이터 형식으로 변화시키는 다중화부 및 상기 다중화부가 다중화한 이미지 객체들과 상기 객체들을 전송하는 전송부를 포함하는 이미지 송신 장치를 제공한다.In yet another aspect, the present invention provides an image storage unit for storing image objects including a right image object, a left image object, object description information including on-screen position information of the image objects, and the image. An image information generation unit for generating identifier information of an object, and image information corresponding to the image objects stored in the image storage unit among the image objects stored in the image storage unit and the image information generated by the image information generation unit An apparatus for transmitting an image includes a multiplexer for changing a transmission data format, an image object multiplexed by the multiplexer, and a transmitter for transmitting the objects.

이하 상기 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can specifically realize the above object will be described.

먼저, 본 발명을 용이하게 설명하기 위해 송수신할 수 있는 3차원 이미지에 대해 설명한다. 이하, 3차원 이미지는 입체적으로 보이는 이미지를 총칭한다. 또한, 이하에서 이미지라는 것을 수신자에게 표출되는 상(像)을 의미하는 것으로서, 예를 들어 전송자가 텍스트 형태로 전송한 것 수신자의 화면에 표출될 경우 수신자에게는 이미지로 보일 수 있으므로 이하의 이미지에 포함된다. 즉, 이하에서 이미지는 수신자가 화면상으로부터 인식할 수 있는 수신자 시각 중심의 상을 의미하는 것으로서, 송신자가 전송 객체에 대한 개별적인 이미지를 생성하여 송신하지 않더라도 수신자가 전송 객체를 받아 표출된 상으로부터 시각적으로 이미지라고 인식할 수 있으면 이하의 이미지에 포함된다. First, a three-dimensional image that can be transmitted and received in order to easily describe the present invention will be described. Hereinafter, the 3D image generically refers to an image that appears three-dimensionally. In addition, in the following description, the image refers to an image displayed to the receiver. For example, when the sender transmits the text in the form of a receiver, the image may be displayed to the receiver. do. That is, the image below refers to an image of the receiver visual center that the receiver can recognize from the screen, and even though the sender does not generate and transmit an individual image for the transmission object, the receiver receives the transmission object and visualizes the image. If it can be recognized as an image, it is included in the following image.

두 개의 2차원 이미지들을 합성하면 3차원 이미지로 표출할 수 있다. 사람의 좌우 두 눈이 하나의 이미지를 볼 경우 각각 두 눈은 시각적으로 조금 다른 이미지를 본다. 즉, 오른쪽 눈이 본 이미지와 왼쪽 눈이 본 이미지는 각각 두 눈의 거리 차만큼 달라보인다. 위에서 3차원 이미지는, 하나의 이미지를 사람의 좌우의 눈이 각각 좌우방향에서 본 2개의 이미지를 화면에 표시하되, 양안시차(兩眼視差)를 주고 2개의 이미지를 시각적으로 합성하도록 할 경우 나타나는 이미지를 의미한다. 양안시차는 오른쪽 눈과 왼쪽 눈이 사물을 보는 시각의 차이를 나타낸다. 이하에서 3차원 이미지를 형성하는 이미지 중 왼쪽 눈이 보는 이미지(이하 왼쪽 이미지라고 한다)를 L 인덱스로 표시하고, 오른쪽 눈이 보는 이미지(이하 오른쪽 이미지라고 한다)를 R 인덱스로 표시한다. Combining two two-dimensional images can be expressed as a three-dimensional image. If the left and right eyes of a person see one image, each eye sees a slightly different image. That is, the image seen by the right eye and the image seen by the left eye are different from each other by the distance difference between the two eyes. In the above three-dimensional image, a single image is displayed when the eyes of the left and right eyes of the human being are respectively displayed in the left and right directions, but the binocular parallax gives the two images visually synthesized. Means image. The binocular parallax represents the difference between the right eye and the left eye's view of objects. Hereinafter, an image viewed by the left eye (hereinafter referred to as a left image) among the images forming the 3D image is represented by an L index, and an image viewed by the right eye (hereinafter referred to as a right image) is represented by an R index.

도 1은 화면을 통해 표출되는 2개의 2차원 이미지로 3차원 이미지를 볼 경우 의 예를 설명하기 위해 화면상 3차원 이미지가 표출되는 개념도를 나타낸다. 도 1을 참조하여 본 발명이 이미지를 표출하는 원리를 설명하면 다음과 같다. FIG. 1 illustrates a conceptual diagram in which a 3D image on a screen is displayed to explain an example of viewing a 3D image with two 2D images displayed on a screen. Referring to Figure 1 describes the principle of presenting the image as follows.

3차원 이미지를 표출하기 위해 화면상에서는 배리어 패널(barrier panel)이 위치한다. 배리어 패널은 입사하는 시각을 분리하고, 그에 따라 양안시차를 발생시키도록 하여 화면상에 표출되는 이미지가 3차원 이미지로 보이도록 할 수 있다. 오른쪽 눈이 보는 이미지(R)와 왼쪽 눈이 보는 이미지(L)를 합성한 후, 사람의 시각에서 합성된 이미지를 보면 그 이미지 상이 입체적인 이미지로 보일 수 있다. Barrier panels are located on the screen to display three-dimensional images. The barrier panel may separate the incident time point and generate binocular disparity accordingly, so that the image displayed on the screen may be viewed as a three-dimensional image. After synthesizing the image (R) seen by the right eye and the image (L) seen by the left eye, the synthesized image may be viewed as a three-dimensional image.

하나의 이미지에 오른쪽 눈이 보는 이미지와 왼쪽 눈이 보는 이미지가 준비되고, 왼쪽 이미지(L)들과 오른쪽 이미지(R)들이 픽셀 단위로 합성되어 화면에 표출된다. 배리어 패널은 입사하는 시각을 분리하여 오른쪽 눈으로부터 오는 시각은 오른쪽 이미지에 의한 픽셀로, 왼쪽 눈으로부터 오는 시각은 왼쪽 이미지에 의한 픽셀이 오도록 하여 양안시차가 발생하도록 할 수 있다. 따라서, 사람이 픽셀단위로 합성된 이미지를 배리어 패널을 통해 인지할 경우 3차원 이미지가 보이도록 할 수 있다. 두 이미지를 픽셀 단위로 합성하는 방법은 픽셀에 대한 보간 방법이 사용될 수 있지만, 이미지를 형성하는 방법에 따라 여러 가지 방법이 있을 수 있다. 도 1 에서 b는 배리어 패널의 배리어(barrier) 간격을, g는 배리어 패널과 화면의 간격을, z는 사람이 보는 위치로부터 화면까지의 거리를 각각 나타낸다.In one image, the image of the right eye and the image of the left eye are prepared, and the left image L and the right image R are synthesized in units of pixels and displayed on the screen. The barrier panel may separate the incident time so that the time coming from the right eye is a pixel by the right image, and the time coming from the left eye is a pixel by the left image so that binocular disparity may occur. Therefore, when a person perceives an image synthesized in units of pixels through the barrier panel, the 3D image may be displayed. A method of synthesizing two images on a pixel-by-pixel basis may use an interpolation method for pixels, but there may be various methods depending on how the image is formed. In FIG. 1, b denotes a barrier interval of the barrier panel, g denotes a gap between the barrier panel and the screen, and z denotes a distance from the position seen by a person.

도 1과 같이 두 이미지를 픽셀단위로 오른쪽 이미지(R)와 왼쪽 이미지(L)를 배치하면, 배리어 패널은 오른쪽 눈의 시각에는 오른쪽 이미지(R)에 포함된 픽셀 이, 왼쪽 눈의 시각은 왼쪽 이미지에 포함된 픽셀(R)이 대응되도록 활성화할 수 있다. 특히 배리어 패널은 화면 중 중 3차원 이미지가 위치하는 부분에서만 활성화하여 양안시차를 발생시킬 수 있다. 화면에 2차원 이미지가 표출되는 부분은 배리어 패널이 활성화되지 않기 때문에 2차원 이미지가 그대로 화면을 보는 사람의 눈으로 전달된다. 3차원 이미지가 위치하는 부분의 배리어 패널만 활성화되는 방법은 도 13에서 설명한다.As shown in FIG. 1, when the right image R and the left image L are disposed in pixel units, the barrier panel includes pixels included in the right image R for the right eye, and the left eye for the left. The pixel R included in the image may be activated to correspond to each other. In particular, the barrier panel may generate binocular disparity by activating only the portion of the screen where the 3D image is located. Since the barrier panel is not activated, the part where the 2D image is displayed on the screen is transmitted to the eyes of the viewer as it is. A method of activating only the barrier panel of the portion where the 3D image is located will be described with reference to FIG. 13.

화면상에 2차원 이미지와 3차원 이미지를 객체단위로 표출시킬 경우 배리어 패널은 각 객체에 부여된 위치 정보를 이용할 수 있다. 즉 이미지의 객체 단위로 부여된 이미지의 위치 정보를 배리어 패널에 전달하면, 배리어 패널은 객체의 위치 정보로부터 각 3차원 이미지 객체에 대응되는 배리어 패널의 부분만을 활성화시킬 수 있다. 반대로, 2차원 이미지 객체에 대응되는 배리어 패널의 부분은 활성화되지 않는다. 따라서, 2차원 이미지와 3차원 이미지가 동시에 표출될 수 있고, 3차원 이미지와 2차원 이미지가 시각에 따라 움직이더라도, 배리어 패널이 각 객체에 대한 위치 정보에 적응적으로 활성화되기 때문에 3차원 이미지와 2차원 이미지가 동시에 표출될 수 있다. 배리어 패널이 활성화될 경우 배리어 패널은 입사 시각(入射 視角)을 분리할 수 있다. 2차원 이미지를 그대로 표출할 경우 배리어 패널은 비활성화되기 때문에 입사 시각을 분리하지 않는다. When displaying two-dimensional and three-dimensional images on the screen in units of objects, the barrier panel may use location information assigned to each object. That is, when the positional information of the image assigned to the object unit of the image is transmitted to the barrier panel, the barrier panel may activate only a part of the barrier panel corresponding to each 3D image object from the positional information of the object. In contrast, the portion of the barrier panel corresponding to the two-dimensional image object is not activated. Therefore, the two-dimensional image and the three-dimensional image can be simultaneously displayed, and even if the three-dimensional image and the two-dimensional image move with time, since the barrier panel is activated adaptively to the positional information about each object, Two-dimensional images can be displayed simultaneously. When the barrier panel is activated, the barrier panel can separate the incident time. When the two-dimensional image is displayed as it is, the barrier panel is inactivated, and thus the incident time is not separated.

도 2는 본 발명에 따른 이미지 표출 방법에 따른 개념을 평면적으로 예시한 도면이다. 화면상의 픽셀 중 사선으로 표시한 부분은 오른쪽 이미지로부터 얻은 픽셀을, 점선으로 표시한 부분은 왼쪽 이미지로부터 얻은 픽셀을 각각 나타낸다. 화 면상에 표출되는 이미지는 오른쪽 이미지와 왼쪽 이미지가 픽셀단위로 합성된다. 도 1에서는 본 발명에 대한 이해를 용이하게 하기 위해 입사 시각이 분리된다고 기술하였다. 배리어 패널이 구동되어 입사 시각을 분리한다는 의미는, 오른쪽 이미지에 속하는 픽셀들에 의해 형성되는 이미지 영역(사선으로 표시)(a)과 왼쪽 이미지에 속하는 픽셀들에 의해 형성되는 이미지 영역(점선으로 표시)(b)을 통해 사람의 두 눈은 서로 다른 이미지를 받아들인다는 의미이다. 따라서, 사람이 두 눈으로부터 받은 각기 다른 두 이미지를 뇌에서 합성하여, 화면에 표출된 이미지를 3차원 이미지로 인식할 수 있다. 2 is a plan view illustrating a concept according to the image display method according to the present invention. The diagonally-marked portion of the pixels on the screen indicates pixels obtained from the right image, and the portions indicated by dashed lines represent pixels obtained from the left image. In the image displayed on the screen, the right image and the left image are synthesized pixel by pixel. In Figure 1 it is described that the incident time is separated to facilitate understanding of the present invention. Meaning that the barrier panel is driven to separate the incident time means that an image region formed by the pixels belonging to the right image (shown by a diagonal line) and an image region formed by the pixels belonging to the left image (shown by a dotted line) (b) means that the human eyes accept different images. Therefore, by synthesizing two different images received from two eyes by a human brain, the image displayed on the screen can be recognized as a three-dimensional image.

본 발명은 3차원 이미지와 2차원 이미지를 함께 화면상에 표출하도록 하고, 화면 중 3차원 이미지가 위치하는 부분만 3차원 이미지를 위한 배리어 패널을 활성화하여 사용자가 두 이미지를 동시에 볼 수 있도록 할 수 있다. 반대로 3차원 이미지를 표출을 위해 화면 전체에 배리어 패널을 활성화한 경우, 2차원 이미지가 위치하는 부분만 배리어 패널을 비활성화하여 입체 이미지가 위치하는 곳에만 3차원 이미지가 보이도록 하고, 평면 이미지가 위치하는 곳은 2차원 이미지가 보이도록 할 수 있다. 도 2에서 예시한 바와 같이 배리어 패널은 TFT-LCD 등의 디스플레이 장치에 표출되는 이미지의 픽셀에 대응하여 활성화될 수 있다. 그리고, 3차원 이미지가 표출되는 디스플레이 장치의 각 픽셀에 일치하는 위치 정보를 이용해 배리어 패널 중 일부만을 활성화시키거나, 비활성화시킬 수 있다. 따라서, 배리어 패널은, 디스플레이 장치 중 3차원 이미지가 위치하는 픽셀과 그 배리어 패널의 대응부분이 서로 동기되어 활성화되기 때문에, 3차원 이미지의 위치가 시간에 따라 변화하더라도 3차원 이미지가 위치하는 부분만 입체적인 이미지로 보일 수 있다. 따라서, 3차원 이미지가 있는 부분의 시선을 집중시킬 수 있고, 2차원 이미지에 비해 3차원 이미지를 생동감있게 볼 수 있다.According to the present invention, the 3D image and the 2D image can be displayed together on the screen, and only a portion of the screen where the 3D image is located can be activated to enable the user to view both images simultaneously by activating a barrier panel for the 3D image. have. On the contrary, when the barrier panel is activated on the entire screen to display the 3D image, the barrier panel is deactivated only in the portion where the 2D image is located so that the 3D image is visible only where the 3D image is located and the plane image is positioned. The place can make the two-dimensional image visible. As illustrated in FIG. 2, the barrier panel may be activated corresponding to pixels of an image displayed on a display device such as a TFT-LCD. Then, only a part of the barrier panel may be activated or deactivated by using position information corresponding to each pixel of the display apparatus displaying the 3D image. Therefore, the barrier panel is activated by synchronizing the pixels where the 3D image is located and the corresponding portions of the barrier panel of the display device with each other in synchronization with each other. It can be seen as a three-dimensional image. Therefore, the line of sight of the portion where the three-dimensional image is located can be focused, and the three-dimensional image can be seen more vividly than the two-dimensional image.

도 3은 화면을 통해 입체적인 이미지를 인식할 경우 깊이 정보에 기술하기 위한 도면이다. 도 3을 참조하여 깊이 정보를 기술하면 다음과 같다. 인간의 눈으로 화면에 나타난 이미지의 입체감을 인식할 경우, 그 이미지의 깊이 정보로서 입체감을 느낄 수 있다. 도 3 에서 p는 사람이 인지하는 압체감에 대한 깊이 정보를, z는 사람의 눈과 화면까지의 거리, e는 사람의 두 눈 사이의 거리, d는 사람의 두 눈에 의한 시선들이 화면에 맺힐 경우의 거리를 나타낸다. 도 3의 (a)는 사람이 느끼는 사물의 깊이가 화면보다 멀 경우를 나타내고, 도 3의 (b)는 사람이 느끼는 사물의 깊이가 화면보다 가까운 경우를 나타낸다. 화면에 2차원 이미지가 표출될 경우, 그 2차원 이미지의 도 3 (a) 또는 (b)에 따른 깊이 정보를 얻어 그 2차원 이미지에 반영하면 2차원 이미지를 3차원 이미지로 보일 수 있다. 이하에서 도 3에서 기술한 깊이 정보를 각 이미지에 대해서는 깊이 정보 또는 두께 정보로 호칭하고, 화면 전체에 대한 깊이 정보는 뎁스 맵(depth map) 정보라고 호칭한다. 3 is a diagram for describing depth information when a stereoscopic image is recognized through a screen. Depth information will be described with reference to FIG. 3. When the human eye recognizes a three-dimensional sense of an image displayed on the screen, the three-dimensional sense may be felt as depth information of the image. In FIG. 3, p denotes depth information on a feeling of indentation perceived by a person, z denotes a distance between a human eye and a screen, e denotes a distance between two eyes of a person, and d denotes the eyes of the human eyes. Indicate the distance when condensed. FIG. 3A illustrates a case where the depth of an object that a person feels is farther than the screen, and FIG. 3B illustrates a case where the depth of an object that a person feels is closer than the screen. When a 2D image is displayed on the screen, the depth information according to FIG. 3 (a) or (b) of the 2D image is obtained and reflected in the 2D image, thereby displaying the 2D image as a 3D image. Hereinafter, the depth information described in FIG. 3 is referred to as depth information or thickness information for each image, and the depth information for the entire screen is referred to as depth map information.

3차원 이미지와 2차원 이미지를 각각 표출하도록 하는 본 발명의 이미지 송수신 방법에 대해 개시한다.Disclosed is an image transmission / reception method of the present invention for displaying a three-dimensional image and a two-dimensional image.

VRML(virtual reality modeling language), XML(extensible markup language), OpenGL, 메사(mesa) 등의 컴퓨터 랭귀지(language), 라이브러리(library), 프로그램 등을 이용하면 3차원 이미지를 구현할 수 있도록 할 수 있 다. 3차원 이미지는 VRML(virtual reality modeling language), XML(extensible markup language), OpenGL, 메사(mesa) 등의 수단을 이용하여 가상적인 3차원 공간상에 표출될 수 있다. VRML, XML 등은 이미지에 포함되는 객체 단위로 3차원 이미지를 구현할 수 있는데, 이렇게 구현된 3차원 이미지는 BIFS(binary for scenes) 등의 이미지 전송 형식으로 전송될 수 있다. VRML (virtual reality modeling language), XML (extensible markup language), OpenGL, mesa (computer language), libraries, programs, etc. can be used to implement 3D images. . The 3D image may be displayed on a virtual 3D space using a means such as VRML (extensionable markup language), XML, OpenGL, or mesa. VRML, XML, and the like may implement a three-dimensional image in units of objects included in the image. The three-dimensional image may be transmitted in an image transmission format such as BIFS (binary for scenes).

본 발명은 3차원 이미지가 포함된 이미지들을 수신할 경우 3차원 이미지가 화면 일부에만 표출되도록 하여 주위에 비해 시선의 집중도를 높이고, 더욱 생동감 있는 이미지를 표출할 수 있다. 따라서, 2차원 이미지만 화면에 표출되거나, 3차원 이미지만 화면상에 표출되는 경우보다 시선을 집중시킬 수 있고, 3차원 이미지를 더욱 사실적으로 느끼도록 할 수 있다. 또한, 텍스트와 같은 2차원 이미지는 평면으로 보이도록 하여 그 의미 전달에 오해가 없도록 할 수 있고, 3차원 이미지가 시각적으로 해상도가 저하되어 보이는 문제점도 없앨 수 있다. When the image including the 3D image is received, the 3D image may be displayed only on a part of the screen, thereby increasing the concentration of the gaze compared to the surroundings and displaying a more vibrant image. Therefore, the gaze can be focused and the 3D image can be more realistically felt than when only the 2D image is displayed on the screen or only the 3D image is displayed on the screen. In addition, a two-dimensional image such as text may be viewed as a plane so that there may be no misunderstanding of the meaning transmission, and the problem that the three-dimensional image is visually degraded may be eliminated.

이하에서는 2차원 이미지와 3차원 이미지를 함께 표출할 수 있는 본 발명에 따른 이미지 송수신 방법 및 이미지 수신 장치를 개시한다.Hereinafter, an image transmitting / receiving method and an image receiving apparatus according to the present invention capable of displaying a two-dimensional image and a three-dimensional image together are disclosed.

도 4은 본 발명에 따른 이미지 송신 방법의 일 실시예를 나타낸 흐름도이다. 도 4을 참조하여 본 발명에 따른 이미지 송신 방법의 일 실시예를 설명하면 다음과 같다. 4 is a flowchart illustrating an embodiment of an image transmission method according to the present invention. An embodiment of an image transmission method according to the present invention will be described with reference to FIG. 4.

평면적으로 보이는 2차원 이미지와 입체적으로 보이는 3차원 이미지를 각각 생성한다(S10). 여기서, 2차원 이미지가 하나의 화면 전체에 표출될 수 있는 이미지라면, 3차원 이미지는 화면 일부에 표출될 수 있는 이미지일 수 있다. 반대로, 3 차원 이미지가 화면 전체에 표출될 수 있는 이미지라면, 2차원 이미지는 화면 일부에 표출될 수 있는 이미지일 수 있다. A planar two-dimensional image and a stereoscopic three-dimensional image are respectively generated (S10). Here, if the 2D image is an image that can be displayed on the entire screen, the 3D image may be an image that can be displayed on a portion of the screen. On the contrary, if the 3D image is an image that can be displayed on the entire screen, the 2D image may be an image that can be displayed on a part of the screen.

이하에서는 3차원 이미지가 화면 일부에 표출될 경우를 일 예로 하여 설명한다. 3차원 이미지는 VRML이나 XML 등으로 표현의 객체(object) 단위의 이미지일 수 있다. Hereinafter, a case where the 3D image is displayed on a part of the screen will be described as an example. The 3D image may be an image of an object unit of expression, such as VRML or XML.

3차원 이미지가 화면 일부에 표출되도록 3차원 이미지 객체를 송신한다면, 송신한 3차원 이미지 객체를 수신하여 실제 화면으로 변환시키기 위한 정보인 객체 기술에 필요한 정보를 생성한다. 이하에서 객체 기술에 필요한 정보란 이미지들의 단위를 화면상에 조합하여 표출하기 위한 정보로서 객체 기술 정보라고 호칭한다. 예를 들어, 이미지 개별 단위인 객체(object)에 대한 객체 기술 정보는 이미지 객체의 두께 정보나 위치 정보를 포함한다. 3차원 이미지를 수신하여 표출할 경우 상기 객체 기술 정보를 이용하여 3차원 이미지의 렌더링(rendering)을 수행하면 입체적인 이미지가 표출될 수 있다. If the 3D image object is transmitted so that the 3D image is displayed on a part of the screen, information necessary for object description, which is information for receiving the transmitted 3D image object and converting the image to the actual screen, is generated. Hereinafter, information necessary for object description is information for expressing a combination of units of images on a screen and is called object description information. For example, object description information about an object that is an image individual unit includes thickness information or position information of an image object. When receiving and displaying a 3D image, a 3D image may be displayed by rendering the 3D image using the object description information.

객체 단위의 3차원 이미지, 그 이미지의 위치 정보를 포함하는 객체 기술 정보 및 2차원 이미지가 이미지 송신을 위한 형식으로 변환될 수 있다(S20). 예를 들어, 객체 단위의 3차원 이미지는 이미지 송수신을 위한 형식의 하나인 BIFS로 변환될 수 있다. 3차원 이미지와 2차원 이미지는 반드시 동일한 송수신 형식을 가질 필요는 없다. 예를 들어 객체 단위의 3차원 이미지가 BIFS로 변환되고, 2차원 이미지는 MPEG-2 TS(transport stream) 형식으로 변환되어 송신될 수 있다. 객체 단위의 3차원 이미지를 표현하는 BIFS 형식의 데이터도 MPEG-2 TS 형식으로 다시 변환되어 송신될 수도 있다.The 3D image of the object unit, the object description information including the position information of the image, and the 2D image may be converted into a format for image transmission (S20). For example, a three-dimensional image of an object unit may be converted into BIFS, which is one of formats for image transmission and reception. The 3D image and the 2D image do not necessarily have the same transmission / reception format. For example, a three-dimensional image of an object unit may be converted into BIFS, and the two-dimensional image may be converted into an MPEG-2 transport stream (TS) format and transmitted. Data in BIFS format representing a three-dimensional image of an object unit may also be converted back to MPEG-2 TS format and transmitted.

이미지 송신을 위해 변환시킨 객체 단위의 3차원 이미지, 3차원 이미지의 객체 기술 정보 및 2차원 이미지 객체를 포함하는 데이터를 송신한다(S30).Data including the 3D image of the object unit converted for image transmission, object description information of the 3D image, and the 2D image object is transmitted (S30).

따라서, 객체 단위의 3차원 이미지, 3차원 이미지의 객체 기술 정보 및 2차원 이미지 객체를 포함하는 데이터를 각각 수신하여 표출하면, 2차원 이미지와 3차원 이미지 객체가 그 3차원 이미지 객체에 대한 위치 정보를 포함하는 객체 기술 정보에 따라 표출될 수 있다. Therefore, when receiving and displaying three-dimensional image, object description information of the three-dimensional image, and data including the two-dimensional image object, respectively, the two-dimensional image and the three-dimensional image object are position information of the three-dimensional image object. Can be expressed according to the object description information, including.

도 5는 본 발명에 따른 이미지 송신 방법의 다른 실시예를 나타낸 흐름도이다. 도 5를 참조하여 본 발명에 따른 이미지 송신 방법의 다른 실시예를 설명하면 다음과 같다. 도 5의 실시예에서도 4차원 이미지를 화면에 일부에 표출하도록 송신하는 예를 개시한다. 5 is a flowchart illustrating another embodiment of an image transmission method according to the present invention. Another embodiment of the image transmission method according to the present invention will be described with reference to FIG. 5. In the embodiment of FIG. 5, an example of transmitting a 4D image to a part of the screen is disclosed.

2차원 이미지와 그 뎁스 맵 정보를 이용하면 3차원 이미지를 표출할 수 있다. 여기서, 뎁스 맵 정보는 2차원 이미지에 대한 입체적 거리감에 따른 깊이 정보를 의미한다. 예를 들어 뎁스 맵 정보가 -128 내지 127 사이의 8비트 값을 가진다고 가정한다. 2차원 이미지의 일부분의 뎁스 맵 정보가 0 비트의 값인 부분은 그 이미지와 동일한 거리감을 가지는 평면 이미지로 보이고, 0이 아닌 부분은 그 2차원 이미지에 대해 원근에 따른 시각적 거리가 있음을 나타낸다. 예를 들면, 양의 비트값은 그 2차원 이미지보다 시각적으로 앞에, 음의 비트 값은 그 2차원 이미지보다 시각적으로 뒤에 있을 수 있고, 혹은 그 반대일 수도 있다. 2차원 이미지와 그 2차원 이미지의 시각적 거리 원근의 차이를 등고선과 같이 나타낸 뎁스 맵 정보 를 이용하면, 3차원 이미지를 구현하도록 할 수 있다. 하나의 뎁스 맵이 하나의 이미지 객체를 입체적으로 표출하는데 사용될 수 있고, 2 개의 뎁스 맵 정보를 이용하여 하나의 2차원 이미지를 3차원 이미지로 구현할 수 있다. 예를 들어, 하나의 뎁스 맵은 시각적으로 가까운 쪽 위치를 나타내는 깊이 정보를 가지고, 다른 하나의 뎁스 맵은 시각적으로 먼 쪽 위치를 나타내는 깊이 정보를 가진다면, 가까운 쪽과 먼 쪽 위치 간의 차분으로 이미지의 두께 정보를 표현할 수도 있다. By using the 2D image and the depth map information, the 3D image can be expressed. Here, the depth map information means depth information according to a three-dimensional sense of distance with respect to the two-dimensional image. For example, assume that the depth map information has an 8-bit value between -128 and 127. The portion where the depth map information of a part of the two-dimensional image has a value of 0 bits is viewed as a planar image having the same sense of distance as the image, and a portion other than zero indicates that there is a visual distance along the perspective with respect to the two-dimensional image. For example, a positive bit value may be visually preceding the two-dimensional image, and a negative bit value may be visually behind the two-dimensional image, or vice versa. By using the depth map information representing the difference between the two-dimensional image and the visual distance perspective of the two-dimensional image as a contour line, it is possible to implement the three-dimensional image. One depth map may be used to three-dimensionally display one image object, and one two-dimensional image may be realized as a three-dimensional image using two depth map information. For example, if one depth map has depth information indicating a visually near side position, and another depth map has depth information visually indicating a far side position, the image is determined by the difference between the near and far positions. The thickness information of may be expressed.

위와 같이, 이미지를 송신할 경우 화면 전체에 표출될 수 있는 2차원 이미지와, 그 2차원 이미지의 뎁스 맵(depth map) 정보를 각각 생성한다(S50). As described above, when the image is transmitted, two-dimensional images that can be displayed on the entire screen and depth map information of the two-dimensional images are generated (S50).

2차원 이미지와 그 2차원 이미지의 뎁스 맵 정보가 데이터 송신을 위한 형식으로 변환될 수 있다(S60). 예를 들어 2차원 이미지와 뎁스 맵 정보는 MPEG-2 TS 형식으로 변환될 수 있다. 예를 들어, 뎁스 맵 정보는 MPEG-2 TS의 PES(packetized elementary stream) 형태일 수도 있고, MPEG-2 TS 프라이빗 섹션(private section) 형태일 수도 있다. The 2D image and the depth map information of the 2D image may be converted into a format for data transmission (S60). For example, the 2D image and the depth map information may be converted into the MPEG-2 TS format. For example, the depth map information may be in the form of a packetized elementary stream (PES) of MPEG-2 TS or may be in the form of an MPEG-2 TS private section.

그리고, 2차원 이미지와, 그 2차원 이미지에 대한 뎁스 맵 정보가 변환된 형식의 데이터를 송신한다(S70). 따라서, 2차원 이미지와 뎁스 맵 정보를 포함하는 데이터를 수신할 경우 그 2차원 이미지 중 뎁스 맵 정보에 의한 깊이 정보가 0이 아닌 부분은 3차원 이미지로 표출할 수 있다. 도 5에 의해 송신된 이미지는 도 9의 실시예에 따라 수신될 수 있다. Then, the two-dimensional image and the data of the format in which the depth map information for the two-dimensional image is converted are transmitted (S70). Therefore, when data including the 2D image and the depth map information is received, a portion of the 2D image in which the depth information by the depth map information is not 0 may be expressed as a 3D image. The image transmitted by FIG. 5 may be received according to the embodiment of FIG. 9.

도 6는 본 발명에 따른 이미지 송신 방법의 또 다른 실시예를 설명하기 위한 이미지 구조의 일 예를 나타낸 도면이다. 객체는 오디오 객체 등과 함께 이미지를 에 포함되어 하나의 이미지를 형성할 수 있다. 이미지의 객체는 계층적인 구조를 가질 수 있으며, 그 구조는 시간에 따라 변화할 수 있다. 즉, 계층적 구조에 포함된 객체는 시간에 따라 새롭게 추가되거나 없어질 수 있다. 위의 계층적 구조에 따라 객체를 합성하면 하나의 이미지를 형성할 수 있다. 예를 들어 계층적 구조의 객체 단위의 이미지가 BIFS로 형식에 따라 전송될 경우, 각각의 객체에 대한 식별자인 ES_ID(elementary stream identifier)를 부여할 수 있다. BIFS 형식은 2 바이트(bytes)의 ES_ID를 각각의 객체에 부여할 수 있는데, ES_ID로 이미지 객체를 식별시킬 경우, 각 이미지 객체가 2차원 이미지 객체인지 3차원 이미지 객체인지 나타내는 비트 값을 삽입할 수 있다. 6 is a view showing an example of an image structure for explaining another embodiment of an image transmission method according to the present invention. The object may include an image together with an audio object to form a single image. The objects of the image may have a hierarchical structure, and the structure may change with time. That is, objects included in the hierarchical structure may be newly added or removed over time. By compositing objects according to the above hierarchical structure, one image can be formed. For example, when an image of an object unit of a hierarchical structure is transmitted according to a format to BIFS, an elementary stream identifier (ES_ID), which is an identifier for each object, may be assigned. The BIFS format can give each object an ES_ID of 2 bytes. When an image object is identified by the ES_ID, a bit value indicating whether each image object is a 2D image object or a 3D image object can be inserted. have.

도 6의 예에서 보인 이미지의 객체의 계층적 구조는 제 1 객체(1), 제 2 객체(11), 제 3 객체(12), 제 4 객체(121), 제 5 객체(122), 제 6 객체(123), 제 7 객체(124), 제 8 객체(1234r) 및 제 9 객체(1234l)을 포함한다. 제 1 객체가 최상위 객체이고, 제 2 객체(11)와 제 3 객체(12)가, 제 1 객체(1)와 연결된다. 그리고, 제 3 객체(12)는 제 4 객체(121), 제 5 객체(122), 제 6 객체(123) 및 제 7 객체(124)와 각각 연결되고, 제 6 객체(123)는, 제 8 객체와 제 9 객체와 연결된다. 도 6와 같은 이미지 객체들을 송신할 경우 각 이미지 객체의 연결 구조에 대한 장면 기술(scene description) 정보를 함께 송신하면 수신측에서 상기 이미지 객체와 그 이미지 객체의 장면 기술 정보를 이용해 이미지를 재생할 수 있다. 도 6의 예에서는 제 8 객체(1234r) 와 제 9 객체(1234l)의 두 개의 2차원 이미지 객체를 합성하여 하나의 3차원 이미지 객체가 되도록 한 예를 보인 것이다. The hierarchical structure of the object of the image shown in the example of FIG. 6 includes the first object 1, the second object 11, the third object 12, the fourth object 121, the fifth object 122, and the first object. The sixth object 123, the seventh object 124, the eighth object 1234r, and the ninth object 1234l. The first object is a top-level object, and the second object 11 and the third object 12 are connected to the first object 1. The third object 12 is connected to the fourth object 121, the fifth object 122, the sixth object 123, and the seventh object 124, respectively, and the sixth object 123 is formed of a third object 12. It is connected with 8 objects and 9th objects. In the case of transmitting the image objects as shown in FIG. 6, when the scene description information of the connection structure of each image object is transmitted together, the receiver may reproduce the image using the image object and the scene description information of the image object. . In the example of FIG. 6, two two-dimensional image objects of the eighth object 1234r and the ninth object 1234l are synthesized to form one three-dimensional image object.

BIFS와 같은 이미지 전송 형식은 각 이미지 객체에 대한 식별자 필드(BIFS의 경우 ES_ID로 호칭)를 포함할 수 있는데, BIFS의 경우 객체에 대한 식별자 필드(ES_ID)로 2 바이트(bytes)가 할당된다. 따라서, 2 바이트에 식별자 정보를 비트 값으로 설정을 할 경우 각 객체 식별자가 입체 이미지를 위한 이미지 객체인지를 식별시킬 수 있다. 예를 들어 제일 최상위 비트가 0인지 1인지에 따라 2차원 이미지 객체인지 3차원 이미지 객체인지 식별자를 부여할 수 있다. 그리고, 해당 객체가 3차원 이미지 객체일 경우, 그 다음의 비트 값이 0일 경우 왼쪽 이미지, 1인 경우 오른쪽 이미지임을 나타낼 수 있다. An image transmission format such as BIFS may include an identifier field (called ES_ID in the case of BIFS) for each image object. In the case of BIFS, two bytes are allocated as an identifier field (ES_ID) for the object. Therefore, when identifier information is set to a bit value in 2 bytes, it is possible to identify whether each object identifier is an image object for a stereoscopic image. For example, an identifier may be assigned whether a 2D image object or a 3D image object depends on whether the most significant bit is 0 or 1. If the corresponding object is a 3D image object, it may represent that the left image is 0 when the next bit value is 0 and the right image is 1.

다른 예로서 특정 위치의 비트 값을 3차원 이미지의 페어 이미지를 위해 할당한다. 즉, 도 6와 같은 계층 구조에 위치한 어느 하나의 객체 (도 6 예에서는 1234r)의 ES_ID의 식별자의 비트값 중 특정 위치의 비트값이, 그 객체 (도 6 예에서는 1234r) 가 3차원 이미지를 위한 오른쪽 이미지 (또는 왼쪽 이미지)일 경우, 그 객체의 하위에 위치하는 객체는 왼쪽 이미지 (또는 오른쪽 이미지)가 되도록 설정할 수도 있다.As another example, a bit value at a specific position is assigned for a pair image of a three-dimensional image. That is, the bit value of a specific position among the bit values of the identifier of the ES_ID of any one object (1234r in FIG. 6) located in the hierarchical structure as shown in FIG. 6 indicates that the object (1234r in FIG. 6) is a three-dimensional image. In case of the right image (or left image), the object below the object may be set to be the left image (or right image).

도 1과 도 2에서 설명한 원리와 같이 오른쪽 이미지를 위한 제 8 객체와 왼쪽 이미지를 위한 제 9 객체를 합성하면 하나의 3차원 이미지 객체를 표출할 수 있다. As shown in FIGS. 1 and 2, when the eighth object for the right image and the ninth object for the left image are synthesized, one 3D image object may be expressed.

한편, 각각의 이미지 객체는 화면 표시상 위치 정보를 가진다. 하나의 3차원 이미지로 합성되는 2개의 2차원 이미지는 화면상 같은 위치 정보를 가질 수 있다. 도 6의 예에서는 제 8 객체(1234r)가 제 6 객체(123)의 하위 객체로 연결되고, 제 9 객체(1234l)가 제 8 객체(1234r)의 하위 객체로 연결된다. 제 8 객체(1234r)는 3차원 이미지 객체가 될 수 있는 왼쪽 이미지를, 제 9 객체(1234l)는 각각 3차원 이미지 객체가 될 수 있는 오른쪽 이미지일 경우 각 객체의 식별자인 ES_ID에 3차원 이미지 객체이며, 두 이미지가 3차원 이미지 객체의 한 쌍이 되는 이미지임을 설정할 수 있다. 이미지 객체를 수신할 경우 계층적 구조로 된 두 개의 3차원 이미지의 객체를 컴포지션(composition)하고 렌더링(rendering)하면 두 객체를 하나의 3차원 이미지로 합성하여 표출할 수 있다. 그리고, 나머지 객체는 2차원 이미지 객체이므로 평면 이미지로 표출할 수 있다. On the other hand, each image object has positional information on the screen display. Two two-dimensional images synthesized into one three-dimensional image may have the same location information on the screen. In the example of FIG. 6, the eighth object 1234r is connected to a subordinate object of the sixth object 123, and the ninth object 1234l is connected to a subordinate object of the eighth object 1234r. When the eighth object 1234r is a left image that can be a three-dimensional image object, and the ninth object 1234l is a right image that can be a three-dimensional image object, the three-dimensional image object is assigned to ES_ID, which is an identifier of each object. The two images may be set as a pair of three-dimensional image object. When receiving an image object, by composing and rendering objects of two three-dimensional images in a hierarchical structure, the two objects may be synthesized and expressed as one three-dimensional image. Since the remaining objects are two-dimensional image objects, they can be expressed as planar images.

도 7은 도 6의 이미지 객체의 연결구조와 식별자 정보를 이용한 이미지 송신 방법의 또 다른 일 실시예를 나타낸 흐름도이다. 먼저, 3차원 이미지 객체가 되는 한 쌍(pair) 이상의 이미지 객체와 2차원 이미지 객체를 준비한다(S110). FIG. 7 is a flowchart illustrating still another embodiment of an image transmission method using the connection structure and identifier information of the image object of FIG. 6. First, at least one pair of image objects and two-dimensional image objects to be three-dimensional image objects are prepared (S110).

상기 3차원 이미지 객체가 되는 한 쌍 이상의 이미지 객체들, 상기 2차원 이미지 객체 및 상기 이미지 객체들의 위치 정보를 이미지 전송 형식으로 변환시킬 수 있다(S120). 예를 들어 BIFS 형식으로 이용하면 3차원 이미지 객체, 2차원 이미지 객체를 변환시킬 수 있다. 변환시킨 이미지 전송 형식은 각 이미지 객체의 식별자와 그 이미지 객체의 객체 기술 정보를 포함한다. 이미지 객체의 식별자는 그 이미지 객체가 3차원 이미지 객체의 한 쌍의 이미지 객체임을 나타낼 수 있 식별자를 포함할 수 있다. 그리고, 각각의 이미지 객체에 화면상 위치 정보를 설정할 수 있다. The pair of one or more image objects, the two-dimensional image object, and the location information of the image objects, which become the three-dimensional image object, may be converted into an image transmission format (S120). For example, in BIFS format, 3D image objects and 2D image objects can be converted. The converted image transmission format includes an identifier of each image object and object description information of the image object. The identifier of the image object may include an identifier that may indicate that the image object is a pair of image objects of the three-dimensional image object. In addition, position information on the screen may be set for each image object.

2차원 이미지 객체, 3차원 이미지 객체가 되는 이미지 객체 및 상기 이미지 객체들의 위치 정보들을 포함한 이미지 전송 형식을 가진 데이터를 송신한다(S130). 도 7의 실시예에 의한 이미지를 수신한다면 두 개의 3차원 이미지 객체는 화면에 표출될 경우 동일한 위치 정보에서 픽셀단위로 합성되고, 합성된 이미지 객체의 위치 정보에 대응하여 배리어 패널이 활성화될 수 있다. 이에 대한 상세한 설명은 도 11에서 개시한다.In operation S130, data having an image transmission format including a 2D image object, an image object that becomes a 3D image object, and position information of the image objects is transmitted. If the image according to the embodiment of FIG. 7 is received, two three-dimensional image objects may be synthesized in units of pixels from the same location information when displayed on the screen, and the barrier panel may be activated in response to the location information of the synthesized image object. . A detailed description thereof is provided in FIG. 11.

도 8은 본 발명에 따른 이미지 수신 방법의 일 실시예를 나타낸 도면이다. 도 8을 참조하여 본 발명에 따른 이미지 수신 방법의 일 실시예를 설명하면 다음과 같다. 도 8의 실시예는 도 4의 실시예에 의해 송신된 이미지를 수신하여 표출하는 경우를 기술한다. 8 is a view showing an embodiment of an image receiving method according to the present invention. An embodiment of an image receiving method according to the present invention will be described with reference to FIG. 8. The embodiment of FIG. 8 describes a case of receiving and displaying an image transmitted by the embodiment of FIG. 4.

먼저, 수신한 데이터로부터 객체 단위의 3차원 이미지, 3차원 이미지의 위치 정보를 포함하는 객체 기술 정보 및 2차원 이미지를 각각 얻는다(S210). 2차원 이미지도 객체단위로 전송될 수 있기 때문에 수신된 2차원 이미지도 객체 단위라면, 수신한 데이터로부터 그 2차원 이미지의 객체 기술 정보도 얻을 수 있다. 만약 수신한 데이터는 BIFS 등의 전송 형식으로 전송될 수 있는데, 도 11에서 MPEG-2 TS에 포함되어 전송되는 BIFS 형식의 데이터로부터 각 이미지를 얻는 S 210의 예를 상세히 기술한다.First, the 3D image of the object unit, the object description information including the position information of the 3D image and the 2D image are respectively obtained from the received data (S210). Since the two-dimensional image can also be transmitted in object units, if the received two-dimensional image is in object units, object description information of the two-dimensional image can be obtained from the received data. If the received data may be transmitted in a transmission format such as BIFS, an example of S 210 which obtains each image from BIFS format data transmitted by being included in the MPEG-2 TS is described in detail in FIG. 11.

수신한 3차원 이미지 객체를 오른쪽 이미지와 왼쪽 이미지에 대한 2 개의 2차원 이미지로 변환하고, 그 변환한 2차원 이미지들을 픽셀단위로 합성하여 하나의 3차원 이미지 객체로 보일 수 있도록 하는 하나의 2차원 이미지를 각각 생성한다(S220). Converts the received three-dimensional image object into two two-dimensional images of the right image and the left image, and combines the converted two-dimensional images pixel by pixel so that it can be seen as one three-dimensional image object. Each image is generated (S220).

상기 S220 단계에서 합성한 2차원 이미지와 상기 S210 단계에서 수신한 2차원 이미지를 각각 표출하되, 상기 S210 단계에서 수신한 3차원 이미지에 대한 객체 기술 정보 중 위치 정보를 이용하여, 그 위치 정보에 대응하는 위치에서 배리어 패널을 활성화시킨다(S230). 상기 S220 단계에서 생성한 2차원 이미지 객체들은 상기 S210 단계에서 수신한 3차원 이미지 객체로부터 생성되기 때문에 상기 S210 단계에서 수신한 3차원 이미지 객체의 위치 정보를 이용하여 상기 S220 단계에서 생성한 2차원 이미지 객체를 표출할 수 있다. 본 실시예에 의하면 배리어 패널이 3차원 이미지가 되는 이미지 객체의 위치 정보로부터 배리어 패널의 활성화되기 때문에 활성화된 배리어 패널을 통해 3차원 이미지를 볼 수 있고, 나머지는 2차원 이미지를 볼 수 있다. The two-dimensional image synthesized in the step S220 and the two-dimensional image received in the step S210 are respectively expressed, and the location information of the object description information on the three-dimensional image received in the step S210 corresponds to the location information. The barrier panel is activated at the position (S230). Since the two-dimensional image objects generated in step S220 are generated from the three-dimensional image object received in step S210, the two-dimensional image generated in step S220 using the location information of the three-dimensional image object received in step S210. Can expose an object. According to the present exemplary embodiment, since the barrier panel is activated by the barrier panel from the position information of the image object that becomes the three-dimensional image, the barrier panel can view the three-dimensional image through the activated barrier panel, and the rest of the two-dimensional image.

도 9은 본 발명에 따른 이미지 수신 방법의 다른 일 실시예를 나타낸 도면이다. 도 9을 참조하여 본 발명에 따른 이미지 수신 방법의 일 실시예를 설명하면 다음과 같다. 도 9의 실시예는 도 5의 실시예에 의해 송신된 이미지를 수신하여 표출하는 경우를 기술한다. 9 is a view showing another embodiment of an image receiving method according to the present invention. An embodiment of an image receiving method according to the present invention will be described with reference to FIG. 9. 9 illustrates a case of receiving and displaying an image transmitted by the embodiment of FIG. 5.

먼저, 2차원 이미지와, 그 2차원 이미지에 대한 뎁스 맵 정보를 포함하는 데이터를 수신한다(S250). 도 5의 실시예에서 설명한 바와 같이 상기 2차원 이미지와 상기 2차원 이미지에 대한 뎁스 맵 정보는 MPEG-2 TS 정보로 송신될 수 있다.First, data including a 2D image and depth map information of the 2D image is received (S250). As described in the embodiment of FIG. 5, the depth map information on the 2D image and the 2D image may be transmitted as MPEG-2 TS information.

수신한 2차원 이미지와 수신한 2차원 이미지에 대한 뎁스 맵 정보로부터 생성할 수 있는 3차원 이미지 객체의 오른쪽 이미지와 왼쪽 이미지를 각각 생성한다(S260). 생성한 오른쪽 이미지와 왼쪽 이미지를 픽셀단위로 합성하여 표출하고, 상기 뎁스 맵 정보가 0이 아닌 부분에 대응하는 부분의 배리어 패널을 활성화한다(S270).A right image and a left image of the 3D image object, which may be generated from the received 2D image and the depth map information on the received 2D image, are respectively generated (S260). The generated right image and the left image are synthesized and expressed in units of pixels, and the barrier panel of a portion corresponding to a portion where the depth map information is not 0 is activated (S270).

도 10은 본 발명에 따른 이미지 수신 방법의 다른 일 실시예를 나타낸 흐름도이다. 도 10을 참조하여 본 발명에 따른 이미지 수신 방법의 다른 실시예를 설명하면 다음과 같다. 도 10은 도 6의 실시에에 따라 송신된 이미지를 수신하여 표출하는 예를 기술한다. 10 is a flowchart illustrating another embodiment of an image receiving method according to the present invention. Another embodiment of the image receiving method according to the present invention will be described with reference to FIG. 10. 10 illustrates an example of receiving and displaying an image transmitted according to the embodiment of FIG. 6.

수신한 데이터로부터 2차원 이미지 객체와 3차원 이미지 객체를 위한 페어 이미지들(오른쪽 이미지와 왼쪽 이미지) 및 상기 이미지 객체들의 위치 정보를 포함하는 객체 기술 정보를 각각 복호하여 얻는다(S310). 상기 2차원 이미지 객체, 상기 3차원 이미지 객체의 오른쪽 이미지와 왼쪽 이미지 및 상기 이미지 객체들의 객체 기술 정보는 BIFS 형식의 스트림을 전송할 수 있는 MPEG-2 TS 형식으로 수신될 수 있다. From the received data, pair image (right image and left image) for the 2D image object and the 3D image object and object description information including the position information of the image objects are obtained by decoding (S310). The 2D image object, the right and left images of the 3D image object, and object description information of the image objects may be received in an MPEG-2 TS format capable of transmitting a BIFS format stream.

상기 3차원 이미지 객체를 위한 페어 이미지 객체들을 픽셀단위로 합성하여 하나의 2차원 이미지 객체를 생성한다(S320). The pair image objects for the 3D image object are synthesized in pixel units to generate one 2D image object (S320).

상기 이미지 객체의 객체 기술 정보에 포함된 위치 정보로부터 픽셀단위로 합성한 이미지의 객체의 위치에 대응하는 배리어 패널을 활성화시켜 S 320 단계에서 합성한 이미지를 표출한다(S330). 이 경우 2차원 이미지 객체는 해당 위치 정보에 따라 배리어 패널을 활성화시키지 않고 표출할 수 있다. The synthesized image is displayed in operation S320 by activating a barrier panel corresponding to the position of the object of the image synthesized on a pixel basis from the position information included in the object description information of the image object (S330). In this case, the 2D image object may be displayed without activating the barrier panel according to the corresponding position information.

상기에서 설명한 바에 따르면 2개의 이미지 객체를 이용하여 3차원 이미지 객체로 보이도록 할 수 있다. 2개의 이미지 객체로 3차원 이미지 객체가 보이도록 할 경우, 이미지 객체에 포함되는 일부 객체만을 3차원으로 이미지로 보이도록 할 수도 있다. 이미지의 객체(object) 단위로 3차원 이미지를 표출할 경우 송수신되는 객체의 크기와 위치에 따라 화면 전체에 3차원 이미지가 표출될 수도 있고, 화면의 일부에 3차원 이미지가 표출될 수도 있다. 화면을 구성하는 객체 단위로 3차원 이미지가 보이도록 할 경우 송수신하는 객체단위를 식별하기 위해 바이너리 형식의 객체 표현 프레임 방식인 BIFS(BInary Format for Scenes)을 사용할 수 있다. As described above, two image objects may be used to display the three-dimensional image object. When the 3D image object is displayed as two image objects, only some objects included in the image object may be displayed as images in 3D. When the 3D image is expressed in units of objects of the image, the 3D image may be displayed on the entire screen according to the size and position of the object to be transmitted and received, or the 3D image may be displayed on a part of the screen. When the 3D image is displayed in the unit of an object constituting the screen, a binary format object representation frame type BIFS (Binary Format for Scenes) can be used to identify the object unit to be transmitted and received.

이미지를 송수신하는 본 발명의 실시예를 용이하게 이해하기 위해 BIFS(BInary Format for Scenes)을 이용하여 이미지 객체를 수신하는 예를 설명한다. An example of receiving an image object using Binary Format for Scenes (BIFS) will be described in order to easily understand an embodiment of the present invention for transmitting and receiving an image.

도 11은 이미지 객체를 송수신하는 BIFS 형식의 신호를 포함한 MPEG-2 TS 형식의 신호로부터 이미지 객체를 얻는 과정을 예시한다. 이미지를 포함한 MPEG-2 형식의 영상 신호를 얻은 경우 MPEG-2 TS 에서 PID(packet identifier) 가 0x0000 인 PAT(program association table)을 구하고, PAT 내의 프로그램과 그에 해당하는 PMT(program map table)의 PID를 구한다(ⓞ). 구한 PID로부터 PMT를 찾는다(①). PMT 안에서 IOD_descriptor를 구한다(②). IOD(initial object descriptor)가 포함하는 장면 기술(Scene description)과 객체 기술(ojbect description)에 관련한 ES_Descriptor를 구한다(③). ③에서 한 ES_Descriptor 정보로부터 ES_ID를 구한 다음, 이에 해당하는 엘리멘터리 스트림(Elementary Stream) 정보를 디스크립터 루프(Descriptor Loop)에서 찾는다(④). 찾은 엘리멘터리 스트림(Elementary Stream) 정보로부터 ES_ID에 대응되는 PID 및 스트림 타입(Stream_type) 등을 구한 다음, 트랜스포트 스트림으로부터 해당 PID가 일치하는 패킷들을 찾는다(⑤). ObjectDescriptorID를 이용하여 객체정보 스트림을 포함하는 ObjectDescriptor를 구한다(⑥). ObjectDescriptor가 포함하는 ES_ID 와 ⑤에서 구한 PID 사이의 상관 관계를 이용해서 장면을 표출한다(⑦). 객체 기술 정보를 이용하여 BIFS 애니메이션 데이터를 구한다(⑧). BIFS 애니메이션 데이터를 수신하면 수신한 데이터로부터 이미지 객체를 구현할 수 있다. 11 illustrates a process of obtaining an image object from an MPEG-2 TS format signal including a BIFS format signal for transmitting and receiving an image object. When a MPEG-2 format video signal including an image is obtained, a program association table (PAT) having a PID (packet identifier) of 0x0000 is obtained from the MPEG-2 TS, and the PID of a program in the PAT and a corresponding program map table (PMT) is obtained. Is obtained (ⓞ). Find PMT from the obtained PID (①). Obtain IOD_descriptor in PMT (②). An ES_Descriptor related to a scene description and an object description (ojbect description) included in an initial object descriptor (IOD) is obtained (3). The ES_ID is obtained from the ES_Descriptor information obtained in ③, and then the corresponding elementary stream information is found in the descriptor loop (④). The PID corresponding to the ES_ID and the stream type (Stream_type) are obtained from the found elementary stream information, and then packets corresponding to the PID are found from the transport stream (⑤). An ObjectDescriptor including an object information stream is obtained using the ObjectDescriptorID (6). The scene is expressed using the correlation between the ES_ID included in the ObjectDescriptor and the PID obtained in ⑤ (⑦). Obtain BIFS animation data using object description information (⑧). When you receive BIFS animation data, you can implement an image object from the received data.

도 12은 본 발명에 따른 이미지 송신 장치의 일 실시예를 나타낸 도면이다. 도 12을 참조하여 본 발명에 따른 이미지 송신 장치의 일 실시예를 설명하면 다음과 같다. 본 발명에 따른 이미지 송신 장치의 일 실시예를 용이하게 설명하기 위해 MPEG-2 TS를 전송하는 이미지 송신 장치를 예로 하여 설명한다. 12 is a diagram illustrating an embodiment of an image transmitting apparatus according to the present invention. An embodiment of an image transmitting apparatus according to the present invention will be described with reference to FIG. 12. In order to easily describe an embodiment of the image transmitting apparatus according to the present invention, an image transmitting apparatus transmitting MPEG-2 TS will be described as an example.

이미지저장부(110)는 생성된 이미지를 저장한다. 여기서, 도 12의 실시예는 도 6에 따라 이미지를 전송하는 예를 개시한다. 이미지저장부(110)가 저장한 이미지는 프레임 픽처 단위의 2차원 이미지일 수도 있고, 객체 단위의 2차원 이미지일 수 있다. 또한 이미지저장부(110)가 저장한 이미지는 이미 생성된 이미지를 수신받아 저장한 것일 수도 있고, 실시간 생성되는 이미지를 임시 저장한 것일 수도 있다. 이미지저장부(110)는 객체 단위의 3차원 이미지를 저장하거나, 3차원 이미지를 표출하기 위한 객체 단위의 왼쪽 이미지와 오른쪽 이미지를 저장할 수 있다. 이미지정보생성부(120)는 이미지저장부(110)가 저장한 각 이미지들의 객체 기술 정보를 생성한다. 객체 기술 정보는 각 이미지 객체들의 화면상 위치 정보를 포함할 수 있다. 이미지정보생성부(120)는 이미지저장부(110)가 저장한 이미지 객체에 대한 식 별자 정보, 이미지 객체의 위치 정보 및 각 이미지 객체 간의 연결 구조에 대한 정보를 생성할 수 있다. 이미지정보생성부(120)가 3차원 이미지 표출을 위한 왼쪽 이미지 객체와 오른쪽 이미지 객체에 대한 각각의 식별자 정보와 위치 정보 및 연결 구조에 대한 정보를 생성할 수 있다. The image storage unit 110 stores the generated image. Here, the embodiment of FIG. 12 discloses an example of transmitting an image according to FIG. 6. The image stored by the image storage unit 110 may be a 2D image in the unit of a frame picture or may be a 2D image in the unit of an object. In addition, the image stored by the image storage unit 110 may be received and stored in the already generated image, or may be a temporary storage of the image generated in real time. The image storage unit 110 may store a 3D image of an object unit or store a left image and a right image of an object unit for displaying a 3D image. The image information generation unit 120 generates object description information of each image stored in the image storage unit 110. The object description information may include location information on the screen of each image object. The image information generator 120 may generate identifier information on the image object stored by the image storage unit 110, location information of the image object, and information on a connection structure between each image object. The image information generator 120 may generate identifier information, location information, and connection structure of the left image object and the right image object for displaying a 3D image.

다중화부(130)는 이미지저장부(110)가 저장한 이미지 객체들과 이미지정보생성부(120)가 생성한 각 이미지 객체에 대한 객체 기술 정보 등의 정보를 다중화한다. 예를 들어 이미지저장부(110)가 저장한 이미지 객체와 그 객체 기술 정보가 MPEG-2 TS 형식으로 전송된다면, 이미지 객체와 그 객체의 객체 기술 정보는 패킷화된 스트림 정보나 또는 섹션 정보로 다중화될 수 있다. The multiplexer 130 multiplexes information such as image descriptions stored by the image storage unit 110 and object description information about each image object generated by the image information generation unit 120. For example, if the image object and the object description information stored by the image storage unit 110 are transmitted in the MPEG-2 TS format, the image object and the object description information of the object are multiplexed into packetized stream information or section information. Can be.

전송부(140)는 다중화된 이미지 객체들과 그 객체들에 대한 이미지 정보들을 전송한다. 전송부(140)는 이미지 전송을 위해 필요할 경우 이미지와 그 이미지 정보들에 에러 정정 부호화 및 인터리빙(interleaving)을 수행할 수 있다. The transmitter 140 transmits multiplexed image objects and image information about the objects. The transmitter 140 may perform error correction encoding and interleaving on the image and its image information when necessary for image transmission.

도 13는 본 발명에 따른 이미지 수신 장치의 일 실시예를 나타내 도면이다. 도 13를 참조하여 본 발명에 따른 이미지 수신 장치의 일 실시예를 설명하면 다음과 같다. 도 13의 실시예는 도 4 내지 도 6에 따라 송신 이미지를 수신할 수 있다. 13 is a view showing an embodiment of an image receiving apparatus according to the present invention. An embodiment of an image receiving apparatus according to the present invention will be described with reference to FIG. 13 as follows. 13 may receive a transmission image according to FIGS. 4 to 6.

먼저, 도 4의 실시예에 따라 송신되는 이미지를 수신할 경우를 예로 하여 설명한다. 신호수신부(210)는 2차원 이미지, 3차원 이미지 객체 및 3차원 이미지 객체에 대한 객체 기술 정보를 포함하는 비디오 신호를 수신한다. 2차원 이미지는 2차원 이미지 객체이거나, 2차원 이미지의 프레임 픽처(frame picture) 또는 필드 픽처(field picture)일 수 있다. 2차원 이미지가 이미지 객체(object)인 경우 상기 객체 기술 정보는 2차원 이미지 객체에 대한 기술 정보도 포함한다. 이하에서 2차원 이미지는 프레임 이미지라고 가정하여 기술하지만, 당업자는 2차원 이미지가 객체라도 용이하게 이해할 수 있다. First, an example of receiving an image to be transmitted according to the embodiment of FIG. 4 will be described. The signal receiver 210 receives a video signal including object description information about the 2D image, the 3D image object, and the 3D image object. The 2D image may be a 2D image object or may be a frame picture or a field picture of the 2D image. When the 2D image is an image object, the object description information also includes description information about the 2D image object. In the following description, a two-dimensional image is assumed to be a frame image, but those skilled in the art can easily understand that the two-dimensional image is an object.

역다중화부(220)는 비디오 신호에 포함된 2차원 이미지, 3차원 이미지 객체 및 그 객체 기술 정보를 각각 역다중화하여 이미지복호부(225)로 출력한다. 예를 들어 역다중화부(220)는 도 11에서 기술한 이미지 객체 수신 과정에 따라 2차원 이미지, 3차원 이미지 객체와 객체 기술 정보를 역다중화할 수 있다. 이미지복호부(225)는 3차원 이미지 객체를 수신할 경우, 3차원 이미지 객체를 복호하고, 그 이미지 객체가 배리어패널(260)을 통해 3차원 이미지로 보여지도록 복호한 3차원 이미지 객체를 기초로 하여 그 이미지 객체에 대한 왼쪽 이미지와 오른쪽 이미지를 각각 생성한다. 이미지복호부(225)는 3차원 이미지 객체를, 왼쪽 이미지를 생성하기 위해 렌더링(rendering)하고, 오른쪽 이미지를 생성하기 위해 렌더링(rendering)할 수 있다. 그리고, 각각 렌더링한 왼쪽 이미지와 오른쪽 이미지를 픽셀단위로 합성하여 디스플레이부(240)로 전송한다. 두 이미지를 다양한 보간 방법 등을 이용하여 하나의 이미지를 합성할 수 있다. 이미지복호부(225)는 2차원 이미지를 수신할 경우 수신한 이미지를 복호하여 복호한 이미지를 디스플레이부(240)로 출력한다.The demultiplexer 220 demultiplexes the 2D image, the 3D image object, and the object description information included in the video signal, respectively, and outputs the demultiplexed image to the image decoder 225. For example, the demultiplexer 220 may demultiplex two-dimensional images, three-dimensional image objects, and object description information according to the image object receiving process described with reference to FIG. 11. When the image decoder 225 receives the 3D image object, the image decoder 225 decodes the 3D image object and based on the 3D image object decoded so that the image object is displayed as a 3D image through the barrier panel 260. To generate the left and right images for that image object, respectively. The image decoder 225 may render the 3D image object to generate the left image and render the right image. Then, the rendered left image and the right image are synthesized in pixel units and transmitted to the display unit 240. Two images can be synthesized using a variety of interpolation methods. When the image decoder 225 receives the 2D image, the image decoder 225 decodes the received image and outputs the decoded image to the display unit 240.

디스플레이부(240)는 이미지복호부(225)가 출력하는 2차원 이미지와 픽셀단위로 합성된 이미지를 함께 표출할 수 있다. 이미지복호부(225)가 합성한 이미지와 그 이미지의 위치는 수신한 3차원 이미지 객체와 객체 기술 정보에 의한 위치 정보 에 의해 결정된다. The display unit 240 may display a two-dimensional image output by the image decoder 225 and an image synthesized in pixel units. The image synthesized by the image decoder 225 and the position of the image are determined by the position information based on the received 3D image object and object description information.

위의 가정에 따라 이미지복호부(225)가 출력하는 2차원 이미지는 디스플레이부(240) 전체에 표출되는 이미지이고, 이미지복호부(225)가 표출하는 3차원 이미지를 위한 합성이미지는 디스플레이부(240)의 일부에 표출된다. 따라서, 이미지복호부(225)가 출력하는 2차원 이미지와 이미지형성부(230)가 표출하는 3차원 이미지를 위한 합성 이미지는 디스플레이부(240)에서 오버랩(overlap)된다. 디스플레이부(240)가 이미지형성부(230)로부터 이미지를 수신할 경우, 디스플레이부(240)는 이미지형성부(230)로부터 수신하는 이미지를 우선하여 오버랩(overlap)되는 위치에서는 이미지형성부(230)로부터 수신한 합성된 이미지를 표출할 수 있다.According to the above assumption, the two-dimensional image output by the image decoder 225 is an image displayed on the entire display unit 240, and the composite image for the three-dimensional image displayed by the image decoder 225 is displayed on the display unit ( Part of 240). Therefore, the composite image for the two-dimensional image output from the image decoder 225 and the three-dimensional image displayed by the image forming unit 230 are overlapped in the display unit 240. When the display unit 240 receives an image from the image forming unit 230, the display unit 240 prioritizes the image received from the image forming unit 230 and overlaps with the image forming unit 230. Display a composite image received from

배리어패널제어부(250)는 이미지복호부(225)로부터 객체 기술 정보에 포함된 3차원 객체의 위치 정보를 수신하여 그 위치 정보에 대응하는 배리어 패널(260)의 위치의 배리어를 활성화한다. 따라서, 디스플레이부(240)가 표출하는 이미지를 볼 경우 배리어패널(260)이 활성화되지 않은 화면의 부분은 디스플레이부(240)가 표출하는 2차원 이미지를 볼 수 있고, 배리어패널(260)이 활성화된 화면의 부분은 디스플레이부(240)와 배리어패널(260)을 통해 3차원 이미지를 볼 수 있다. 따라서, 2차원 이미지와 3차원 이미지를 하나의 디스플레이부(250)를 통해 함께 볼 수 있다. 배리어패널제어부(250)는 이미지복호부(225)로부터 표출되는 3차원 이미지 객체의 위치 정보에 따라 배리어패널(260)을 제어하기 때문에 시간에 따라 3차원 이미지의 위치가 바뀌더라도 그 위치에 대응되어 배리어패널(260)의 배리어만을 활성화시킬 수 있다. 즉, 디스플레이부(250)에 표출되는 3차원 이미지의 영역과 배리어패 널(260)의 활성영역은 시간에 따라 동기화되기 때문에, 디스플레이부(250)상에 움직이는 3차원 이미지라도 그 3차원 이미지가 위치하는 곳만 배리어패널(260)이 활성화된다. 따라서, 움직이는 3차원 이미지라도 그 3차원 이미지만 입체 이미지로 보일 수 있고, 나머지 영역에서는 2차원 이미지가 표출된다. 움직이는 3차원 이미지 객체의 동영상을 수신한 경우에도 2차원 이미지 내에서 움직이는 3차원 이미지를 표출할 수 있다. The barrier panel controller 250 receives the position information of the 3D object included in the object description information from the image decoder 225 and activates the barrier of the position of the barrier panel 260 corresponding to the position information. Therefore, when viewing the image displayed by the display unit 240, the portion of the screen where the barrier panel 260 is not activated may view the two-dimensional image displayed by the display unit 240, and the barrier panel 260 is activated. A portion of the screen may be viewed through the display unit 240 and the barrier panel 260 to view a 3D image. Therefore, the 2D image and the 3D image may be viewed together through one display unit 250. Since the barrier panel controller 250 controls the barrier panel 260 according to the position information of the 3D image object expressed from the image decoder 225, the barrier panel controller 250 corresponds to the position even if the position of the 3D image changes over time. Only the barrier of the barrier panel 260 may be activated. That is, since the area of the 3D image displayed on the display unit 250 and the active area of the barrier panel 260 are synchronized with time, even if the 3D image moving on the display unit 250 is moved, Only where it is located, the barrier panel 260 is activated. Therefore, even a moving three-dimensional image, only the three-dimensional image can be seen as a stereoscopic image, and the two-dimensional image is expressed in the remaining areas. Even when a moving image of the moving 3D image object is received, the moving 3D image may be expressed within the 2D image.

본 발명에 따른 이미지 수신 장치의 실시예가 도 5의 실시예에 따라 2차원이미지와 그 이미지의 뎁스 맵 정보를 수신한다면, 역다중화부(220)는 2차원 이미지와 뎁스 맵 정보를 각각 이미지복호부(225)로 전송할 수 있다. 이미지복호부(225)는 2차원 이미지와 뎁스 맵 정보를 복호하여, 뎁스 맵 정보에 따라 수신한 2차원 이미지가 3차원 이미지로 보일 수 있도록 하는 왼쪽 이미지와 오른쪽 이미지를 생성한다. 그리고, 이미지복호부(225)는 복호한 뎁스 맵 정보 중 뎁스가 0이 아닌 부분(즉, 수신한 이미지 중 3차원 이미지인 부분)의 위치 정보를 배리어패널제어부(250)로 송신할 수 있다. 이미지복호부(225)는 복호하여 표출할 이미지 중 뎁스 맵 정보에 의한 뎁스가 0이 아닌 부분이 있을 경우 3차원 이미지를 위한 왼쪽 이미지와 오른쪽이미지를 생성한다. 여기서, 왼쪽이미지와 오른쪽이미지는 뎁스가 0인 부분에서는 동일한 화소값에 의한 이미지로 표출되지만, 뎁스가 0이 아닌 부분에서는 양안시차에 의해 다른 화소값을 가지는 이미지가 된다. 이미지복호부(225)는 왼쪽 이미지와 오른쪽 이미지를 디스플레이부(240)로 표출하기 위해 픽셀단위로 하나의 이미지로 합성한다. 특히 뎁스가 0인 부분의 이미지 영역은 픽셀단위로 합성할 수 있다. 상기에서 기술하였듯이 왼쪽 이미지와 오른쪽 이미지의 합성은 다양한 보간 방법 등이 사용될 수 있다. 예를 들면 이미지 영역 중 하나의 열은 오른쪽 이미지의 화소로부터, 그 열의 이웃하는 열은 왼쪽 이미지의 화소로 보간하여 뎁스가 0인 영역에서 하나의 이미지를 생성할 수 있다. 이미지복호부(225)는 합성한 이미지를 디스플레이부(240)로 표출한다. If the embodiment of the image receiving apparatus according to the present invention receives the two-dimensional image and the depth map information of the image according to the embodiment of Figure 5, the demultiplexer 220 is an image decoding unit for each of the two-dimensional image and depth map information Send to 225. The image decoding unit 225 decodes the 2D image and the depth map information to generate a left image and a right image so that the received 2D image may be viewed as a 3D image according to the depth map information. The image decoder 225 may transmit the position information of the portion of the decoded depth map information that is not 0 (that is, the portion of the received image that is a 3D image) to the barrier panel controller 250. The image decoder 225 generates a left image and a right image for the 3D image when there is a non-zero portion of the depth map information among the images to be decoded and displayed. Here, the left image and the right image are expressed as images using the same pixel value at the portion where the depth is 0, but are images having different pixel values due to binocular disparity at portions where the depth is not zero. The image decoder 225 combines the left image and the right image into one image on a pixel-by-pixel basis in order to display the image on the display 240. In particular, the image area of the portion having a depth of zero may be synthesized in units of pixels. As described above, in the synthesis of the left image and the right image, various interpolation methods may be used. For example, one column of the image region may be interpolated from pixels of the right image, and neighboring columns of the column may be interpolated to pixels of the left image to generate one image in an area having a depth of zero. The image decoder 225 expresses the synthesized image on the display 240.

디스플레이부(240)는 이미지복호부(225)가 표출하는 이미지를 표출한다. 배리어패널제어부(250)는 이미지복호부(225)가 복호한 뎁스 맵 정보에 의한 3차원 이미지의 위치 정보를 수신하여, 뎁스가 0이 아닌 부분에서 배리어패널(260)의 배리어가 활성화되도록 배리어패널(260)을 제어한다. 따라서, 디스플레이부(240)가 표출하는 이미지 중 뎁스가 0이 아닌 이미지 부분은 합성된 이미지가 표출된다. 배리어패널(260)은 뎁스가 0이 아닌 이미지 부분에 대응된 배리어만이 활성화하여 디스플레이부(240)가 표출하는 이미지 중 배리어가 활성화된 일부의 이미지만 3차원 이미지로 표출될 수 있다. The display unit 240 displays an image displayed by the image decoding unit 225. The barrier panel controller 250 receives the position information of the 3D image based on the depth map information decoded by the image decoder 225, and the barrier panel 260 is activated so that the barrier of the barrier panel 260 is activated at a portion whose depth is not zero. Control 260. Accordingly, the synthesized image is displayed in the image portion of the image displayed by the display 240 whose depth is not 0. The barrier panel 260 may activate only a barrier corresponding to an image portion of which the depth is not 0, so that only a part of the images activated by the barrier 240 may be expressed as a 3D image.

본 실시예가 도 6에 의한 실시예에 따른 이미지를 수신할 경우, 이미지복호부(225)는 수신한 이미지 객체들 중 3차원 이미지 객체만을 왼쪽 이미지를 위한 객체와 오른쪽 이미지 객체로 생성한 후 왼쪽 이미지 객체와 오른쪽 이미지 객체를 하나의 이미지 객체로 합성한다. 그리고 3차원 이미지 객체를 위해 합성한 이미지 객체와 다른 2차원 이미지 객체들을 하나의 화면에 컴포지션(composition)과 렌더링(rendering)하여 디스플레이부(240)에 표출한다. 배리어패널제어부(250)는 이미지복호부(240)로부터 3차원 이미지 객체에 대한 위치 정보를 수신하여 그 위치에서 의 배리어만을 활성화시킨다. 따라서, 디스플레이부(240)에 표출되는 이미지 중 2차원 이미지 객체는 평면적인 이미지로 볼 수 있고, 3차원 이미지 객체에 의한 입체적인 이미지를 동일한 화면을 통해 볼 수 있다. 3차원 이미지를 위한 합성 이미지가 시간에 따라 동적이더라도 배리어패널의 배리어가 3차원 이미지를 위한 합성 이미지의 위치 정보에 적응적으로 활성되기 때문에 3차원 이미지와 2차원 이미지를 동시에 볼 수 있다. 따라서, 3차원 이미지에 대한 식별력을 높일 수 있고, 텍스트 등이 별도로 표출되더라도 그 텍스트는 2차원 이미지와 동일한 원리로 표출시키고, 3차원 이미지로 표출시키지 않기 때문에 텍스트가 3차원으로 표출됨으로 인해 제대로 식별되지 않은 문제점이 발생하지 않는다. When the present embodiment receives the image according to the embodiment of FIG. 6, the image decoder 225 generates only the 3D image object among the received image objects as an object for the left image and a right image object, and then the left image. Combine the object and the right image object into one image object. Then, the image object synthesized for the 3D image object and the other 2D image object are composed and rendered on one screen and displayed on the display unit 240. The barrier panel controller 250 receives position information on the 3D image object from the image decoder 240 and activates only the barrier at the position. Therefore, the 2D image object among the images displayed on the display 240 may be viewed as a planar image, and the 3D image by the 3D image object may be viewed through the same screen. Even if the composite image for the 3D image is dynamic with time, the barrier of the barrier panel is adaptively activated to the positional information of the composite image for the 3D image, so that the 3D image and the 2D image can be simultaneously viewed. Therefore, it is possible to increase the discrimination ability of the 3D image, and even if the text is displayed separately, the text is displayed in the same principle as the 2D image, and since the text is not displayed as the 3D image, the text is properly displayed due to the 3D image. The problem does not arise.

동일한 기술분야의 당업자가 본 특허명세서로부터 본 발명을 변경하거나 변형하는 것은 용이한 것이다. 따라서, 본 발명의 일 실시예가 상기 명확하게 기재되었더라도, 그것을 여러 가지로 변경하는 것은 본 발명의 사상과 관점으로부터 이탈하는 것이 아니며 본 발명의 사상과 관점 내에 있다고 해야 할 것이다. It is easy for a person skilled in the same technical field to change or modify the present invention from the present patent specification. Therefore, although an embodiment of the present invention has been specifically described above, it will be understood that various changes may be made without departing from the spirit and scope of the present invention, and should be considered within the spirit and scope of the present invention.

상기에서 설명한 본 발명에 따른 이미지 송수신 방법 및 이미지 송수신 장치의 효과를 설명하면 다음과 같다.The effects of the image transmitting and receiving method and the image transmitting and receiving apparatus according to the present invention described above are as follows.

첫째, 본 발명에 따른 이미지 송수신 방법 및 이미지 송수신 장치에 의하면 이미지 수신자의 시선을 집중시킬 수 있도록 할 수 있다. First, the image transmission / reception method and the image transmission / reception apparatus according to the present invention can focus the eyes of the image receiver.

둘째, 본 발명에 따른 이미지 송수신 방법 및 이미지 송수신 장치에 의하면 입체감 있고 사실적인 이미지 표출이 가능하다.Second, according to the image transmission and reception method and the image transmission and reception apparatus according to the present invention it is possible to display a three-dimensional and realistic image.

셋째, 본 발명에 따른 이미지 송수신 방법 및 이미지 송수신 장치에 의하면 2차원 이미지와 3차원 이미지를 각각 하나의 화면에 함께 표출할 수 있도록 할 수 있다.Third, the image transmission / reception method and the image transmission / reception apparatus according to the present invention can display two-dimensional images and three-dimensional images on one screen.

Claims (20)

양안시차(兩眼視差)가 있는 두 개의 2차원 영상을 이용하여 3차원 영상으로 표출 가능한 제1 콘텐츠(contents), 2차원 영상으로 표출 가능한 제2 콘텐츠와, 상기 콘텐츠들의 표출 여부에 대한 표출여부정보 및 상기 제1 콘텐츠 및 제2 콘텐츠의 화면상 위치 정보를 포함하는 콘텐츠표출정보를 생성하는 단계;First content that can be expressed as a 3D image using two 2D images with binocular disparity, second content that can be expressed as a 2D image, and whether or not to express the content Generating content presentation information including information and location information on a screen of the first content and the second content; 상기 생성된 제1 콘텐츠 및 제2 콘텐츠를 BIFS(binary format for scene) 이미지 전송 형식으로 변환하는 단계;Converting the generated first content and second content into a binary format for scene (BIFS) image transfer format; 상기 콘텐츠표출정보를 송신을 위한 데이터 형식으로 변환하는 단계; 및Converting the content presentation information into a data format for transmission; And 상기 BIFS 이미지 전송 형식으로 변환된 제1 콘텐츠 및 제2 콘텐츠와, 상기 표출여부정보 및 상기 송신을 위한 데이터 형식으로 변환된 상기 콘텐츠표출정보를 포함한 신호를 전송하는 단계;를 포함하고,And transmitting a signal including the first content and the second content converted to the BIFS image transmission format and the content presentation information and the content presentation information converted to the data format for transmission. 상기 콘텐츠표출정보는, 상기 제1 콘텐츠에 포함된 영상이 양안시차에 따른 3차원 콘텐츠를 위한 것인지를 나타내는 필드 및 상기 제1 콘텐츠가 양안시차에 따른 3차원 콘텐츠인 경우 상기 두 개의 2차원 영상 각각이 좌영상 또는 우영상인지를 나타내는 필드를 포함하는 것을 특징으로 하는 콘텐츠 전송 방법.The content presentation information may include a field indicating whether an image included in the first content is for 3D content according to binocular disparity, and each of the two 2D images when the first content is 3D content according to binocular disparity. And a field indicating whether the image is a left image or a right image. 제 1항에 있어서,The method of claim 1, 상기 BIFS 이미지 전송 형식은 상기 콘텐츠들의 연결 구조에 대한 정보를 포함하는 콘텐츠 전송 방법.And the BIFS image transmission format includes information on a connection structure of the contents. 양안시차(兩眼視差)가 있는 두 개의 2차원 영상을 이용하여 3차원 영상으로 표출 가능한 BIFS 이미지 전송 형식의 제1 콘텐츠, 2차원 영상으로 표출 가능한 BIFS 이미지 전송 형식의 제2 콘텐츠와 상기 콘텐츠들의 표출 여부에 대한 정보 및 상기 제1 콘텐츠 및 제2 콘텐츠의 화면상 위치 정보를 포함하는 콘텐츠표출정보를 포함하는 신호를 수신하는 단계, The first content of the BIFS image transmission format that can be expressed as a three-dimensional image by using two two-dimensional image with binocular disparity, the second content of the BIFS image transmission format that can be expressed as a two-dimensional image and the content of the content Receiving a signal including information on whether to display information and content presentation information including location information on a screen of the first content and the second content, 여기서, 상기 콘텐트표출정보는, 상기 제1 콘텐츠에 포함된 영상이 양안시차에 따른 3차원 콘텐츠를 위한 것인지를 나타내는 필드 및 상기 제1 콘텐츠가 양안시차에 따른 3차원 콘텐츠인 경우 상기 두 개의 2차원 영상 각각이 좌영상 또는 우영상인지를 나타내는 필드를 포함하고;The content presentation information may include a field indicating whether an image included in the first content is for 3D content according to binocular disparity, and the two two-dimensional fields when the first content is 3D content according to binocular disparity. A field indicating whether each image is a left image or a right image; 상기 콘텐츠들을 저장하는 단계; 및Storing the contents; And 상기 콘텐츠표출정보에 따라 상기 저장한 콘텐츠들을 화면에 표출하되, 상기 제1 콘텐츠를 상기 화면 일부 영역에 3차원으로 표출하는 단계를 포함하는 콘텐츠 표출 방법.And displaying the stored contents on a screen according to the contents expression information, and expressing the first contents in a three-dimensional area on the partial portion of the screen. 제 3항에 있어서,The method of claim 3, 상기 BIFS 이미지 전송 형식은 상기 콘텐츠들의 연결 구조에 대한 정보를 포함하는 콘텐츠 표출 방법.And the BIFS image transfer format includes information on a connection structure of the contents. 제 3항에 있어서, The method of claim 3, 상기 콘텐츠들을 표출하는 단계는 상기 화면 일부 영역에 위치한 배리어만을 활성화시키는 콘텐츠 표출 방법.The displaying of the content may include activating only a barrier located in a portion of the screen. 양안시차(兩眼視差)가 있는 두 개의 2차원 영상을 이용하여 3차원 영상으로 표출 가능한 제1 콘텐츠(contents) 및 2차원 영상으로 표출 가능한 제2 콘텐츠를 저장하는 콘텐츠저장부;A content storage unit for storing first content that can be expressed as a 3D image and second content that can be expressed as a 2D image using two 2D images having binocular parallax; 상기 콘텐츠들의 표출 여부에 대한 정보 및 상기 제1 콘텐츠 및 제2 콘텐츠의 화면상 위치 정보를 포함하는 콘텐츠표출정보를 생성하는 콘텐츠표출정보생성부;A content presentation information generation unit generating content presentation information including information on whether the contents are displayed and location information on the screen of the first content and the second content; 상기 생성된 콘텐츠들을 BIFS(binary format for scene) 이미지 전송 형식으로 변환하고, 상기 콘텐츠표출정보를 송신을 위한 신호 형식으로 변환하는 다중화부, 여기서 상기 콘텐츠표출정보는, 상기 제1 콘텐츠에 포함된 영상이 양안시차에 따른 3차원 콘텐츠를 위한 것인지를 나타내는 필드 및 상기 제1 콘텐츠가 양안시차에 따른 3차원 콘텐츠인 경우 상기 두 개의 2차원 영상 각각이 좌영상 또는 우영상인지를 나타내는 필드를 포함하고; 및 A multiplexer converting the generated contents into a binary format for scene (BIFS) image transmission format and converting the content presentation information into a signal format for transmission, wherein the content presentation information is an image included in the first content. And a field indicating whether the two-dimensional images are left or right images when the first content is three-dimensional content according to binocular disparity; And 상기 변환시킨 형식의 신호를 송신하는 전송부를 포함하는 콘텐츠 전송 장치.And a transmission unit for transmitting the converted format signal. 제 6항에 있어서,The method according to claim 6, 상기 BIFS 이미지 전송 형식은 상기 콘텐츠들의 연결 구조에 대한 정보를 포함하는 콘텐츠 전송 장치.And the BIFS image transmission format includes information on a connection structure of the contents. 양안시차(兩眼視差)가 있는 두 개의 2차원 영상을 이용하여 3차원 영상으로 표출 가능한 BIFS 이미지 전송 형식의 제1 콘텐츠, 2차원 영상으로 표출 가능한 BIFS 이미지 전송 형식의 제2 콘텐츠와 상기 콘텐츠들의 표출 여부에 대한 정보 및 상기 제1 콘텐츠 및 제2 콘텐츠의 화면상 위치 정보를 포함하는 콘텐츠표출정보를 포함하는 신호를 수신하는 수신부; The first content of the BIFS image transmission format that can be expressed as a three-dimensional image by using two two-dimensional image with binocular disparity, the second content of the BIFS image transmission format that can be expressed as a two-dimensional image and the content of the content A receiving unit for receiving a signal including information on whether or not to display and content presentation information including location information on the screen of the first content and the second content; 여기서, 상기 콘텐트표출정보는, 상기 제1 콘텐츠에 포함된 영상이 양안시차에 따른 3차원 콘텐츠를 위한 것인지를 나타내는 필드 및 상기 제1 콘텐츠가 양안시차에 따른 3차원 콘텐츠인 경우 상기 두 개의 2차원 영상 각각이 좌영상 또는 우영상인지를 나타내는 필드를 포함하고;The content presentation information may include a field indicating whether an image included in the first content is for 3D content according to binocular disparity, and the two two-dimensional fields when the first content is 3D content according to binocular disparity. A field indicating whether each image is a left image or a right image; 상기 콘텐츠들과 상기 콘텐츠표출정보를 역다중화하는 역다중화부;A demultiplexer which demultiplexes the contents and the content presentation information; 상기 콘텐츠표출정보에 따라 상기 제1 콘텐츠를 화면 일부 영역에 3차원으로 표출하는 디스플레이부를 포함하는 콘텐츠 표출 장치.And a display unit for displaying the first content in a three-dimensional area on a portion of a screen according to the content presentation information. 제 8항에 있어서,9. The method of claim 8, 상기 BIFS 이미지 전송 형식은 상기 콘텐츠들의 연결 구조에 대한 정보를 포함하는 콘텐츠 표출 장치.And the BIFS image transmission format includes information on a connection structure of the contents. 제 8항에 있어서, 9. The method of claim 8, 상기 디스플레이부는 상기 화면 일부 영역에 위치한 배리어만을 활성화시키는 배리어 패널을 포함하는 콘텐츠 표출 장치.The display unit includes a barrier panel for activating only the barrier located in the partial region of the screen. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020060105837A 2006-10-30 2006-10-30 apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents KR101314601B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060105837A KR101314601B1 (en) 2006-10-30 2006-10-30 apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060105837A KR101314601B1 (en) 2006-10-30 2006-10-30 apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents

Publications (2)

Publication Number Publication Date
KR20080038666A KR20080038666A (en) 2008-05-07
KR101314601B1 true KR101314601B1 (en) 2013-10-04

Family

ID=39647091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060105837A KR101314601B1 (en) 2006-10-30 2006-10-30 apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents

Country Status (1)

Country Link
KR (1) KR101314601B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108616745A (en) * 2016-12-12 2018-10-02 三维视觉科技有限公司 2D is from turn 3D method and systems
US10497169B2 (en) 2017-09-25 2019-12-03 Samsung Electronics Co., Ltd. Method and apparatus for rendering image

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940815B1 (en) * 2007-12-31 2010-02-04 (주)씨앤오 Three dimensional image display device and mail display device of the same
KR100938889B1 (en) * 2008-09-02 2010-01-27 엘지전자 주식회사 Image processing system and method for processing image
KR100940816B1 (en) * 2009-10-28 2010-02-04 (주)씨앤오 Mail display device
KR20140002853A (en) * 2012-06-27 2014-01-09 한국전자통신연구원 Processing method for 3d video signal and apparatus thereof
KR102175813B1 (en) 2014-04-18 2020-11-09 삼성디스플레이 주식회사 Three dimensional image display device and method of processing image
KR101869848B1 (en) * 2017-06-13 2018-06-21 한남대학교 산학협력단 An augmented reality template system and a method using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990060127A (en) * 1997-12-31 1999-07-26 구자홍 Method and apparatus for transmitting and receiving stereoscopic images in digital broadcasting

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990060127A (en) * 1997-12-31 1999-07-26 구자홍 Method and apparatus for transmitting and receiving stereoscopic images in digital broadcasting

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108616745A (en) * 2016-12-12 2018-10-02 三维视觉科技有限公司 2D is from turn 3D method and systems
US10497169B2 (en) 2017-09-25 2019-12-03 Samsung Electronics Co., Ltd. Method and apparatus for rendering image

Also Published As

Publication number Publication date
KR20080038666A (en) 2008-05-07

Similar Documents

Publication Publication Date Title
KR101314601B1 (en) apparatus for transmitting contents, apparatus for outputting contents, method for transmitting contents and method for outputting contents
US9357231B2 (en) Video encoding device, video encoding method, video reproducing device, video reproducing method, video recording medium, and video data stream
KR101539935B1 (en) Method and apparatus for processing 3D video image
EP2235685B1 (en) Image processor for overlaying a graphics object
JP2020099045A (en) Method and device for overlaying 3d graphic over 3d video
KR101630866B1 (en) Transferring of 3d image data
US8773504B2 (en) Stereoscopic content service system and method
KR101659576B1 (en) Method and apparatus for processing video image
KR101797495B1 (en) Digital receiver and method for processing caption data in the digital receiver
Gotchev et al. Three-dimensional media for mobile devices
KR20110113186A (en) Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
EP2400767A2 (en) Graphic image processing method and apparatus
KR102008818B1 (en) Digital broadcast signal processing method and device
US9596446B2 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
KR20130129212A (en) Device and method for receiving digital broadcast signal
TW201215102A (en) Signaling for multiview 3D video
US20160373714A1 (en) Method and apparatus for processing 3-dimensional image including additional object in system providing multi-view image
KR20070103969A (en) Apparatus for transmitting and receiving broadcast signal and method thereof
TW201242336A (en) Transferring of 3D image data
KR101742993B1 (en) A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver
KR101674688B1 (en) A method for displaying a stereoscopic image and stereoscopic image playing device
WO2012160812A1 (en) Image processing device, transmitting device, stereoscopic image viewing system, image processing method, image processing program and integrated circuit
KR101100229B1 (en) Method and apparatus for displaying broadcast signal
KR101155009B1 (en) Method and apparatus for receiving broadcast signal
TW201407540A (en) Image processing method and image display system

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee