KR20120106919A - 3d stereoscopic image and video that is responsive to viewing angle and position - Google Patents

3d stereoscopic image and video that is responsive to viewing angle and position Download PDF

Info

Publication number
KR20120106919A
KR20120106919A KR1020110024656A KR20110024656A KR20120106919A KR 20120106919 A KR20120106919 A KR 20120106919A KR 1020110024656 A KR1020110024656 A KR 1020110024656A KR 20110024656 A KR20110024656 A KR 20110024656A KR 20120106919 A KR20120106919 A KR 20120106919A
Authority
KR
South Korea
Prior art keywords
image
viewer
stereoscopic
stereoscopic image
unit
Prior art date
Application number
KR1020110024656A
Other languages
Korean (ko)
Other versions
KR101198557B1 (en
Inventor
유병현
Original Assignee
유병현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유병현 filed Critical 유병현
Priority to KR1020110024656A priority Critical patent/KR101198557B1/en
Publication of KR20120106919A publication Critical patent/KR20120106919A/en
Application granted granted Critical
Publication of KR101198557B1 publication Critical patent/KR101198557B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A three-dimensional image generating system and a method thereof are provided to generate a three-dimensional image varied by the head of a viewer according to a viewing posture of a viewer. CONSTITUTION: An image obtaining unit(300) obtains a main image and a sub-image in a three-dimensional image. A viewing posture collecting unit(500) collects a viewing posture from a viewer. The posture collecting unit calculates viewing posture information of the viewer. A three-dimensional image generating unit(600) reflects viewing posture information of the viewer. The three-dimensional image generating unit generates a three-dimensional image. [Reference numerals] (200) Pressure image unit; (300) Image obtaining unit; (400) Viewer unit; (500) Viewing posture collecting unit; (600) Three-dimensional image generating unit; (700) Three-dimensional display unit

Description

시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 {3D stereoscopic image and video that is responsive to viewing angle and position} 3D stereoscopic image and video that is responsive to viewing angle and position}

본 발명은 3차원 입체영상 생성 및 재생 방법에 관한 것으로, 더욱 상세하게는 시청자의 머리의 기울임과 위치에 따라 입체영상이 변화하는 기능을 구비하여 시청자세의 변화에 따라 능동적으로 반응하는 3차원 입체영상의 생성 시스템과 방법에 관한 것이다.The present invention relates to a method for generating and playing 3D stereoscopic images, and more particularly, to 3D stereoscopic images which actively respond to changes in viewing posture, having a function of changing stereoscopic images according to the tilt and position of a viewer's head. A system and method for generating images.

정보기기의 발달로 일반 소비 가전시장과 엔터테인먼트 시장에서도 3차원 입체 디스플레이와 이를 이용한 디지털 콘텐츠의 저작 및 활용을 위한 기술이 중요해지고 있으며, 현실감은 보다 높고 어지러움은 더욱 적은 3차원 입체영상의 체험을 제공하기 위한 기술이 연구되고 있다. 3차원 입체영상의 가시화를 위해서는 사람의 두 눈과 뇌의 시공간적 인지모형에 기반한 양안 시차에 의한 입체형상 인식 방법이 가장 널리 사용되고 있다. With the development of information devices, technology for authoring and utilizing 3D stereoscopic displays and digital contents using them in the general consumer electronics market and entertainment market is becoming important, providing a more realistic and less dizzy experience of 3D stereoscopic images. The technique to do is researched. For visualization of 3D stereoscopic images, stereoscopic recognition method using binocular disparity based on spatiotemporal cognitive model of human eyes and brain is most widely used.

하지만 일반적인 입체영상 생성 기법에 의하여는 디스플레이 장치가 고정되어 있고 시청자의 두 눈이 수평으로 디스플레이 장치를 바라보는 시청자세를 권고하고 있다. 이는 일반적인 입체영상 생성 기법이 양안 시차에 의한 입체형상 인식방법을 이용하고 양안에 노출되는 좌안 영상과 우안 영상이 수평으로 배열되어 있다고 가정하기 때문이다. 따라서 일반적인 입체영상 생성 기법에 의하여는 영상의 수평 촬영과 수평 재생을 통한 수평 시청시에만 입체영상을 정확하게 생성할 수 있으며 시청자가 머리를 기울이거나 화면을 정면에서 바라보지 않고 머리를 움직이면서 시청하는 시도에 대하여 적절하게 대응하지 못할 수 있다. 일례로는 수평 촬영과 수평 재생을 통하여 생성되는 입체영상을 시청자가 머리를 90도 기울여서 시청하게 되면 양안 시차를 발생하는 영상의 변위 방향과 실제 시청자의 양안의 변위 방향이 90도로 교차하게 되어 입체영상을 적절하게 인지하지 못할 수 있다.However, in general stereoscopic image generation techniques, the display device is fixed, and the viewer's attitude in which the viewer's eyes look horizontally at the display device is recommended. This is because a general stereoscopic image generation technique uses a stereoscopic recognition method using binocular disparity, and it is assumed that left and right eye images exposed to both eyes are horizontally arranged. Therefore, the conventional stereoscopic image generation technique can accurately generate stereoscopic images only when viewing horizontal images through horizontal photographing and horizontal playback, and attempts to watch the viewer by moving the head without tilting the head or looking at the screen from the front. May not respond appropriately. For example, when a viewer views a stereoscopic image generated by horizontal photographing and horizontal playback by tilting the head by 90 degrees, the displacement direction of the image that generates binocular disparity and the actual viewer's displacement direction cross 90 degrees. May not be appropriately recognized.

KR10-0381817 B1KR10-0381817 B1 KR10-0538471 B1KR10-0538471 B1

본 발명이 해결하고자 하는 일 과제는 시청자의 시청자세에 따라 반응하여 시청자의 머리 기울임에 따라 변화하는 3차원 입체영상의 생성 방법과 3D TV를 비롯한 빔 프로젝터 및 극장식 대화면 디스플레이를 포함한 3차원 입체영상의 생성 시스템과 방법을 제공하는 것이다.One problem to be solved by the present invention is a method for generating a three-dimensional stereoscopic image that changes according to the viewer's head tilt in response to the viewer's attitude, and a three-dimensional stereoscopic image including a beam projector and a theater-type large-screen display including a 3D TV. It is to provide a system and method of creation.

이와 함께, 본 발명이 해결하고자 하는 다른 과제는 시청자의 시청자세에 따라 반응하여 시청자의 머리 기울임과 움직임 및 위치에 따라 변화하는 3차원 입체영상의 생성 방법과 3D TV를 비롯한 빔 프로젝터 및 극장식 대화면 디스플레이를 포함한 3차원 입체영상의 생성 시스템과 방법을 제공하는 것이다.In addition, another problem to be solved by the present invention is a method for generating a three-dimensional stereoscopic image that changes according to the viewer's head tilt, movement, and position in response to the viewer's attitude, and a beam projector and a theater-type large screen including a 3D TV. The present invention provides a system and method for generating a 3D stereoscopic image including a display.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 일 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 영상을 획득하여 3차원 입체영상 생성을 하기 위한 준비단계를 수행하는 영상 획득부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.One aspect of the three-dimensional stereoscopic image generating system of the present invention for achieving the above object is an input image unit for receiving a variety of input images; An image acquiring unit performing a preparation step for acquiring an image and generating a 3D stereoscopic image; A viewer unit for providing basic information on the viewer's attitude; A viewer posture collecting unit for collecting information on a viewing direction and a position from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to the viewing direction and viewing position information; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.Another aspect of the three-dimensional stereoscopic image generating system of the present invention to achieve the above object is an input image unit for receiving a variety of input images; A viewer unit for providing basic information on the viewer's attitude; A viewer posture collecting unit for collecting information on a viewing direction and a position from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to the viewing direction and viewing position information; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향과 위치에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향 및 시청위치 정보에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.Another aspect of the three-dimensional stereoscopic image generation system of the present invention to achieve the above object is a viewer unit for providing basic information about the viewer's viewing position; A viewer posture collecting unit for collecting information on a viewing direction and a position from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to the viewing direction and viewing position information; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 영상을 획득하여 3차원 입체영상 생성을 하기 위한 준비단계를 수행하는 영상 획득부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.Another aspect of the three-dimensional stereoscopic image generating system of the present invention for achieving the above object is an input image unit for receiving a variety of input images; An image acquiring unit performing a preparation step for acquiring an image and generating a 3D stereoscopic image; A viewer unit for providing basic information on the viewer's attitude; A viewer posture collecting unit for collecting information on the viewing direction from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to a viewing direction; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 다양한 입력 영상을 받아들이는 입력 영상부; 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.Another aspect of the three-dimensional stereoscopic image generating system of the present invention for achieving the above object is an input image unit for receiving a variety of input images; A viewer unit for providing basic information on the viewer's attitude; A viewer posture collecting unit for collecting information on the viewing direction from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to a viewing direction; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

상기 과제를 달성하기 위하여 본 발명의 3차원 입체영상 생성 시스템의 또 다른 양태는 시청자의 시청자세에 대한 기본 정보를 제공하는 시청자부; 시청자부로부터 시청방향에 관한 정보를 수집하는 시청자세 수집부; 영상 획득부로부터 제공되는 영상을 시청방향에 따라 적절한 3차원 입체영상으로 변환하는 3차원 입체영상 생성부; 생성된 3차원 입체영상을 시청자에게 보여주는 입체 디스플레이부를 포함한다.Another aspect of the three-dimensional stereoscopic image generation system of the present invention to achieve the above object is a viewer unit for providing basic information about the viewer's viewing position; A viewer posture collecting unit for collecting information on the viewing direction from the viewer unit; A three-dimensional stereoscopic image generation unit for converting an image provided from the image acquisition unit into an appropriate three-dimensional stereoscopic image according to a viewing direction; It includes a stereoscopic display unit for showing the generated three-dimensional stereoscopic image to the viewer.

본 발명에서 기재한 시청자세의 일례는 3차원 입체영상을 시청하는 시청자의 머리 기울임을 포함한 시청방향을 말한다. 본 발명에서 기재한 시청자세의 다른 예는 3차원 입체영상을 시청하는 시청자의 양안의 위치를 포함한 시청위치를 말한다. 본 발명에서 기재한 시청자세의 또 다른 예는 3차원 입체영상을 시청하는 시청자의 머리 기울임을 포함한 시청방향과 양안의 위치를 포함한 시청위치를 말한다. 본 발명의 설명하는 시청자세는 이상에서 언급한 시청방향 및 시청위치로 제한되지 않으며, 언급되지 않은 또 다른 시청자세정보들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.An example of the viewing posture described in the present invention refers to a viewing direction including tilting of a head of a viewer watching a 3D stereoscopic image. Another example of the viewing posture described in the present invention refers to a viewing position including the positions of both eyes of a viewer watching a 3D stereoscopic image. Another example of the viewing posture described in the present invention refers to the viewing position including the viewing direction and the positions of both eyes including the head tilt of the viewer watching the 3D stereoscopic image. The viewing posture of the present invention is not limited to the viewing directions and viewing positions mentioned above, and other viewing posture information not mentioned will be clearly understood by those skilled in the art from the following description.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the drawings.

본 발명에 의한 3차원 입체영상 생성 시스템 및 방법을 이용하면 시청자의 시청방향 및 시청위치 정보를 수집하여 3차원 입체영상을 구성하는 좌안 영상과 우안 영상의 생성에 이용되는 시점의 방향과 위치를 계산하고 3차원 입체영상의 생성에 반영할 수 있다. 시청자가 머리를 기울이거나 디스플레이의 정면에서 바라보지 않고 머리의 위치를 움직임에 따라서 3차원 입체영상이 적절하게 대응하기 때문에 본 발명에 의한 3차원 입체영상의 좌안 영상과 우안 영상의 변위 차이의 방향은 시청자의 양안의 방향과 항상 동일한 방향으로 유지할 수 있다. 또한 시청자의 머리의 방향과 위치의 변화에 따라 좌안 영상과 우안 영상이 적절하게 대응하기 때문에 양안의 시차에 의한 3차원 입체인식과 함께 시점의 움직임에 따른 움직임 시차(motion parallax)에 의한 입체인식 효과를 얻을 수 있다. Using the 3D stereoscopic image generating system and method according to the present invention, the viewing direction and the viewing position information of the viewer are collected to calculate the direction and position of the viewpoint used for generating the left and right eye images constituting the 3D stereoscopic image. And can be reflected in the generation of 3D stereoscopic images. Since the 3D stereoscopic image is appropriately responded to the position of the head without the viewer tilting the head or looking at the front of the display, the direction of the displacement difference between the left and right eye images of the 3D stereoscopic image according to the present invention is It can always be kept in the same direction as the viewer's binocular. In addition, since the left eye image and the right eye image correspond appropriately according to the change in the direction and position of the viewer's head, three-dimensional stereoscopic recognition due to the parallax of both eyes and stereo parallax effect due to the motion parallax according to the movement of the viewpoint. Can be obtained.

따라서 본 발명에 의한 3차원 입체영상 생성 시스템은 일반적인 입체영상 생성 방법 보다 현실감은 높고 어지러움은 적은 3차원 입체영상의 체험을 제공할 수 있다.Therefore, the 3D stereoscopic image generating system according to the present invention can provide a 3D stereoscopic experience with higher realism and less dizziness than a general stereoscopic image generating method.

도 1은 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500) 및 3차원 입체영상 생성부(600)의 흐름을 도시한 블록도이다.
도 3은 본 발명의 일 실시예의 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 일례를 보여주는 도면이다.
도 4는 본 발명의 일 실시예의 시청자세정보(410)를 수집하기 위한 입체 안경의 일례를 보여주는 도면이다.
도 5는 본 발명의 일 실시예의 3차원 입체영상 생성부(600)에서 생성하는 좌안 영상(620)과 우안 영상(630)의 계산 방법의 일례를 보여주는 도면이다.
도 6은 본 발명의 일 실시예의 3차원 입체영상 생성부(600)에서 생성하는 좌안 영상(620)과 우안 영상(630)의 계산 방법의 다른 예를 보여주는 도면이다.
도 7은 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 수평으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다.
도 8은 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 45도 기울이고 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 다른 예를 보여주는 도면이다.
도 9는 본 발명의 일 실시예의 시청자가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 90도 돌려 수직으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상(620)과 우안 영상(630)이 가시화 되는 입체 디스플레이부(700)의 또 다른 예를 보여주는 도면이다.
1 is a block diagram of a 3D stereoscopic image generating system reflecting a viewing attitude according to an exemplary embodiment of the present invention.
2 is a view illustrating an input image unit 200, an image acquisition unit 300, a viewer unit 400, and a viewer posture collection unit 500 of a 3D stereoscopic image generation system reflecting a viewer's attitude according to an embodiment of the present invention. And a block diagram showing the flow of the 3D stereoscopic image generator 600.
3 is a view showing an example of an image acquisition process for authoring a three-dimensional stereoscopic image 240 of an embodiment of the present invention.
4 is a view showing an example of three-dimensional glasses for collecting the viewing attitude information 410 of one embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of a method of calculating a left eye image 620 and a right eye image 630 generated by the 3D stereoscopic image generator 600 according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating another example of a method of calculating a left eye image 620 and a right eye image 630 generated by the 3D stereoscopic image generator 600 according to an embodiment of the present invention.
FIG. 7 illustrates a left eye image 620 and a right eye image 630 generated by the 3D stereoscopic image generator by reflecting a viewer's attitude viewed horizontally from the front of the stereoscopic display unit 700 according to an exemplary embodiment of the present invention. This is a view showing an example of the three-dimensional display unit 700 is visualized.
8 is a left eye image 620 generated by the 3D stereoscopic image generating unit by reflecting the viewer's attitude in which the viewer tilts his head 45 degrees to the right from the front of the stereoscopic display unit 700 and the viewer of the exemplary embodiment of the present invention; The right eye image 630 is a view showing another example of the three-dimensional display unit 700 is visible.
FIG. 9 illustrates a left eye image 620 generated by the 3D stereoscopic image generator by reflecting a viewer's attitude viewed vertically by turning the head 90 degrees to the right from the front of the stereoscopic display unit 700 according to an embodiment of the present invention. ) And the right eye image 630 are views illustrating another example of the stereoscopic display unit 700.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 제시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving the same will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be implemented in various forms, and only the present embodiments make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

이하, 본 발명의 실시예들에 의하여 3차원 입체영상 생성 시스템 및 방법을 설명하기 위한 블록도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 블록도의 각 블록의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Hereinafter, the present invention will be described with reference to the drawings of a block diagram for explaining a 3D stereoscopic image generating system and method according to embodiments of the present invention. At this time, it will be appreciated that combinations of each block in the block diagram may be performed by computer program instructions. These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment may be executed in block (s) of the block diagram. It will create means for performing the described functions. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the block (s). Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for executing the functions described in block (s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어 또는 컨텐츠 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어 또는 컨텐츠에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.The term '~ part' used in the present embodiment refers to software or hardware or a content component, and '~ part' plays certain roles. However, '~' is not meant to be limited to software, hardware, or content. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. And subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 시청자세를 반영하는 3차원 입체영상 생성 시스템의 블록도를 보여준다.1 is a block diagram of a 3D stereoscopic image generating system reflecting a viewer's attitude according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 3차원 입체영상 생성 시스템(100)은 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500), 3차원 입체영상 생성부(600), 입체 디스플레이부(700)를 포함할 수 있다.3D stereoscopic image generation system 100 according to an embodiment of the present invention is the input image unit 200, the image acquisition unit 300, the viewer unit 400, the viewer posture collection unit 500, three-dimensional stereoscopic image The generation unit 600 and the stereoscopic display unit 700 may be included.

입력 영상부(200)는 외부로부터 입력영상을 제공한다. 입력 영상부(200)는 영상 미디어 재생 장치로부터 저장된 영상 컨텐츠를 재생하거나 영상 촬영 장치로부터 영상을 제공하거나 컴퓨터, 게임기, 복합 멀티미디어 기기와 같은 영상 생성 장치로부터 영상을 제공한다. The input image unit 200 provides an input image from the outside. The input image unit 200 plays back image contents stored from an image media reproducing apparatus, provides an image from an image capturing apparatus, or provides an image from an image generating apparatus such as a computer, a game machine, or a complex multimedia device.

영상 획득부(300)는 입력 영상부(200)로부터 제공되는 영상을 가공하여 3차원 입체영상 생성에 필요한 영상을 획득한다. The image acquisition unit 300 processes an image provided from the input image unit 200 to obtain an image required for generating a 3D stereoscopic image.

시청자부(400)는 3차원 입체영상을 시청하는 시청자의 시청자세를 제공한다. 시청자가 착용한 입체안경으로부터 시청자의 시청자세를 제공할 수 있다. 또한 입체안경을 사용하지 않고 시청자의 얼굴의 양안, 코, 입과 같은 특징 요소 만으로 시청자세를 제공할 수 있다.The viewer unit 400 provides a viewer's attitude for watching a 3D stereoscopic image. The viewer's attitude can be provided from the stereoscopic glasses worn by the viewer. In addition, it is possible to provide a viewer's posture only by using features such as binocular, nose, and mouth of the viewer's face without using stereoscopic glasses.

시청자세 수집부(500)는 시청자부(400)에서 제공되는 시청자세를 수집하여 시청자의 양안의 시청방향과 시청위치를 계산한다.The viewer posture collecting unit 500 collects the viewer posture provided by the viewer unit 400 and calculates the viewing direction and the viewing position of both eyes of the viewer.

3차원 입체영상 생성부(600)는 영상 획득부(300)로부터 획득한 영상을 시청자세 수집부(500)에서 제공하는 시청자의 시청방향과 시청위치를 이용하여 3차원 입체영상으로 변환한다. The 3D stereoscopic image generating unit 600 converts the image obtained from the image capturing unit 300 into a 3D stereoscopic image by using the viewing direction and viewing position of the viewer provided by the viewing posture collecting unit 500.

입체 디스플레이부(700)는 3차원 입체영상 생성부(600)에서 생성된 입체영상을 시청자가 입체로 인지할 수 있도록 가시화한다.The stereoscopic display unit 700 visualizes the stereoscopic image generated by the 3D stereoscopic image generating unit 600 so that the viewer can stereoscopically recognize the stereoscopic image.

도 2는 시청자세를 반영하는 3차원 입체영상 생성 시스템(100)을 구성하는 입력 영상부(200), 영상 획득부(300), 시청자부(400), 시청자세 수집부(500), 3차원 입체영상 생성부(600)의 처리 흐름을 나타내는 블록도를 보여준다.2 illustrates an input image unit 200, an image acquisition unit 300, a viewer unit 400, a viewer posture collection unit 500, and a three-dimensional image forming a three-dimensional stereoscopic image generation system 100 reflecting a viewer's attitude. A block diagram showing a processing flow of the stereoscopic image generating unit 600 is shown.

입력 영상부(200)에서 입력에 사용되는 영상은 일반 2차원 영상(210), 일반 입체영상(220), 실시간 3차원 렌더링(230), 3차원 입체영상(240)을 포함할 수 있다. 일반 2차원 영상(210)은 공중파와 케이블 TV같은 방송신호, 저장된 영상 컨텐츠의 재생 장치의 출력신호, 게임기와 컴퓨터 및 멀티미디어 플레이어의 영상신호를 포함하며, 이상에서 언급한 예로 제한되지 않는다. 일반 입체영상(220)은 일반적인 3D 텔레비전 및 극장용 입체 상영 장치 또는 3D 블루레이 디스크와 같은 입체영상 컨텐츠에서 사용하는 좌안 영상과 우안 영상으로 구성된 입체영상을 포함한다. 실시간 3차원 렌더링(230)은 컴퓨터 그래픽을 이용하여 실시간으로 영상을 렌더링하여 생성된 영상으로, 사전에 제작되어 저장된 형태의 영상이 아니라 입체영상 생성 시스템에 영상이 디스플레이 될 때에 실시간으로 컴퓨터 또는 게임기 등과 같은 장치에 포함된 컴퓨터 그래픽 렌더링 파이프라인을 통하여 생성되는 영상을 포함한다. 3차원 입체영상(240)은 일반 입체영상(220)과 달리 거리영상(range image 또는 range video)를 포함하며, 영상을 촬영한 카메라로부터 피사체까지의 거리에 대한 정보가 포함된 영상이다. 3차원 입체영상(240)은 일반 2차원 영상과 거리영상의 조합으로 구성될 수 있다. 3차원 입체영상(240)은 또한 일반 입체영상과 거리영상의 조합으로 구성될 수도 있다. 3차원 입체영상(240)의 또 다른 예로는 실시간 3차원 렌더링의 결과로 생성되는 일반 2차원 영상과 컴퓨터 그래픽 렌더링 과정에서 사용되는 카메라로부터 렌더링 하는 픽셀의 거리에 대한 정보를 저장하고 있는 제트버퍼(Z buffer) 영상의 조합으로 구성될 수도 있다. 입력 영상부(200)에서 입력에 사용되는 영상은 이상에서 언급한 내용으로 제한되지 않으며, 이상으로 언급한 영상들의 조합이나 각 구성 요소의 뒤바뀜으로 구성하는 것도 가능하다. 예컨대 실시간 3차원 렌더링(230)으로 부터 공급되는 일반 영상과 3차원 입체 영상(240)의 거리영상의 조합으로 입력영상이 구성될 수 있다.The image used for input by the input image unit 200 may include a general 2D image 210, a general 3D image 220, a real time 3D rendering 230, and a 3D 3D image 240. The general two-dimensional image 210 includes a broadcast signal such as airwaves and cable TV, an output signal of a playback device of stored video content, and a video signal of a game machine, a computer, and a multimedia player, and the like. The general stereoscopic image 220 includes a stereoscopic image composed of a left eye image and a right eye image used in a stereoscopic image content such as a general 3D television and theater stereoscopic display device or a 3D Blu-ray disc. The real-time three-dimensional rendering 230 is an image generated by rendering an image in real time using computer graphics. The image is displayed in real time when the image is displayed in a three-dimensional image generating system instead of a previously produced and stored form. It includes an image generated through a computer graphics rendering pipeline included in the same device. Unlike the general stereoscopic image 220, the 3D stereoscopic image 240 includes a range image (range image or range video), and is an image including information about a distance from a camera photographing an image to a subject. The 3D stereoscopic image 240 may be composed of a combination of a general 2D image and a distance image. The 3D stereoscopic image 240 may also be composed of a combination of a general stereoscopic image and a distance image. Another example of the three-dimensional stereoscopic image 240 is a jet buffer that stores information about the distance between the general two-dimensional image generated as a result of real-time three-dimensional rendering and the pixel rendered from the camera used in the computer graphics rendering process ( Z buffer) may be composed of a combination of images. The image used for input in the input image unit 200 is not limited to the above-mentioned content, it is also possible to configure the combination of the above-mentioned image or the reverse of each component. For example, the input image may be composed of a combination of the general image supplied from the real-time three-dimensional rendering 230 and the distance image of the three-dimensional stereoscopic image 240.

영상 전처리부(310)는 입력 영상부(200)에서 제공하는 영상의 종류에 따라 3차원 입체영상 생성이 용이하도록 외부에서 입력되는 영상의 전처리를 수행한다. 영상 전처리부(310)에서 수행하는 역할의 일 예로는 입력 영상부(200)에서 일반 2차원 영상(210)이 제공될 경우, 이미지 프로세싱을 통하여 원본 영상에 해당하는 주 영상(320)과 추가로 사용될 보조 영상(330)을 생성한다. 상기 보조 영상(330)은 일반 2차원 영상(210)의 각 화소의 밝기, 선예도, 선명도, 초점, 입력 영상의 이전 프레임과 현재 프레임 사이의 각 화소에서 차이에서 발생하는 움직임 변위, 색상, 인물과 배경의 형상의 특징 인식과 같은 영상의 특성, 자막이나 글씨의 특성을 이용한 영상의 특성을 이용하여 원본 영상의 각 화소에 대한 카메라로부터의 거리를 추정해서 계산해낸 결과를 이용하여 거리 영상을 생성하고 보조 영상(330)으로 이용할 수 있다. The image preprocessor 310 performs preprocessing of an externally input image to facilitate generation of a 3D stereoscopic image according to the type of the image provided by the input imager 200. As an example of the role played by the image preprocessing unit 310, when the general 2D image 210 is provided from the input image unit 200, the main image 320 corresponding to the original image is additionally added through image processing. The auxiliary image 330 to be used is generated. The auxiliary image 330 may include brightness, sharpness, sharpness, focus, and movement displacement, color, and character of each pixel of the general 2D image 210. The distance image is generated by using the result of estimating the distance from the camera to each pixel of the original image using the characteristics of the image such as the recognition of the features of the background shape and the characteristics of the image using the characteristics of the caption or the text. It may be used as the auxiliary image 330.

영상 전처리부(310)에서 수행하는 역할의 다른 예로는 입력 영상부(200)에서 일반 입체영상(220)이 제공될 경우, 이미지 프로세싱을 통하여 원본 영상에 해당하는 주 영상(320)과 보조 영상(330)을 생성한다. 주 영상(320)은 시청자의 양안이 갖는 우성과 열성의 특성에 따라 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상 중에서 선택할 수 있다. 일례로는 시청자의 양안이 좌안 우성의 특성을 갖는 경우, 입력된 일반 입체영상(220)의 좌안 영상을 주 영상(320)으로 사용할 수 있다. 주 영상(320)을 생성하는 다른 예로는 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상으로부터 동일한 피사체를 구성하는 각 화소의 변위 차이를 계산하여 좌안 영상과 우안 영상을 촬영하거나 컴퓨터 그래픽 렌더링 과정을 거쳐 입력 영상을 생성할 당시의 카메라의 위치를 거꾸로 산출하여 좌안 영상의 카메라와 우안 영상의 카메라 위치를 계산하고, 두 카메라의 위치의 중앙에 위치하는 가상의 카메라에서 바라본 영상을 생성하여 주 영상(320)으로 사용할 수 있다. 입력 영상부(200)에서 일반 입체영상(220)이 제공될 경우 보조 영상(330)을 생성하는 일례로는 입력된 일반 입체영상(220)의 좌안 영상과 우안 영상으로부터 동일한 피사체를 구성하는 각 화소의 변위 차이를 이용하여 좌안 영상과 우안 영상을 촬영하거나 컴퓨터 그래픽 렌더링 과정을 거쳐 입력 영상을 생성할 당시의 카메라의 위치를 거꾸로 산출하여 좌안 영상의 카메라와 우안 영상의 카메라 위치를 계산하고 주 영상(320)으로 사용된 영상의 카메라의 위치로부터의 피사체를 구성하는 각 화소의 거리를 계산하여 거리 영상을 생성하고 보조 영상(330)으로 사용할 수 있다.As another example of the role played by the image preprocessor 310, when the general stereoscopic image 220 is provided by the input imager 200, the main image 320 and the secondary image corresponding to the original image may be processed through image processing. 330). The main image 320 may be selected from a left eye image and a right eye image of the input stereoscopic image 220 according to the characteristics of the dominance and recessiveness of both eyes of the viewer. For example, when both viewers have left eye dominance, the left eye image of the input general stereoscopic image 220 may be used as the main image 320. Another example of generating the main image 320 is to calculate the displacement difference of each pixel constituting the same subject from the left and right eye images of the input general stereoscopic image 220 to capture the left and right eye images or to render a computer graphic. By calculating the position of the camera at the time of generating the input image through the process, the camera position of the left eye image and the right eye image are calculated, and the image viewed by the virtual camera located at the center of the two cameras is generated. It can be used as an image 320. As an example of generating the auxiliary image 330 when the general stereoscopic image 220 is provided from the input image unit 200, each pixel constituting the same subject from the left eye image and the right eye image of the input general stereoscopic image 220. Calculate the camera position of the left eye image and the right eye image by calculating the position of the camera at the time of taking the left eye image and the right eye image using the displacement difference of The distance image of each pixel constituting the subject from the position of the camera of the image used in operation 320 may be calculated to generate a distance image, and may be used as the auxiliary image 330.

영상 전처리부(310)에서 수행하는 역할의 또 다른 예로는 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우, 렌더링된 영상을 일반 2차원 영상(210)과 동일하게 처리할 수 있다. 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 다른 예로는 렌더링 된 영상을 주 영상(320)으로 사용하고 컴퓨터 그래픽 렌더링 과정에서 사용되는 제트버퍼(Z buffer)에 저장된 거리 영상을 보조 영상(330)으로 사용할 수 있다. 입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 또 다른 예로는 렌더링 된 영상을 주 영상(320)으로 사용하고 컴퓨터 그래픽 렌더링 과정에서 거리 영상을 따로 생성하여 보조 영상(330)으로 사용할 수 있다.As another example of the role played by the image preprocessor 310, when the real-time 3D rendering 230 image is provided by the input image unit 200, the rendered image is processed in the same manner as the general 2D image 210. can do. Another example of the case where the real-time 3D rendering 230 image is provided by the input image unit 200 is to use the rendered image as the main image 320 and stored in a Z-buffer used in a computer graphic rendering process. The distance image may be used as the auxiliary image 330. As another example when the real-time 3D rendering 230 image is provided by the input image unit 200, the rendered image is used as the main image 320, and a distance image is separately generated during the computer graphic rendering process. 330).

영상 전처리부(310)에서 수행하는 역할의 또 다른 예로는 입력 영상부(200)에서 3차원 입체영상(240)이 제공될 경우, 3차원 입체영상의 일반 2차원 영상을 주 영상(320)으로 사용하고 3차원 입체영상의 거리 영상을 보조 영상(330)으로 사용할 수 있다. As another example of the role played by the image preprocessor 310, when the 3D stereoscopic image 240 is provided by the input image unit 200, the general 2D image of the 3D stereoscopic image is converted into the main image 320. The distance image of the 3D stereoscopic image may be used as the auxiliary image 330.

도 3은 상기한 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 일례를 보여주는 도면이다. 도 3의 카메라 장치(251)는 3차원 입체영상(240)을 저작하기 위한 장치로 일반 2차원 영상을 촬영하는 카메라와 동시에 카메라(251)로부터 피사체(252)의 거리를 기록하는 거리 카메라(range camera)와 같은 거리를 기록할 수 있는 장치로 구성된다. 일반 입체영상(220)이 두 개의 일반적인 카메라를 이용하여 좌안 영상과 우안 영상을 촬영하는 것과는 달리, 3차원 입체영상(240)을 저작하기 위한 장치는 일반 영상과 거리 영상을 생성할 수 있다. 3차원 입체영상(240)을 저작하기 위한 영상 획득 과정의 다른 예로는 컴퓨터 그래픽 렌더링 과정을 통하여 일반 2차원 영상과 거리 영상을 생성할 수 있다.3 is a diagram illustrating an example of an image acquisition process for authoring the 3D stereoscopic image 240 described above. The camera device 251 of FIG. 3 is a device for authoring a three-dimensional stereoscopic image 240 and a distance camera that records the distance of the subject 252 from the camera 251 at the same time as the camera photographing a general two-dimensional image. It is composed of a device capable of recording a distance such as a camera. Unlike the general stereoscopic image 220 photographing the left eye image and the right eye image using two general cameras, the apparatus for authoring the 3D stereoscopic image 240 may generate the general image and the distance image. As another example of an image acquisition process for authoring the 3D stereoscopic image 240, a general 2D image and a distance image may be generated through a computer graphic rendering process.

시청자세정보(410)는 3차원 입체영상을 시청하는 시청자(400)의 시청방향과 시청위치를 추출할 수 있는 정보를 포함한다. 시청자세정보(410)의 예로는 시청자의 얼굴의 특징형상, 시청자가 착용하는 일반 안경의 형상, 시청자가 3차원 입체영상을 시청하기 위하여 착용하는 입체 안경의 형상, 시청자가 착용할 수 있는 특수 안경의 형상, 시청자가 착용할 수 있는 특수 안경에 포함된 방향 및 위치 센서를 포함한다. The viewer posture information 410 includes information for extracting a viewing direction and a viewing position of the viewer 400 viewing the 3D stereoscopic image. Examples of the viewer attitude information 410 include a feature of a viewer's face, a shape of general glasses worn by the viewer, a shape of stereoscopic glasses worn by the viewer for viewing a 3D stereoscopic image, and special glasses that the viewer can wear. The shape of the, includes a direction and position sensor included in the special glasses that the viewer can wear.

도 4는 본 발명의 일 실시예의 시청자세정보(410)를 수집하기 위한 입체 안경(420)의 일례를 보여주는 도면이다. 시청자세정보(410)는 일반 안경 또는 입체 안경(420)의 전면 프레임(421)의 형상을 입체 디스플레이부(700)에 포함된 카메라 또는 별도의 카메라로부터 촬영하여 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 일반 안경 또는 입체 안경의 3차원 공간 상의 기울어진 방향과 위치를 계산해 낼 수 있다. 시청자세정보(410)의 다른 예로는 3차원 입체영상을 시청하는 시청자의 얼굴을 입체 디스플레이부(700)에 포함된 카메라 또는 별도의 카메라로부터 촬영하여 패턴인식 기능을 갖는 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자의 양안, 코, 입과 같은 얼굴의 특징 형상을 인식하여 3차원 공간상에 존재하는 시청자의 머리의 기울어진 방향과 위치를 개산해 낼 수 있다. 시청자세정보(410)의 또 다른 예로는 3차원 입체영상을 시청하는 시청자가 착용하는 일반 안경, 입체 안경(420) 또는 별도의 장치에 장착된 센서를 이용하여 시청자의 머리의 기울어진 방향과 위치를 계산해 낼 수 있다. 이상에서 언급된 일반 안경, 입체 안경(420) 또는 별도의 장치에 장착된 센서는 중력을 이용하여 장치의 기울기를 측정할 수 있는 중력 센서와 관성을 이용하여 장치의 기울기를 측정할 수 있는 자이로 센서를 모두 포함하거나 둘 중 하나의 센서만을 포함할 수 있다. 시청자의 시청자세에 관한 정보를 측정하기 위해서 일반 안경, 입체 안경(420) 또는 별도의 장치에 포함될 수 있는 센서의 종류는 이상에서 언급된 예로 제한되지 않으며, 일반 안경, 입체 안경 또는 별도의 장치에 포함되거나 간단하게 부착될 수 있는 형태로 만들어 질 수 있다. 이상에서 언급된 센서는 도 4의 422와 같이 입체 안경에 포함될 수 있다. 시청자세정보(410)의 수집을 용이하게 하기 위하여 일반 안경 또는 입체 안경의 전면에 패턴인식 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱 과정에서 인식이 가능한 마커를 부착할 수 있다.4 is a view showing an example of the three-dimensional glasses 420 for collecting the viewing attitude information 410 of one embodiment of the present invention. The viewer posture information 410 captures the shape of the front frame 421 of the general glasses or the stereoscopic glasses 420 from a camera included in the stereoscopic display unit 700 or a separate camera to perform image processing or a computer having a pattern recognition function. The image processing with the vision function can calculate the tilted direction and the position in the three-dimensional space of ordinary glasses or stereoscopic glasses. As another example of the viewer attitude information 410, an image processing or computer vision function having a pattern recognition function by photographing a face of a viewer watching a 3D stereoscopic image from a camera included in the stereoscopic display unit 700 or a separate camera is provided. Through image processing with a feature of the face of the viewer, such as eyes, nose, mouth can be recognized to estimate the inclination direction and position of the viewer's head in the three-dimensional space. As another example of the viewer attitude information 410, the tilted direction and position of the viewer's head using general glasses worn by the viewer watching the 3D stereoscopic image, the stereoscopic glasses 420, or a sensor mounted in a separate device Can be calculated. The above-mentioned general glasses, three-dimensional glasses 420 or a sensor mounted on a separate device is a gravity sensor that can measure the tilt of the device using gravity and a gyro sensor that can measure the tilt of the device using inertia. It may include all or only one of the two sensors. The type of sensor that may be included in the general glasses, the stereoscopic glasses 420 or a separate device in order to measure the information on the viewer's viewing attitude is not limited to the examples mentioned above. It can be made into a form that can be included or simply attached. The sensor mentioned above may be included in the three-dimensional glasses as shown in 422 of FIG. In order to facilitate the collection of the viewer's attitude information 410, a marker that can be recognized may be attached to the front surface of the general glasses or the stereoscopic glasses in the image processing process having a pattern recognition or computer vision function.

시청자세 계산부(510)는 시청자세정보(410)로부터 제공되는 시청자의 자세정보를 획득하여 3차원 입체영상 계산에 사용하기 위한 시청방향위치정보를 계산하는 기능을 수행한다. 시청자세 계산부(510)가 수행하는 기능의 일례로는 이상에서 언급한 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자세정보(410)에서 획득한 시청자의 양안, 코, 입과 같은 얼굴의 특징형상이 포함된 영상으로부터 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)가 수행하는 기능의 다른 예로는 이상에서 언급한 패턴인식 기능을 갖는 이미지 프로세싱 또는 컴퓨터 비전 기능을 갖는 이미지 프로세싱을 통하여 시청자세정보(410)에서 일반 안경 또는 입체 안경의 프레임이 갖는 형상의 특징을 이용하여 일반 안경 또는 입체 안경이 포함된 영상으로부터 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)가 수행하는 기능의 또 다른 예로는 이상에서 언급한 센서(들)로부터 측정한 값(들)을 획득하여 시청자의 시청방향과 시청위치에 대한 정보를 계산해 낼 수 있다. 시청자세 계산부(510)의 기능은 이상에서 언급한 내용들로 제한되지 않으며, 필요에 따라서 이상에서 언급한 내용들의 일부만 사용되거나 복합적으로 사용될 수도 있다.The viewer posture calculation unit 510 acquires the posture information of the viewer provided from the viewer posture information 410 and calculates the viewing direction position information for use in calculating the 3D stereoscopic image. Examples of functions performed by the viewer posture calculation unit 510 include binocular and nose of the viewer acquired in the viewer posture information 410 through image processing having a pattern recognition function or image processing having a computer vision function. The information about the viewing direction and the viewing position of the viewer can be calculated from the image including the feature of the face such as the mouth. Another example of a function performed by the viewer posture calculation unit 510 is a frame of general glasses or stereoscopic glasses in the viewer posture information 410 through image processing having a pattern recognition function or image processing having a computer vision function. Using the feature of the shape having the shape it is possible to calculate the information on the viewing direction and viewing position of the viewer from the image containing the normal glasses or stereoscopic glasses. As another example of the function performed by the viewer posture calculation unit 510, information about the viewing direction and the viewing position of the viewer may be calculated by obtaining the value (s) measured from the sensor (s) mentioned above. The function of the viewer posture calculation unit 510 is not limited to the above-mentioned contents, and only a part of the above-mentioned contents may be used or combined as necessary.

3차원 입체영상 계산부(610)는 시청자세 계산부(510)에서 계산된 시청방향위치정보(520)를 이용하여 영상 획득부(300)에서 제공되는 주 영상(320)과 보조 영상(330)으로부터 시청자의 시청방향과 시청위치에 반응하는 3차원 입체영상을 생성하는 기능을 수행한다. 양안 시차를 이용한 일반적인 입체 영상은 좌안 영상과 우안 영상을 계산하기 위한 좌안의 위치와 우안의 위치를 수평으로 가정하고 수평 촬영과 수평 재생을 통한 입체영상을 구현한다. 일반적인 입체 영상과 달리 본 발명의 3차원 입체영상 계산부(610)는 좌안 영상과 우안 영상을 생성할 때 시청자의 머리의 기울기와 위치에 따라서 좌안의 위치와 우안의 위치의 기울기와 변위를 계산하여 좌안 영상과 우안 영상의 변위의 방향과 크기를 계산할 수 있다. 주 영상(320)과 보조 영상(330)으로부터 좌안 영상과 우안 영상으로 구성된 3차원 입체영상을 계산하는 방법은 대한민국 특허 10-0381817호 및 10-0538471호에서 발명을 실시하기 위한 구체적인 실시예로써 기술하고 있는 방법을 사용하거나 상기 특허(들)에서 기술하고 있는 실시예를 변형하여 사용할 수 있다. The 3D stereoscopic image calculating unit 610 uses the viewing direction position information 520 calculated by the viewing posture calculating unit 510 to provide the main image 320 and the auxiliary image 330 provided by the image obtaining unit 300. And generating a 3D stereoscopic image in response to the viewing direction and the viewing position of the viewer. In general, stereoscopic image using binocular disparity assumes the position of the left eye and the right eye horizontally for calculating the left eye image and the right eye image, and implements the stereoscopic image through horizontal photographing and horizontal reproduction. Unlike general stereoscopic images, the 3D stereoscopic image calculation unit 610 of the present invention calculates the inclination and displacement of the position of the left eye and the position of the right eye according to the inclination and the position of the head of the viewer when generating the left eye image and the right eye image. The direction and magnitude of the displacement of the left eye image and the right eye image can be calculated. A method of calculating a three-dimensional stereoscopic image composed of a left eye image and a right eye image from the main image 320 and the auxiliary image 330 is described as a specific embodiment for carrying out the invention in Korean Patent Nos. 10-0381817 and 10-0538471. The method described above or the embodiment described in the patent (s) may be modified.

도 5와 도 6을 이용하여 주 영상(320)과 보조 영상(330)으로부터 시청방향위치정보(520)를 반영하여 3차원 입체영상을 구성하는 좌안 영상(620)과 우안 영상(630)을 생성하는 방법을 상세히 설명하기로 한다. 5 and 6, the left eye image 620 and the right eye image 630 constituting the 3D stereoscopic image are generated by reflecting the viewing direction position information 520 from the main image 320 and the sub image 330. How to do this will be described in detail.

도 5는 영상 획득부(300)에서 사용되는 주 영상(320)과 보조 영상(330)의 일례인 3차원 입체영상(240)의 저작 개념을 나타낸 도 3으로부터 피사체를 시청자가 수평으로 바라 보는 상황을 가정하여 표현한 도면이다. 카메라를 이용한 촬영이나 컴퓨터 그래픽 렌더링을 이용한 영상 저작과정에서 카메라는 시청자의 눈과 같은 역할을 하게 된다. 컴퓨터 그래픽에서 일반적으로 사용하는 카메라 모델을 생각하면 쉽게 이해가 가능할 것이다. 영상의 생성에 사용한 카메라의 기준위치(254)로부터 생성된 일반 2차원 영상을 그대로 시청자에게 보여주면 한쪽 눈으로 동일한 위치(254)에서 피사체(252)를 바라보는 효과를 얻을 수 있다. 일반 2차원 영상으로부터 3차원 입체영상을 생성하는 간단한 방법은 도 5에서 도시한 것과 같이 시청자의 좌안(또는 우안)의 기준위치(431)을 주 영상(320)의 카메라의 기준위치(254)와 동일하게 만들고 시청자의 우안(또는 좌안)을 좌안(또는 우안)과 수평 하게 위치시키는 것이다. 이상에서 언급한 경우는 특허 10-0381817호의 도면 2a, 도면 2b, 도면 2c 및 실시예에서 설명하고 있는 제트버퍼를 이용한 입체영상 생성방법과 유사하다. 보다 상세히는 카메라의 기준위치(254)와 동일한 시청자의 좌안의 기준위치(431)를 특허 10-0381817호의 도면 2a의 좌안을 나타내는 E(L)로 가정하고 시청자의 우안의 기준위치(432)를 특허 10-0381817호의 도면 2a의 우안을 나타내는 E(R)로 가정할 수 있다. 또한 이상에서 언급한 주 영상(320)을 특허 10-0381817호에서 설명하고 있는 단안에 의한 2차원 평면 이미지로 가정하고 보조 영상(330)에 저장된 거리 영상을 특허 10-0381817호에서 설명하고 있는 Z버퍼에 저장된 이미지의 거리정보로 가정할 수 있다. 또한 도 5의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 이상에서 언급한 가정은 도 5의 좌안과 우안의 위치 그리고 주 영상의 카메라의 기준위치가 특허 10-0381817호의 도면 2a, 도면 2b 및 도면 2c의 설명과 유사한 점을 근거로 하고 있기 때문에 당업자가 명확하게 동의할 수 있을 것이다. 따라서 도 5에서 도시한 시청자의 좌안과 우안이 수평으로 위치하고 시청자의 양안 중 일안이 주 영상(320)의 기준위치와 동일한 경우에는 3차원 입체영상을 생성하는 3차원 입체영상 계산부(610)에서 특허 10-0381817호와 특허 10-0381817호를 인용하고 있는 특허 10-0538471호에서 설명한 입체영상 생성방법을 수행할 수 있음이 당업자에게 명확하게 이해될 수 있을 것이다.FIG. 5 illustrates a situation in which the viewer views the subject horizontally from FIG. 3 illustrating an authoring concept of the three-dimensional stereoscopic image 240, which is an example of the main image 320 and the auxiliary image 330 used in the image acquisition unit 300. It is a drawing expressed on the assumption. The camera plays the role of the viewer's eyes in the filming process using the camera or the video authoring process using the computer graphic rendering. Given the camera model commonly used in computer graphics, it's easy to understand. When a general two-dimensional image generated from the reference position 254 of the camera used to generate the image is shown to the viewer as it is, the effect of looking at the subject 252 at the same position 254 with one eye can be obtained. A simple method of generating a three-dimensional stereoscopic image from a general two-dimensional image, as shown in FIG. 5, sets the reference position 431 of the left eye (or right eye) of the viewer and the reference position 254 of the camera of the main image 320. Make it the same and place the viewer's right eye (or left eye) horizontally with the left eye (or right eye). The above-mentioned case is similar to the stereoscopic image generation method using the jet buffer described in FIGS. 2A, 2B, 2C, and the embodiment of Patent No. 10-0381817. More specifically, assume that the reference position 431 of the viewer's left eye, which is the same as the reference position 254 of the camera, is E (L) representing the left eye of FIG. 2A of Patent 10-0381817, and reference position 432 of the viewer's right eye is defined. It may be assumed that E (R) represents the right eye of FIG. 2A of Patent 10-0381817. In addition, the main image 320 mentioned above is assumed to be a two-dimensional plane image by monocular described in Patent 10-0381817, and the distance image stored in the auxiliary image 330 is described in Patent 10-0381817. It can be assumed as distance information of an image stored in a buffer. In addition, it may be assumed that one vertex 253 of the subject 252 of FIG. 5 is point P of FIG. 2A of Patent No. 10-0381817. The assumption mentioned above is clear to those skilled in the art because the position of the left and right eyes of FIG. 5 and the reference position of the camera of the main image are based on the similarities to those of FIGS. 2A, 2B and 2C of Patent 10-0381817. You will agree. Therefore, when the left and right eyes of the viewer shown in FIG. 5 are horizontal and one eye of the viewer is the same as the reference position of the main image 320, the 3D stereoscopic image calculation unit 610 generates a 3D stereoscopic image. It will be apparent to those skilled in the art that the stereoscopic image generating method described in Patent 10-0381817 and Patent 10-0381817, which is cited in Patent 10-0381817, can be performed.

도 6은 영상 획득부(300)에서 사용하는 주 영상(320)과 보조 영상(330)의 일례인 3차원 입체영상(240)의 저작 개념을 나타낸 도 3으로부터 피사체를 시청자가 임의의 위치에서 임의의 기울어진 방향으로 바라 보는 상황을 가정하여 표현한 도면이다. 임의의 자세로 시청하는 시청자의 머리를 생각하면 시청자의 좌안의 기준위치(441)과 우안의 기준위치(442)가 주 영상(320)의 카메라의 기준위치(254)와 다른 곳에 임의의 방향으로 기울어져 위치할 수 있다. 이와 같이 시청자의 좌안의 기준위치(441)와 우안의 기준위치(442)가 모두 주 영상(320)의 카메라의 기준위치(254)와 다른 경우에는 주 영상(320)으로부터 보조 영상(330)을 이용하여 3차원 입체영상 계산부(610)에서 좌안 영상(620)과 우안 영상(630)을 각각 계산하여 생성할 수 있다. 당업자의 명확한 이해를 위해서 우선 좌안 영상(620)의 생성 과정을 설명하기로 한다. 도 6의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 도 6의 카메라의 기준위치(254)를 특허 10-0381817호의 도면 2a의 좌안의 위치 E(L)로 가정할 수 있다. 도 6의 시청자의 좌안의 기준 위치(441)을 특허 제 0381817호의 도면 2a의 우안의 위치 E(R)로 가정할 수 있다. 상기한 가정으로부터 도 6의 253, 254 및 441을 연결하는 삼각형과 특허 10-0381817호의 도면 2a의 P, E(L) 및 E(R)을 연결하는 삼각형의 유사성을 이용하여 특허 10-0381817호 및 특허 10-0381817호를 인용한 특허 10-0538471호의 입체영상 생성방법을 3차원 입체영상 계산부(610)에서 수행할 수 있다. 영상 획득부(300)에서 생성한 주 영상(320)과 보조 영상(330)을 특허 10-0381817호의 입체영상 생성방법에서 기재한 단안에 의한 2차원 평면 이미지와 Z버퍼에 저장된 이미지의 거리정보로 사용하여 3차원 입체영상 계산부(610)에서 좌안 영상(620)을 계산할 수 있다. 이상에서 설명한 것과 유사하게 이번에는 당업자의 명확한 이해를 위해서 우안 영상(630)의 생성 과정을 설명하기로 한다. 도 6의 피사체(252)의 일 꼭지점(253)을 특허 10-0381817호의 도면 2a의 점 P로 가정할 수 있다. 도 6의 카메라의 기준위치(254)를 특허 10-0381817호의 도면 2a의 좌안의 위치 E(L)로 가정할 수 있다. 도 6의 시청자의 우안의 기준 위치(442)을 특허 제 0381817호의 도면 2a의 우안의 위치 E(R)로 가정할 수 있다. 상기한 가정으로부터 도 6의 253, 254 및 442를 연결하는 삼각형과 특허 10-0381817호의 도면 2a의 P, E(L) 및 E(R)을 연결하는 삼각형의 유사성을 이용하여 특허 10-0381817호 및 특허 10-0381817호를 인용한 특허 10-0538471호의 입체영상 생성방법을 3차원 입체영상 계산부(610)에서 수행할 수 있다. 영상 획득부(300)에서 생성한 주 영상(320)과 보조 영상(330)을 특허 10-0381817호의 입체영상 생성방법에서 기재한 단안에 의한 2차원 평면 이미지와 Z버퍼에 저장된 이미지의 거리정보로 사용하여 3차원 입체영상 계산부(610)에서 우안 영상(630)을 계산할 수 있다. 이상에서 설명한 내용은 도 6에서 도시한 도면의 개념과 특허 10-0381817호 및 특허 10-0538471호의 입체영상 생성방법의 실시예의 유사성에서 비롯하여 당업자에게 명확하게 이해될 수 있을 것이다. FIG. 6 illustrates a concept of authoring a three-dimensional stereoscopic image 240, which is an example of a main image 320 and an auxiliary image 330 used in the image acquisition unit 300, and a viewer selects a subject at an arbitrary position. It is assumed that the situation is viewed in the inclined direction of the drawing. Considering the viewer's head viewing in an arbitrary posture, the viewer's left eye reference position 441 and the right eye reference position 442 are different from the camera's reference position 254 of the main image 320 in an arbitrary direction. Can be tilted As described above, when the reference position 441 of the viewer's left eye and the reference position 442 of the right eye are different from the reference position 254 of the camera of the main image 320, the auxiliary image 330 is obtained from the main image 320. The 3D stereoscopic image calculation unit 610 may calculate and generate the left eye image 620 and the right eye image 630, respectively. For the clear understanding of those skilled in the art, the process of generating the left eye image 620 will first be described. One vertex 253 of the subject 252 of FIG. 6 may be assumed to be the point P of FIG. 2A of Patent 10-0381817. The reference position 254 of the camera of FIG. 6 may be assumed to be the position E (L) of the left eye of FIG. 2A of patent 10-0381817. It can be assumed that the reference position 441 of the left eye of the viewer of FIG. 6 is the position E (R) of the right eye of FIG. 2A of Patent No. 0381817. From the above assumption, Patent No. 10-0381817 uses similarities between triangles connecting 253, 254, and 441 of FIG. 6 and triangles connecting P, E (L), and E (R) of FIG. 2A of Patent 10-0381817. And a three-dimensional image generation method of Patent 10-0538471 citing Patent 10-0381817 may be performed by the three-dimensional stereoscopic image calculation unit 610. The main image 320 and the auxiliary image 330 generated by the image acquisition unit 300 are used as distance information of the two-dimensional plane image and the image stored in the Z buffer by the monocular described in the stereoscopic image generation method of Patent 10-0381817. The 3D stereoscopic image calculator 610 may calculate the left eye image 620. Similarly to the above description, the process of generating the right eye image 630 will now be described for a clear understanding by those skilled in the art. One vertex 253 of the subject 252 of FIG. 6 may be assumed to be the point P of FIG. 2A of Patent 10-0381817. The reference position 254 of the camera of FIG. 6 may be assumed to be the position E (L) of the left eye of FIG. 2A of patent 10-0381817. The reference position 442 of the viewer's right eye in FIG. 6 may be assumed to be the position E (R) of the right eye in FIG. 2A of patent 0381817. From the above assumption, Patent No. 10-0381817 utilizes the similarity between the triangle connecting 253, 254 and 442 of FIG. 6 and the triangle connecting P, E (L) and E (R) of FIG. 2A of Patent 10-0381817. And a three-dimensional image generation method of Patent 10-0538471 citing Patent 10-0381817 may be performed by the three-dimensional stereoscopic image calculation unit 610. The main image 320 and the auxiliary image 330 generated by the image acquisition unit 300 are used as distance information of the two-dimensional plane image and the image stored in the Z buffer by the monocular described in the stereoscopic image generation method of Patent 10-0381817. The right eye image 630 may be calculated by the 3D stereoscopic image calculator 610. The above description will be clearly understood by those skilled in the art including the concept of the drawings shown in FIG. 6 and the similarity between the embodiments of the stereoscopic image generating method of Patents 10-0381817 and 10-0538471.

3차원 입체영상 계산부(610)의 수행 기능은 이상에서 언급한 기능으로 제한되지 않으며, 언급되지 않은 또 다른 기능은 특허 10-0381817호 및 특허 0538371호의 실시예를 통하여 당업자에게 명확하게 이해될 수 있을 것이므로 본 실시예의 설명에서는 생략하기로 한다.The performance of the 3D stereoscopic image calculation unit 610 is not limited to the above-mentioned functions, and other functions not mentioned above may be clearly understood by those skilled in the art through the embodiments of Patent 10-0381817 and Patent 0538371. Since there will be, it will be omitted in the description of this embodiment.

도 7에서 9는 영상 획득부(300)에서 획득한 영상에 시청자세정보(410)로부터 계산한 시청방향위치정보(520)를 반영하여 3차원 입체영상 계산부(610)에서 생성한 좌안 영상(620)과 우안 영상(630)을 입체 디스플레이부(700)에 가시화하여 시청자에게 보여지는 원리를 보여주는 도면이다. 7 to 9 are left eye images generated by the 3D stereoscopic image calculation unit 610 by reflecting the viewing direction position information 520 calculated from the viewing position information 410 on the image acquired by the image obtaining unit 300 ( 620 and the right eye image 630 are visualized on the stereoscopic display unit 700 to show the principle shown to the viewer.

입체 디스플레이부(700)의 일례로는 입체영상을 가시화 하는 하드웨어 장치(710)와 입체 안경(420)으로 구성될 수 있다. 입체 디스플레이부(700)의 다른 예로는 안경을 필요로 하지 않는 입체영상을 가시화 하는 하드웨어 장치로 구성될 수 있다. 입체 디스플레이부(700)의 예는 이상에서 언급하는 내용으로 제한되지 않는다. An example of the stereoscopic display unit 700 may include a hardware device 710 and a stereoscopic glasses 420 for visualizing a stereoscopic image. Another example of the stereoscopic display unit 700 may be a hardware device that visualizes a stereoscopic image that does not require glasses. Examples of the stereoscopic display unit 700 are not limited to the above description.

도 7은 본 발명의 일 실시예의 시청자(400)가 입체 안경(420)을 착용하고 입체 디스플레이부(700)의 정면에서 수평으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(720)는 왼쪽 꼭지점(721)과 오른쪽 꼭지점(722)로 구성된다. 우안 영상(630)의 일 모서리(730)는 왼쪽 꼭지점(731)과 오른쪽 꼭지점(732)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(810)의 일 모서리(820)로 시청자에게 인지될 수 있다. 일 모서리(820)는 왼쪽 꼭지점(821)과 오른쪽 꼭지점(822)으로 구성된다. 도 7에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 시청자의 좌안과 우안의 위치가 수평으로 위치하고 있어 일반적인 입체영상의 가시화 과정과 유사함을 알 수 있다.FIG. 7 illustrates that the viewer 400 according to an embodiment of the present invention wears the stereoscopic glasses 420 and reflects the viewer's attitude viewed horizontally from the front of the stereoscopic display unit 700. FIG. 3 shows an example of a stereoscopic display unit 700 in which a left eye image and a right eye image are visualized. One edge 720 of the left eye image 620 shown in the hardware device 710 for visualizing a stereoscopic image includes a left vertex 721 and a right vertex 722. One corner 730 of the right eye image 630 includes a left vertex 731 and a right vertex 732. The left eye image 620 and the right eye image 630 are projected to the viewer's left and right eyes, respectively, to a corner 820 of the virtual object 810 in the space in front of the viewer's eyes through a stereoscopic recognition process by binocular parallax. It can be perceived by the viewer. One edge 820 is composed of a left vertex 821 and a right vertex 822. As an example of the visualization process of the 3D stereoscopic image shown in FIG. 7, the position of the left and right eyes of the viewer is located horizontally, which is similar to the general stereoscopic visualization process.

도 8은 본 발명의 일 실시예의 시청자(400)가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 45도 기울이고 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(740)는 왼쪽 꼭지점(741)과 오른쪽 꼭지점(742)으로 구성된다. 우안 영상(630)의 일 모서리(750)는 왼쪽 꼭지점(751)과 오른쪽 꼭지점(752)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(830)의 일 모서리(840)로 시청자에게 인지될 수 있다. 일 모서리(840)는 왼쪽 꼭지점(841)과 오른쪽 꼭지점(842)으로 구성된다. 도 8에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 일반적인 입체영상의 가시화 과정과 달리 시청자의 시청자세에 따라 시청자의 머리가 오른쪽으로 45도 기울어져 있어 좌안 영상(620)과 우안 영상(630)에 의하여 가시화되는 물체(830)의 일 모서리(840)는 좌안 영상에는 740의 위치에 존재하고 우안 영상에는 750의 위치에 존재하게 된다. 도 8의 일 모서리(740)와 다른 일 모서리(750)의 변위의 방향과 크기의 차이를 도 7의 일 모서리(720)와 다른 일 모서리(730)의 변위의 방향과 크기의 차이와 비교하면 다음과 같다. 도7의 변위는 수평방향으로만 존재하나 도 8에서 나타난 변위는 시청방향과 유사하게 45도 방향으로 기울어져 있음을 알 수 있다. 이상의 설명으로부터 당업자는 본 발명의 3차원 입체영상 생성 방법이 좌안 영상과 우안 영상의 차이가 수평방향으로만 나타나는 일반적인 입체영상 생성 방법과는 차이가 있음을 명확하게 이해할 수 있을 것이다.8 is a view of the left eye image generated by the 3D stereoscopic image generator by reflecting a viewer's attitude in which the viewer 400 tilts his head 45 degrees to the right from the front of the stereoscopic display unit 700 according to an embodiment of the present invention; FIG. 3 is a diagram illustrating an example of a stereoscopic display unit 700 in which a right eye image is visualized. One corner 740 of the left eye image 620 shown in the hardware device 710 for visualizing the stereoscopic image is composed of a left vertex 741 and a right vertex 742. One corner 750 of the right eye image 630 includes a left vertex 751 and a right vertex 752. The left eye image 620 and the right eye image 630 are projected to the viewer's left and right eyes, respectively, to a corner 840 of the virtual object 830 in the space in front of the viewer's eyes through a stereoscopic recognition process by binocular parallax. It can be perceived by the viewer. One edge 840 consists of a left vertex 841 and a right vertex 842. An example of the visualization process of the 3D stereoscopic image shown in FIG. 8 is that the head of the viewer is inclined 45 degrees to the right according to the viewer's posture, unlike the general stereoscopic visualization process, and thus the left eye image 620 and the right eye image ( One edge 840 of the object 830 visualized by 630 is present at the position 740 in the left eye image and at the position 750 in the right eye image. Comparing the difference in the direction and the size of the displacement of one corner 740 and the other one edge 750 of FIG. 8 with the difference in the direction and the size of the displacement of one corner 720 and the other one edge 730 of FIG. As follows. Although the displacement of FIG. 7 exists only in the horizontal direction, it can be seen that the displacement shown in FIG. 8 is inclined in the 45 degree direction similar to the viewing direction. From the above description, those skilled in the art will clearly understand that the method of generating a 3D stereoscopic image of the present invention differs from a general stereoscopic image generating method in which a difference between a left eye image and a right eye image is displayed only in the horizontal direction.

도 9는 본 발명의 일 실시예의 시청자(400)가 입체 디스플레이부(700)의 정면에서 머리를 오른쪽으로 90도 돌려 수직으로 시청하고 있는 시청자세를 반영하여 3차원 입체영상 생성부에서 생성된 좌안 영상과 우안 영상이 가시화 되는 입체 디스플레이부(700)의 일례를 보여주는 도면이다. 입체영상을 가시화 하는 하드웨어 장치(710)에 보여지는 좌안 영상(620)의 일 모서리(760)는 왼쪽 꼭지점(761)과 오른쪽 꼭지점(762)으로 구성된다. 우안 영상(630)의 일 모서리(770)는 왼쪽 꼭지점(771)과 오른쪽 꼭지점(772)으로 구성된다. 좌안 영상(620)과 우안 영상(630)이 각각 시청자의 좌안과 우안에 투영되어 양안 시차에 의한 입체 인지과정을 통하여 시청자의 양안 앞의 공간에 가상의 물체(850)의 일 모서리(860)로 시청자에게 인지될 수 있다. 일 모서리(860)는 왼쪽 꼭지점(861)과 오른쪽 꼭지점(862)으로 구성된다. 도 9에서 도시하고 있는 3차원 입체영상의 가시화 과정의 일례는 시청자의 시청자세에 따라 시청자의 머리가 오른쪽으로 90도 기울어져 있어 좌안 영상(620)과 우안 영상(630)에 의하여 가시화되는 물체(850)의 일 모서리(860)가 좌안 영상에는 760의 위치에 우안 영상에는 770의 위치에 존재하게 된다. 시청자의 시청자세에 따라 좌안과 우안이 수직 방향으로 위치하는 경우에는 좌안 영상(620)의 일 모서리(760)와 우안 영상(630)의 일 모서리(770)가 수직 방향으로 변위를 갖고 있음을 명확하게 이해할 수 있을 것이다. 이상의 설명으로부터 당업자는 본 발명의 3차원 입체영상 생성 방법이 시청자의 시청방향과 시청위치에 따라 좌안 영상과 우안 영상을 구성하는 점, 선, 및 면과 같은 영상의 구성단위의 위치가 다르게 반영됨을 명확하게 이해할 수 있을 것이다.FIG. 9 illustrates a left eye generated by the 3D stereoscopic image generator by reflecting a viewer's attitude viewed vertically by turning the head 90 degrees to the right from the front of the stereoscopic display unit 700 according to an embodiment of the present invention. FIG. 3 is a diagram illustrating an example of a stereoscopic display unit 700 in which an image and a right eye image are visualized. One corner 760 of the left eye image 620 shown in the hardware device 710 for visualizing a stereoscopic image is composed of a left vertex 761 and a right vertex 762. One corner 770 of the right eye image 630 includes a left vertex 771 and a right vertex 772. The left eye image 620 and the right eye image 630 are projected to the left and right eyes of the viewer, respectively, to a corner 860 of the virtual object 850 in the space in front of the viewer's eyes through a stereoscopic recognition process by binocular parallax. It can be perceived by the viewer. One edge 860 consists of a left vertex 861 and a right vertex 862. An example of the visualization process of the 3D stereoscopic image illustrated in FIG. 9 is an object visualized by the left eye image 620 and the right eye image 630 because the viewer's head is inclined 90 degrees to the right according to the viewer's viewing attitude. One corner 860 of 850 is located at position 760 in the left eye image and position 770 in the right eye image. When the left and right eyes are positioned in the vertical direction according to the viewer's viewing attitude, it is clear that one corner 760 of the left eye image 620 and one corner 770 of the right eye image 630 have displacements in the vertical direction. Will understand. From the above description, those skilled in the art will appreciate that the three-dimensional stereoscopic image generation method of the present invention reflects the positions of structural units such as points, lines, and surfaces constituting the left and right eye images according to the viewing direction and viewing position of the viewer. It will be clearly understood.

상기에서는 본 발명의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명의 범위에 속하는 것은 당연하다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Of course.

입력 영상부(200)에서 일반 입체영상(220)이 제공되고, 시청자세 수집부(500)에서 계산된 시청방향이 수평일 경우에는 3차원 입체영상 생성부(600)에서 원본 영상에서 제공된 좌안 영상과 우안 영상을 입체영상으로 사용할 수 있다.When the general stereoscopic image 220 is provided by the input image unit 200 and the viewing direction calculated by the viewer posture collector 500 is horizontal, the left eye image provided by the 3D stereoscopic image generator 600 from the original image is provided. And right eye images can be used as a stereoscopic image.

입력 영상부(200)에서 실시간 3차원 렌더링(230)영상이 제공될 경우의 다른 예로는 시청방향위치정보(520)를 실시간으로 반영하여 좌안 영상(620)과 우안 영상(630)을 실시간 3차원 렌더링(230)에서 직접 생성할 수 있다.Another example of the case where the real-time 3D rendering 230 image is provided by the input image unit 200 is to reflect the viewing direction position information 520 in real time to display the left eye image 620 and the right eye image 630 in real time. Can be generated directly in the rendering 230.

100: 3차원 입체영상 생성 시스템
200: 입력 영상부, 210: 일반 2차원 영상, 220: 일반 입체영상, 230: 실시간 3차원 렌더링, 240: 3차원 입체영상, 251: 카메라, 252: 피사체, 253: 피사체의 일 꼭지점, 254: 3차원 공간상의 카메라의 기준 위치
300: 영상 획득부, 310: 영상 전처리부, 320: 주 영상, 330: 보조 영상
400: 시청자부, 410: 시청자세정보, 420: 입체 안경, 421: 입체 안경 프레임, 422: 자세 측정 장치, 430: 시청자의 양안의 위치를 도시하기 위한 안경, 431: 시청자의 좌안의 기준 위치, 432: 시청자의 우안의 기준 위치, 440: 시청자의 양안의 위치를 도시하기 위한 안경, 441: 시청자의 좌안의 기준 위치, 442: 시청자의 우안의 기준 위치
500: 시청자세 수집부, 510: 시청자세 계산부, 520: 시청방향위치정보
600: 3차원 입체영상 생성부, 610: 3차원 입체영상 계산부, 620: 좌안 영상, 630: 우안 영상
700: 입체 디스플레이부, 710: 입체 디스플레이, 720: 좌안 영상의 일부로 가시화된 선의 일례, 721: 720의 왼쪽 꼭지점, 722: 720의 오른쪽 꼭지점, 730: 우안 영상의 일부로 가시화된 선의 일례, 731: 730의 왼쪽 꼭지점, 732: 730의 오른쪽 꼭지점, 740: 좌안 영상의 일부로 가시화된 선의 일례, 741: 740의 왼쪽 꼭지점, 742: 740의 오른쪽 꼭지점, 750: 우안 영상의 일부로 가시화된 선의 일례, 751: 750의 왼쪽 꼭지점, 752: 750의 오른쪽 꼭지점, 760: 좌안 영상의 일부로 가시화된 선의 일례, 761: 760의 왼쪽 꼭지점, 762: 760의 오른쪽 꼭지점, 770: 우안 영상의 일부로 가시화된 선의 일례, 771: 770의 왼쪽 꼭지점, 772: 770의 오른쪽 꼭지점
810: 3차원 입체영상으로 가시화된 가상의 피사체, 820: 가상의 피사체의 일 모서리, 821: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 822: 가상의 피사체의 일 모서리의 오른쪽 꼭지점, 830: 3차원 입체영상으로 가시화된 가상의 피사체, 840: 가상의 피사체의 일 모서리, 841: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 842: 가상의 피사체의 일 모서리의 오른쪽 꼭지점, 850: 3차원 입체영상으로 가시화된 가상의 피사체, 860: 가상의 피사체의 일 모서리, 861: 가상의 피사체의 일 모서리의 왼쪽 꼭지점, 862: 가상의 피사체의 일 모서리의 오른쪽 꼭지점
100: 3D stereoscopic image generation system
200: input image unit, 210: normal 2D image, 220: normal stereoscopic image, 230: real time 3D rendering, 240: 3D stereoscopic image, 251: camera, 252: subject, 253: one vertex of the subject, 254: Reference position of camera in three-dimensional space
300: image acquisition unit 310: image preprocessing unit 320: main image 330: auxiliary image
400: viewer part, 410: viewing attitude information, 420: stereoscopic glasses, 421: stereoscopic glasses frame, 422: posture measuring device, 430: glasses for showing the position of both eyes of the viewer, 431: reference position of the viewer's left eye, 432: reference position of the viewer's right eye, 440: glasses to show the position of both viewers' eyes, 441: reference position of the viewer's left eye, 442: reference position of the viewer's right eye
500: viewing posture collecting unit, 510: viewing posture calculating unit, 520: viewing direction location information
600: 3D stereoscopic image generation unit, 610: 3D stereoscopic image calculation unit, 620: left eye image, 630: right eye image
700: stereoscopic display unit, 710: stereoscopic display, 720: an example of a line visualized as part of a left eye image, 721: a left vertex of 720, 722: a right vertex of 720, 730: an example of a line visualized as part of a right eye image, 731: 730 Left vertex of, 732: right vertex of 730, 740: example of line visible as part of left eye image, 741: left corner of 740, 742: right corner of 740, 750: example of line visible as part of right eye image, 751: 750 Left vertex of, 752: right vertex of 750, 760: example of a line visualized as part of the left eye image, 761: left corner of 760, 762: right corner of 760, 770: example of line visible as part of the right eye image, 771: 770 Left corner of, 772: Right corner of 770
810: virtual subject visualized in three-dimensional stereoscopic image, 820: one corner of the virtual subject, 821: left vertex of one corner of the virtual subject, 822: right vertex of one corner of the virtual subject, 830: three-dimensional Virtual subject visualized as a stereoscopic image, 840: one corner of the virtual subject, 841: left vertex of one corner of the virtual subject, 842: right vertex of one corner of the virtual subject, 850: visualized with three-dimensional stereoscopic image Virtual subject, 860: one corner of the virtual subject, 861: left vertex of one corner of the virtual subject, 862: right vertex of one corner of the virtual subject

Claims (8)

외부로부터 입력되는 영상을 가공하여 3차원 입체영상 생성에 필요한 주 영상과 보조 영상을 획득하는 영상 획득부;
3차원 입체영상을 시청하는 시청자로부터 시청자세를 수집하여 시청자의 양안의 시청자세정보를 계산하는 시청자세 수집부; 및
상기 영상 획득부로부터 가공된 주 영상과 보조 영상으로부터 상기 시청자세 수집부에서 계산된 시청자의 양안의 시청자세정보를 반영하여 3차원 입체영상을 생성하는 3차원 입체영상 생성부를 포함하며,
상기 3차원 입체영상 생성부에서 생성되는 입체영상은 시청자의 시청자세에 따라 좌안 영상과 우안 영상이 변화하는 3차원 입체영상 생성 시스템
An image acquisition unit which processes an image input from the outside and obtains a main image and an auxiliary image required to generate a 3D stereoscopic image;
A viewer posture collecting unit configured to collect viewer postures from viewers viewing 3D stereoscopic images to calculate viewer posture information of both eyes of the viewer; And
It includes a three-dimensional stereoscopic image generating unit for generating a three-dimensional stereoscopic image by reflecting the viewing attitude information of both eyes of the viewer calculated by the viewing posture collector from the main image and the auxiliary image processed from the image acquisition unit,
The stereoscopic image generated by the 3D stereoscopic image generating unit is a 3D stereoscopic image generating system in which a left eye image and a right eye image change according to a viewer's viewing attitude.
제 1항에 있어서, 상기 영상 획득부는,
외부로부터 입력되는 영상으로부터 3차원 입체영상 생성의 주된 영상으로 사용하는 주 영상과;
주 영상 속의 사물의 거리정보를 나타내는 보조 영상을 생성하는, 3차원 입체영상 생성 시스템
The method of claim 1, wherein the image acquisition unit,
A main image used as a main image for generating a 3D stereoscopic image from an image input from the outside;
3D stereoscopic image generation system for generating an auxiliary image representing distance information of an object in the main image
제 1항에 있어서, 상기 시청자세 수집부는,
시청자의 얼굴에 대한 영상으로부터 시청자의 얼굴 또는 일반 안경, 또는 입체 안경에 대한 특징정보를 추출하여, 추출된 특징정보를 이용하여 시청자의 시청자세를 계산하는, 3차원 입체영상 생성 시스템
The method of claim 1, wherein the viewer posture collecting unit,
A three-dimensional stereoscopic image generation system extracting feature information on the viewer's face, general glasses, or stereoscopic glasses from the image of the viewer's face, and calculating the viewer's attitude using the extracted feature information.
제 1항에 있어서, 상기 시청자세 수집부는,
시청자가 착용하는 일반 안경 또는 입체 안경에 부착된 센서, 또는 부착물의 형태로 만들어진 센서로부터 수신되는 정보로부터 시청자의 시청자세를 계산하는, 3차원 입체영상 생성 시스템
The method of claim 1, wherein the viewer posture collecting unit,
A three-dimensional stereoscopic image generation system for calculating a viewer's viewing attitude from information received from a sensor attached to general glasses or stereoscopic glasses worn by the viewer, or a sensor made in the form of an attachment
제 1항에 있어서, 상기 영상 획득부에 입력되는 외부 영상은, 일반 2차원 영상으로 이루어진 주 영상과;
상기 주 영상의 각 화소에 대한 거리정보가 저장된 거리영상으로 이루어진 보조 영상을 포함하는, 3차원 입체영상 생성 시스템
The apparatus of claim 1, wherein the external image input to the image acquisition unit comprises: a main image formed of a general two-dimensional image;
3D stereoscopic image generation system including an auxiliary image consisting of a distance image stored distance information for each pixel of the main image
제 3항에 있어서, 상기 시청자세 수집부는,
시청자의 얼굴에 대한 영상을 획득할 수 있도록 카메라가 포함된, 3차원 입체영상 생성 시스템
The method of claim 3, wherein the viewer posture collecting unit,
3D stereoscopic image generation system including a camera to acquire an image of the viewer's face
제 4항에 있어서, 상기 입체 안경 및 부착물의 형태로 만들어진 센서는,
시청자의 머리의 자세정보를 측정할 수 있는 방향 센서를 포함하는, 3차원 입체영상 생성 시스템
According to claim 4, Sensor made in the form of the three-dimensional glasses and attachments,
Three-dimensional stereoscopic image generation system including a direction sensor for measuring the attitude information of the viewer's head
외부로부터 입력되는 영상을 가공하여 3차원 입체영상 생성에 필요한 주 영상과 보조 영상을 획득하는 영상 획득방법;
3차원 입체영상을 시청하는 시청자로부터 시청자세를 수집하여 시청자의 양안의 시청자세정보를 계산하는 시청자세 수집방법; 및
상기 영상 획득방법으로 가공된 주 영상과 보조 영상으로부터 상기 시청자세 수집방법으로 산출된 시청자의 양안의 시청자세정보를 반영하여 3차원 입체영상을 생성하는 방법을 포함하며,
상기 3차원 입체영상 생성방법에서 생성되는 입체영상은 시청자의 시청자세에 따라 좌안 영상과 우안 영상이 변화하는, 시청자세를 반영하는 3차원 입체영상 생성 방법
An image acquisition method of acquiring a main image and an auxiliary image required for generating a 3D stereoscopic image by processing an image input from the outside;
A viewer posture collection method of collecting viewer postures from viewers viewing 3D stereoscopic images to calculate viewer posture information of both eyes of the viewer; And
And a method of generating a 3D stereoscopic image by reflecting viewer attitude information of both viewers calculated by the viewer attitude collection method from the main image and the auxiliary image processed by the image acquisition method.
The 3D stereoscopic image generated by the 3D stereoscopic image generating method reflects the viewer's attitude in which the left eye image and the right eye image change according to the viewer's viewing attitude.
KR1020110024656A 2011-03-19 2011-03-19 3D stereoscopic image and video that is responsive to viewing angle and position KR101198557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110024656A KR101198557B1 (en) 2011-03-19 2011-03-19 3D stereoscopic image and video that is responsive to viewing angle and position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110024656A KR101198557B1 (en) 2011-03-19 2011-03-19 3D stereoscopic image and video that is responsive to viewing angle and position

Publications (2)

Publication Number Publication Date
KR20120106919A true KR20120106919A (en) 2012-09-27
KR101198557B1 KR101198557B1 (en) 2012-11-06

Family

ID=47113285

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110024656A KR101198557B1 (en) 2011-03-19 2011-03-19 3D stereoscopic image and video that is responsive to viewing angle and position

Country Status (1)

Country Link
KR (1) KR101198557B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160017726A (en) 2014-08-01 2016-02-17 황운아 Stereo image photographing system using 3-Dimension Lens block
KR20240006552A (en) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240006551A (en) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240026941A (en) 2021-06-28 2024-02-29 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240089604A (en) 2021-11-10 2024-06-20 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101413603B1 (en) * 2014-01-21 2014-08-06 (주) 피디케이리미티드 3 dimensional image display system and method using video image with visual correction function
CN107071388A (en) * 2016-12-26 2017-08-18 深圳增强现实技术有限公司 A kind of three-dimensional augmented reality display methods and device
KR20220045862A (en) 2020-10-06 2022-04-13 삼성전자주식회사 Method and apparatus of measuring dynamic crosstalk

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160017726A (en) 2014-08-01 2016-02-17 황운아 Stereo image photographing system using 3-Dimension Lens block
KR20240006552A (en) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240006551A (en) 2021-05-10 2024-01-15 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240026941A (en) 2021-06-28 2024-02-29 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate
KR20240089604A (en) 2021-11-10 2024-06-20 니폰 덴키 가라스 가부시키가이샤 Alkali-free glass plate

Also Published As

Publication number Publication date
KR101198557B1 (en) 2012-11-06

Similar Documents

Publication Publication Date Title
US10269177B2 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
KR101198557B1 (en) 3D stereoscopic image and video that is responsive to viewing angle and position
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US10257492B2 (en) Image encoding and display
US10306202B2 (en) Image encoding and display
JP5515301B2 (en) Image processing apparatus, program, image processing method, recording method, and recording medium
US10054796B2 (en) Display
US8750599B2 (en) Stereoscopic image processing method and apparatus
CN106066701B (en) A kind of AR and VR data processing equipment and method
US20190075351A1 (en) Image Processing Method And Apparatus
US20130113701A1 (en) Image generation device
JP6126821B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
TW201306561A (en) Method and apparatus for generating a signal for a display
JP2003284093A (en) Stereoscopic image processing method and apparatus therefor
JP2014095808A (en) Image creation method, image display method, image creation program, image creation system, and image display device
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
US11187895B2 (en) Content generation apparatus and method
CN113382224B (en) Interactive handle display method and device based on holographic sand table
JP2003284095A (en) Stereoscopic image processing method and apparatus therefor
JP2012234411A (en) Image generation device, image generation system, image generation program and image generation method
US11128836B2 (en) Multi-camera display
GB2558283A (en) Image processing
JP7506493B2 (en) Image processing device, image processing method, and program
EP4030752A1 (en) Image generation system and method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150920

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160805

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170801

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180904

Year of fee payment: 7