WO2016195123A1 - Apparatus and method for processing wide viewing angle image - Google Patents

Apparatus and method for processing wide viewing angle image Download PDF

Info

Publication number
WO2016195123A1
WO2016195123A1 PCT/KR2015/005415 KR2015005415W WO2016195123A1 WO 2016195123 A1 WO2016195123 A1 WO 2016195123A1 KR 2015005415 W KR2015005415 W KR 2015005415W WO 2016195123 A1 WO2016195123 A1 WO 2016195123A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewing angle
wide viewing
angle image
camera
correction parameter
Prior art date
Application number
PCT/KR2015/005415
Other languages
French (fr)
Korean (ko)
Inventor
최광진
박영준
나경건
Original Assignee
(주)에프엑스기어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에프엑스기어 filed Critical (주)에프엑스기어
Priority to PCT/KR2015/005415 priority Critical patent/WO2016195123A1/en
Priority to JP2018513240A priority patent/JP6564939B2/en
Publication of WO2016195123A1 publication Critical patent/WO2016195123A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a wide viewing angle image processing apparatus and method, and more particularly, to an image processing apparatus and method for rendering a wide viewing angle image using projection geometry corrected using camera-specific parameters.
  • An optical viewing angle image processing apparatus may include a correction parameter generator configured to analyze an image input from a camera to generate correction parameters, and generate projection geometry for outputting the wide viewing angle image using the correction parameters.
  • a projection geometry generating unit and an optical viewing angle image packaging unit generating an optical viewing angle image package by encoding the input image, the correction parameters, and the projection geometry.
  • the correction parameter may be characterized by including a camera-specific parameter or a stabilization parameter.
  • the projection geometry generating unit corrects the vertex or texture coordinates of the reference geometry by using the camera-specific parameters, transforms the corrected reference geometry into a curved shape, and projects the projection geometry. It may be characterized by generating the geometry.
  • the wide viewing angle image processing apparatus may further include a first communication unit configured to provide the wide viewing angle image package to another device.
  • the wide viewing angle image display apparatus may decode the second communication unit receiving the wide viewing angle image package provided from the first communication unit and the received wide viewing angle image package, and project the projection geometry into a virtual space, It includes a scene configuration unit for arranging a camera, and configures the scene by texturing the input image to the projected projection geometry.
  • the correction parameter may include a camera specific parameter or a stabilization parameter.
  • the scene configuration unit may be configured to correct the scene by dynamically adjusting the position of the virtual camera using the stabilization parameter.
  • the scene configuration unit may correct the scene by dynamically adjusting the vertex of the projection geometry projected on the virtual space using the stabilization parameter.
  • the wide viewing angle image display apparatus may further include a display unit which renders and displays the scene in real time.
  • the camera is a stereo camera
  • the correction parameter may further include a mechanical error correction parameter, a color correction parameter, or an exposure correction parameter between the cameras.
  • the scene configuration unit for correcting the scene by dynamically adjusting the vertex of the projection geometry or the virtual camera projected to the virtual space by further using the mechanical error correction parameter may be characterized by.
  • the wide viewing angle image display device may be a wearable device or a portable communication device.
  • a method of displaying a wide viewing angle image may include generating a correction parameter by analyzing an image input from a camera, generating a projection geometry for outputting a wide viewing angle image using the correction parameter, and inputting the correction parameter. Generating the wide viewing angle image package by encoding the captured image, the correction parameters, and the geometry.
  • the correction parameter may be characterized in that it comprises a camera specific parameter or a stabilization parameter.
  • the step of generating the geometry may include generating the projection geometry by transforming the corrected reference geometry into a curved surface shape.
  • a method of displaying a wide viewing angle image further comprises extracting metadata by analyzing the input image, and generating the wide viewing angle image package further includes the metadata. And encoding may be performed.
  • a wide viewing angle image display method includes decoding the wide viewing angle image package, projecting the projection geometry into a virtual space, arranging a virtual camera, and inputting the input image to the projected projection geometry.
  • the method may further include constructing a scene by texturing.
  • the wide viewing angle image display method may further include correcting the scene by dynamically adjusting the position of the virtual camera using the stabilization parameter.
  • the wide viewing angle image display method may further include correcting the scene by dynamically adjusting vertices of the projection geometry projected into the virtual space using the stabilization parameter. have.
  • the wide viewing angle image display method may further include displaying the scene data by rendering the scene data in real time.
  • the input image is a stereo image input to a stereo camera
  • the correction parameter further includes a mechanical error correction parameter, a color correction parameter, or an exposure correction parameter between cameras. It may be characterized by including.
  • the lens distortion correction and the shake correction are performed in the three-dimensional space instead of the image space to perform the three-dimensional rendering process in real time in the rendering step instead of the pre-processing display.
  • the burden of data processing can be reduced, and in the scene composition and rendering stages, the stabilization parameters generated by using camera-specific parameters can be used.
  • the burden of data processing can be reduced by correcting distortion.
  • FIG. 1 is a block diagram of a wide viewing angle image processing system 1000 according to an exemplary embodiment.
  • FIGS. 2A and 2B are diagrams for describing scene generation of the scene configuration unit 220.
  • 3A to 3E are diagrams for describing geometry projection and texturing according to a vertex transformation method of geometry according to at least one example embodiment.
  • 4A to 4E are diagrams for describing geometry projection and texturing according to a texture coordinate transformation method of geometry, according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating an example of scene correction using position adjustment of a virtual camera, according to an exemplary embodiment.
  • FIG. 6 illustrates an example of scene correction using geometry transformation, according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating a method of processing a wide viewing angle image, according to an exemplary embodiment.
  • FIG. 8 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a geometry generation step according to an embodiment of the present invention.
  • Embodiments described herein may have aspects that are wholly hardware, partly hardware and partly software, or wholly software.
  • unit “module”, “device” or “system” and the like refer to hardware, a combination of hardware and software, or a computer related entity such as software.
  • parts, modules, devices, or systems herein refer to running processes, processors, objects, executables, threads of execution, programs, and / or computers. computer, but is not limited thereto.
  • both an application running on a computer and a computer may correspond to a part, module, device, system, or the like herein.
  • Embodiments have been described with reference to the flowchart presented in the drawings. Although the method is shown and described in a series of blocks for the sake of simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in different order or simultaneously with other blocks than those shown and described herein. Various other branches, flow paths, and blocks may be implemented in order to achieve the same or similar results. In addition, not all illustrated blocks may be required for the implementation of the methods described herein. Furthermore, the method according to an embodiment of the present invention may be implemented in the form of a computer program for performing a series of processes, which may be recorded on a computer-readable recording medium.
  • the wide viewing angle image processing system 1000 may include the wide viewing angle image processing device 100 and / or the wide viewing angle image display device 200, and the devices 100 and 200 may be one device such as one chip. It can be integrated into or exist as a separate device. In addition, in an embodiment, when the devices 100 and 200 exist as separate devices, data communication may be performed through a wired or wireless network.
  • the wide viewing angle image processing apparatus 100 may include a correction parameter generator 110, a projection geometry generator 120, and a wide viewing angle image packaging unit 130.
  • the communication unit 140 may further include.
  • the correction parameter generator 110 may generate a correction parameter by analyzing an image input from the camera.
  • a camera (not shown) may be included in the wide viewing angle image processing apparatus 100, and the camera may be a monocular camera or a stereo camera having a wide viewing angle, a panorama, a fisheye lens, or the like.
  • an image photographing a subject and an image photographing a reference grid may be input to the wide viewing angle image processing apparatus 100.
  • the reference grid may be, for example, a square black and white grid pattern as a reference sample for image analysis, and an image photographing a subject may be corrected based on the reference grid.
  • the correction parameter generator 110 may generate the camera intrinsic parameter and the stabilizing parameter by analyzing the input image (the subject image and the reference grid image).
  • the camera specific parameter is a parameter related to a mechanical error of the camera lens
  • the stabilization parameter is a parameter generated by applying the camera specific parameter to a subject photographed image.
  • the stabilization parameter includes a temporal factor as a parameter for correcting artifacts such as camera shake.
  • correction parameter may include internal and external parameters of the camera used when capturing the input image.
  • the projection geometry generator 120 may generate projection geometry for outputting the wide viewing angle image using the correction parameter generated by the correction parameter generator 110.
  • the projection geometry generator 120 may correct the reference geometry in the form of a flat grid into projection geometry for outputting a wide viewing angle image.
  • the projection geometry generator 120 may correct vertices of reference geometry or correct texture coordinates by using camera-specific parameters, and then transform the corrected geometry into a curved shape to project a wide viewing angle image output. You can create geometry. Deformation of the geometry, projection, and texturing of the image according to the correction of the vertex or texture coordinates will be described in detail below.
  • the wide viewing angle image packaging unit 130 may generate the wide viewing angle image package by encoding the image input to the wide viewing angle image processing apparatus 100, the generated correction parameters, and the projection geometry.
  • the input image may be an image corrected by further using other parameters in addition to the camera-specific parameters.
  • the wide viewing angle image packaging unit 130 may further include the metadata for the input image to perform the encoding.
  • the first communication unit 140 may provide the wide viewing angle image package to another device.
  • the first communication unit 140 may provide an image package through a wired or wireless network, and any wireless communication method may be used.
  • the other device may be another device outside the wide viewing angle image processing system 1000, an internal device, or any other module included in the wide viewing angle image processing device 100.
  • the wide viewing angle image display apparatus 200 may receive the wide viewing angle image package generated by the wide viewing angle image processing apparatus 100 and display the wide viewing angle image on the display device.
  • the wide viewing angle image display apparatus 200 may include a second communication unit 210, a scene configuration unit 220, and a display unit 230 as shown in FIG. 1.
  • the second communication unit 210 may receive a wide viewing angle image package through a wired or wireless network.
  • the second communication unit 210 may directly receive the wide viewing angle image package generated by the wide viewing angle image packaging unit 130.
  • the wide viewing angle image processing apparatus 100 and the wide viewing angle image display apparatus 200 may be integrated into one device.
  • the second communication unit 210 may transmit the received wide viewing angle image package to the scene composition unit 220.
  • the scene configuration unit 220 may decode the received (transmitted) wide viewing angle image package in real time, project the projection geometry into the virtual space, and place the camera in the virtual space. Thereafter, the input image may be textured on the projected projection geometry to construct a scene.
  • the scene configuration unit 220 may project the projection geometry onto a spherical surface in the virtual space. That is, the projection geometry is projection geometry corrected based on camera specific parameters. This geometry is projection geometry that is calibrated in vertex units or texture coordinates are corrected.
  • FIG. 2A and 2B are diagrams for describing scene generation of the scene configuration unit 220.
  • the scene configuration unit 220 arranges a virtual camera 21 for rendering in the virtual space 20, and projects the projection geometry into the virtual space 20.
  • the scene configuration unit 220 projects the projection geometry onto a spherical surface formed in the virtual space 20.
  • an image 23 is textured to the projected projection geometry to construct a scene.
  • the display unit 230 renders a scene in real time and displays the scene on a display device (not shown).
  • an additional correction module may be further included in the wide viewing angle image display apparatus 200 to correct artifacts caused by distortion of the eyepiece of the display device.
  • the projection geometry generator 120 included in the wide viewing angle image processing apparatus 100 may correct vertex or texture coordinates of the reference projection geometry by using camera-specific parameters, and correct the corrected reference projection geometry.
  • the shape of the curved surface may be used to generate projection geometry to be used to render the photographed image.
  • the projection geometry refers to the projection geometry to be used for rendering the photographed image
  • the reference projection geometry refers to a projection geometry template as a sample for generating the projection geometry.
  • 3A and 3E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment.
  • the projection geometry generator 120 may generate the corrected projection geometry by converting the vertices of the reference projection geometry using camera-specific parameters.
  • reference projection geometry 31 is shown together for comparison with the generated projection geometry 32.
  • the projection geometry 32 in which the vertices are converted has a shape where the edge is curved and is compressed with respect to the center.
  • the textured image appears without distortion as shown in FIG. 3B. For example, a straight line of the subject appears as a straight line even in the textured image.
  • the scene configuration unit 220 arranges the projection geometry 32 in the virtual space.
  • the concave curved projection geometry shown in FIG. 3B may be unfolded as shown in FIGS. 3C and 3D.
  • FIG. 3D shows a state of texturing an image photographed on the projected projection geometry
  • FIG. 3E shows a state of displaying the textured image from the front at the same angle of view as the camera's angle of view when the image is captured.
  • FIGS. 4A to 4E are diagrams for describing projection geometry projection and texturing according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment.
  • the texture coordinates are coordinates in which the image is textured and are independent of the shape of the projection geometry.
  • the projection geometry 42 does not change the shape of the reference projection geometry.
  • the image textured on the projection geometry shows a shape inwardly distorted rather than rectangular.
  • FIG. 4C when the projection geometry 42 whose texture coordinates are corrected is disposed on a spherical surface in the virtual space, and the image is rendered to the projection geometry 42 to render, the image is output as shown in FIG. 4D.
  • 4E shows a state in which the textured image is displayed from the front at the same angle of view as the camera angle when the image is captured. Through this process, the wide viewing angle image can be represented on the spherical surface of the virtual space without distortion.
  • the scene configuration unit 220 may correct the scene so that the corrected image can be rendered by dynamically adjusting the position of the virtual camera in the virtual space by using a correction parameter (eg, a stabilization parameter). .
  • a correction parameter eg, a stabilization parameter
  • the scene configuration unit 220 may correct a scene by dynamically adjusting a position of a virtual camera based on a correction parameter.
  • the rendered image may be corrected by moving to an arbitrary position in the 3D virtual space.
  • the scene configuration unit 220 may correct a scene by converting projection geometry while the virtual camera is fixed.
  • the projection geometry can be moved in the up, down, left, right, or yaw, pitch, and roll directions.
  • the scene configuration unit 220 may perform scene correction by adjusting the virtual camera and the projection geometry together. Such scene correction may be performed in real time at the same time as the rendering of the image.
  • the camera may be a stereo camera.
  • the correction parameter generator 110 may correct a machine error correction parameter and color between the cameras. Parameters or exposure compensation parameters can be created. That is, the above parameter may be included in the correction parameter.
  • the scene configuration unit 220 may further perform scene correction by adjusting a vertex or a virtual camera of the projection geometry projected in the virtual space by further using a mechanical error correction parameter in addition to the stabilization parameter.
  • the scene configuration unit 220 may statically adjust the projection geometry or the virtual camera in the scene composition using the machine error correction parameter to correct the machine error. That is, the scene configuration unit 220 performs the stabilization of the scene configuration in terms of time using the stabilization parameter, and provides a real-time image of improved quality by correcting the mechanical error between stereo cameras using the mechanical error correction parameter. Can be.
  • the wide viewing angle image processing apparatus 100 and the wide viewing angle image display apparatus 200 may be a server, a personal computer, a laptop, a tablet PC, a smartphone, and the like, and the devices may include a camera.
  • the wide viewing angle image display device 200 may be a wearable device or any portable communication device.
  • the method for processing a wide viewing angle image includes receiving an image from a camera (S11), generating a correction parameter by analyzing the received image (S12), and outputting a wide viewing angle image using the correction parameter.
  • Generating the projection geometry (S13), and encoding the input image, the correction parameter, and the projection geometry may include generating the wide viewing angle image package (S14).
  • the generated correction parameter may include a camera specific parameter or a stabilization parameter.
  • the camera-specific parameter wide viewing angle image processing method may further include transmitting the generated wide viewing angle image package to another device.
  • FIG. 8 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment.
  • the wide viewing angle image processing method may be performed subsequent to or independently of the wide viewing angle image processing method disclosed in FIG. 7.
  • receiving the wide viewing angle image package decoding the wide viewing angle image package (S21), projecting projection geometry into a virtual space, and Disposing a virtual camera in a virtual space (S22), constructing a scene by texturing the image on the projected projection geometry (S23), correcting the scene using the parameters (S24), and correcting the scene. It may include the step of rendering and displaying (S25). In one embodiment, steps S23 to S25 may be performed dynamically at the same time.
  • the wide viewing angle image processing method may further include correcting a scene by dynamically adjusting a position of the virtual camera using a correction parameter (for example, a stabilization parameter).
  • a correction parameter for example, a stabilization parameter
  • the wide viewing angle image processing method may further include correcting a scene by dynamically adjusting the projection geometry by using a correction parameter (eg, a stabilization parameter).
  • the wide viewing angle image processing method may further include extracting metadata by analyzing the input image.
  • the generating of the wide viewing angle image package may include generating the metadata.
  • encoding may be performed.
  • step S132 refers to a case in which the shape of the projection geometry is changed by converting the vertices of the projection geometry, and thus, the shape of the projection geometry is used when the projection geometry having the texture coordinates corrected. It does not change, only the texture coordinates inherent in this projection geometry change.
  • FIG. 10 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment.
  • the wide viewing angle image processing method of FIG. 10 relates to a method of rendering and displaying an image photographed using a stereo camera.
  • step S33 may be omitted.
  • the correction parameter may further include a machine error correction parameter, a color correction parameter or an exposure correction parameter between cameras.
  • the wide viewing angle image package generated by the wide viewing angle image processing method described with reference to FIG. 10 may be decoded and displayed on the display device.
  • the rendered scene may be corrected by changing the position of the projection geometry or the virtual camera projected in the virtual space.
  • the lens distortion correction and the shake correction are performed in the three-dimensional space instead of the image space to perform the three-dimensional rendering process in real time in the rendering step instead of the pre-processing display.

Abstract

The present specification discloses an apparatus for processing a wide viewing angle image and a method for processing a wide viewing angle image using the apparatus, the apparatus comprising: a correction parameter generation unit for analyzing an image input from a camera so as to generate a correction parameter; a projection geometry generation unit for generating a projection geometry for the output of a wide viewing angle image, using the correction parameter; and a wide viewing angle image packaging unit for encoding the input image, the correction parameter, and the projection geometry so as to generate a wide viewing angle image package.

Description

광 시야각 영상 처리 장치 및 방법Wide viewing angle image processing device and method
본 발명은 광 시야각 영상 처리 장치 및 방법에 관련된 것으로, 더욱 구체적으로는 카메라 고유 파라미터를 이용하여 보정된 프로젝션 지오메트리를 이용하여 광 시야각 영상을 렌더링하기 위한 영상 처리 장치 및 방법에 관련된다.The present invention relates to a wide viewing angle image processing apparatus and method, and more particularly, to an image processing apparatus and method for rendering a wide viewing angle image using projection geometry corrected using camera-specific parameters.
일반적으로, 카메라와 같은 광학 장치를 이용하여 영상을 촬영하고, 촬영된 영상을 디스플레이함에 있어서, 카메라의 렌즈 등 카메라 하드웨어 자체의 문제로 인하여 영상에 왜곡이 발생한다. 이러한 영상을 디스플레이하려는 경우 영상 왜곡을 보정하여 디스플레이해야 자연스러운 영상 감상이 가능하다.In general, in photographing an image using an optical device such as a camera and displaying the captured image, distortion occurs in the image due to a problem in the camera hardware itself such as a lens of the camera. In order to display such an image, the image distortion should be corrected and displayed for a natural view of the image.
종래에는 영상 왜곡 보정의 경우 영상 이미지 자체를 영상 디스플레이 이전에 미리 왜곡을 보정하였다. 그러나 이러한 방식은 영상처리의 부담이 매우 큰 문제점이 있다.Conventionally, in the case of image distortion correction, the image image itself is corrected before the image display. However, this method has a problem in that the burden of image processing is very large.
또한 hand-held 촬영시 발생하는 동영상의 흔들림을 보정(camera stabilization)하는 경우도 디스플레이 이전에 영상 이미지 자체를 보정하게 되면 영상 처리의 부담이 늘어나게 된다. 이러한 영상 왜곡 혹은 카메라 흔들림을 보정하기 위한 기존 기술은 영상 감상 전에 영상 이미지 보정을 이미지 공간에서 선처리 해야 하므로 계산량 및 계산 시간이 매우 큰 문제점이 있다.In addition, in the case of camera stabilization of a video generated during hand-held shooting, if the video image itself is corrected before display, the burden of image processing is increased. The existing technology for correcting such image distortion or camera shake has a problem that the computation amount and computation time are very large because the image image correction must be preprocessed in the image space before the image is viewed.
이와 같은 문제점을 해결하고자, 동영상 왜곡 보정 및 흔들림 보정에 필요한 연산을 디스플레이 시점에서 실시간 수행할 수 있는 장치 및 방법이 필요하다.In order to solve such a problem, there is a need for an apparatus and method capable of real-time calculation of a video distortion correction and a shake correction at a display time point.
본 발명의 일 실시예에 따른 광 시야각 영상 처리 장치는, 카메라로부터 입력된 영상을 분석하여 보정 파라미터를 생성하는 보정 파라미터 생성부, 상기 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 프로젝션 지오메트리 생성부 및 상기 입력된 영상, 보정 파라미터 및 프로젝션 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성하는 광 시야각 영상 패키징부를 포함한다. An optical viewing angle image processing apparatus according to an embodiment of the present invention may include a correction parameter generator configured to analyze an image input from a camera to generate correction parameters, and generate projection geometry for outputting the wide viewing angle image using the correction parameters. A projection geometry generating unit and an optical viewing angle image packaging unit generating an optical viewing angle image package by encoding the input image, the correction parameters, and the projection geometry.
또한 일 실시예에 따른 광 시야각 영상 처리 장치에 있어서, 상기 보정 파라미터는, 카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 할 수 있다. In the wide viewing angle image processing apparatus according to the embodiment, the correction parameter may be characterized by including a camera-specific parameter or a stabilization parameter.
또한 일 실시예에 따른 광 시야각 영상 처리 장치에 있어서, 상기 프로젝션 지오메트리 생성부는, 상기 카메라 고유 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하고, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 것을 특징으로 할 수 있다.In the wide viewing angle image processing apparatus according to the embodiment, the projection geometry generating unit corrects the vertex or texture coordinates of the reference geometry by using the camera-specific parameters, transforms the corrected reference geometry into a curved shape, and projects the projection geometry. It may be characterized by generating the geometry.
또한 일 실시예에 따른 광 시야각 영상 처리 장치는, 상기 광 시야각 영상 패키지를 타 장치에 제공하는 제1통신부를 더 포함하는 것을 특징으로 할 수 있다.The wide viewing angle image processing apparatus may further include a first communication unit configured to provide the wide viewing angle image package to another device.
다른 일 실시예에 따른 광 시야각 영상 표시 장치는, 제1통신부로부터 제공된 광 시야각 영상 패키지를 수신하는 제2통신부 및 수신된 광 시야각 영상 패키지를 디코딩하고, 가상 공간에 상기 프로젝션 지오메트리를 투영하고, 가상 카메라를 배치하고, 상기 투영된 프로젝션 지오메트리에 상기 입력된 영상을 텍스쳐링하여 장면을 구성하는 장면 구성부를 포함한다. The wide viewing angle image display apparatus according to another embodiment may decode the second communication unit receiving the wide viewing angle image package provided from the first communication unit and the received wide viewing angle image package, and project the projection geometry into a virtual space, It includes a scene configuration unit for arranging a camera, and configures the scene by texturing the input image to the projected projection geometry.
다른 일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 보정 파라미터는, 카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 할 수 있다.In the wide viewing angle image display apparatus according to another exemplary embodiment, the correction parameter may include a camera specific parameter or a stabilization parameter.
다른 일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 장면 구성부는, 상기 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 할 수 있다.In the wide viewing angle image display apparatus according to another embodiment, the scene configuration unit may be configured to correct the scene by dynamically adjusting the position of the virtual camera using the stabilization parameter.
다른 일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 장면 구성부는, 상기 안정화 파라미터를 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 할 수 있다.In the wide viewing angle image display apparatus according to another embodiment, the scene configuration unit may correct the scene by dynamically adjusting the vertex of the projection geometry projected on the virtual space using the stabilization parameter. .
다른 일 실시예에 따른 광 시야각 영상 표시 장치는 상기 장면을 실시간 렌더링하여 표시하는 표시부를 더 포함하는 것을 특징으로 할 수 있다.The wide viewing angle image display apparatus according to another embodiment may further include a display unit which renders and displays the scene in real time.
일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 카메라는 스테레오 카메라이고, 상기 보정 파라미터는, 카메라 간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출 보정 파라미터를 더 포함하는 것을 특징으로 할 수 있다.In the wide viewing angle image display apparatus according to an embodiment, the camera is a stereo camera, and the correction parameter may further include a mechanical error correction parameter, a color correction parameter, or an exposure correction parameter between the cameras.
일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 장면 구성부는, 상기 기계 오차 보정 파라미터를 더 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스 또는 상기 가상 카메라를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 할 수 있다.In the wide viewing angle image display apparatus according to an embodiment, the scene configuration unit for correcting the scene by dynamically adjusting the vertex of the projection geometry or the virtual camera projected to the virtual space by further using the mechanical error correction parameter. It may be characterized by.
다른 일 실시예에 따른 광 시야각 영상 표시 장치에서, 상기 광 시야각 영상 표시 장치는, 웨어러블 장치 또는 휴대 가능한 통신 장치인 것을 특징으로 할 수 있다.In the wide viewing angle image display device according to another embodiment, the wide viewing angle image display device may be a wearable device or a portable communication device.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법은, 카메라로부터 입력된 영상을 분석하여 보정 파라미터를 생성하는 단계, 상기 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 단계 및 상기 입력된 영상, 보정 파라미터, 및 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성하는 단계를 포함한다.According to another embodiment, a method of displaying a wide viewing angle image may include generating a correction parameter by analyzing an image input from a camera, generating a projection geometry for outputting a wide viewing angle image using the correction parameter, and inputting the correction parameter. Generating the wide viewing angle image package by encoding the captured image, the correction parameters, and the geometry.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법에 있어서, 상기 보정 파라미터는, 카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 할 수 있다.In the wide viewing angle image display method according to another embodiment, the correction parameter may be characterized in that it comprises a camera specific parameter or a stabilization parameter.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법에 있어서, 상기 지오메트리를 생성하는 단계는, 상기 카메라 고유 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하는 단계 및 상기 기준 지오메그리의 버텍스를 보정한 경우, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.In the wide viewing angle image display method according to another embodiment, the step of generating the geometry, the step of correcting the vertex or texture coordinates of the reference geometry using the camera-specific parameters and the vertex of the reference geometry When correcting, the method may include generating the projection geometry by transforming the corrected reference geometry into a curved surface shape.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법에 있어서, 상기 입력된 영상을 분석하여 메타 데이터를 추출하는 단계를 더 포함하되, 상기 광 시야각 영상 패키지를 생성하는 단계는, 상기 메타 데이터를 더 포함하여 인코딩을 수행하는 것을 특징으로 할 수 있다.In another embodiment, a method of displaying a wide viewing angle image, the method further comprises extracting metadata by analyzing the input image, and generating the wide viewing angle image package further includes the metadata. And encoding may be performed.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법은, 상기 광 시야각 영상 패키지를 디코딩하여, 가상 공간에 상기 프로젝션 지오메트리를 투영하고, 가상 카메라를 배치하는 단계 및 상기 투영된 프로젝션 지오메트리에 상기 입력된 영상을 텍스쳐링 하여 장면을 구성하는 단계를 더 포함할 수 있다.According to another embodiment, a wide viewing angle image display method includes decoding the wide viewing angle image package, projecting the projection geometry into a virtual space, arranging a virtual camera, and inputting the input image to the projected projection geometry. The method may further include constructing a scene by texturing.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법은, 상기 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.The wide viewing angle image display method according to another embodiment may further include correcting the scene by dynamically adjusting the position of the virtual camera using the stabilization parameter.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법은, 상기 안정화 파라미터를 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스를 동적으로 조절하여 상기 장면을 보정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.The wide viewing angle image display method according to another embodiment may further include correcting the scene by dynamically adjusting vertices of the projection geometry projected into the virtual space using the stabilization parameter. have.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법은, 상기 장면 데이터를 실시간 렌더링하여 표시하는 단계를 더 포함하는 것을 특징으로 할 수 있다.The wide viewing angle image display method according to another embodiment may further include displaying the scene data by rendering the scene data in real time.
또 다른 일 실시예에 따른 광 시야각 영상 표시 방법에 있어서, 상기 입력된 영상은 스테레오 카메라로 입력된 스테레오 영상이고, 상기 보정 파라미터는, 카메라 간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출 보정 파라미터를 더 포함하는 것을 특징으로 할 수 있다.In a wide viewing angle image display method according to another embodiment, the input image is a stereo image input to a stereo camera, wherein the correction parameter further includes a mechanical error correction parameter, a color correction parameter, or an exposure correction parameter between cameras. It may be characterized by including.
본 발명의 일 실시예에 따르면, 렌즈 왜곡 보정 및 흔들림 보정을 이미지 공간이 아닌 3차원 공간에서 수행하여 3차원 렌더링을 함으로서 선처리가 아닌 디스플레이 시점에 렌더링 단계에서 실시간으로 처리가 가능하다. According to an embodiment of the present invention, the lens distortion correction and the shake correction are performed in the three-dimensional space instead of the image space to perform the three-dimensional rendering process in real time in the rendering step instead of the pre-processing display.
또한 카메라 고유 파라미터를 이용하여 변형된 3차원 프로젝션 지오메트리를 생성하여, 인코딩함으로써, 데이터 처리의 부담을 줄일 수 있고, 장면 구성 및 렌더링 단계에서도, 카메라 고유 파라미터를 이용하여 생성된 안정화 파라미터를 이용하여 3차원 가상 공간의 가상 카메라 또는 3차원 프로젝션 지오메트리를 조작함으로써 왜곡을 보정함으로써 데이터 처리의 부담을 줄일 수 있다.In addition, by generating and encoding the modified three-dimensional projection geometry by using camera-specific parameters, the burden of data processing can be reduced, and in the scene composition and rendering stages, the stabilization parameters generated by using camera-specific parameters can be used. By manipulating a virtual camera or three-dimensional projection geometry in a dimensional virtual space, the burden of data processing can be reduced by correcting distortion.
도1은 본 발명의 일 실시예에 따른 광 시야각 영상 처리 시스템(1000)의 블록도이다.1 is a block diagram of a wide viewing angle image processing system 1000 according to an exemplary embodiment.
도2a 및 도2b는 장면 구성부(220)의 장면 생성을 설명하기 위한 도이다.2A and 2B are diagrams for describing scene generation of the scene configuration unit 220.
도3a 내지 3e는 일 실시예에 따른 지오메트리의 버텍스 변환 방식에 따른 지오메트리 투영 및 텍스쳐링을 설명하기 위한 도이다.3A to 3E are diagrams for describing geometry projection and texturing according to a vertex transformation method of geometry according to at least one example embodiment.
도4a 내지 4e는 일 실시예에 따른 지오메트리의 텍스쳐 좌표 변환 방식에 따른 지오메트리 투영 및 텍스쳐링을 설명하기 위한 도이다.4A to 4E are diagrams for describing geometry projection and texturing according to a texture coordinate transformation method of geometry, according to an exemplary embodiment.
도5는 일 실시예에 따라 가상 카메라의 위치 조절을 이용한 장면보정의 일 예를 나타내는 도이다.5 is a diagram illustrating an example of scene correction using position adjustment of a virtual camera, according to an exemplary embodiment.
도6은 일 실시예에 따라 지오메트리 변환을 이용한 장면보정의 일 예를 나타내는 도이다.6 illustrates an example of scene correction using geometry transformation, according to an exemplary embodiment.
도7은 일 실시예에 따른 광 시야각 영상 처리 방법의 순서도이다.7 is a flowchart illustrating a method of processing a wide viewing angle image, according to an exemplary embodiment.
도8은 또 다른 일 실시예에 따른 광 시야각 영상 처리 방법의 순서도이다.8 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment.
도9는 본 발명의 일 실시예에 따른 지오메트리 생성단계를 구체화한 순서도이다.9 is a flowchart illustrating a geometry generation step according to an embodiment of the present invention.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시 된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is described, and that one or more other features or numbers are present. It is to be understood that the present invention does not exclude, in advance, the possibility of addition, presence of steps, actions, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 다만, 실시형태를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 또한, 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal sense unless clearly defined herein. . Like reference numerals in the drawings denote like elements. However, in describing the embodiments, when it is determined that detailed descriptions of related known functions or configurations may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. In addition, the size of each component in the drawings may be exaggerated for description, it does not mean the size that is actually applied.
본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다. Embodiments described herein may have aspects that are wholly hardware, partly hardware and partly software, or wholly software. As used herein, "unit", "module", "device" or "system" and the like refer to hardware, a combination of hardware and software, or a computer related entity such as software. For example, parts, modules, devices, or systems herein refer to running processes, processors, objects, executables, threads of execution, programs, and / or computers. computer, but is not limited thereto. For example, both an application running on a computer and a computer may correspond to a part, module, device, system, or the like herein.
실시예들이 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다. 나아가, 본 발명의 일 실시예에 따른 방법은 일련의 과정들을 수행하기 위한 컴퓨터 프로그램의 형태로 구현될 수도 있으며, 상기 컴퓨터 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수도 있다.Embodiments have been described with reference to the flowchart presented in the drawings. Although the method is shown and described in a series of blocks for the sake of simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in different order or simultaneously with other blocks than those shown and described herein. Various other branches, flow paths, and blocks may be implemented in order to achieve the same or similar results. In addition, not all illustrated blocks may be required for the implementation of the methods described herein. Furthermore, the method according to an embodiment of the present invention may be implemented in the form of a computer program for performing a series of processes, which may be recorded on a computer-readable recording medium.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도1은 본 발명의 일 실시예에 따른 광 시야각 영상 처리 시스템(1000)의 블록도이다. 광 시야각 영상 처리 시스템(1000)은 광 시야각 영상 처리 장치(100) 및/또는 광 시야각 영상 표시 장치(200)를 포함할 수 있으며, 상기 장치(100, 200)는 하나의 칩과 같은 하나의 장치에 통합되거나 별개의 장치로 존재할 수 있다. 또한 일 실시예에서 상기 장치(100,200)가 별개의 장치로 존재하는 경우 유선 또는 무선 네트워크를 통해 데이터 통신을 수행할 수도 있다.1 is a block diagram of a wide viewing angle image processing system 1000 according to an exemplary embodiment. The wide viewing angle image processing system 1000 may include the wide viewing angle image processing device 100 and / or the wide viewing angle image display device 200, and the devices 100 and 200 may be one device such as one chip. It can be integrated into or exist as a separate device. In addition, in an embodiment, when the devices 100 and 200 exist as separate devices, data communication may be performed through a wired or wireless network.
일 실시예에서, 광 시야각 영상 처리 장치(100)는 보정 파라미터 생성부(110), 프로젝션 지오메트리 생성부(120), 광 시야각 영상 패키징부(130)를 포함할 수 있고, 다른 실시예에서는 제1통신부(140)를 더 포함할 수 있다. In one embodiment, the wide viewing angle image processing apparatus 100 may include a correction parameter generator 110, a projection geometry generator 120, and a wide viewing angle image packaging unit 130. The communication unit 140 may further include.
보정 파라미터 생성부(110)는 카메라로부터 입력된 영상을 분석하여 보정 파라미터를 생성할 수 있다. 일 실시예에서, 카메라(미도시)가 광 시야각 영상 처리장치(100)에 포함될 수 있으며, 카메라는 광 시야각, 파노라마, 어안렌즈 등을 구비한, 단안 카메라 또는 스테레오 카메라일 수 있다.The correction parameter generator 110 may generate a correction parameter by analyzing an image input from the camera. In one embodiment, a camera (not shown) may be included in the wide viewing angle image processing apparatus 100, and the camera may be a monocular camera or a stereo camera having a wide viewing angle, a panorama, a fisheye lens, or the like.
카메라를 통해, 피사체를 촬영한 영상과 레퍼런스 그리드를 촬영한 영상이 광 시야각 영상 처리 장치(100)에 입력될 수 있다. 레퍼런스 그리드는 영상 분석을 위한 레퍼런스 시료로서 예컨대 정사각형의 흑백 그리드 패턴일 수 있으며, 이 레퍼런스 그리드를 기초로 피사체를 촬영한 영상이 보정될 수 있다.Through the camera, an image photographing a subject and an image photographing a reference grid may be input to the wide viewing angle image processing apparatus 100. The reference grid may be, for example, a square black and white grid pattern as a reference sample for image analysis, and an image photographing a subject may be corrected based on the reference grid.
보정 파라미터 생성부(110)는 입력된 영상(피사체 촬영 영상 및 레퍼런스 그리드 촬영 영상)을 분석하여 카메라 고유(intrinsic) 파라미터 및 안정화(stabilizing) 파라미터를 생성할 수 있다. 카메라 고유 파라미터는 카메라 렌즈의 기계적인 오차에 관련된 파라미터이고, 안정화 파라미터는 상기 카메라 고유 파라미터를 피사체 촬영 영상에 적용하여 생성된 파라미터이다. 안정화 파라미터는 손떨림등의 아티팩트(artifacts)를 보정하기 위한 파라미터로서 시간적인 요소를 포함하고 있다.The correction parameter generator 110 may generate the camera intrinsic parameter and the stabilizing parameter by analyzing the input image (the subject image and the reference grid image). The camera specific parameter is a parameter related to a mechanical error of the camera lens, and the stabilization parameter is a parameter generated by applying the camera specific parameter to a subject photographed image. The stabilization parameter includes a temporal factor as a parameter for correcting artifacts such as camera shake.
또한 상기 보정 파라미터는 입력 영상의 촬영시에 사용된 카메라의 내부 및 외부 파라미터를 포함할수 있다. In addition, the correction parameter may include internal and external parameters of the camera used when capturing the input image.
프로젝션 지오메트리 생성부(120)는 보정 파라미터 생성부(110)에서 생성된 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성할 수 있다. 예컨대, 프로젝션 지오메트리 생성부(120)는 평면 그리드 형태의 기준 지오메트리를 광 시야각 영상 출력을 위한 프로젝션 지오메트리로 보정할 수 있다. 구체적으로, 프로젝션 지오메트리 생성부(120)는 카메라 고유 파라미터를 이용하여 기준 지오메트리의 버텍스를 보정하거나 텍스쳐 좌표를 보정할 수 있으며, 이 후 보정된 지오메트리를 곡면 형태로 변형하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성할 수 있다. 버텍스 또는 텍스처 좌표의 보정에 따른 지오메트리의 변형, 투영 및 영상의 텍스쳐링에 대하여는 아래에서 구체적으로 설명한다.The projection geometry generator 120 may generate projection geometry for outputting the wide viewing angle image using the correction parameter generated by the correction parameter generator 110. For example, the projection geometry generator 120 may correct the reference geometry in the form of a flat grid into projection geometry for outputting a wide viewing angle image. In detail, the projection geometry generator 120 may correct vertices of reference geometry or correct texture coordinates by using camera-specific parameters, and then transform the corrected geometry into a curved shape to project a wide viewing angle image output. You can create geometry. Deformation of the geometry, projection, and texturing of the image according to the correction of the vertex or texture coordinates will be described in detail below.
광 시야각 영상 패키징부(130)는 광 시야각 영상 처리 장치(100)에 입력된 영상, 생성된 보정 파라미터 및 프로젝션 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성할 수 있다. 위 설명에 있어서, 입력된 영상은 카메라 고유 파라미터 외에 다른 파라미터를 더 이용하여 보정된 영상일 수 있다. 또한 다른 일 실시예에서 광 시야각 영상 패키징부(130)는 입력된 영상에 대한 메타데이터를 더 포함하여 상기 인코딩을 수행할 수도 있다.The wide viewing angle image packaging unit 130 may generate the wide viewing angle image package by encoding the image input to the wide viewing angle image processing apparatus 100, the generated correction parameters, and the projection geometry. In the above description, the input image may be an image corrected by further using other parameters in addition to the camera-specific parameters. In another embodiment, the wide viewing angle image packaging unit 130 may further include the metadata for the input image to perform the encoding.
제1통신부(140)는 광 시야각 영상 패키지를 타 장치에 제공할 수 있다. 제1통신부(140)는 유선 또는 무선 네트워크를 통해서 영상패키지를 제공할 수 있으며, 여기서, 임의의 무선 통신방식이 이용될 수 있다. 또는, 상기 타 장치는 광 시야각 영상 처리 시스템(1000) 외부의 다른 장치이거나, 내부의 장치이거나, 상기 광 시야각 영상 처리 장치(100)에 포함되는 임의의 다른 모듈일 수 있다. The first communication unit 140 may provide the wide viewing angle image package to another device. The first communication unit 140 may provide an image package through a wired or wireless network, and any wireless communication method may be used. Alternatively, the other device may be another device outside the wide viewing angle image processing system 1000, an internal device, or any other module included in the wide viewing angle image processing device 100.
또 다른 일 실시예에서 광 시야각 영상 표시 장치(200)는 상술한 광 시야각 영상 처리 장치(100)가 생성한 광 시야각 영상 패키지를 수신하여, 광시야각 영상을 디스플레이 장치를 통해 표시할 수 있다.In another embodiment, the wide viewing angle image display apparatus 200 may receive the wide viewing angle image package generated by the wide viewing angle image processing apparatus 100 and display the wide viewing angle image on the display device.
이를 위해, 광 시야각 영상 표시 장치(200)는 도1에 도시된 바와 같이, 제2통신부(210), 장면 구성부(220) 및 표시부(230)를 포함할 수 있다. 일 실시예에서, 제2통신부(210)는 유선 또는 무선 네트워크를 통해서 광 시야각 영상 패키지를 수신할 수 있다. 다른 실시에에서 제2통신부(210)는 는 광 시야각 영상 패키징부(130)에서 생성된 광 시야각 영상 패키지를 직접 수신할 수도 있다. 예컨대, 광 시야각 영상 처리 장치(100)와 광 시야각 영상 표시 장치(200)는 하나의 장치에 통합될 수 있다. 제2통신부(210)는 수신한 광 시야각 영상 패키지를 장면 구성부(220)에 전달할수 있다.To this end, the wide viewing angle image display apparatus 200 may include a second communication unit 210, a scene configuration unit 220, and a display unit 230 as shown in FIG. 1. In one embodiment, the second communication unit 210 may receive a wide viewing angle image package through a wired or wireless network. In another embodiment, the second communication unit 210 may directly receive the wide viewing angle image package generated by the wide viewing angle image packaging unit 130. For example, the wide viewing angle image processing apparatus 100 and the wide viewing angle image display apparatus 200 may be integrated into one device. The second communication unit 210 may transmit the received wide viewing angle image package to the scene composition unit 220.
장면 구성부(220)는 수신된(전달받은) 광 시야각 영상 패키지를 실시간 디코딩하고, 가상 공간에 프로젝션 지오메트리를 투영하고, 가상 공간에 카메라를 배치할 수 있다. 그 후 투영된 프로젝션 지오메트리에 상기 입력된 영상을 텍스쳐링하여 장면을 구성할 수 있다. 장면 구성부(220)는 가상 공간 상의 구면에 상기 프로젝션 지오메트리를 투영할 수 있다. 즉, 상기 프로젝션 지오메트리는 카메라 고유 파라미터를 기초로 보정된 프로젝션 지오메트리이다. 이 지오메트리는 버텍스 단위로 보정되거나 텍스쳐 좌표가 보정된 프로젝션 지오메트리이다.The scene configuration unit 220 may decode the received (transmitted) wide viewing angle image package in real time, project the projection geometry into the virtual space, and place the camera in the virtual space. Thereafter, the input image may be textured on the projected projection geometry to construct a scene. The scene configuration unit 220 may project the projection geometry onto a spherical surface in the virtual space. That is, the projection geometry is projection geometry corrected based on camera specific parameters. This geometry is projection geometry that is calibrated in vertex units or texture coordinates are corrected.
도2a 및 도2b는 장면 구성부(220)의 장면 생성을 설명하기 위한 도이다. 도2a를 참조하면, 장면 구성부(220)는 가상공간(20)에 렌더링을 위한 가상 카메라(21)를 배치하고, 가상공간(20)에 프로젝션 지오메트리를 투영한다. 예컨대, 도2a에 도시된 바와 같이, 장면 구성부(220)는 가상공간(20)에 형성된 구면에 프로젝션 지오메트리를 투영한다. 그리고, 도2b에 도시된 바와 같이, 상기 투영된 프로젝션 지오메트리에 영상(23)을 텍스쳐링하여 장면을 구성한다. 그리고 표시부(230)는 장면을 실시간 렌더링하여 디스플레이 장치(미도시)에서 표시한다. 다른 일 실시예에서, 디스플레이 장치의 접안 렌즈의 왜곡으로 인한 아티팩트를 보정하기 위해서 추가적인 보정 모듈이 상기 광시야각 영상 표시 장치(200)에 더 포함될 수도 있다.2A and 2B are diagrams for describing scene generation of the scene configuration unit 220. Referring to FIG. 2A, the scene configuration unit 220 arranges a virtual camera 21 for rendering in the virtual space 20, and projects the projection geometry into the virtual space 20. For example, as shown in FIG. 2A, the scene configuration unit 220 projects the projection geometry onto a spherical surface formed in the virtual space 20. As shown in FIG. 2B, an image 23 is textured to the projected projection geometry to construct a scene. The display unit 230 renders a scene in real time and displays the scene on a display device (not shown). In another embodiment, an additional correction module may be further included in the wide viewing angle image display apparatus 200 to correct artifacts caused by distortion of the eyepiece of the display device.
또 다른 일 실시예에서, 광시야각 영상 처리 장치(100)에 포함되는 프로젝션 지오메트리 생성부(120)는 카메라 고유 파라미터를 이용하여 기준 프로젝션 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하고, 보정된 기준 프로젝션 지오메트리를 곡면 형태로 변형하여 촬영된 영상의 렌더링에 사용될 프로젝션 지오메트리를 생성할 수 있다. 본 명세서에서 프로젝션 지오메트리는 상술한 촬영된 영상의 렌더링에 사용될 프로젝션 지오메트리를 의미하며, 상기 기준 프로젝션 지오메트리는 상기 프로젝션 지오메트리를 생성하기 위한 시료로서의 프로젝션 지오메트리 탬플릿을 의미한다.In another embodiment, the projection geometry generator 120 included in the wide viewing angle image processing apparatus 100 may correct vertex or texture coordinates of the reference projection geometry by using camera-specific parameters, and correct the corrected reference projection geometry. The shape of the curved surface may be used to generate projection geometry to be used to render the photographed image. In the present specification, the projection geometry refers to the projection geometry to be used for rendering the photographed image, and the reference projection geometry refers to a projection geometry template as a sample for generating the projection geometry.
도3a-3e는 일 실시예에 따른 프로젝션 지오메트리의 버텍스 변환 방식에 따른 프로젝션 지오메트리 투영 및 텍스쳐링을 설명하기 위한 도이다. 일 실시예에서, 프로젝션 지오메트리 생성부(120)는 카메라 고유 파라미터를 이용하여 기준 프로젝션 지오메트리의 버텍스를 변환함으로써 보정된 프로젝션 지오메트리를 생성할 수 있다. 도3a를 참조하면, 기준 프로젝션 지오메트리(31)가 생성된 프로젝션 지오메트리(32)와의 비교를 위해 함께 도시되었다. 도3a를 참조하면 버텍스가 변환된 프로젝션 지오메트리(32)는, 가장 자리가 곡면 형태로, 중심을 기준으로 압축된 형태를 보인다. 이렇게 생성된 프로젝션 지오메트리(32)에 텍스쳐링을 수행되면, 도3b에 나타난 바와 같이 텍스쳐링된 영상이 왜곡없이 나타난다. 예컨대, 피사체의 직선이 텍스쳐링된 이미지에서도 직선으로 나타난다. 3A and 3E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment. In one embodiment, the projection geometry generator 120 may generate the corrected projection geometry by converting the vertices of the reference projection geometry using camera-specific parameters. With reference to FIG. 3A, reference projection geometry 31 is shown together for comparison with the generated projection geometry 32. Referring to FIG. 3A, the projection geometry 32 in which the vertices are converted has a shape where the edge is curved and is compressed with respect to the center. When texturing is performed on the generated projection geometry 32, the textured image appears without distortion as shown in FIG. 3B. For example, a straight line of the subject appears as a straight line even in the textured image.
도 3c 및 3d를 참조하면, 장면 구성부(220)는 프로젝션 지오메트리(32)를 가상공간에 배치한다. 이 경우 가상공간의 임의의 구면에 상기 프로젝션 지오메트리를 투영함으로써, 도3b에 나타난 오목한 곡면 형태의 프로젝션 지오메트리가 도3c 및 3d에서와 같이 펼쳐진 형태를 나타낼 수 있다. 도3d는 투영된 프로젝션 지오메트리에 촬영된 영상을 텍스쳐링한 상태를 보여주고, 도3e는 영상을 촬영시 카메라의 화각과 동일한 화각으로 정면에서 상기 텍스쳐링된 영상을 디스플레이하는 상태를 보여준다. Referring to FIGS. 3C and 3D, the scene configuration unit 220 arranges the projection geometry 32 in the virtual space. In this case, by projecting the projection geometry onto any spherical surface of the virtual space, the concave curved projection geometry shown in FIG. 3B may be unfolded as shown in FIGS. 3C and 3D. FIG. 3D shows a state of texturing an image photographed on the projected projection geometry, and FIG. 3E shows a state of displaying the textured image from the front at the same angle of view as the camera's angle of view when the image is captured.
도4a 내지 4e는 일 실시예에 따른 프로젝션 지오메트리의 텍스쳐 좌표 변환 방식에 따른 프로젝션 지오메트리 투영 및 텍스쳐링을 설명하기 위한 도이다. 텍스쳐 좌표는 이미지가 텍스쳐링되는 좌표로서, 프로젝션 지오메트리의 형태와는 무관하다 따라서 도 4a에 나타난 바와 같이, 프로젝션 지오메트리(42)는 기준 프로젝션 지오메트리의 형태는 변하지 않는다. 그러나 이러한 프로젝션 지오메트리(42)에 영상이 텍스쳐링되면, 도4b에 도시된 바와 같이, 프로젝션 지오메트리에 텍스쳐링된 이미지는 사각형 형태가 아닌 안쪽으로 찌그러진 형태를 보인다. 4A to 4E are diagrams for describing projection geometry projection and texturing according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment. The texture coordinates are coordinates in which the image is textured and are independent of the shape of the projection geometry. As shown in FIG. 4A, the projection geometry 42 does not change the shape of the reference projection geometry. However, when the image is textured on the projection geometry 42, as shown in FIG. 4B, the image textured on the projection geometry shows a shape inwardly distorted rather than rectangular.
도4c를 참조하면, 텍스쳐 좌표가 보정된 프로젝션 지오메트리(42)를 가상 공간상의 구면에 배치하고, 프로젝션 지오메트리(42)에 영상을 텍스쳐링하여 렌더링을 수행하면 도4d와 같이 영상이 출력된다. 그리도 도4e는 영상을 촬영시 카메라의 화각과 동일한 화각으로 정면에서 상기 텍스쳐링된 영상을 디스플레이하는 상태를 보여준다. 이와 같은 과정을 통해서, 광 시야각 영상이 왜곡없이 가상공간의 구면상에 표현될 수 있다.Referring to FIG. 4C, when the projection geometry 42 whose texture coordinates are corrected is disposed on a spherical surface in the virtual space, and the image is rendered to the projection geometry 42 to render, the image is output as shown in FIG. 4D. 4E shows a state in which the textured image is displayed from the front at the same angle of view as the camera angle when the image is captured. Through this process, the wide viewing angle image can be represented on the spherical surface of the virtual space without distortion.
또 다른 일 실시예에서 장면 구성부(220)는 보정 파라미터(예컨대, 안정화 파라미터)를 이요아여 가상공간상의 가상 카메라의 위치를 동적으로 조절하여 보정된 영상이 렌더링될 수 있도록 장면을 보정할 수 있다.In another embodiment, the scene configuration unit 220 may correct the scene so that the corrected image can be rendered by dynamically adjusting the position of the virtual camera in the virtual space by using a correction parameter (eg, a stabilization parameter). .
도5는 일 실시예에 따라 가상 카메라의 위치 조절을 이용한 장면보정의 일 예를 도시한다. 도5를 참조하면, 장면 구성부(220)는 보정 파라미터를 기초로 가상 카메라의 위치를 동적으로 조절하여 장면을 보정할 수 있다. 도5에에서는 상하좌우 방향만을 도시하였으나 3차원 가상 공간 상에서 임의 위치로 이동하여 렌더링되는 영상을 보정할 수 있다.5 illustrates an example of scene correction using position adjustment of a virtual camera, according to an exemplary embodiment. Referring to FIG. 5, the scene configuration unit 220 may correct a scene by dynamically adjusting a position of a virtual camera based on a correction parameter. In FIG. 5, only the up, down, left, and right directions are illustrated, and the rendered image may be corrected by moving to an arbitrary position in the 3D virtual space.
도6은 일 실시예에 따라 프로젝션 지오메트리 변환을 이용한 장면보정의 일 예를 도시한다. 도6을 참조하면, 일 실시예에서 장면 구성부(220)는 가상 카메라는 고정된 상태에서, 프로젝션 지오메트리를 변환하여 장면을 보정할 수 있다. 예컨대, 도6에 도시된 바와 같이 상하좌우, 또는 요, 피치, 롤 방향으로 프로젝션 지오메트리를 이동시킬 수 있다.6 illustrates an example of scene correction using projection geometry transformation, according to an embodiment. Referring to FIG. 6, in one embodiment, the scene configuration unit 220 may correct a scene by converting projection geometry while the virtual camera is fixed. For example, as shown in FIG. 6, the projection geometry can be moved in the up, down, left, right, or yaw, pitch, and roll directions.
또 다른 실시예에서 장면 구성부(220)는 가상 카메라와 프로젝션 지오메트리를 함께 조절하여 장면 보정을 수행할 수도 있다. 이러한 장면 보정은 영상의 렌더링과 동시에 실시간으로 이루어질 수도 있다.In another embodiment, the scene configuration unit 220 may perform scene correction by adjusting the virtual camera and the projection geometry together. Such scene correction may be performed in real time at the same time as the rendering of the image.
일 실시예에서, 상기 카메라는 스테레오 카메라일 수 있으며, 광 시야각 영상 처리 장치(100)가 스테레오 카메라로부터 스테레오 영상을 입력받은 경우, 보정 파라미터 생성부(110)는 카메라간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출 보정 파라미터를 생성할 수 있다. 즉 상술한 파라미터는 상기 보정 파라미터에 포함될 수 있다.In an embodiment, the camera may be a stereo camera. When the wide viewing angle image processing apparatus 100 receives a stereo image from a stereo camera, the correction parameter generator 110 may correct a machine error correction parameter and color between the cameras. Parameters or exposure compensation parameters can be created. That is, the above parameter may be included in the correction parameter.
이 경우, 장면 구성부(220)는 안정화 파라미터 외에 기계 오차 보정 파라미터를 더 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스 또는 가상 카메라를 조절하여 장면 보정을 수행할 수 있다. 예컨대, 장면 구성부(220)는 기계 오차 보정 파라미터를 이용하여 장면 구성시 프로젝션 지오메트리 또는 가상 카메라를 스태틱하게 조절하여 기계 오차를 보정할 수 있다. 즉, 장면 구성부(220)는 안정화 파라미터를 이용하여 시간적인 측면에서 장면 구성의 안정화를 수행하고, 기계 오차 보정 파라미터를 이용하여 스테레오 카메라간의 기계적 오차를 보정하여 보다 향상된 품질의 실시간 영상을 제공할 수 있다.In this case, the scene configuration unit 220 may further perform scene correction by adjusting a vertex or a virtual camera of the projection geometry projected in the virtual space by further using a mechanical error correction parameter in addition to the stabilization parameter. For example, the scene configuration unit 220 may statically adjust the projection geometry or the virtual camera in the scene composition using the machine error correction parameter to correct the machine error. That is, the scene configuration unit 220 performs the stabilization of the scene configuration in terms of time using the stabilization parameter, and provides a real-time image of improved quality by correcting the mechanical error between stereo cameras using the mechanical error correction parameter. Can be.
일 실시예에서, 상기 광 시야각 영상 처리 장치(100) 및 광 시야각 영상 표시 장치(200)는 서버, 개인용 컴퓨터, 랩톱, 태블릿 PC, 스마트폰 등일 수 있으며, 상기 장치들은 카메라를 포함할 수도 있다. 특히 상기 광 시야각 영상 표시 장치(200)는 웨어러블 장치 또는 임의의 휴대 가능한 통신 장치일 수 있다.In one embodiment, the wide viewing angle image processing apparatus 100 and the wide viewing angle image display apparatus 200 may be a server, a personal computer, a laptop, a tablet PC, a smartphone, and the like, and the devices may include a camera. In particular, the wide viewing angle image display device 200 may be a wearable device or any portable communication device.
도7은 일 실시예에 따른 광 시야각 영상 처리 방법의 순서도이다. 도7을 참조하면, 광 시야각 영상 처리 방법은 카메라로부터 영상을 입력받는 단계(S11), 입력받은 영상을 분석하여 보정 파라미터를 생성하는 단계(S12), 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 단계(S13), 상기 입력된 영상, 보정 파라미터 및 프로젝션 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성하는 단계(S14)를 포함할 수 있다. 단계(S12)에서, 생성되는 보정 파라미터는 카메라 고유 파라미터 또는 안정화 파라미터를 포함할 수 있다.7 is a flowchart illustrating a method of processing a wide viewing angle image, according to an exemplary embodiment. Referring to FIG. 7, the method for processing a wide viewing angle image includes receiving an image from a camera (S11), generating a correction parameter by analyzing the received image (S12), and outputting a wide viewing angle image using the correction parameter. Generating the projection geometry (S13), and encoding the input image, the correction parameter, and the projection geometry may include generating the wide viewing angle image package (S14). In step S12, the generated correction parameter may include a camera specific parameter or a stabilization parameter.
다른 실시예에서 카메라 고유 파라미터 광 시야각 영상 처리 방법은 생성된 광 시야각 영상 패키지를 타 장치에 전송하는 단계를 더 포함할 수도 있다.In another embodiment, the camera-specific parameter wide viewing angle image processing method may further include transmitting the generated wide viewing angle image package to another device.
도8은 또 다른 일 실시예에 따른 광 시야각 영상 처리 방법의 순서도이다. 도8을 참조하면, 광 시야각 영상 처리 방법은, 도7에 개시된 광 시야각 영상 처리 방법에 이어서 또는 독립적으로 수행될 수 있다.8 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment. Referring to FIG. 8, the wide viewing angle image processing method may be performed subsequent to or independently of the wide viewing angle image processing method disclosed in FIG. 7.
도8에 도시된 또 다른 일 실시예에 따른 광 시야각 영상 처리 방법은, 광 시야각 영상 패키지를 수신하고, 이 광 시야각 영상 패키지를 디코딩하는 단계(S21), 가상 공간에 프로젝션 지오메트리를 투영하고, 이 가상공간에 가상 카메라를 배치하는 단계(S22), 투영된 프로젝션 지오메트리에 상기 영상을 텍스쳐링하여 장면을 구성하는 단계(S23), 상기 파라미터를 이용하여 장면을 보정하는 단계(S24) 및 보정된 장면을 렌더링하여 표시하는 단계(S25)를 포함할 수 있다. 일 실시예에서 단계(S23) 내지 단계(S25)는 동시에 동적으로 수행될 수 있다.In the wide viewing angle image processing method according to another embodiment shown in FIG. 8, receiving the wide viewing angle image package, decoding the wide viewing angle image package (S21), projecting projection geometry into a virtual space, and Disposing a virtual camera in a virtual space (S22), constructing a scene by texturing the image on the projected projection geometry (S23), correcting the scene using the parameters (S24), and correcting the scene. It may include the step of rendering and displaying (S25). In one embodiment, steps S23 to S25 may be performed dynamically at the same time.
또한 일 실시예에 따른 광 시야각 영상 처리 방법은 보정 파라미터(예컨대 안정화 파라미터)를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 장면을 보정하는 단계를 더 포함할 수 있다. 또한 다른 일 실시예에서 광 시야각 영상 처리 방법은 보정 파라미터(예컨대 안정화 파라미터)를 이용하여 상기 프로젝션 지오메트리를 동적으로 조절하여 장면을 보정하는 단계를 더 포함할 수 있다.The wide viewing angle image processing method may further include correcting a scene by dynamically adjusting a position of the virtual camera using a correction parameter (for example, a stabilization parameter). In another embodiment, the wide viewing angle image processing method may further include correcting a scene by dynamically adjusting the projection geometry by using a correction parameter (eg, a stabilization parameter).
또 다른 실시예에서, 광 시야각 영상 처리 방법은 상기 입력된 영상을 분석하여 메타 데이터를 추출하는 단계를 더 포함할 수 있으며, 이 경우, 상기 광 시야각 영상 패키지를 생성하는 단계는, 상기 메타 데이터를 더 포함하여 인코딩을 수행할 수도 있다.In another embodiment, the wide viewing angle image processing method may further include extracting metadata by analyzing the input image. In this case, the generating of the wide viewing angle image package may include generating the metadata. In addition, encoding may be performed.
도9는 본 발명의 일 실시예에 따른 프로젝션 지오메트리 생성단계를 구체화한 순서도이다. 도9를 참조하면, 단계(12) 후에, 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하기 위해서, 카메라 고유 파라미터를 이용하여 기준 프로젝션 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하는 단계(S131) 및 보정된 기준 프로젝션 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 단계(S132)가 수행될 수 있다. 상기 단계(S132)는 도5를 참조하여 상술한 바와 같이, 프로젝션 지오메트리의 버텍스를 변환하여 프로젝션 지오메트리의 형태가 변경된 경우를 의미하므로, 텍스쳐 좌표를 보정한 프로젝션 지오메트리를 이용하는 경우에는 프로젝션 지오메트리의 형태는 변경되지 않고, 이 프로젝션 지오메트리에 내재된 텍스쳐 좌표만이 변경된 다.9 is a flowchart illustrating a projection geometry generation step according to an embodiment of the present invention. Referring to FIG. 9, after step 12, in order to generate projection geometry for outputting a wide viewing angle image using correction parameters, correcting vertex or texture coordinates of reference projection geometry using camera-specific parameters (S131). And deforming the corrected reference projection geometry into a curved surface to generate the projection geometry (S132). As described above with reference to FIG. 5, the step S132 refers to a case in which the shape of the projection geometry is changed by converting the vertices of the projection geometry, and thus, the shape of the projection geometry is used when the projection geometry having the texture coordinates corrected. It does not change, only the texture coordinates inherent in this projection geometry change.
도 10은 또 다른 일 실시예에 따른 광 시야각 영상 처리 방법의 순서도이다. 도10의 광 시야각 영상 처리 방법은 스테레오 카메라를 이용하여 촬영된 영상을 렌더링하여 표시하는 방법에 관련된다. 도10에 도시된 광 시야각 영상 처리 방법은, 스테레오 카메라로부터 영상을 입력받는 단계(S31), 입력받은 스테레오 영상을 분석하여 보정 파라미터를 생성하는 단계(S32), 보정 파라미터를 이용하여 스테레오 영상을 보정하는 단계(S33), 보정 파라미터를 이용하여 프로젝션 지오메트리를 생성하는 단계(S34) 및 스테레오 영상, 보정 파라미터, 프로젝션 지오메트리를 인코딩하여 영상패키지를 생성하는 단계(S25)를 포함할 수 있다. 다른 일 실시예에서, 단계(S33)는 생략될 수도 있다. 단계(S32)에서, 보정 파라미터는 카메라간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출보정 파라미터를 더 포함할 수 있다.10 is a flowchart of a method of processing a wide viewing angle image, according to another exemplary embodiment. The wide viewing angle image processing method of FIG. 10 relates to a method of rendering and displaying an image photographed using a stereo camera. In the wide viewing angle image processing method illustrated in FIG. 10, a step (S31) of receiving an image from a stereo camera, generating a correction parameter by analyzing the received stereo image (S32), and correcting the stereo image using the correction parameter And a step S33 of generating a projection geometry using the correction parameter and a step S25 of encoding a stereo image, a correction parameter, and a projection geometry to generate an image package. In another embodiment, step S33 may be omitted. In step S32, the correction parameter may further include a machine error correction parameter, a color correction parameter or an exposure correction parameter between cameras.
다른 일 실시예에서, 도10을 참조하여 설명된 광 시야각 영상 처리 방법에 의해 생성된 광 시야각 영상 패키지는 디코딩되어 디스플레이 장치에서 표시될 수 있다. 이 경우, 가상공간에 투영된 프로젝션 지오메트리 또는 가상 카메라의 위치를 변경하여 렌더링되는 장면을 보정할 수 있다.In another embodiment, the wide viewing angle image package generated by the wide viewing angle image processing method described with reference to FIG. 10 may be decoded and displayed on the display device. In this case, the rendered scene may be corrected by changing the position of the projection geometry or the virtual camera projected in the virtual space.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention described above has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and variations may be made therefrom. However, such modifications should be considered to be within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
본 발명의 일 실시예에 따르면, 렌즈 왜곡 보정 및 흔들림 보정을 이미지 공간이 아닌 3차원 공간에서 수행하여 3차원 렌더링을 함으로서 선처리가 아닌 디스플레이 시점에 렌더링 단계에서 실시간으로 처리가 가능하다. According to an embodiment of the present invention, the lens distortion correction and the shake correction are performed in the three-dimensional space instead of the image space to perform the three-dimensional rendering process in real time in the rendering step instead of the pre-processing display.

Claims (21)

  1. 카메라로부터 입력된 영상을 분석하여 보정 파라미터를 생성하는 보정 파라미터 생성부;A correction parameter generator for generating a correction parameter by analyzing an image input from the camera;
    상기 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 프로젝션 지오메트리 생성부; 및A projection geometry generation unit generating projection geometry for outputting a wide viewing angle image using the correction parameter; And
    상기 입력된 영상, 보정 파라미터 및 프로젝션 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성하는 광 시야각 영상 패키징부를 포함하는 광 시야각 영상 처리 장치.And an optical viewing angle image packaging unit encoding the input image, correction parameters, and projection geometry to generate a wide viewing angle image package.
  2. 제1항에 있어서,The method of claim 1,
    상기 보정 파라미터는,The correction parameter is
    카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 하는 광 시야각 영상 처리 장치.And a camera specific parameter or stabilization parameter.
  3. 제2항에 있어서,The method of claim 2,
    상기 프로젝션 지오메트리 생성부는,The projection geometry generation unit,
    상기 카메라 고유 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하고, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 것을 특징으로 하는 광 시야각 영상 처리 장치.And correcting the vertex or texture coordinates of the reference geometry by using the camera-specific parameters, and generating the projection geometry by transforming the corrected reference geometry into a curved shape.
  4. 제1항에 있어서,The method of claim 1,
    상기 광 시야각 영상 패키지를 타 장치에 제공하는 제1통신부를 더 포함하는 것을 특징으로 하는 광 시야각 영상 처리 장치.And a first communication unit configured to provide the wide viewing angle image package to another device.
  5. 제4항의 제1통신부로부터 제공된 광 시야각 영상 패키지를 수신하는 제2통신부; 및A second communication unit receiving a wide viewing angle image package provided from the first communication unit of claim 4; And
    수신된 광 시야각 영상 패키지를 디코딩하고, 가상 공간에 상기 프로젝션 지오메트리를 투영하고, 가상 카메라를 배치하고, 상기 투영된 프로젝션 지오메트리에 상기 입력된 영상을 텍스쳐링하여 장면을 구성하는 장면 구성부를 포함하는 광 시야각 영상 표시 장치.A wide viewing angle comprising a scene configuration unit for decoding a received wide viewing angle image package, projecting the projection geometry into a virtual space, arranging a virtual camera, and texturing the input image onto the projected projection geometry to construct a scene Video display device.
  6. 제5항에 있어서,The method of claim 5,
    상기 보정 파라미터는,The correction parameter is
    카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 하는 광 시야각 영상 표시 장치.A wide viewing angle image display device comprising a camera specific parameter or a stabilization parameter.
  7. 제6항에 있어서,The method of claim 6,
    상기 장면 구성부는,The scene configuration unit,
    상기 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 하는 광 시야각 영상 표시 장치.And widening the position of the virtual camera by using the stabilization parameter to correct the scene.
  8. 제6항에 있어서,The method of claim 6,
    상기 장면 구성부는,The scene configuration unit,
    상기 안정화 파라미터를 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 하는 광 시야각 영상 표시 장치.And correcting the scene by dynamically adjusting vertices of the projection geometry projected in the virtual space using the stabilization parameter.
  9. 제5항에 있어서,The method of claim 5,
    상기 장면을 실시간 렌더링하여 표시하는 표시부를 더 포함하는 것을 특징으로 하는 광 시야각 영상 표시 장치.And a display unit which renders and displays the scene in real time.
  10. 제1항에 있어서,The method of claim 1,
    상기 카메라는 스테레오 카메라이고,The camera is a stereo camera,
    상기 보정 파라미터는, 카메라 간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출 보정 파라미터를 더 포함하는 것을 특징으로 하는 광 시야각 영상 표시 장치.The correction parameter may further include a mechanical error correction parameter, a color correction parameter, or an exposure correction parameter between cameras.
  11. 제10항에 있어서,The method of claim 10,
    상기 장면 구성부는,The scene configuration unit,
    상기 기계 오차 보정 파라미터를 더 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스 또는 상기 가상 카메라를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 하는 광 시야각 영상 표시 장치.And adjusting the vertex of the projection geometry projected into the virtual space or the virtual camera by further using the mechanical error correction parameter to correct the scene.
  12. 제5항에 있어서,The method of claim 5,
    상기 광 시야각 영상 표시 장치는, The wide viewing angle image display device,
    웨어러블 장치 또는 휴대 가능한 통신 장치인 것을 특징으로 하는 광 시야각 영상 표시장치.A wide viewing angle image display device, characterized in that the wearable device or a portable communication device.
  13. 카메라로부터 입력된 영상을 분석하여 보정 파라미터를 생성하는 단계;Analyzing the image input from the camera to generate a correction parameter;
    상기 보정 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 단계; 및Generating projection geometry for outputting a wide viewing angle image using the correction parameter; And
    상기 입력된 영상, 보정 파라미터, 및 지오메트리를 인코딩하여 광 시야각 영상 패키지를 생성하는 단계를 포함하는 광 시야각 영상 처리 방법.And generating a wide viewing angle image package by encoding the input image, correction parameters, and geometry.
  14. 제13항에 있어서,The method of claim 13,
    상기 보정 파라미터는,The correction parameter is
    카메라 고유 파라미터 또는 안정화 파라미터를 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.And a camera specific parameter or stabilization parameter.
  15. 제14항에 있어서,The method of claim 14,
    상기 지오메트리를 생성하는 단계는,Generating the geometry,
    상기 카메라 고유 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스쳐 좌표를 보정하는 단계; 및Correcting vertex or texture coordinates of reference geometry using the camera specific parameters; And
    상기 기준 지오메그리의 버텍스를 보정한 경우, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 단계를 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.And if the vertices of the reference geometry are corrected, modifying the corrected reference geometry into a curved surface to generate the projection geometry.
  16. 제13항에 있어서,The method of claim 13,
    상기 입력된 영상을 분석하여 메타 데이터를 추출하는 단계를 더 포함하되,The method may further include extracting metadata by analyzing the input image.
    상기 광 시야각 영상 패키지를 생성하는 단계는, 상기 메타 데이터를 더 포함하여 인코딩을 수행하는 것을 특징으로 하는 광 시야각 영상 처리 방법.The generating of the wide viewing angle image package may further include encoding the metadata to perform encoding.
  17. 제16항에 있어서The method of claim 16
    상기 광 시야각 영상 패키지를 디코딩하여, 가상 공간에 상기 프로젝션 지오메트리를 투영하고, 가상 카메라를 배치하는 단계; 및Decoding the wide viewing angle image package, projecting the projection geometry into a virtual space, and placing a virtual camera; And
    상기 투영된 프로젝션 지오메트리에 상기 입력된 영상을 텍스쳐링 하여 장면을 구성하는 단계를 더 포함하는 광 시야각 영상 처리 방법.And constructing a scene by texturing the input image onto the projected projection geometry.
  18. 제17항에 있어서,The method of claim 17,
    상기 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 단계를 더 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.And correcting the scene by dynamically adjusting the position of the virtual camera by using the stabilization parameter.
  19. 제17항에 있어서,The method of claim 17,
    상기 안정화 파라미터를 이용하여 상기 가상 공간에 투영된 프로젝션 지오메트리의 버텍스를 동적으로 조절하여 상기 장면을 보정하는 단계를 더 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.And correcting the scene by dynamically adjusting vertices of the projection geometry projected into the virtual space using the stabilization parameter.
  20. 제17항에 있어서,The method of claim 17,
    상기 장면 데이터를 실시간 렌더링하여 표시하는 단계를 더 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.And real-time rendering and displaying the scene data.
  21. 제17항에 있어서,The method of claim 17,
    상기 입력된 영상은 스테레오 카메라로 입력된 스테레오 영상이고,The input image is a stereo image input to a stereo camera,
    상기 보정 파라미터는, 카메라 간의 기계 오차 보정 파라미터, 색상 보정 파라미터 또는 노출 보정 파라미터를 더 포함하는 것을 특징으로 하는 광 시야각 영상 처리 방법.The correction parameter further comprises a mechanical error correction parameter, a color correction parameter or an exposure correction parameter between the cameras.
PCT/KR2015/005415 2015-05-29 2015-05-29 Apparatus and method for processing wide viewing angle image WO2016195123A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2015/005415 WO2016195123A1 (en) 2015-05-29 2015-05-29 Apparatus and method for processing wide viewing angle image
JP2018513240A JP6564939B2 (en) 2015-05-29 2015-05-29 Wide viewing angle image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/005415 WO2016195123A1 (en) 2015-05-29 2015-05-29 Apparatus and method for processing wide viewing angle image

Publications (1)

Publication Number Publication Date
WO2016195123A1 true WO2016195123A1 (en) 2016-12-08

Family

ID=57442347

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005415 WO2016195123A1 (en) 2015-05-29 2015-05-29 Apparatus and method for processing wide viewing angle image

Country Status (2)

Country Link
JP (1) JP6564939B2 (en)
WO (1) WO2016195123A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252423A (en) * 2005-03-14 2006-09-21 Namco Bandai Games Inc Program, information storage medium and image generation system
KR20120053856A (en) * 2010-11-18 2012-05-29 광주과학기술원 Method and system for generating 3-dimensional video content
KR20120133041A (en) * 2011-05-30 2012-12-10 전자부품연구원 Calibration system for stereo camera and calibration apparatus for calibrating strero image
US20130021451A1 (en) * 2004-12-23 2013-01-24 Hella Kgaa Hueck & Co. Method and device for determining a calibration parameter of a stereo camera
KR20130043300A (en) * 2011-10-20 2013-04-30 삼성전자주식회사 Apparatus and method for correcting image projected by projector

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203237A (en) * 2000-08-30 2002-07-19 Usc Corp Curved image conversion method and recording medium with the curved image conversion method recorded thereon
JP2003069990A (en) * 2001-06-13 2003-03-07 Usc Corp Remote video recognition system
JP3929346B2 (en) * 2002-04-24 2007-06-13 日立造船株式会社 Stereo image display method and stereo image display apparatus
JP3980565B2 (en) * 2004-02-16 2007-09-26 松下電器産業株式会社 Driving assistance device
JP4872890B2 (en) * 2007-11-21 2012-02-08 スズキ株式会社 Image distortion correction method
WO2012044218A1 (en) * 2010-10-01 2012-04-05 Saab Ab A method and an apparatus for image-based navigation
WO2012060168A1 (en) * 2010-11-04 2012-05-10 シャープ株式会社 Encoder apparatus, decoder apparatus, encoding method, decoding method, program, recording medium, and encoded data
US20150172544A1 (en) * 2012-07-04 2015-06-18 Zhipin Deng Panorama based 3d video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130021451A1 (en) * 2004-12-23 2013-01-24 Hella Kgaa Hueck & Co. Method and device for determining a calibration parameter of a stereo camera
JP2006252423A (en) * 2005-03-14 2006-09-21 Namco Bandai Games Inc Program, information storage medium and image generation system
KR20120053856A (en) * 2010-11-18 2012-05-29 광주과학기술원 Method and system for generating 3-dimensional video content
KR20120133041A (en) * 2011-05-30 2012-12-10 전자부품연구원 Calibration system for stereo camera and calibration apparatus for calibrating strero image
KR20130043300A (en) * 2011-10-20 2013-04-30 삼성전자주식회사 Apparatus and method for correcting image projected by projector

Also Published As

Publication number Publication date
JP2018518786A (en) 2018-07-12
JP6564939B2 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
WO2019139234A1 (en) Apparatus and method for removing distortion of fisheye lens and omni-directional images
WO2011004976A2 (en) Method and apparatus for the high-speed calibration and rectification of a stereo camera
KR101586249B1 (en) Apparatus and method for processing wide viewing angle image
CN104184961A (en) Mobile device and system used for generating panoramic video
WO2018101652A1 (en) Device for providing realistic media image
WO2013118955A1 (en) Apparatus and method for depth map correction, and apparatus and method for stereoscopic image conversion using same
CN106709894B (en) Image real-time splicing method and system
CN105516596A (en) Method, device, and system for processing panoramic photography
KR20190059712A (en) 360 VR image conversion system and method using multiple images
CA2650834C (en) Real-time capture and transformation of hemispherical video images to images in rectilinear coordinates
WO2018161817A1 (en) Storage medium, and method and system for simulating photography in virtual reality scene
WO2018092992A1 (en) Real-time panoramic image production system on basis of lookup table and real-time panoramic image production method using same
WO2019160237A1 (en) Electronic device and method for controlling display of images
WO2023226628A1 (en) Image display method and apparatus, and electronic device and storage medium
WO2023216822A1 (en) Image correction method and apparatus, electronic device, and storage medium
CN111741223B (en) Panoramic image shooting method, device and system
KR101806840B1 (en) High Resolution 360 degree Video Generation System using Multiple Cameras
CN202841396U (en) Digital film optimization device and digital film projection system
CN204836352U (en) Adjust system and device of many cameras captured images's luminance
WO2016195123A1 (en) Apparatus and method for processing wide viewing angle image
WO2019172577A1 (en) Image processing device and method of electronic device
WO2011040653A1 (en) Photography apparatus and method for providing a 3d object
WO2020085570A1 (en) Device and method for acquiring 360-degree vr image in game by using multiple virtual cameras
WO2022045779A1 (en) Restoration of the fov of images for stereoscopic rendering
WO2019103192A1 (en) Device and method for acquiring 360 vr image in game using virtual camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15894296

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018513240

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15894296

Country of ref document: EP

Kind code of ref document: A1