KR20200052206A - Plenoptic image processing apparatus, system having the same, and object segmentation method thereof - Google Patents

Plenoptic image processing apparatus, system having the same, and object segmentation method thereof Download PDF

Info

Publication number
KR20200052206A
KR20200052206A KR1020190056707A KR20190056707A KR20200052206A KR 20200052206 A KR20200052206 A KR 20200052206A KR 1020190056707 A KR1020190056707 A KR 1020190056707A KR 20190056707 A KR20190056707 A KR 20190056707A KR 20200052206 A KR20200052206 A KR 20200052206A
Authority
KR
South Korea
Prior art keywords
plenoptic
image
user
viewpoint
images
Prior art date
Application number
KR1020190056707A
Other languages
Korean (ko)
Other versions
KR102365735B1 (en
Inventor
박성진
김도형
김재우
배성준
장호욱
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20200052206A publication Critical patent/KR20200052206A/en
Application granted granted Critical
Publication of KR102365735B1 publication Critical patent/KR102365735B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

According to the present invention, an object division method of a plenoptic image processing device can comprise the steps of: selecting a first viewpoint image from plenoptic images; displaying a user area in a foreground or background in the first viewpoint image to generate user display information; finding the displayed user area in different viewpoint images among the plenoptic images and reflecting the user display information to the different viewpoint images; and dividing an object from the foreground or background by using the reflected user display information.

Description

플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법{PLENOPTIC IMAGE PROCESSING APPARATUS, SYSTEM HAVING THE SAME, AND OBJECT SEGMENTATION METHOD THEREOF}Plenoptic image processing apparatus, a plenoptic image processing system including the same, and a method for dividing objects thereof {PLENOPTIC IMAGE PROCESSING APPARATUS, SYSTEM HAVING THE SAME, AND OBJECT SEGMENTATION METHOD THEREOF}

본 발명은 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법에 관한 것이다.The present invention relates to a plenoptic image processing apparatus, a plenoptic image processing system including the same, and a method for segmenting the object thereof.

일반적으로, 2차원 카메라 영상정보에 의존하는 기존의 영상처리 기술에 비해, 플렌옵틱(Plenoptic) 또는 라이트필드(Light Field) 영상은 공간상에서 임의의 방향으로 진행하는 빛의 정보를 제공한다. 즉, 2차원 영상을 구성하는 각 픽셀에 대하여 샘플링된 방향에 대한 빛의 세기와 컬러 정보를 제공하기에 실제 공간에서 물체들을 사실적으로 묘사하는데 아주 적합하다. 플렌옵틱 영상정보는 기존 2차원 영상이 가지는 공간영역(Spatial Domain) 정보와 동시에 방향 정보에 의한 각영역(Angular Domain) 정보를 가지는데, 이러한 공간영역의 깊이정보 및 각영역에 의한 광선의 추가적인 방향정보를 활용하여 원근시점 이동(Perspective Viewing Change), 재초점(Refocusing) 및 3차원 깊이정보 추출(Depth of Field Extraction) 등의 다양한 영상처리를 수행할 수 있다.In general, compared to the conventional image processing technology that relies on 2D camera image information, a Plenoptic or Light Field image provides information of light traveling in an arbitrary direction in space. That is, since it provides light intensity and color information for a sampled direction for each pixel constituting a 2D image, it is well suited to realistically describing objects in real space. The plenoptic image information has spatial domain information of the existing 2D image and angular domain information by direction information at the same time. Depth information of the spatial area and additional direction of light rays by each region By using the information, various image processing such as perspective viewing change, refocusing and 3D depth of field extraction can be performed.

공개특허: 10-2016-0120533, 공개일: 2016년 10월 18일, 제목: 라이트 필드 영상에서 객체 분할 방법.Published Patent: 10-2016-0120533, Published Date: October 18, 2016, Title: Object segmentation method in light field image. 미국공개특허: US 2016-0371304, 공개일: 2016년 12월 22일, 제목: METHOD AND APPARTUS FOR DATA RETRIEVAL IN A LIGHTFIELD DATABASE.US Patent Publication: US 2016-0371304, Published Date: December 22, 2016, Title: METHOD AND APPARTUS FOR DATA RETRIEVAL IN A LIGHTFIELD DATABASE.

본 발명의 목적은, 플렌옵틱 영상에서 제 1 시점 영상에서 사용자가 전경과 배경 모두 혹은 전경이나 배경 한영역을 표시해주면, 사용자가 제 2 시점 영상에서 에피폴라 라인상에 어디에 위치할지 결정해주는 작업없이, 자동으로 모든 시점 영상에 반영하여 사용자가 원하는 표시정보를 자동으로 생성하는 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법을 제공하는데 있다.The object of the present invention is that, in a plenoptic image, if a user displays both a foreground and a background or a foreground or a background area in a first viewpoint image, the user does not determine where to place the epipolar line in the second viewpoint image. It is to provide a plenoptic image processing apparatus that automatically generates display information desired by a user by automatically reflecting it on all viewpoint images, a plenoptic image processing system including the same, and an object segmentation method thereof.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following descriptions.

본 발명의 실시 예에 따른 플렌옵틱 영상 처리 장치의 객체 분할 방법은, 플렌옵틱 영상 중에서 제 1 시점 영상을 선택하는 단계; 사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하는 단계; 상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하는 단계; 및 상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하는 단계를 포함할 수 있다.An object segmentation method of a plenoptic image processing apparatus according to an embodiment of the present invention includes: selecting a first viewpoint image from a plenoptic image; Displaying a user area in a foreground or background in the first viewpoint image to generate user display information; Finding the displayed user area in different viewpoint images among the plenoptic images and reflecting the user display information in the different viewpoint images; And dividing an object from the foreground or the background using the reflected user display information.

실시 예에 있어서, 플렌옵틱 카메라로부터 플렌옵틱 영상을 획득하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include acquiring a plenoptic image from the plenoptic camera.

실시 예에 있어서, 상기 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾기 위하여 픽셀들의 컬러 값의 유사도(SIM)를 이용하는 것을 특징으로 한다.In an embodiment, the similarity (SIM) of color values of pixels is used to find the displayed user area in the other viewpoint images.

실시 예에 있어서, 상기 다른 시점 영상들에 반영하는 단계는, 상기 유사도(SIM)를 수학식

Figure pat00001
을 이용하여 계산하는 단계를 더 포함하고, 여기서,
Figure pat00002
는 상기 제 1 시점 영상에서 사용자가 표시한 영역의 각 픽셀의 컬러값이고,
Figure pat00003
는 상기 제 1 시점 영상을 제외한 i번째 영상에서 상기 제 1 시점 영상에서 상기 사용자가 표시한 영역의 각 픽셀을 변환 행렬(
Figure pat00004
)에 의해 변환시킨 위치의 픽셀의 컬러값인 것을 특징으로 한다.In an embodiment, the step of reflecting on the other viewpoint images may include the similarity (SIM) as an equation.
Figure pat00001
Further comprising the step of calculating, wherein,
Figure pat00002
Is a color value of each pixel in a region displayed by the user in the first viewpoint image,
Figure pat00003
In the i-th image excluding the first view image, each pixel of a region displayed by the user in the first view image is transformed matrix (
Figure pat00004
Characterized in that the color value of the pixel at the position converted by).

실시 예에 있어서, 상기 다른 시점 영상들에 반영하는 단계는, 상기 제 1 시점 영상에 상기 사용자 영역이 표시된 후에 배경에 대응하는 영역을 기준으로 바운딩 박스 생성하는 단계를 더 포함할 수 있다.In an embodiment, the step of reflecting on the other viewpoint images may further include generating a bounding box based on an area corresponding to a background after the user area is displayed on the first viewpoint image.

실시 예에 있어서, 상기 다른 시점 영상들에게 반영하는 단계는, 상기 다른 시점 영상들에 상기 객체에 대응하는 위치에 상기 바운딩 박스를 설정하는 단계를 더 포함할 수 있다.In an embodiment, the step of reflecting to the other viewpoint images may further include setting the bounding box at a position corresponding to the object in the different viewpoint images.

본 발명의 실시 예에 따른 플렌옵틱 영상 처리 장치는: 적어도 하나의 프로세서; 및 적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고, 상기 적어도 하나의 인스트럭션은, 플렌옵틱 영상 중에서 제 1 시점 영상을 선택하고; 사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하고; 상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하고; 및 상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하도록 적어도 하나의 프로세서에서 실행되는 것을 특징으로 한다.A plenoptic image processing apparatus according to an embodiment of the present invention includes: at least one processor; And a memory for storing at least one instruction executed by at least one processor, wherein the at least one instruction comprises: selecting a first viewpoint image from among the plenoptic images; Displaying a user area in a foreground or background in the first viewpoint image to generate user display information; Find the displayed user area in different viewpoint images among the plenoptic images and reflect the user display information in the different viewpoint images; And at least one processor to divide an object from the foreground or the background using the reflected user display information.

실시 예에 있어서, 상기 플렌옵틱 영상은 다중 시점 영상인 것을 특징으로 한다.In an embodiment, the plenoptic image is characterized by being a multi-view image.

실시 예에 있어서, 상기 제 1 시점 영상에 상기 사용자 영역이 표시되면, 나머지 시점 영상들에 대응하는 사용자 영역이 표시되는 것을 특징으로 한다.In an embodiment, when the user area is displayed on the first viewpoint image, a user area corresponding to the remaining viewpoint images is displayed.

실시 예에 있어서, 상기 사용자 영역의 픽셀들의 컬러 값의 유사도를 이용하여 상기 나머지 시점 영상들에 대응하는 사용자 영역이 검색되는 것을 특징으로 한다.In an embodiment, a user area corresponding to the remaining viewpoint images is searched using a similarity of color values of pixels in the user area.

실시 예에 있어서, 상기 제 1 시점 영상에 상기 사용자 영역이 표시되면, 배경에 대응하는 영역을 기준으로 바운딩 박스가 생성되고, 상기 나머지 시점 영상들에 상기 객체에 대응하는 위치에 바운딩 박스가 설정되는 것을 특징으로 한다.In an embodiment, when the user area is displayed on the first viewpoint image, a bounding box is generated based on an area corresponding to a background, and a bounding box is set at a position corresponding to the object in the remaining viewpoint images. It is characterized by.

본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템은, 플렌옵틱 카메라로부터 다중 시점의 플렌옵틱 영상을 획득하는 플렌옵틱 영상 획득 장치; 및 상기 플렌옵틱 영상을 4차원 객체 분할하는 플렌옵틱 영상 처리 장치를 포함하고, 상기 플렌옵틱 영상 처리 장치는, 플렌옵틱 영상 중에서 제 1 시점 영상을 선택하고; 사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하고; 상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하고; 및 상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하는 것을 특징으로 한다.A plenoptic image processing system according to an embodiment of the present invention includes: a plenoptic image acquisition device for acquiring a multi-view plenoptic image from a plenoptic camera; And a plenoptic image processing apparatus for segmenting the plenoptic image into a four-dimensional object, wherein the plenoptic image processing apparatus selects a first viewpoint image from among the plenoptic images; Displaying a user area in a foreground or background in the first viewpoint image to generate user display information; Find the displayed user area in different viewpoint images among the plenoptic images and reflect the user display information in the different viewpoint images; And dividing the object from the foreground or the background using the reflected user display information.

실시 예에 있어서, 상기 플렌옵틱 영상 처리 장치는, 상기 제 1 시점 영상에 상기 사용자 영역이 표시될 때, 배경에 대응하는 영역을 기준으로 바운딩 박스를 생성하고, 상기 다른 시점 영상들에 상기 객체에 대응하는 위치에 바운딩 박스를 설정하는 것을 특징으로 한다.In an embodiment, when the user area is displayed on the first viewpoint image, the plenoptic image processing apparatus generates a bounding box based on an area corresponding to a background, and attaches the object to the other viewpoint images. It is characterized by setting a bounding box at a corresponding position.

실시 예에 있어서, 상기 객체 분할한 결과를 저장하는 저장 장치를 더 포함할 수 있다.In an embodiment, the apparatus may further include a storage device that stores the result of dividing the object.

본 발명의 실시 예에 따른 플렌옵틱 영상 처리 장치, 그것을 포함하는 플렌옵틱 영상 처리 시스템 및 그것의 객체 분할 방법은, 하나의 영상에서 사용자가 전경과 배경을 표시하는 작업으로 전체 플렌옵틱 영상에서 객체 분할을 수행할 수 있다.A plenoptic image processing apparatus according to an embodiment of the present invention, a plenoptic image processing system including the same, and a method of dividing an object thereof, divide an object from an entire plenoptic image by a user displaying a foreground and a background in one image You can do

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)을 예시적으로 보여주는 도면이다.
도 2는 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)의 플렌옵틱 영상을 객체 분할하는 방법을 예시적으로 보여주는 흐름도이다.
도 3은 일반적인 플렌옵틱 영상 처리 시스템의 플렌옵틱 영상을 객체 분할하는 방법을 예시적으로 보여주는 흐름도이다
도 4는 본 발명의 실시 예에 따른 플렌옵틱 처리 장치에서 자동으로 다른 시점 영역에서 사용자 표시정보를 반영한 결과를 예시적으로 보여주는 도면이다.
도 5는 일반적인 플렌옵틱 처리 장치에서 사용자가 수동으로 사용자 표시정보를 반영하는 결과를 예시적으로 보여주는 도면이다.
도 6은 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 장치(1000)를 예시적으로 보여주는 도면이다.
The accompanying drawings are provided to help understand the present embodiment, and provide embodiments with detailed description. However, the technical features of the present embodiment are not limited to specific drawings, and the features disclosed in each drawing may be combined with each other to form a new embodiment.
1 is a diagram illustrating a plenoptic image processing system 10 according to an embodiment of the present invention.
2 is a flowchart exemplarily showing a method of object segmenting a plenoptic image of the plenoptic image processing system 10 according to an embodiment of the present invention.
3 is a flowchart exemplarily showing a method of object segmenting a plenoptic image of a general plenoptic image processing system.
4 is a diagram illustrating a result of automatically reflecting user display information in another viewpoint area in a plenoptic processing apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a result of a user manually reflecting user display information in a typical plenoptic processing apparatus.
6 exemplarily shows a plenoptic image processing apparatus 1000 according to an embodiment of the present invention.

아래에서는 도면들을 이용하여 본 발명의 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있을 정도로 본 발명의 내용을 명확하고 상세하게 기재할 것이다.Hereinafter, the contents of the present invention will be described clearly and in detail so that those skilled in the art of the present invention can easily implement the drawings using the drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 혹은 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. The present invention can be applied to various changes and may have various forms, and specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosure form, and it should be understood as including all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from other components. For example, the first component may be referred to as the second component without departing from the scope of the present invention, and similarly, the second component may also be referred to as the first component. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 혹은 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 혹은 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 혹은 이들을 조합한 것들의 존재 혹은 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "include" or "have" are intended to indicate the presence of a feature, number, step, action, component, part or combination thereof carried out, one or more other features or numbers. It should be understood that it does not preclude the existence or addition possibilities of, steps, actions, components, parts or combinations thereof. Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms, such as those defined in the commonly used dictionary, should be interpreted as meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. .

일반적으로 영상의 객체 분할은 영상으로부터 사용자가 원하는 객체를 분할하는 작업이다. 기존의 2차원 영상에서 사용자가 원하는 객체를 분할하기 위해서는 전경과 배경 모두 혹은 전경이나 배경 한영역을 대략적으로 표시하면, 그 정보를 기반으로 객체를 분할하는 반자동 객체 분할 방법들이 사용되고 있다.In general, object segmentation of an image is an operation of dividing an object desired by a user from an image. In the conventional two-dimensional image, semi-automatic object segmentation methods are used to divide an object based on the information when the user wants to divide the object, which is both the foreground and the background, or a foreground or background area.

다중 시점 기반의 플렌옵틱 영상에서 객체를 분할하기 위해서 모든 시점 영상에 사용자가 전경과 배경 모두를 표시하거나 혹은 전경이나 배경 중에서 한 영역을 표시하면, 기존의 객체 분할 방법을 그대로 적용할 수 있다. 하지만, 시점의 개수가 많아질 수록 사용자가 많이 개입을 해야한다. 이 때문에 객체 분할에 대한 전체적인 수행 시간이나 사용자 친화도가 떨어지게 된다. 이러한 객체 분할을 효율적으로 진행하기 위하여 사용자가 임의의 시점 영상(제 1 시점 영상)을 선택하여 전경과 배경 모두를 표시하거나 혹은 전경이나 배경 중에서 한영역을 표시한 후에, 사용자가 다른 시점 영상(제 1 시점 영상)에서 한번만 제 1 시점 영상에서 사용자가 표시한 정보를 확정하면, 제 1 시점 영상과 제 2 시점 영상을 제외한 다른 모든 시점 영상들에서 제 1 시점 영상에서 사용자가 표시하고, 제 2 시점 영상에서 사용자가 확정한 정보를 자동으로 적용될 수 있다.In order to divide an object from a multi-view-based plenoptic image, if a user displays both the foreground and the background or displays one area among the foreground or background in all viewpoint images, the existing object segmentation method can be applied as it is. However, as the number of viewpoints increases, the user needs to intervene. For this reason, overall execution time or user friendliness for object segmentation is deteriorated. In order to efficiently perform such object segmentation, the user selects an arbitrary viewpoint image (first viewpoint image) to display both the foreground and the background, or after displaying one area among the foreground or background, the user views another viewpoint image ( Once the information displayed by the user is confirmed in the first view image only once in the first view image), the user displays the first view image in all other view images except the first view image and the second view image, and the second view Information determined by the user in the image may be automatically applied.

사용자가 제 1 시점 영상에 전경과 배경 모두 혹은 전경이나 배경 한영역을 표시하고, 제 2 시점 영상의 동일한 위치에 제 1 시점 영상에서 사용자가 표시한 정보를 적용하면, 제 1 시점 영상과 제 2 시점 영상간의 시차로 인하여, 제 2 시점 영상에 그려진 정보가 어긋나게 된다. 이때, 제 1 시점 영상과 제 2 시점 영상은 보정(Calibration) 및 정렬(Rectification) 됨으로써 제 1 시점 영상에서의 사용자가 표시한 정보에 대응되는 제 2 시점 영상에서의 위치 후보군이 에피폴라 라인(Epipolar Line) 상에 나타난다. 여기서 에피폴라 라인은 제 1 시점에 연결된 직선을 제 2 시점 영상에 투영되는 직선을 의미한다. When the user displays both the foreground and the background or one area of the foreground or background on the first viewpoint image, and applies the information displayed by the user from the first viewpoint image to the same position of the second viewpoint image, the first viewpoint image and the second Due to the time difference between the viewpoint images, information drawn on the second viewpoint images is misaligned. At this time, the first viewpoint image and the second viewpoint image are corrected (Calibration) and aligned (Rectification) so that the position candidate group in the second viewpoint image corresponding to the information displayed by the user in the first viewpoint image is the epipolar line (Epipolar). Line). Here, the epipolar line means a straight line connected to the first viewpoint and projected on the second viewpoint image.

사용자는 이러한 에피폴라 라인 상에 어디에 위치할 지 제 2 시점 영상에서 결정해주면, 제 1 시점 영상과 제 2 시점 영상을 제외한 나머지 시점 영상들에도 자동적으로 원하는 위치에 제 1 시점 영상에서 사용자가 표시한 정보가 반영된다. 하지만 이러한 과정에서 기존의 2차원 영상에서의 객체 분할에 비교하여 더 많은 사용자 개입(제 2 시점 영상에서 에피폴라 라인 상에서 어디에 위치할지 결정해주는 작업)이 요구되고 있다.When the user determines where the position of the epipolar line is located in the second viewpoint image, the user automatically displays the first viewpoint image at the desired position in the remaining viewpoint images except the first viewpoint image and the second viewpoint image. Information is reflected. However, in this process, more user intervention (determining where to locate on the epipolar line in the second viewpoint image) is required compared to object segmentation in the existing two-dimensional image.

도 1은 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)을 예시적으로 보여주는 도면이다. 도 1을 참조하면, 플렌옵틱 영상 처리 시스템(10)은 플렌옵틱 영상 획득 장치(100) 및 플렌옵틱 영상 처리 장치(200)를 포함할 수 있다.1 is a diagram illustrating a plenoptic image processing system 10 according to an embodiment of the present invention. Referring to FIG. 1, the plenoptic image processing system 10 may include a plenoptic image acquisition device 100 and a plenoptic image processing device 200.

플렌옵틱 영상 획득 장치(100)는 카메라 어레이(11)로부터 객체에 대한 다시점의 어레이 영상을 수신하도록 구현될 수 있다.The plenoptic image acquisition apparatus 100 may be implemented to receive an array image of a multi-viewpoint for an object from the camera array 11.

플렌옵틱 영상 처리 장치(200)는 획득된 플렌옵틱 영상으로부터 사용자가 원하는 객체의 분할을 수행하도록 구현될 수 있다. 여기서 분할된 플렌옵틱 영상은 저장 포맷에 맞게 변환된 후에 저장 장치(12)에 저장될 수 있다.The plenoptic image processing apparatus 200 may be implemented to perform segmentation of an object desired by a user from the obtained plenoptic image. Here, the divided plenoptic image may be converted to a storage format and then stored in the storage device 12.

본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)은 플렌옵틱 영상에서 제 1 시점 영상에서 사용자가 전경과 배경 모두 표시하거나, 전경 및 배경 중에서 어느 하나를 표시하면, 사용자가 제 2 시점 영상에서 에피폴라 라인 상에 어디에 위치할 지 결정하는 작업없이, 자동으로 제 2 시점 영상뿐 아니라 모든 시점영상에 표시된 영역을 반영함으로써 사용자가 원하는 표시정보를 자동으로 생성할 수 있다. 이로써 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)은 기존의 2차원 객체분할을 차원을 확대하여 4차원 객체분할을 수행할 수 있다.In the plenoptic image processing system 10 according to an embodiment of the present invention, when a user displays both a foreground and a background in a first viewpoint image in a plenoptic image, or when one of the foreground and background is displayed, the user views the second viewpoint image In the display, the display information desired by the user can be automatically generated by automatically reflecting the areas displayed on all the viewpoint images as well as the second viewpoint images, without determining where to place them on the epipolar line. Accordingly, the plenoptic image processing system 10 according to an embodiment of the present invention may perform a 4D object segmentation by expanding a dimension of an existing 2D object segmentation.

도 2는 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 시스템(10)의 플렌옵틱 영상을 객체 분할하는 방법을 예시적으로 보여주는 흐름도이다. 도 1 및 도 2를 참조하면, 플렌옵틱 영상에서 사용자가 원하는 객체의 분할을 수행하는 과정은 다음과 같다.2 is a flowchart exemplarily showing a method of object segmenting a plenoptic image of the plenoptic image processing system 10 according to an embodiment of the present invention. 1 and 2, a process of dividing an object desired by a user in a plenoptic image is as follows.

플렌옵틱 카메라 촬영을 통하여 다중 시점 기반의 플렌옵틱 영상이 획득될 수 있다(S110). 여기서 획득된 플렌옵틱 영상은 다중 시점 영상일 수 있다. 플렌옵틱 영상 중에서 사용자가 임의의 시점 영상 1개를 선택할 수 있다(S120). 이렇게 사용자에 의해 선택된 시점 영상을 제 1 시점 영상이라 하겠다.A multi-view-based plenoptic image may be obtained through a plenoptic camera photographing (S110). The plenoptic image obtained here may be a multi-view image. The user can select one arbitrary viewpoint image from the plenoptic images (S120). The viewpoint image selected by the user will be referred to as a first viewpoint image.

제 1 시점 영상에서 사용자는 전경 및 배경 혹은 전경이나 배경 중에서 1개의 영역을 표시할 수 있다(S130). 이렇게 표시된 영역은 사용자 표시 정보이다.In the first viewpoint image, the user may display one area among the foreground and background or the foreground or background (S130). The displayed area is user display information.

사용자에 의해 표시된 영역은 다른 시점 영상에서 시차로 인하여 다른 위치에 존재할 수 있다. 다른 시점 영상에서 제 1 시점 영상에서 표시된 사용자 표시 정보를 찾고, 다른 시점 영상에 찾은 사용자 표시 정보가 반영될 수 있다(S140). 다른 시점 영상에서 제 1 시점 영상의 사용자 표시 정보를 찾기 위해서, 아래의 수학식이 이용될 수 있다. 사용자가 표시한 픽셀들의 컬러값의 유사도(SIM)를 최대화하는 변환 행렬을 찾고, 이러한 변환 행렬을 변환한다.The area displayed by the user may exist at a different location due to parallax in different viewpoint images. The user display information displayed in the first view image may be searched from the other view image, and the user display information found in the other view image may be reflected (S140). In order to find user display information of the first viewpoint image from another viewpoint image, the following equation may be used. Find a transformation matrix that maximizes the similarity (SIM) of the color values of pixels displayed by the user, and transforms the transformation matrix.

Figure pat00005
Figure pat00005

여기서

Figure pat00006
Figure pat00007
은 제 1 시점 영상에서 사용자가 표시한 영역의 각 픽셀의 컬러값이고,
Figure pat00008
Figure pat00009
은 제 1 시점 영상을 제외한 i번째 영상에 제 1 시점 영상에서 사용자가 표시한 영역의 각 픽셀을 변환 행렬(
Figure pat00010
Figure pat00011
) 에 의해 변환한 위치의 픽셀의 컬러값이다.here
Figure pat00006
Figure pat00007
Is a color value of each pixel in a region displayed by the user in the first viewpoint image,
Figure pat00008
Figure pat00009
Transforms each pixel in the area displayed by the user in the first view image to the i-th image except the first view image.
Figure pat00010
Figure pat00011
) Is the color value of the pixel at the position converted by.

한편, 유사도(SIM)을 계산하는 방법은 다양한 방법이 있을 수 있다. 아래에서는 하나의 실시 예로써 다음의 수학식을 이용하여 유사도를 계산한다.Meanwhile, a method of calculating the similarity (SIM) may be various. Below, as an example, similarity is calculated using the following equation.

Figure pat00012
Figure pat00012

상술된 바와 같이, 제 1 시점 영상의 사용자 표시 정보를 나머지 시점 영상에 반영한 후에(S140 이후), 4차원 객체 분할 방법을 적용하여 사용자가 원하는 객체 분할이 수행될 수 있다(S150). 최종적으로 전경/배경 분할 결과가 도출될 수 있다. 이때 객체 분할은 영역 기반 그래프 컷을 이용하여 수행될 수 있다. 영역 기반 그래프 컷을 이용한 객체 분할은, 입력 된 원본 영상에서 관심 영역을 추출하고, 추출된 관심 영역에 대한 필터링을 수행하고, 필터링된 관심 영역의 픽셀들을 그룹화하는 그룹화하고, 그룹화된 픽셀들로 구성된 영역마다 가중치를 산출하고, 산출된 가중치를 이용하여 원본 영상을 관심 영역과 배경 영역으로 분할할 수 있다. 한편, 본 발명의 객체 분할이 영역 기반 그래프 컷에만 제한되지 않는다고 이해되어야 할 것이다.As described above, after reflecting the user display information of the first viewpoint image to the remaining viewpoint images (after S140), an object segmentation desired by the user may be performed by applying a 4D object segmentation method (S150). Finally, the result of the foreground / background segmentation can be derived. In this case, object segmentation may be performed using a region-based graph cut. Object segmentation using region-based graph cut extracts the region of interest from the input original image, performs filtering on the extracted region of interest, and groups the pixels of the filtered region of interest into groups and consists of grouped pixels Weights can be calculated for each region, and the original image can be divided into a region of interest and a background region using the calculated weights. Meanwhile, it should be understood that the object segmentation of the present invention is not limited to area-based graph cuts.

한편, 객체 분할 후에 플렌옵틱 영상의 다중 시점의 초점을 맞추는 동작이 추가로 수행될 수 있다.Meanwhile, an operation of focusing multiple views of the plenoptic image after object division may be additionally performed.

도 3은 일반적인 플렌옵틱 영상 처리 시스템의 플렌옵틱 영상을 객체 분할하는 방법을 예시적으로 보여주는 흐름도이다. 도 3을 참조하면, 제 1 시점 영상에 사용자가 전경 및 배경 모두 표시하거나 전경이나 배경 중에서 하나의 영역을 표시하는 과정들(S210, S220, S230)은 도 2에 도시된 S110, S120, S130과 동일하다.3 is a flowchart exemplarily showing a method of object segmenting a plenoptic image of a general plenoptic image processing system. Referring to FIG. 3, processes (S210, S220, and S230) shown in FIG. 2 are performed by the user displaying the foreground and background on the first viewpoint image or displaying one area among the foreground or background. same.

이후에, 사용자가 제 1 시점 영상을 제외한 임의의 시점 영상을 선택할 수 있다(S240). 이렇게 선택된 영상은 제 2 시점 영상이다. 제 1 시점 영상에서 사용자가 표시한 정보는 제 2 시점 영상에서는 에피폴라라인으로 나타날 수 있다. 제 1 시점 영상에서의 사용자가 표시한 픽셀 한 개가 대응되는 위치가 제 2 시점 영상에서는 라인상에 존재한다. 따라서, 사용자가 제 2 시점 영상에 나타나는 라인 상의 어느 위치에 위치하는지를 결정해주는 확정 과정이 필요하다(S250). 이 확정 과정을 거치면, 자동적으로 제1, 제 2 시점 영상 외의 다른 시점 영상에는 자동으로 사용자 표시정보가 반영된다(S260). 이를 통해 4차원 객체 분할이 진행된다(S270).Thereafter, the user may select an arbitrary viewpoint image except for the first viewpoint image (S240). The selected image is a second viewpoint image. The information displayed by the user in the first viewpoint image may appear as an epipolar line in the second viewpoint image. In the first viewpoint image, a position corresponding to one pixel displayed by the user exists on the line in the second viewpoint image. Therefore, a determination process is needed to determine where the user is located on the line appearing on the second viewpoint image (S250). When this determination process is performed, user display information is automatically reflected to images other than the first and second viewpoint images (S260). Through this, 4D object segmentation is performed (S270).

도 4는 본 발명의 실시 예에 따른 플렌옵틱 처리 장치에서 자동으로 다른 시점 영역에서 사용자 표시정보를 반영한 결과를 예시적으로 보여주는 도면이다. 도 4를 참조하면, 도 4의 (a)와 같이 제 1 시점 영상에서 사용자가 전경과 배경을 표시하면, 도 4의 (b)와 가팅 배경에 해당하는 영역을 기준으로 바운딩 박스(Bounding Box)가 생성될 수 있다. 그러면 다른 시점 영상에 객체에 해당되는 위치에 자동으로 그 바운딩박스가 설정될 수 있다.4 is a diagram illustrating a result of automatically reflecting user display information in another viewpoint area in a plenoptic processing apparatus according to an embodiment of the present invention. Referring to FIG. 4, when a user displays a foreground and a background in a first viewpoint image as shown in FIG. 4 (a), a bounding box based on an area corresponding to FIG. 4 (b) and a garting background Can be generated. Then, the bounding box may be automatically set at a position corresponding to the object in another viewpoint image.

도 5는 일반적인 플렌옵틱 처리 장치에서 사용자가 수동으로 사용자 표시정보를 반영하는 결과를 예시적으로 보여주는 도면이다. 도 5의 (a)에 도시된 바와 같이 사용자가 제 1 시점 영상에 전경과 배경을 표시되고, 도 5의 (b)에 도시된 바와 같이 바운딩 박스가 생성될 수 있다. 도 5의 (c)와 같이, 바운딩 박스가 생성된 후에, 제 2 시점 영상에서 사용자가 에피폴라라인을 기준으로 바운딩 박스를 이동시켜 제 2 시점 영상에서 객체를 포함하는 위치에 바운딩 박스가 위치시켜야 한다.5 is a diagram illustrating a result of a user manually reflecting user display information in a typical plenoptic processing apparatus. As shown in (a) of FIG. 5, a user displays a foreground and a background on a first viewpoint image, and a bounding box may be generated as shown in (b) of FIG. 5. As shown in (c) of FIG. 5, after the bounding box is generated, the user should move the bounding box based on the epipolar line in the second viewpoint image to place the bounding box at the position including the object in the second viewpoint image. do.

도 6은 본 발명의 실시 예에 따른 플렌옵틱 영상 처리 장치(1000)를 예시적으로 보여주는 도면이다. 도 6을 참조하면, 플렌옵틱 영상 처리 장치(1000)는 적어도 하나의 프로세서(1100), 네트워크 인터페이스(1200), 메모리(1300), 디스플레이(1400), 및 입출력 장치(1500)를 포함할 수 있다.6 exemplarily shows a plenoptic image processing apparatus 1000 according to an embodiment of the present invention. Referring to FIG. 6, the plenoptic image processing apparatus 1000 may include at least one processor 1100, a network interface 1200, a memory 1300, a display 1400, and an input / output device 1500. .

프로세서(1100)는 도 1 내지 도 5를 통하여 적어도 하나의 장치를 포함하거나, 도 1 내지 도 5를 통하여 전술한 적어도 하나의 방법으로 구현될 수 있다. 프로세서(1100)는, 상술된 바와 같이, 플렌옵틱 영상 중에서 제 1 시점 영상을 선택하고, 사용자 표시 정보를 생성하기 위하여 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하고, 플렌옵틱 영상 중에서 다른 시점 영상들에서 표시된 사용자 영역을 찾아 사용자 표시 정보를 다른 시점 영상들에 반영하고, 및 반영된 사용자 표시 정보를 이용하여 전경 혹은 배경으로부터 객체를 분할하도록 인스트럭션들(instructions)을 실행할 수 있다.The processor 1100 may include at least one device through FIGS. 1 to 5, or may be implemented by at least one method described above through FIGS. 1 to 5. As described above, the processor 1100 selects a first viewpoint image from among the plenoptic images, displays a user area in the foreground or background in the first viewpoint image to generate user display information, and is different from the plenoptic images. Instructions may be executed to find a user area displayed in viewpoint images, reflect user display information to other viewpoint images, and divide an object from the foreground or background using the reflected user display information.

프로세서(1100)는 프로그램을 실행하고, 플렌옵틱 영상 처리 장치(1000)를 제어할 수 있다. 플렌옵틱 영상 처리 장치(1000)는 입출력 장치(1500)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 혹은 네트워크)에 연결되고, 데이터를 교환할 수 있다. 생성 장치(1000)는 이동 전화, 스마트 폰, PDA, 태블릿 컴퓨터, 랩톱 컴퓨터 등 모바일 장치, 퍼스널 컴퓨터, 태블릿 컴퓨터, 넷북 등 컴퓨팅 장치, 혹은 텔레비전, 스마트 텔레비전, 게이트 제어를 위한 보안 장치 등 전자 제품 등 다양한 전자 시스템을 포함할 수 있다.The processor 1100 may execute a program and control the plenoptic image processing apparatus 1000. The plenoptic image processing apparatus 1000 may be connected to an external device (for example, a personal computer or a network) through the input / output device 1500 and exchange data. The generating device 1000 is a mobile device such as a mobile phone, a smart phone, a PDA, a tablet computer, a laptop computer, a computing device such as a personal computer, a tablet computer, a netbook, or an electronic product such as a television, a smart television, a security device for gate control, etc. It can include various electronic systems.

네트워크 인터페이스(1200)는 외부의 네트워크와 다양한 유/무선 방식에 의해 통신을 수행하도록 구현될 수 있다.The network interface 1200 may be implemented to communicate with an external network by various wired / wireless methods.

메모리(1300)는 컴퓨터에서 읽을 수 있는 명령어(instruction)를 포함할 수 있다. 프로세서(1100)는 메모리(1300)에 저장된 명령어가 프로세서(1100)에서 실행됨에 따라 앞서 언급된 동작들을 수행할 수 있다. 메모리(1300)는 휘발성 메모리 혹은 비휘발성 메모리일 수 있다. 메모리(1300)는 사용자의 데이터를 저장하도록 저장 장치를 포함할 수 있다. 저장 장치는 eMMC(embedded multimedia card), SSD(solid state drive), UFS(universal flash storage) 등 일 수 있다. 저장 장치는 적어도 하나의 비휘발성 메모리 장치를 포함할 수 있다. 비휘발성 메모리 장치는, 낸드 플래시 메모리(NAND Flash Memory), 수직형 낸드 플래시 메모리(Vertical NAND; VNAND), 노아 플래시 메모리(NOR Flash Memory), 저항성 램(Resistive Random Access Memory: RRAM), 상변화 메모리(Phase-Change Memory: PRAM), 자기저항 메모리(Magnetoresistive Random Access Memory: MRAM), 강유전체 메모리(Ferroelectric Random Access Memory: FRAM), 스핀주입 자화반전 메모리(Spin Transfer Torque Random Access Memory: STT-RAM) 등이 될 수 있다.The memory 1300 may include instructions readable by a computer. The processor 1100 may perform the aforementioned operations as the instructions stored in the memory 1300 are executed in the processor 1100. The memory 1300 may be a volatile memory or a nonvolatile memory. The memory 1300 may include a storage device to store user data. The storage device may be an embedded multimedia card (eMMC), a solid state drive (SSD), or universal flash storage (UFS). The storage device may include at least one nonvolatile memory device. Non-volatile memory devices include NAND Flash Memory, Vertical NAND Flash (VNAND), NOR Flash Memory, Resistive Random Access Memory (RRAM), and Phase Change Memory (Phase-Change Memory: PRAM), Magnetoresistive Random Access Memory (MRAM), Ferroelectric Random Access Memory (FRAM), Spin Transfer Torque Random Access Memory (STT-RAM), etc. Can be

이상에서 설명된 실시 예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/혹은 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 혹은 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 혹은 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(Operating System; OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. The embodiments described above may be implemented as hardware components, software components, and / or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an Arithmetic Logic Unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). Arrays, Programmable Logic Units (PLUs), microprocessors, or any other device capable of executing and responding to instructions can be implemented using one or more general purpose computers or special purpose computers. The processing device may perform an operating system (OS) and one or more software applications running on the operating system.

또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 대응하는 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소 (processing element) 및/혹은 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수의 프로세서 혹은 하나의 프로세서 및 하나의 제어기(controller)를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.In addition, the processing device may access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the corresponding technical field may use a processing device to process a plurality of processing elements and / or a plurality of types. It can be seen that it can contain elements. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 혹은 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 혹은 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/혹은 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 혹은 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 혹은 장치, 혹은 전송되는 신호파(signal wave)에 영구적으로, 혹은 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 혹은 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and may be recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for an embodiment or may be known and available to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media, ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

종래의 기술은 모든 시점 영상들에서 독립적으로 사용자가 전경과 배경을 표시하여 다중 시점 기반 플렌옵틱 영상 객체 분할을 수행하거나, 제 1 시점 영상에서 전경과 배경을 표시하고, 제 2 시점영상에서 제 1 시점 영상에서 표시한 부분의 위치를 보정하는 작업을 수행하는 등의 사용자 개입이 많았다. 반면에 본 발명은 기존 2차원 객체 분할 방법에서 사용된 사용자 개입, 즉, 하나의 영상에서 사용자가 전경과 배경을 표시하는 작업만으로 전체 플렌옵틱 영상에서 객체 분할을 수행할 수 있다.In the related art, a user independently displays a foreground and a background to perform multi-view based plenoptic image object segmentation in all viewpoint images, or displays a foreground and a background in a first viewpoint image, and a first in a second viewpoint image. There were many user interventions, such as performing an operation to correct the position of the portion displayed in the viewpoint image. On the other hand, according to the present invention, the user intervention used in the existing 2D object segmentation method, that is, the user can perform object segmentation in the entire plenoptic image by only displaying the foreground and background by the user in one image.

한편, 상술 된 본 발명의 내용은 발명을 실시하기 위한 구체적인 실시 예들에 불과하다. 본 발명은 구체적이고 실제로 이용할 수 있는 수단 자체뿐 아니라, 장차 기술로 활용할 수 있는 추상적이고 개념적인 아이디어인 기술적 사상을 포함할 것이다.Meanwhile, the above-described contents of the present invention are only specific embodiments for carrying out the invention. The present invention will include technical ideas that are abstract and conceptual ideas that can be utilized as future technologies, as well as specific and practically available means themselves.

10: 플렌옵틱 영상 처리 시스템
100: 플렌옵틱 영상 획득 장치
200, 1000: 플렌옵틱 영상 처리 장치
10: Plenoptic image processing system
100: plenoptic image acquisition device
200, 1000: Plenoptic image processing device

Claims (14)

플렌옵틱 영상 처리 장치의 객체 분할 방법에 있어서,
플렌옵틱 영상 중에서 제 1 시점 영상을 선택하는 단계;
사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하는 단계;
상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하는 단계; 및
상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하는 단계를 포함하는 객체 분할 방법.
In the object segmentation method of the plenoptic image processing apparatus,
Selecting a first viewpoint image from the plenoptic images;
Displaying a user area in a foreground or background in the first viewpoint image to generate user display information;
Finding the displayed user area in different viewpoint images among the plenoptic images and reflecting the user display information in the different viewpoint images; And
And dividing an object from the foreground or the background using the reflected user display information.
제 1 항에 있어서,
플렌옵틱 카메라로부터 플렌옵틱 영상을 획득하는 단계를 더 포함하는 객체 분할 방법.
According to claim 1,
And obtaining a plenoptic image from the plenoptic camera.
제 1 항에 있어서,
상기 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾기 위하여 픽셀들의 컬러 값의 유사도(SIM)를 이용하는 것을 특징으로 하는 객체 분할 방법.
According to claim 1,
An object segmenting method characterized by using a similarity (SIM) of color values of pixels to find the displayed user area in the other viewpoint images.
제 3 항에 있어서,
상기 다른 시점 영상들에 반영하는 단계는,
상기 유사도(SIM)를 수학식
Figure pat00013

을 이용하여 계산하는 단계를 더 포함하고,
여기서,
Figure pat00014
는 상기 제 1 시점 영상에서 사용자가 표시한 영역의 각 픽셀의 컬러값이고,
Figure pat00015
는 상기 제 1 시점 영상을 제외한 i번째 영상에서 상기 제 1 시점 영상에서 상기 사용자가 표시한 영역의 각 픽셀을 변환 행렬(
Figure pat00016
)에 의해 변환시킨 위치의 픽셀의 컬러값인 것을 특징으로 하는 객체 분할 방법.
The method of claim 3,
The step of reflecting on the other viewpoint images,
The similarity (SIM) is expressed by the equation
Figure pat00013

Further comprising the step of calculating using,
here,
Figure pat00014
Is a color value of each pixel in a region displayed by the user in the first viewpoint image,
Figure pat00015
In the i-th image excluding the first view image, each pixel of a region displayed by the user in the first view image is transformed matrix (
Figure pat00016
Object color separation method, characterized in that the color value of the pixel at the position converted by.
제 1 항에 있어서,
상기 다른 시점 영상들에 반영하는 단계는,
상기 제 1 시점 영상에 상기 사용자 영역이 표시된 후에 배경에 대응하는 영역을 기준으로 바운딩 박스 생성하는 단계를 더 포함하는 객체 분할 방법.
According to claim 1,
The step of reflecting on the other viewpoint images,
And generating a bounding box based on an area corresponding to a background after the user area is displayed on the first viewpoint image.
제 5 항에 있어서,
상기 다른 시점 영상들에게 반영하는 단계는,
상기 다른 시점 영상들에 상기 객체에 대응하는 위치에 상기 바운딩 박스를 설정하는 단계를 더 포함하는 방법.
The method of claim 5,
The step of reflecting to the other viewpoint images,
And setting the bounding box at a position corresponding to the object in the other viewpoint images.
플렌옵틱 영상 처리 장치에 있어서:
적어도 하나의 프로세서; 및
적어도 하나의 프로세서에 의해 실행되는 적어도 하나의 인스트럭션을 저장하는 메모리를 포함하고,
상기 적어도 하나의 인스트럭션은,
플렌옵틱 영상 중에서 제 1 시점 영상을 선택하고;
사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하고;
상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하고; 및
상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하도록 적어도 하나의 프로세서에서 실행되는 것을 특징으로 플렌옵틱 영상 처리 장치.
In the plenoptic image processing apparatus:
At least one processor; And
And a memory storing at least one instruction executed by at least one processor,
The at least one instruction,
A first viewpoint image is selected from the plenoptic images;
Displaying a user area in a foreground or background in the first viewpoint image to generate user display information;
Find the displayed user area in different viewpoint images among the plenoptic images and reflect the user display information in the different viewpoint images; And
Plenoptic image processing apparatus characterized in that it is executed in at least one processor to divide the object from the foreground or the background using the reflected user display information.
제 7 항에 있어서,
상기 플렌옵틱 영상은 다중 시점 영상인 것을 특징으로 하는 플렌옵틱 영상 처리 장치.
The method of claim 7,
The plenoptic image processing apparatus is characterized in that the multi-view image.
제 7 항에 있어서,
상기 제 1 시점 영상에 상기 사용자 영역이 표시되면, 나머지 시점 영상들에 대응하는 사용자 영역이 표시되는 것을 특징으로 하는 플렌옵틱 영상 처리 장치.
The method of claim 7,
When the user area is displayed on the first viewpoint image, a user area corresponding to the remaining viewpoint images is displayed.
제 9 항에 있어서,
상기 사용자 영역의 픽셀들의 컬러 값의 유사도를 이용하여 상기 나머지 시점 영상들에 대응하는 사용자 영역이 검색되는 것을 특징으로 하는 플렌옵틱 영상 처리 장치.
The method of claim 9,
A plenoptic image processing apparatus, characterized in that a user region corresponding to the remaining viewpoint images is searched by using the similarity of color values of pixels in the user region.
제 9 항에 있어서,
상기 제 1 시점 영상에 상기 사용자 영역이 표시되면, 배경에 대응하는 영역을 기준으로 바운딩 박스가 생성되고,
상기 나머지 시점 영상들에 상기 객체에 대응하는 위치에 바운딩 박스가 설정되는 것을 특징으로 하는 플렌옵틱 영상 처리 장치.
The method of claim 9,
When the user area is displayed on the first viewpoint image, a bounding box is generated based on the area corresponding to the background,
A plenoptic image processing apparatus characterized in that a bounding box is set at a position corresponding to the object in the remaining viewpoint images.
플렌옵틱 카메라로부터 다중 시점의 플렌옵틱 영상을 획득하는 플렌옵틱 영상 획득 장치; 및
상기 플렌옵틱 영상을 4차원 객체 분할하는 플렌옵틱 영상 처리 장치를 포함하고,
상기 플렌옵틱 영상 처리 장치는,
플렌옵틱 영상 중에서 제 1 시점 영상을 선택하고;
사용자 표시 정보를 생성하기 위하여 상기 제 1 시점 영상에서 전경 혹은 배경에서 사용자 영역을 표시하고;
상기 플렌옵틱 영상 중에서 다른 시점 영상들에서 상기 표시된 사용자 영역을 찾아 상기 사용자 표시 정보를 상기 다른 시점 영상들에 반영하고; 및
상기 반영된 사용자 표시 정보를 이용하여 상기 전경 혹은 상기 배경으로부터 객체를 분할하는 것을 특징으로 하는 플렌옵틱 영상 처리 시스템.
A plenoptic image acquisition device for acquiring a multi-view plenoptic image from a plenoptic camera; And
And a plenoptic image processing apparatus for dividing the plenoptic image into 4D objects,
The plenoptic image processing apparatus,
A first viewpoint image is selected from the plenoptic images;
Displaying a user area in a foreground or background in the first viewpoint image to generate user display information;
Find the displayed user area in different viewpoint images among the plenoptic images and reflect the user display information in the different viewpoint images; And
A plenoptic image processing system, characterized in that the object is segmented from the foreground or the background using the reflected user display information.
제 12 항에 있어서,
상기 플렌옵틱 영상 처리 장치는,
상기 제 1 시점 영상에 상기 사용자 영역이 표시될 때, 배경에 대응하는 영역을 기준으로 바운딩 박스를 생성하고, 상기 다른 시점 영상들에 상기 객체에 대응하는 위치에 바운딩 박스를 설정하는 것을 특징으로 하는 플렌옵틱 영상 처리 시스템.
The method of claim 12,
The plenoptic image processing apparatus,
When the user area is displayed on the first viewpoint image, a bounding box is generated based on an area corresponding to a background, and a bounding box is set at a position corresponding to the object in the other viewpoint images. Plenoptic image processing system.
제 12 항에 있어서,
상기 객체 분할한 결과를 저장하는 저장 장치를 더 포함하는 플렌옵틱 영상 처리 시스템.
The method of claim 12,
A plenoptic image processing system further comprising a storage device that stores the result of dividing the object.
KR1020190056707A 2018-11-06 2019-05-15 Plenoptic image processing apparatus, system having the same, and object segmentation method thereof KR102365735B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180135426 2018-11-06
KR20180135426 2018-11-06

Publications (2)

Publication Number Publication Date
KR20200052206A true KR20200052206A (en) 2020-05-14
KR102365735B1 KR102365735B1 (en) 2022-02-22

Family

ID=70737167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190056707A KR102365735B1 (en) 2018-11-06 2019-05-15 Plenoptic image processing apparatus, system having the same, and object segmentation method thereof

Country Status (1)

Country Link
KR (1) KR102365735B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220063879A (en) 2020-11-11 2022-05-18 가온미디어 주식회사 method of decoding plenoptic video by use of pre-processing of color component decomposition
KR20220075537A (en) * 2020-11-30 2022-06-08 한국전자통신연구원 Method and apparatus for transmitting and receiving image in plenoptic system
KR102536352B1 (en) * 2021-12-15 2023-05-26 원광대학교산학협력단 Plenoptic video content data format structure.

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090062440A (en) * 2007-12-13 2009-06-17 한국전자통신연구원 Multi-view matching method and device using foreground/background separation
KR20160045098A (en) * 2013-08-19 2016-04-26 노키아 테크놀로지스 오와이 Method, apparatus and computer program product for object detection and segmentation
KR20160120533A (en) 2015-04-08 2016-10-18 한국전자통신연구원 Image sementation method in light field image
US20160371304A1 (en) 2015-06-17 2016-12-22 Thomson Licensing Method and apparatus for data retrieval in a lightfield database
KR20170005009A (en) * 2014-04-24 2017-01-11 퀄컴 인코포레이티드 Generation and use of a 3d radon image
KR20180066479A (en) * 2016-12-09 2018-06-19 한국전자통신연구원 Automatic object separation method and apparatus using plenoptic refocus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090062440A (en) * 2007-12-13 2009-06-17 한국전자통신연구원 Multi-view matching method and device using foreground/background separation
KR20160045098A (en) * 2013-08-19 2016-04-26 노키아 테크놀로지스 오와이 Method, apparatus and computer program product for object detection and segmentation
KR20170005009A (en) * 2014-04-24 2017-01-11 퀄컴 인코포레이티드 Generation and use of a 3d radon image
KR20160120533A (en) 2015-04-08 2016-10-18 한국전자통신연구원 Image sementation method in light field image
US20160371304A1 (en) 2015-06-17 2016-12-22 Thomson Licensing Method and apparatus for data retrieval in a lightfield database
KR20180066479A (en) * 2016-12-09 2018-06-19 한국전자통신연구원 Automatic object separation method and apparatus using plenoptic refocus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220063879A (en) 2020-11-11 2022-05-18 가온미디어 주식회사 method of decoding plenoptic video by use of pre-processing of color component decomposition
WO2022102814A1 (en) * 2020-11-11 2022-05-19 가온미디어 주식회사 Color element segmentation preprocessing-based plenoptic image decoding method
KR20220075537A (en) * 2020-11-30 2022-06-08 한국전자통신연구원 Method and apparatus for transmitting and receiving image in plenoptic system
KR102536352B1 (en) * 2021-12-15 2023-05-26 원광대학교산학협력단 Plenoptic video content data format structure.

Also Published As

Publication number Publication date
KR102365735B1 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
US9736451B1 (en) Efficient dense stereo computation
AU2016349518B2 (en) Edge-aware bilateral image processing
JP7173772B2 (en) Video processing method and apparatus using depth value estimation
US10217227B2 (en) Feature trackability ranking, systems and methods
KR102365735B1 (en) Plenoptic image processing apparatus, system having the same, and object segmentation method thereof
EP3139602B1 (en) Image processing method and apparatus
CN108876706A (en) It is generated according to the thumbnail of panoramic picture
US11568631B2 (en) Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image
CN114155568A (en) Face image generation method and apparatus
US20200211256A1 (en) Apparatus and method for generating 3d geographic data
US11361548B2 (en) Method and system for multi instance visual tracking based on observer motion modelling
US20140098246A1 (en) Method, Apparatus and Computer-Readable Recording Medium for Refocusing Photographed Image
US11405547B2 (en) Method and apparatus for generating all-in-focus image using multi-focus image
WO2017132011A1 (en) Displaying geographic data on an image taken at an oblique angle
EP4163873A1 (en) Method and apparatus with global localization
KR102358372B1 (en) Stereo matching method and apparatus
Saito et al. In-plane rotation-aware monocular depth estimation using slam
CN116051448A (en) Flat surface detection device and method
CN114937072A (en) Image processing method and device, electronic equipment and computer readable storage medium
Tanács et al. Collaborative mobile 3d reconstruction of urban scenes
Jie et al. Psp-mvsnet: deep patch-based similarity perceptual for multi-view stereo depth inference
US9165208B1 (en) Robust ground-plane homography estimation using adaptive feature selection
JP2019125128A (en) Information processing device, control method and program
KR102541600B1 (en) Apparatus and method for providing a consultation service based on real object recognition
Nguyen et al. Accuracy and robustness evaluation in stereo matching

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant