KR20110074442A - Image processing apparatus, image processing method and recording medium - Google Patents
Image processing apparatus, image processing method and recording medium Download PDFInfo
- Publication number
- KR20110074442A KR20110074442A KR1020100127873A KR20100127873A KR20110074442A KR 20110074442 A KR20110074442 A KR 20110074442A KR 1020100127873 A KR1020100127873 A KR 1020100127873A KR 20100127873 A KR20100127873 A KR 20100127873A KR 20110074442 A KR20110074442 A KR 20110074442A
- Authority
- KR
- South Korea
- Prior art keywords
- light source
- information
- image
- unit
- calculated
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Image Generation (AREA)
Abstract
Description
본 발명은 화상 처리 장치, 화상 처리 방법 및 기록매체에 관한 것이다. The present invention relates to an image processing apparatus, an image processing method and a recording medium.
최근 카메라에 의해 촬영된 화상에 대해 수행되는 화상 처리 기술로서 여러 가지가 개발되고 있다. 특히, 광원 또는 조명에 따라 대상물의 각 부분의 색 정보가 부정확하게 재현되는 것을 개선할 수 있는 기술들이 개발되고 있다.In recent years, various kinds of image processing techniques are performed on images captured by a camera. In particular, techniques have been developed to improve the inaccurate reproduction of color information of each part of an object according to a light source or an illumination.
본 발명의 일 실시 예는 실 공간에 존재하는 광원에 관한 정보를 취득하고 광원에 관한 정보를 반영한 화상을 표시할 수 있는 화상 처리 장치, 화상 처리 방법 및 기록매체를 제공하는 것이다. An embodiment of the present invention is to provide an image processing apparatus, an image processing method, and a recording medium capable of acquiring information on a light source existing in a real space and displaying an image reflecting information on the light source.
상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시 예에 따른 화상 처리 장치는 어안렌즈를 구비하고, 상기 어안렌즈를 통해 화상을 촬영하는 촬영부; 3차원 공간을 규정하는 3차원 모델 정보를 저장하는 기억부; 상기 촬영부에 의해 촬영된 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 광원 갯수 산출부; 상기 산출된 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출부; 상기 저장한 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 3차원 화상 작성부; 및 상기 작성한 3차원 화상을 표시하는 표시부를 포함한다.In order to achieve the above technical problem, an image processing apparatus according to an embodiment of the present invention includes a photographing unit having a fisheye lens and photographing an image through the fisheye lens; A storage unit for storing three-dimensional model information defining a three-dimensional space; A light source number calculating unit for calculating the number of light sources captured by the image capturing unit and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number; A light source information calculation unit calculating a parameter in a real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space; A three-dimensional image creating unit which creates a three-dimensional image based on the stored three-dimensional model information and the calculated light source information; And a display unit for displaying the created three-dimensional image.
상기 광원 정보 산출부는 상기 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 상기 촬영부의 위치를 기준으로 상기 광원의 실 공간에서의 방위를 나타내는 방위 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate, as the light source information, azimuth information indicating an orientation in a real space of the light source based on the position of the photographing unit by projection conversion based on the calculated light source coordinate information.
상기 광원 정보 산출부는 상기 방위 정보와 소정 값에 기초하여 상기 광원의 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit calculates position information indicating the position of the light source in the real space based on the orientation information and a predetermined value as the light source information.
상기 촬영부는 상기 적어도 둘 이상의 어안 렌즈를 포함하고, 상기 둘 이상의 어안렌즈를 통해 각각의 화상을 촬영하고,The photographing unit includes at least two fisheye lenses, photographing each image through the at least two fisheye lenses,
상기 광원 갯수 산출부는 상기 촬영부에 의해 촬영된 각각의 화상에 대해서 광원 갯수와 광원 정보를 산출하고,The light source number calculator calculates a light source number and light source information for each image photographed by the photographing unit,
상기 광원 정보 산출부는 상기 촬영부에 의해 촬영된 각각의 화상에 대해 방위 정보를 산출하고, 상기 산출된 방위 정보에 기초하여 상기 광원의 상기 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit calculates orientation information for each image photographed by the photographing unit, and calculates, as the light source information, position information indicating a position in the real space of the light source based on the calculated orientation information. Characterized in that.
상기 광원 정보 산출부는 상기 산출된 광원 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 강도 및 색 중 적어도 하나를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate at least one of the intensity and the color of the light generated by the light source based on the calculated light source coordinate information as the light source information.
상기 광원 갯수 산출부는 상기 산출한 갯수에 상응하는 광원 영역을 상기 화상으로부터 검출하고, 상기 검출한 광원 영역의 상기 화상에서의 위치를 광원 영역 좌표 정보로서 산출하고,The light source number calculating unit detects a light source region corresponding to the calculated number from the image, calculates a position in the image of the detected light source region as light source region coordinate information,
상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 상기 광원 영역 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate, as the light source information, the spread of light generated by the light source based on the light source region coordinate information calculated by the light source number calculating unit.
상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 광원 영역 좌표 정보에 기초하여 상기 광원 영역을 2개의 벡터로 근사하고, 상기 2개의 벡터에 의해 상기 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit approximates the light source region to two vectors based on the light source region coordinate information calculated by the light source number calculating unit, and calculates the spread of the light as the light source information by the two vectors. It is done.
상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 하나를 상기 3차원 공간에서의 파라미터인 환경 광 정보로서 산출하고,The light source information calculating unit calculates at least one of the intensity and color of the environmental light in the real space as the environmental light information as a parameter in the three-dimensional space based on the light source coordinate information calculated by the light source number calculating unit,
상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 산출된 상기 환경 광 정보에 기초하여 상기 3차원 공간에서의 물체 색을 특정하고, 상기 특정한 물체 색을 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit specifies an object color in the three-dimensional space based on the ambient light information calculated by the light source information calculating unit, and generates a three-dimensional image having the specific object color. .
상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 산출된 광원 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출하고, 상기 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 상기 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit calculates the direction and number of shadows generated in the three-dimensional space based on the light source information calculated by the light source information calculating unit and the three-dimensional model information stored in the storage unit, and calculates the calculated number. A shadow area is specified based on the direction and number of shadows, and a three-dimensional image having a shadow in the specific shadow area is created.
상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 상기 광원 정보로서 산출된 위치 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 반그림자 영역을 특정하고, 상기 특정한 상기 반그림자 영역에 반그림자를 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit specifies a half shadow area generated in the three-dimensional space based on the positional information calculated as the light source information by the light source information calculating unit and the three-dimensional model information stored in the storage unit, and specifies the specific region. And a three-dimensional image having a half shadow in the half shadow area.
상기 광원 정보 산출부는 상기 3차원 화상의 작성에 이전에 사용된 광원 정보인 이전의 광원 정보와 비교하고. 현재의 광원 정보가 변화되었는지 여부를 판단하고,And the light source information calculating unit compares with the previous light source information which is the light source information previously used for creating the three-dimensional image. Determine whether the current light source information has changed,
상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 상기 현재의 광원 정보가 상기 이전의 광원 정보로부터 변화되었다고 판단된 경우에 상기 3차원 화상을 재작성하고,The three-dimensional image creating unit re-creates the three-dimensional image when it is determined by the light source information calculating unit that the current light source information has been changed from the previous light source information,
상기 표시부는 상기 재작성한 상기 3차원 화상을 재표시하는 것을 특징으로 한다.And the display unit displays the recreated three-dimensional image again.
상기 촬영부는 상기 어안렌즈를 통해 상기 화상 처리 장치의 외부에서 수광하여 화상을 촬영하는 것을 특징으로 한다.The photographing unit may receive an image from the outside of the image processing apparatus through the fisheye lens to capture an image.
상기 다른 기술적 과제를 달성하기 위한, 본 발명의 다른 실시 예에 따른 화상 처리 방법은 어안렌즈를 통해 화상을 촬영하는 단계; 상기 촬영한 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 단계; 상기 산출한 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 단계; 미리 저장한 3차원 공간을 규정하는 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 단계; 및 상기 작성한 3차원 화상을 표시하는 단계를 포함한다.In accordance with another aspect of the present invention, an image processing method includes: photographing an image through a fisheye lens; Calculating the number of light sources imprinted on the photographed image, and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number; Calculating a parameter in real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space; Creating a three-dimensional image based on the three-dimensional model information defining the three-dimensional space stored in advance and the calculated light source information; And displaying the created three-dimensional image.
상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 상기 화상 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.In order to achieve the another technical problem, a recording medium including a program for executing the image processing method on a computer according to another embodiment of the present invention is recorded.
본 발명의 일 실시 예는 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시할 수 있다.According to an embodiment of the present invention, information about a light source existing in a real space may be acquired to display an image reflecting information about the light source.
도 1은 본 발명의 일 실시 예에 따른 화상 처리 장치(100)의 개략도이다.
도 2는 도 1에 도시된 화상 처리 장치(100)의 기능 구성을 도시한 도면이다.
도 3은 도 2에 도시된 광원 갯수 산출부(120)의 기능에 대해서 설명하기 위한 도면이다.
도 4는 도 2에 도시된 광원 정보 산출부(140)의 기능에 대해서 설명하기 위한 도면이다.
도 5a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 5b는 일반적인 화상 표시 장치에 의해 표시된 화상의 표시 예를 도시한 도면이다.
도 6a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 6b는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 6c는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 7은 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 방위를 산출하는 것을 설명하기 위한 도면이다.
도 8은 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각을 설명하기 위한 도면이다.
도 9는 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 위치를 산출하는 것을 설명하기 위한 도면이다.1 is a schematic diagram of an
FIG. 2 is a diagram illustrating a functional configuration of the
3 is a view for explaining the function of the light source
4 is a diagram for describing a function of the light source
5A is a diagram illustrating a display example of an image processed by the
5B is a diagram showing a display example of an image displayed by a general image display apparatus.
FIG. 6A is a diagram illustrating a display example of an image processed by the
FIG. 6B is a diagram illustrating a display example of an image processed by the
6C is a diagram illustrating a display example of an image processed by the
FIG. 7 is a diagram for explaining that the light source
FIG. 8 is a diagram for explaining elevation angles and azimuth angles used to calculate the orientation of a light source.
FIG. 9 is a view for explaining that the light source
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components will be given the same reference numerals and redundant description thereof will be omitted. do.
도 1은 본 발명의 일 실시 예에 따른 화상 처리 장치(100)의 개략도이다.1 is a schematic diagram of an
도 1에 도시한 것처럼, 본 발명의 실시 형태에 관한 화상 처리 장치(100)는 적어도 표시부(160)를 구비한 것이며, 표시부(160)는 화상 처리 장치(100)에 의해 처리된 화상을 표시한다. 예를 들면, 도 1에 도시한 것처럼 사용자가 화상 처리 장치(100)에 대해 조작 정보를 입력하기 위한 오브젝트(161)가 표시부(160)에 의해 표시되어 있다. As shown in FIG. 1, the
화상 처리 장치(100)는, 예를 들면 그 주위에 광원(L1) 및 광원(L2)가 마련되어 있으며 광원(L1) 및 광원(L2)에서 발생된 광에 의해 표시부(160)에 의해 표시되어 있는 오브젝트(161)가 조사되어 있다. 여기에서 오브젝트(161)가 입체적으로 구성되어 있는 것을 나타내려면, 광원(L1)에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 오른쪽 아래에 그림자가 표시되도록 하는 것이 바람직하다(오브젝트(161a) 참조). 이 경우의 오른쪽 아래는, 오브젝트(161)를 기준으로 하여 광원(L1)이 존재하는 방향과는 반대 방향이 된다. 따라서, 사용자는 화상 처리 장치(100)를 통해 리얼한 화상을 볼 수 있다.For example, the
마찬가지로 광원(L2)에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 왼쪽 아래에 그림자가 표시되도록 하는 것이 바람직하다(오브젝트(161b) 참조). 이 경우의 왼쪽 아래는, 오브젝트(161)를 기준으로 하여 광원(L2)가 존재하는 방향과는 반대의 방향이 된다. 또 광원(L1)과 광원(L2)의 양쪽에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 오른쪽 아래와 왼쪽 아래에 그림자를 표시하도록 하는 것이 바람직하다(오브젝트(161c) 참조). 특히 오브젝트(161)의 아래에 상당하는 영역은 양쪽의 그림자가 겹치기 때문에 비교적 진한 그림자로서 표시되는 것이 바람직하다.Similarly, it is preferable that the light generated by the light source L2 is irradiated to the
이것을 실현하기 위해 본 발명의 실시 형태에 관한 화상 처리 장치(100)는 촬영부(110)를 구비한 것으로 한다. 촬영부(110)는 적어도 어안렌즈(111)와 촬상 소자(112)를 가지고 있고, 촬상 소자(112)는 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 수광하여 화상을 촬영하는 기능을 가진다. 본 발명의 실시 형태에서는 이와 같이 화상을 촬영하기 위해 사용하는 렌즈로서 평면적인 렌즈(이하, 통상 렌즈라고 한다)가 아닌 어안렌즈(111)를 사용한다. 통상 렌즈의 화각은 180도보다 좁기 때문에 오브젝트(161)를 조사하는 광을 발생시키는 광원이 촬영 범위 내로 수렴되지 않을 가능성이 있다. 하지만, 어안렌즈(111)의 화각은 180도이므로 오브젝트(161)를 조사하는 광을 발생시키는 광원을 촬영 범위 내로 수렴할 수 있다.In order to realize this, it is assumed that the
예를 들면, 적분구(Integrating sphere)를 포함하는 측광 장치를 사용하여 화상 처리 장치(100)를 조사하는 환경 광에 관한 정보를 취득하는 기술로는 환경 광에 관한 정보를 취득할 수 있지만 광원에 관한 정보를 취득할 수 없다. 따라서 상기와 같은 그림자를 표시해야 할 방향 등을 파악할 수 없다. 본 발명의 실시형태에서는 화상 처리 장치(100)가 어안렌즈를 사용하여 촬영할 수 있기 때문에 광원에 관한 정보를 취득할 수 있고 어떠한 방향으로 그림자를 표시해야할지 파악할 수 있다. 또 본 발명의 실시형태에 관한 화상 처리 장치(100)는 광원에 관한 정보를 취득할 수 있기 때문에 광원에 관한 정보와는 별개로 환경 광에 관한 정보를 취득할 수도 있다. For example, a technique for acquiring information about environmental light irradiating the
본 발명의 실시 형태는 어안렌즈(111)를 가진 촬영부(110)에 의해 촬영된 화상을 처리함으로써 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시한다. 이로써 사용자에게 보다 리얼한 화상을 표시할 수 있다.Embodiment of this invention acquires the information about the light source which exists in real space by processing the image picked up by the imaging |
도 2를 참조하여 본 발명의 실시 형태에 관한 화상 처리 장치의 기능 구성에 대해서 설명하기로 한다. 도 2는 도 1에 도시된 화상 처리 장치(100)의 기능 구성을 도시한 도면이다.With reference to FIG. 2, the functional structure of the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 2 is a diagram illustrating a functional configuration of the
도 2에 도시한 것처럼, 본 발명의 실시형태에 관한 화상 처리 장치(100)는 촬영부(110), 광원 갯수 산출부(120), 기억부(130), 광원 정보 산출부(140), 3차원 CG작성부(150) 및 표시부(160)를 포함한다.As shown in FIG. 2, the
촬영부(110)는 어안렌즈(111)를 포함하고, 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 수광하여 화상을 촬영하는 기능을 한다. 촬영부(110)는 어안렌즈(111)를 1 이상 또는 여러 개 포함할 수 있다. 촬영부(110)는 어안렌즈(111) 외에 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 입사된 광을 전기 신호로 변환하는 촬상 소자(112)를 가진다.The photographing
기억부(130)는 3차원 공간을 규정하는 3차원 CG(Computer Graphics)모델 정보(131)를 기억하는 기능을 가진 것이다. 3차원 공간은 표시부(160)에 의해 표시되는 가상적인 공간으로서, 예를 들면 형상, 크기, 위치, 방향, 색 등을 가진 오브젝트에 의해 규정된다. 오브젝트에 대해서는 후술하기로 한다. 3차원 CG모델 정보(131)는 3차원 모델 정보의 일례가 되는 정보이다. 기억부(130)는 기타 화상 처리 장치(100)의 각 구성요소들에 의해 사용되는 데이터나 프로그램 등을 저장한다. The
광원 갯수 산출부(120)는 촬영부(110)에 의해 촬영된 화상에 찍혀 있는 광원의 갯수를 산출하는 광원 갯수 산출 처리를 하여 산출한 갯수분에 상당하는 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출한다. 광원 갯수 산출부(120)의 기능의 상세에 대해서는, 도 3을 참조하여 후술하기로 한다. The light source
광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출한다. 광원 갯수 산출부(120)의 기능의 상세에 대해서는 도 4를 참조하여 후술하기로 한다. The light source
3차원 CG작성부(150)는 기억부(130)에 의해 기억되어 있는 3차원 CG모델 정보(131)와 광원 정보 산출부(140)에 의해 산출된 광원 정보에 기초하여 3차원 화상을 작성한다. 3차원 CG작성부(150)는 3차원 화상 작성부의 일례로서 기능한다. The three-dimensional
표시부(160)는 3차원 CG작성부(150)에 의해 작성된 3차원 화상을 표시한다. 표시부(160)는 기타 화상 처리 장치(100)가 열람하기 위한 정보를 필요에 따라 표시할 수 있다. 표시부(160)는, 예를 들면 표시 장치에 의해 구성될 수 있다.The
여기서, 각각의 구성요소들, 예를 들면 광원 갯수 산출부(120), 광원 정보 산출부(140), 3차원 CG작성부(150)는 CPU, RAM으로 구성되어 CPU가 기억부(130)에 의해 기억되어 있는 프로그램을 RAM에 전개하고 RAM에 전개한 프로그램을 실행함으로써 그 기능이 실현될 수 있다. Here, each of the components, for example, the light source
도 3을 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 갯수 산출부의 기능에 대해서 설명하기로 한다. 도 3은 도 2에 도시된 광원 갯수 산출부(120)의 기능에 대해서 설명하기 위한 도면이다.With reference to FIG. 3, the function of the light source number calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. 3 is a view for explaining the function of the light source
도 3에 도시한 것처럼, 촬영부(110)는 예를 들면 촬영한 결과로서 화상 전체(IMA)를 취득할 수 있다. 화상 전체(IMA)에는 렌즈내 화상(IMB)와 렌즈외 화상(IMC)이 포함되어 있다. 렌즈내 화상(IMB)는 촬영부(110)가 화상 처리 장치(100)의 외부에서 어안렌즈(111)를 통해 수광하여 촬영한 화상이며, 렌즈외 화상(IMC)는 촬영부(110)가 어안렌즈(111)를 통하지 않고 수광하여 촬영한 화상이다. 본 발명의 실시형태에서는 주로 렌즈외 화상(IMC)가 아닌 렌즈내 화상(IMB)를 사용한다. 아울러 광원 위치(P1)는 광원(L1)이 촬영된 부분에 상당하고, 광원 위치(P2)는 광원(L2)이 촬영된 부분에 해당한다.As illustrated in FIG. 3, the photographing
상기와 같이 광원 갯수 산출부(120)는 촬영부(110)에 의해 촬영된 렌즈내 화상(IMB)에 찍혀 있는 광원의 갯수를 산출하는 광원 갯수 산출 처리를 한다. 예를 들면, 광원 갯수 산출부(120)는 렌즈내 화상(IMB)의 히스토그램을 사용하여 소정값 이상의 휘도를 가진 부분을 광원 후보 영역으로 한다. 이 경우의 소정값은, 예를 들면 기억부(130)에 기억시켜둘 수 있다.As described above, the light
도 3에 도시한 예에서는, 렌즈내 화상(IMB)에 나타나 있는 2개의 타원 영역을 광원 후보 영역으로 한다. 여기에서는 광원(L1)과 광원(L2)가 점광원이므로 광원 후보 영역이 타원 영역으로서 촬영되었는데, 광원 후보 영역은 반드시 타원형상이 된다고는 볼 수 없으며, 예를 들면 광원이 길쭉한 형광등과 같은 경우에는 직사각형이 되기도 한다. 이와 같이 광원의 형상에 의해 광원 후보 영역의 형상은 변경될 수도 있다.In the example shown in FIG. 3, the two elliptic regions shown in the intra-lens image IMB are the light source candidate regions. In this case, since the light source L1 and the light source L2 are point light sources, the light source candidate region was photographed as an elliptic region. The light source candidate region is not necessarily elliptical, for example, a rectangular shape when the light source is an elongated fluorescent lamp. It can also be. As such, the shape of the light source candidate region may be changed by the shape of the light source.
이어서 광원 갯수 산출부(120)는 이 광원 후보 영역에 대한 포락선을 검출하고, 포락선으로 둘러싸인 영역이 소정 값 이상의 면적을 가진 것이라면 그 광원 후보 영역을 광원 영역으로 하여 광원 영역에 하나의 광원이 존재하는 것으로 간주한다. 이 경우의 소정값에 대해서도, 예를 들면 기억부(130)에 기억시켜 둘 수 있다. 광원 갯수 산출부(120)는, 예를 들면 광원 영역의 휘도를 척도로 한 중심 위치를 광원 위치로서 검출한다.Subsequently, the light
포락선은 광원 후보 영역을 포함하도록 둘러싸는 선이라면 어떠한 것이어도 좋지만, 광원 후보 영역을 포함하도록 가능한 한 작은 영역을 규정하는 선으로 하는 것이 좋다. 이와 같이 소정 값 이상의 면적을 갖는다고 판단한 영역에 하나의 광원이 존재한다고 간주하는 것은, 단순한 광의 반사에 의해 촬영된 영역에 광원이 존재한다고 오인하는 것을 방지하기 위함이다.The envelope may be any line that encloses the light source candidate region, but may be a line defining a region as small as possible to include the light source candidate region. The reason why one light source exists in an area determined to have an area equal to or greater than a predetermined value is to prevent a mistake in the light source being present in an area photographed by simple reflection of light.
도 3에 도시한 예에서는, 광원 갯수 산출부(120)는, 예를 들면 포락선으로 둘러싸인 영역으로서 직사각형 영역(IM1)과 직사각형 영역(IM2)을 검출한다. 광원 갯수 산출부(120)는 직사각형 영역(IM1)과 직사각형 영역(IM2) 모두 소정 값 이상의 면적을 가진다고 판단하고 2개의 타원 영역 각각을 광원 영역으로 간주한다. 또 광원 갯수 산출부(120)는 2개의 광원 영역의 중심을 각각의 광원 좌표 정보로 하여 광원 위치(P1) 및 광원 위치(P2)로서 산출한다.In the example shown in FIG. 3, the light source
이상에 설명한 것처럼, 광원 갯수 산출부(120)는 우선 촬영부(110)에 의해 촬영된 렌즈내 화상(IMB)에 찍혀 있는 광원의 갯수를 산출하고, 산출한 갯수분에 상당하는 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출한다. 이와 같이 광원 좌표를 산출하기 전에 광원의 갯수를 산출하는 것은, 2개의 광원을 포함하는 영역을 하나의 광원 영역으로 간주하고, 그 광원 영역의 휘도를 척도로 한 중심 위치를 광원 위치로 오인하는 것을 방지하기 위함이다.As described above, the light source
도 4를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부의 기능에 대해서 설명하기로 한다. 도 4는 도 2에 도시된 광원 정보 산출부(140)의 기능에 대해서 설명하기 위한 도면이다.With reference to FIG. 4, the function of the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. 4 is a diagram for describing a function of the light source
상기와 같이 광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출 처리를 한다. 도 3에 도시한 예에서는, 광원 갯수 산출부(120)는 렌즈내 화상(IMB)에서의 광원 좌표로서 광원 위치(P1) 및 광원 위치(P2)를 산출하였다. 도 4에 도시한 예에서는, 광원 정보 산출부(140)는 렌즈내 화상(IMB)에서의 광원 위치(P1) 및 광원 위치(P2)에 기초하여 광원(L1) 및 광원(L2)에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출한다. 광원에 관한 실 공간에서의 파라미터에는 여러 가지가 있지만, 예를 들면 광원의 방위, 위치, 광원에서 발생되는 광의 강도, 색, 퍼짐 등을 포함한다. 광원 정보 산출부(140)는 이들 값을 직사각형 영역(직사각형 영역(IM1)이나 직사각형 영역(IM2))마다 산출한다.As described above, the light
광원 정보 산출부(140)는, 예를 들면 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 촬영부(110)의 위치를 기준으로 한 광원의 실 공간에서의 방위를 나타내는 방위 정보를 광원 정보로서 산출한다. 방위 정보의 산출 수법에 대해서는, 도 7 및 도 8을 참조하여 후술하기로 한다. 또 광원 정보 산출부(140)는 광원의 실 공간에서의 위치를 나타내는 위치 정보를 광원 정보로서 산출할 수도 있다. 광원의 위치 정보의 산출 수법에도 여러 가지가 있는데, 예를 들면 방위 정보와 소정값에 기초하여 산출하는 수법이나 여러 개의 어안렌즈를 사용하여 산출하는 수법 등이 있다. 전자에 대해서는 도 7 및 도 8을 참조하여 후술하기로 한다. 후자에 대해서는 도 9를 참조하여 후술하기로 한다.The light source
광원 정보 산출부(140)에 의해 여러 개의 광원의 위치가 산출된 경우에는, 3차원 CG작성부(150)는 여러 개의 광원의 위치에 기초하여 반그림자를 포함한 3차원 화상을 생성할 수 있다. 반그림자는 여러 개의 광원 중 일부의 광원에서 발생된 광이 도달하지 않기 때문에 생기는 그림자이다. 보다 상세하게는, 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 광원 정보로서 산출된 위치 정보와 기억부(130)에 의해 기억되어 있는 3차원 모델 정보에 기초하여 3차원 공간에 생기는 반그림자 영역을 특정하고, 특정한 반그림자 영역에 반그림자를 가진 3차원 화상을 작성한다.When the positions of the plurality of light sources are calculated by the light source
광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에서 발생되는 광의 강도 및 색 중 적어도 한쪽을 광원 정보로 하여 방위 정보에 추가하여 산출할 수도 있다. 광원 정보 산출부(140)는, 예를 들면 광원의 강도로서, 광원 위치(P1) 또는 광원 위치(P2)의 화소값과 촬영부(110)의 노출값에 기초하여 산출한다. 광원 위치의 화소값은, 광원 위치의 RGB의 3개를 사용한 연산에 의해 산출된다. 촬영부(110)의 노출값은 조리개값과 노광 시간 또는 셔터 스피드에 의해 정해지는 노출 정도를 나타내는 값이다. 또 광원 정보 산출부(140)는, 예를 들면 광원의 색으로서, 광원 위치(P1) 또는 광원 위치(P2)의 RGB에 기초하여 산출한다.The light source
광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 영역 좌표 정보에 기초하여 광원에서 발생되는 광의 퍼짐을 광원 정보로서 방위 정보에 추가하여 산출할 수 있다. 보다 상세하게는, 광원 정보 산출부(140)는, 예를 들면 광원 갯수 산출부(120)에 의해 산출된 광원 영역 좌표 정보에 기초하여 광원 영역을 2개의 벡터로 근사하고 2개의 벡터에 의해 광의 퍼짐으로서 사용할 수 있다. The light
도 4에 도시한 예에서는, 광원 정보 산출부(140)가 직사각형 영역(IM1)에 존재하는 광원 영역의 단축을 벡터(V1a), 장축을 벡터(V1b)로 근사하고, 직사각형 영역(IM2)에 존재하는 광원 영역의 장축을 벡터(V2a), 단축을 벡터(V2b)로 근사하는 경우에 대해서 도시되어 있다. 그러나 광원 영역을 2개의 벡터로 근사하는 수법에 대해서는 특별히 한정되지 않는다. 광원 정보 산출부(140)는, 예를 들면 광원 영역이 직사각형인 경우에는 직사각형의 종횡을 2개의 벡터로 근사할 수도 있다. 또 정확하게 장축, 단축, 종횡을 벡터로 근사하는 경우뿐 아니라 소정의 정수를 곱한 벡터로 근사할 수도 있다. In the example shown in FIG. 4, the light source
광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 한쪽을 3차원 공간에서의 파라미터인 환경 광 정보로서 광원 정보 이외에 더 산출할 수도 있다. 광원 정보 산출부(140)는, 예를 들면 렌즈내 화상(IMB) 중에서 직사각형 영역(IM1)이나 직사각형 영역(IM2)에 속하지 않는 영역의 화소값과 노출값에 기초하여 실 공간에서의 환경 광의 강도를 산출할 수 있다.The light source
또 광원 정보 산출부(140)는, 예를 들면 렌즈내 화상(IMB) 중 직사각형 영역(IM1)이나 직사각형 영역(IM2)에 속하지 않는 영역의 RGB에 기초하여 실 공간에서의 환경 광의 색을 산출할 수 있다. 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 산출된 환경 광 정보에 기초하여 3차원 공간에서의 물체의 색을 특정하고, 특정한 물체 색을 가진 3차원 화상을 작성한다. 환경 광 정보는 광원으로부터의 광이 닿지 않는 부분의 밝기에 특히 크게 기여하는 요소이다. 광원으로부터의 광이 닿지 않는 부분이란, 다음의 설명에 등장하는 그림자가 생기는 부분을 의미한다.In addition, the light source
이와 같이 본 발명의 실시형태에서는 화상 처리 장치(100)는 어안렌즈를 사용하여 촬영한 화상에서 광원에 관한 정보를 취득할 수 있기 때문에 광원에 관한 정보와는 구별된 환경 광에 관한 정보를 취득할 수 있다. 예를 들면 어안렌즈가 아닌 적분구 등을 사용하여 적분구에 들어가는 광에 관한 정보를 취득한 경우에는 취득한 정보로부터 광원에 관한 정보와 환경 광에 관한 정보를 나눌 수 없다.As described above, in the embodiment of the present invention, since the
도 5a를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 광원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 5a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.The case where one light source exists as an example of display of the image processed by the image processing apparatus which concerns on embodiment of this invention with reference to FIG. 5A is demonstrated. 5A is a diagram illustrating a display example of an image processed by the
도 5a에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(200)가 표시하는 화면(210a)에는 오브젝트(220a)가 포함되어 있다. 이 오브젝트(220a)는 3차원 CG모델 정보(131)에 의해 규정되어 있으며 3차원 화상으로서 표시부(160)에 표시된다. 여기에서 도 5a에 도시한 것처럼 오브젝트(220a)에는 화면(210a)에 대해 수직 방향으로 높이를 가진 오브젝트(231) 및 오브젝트(232)가 포함되어 있다. 그와 같은 경우에는 화상 처리 장치(200)의 광원 정보 산출부(140)가 가진 기능에 의해 화상 처리 장치(200)를 조사하는 광을 발생시키는 광원에 관한 정보가 취득된다. 또 화상 처리 장치(200)의 3차원 CG작성부(150)가 가진 기능에 의해 광원에 관한 정보에 기초한 그림자(241) 및 그림자(242)가 화면(210a)에 표시된다. 이로써 화상 처리 장치(200)를 실내에 설치한 경우에 화상 처리 장치(200) 주위의 환경과의 친화감을 증대시킨 화면(210a)을 표시할 수 있다.As shown in FIG. 5A, the
더욱 상세하게는, 화상 처리 장치(200)의 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 산출된 광원 정보와 기억부(130)에 의해 기억되어 있는 3차원 CG모델 정보(131)에 기초하여 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출한다. 3차원 CG작성부(150)는 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성한다. 표시부(160)는 3차원 CG작성부(150)에 의해 생성된 3차원 화상을 표시한다.More specifically, the three-dimensional
최근에는 디지털 포토 프레임, 스마트폰, 타블렛PC 등 휴대 가능한 디스플레이가 널리 유통되고 있다. 이러한 디스플레이는 사용되는 환경이 변화되는 경우가 많아 광원에 적응적인 표현을 하는 것이 특히 유용하다. 또 판매 대상이 되는 상품의 견본 등을 입체적으로 표시할 때 광원에 적응된 음영이 첨부된 화상을 표시함으로써 구입자가 실제로 상품을 입수했을 때의 인상과 견본을 열람했을 때의 인상 사이에 생기는 차이를 줄일 수 있다.Recently, portable displays such as digital photo frames, smart phones, and tablet PCs have been widely distributed. Such a display is often useful, because the environment used is often changed. In addition, when displaying a sample of a product to be sold in three dimensions, an image with a shade adapted to a light source is displayed so that the difference between an impression when the purchaser actually obtains the product and an impression when the sample is viewed is displayed. Can be reduced.
또 화상 처리 장치(200)는 설치되는 환경이 변화됨으로써 광원의 정보를 조속히 산출하여 표시 대상의 화상을 변화 후의 환경에 맞춘 3차원 화상에 즉시성을 가지고 변경할 수도 있다. 보다 상세하게는 광원 정보 산출부(140)는 3차원 화상의 작성에 전회 사용된 광원 정보인 전회의 광원 정보와 비교하여 현재의 광원 정보가 변화되었는지 여부를 판단하고, 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 현재의 광원 정보가 전회의 광원 정보로부터 변화되었다고 판단된 경우에 3차원 화상을 재작성하고, 표시부(160)는 3차원 CG작성부(150)에 의해 재작성된 3차원 화상을 재표시한다.In addition, the
도 5b를 참조하여 일반적인 화상 처리 장치에 의해 표시된 화상의 표시예ㄹ로서, 광원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 5b는 일반적인 화상 표시 장치에 의해 표시된 화상의 표시 예를 도시한 도면이다.A case in which one light source exists as an example of display of an image displayed by a general image processing apparatus will be described with reference to FIG. 5B. 5B is a diagram showing a display example of an image displayed by a general image display apparatus.
도 5b에 도시한 것처럼, 일반적인 화상 처리 장치는 오브젝트(220b)를 포함한 화면(210b)를 표시하고 있다. 오브젝트(220b)는 오브젝트(231) 및 오브젝트(232)를 가지지만, 오브젝트(231) 및 오브젝트(232)가 존재함으로써 생기는 그림자는 오브젝트(220b)에는 특별히 나타나 있지 않다.As shown in FIG. 5B, a general image processing apparatus displays a
도 6a를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 6a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6A, the case where one point light source exists as an example of display of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 6A is a diagram illustrating a display example of an image processed by the
도 6a에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310a)을 표시하고 있으며, 화면(310a)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S1)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광 원이 1개 존재하는 경우에 대해 나타나 있다.As shown in FIG. 6A, the
도 6b를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원이 2개 존재하는 경우에 대해서 설명하기로 한다. 도 6b는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6B, the case where two point light sources exist as a display example of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 6B is a diagram illustrating a display example of an image processed by the
도 6b에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310b)을 표시하고 있으며, 화면(310b)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S2) 및 방향(S3)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광 원이 2개 존재하는 경우에 대해 나타나 있다.As shown in FIG. 6B, the
도 6c를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원 1개와 면 광원 1개가 존재하는 경우에 대해서 설명하기로 한다. 도 6c는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6C, the case where one point light source and one surface light source exist as a display example of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. 6C is a diagram illustrating a display example of an image processed by the
도 6c에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310c)을 표시하고 있고, 화면(310b)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S2) 및 방향(S3)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광원이 1개, 면광원이 1개 존재하는 경우에 대해서 나타나 있다. 면 광원에서 광이 조사되기 때문에 방향(S2)에 생기는 그림자는 경계가 완만하게 되어 있다. 이것은 화상 처리 장치(300)의 광원 정보 산출부(140)에 의해 광원의 퍼짐을 나타내는 정보가 광원 정보로서 취득되어 화상 처리 장치(300)의 3차원 CG작성부(150)가 광원의 확대를 고려한 3차원 화상을 작성했기 때문이다.As shown in FIG. 6C, the
도 7을 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부가 광원 정보로서 광원의 방위를 산출하는 수법에 대해서 설명하기로 한다. 도 7은 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 방위를 산출하는 것을 설명하기 위한 도면이다. 여기에서는 화상 처리 장치(100)가 사용하는 어안렌즈(111)는 하나를 가정한다. With reference to FIG. 7, the method which calculates the orientation of a light source as light source information is demonstrated with the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention. FIG. 7 is a diagram for explaining that the light source
광원의 렌즈내 화상(IMB)에서의 광원 좌표(i,j)가 2차원 좌표로서 얻어지고, 어안렌즈(111)는 정거 도법(equidistant projection) 중 하나인 정거 원통 도법으로 렌즈내 화상(IMB)에 광을 투영하고 있으며 화상 내에서 90도가 되는 길이를 W라고 한다. 이때 광원 좌표(i,j)와 광원의 방위(방위각, 앙각)=(θ,φ)의 관계는 다음 수학식 1로 표현된다. 앙각 및 방위각의 정의는 도 8에 도시하였다.The light source coordinates i, j in the intra-lens image IMB of the light source are obtained as two-dimensional coordinates, and the
3차원 CG작성부(150)가 3차원 CG에서 반그림자를 그리지 않는 경우에는 광원의 방향을 사용하면 광원의 위치를 알 수 없더라도 그림자를 작성할 수 있다. 3차원 CG작성부(150)가 반그림자를 그릴 때에는 적절한 반경(R)을 설정하고 다음 수학식 2에 의해 얻어지는 광원 좌표(x,y,z)를 사용한다. 반경(R)은, 예를 들면 기억부(130)에 기억시켜 둘 수 있어 화상 처리 장치(100)를 관리하는 관리자 등이 적절히 변경할 수 있다.When the 3D
도 8을 참조하여 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각에 대해서 설명하기로 한다. 도 8은, 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각에 대해서 설명하기 위한 도면이다.An elevation angle and an azimuth angle used to calculate an orientation of a light source will be described with reference to FIG. 8. 8 is a diagram for explaining elevation angles and azimuth angles used to calculate the orientation of the light source.
화상 처리 장치(100)에 의해 광원의 방향을 산출하기 위해 사용되는 앙각, 방위각은, 예를 들면 도 8에 도시한 것처럼 정의된다.The elevation angle and azimuth angle used for calculating the direction of the light source by the
도 9를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부가 광원 정보로서 광원의 위치를 산출하는 수법에 대해서 설명하기로 한다. 도 9는 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 위치를 산출하는 것을 설명하기 위한 도면이다. 여기에서는 화상 처리 장치(100)가 사용하는 어안렌즈(111)는 여러 개로 가정한다. With reference to FIG. 9, the method to calculate the position of a light source as a light source information in the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 9 is a view for explaining that the light source
어안렌즈(111)가 여러 개 있는 경우에는 반경(R)을 가정하지 않아도 광원 좌표를 얻을 수 있다. 간단하게는 어안렌즈(111)가 2개 있고 각각의 실 공간에서의 좌표(x1,y1,z1),(x2,y2,z2)는 화상 처리 장치(100)에서 미리 알고 있는 것이고 각각의 어안렌즈(111)에서 광원의 방위(θ1,φ1),(θ2,φ2)는 화상 처리 장치(100)에 의해 산출 완료된다. 이때 광원의 방향 벡터(v1x,v1y,v1z),(v2x,v2y,v2z)는 다음 수학식 3으로 표현된다.If there are several
상기 수학식 3을 사용하면 광원의 좌표(x,y,z)는 다음 수학식 4로 표현된다.Using Equation 3, the coordinates (x, y, z) of the light source are represented by the following Equation 4.
여기에서 s,t는 매개 변수이고, 다음 수학식 5로 정의된다(†는 Moore-Penrose의 일반 역행렬을 표시한다). 여기서, 광원 수가 2개가 아닌 n개(n이 3 이상)가 되어도 유효하다.Where s, t is a parameter and is defined by Equation 5 († denotes Moore-Penrose's general inverse matrix): Here, it is effective even if the number of light sources is n (n is 3 or more) instead of two.
이상 설명한 것처럼 본 실시형태에 관한 기술은 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시할 수 있다. 따라서, 사용자는 화상 처리 장치(100)를 통해 리얼한 화상을 볼 수 있다. As described above, the technique according to the present embodiment can acquire information about the light source existing in the real space and display an image reflecting the information about the light source. Therefore, the user can see the real image through the
본 발명에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An apparatus according to the present invention may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, Devices, and the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.
본 발명에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 본 발명에서 전체적으로 병합하여 나타낸 것과 동일하게 본 발명에 병합될 수 있다.All documents including publications, patent applications, patents, etc. cited in the present invention can be incorporated into the present invention in the same manner as each cited document individually and concretely, .
본 발명의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 본 발명의 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 본 발명은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. In order to facilitate understanding of the present invention, reference will be made to the preferred embodiments shown in the drawings, and specific terminology is used to describe the embodiments of the present invention. However, the present invention is not limited to the specific terminology, Lt; / RTI > may include all elements commonly conceivable by those skilled in the art.
본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.The invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, the present invention is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. You can employ them. Similar to the components of the present invention that may be implemented with software programming or software components, the present invention may be implemented as a combination of C, C ++, and C ++, including various algorithms implemented with data structures, processes, routines, , Java (Java), assembler, and the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, the present invention may employ the prior art for electronic environment setting, signal processing, and / or data processing. Terms such as "mechanism", "element", "means" and "configuration" can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.
본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the invention in detail and is not to be construed as a limitation on the scope of the invention, It is not. In addition, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made depending on design conditions and factors within the scope of the appended claims or equivalents thereof.
100 화상 처리 장치
110 촬영부
111 어안렌즈
112 촬상소자
120 광원 갯수 산출부
130 기억부
131 3차원 CG모델 정보(3차원 모델 정보)
1140 광원 정보 산출부
150 3차원 CG작성부(3차원 화상 작성부)
160 표시부100 image processing unit
110 Shooting Department
111 Fisheye Lens
112 image pickup device
120 Number of Light Sources
130 memory
131 3D CG Model Information (3D Model Information)
1140 light source information calculation unit
150 3D CG Creator (3D Image Creator)
160 display
Claims (14)
3차원 공간을 규정하는 3차원 모델 정보를 저장하는 기억부;
상기 촬영부에 의해 촬영된 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 광원 갯수 산출부;
상기 산출된 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출부;
상기 저장한 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 3차원 화상 작성부; 및
상기 작성한 3차원 화상을 표시하는 표시부를 포함하는 화상 처리 장치.A photographing unit having a fisheye lens and photographing an image through the fisheye lens;
A storage unit for storing three-dimensional model information defining a three-dimensional space;
A light source number calculating unit for calculating the number of light sources captured by the image capturing unit and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number;
A light source information calculation unit calculating a parameter in a real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space;
A three-dimensional image creating unit which creates a three-dimensional image based on the stored three-dimensional model information and the calculated light source information; And
An image processing apparatus comprising a display unit for displaying the created three-dimensional image.
상기 광원 정보 산출부는,
상기 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 상기 촬영부의 위치를 기준으로 상기 광원의 실 공간에서의 방위를 나타내는 방위 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method of claim 1,
The light source information calculation unit,
And the orientation information indicating the orientation in the real space of the light source with respect to the position of the photographing unit based on the calculated light source coordinate information as the light source information.
상기 광원 정보 산출부는,
상기 방위 정보와 소정 값에 기초하여 상기 광원의 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method of claim 2,
The light source information calculation unit,
And position information indicating a position in a real space of the light source based on the orientation information and a predetermined value as the light source information.
상기 촬영부는,
상기 적어도 둘 이상의 어안 렌즈를 포함하고, 상기 둘 이상의 어안렌즈를 통해 각각의 화상을 촬영하고,
상기 광원 갯수 산출부는,
상기 촬영부에 의해 촬영된 각각의 화상에 대해서 광원 갯수와 광원 정보를 산출하고,
상기 광원 정보 산출부는,
상기 촬영부에 의해 촬영된 각각의 화상에 대해 방위 정보를 산출하고, 상기 산출된 방위 정보에 기초하여 상기 광원의 상기 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method of claim 2,
Wherein,
Including at least two fisheye lenses, photographing each image through the at least two fisheye lenses,
The light source number calculation unit,
Calculating light source number and light source information for each image photographed by the photographing unit;
The light source information calculation unit,
Azimuth information is calculated for each image photographed by the photographing unit, and based on the calculated azimuth information, positional information indicating a position in the real space of the light source is calculated as the light source information. Image processing apparatus.
상기 광원 정보 산출부는,
상기 산출된 광원 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 강도 및 색 중 적어도 하나를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method according to any one of claims 2 to 4,
The light source information calculation unit,
And at least one of an intensity and a color of light generated by the light source based on the calculated light source coordinate information as the light source information.
상기 광원 갯수 산출부는,
상기 산출한 갯수에 상응하는 광원 영역을 상기 화상으로부터 검출하고, 상기 검출한 광원 영역의 상기 화상에서의 위치를 광원 영역 좌표 정보로서 산출하고,
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 상기 광원 영역 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method according to any one of claims 2 to 4,
The light source number calculation unit,
Detecting a light source region corresponding to the calculated number from the image, calculating a position in the image of the detected light source region as light source region coordinate information,
The light source information calculation unit,
And the spread of light generated by the light source as the light source information based on the light source region coordinate information calculated by the light source number calculation unit.
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 광원 영역 좌표 정보에 기초하여 상기 광원 영역을 2개의 벡터로 근사하고, 상기 2개의 벡터에 의해 상기 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.The method according to claim 6,
The light source information calculation unit,
An image processing apparatus characterized by approximating the light source region to two vectors based on the light source region coordinate information calculated by the light source number calculating unit, and calculating the spread of the light as the light source information by the two vectors. .
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 하나를 상기 3차원 공간에서의 파라미터인 환경 광 정보로서 산출하고,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 산출된 상기 환경 광 정보에 기초하여 상기 3차원 공간에서의 물체 색을 특정하고, 상기 특정한 물체 색을 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.The method of claim 1,
The light source information calculation unit,
Calculating at least one of the intensity and the color of the environmental light in the real space based on the light source coordinate information calculated by the light source number calculating unit as the environmental light information as a parameter in the three-dimensional space,
The three-dimensional image creation unit,
An object color in the three-dimensional space is specified based on the ambient light information calculated by the light source information calculating unit, and a three-dimensional image having the specific object color is created.
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 산출된 광원 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출하고, 상기 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 상기 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.The method of claim 1,
The three-dimensional image creation unit,
The direction and number of shadows generated in the three-dimensional space are calculated based on the light source information calculated by the light source information calculating unit and the three-dimensional model information stored in the storage unit. Specifying a shadow area on the basis of the shadow area, and creating a three-dimensional image having a shadow in the specific shadow area.
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 상기 광원 정보로서 산출된 위치 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 반그림자 영역을 특정하고, 상기 특정한 상기 반그림자 영역에 반그림자를 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.The method according to claim 3 or 4,
The three-dimensional image creation unit,
Based on the positional information calculated as the light source information by the light source information calculating unit and the three-dimensional model information stored in the storage unit, a half shadow region generated in the three-dimensional space is specified, and a half shadow is formed in the specific half shadow region. An image processing apparatus characterized by creating a three-dimensional image.
상기 광원 정보 산출부는,
상기 3차원 화상의 작성에 이전에 사용된 광원 정보인 이전의 광원 정보와 비교하고. 현재의 광원 정보가 변화되었는지 여부를 판단하고,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 상기 현재의 광원 정보가 상기 이전의 광원 정보로부터 변화되었다고 판단된 경우에 상기 3차원 화상을 재작성하고,
상기 표시부는,
상기 재작성한 상기 3차원 화상을 재표시하는 것을 특징으로 하는 화상 처리 장치.The method of claim 1,
The light source information calculation unit,
Compare with previous light source information which is light source information previously used for the creation of the three-dimensional image. Determine whether the current light source information has changed,
The three-dimensional image creation unit,
Reconstruct the three-dimensional image when it is determined by the light source information calculating unit that the current light source information has been changed from the previous light source information,
The display unit,
And re-display the recreated three-dimensional image.
상기 촬영부는,
상기 어안렌즈를 통해 상기 화상 처리 장치의 외부에서 수광하여 화상을 촬영하는 것을 특징으로 하는 화상 처리 장치. The method of claim 1,
Wherein,
And an image is received by the outside of the image processing apparatus through the fisheye lens to capture an image.
상기 촬영한 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 단계;
상기 산출한 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 단계;
미리 저장한 3차원 공간을 규정하는 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 단계; 및
상기 작성한 3차원 화상을 표시하는 단계를 포함하는 화상 처리 방법.Photographing an image through a fisheye lens;
Calculating the number of light sources imprinted on the photographed image, and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number;
Calculating a parameter in real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space;
Creating a three-dimensional image based on the three-dimensional model information defining the three-dimensional space stored in advance and the calculated light source information; And
An image processing method comprising the step of displaying the created three-dimensional image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/978,281 US20110157314A1 (en) | 2009-12-24 | 2010-12-23 | Image Processing Apparatus, Image Processing Method and Recording Medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2009-293471 | 2009-12-24 | ||
JP2009293471A JP5506371B2 (en) | 2009-12-24 | 2009-12-24 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110074442A true KR20110074442A (en) | 2011-06-30 |
Family
ID=44346787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100127873A KR20110074442A (en) | 2009-12-24 | 2010-12-14 | Image processing apparatus, image processing method and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5506371B2 (en) |
KR (1) | KR20110074442A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130060158A (en) * | 2011-11-29 | 2013-06-07 | 삼성전자주식회사 | Image processing apparatus and method |
WO2019083266A1 (en) * | 2017-10-24 | 2019-05-02 | 엘지전자 주식회사 | Method for transmitting/receiving 360-degree video including fisheye video information, and device therefor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6812271B2 (en) * | 2017-02-27 | 2021-01-13 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5797475A (en) * | 1980-12-10 | 1982-06-17 | Meidensha Electric Mfg Co Ltd | Measuring method for position of energy source |
JPH01106284A (en) * | 1987-10-20 | 1989-04-24 | Fujitsu Ltd | Three-dimensional image display control device |
EP0447226A3 (en) * | 1990-03-16 | 1993-05-12 | Hewlett-Packard Company | Computer graphics method for adding specular reflections to images with shadow penumbrae |
US6226006B1 (en) * | 1997-06-27 | 2001-05-01 | C-Light Partners, Inc. | Method and apparatus for providing shading in a graphic display system |
US6647146B1 (en) * | 1997-08-05 | 2003-11-11 | Canon Kabushiki Kaisha | Image processing apparatus |
JPH11175762A (en) * | 1997-12-08 | 1999-07-02 | Katsushi Ikeuchi | Light environment measuring instrument and device and method for shading virtual image using same |
US8100552B2 (en) * | 2002-07-12 | 2012-01-24 | Yechezkal Evan Spero | Multiple light-source illuminating system |
JP4274377B2 (en) * | 2003-05-30 | 2009-06-03 | ラティス・テクノロジー株式会社 | 3D graphics data display device |
JP4436101B2 (en) * | 2003-09-29 | 2010-03-24 | 学校法人東京理科大学 | robot |
US7750936B2 (en) * | 2004-08-06 | 2010-07-06 | Sony Corporation | Immersive surveillance system interface |
JP2006107093A (en) * | 2004-10-05 | 2006-04-20 | Konica Minolta Medical & Graphic Inc | Image processor and program |
JP2008041107A (en) * | 2007-09-10 | 2008-02-21 | Sanyo Electric Co Ltd | Imaging apparatus and image synthesizer |
US8289318B1 (en) * | 2008-08-29 | 2012-10-16 | Adobe Systems Incorporated | Determining three-dimensional shape characteristics in a two-dimensional image |
KR20110068469A (en) * | 2009-12-16 | 2011-06-22 | 인하대학교 산학협력단 | The method for 3d object information extraction from single image without meta information |
-
2009
- 2009-12-24 JP JP2009293471A patent/JP5506371B2/en active Active
-
2010
- 2010-12-14 KR KR1020100127873A patent/KR20110074442A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130060158A (en) * | 2011-11-29 | 2013-06-07 | 삼성전자주식회사 | Image processing apparatus and method |
WO2019083266A1 (en) * | 2017-10-24 | 2019-05-02 | 엘지전자 주식회사 | Method for transmitting/receiving 360-degree video including fisheye video information, and device therefor |
Also Published As
Publication number | Publication date |
---|---|
JP5506371B2 (en) | 2014-05-28 |
JP2011134133A (en) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US10171728B2 (en) | Image processing device, photographing control method, and program | |
JP6685827B2 (en) | Image processing apparatus, image processing method and program | |
US10923004B2 (en) | Information processing apparatus, information processing method, and computer program product for arranging a planar image within a panoramic image | |
US11663733B2 (en) | Depth determination for images captured with a moving camera and representing moving features | |
JP7007348B2 (en) | Image processing equipment | |
JPWO2018235163A1 (en) | Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method | |
CN112272292B (en) | Projection correction method, apparatus and storage medium | |
JP6576083B2 (en) | Image processing apparatus, image processing method, and program | |
US20130120451A1 (en) | Image processing device, image processing method, and program | |
JP2016020891A (en) | Shape measurement system and imaging device | |
JP2016537901A (en) | Light field processing method | |
JP2018163648A (en) | Image processor, method for image processing, and program | |
US11962946B2 (en) | Image processing apparatus, display system, image processing method, and medium | |
KR20190067438A (en) | Method for providing image and electronic device for supporting the same | |
JP2016218729A (en) | Image processor, image processing method and program | |
CN114449249A (en) | Image projection method, image projection device, storage medium and projection equipment | |
CN109427089B (en) | Mixed reality object presentation based on ambient lighting conditions | |
KR20110074442A (en) | Image processing apparatus, image processing method and recording medium | |
US20230316640A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2020209108A1 (en) | Image processing device, 3d model generation method, and program | |
JP6896811B2 (en) | Image processing equipment, image processing methods, and programs | |
CN108876891B (en) | Face image data acquisition method and face image data acquisition device | |
US20110157314A1 (en) | Image Processing Apparatus, Image Processing Method and Recording Medium | |
EP2816794B1 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |