KR20110074442A - Image processing apparatus, image processing method and recording medium - Google Patents

Image processing apparatus, image processing method and recording medium Download PDF

Info

Publication number
KR20110074442A
KR20110074442A KR1020100127873A KR20100127873A KR20110074442A KR 20110074442 A KR20110074442 A KR 20110074442A KR 1020100127873 A KR1020100127873 A KR 1020100127873A KR 20100127873 A KR20100127873 A KR 20100127873A KR 20110074442 A KR20110074442 A KR 20110074442A
Authority
KR
South Korea
Prior art keywords
light source
information
image
unit
calculated
Prior art date
Application number
KR1020100127873A
Other languages
Korean (ko)
Inventor
타카시 쿠리노
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/978,281 priority Critical patent/US20110157314A1/en
Publication of KR20110074442A publication Critical patent/KR20110074442A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE: An image processor, an image processing method, and a recording medium are provided to display an image which reflects information about a light source. CONSTITUTION: A light source number calculator(120) produces the number of light sources. A light source information calculator(140) produces parameters for the light source in the real space as parameters in a 3D space on the basis of produced light source coordinate information. A 3D image preparing unit(150) prepares a 3D image on the basis of 3D model information and the produced light source information. A display unit(160) displays the prepared 3D image.

Description

화상 처리 장치, 화상 처리 방법 및 기록매체{Image processing apparatus, image processing method and recording medium}Image processing apparatus, image processing method and recording medium

본 발명은 화상 처리 장치, 화상 처리 방법 및 기록매체에 관한 것이다. The present invention relates to an image processing apparatus, an image processing method and a recording medium.

최근 카메라에 의해 촬영된 화상에 대해 수행되는 화상 처리 기술로서 여러 가지가 개발되고 있다. 특히, 광원 또는 조명에 따라 대상물의 각 부분의 색 정보가 부정확하게 재현되는 것을 개선할 수 있는 기술들이 개발되고 있다.In recent years, various kinds of image processing techniques are performed on images captured by a camera. In particular, techniques have been developed to improve the inaccurate reproduction of color information of each part of an object according to a light source or an illumination.

본 발명의 일 실시 예는 실 공간에 존재하는 광원에 관한 정보를 취득하고 광원에 관한 정보를 반영한 화상을 표시할 수 있는 화상 처리 장치, 화상 처리 방법 및 기록매체를 제공하는 것이다. An embodiment of the present invention is to provide an image processing apparatus, an image processing method, and a recording medium capable of acquiring information on a light source existing in a real space and displaying an image reflecting information on the light source.

상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시 예에 따른 화상 처리 장치는 어안렌즈를 구비하고, 상기 어안렌즈를 통해 화상을 촬영하는 촬영부; 3차원 공간을 규정하는 3차원 모델 정보를 저장하는 기억부; 상기 촬영부에 의해 촬영된 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 광원 갯수 산출부; 상기 산출된 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출부; 상기 저장한 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 3차원 화상 작성부; 및 상기 작성한 3차원 화상을 표시하는 표시부를 포함한다.In order to achieve the above technical problem, an image processing apparatus according to an embodiment of the present invention includes a photographing unit having a fisheye lens and photographing an image through the fisheye lens; A storage unit for storing three-dimensional model information defining a three-dimensional space; A light source number calculating unit for calculating the number of light sources captured by the image capturing unit and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number; A light source information calculation unit calculating a parameter in a real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space; A three-dimensional image creating unit which creates a three-dimensional image based on the stored three-dimensional model information and the calculated light source information; And a display unit for displaying the created three-dimensional image.

상기 광원 정보 산출부는 상기 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 상기 촬영부의 위치를 기준으로 상기 광원의 실 공간에서의 방위를 나타내는 방위 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate, as the light source information, azimuth information indicating an orientation in a real space of the light source based on the position of the photographing unit by projection conversion based on the calculated light source coordinate information.

상기 광원 정보 산출부는 상기 방위 정보와 소정 값에 기초하여 상기 광원의 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit calculates position information indicating the position of the light source in the real space based on the orientation information and a predetermined value as the light source information.

상기 촬영부는 상기 적어도 둘 이상의 어안 렌즈를 포함하고, 상기 둘 이상의 어안렌즈를 통해 각각의 화상을 촬영하고,The photographing unit includes at least two fisheye lenses, photographing each image through the at least two fisheye lenses,

상기 광원 갯수 산출부는 상기 촬영부에 의해 촬영된 각각의 화상에 대해서 광원 갯수와 광원 정보를 산출하고,The light source number calculator calculates a light source number and light source information for each image photographed by the photographing unit,

상기 광원 정보 산출부는 상기 촬영부에 의해 촬영된 각각의 화상에 대해 방위 정보를 산출하고, 상기 산출된 방위 정보에 기초하여 상기 광원의 상기 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit calculates orientation information for each image photographed by the photographing unit, and calculates, as the light source information, position information indicating a position in the real space of the light source based on the calculated orientation information. Characterized in that.

상기 광원 정보 산출부는 상기 산출된 광원 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 강도 및 색 중 적어도 하나를 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate at least one of the intensity and the color of the light generated by the light source based on the calculated light source coordinate information as the light source information.

상기 광원 갯수 산출부는 상기 산출한 갯수에 상응하는 광원 영역을 상기 화상으로부터 검출하고, 상기 검출한 광원 영역의 상기 화상에서의 위치를 광원 영역 좌표 정보로서 산출하고,The light source number calculating unit detects a light source region corresponding to the calculated number from the image, calculates a position in the image of the detected light source region as light source region coordinate information,

상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 상기 광원 영역 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit may calculate, as the light source information, the spread of light generated by the light source based on the light source region coordinate information calculated by the light source number calculating unit.

상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 광원 영역 좌표 정보에 기초하여 상기 광원 영역을 2개의 벡터로 근사하고, 상기 2개의 벡터에 의해 상기 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 한다.The light source information calculating unit approximates the light source region to two vectors based on the light source region coordinate information calculated by the light source number calculating unit, and calculates the spread of the light as the light source information by the two vectors. It is done.

상기 광원 정보 산출부는 상기 광원 갯수 산출부에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 하나를 상기 3차원 공간에서의 파라미터인 환경 광 정보로서 산출하고,The light source information calculating unit calculates at least one of the intensity and color of the environmental light in the real space as the environmental light information as a parameter in the three-dimensional space based on the light source coordinate information calculated by the light source number calculating unit,

상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 산출된 상기 환경 광 정보에 기초하여 상기 3차원 공간에서의 물체 색을 특정하고, 상기 특정한 물체 색을 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit specifies an object color in the three-dimensional space based on the ambient light information calculated by the light source information calculating unit, and generates a three-dimensional image having the specific object color. .

상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 산출된 광원 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출하고, 상기 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 상기 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit calculates the direction and number of shadows generated in the three-dimensional space based on the light source information calculated by the light source information calculating unit and the three-dimensional model information stored in the storage unit, and calculates the calculated number. A shadow area is specified based on the direction and number of shadows, and a three-dimensional image having a shadow in the specific shadow area is created.

상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 상기 광원 정보로서 산출된 위치 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 반그림자 영역을 특정하고, 상기 특정한 상기 반그림자 영역에 반그림자를 가진 3차원 화상을 작성하는 것을 특징으로 한다.The three-dimensional image creating unit specifies a half shadow area generated in the three-dimensional space based on the positional information calculated as the light source information by the light source information calculating unit and the three-dimensional model information stored in the storage unit, and specifies the specific region. And a three-dimensional image having a half shadow in the half shadow area.

상기 광원 정보 산출부는 상기 3차원 화상의 작성에 이전에 사용된 광원 정보인 이전의 광원 정보와 비교하고. 현재의 광원 정보가 변화되었는지 여부를 판단하고,And the light source information calculating unit compares with the previous light source information which is the light source information previously used for creating the three-dimensional image. Determine whether the current light source information has changed,

상기 3차원 화상 작성부는 상기 광원 정보 산출부에 의해 상기 현재의 광원 정보가 상기 이전의 광원 정보로부터 변화되었다고 판단된 경우에 상기 3차원 화상을 재작성하고,The three-dimensional image creating unit re-creates the three-dimensional image when it is determined by the light source information calculating unit that the current light source information has been changed from the previous light source information,

상기 표시부는 상기 재작성한 상기 3차원 화상을 재표시하는 것을 특징으로 한다.And the display unit displays the recreated three-dimensional image again.

상기 촬영부는 상기 어안렌즈를 통해 상기 화상 처리 장치의 외부에서 수광하여 화상을 촬영하는 것을 특징으로 한다.The photographing unit may receive an image from the outside of the image processing apparatus through the fisheye lens to capture an image.

상기 다른 기술적 과제를 달성하기 위한, 본 발명의 다른 실시 예에 따른 화상 처리 방법은 어안렌즈를 통해 화상을 촬영하는 단계; 상기 촬영한 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 단계; 상기 산출한 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 단계; 미리 저장한 3차원 공간을 규정하는 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 단계; 및 상기 작성한 3차원 화상을 표시하는 단계를 포함한다.In accordance with another aspect of the present invention, an image processing method includes: photographing an image through a fisheye lens; Calculating the number of light sources imprinted on the photographed image, and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number; Calculating a parameter in real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space; Creating a three-dimensional image based on the three-dimensional model information defining the three-dimensional space stored in advance and the calculated light source information; And displaying the created three-dimensional image.

상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 상기 화상 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.In order to achieve the another technical problem, a recording medium including a program for executing the image processing method on a computer according to another embodiment of the present invention is recorded.

본 발명의 일 실시 예는 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시할 수 있다.According to an embodiment of the present invention, information about a light source existing in a real space may be acquired to display an image reflecting information about the light source.

도 1은 본 발명의 일 실시 예에 따른 화상 처리 장치(100)의 개략도이다.
도 2는 도 1에 도시된 화상 처리 장치(100)의 기능 구성을 도시한 도면이다.
도 3은 도 2에 도시된 광원 갯수 산출부(120)의 기능에 대해서 설명하기 위한 도면이다.
도 4는 도 2에 도시된 광원 정보 산출부(140)의 기능에 대해서 설명하기 위한 도면이다.
도 5a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 5b는 일반적인 화상 표시 장치에 의해 표시된 화상의 표시 예를 도시한 도면이다.
도 6a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 6b는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 6c는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.
도 7은 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 방위를 산출하는 것을 설명하기 위한 도면이다.
도 8은 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각을 설명하기 위한 도면이다.
도 9는 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 위치를 산출하는 것을 설명하기 위한 도면이다.
1 is a schematic diagram of an image processing apparatus 100 according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 100 shown in FIG. 1.
3 is a view for explaining the function of the light source number calculation unit 120 shown in FIG.
4 is a diagram for describing a function of the light source information calculating unit 140 shown in FIG. 2.
5A is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.
5B is a diagram showing a display example of an image displayed by a general image display apparatus.
FIG. 6A is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.
FIG. 6B is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.
6C is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.
FIG. 7 is a diagram for explaining that the light source information calculating unit 140 shown in FIG. 2 calculates a direction of a light source as light source information.
FIG. 8 is a diagram for explaining elevation angles and azimuth angles used to calculate the orientation of a light source.
FIG. 9 is a view for explaining that the light source information calculating unit 140 shown in FIG. 2 calculates the position of the light source as the light source information.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components will be given the same reference numerals and redundant description thereof will be omitted. do.

도 1은 본 발명의 일 실시 예에 따른 화상 처리 장치(100)의 개략도이다.1 is a schematic diagram of an image processing apparatus 100 according to an embodiment of the present invention.

도 1에 도시한 것처럼, 본 발명의 실시 형태에 관한 화상 처리 장치(100)는 적어도 표시부(160)를 구비한 것이며, 표시부(160)는 화상 처리 장치(100)에 의해 처리된 화상을 표시한다. 예를 들면, 도 1에 도시한 것처럼 사용자가 화상 처리 장치(100)에 대해 조작 정보를 입력하기 위한 오브젝트(161)가 표시부(160)에 의해 표시되어 있다. As shown in FIG. 1, the image processing apparatus 100 according to the embodiment of the present invention includes at least a display unit 160, and the display unit 160 displays an image processed by the image processing apparatus 100. . For example, as shown in FIG. 1, the display unit 160 displays an object 161 for a user to input operation information to the image processing apparatus 100.

화상 처리 장치(100)는, 예를 들면 그 주위에 광원(L1) 및 광원(L2)가 마련되어 있으며 광원(L1) 및 광원(L2)에서 발생된 광에 의해 표시부(160)에 의해 표시되어 있는 오브젝트(161)가 조사되어 있다. 여기에서 오브젝트(161)가 입체적으로 구성되어 있는 것을 나타내려면, 광원(L1)에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 오른쪽 아래에 그림자가 표시되도록 하는 것이 바람직하다(오브젝트(161a) 참조). 이 경우의 오른쪽 아래는, 오브젝트(161)를 기준으로 하여 광원(L1)이 존재하는 방향과는 반대 방향이 된다. 따라서, 사용자는 화상 처리 장치(100)를 통해 리얼한 화상을 볼 수 있다.For example, the image processing apparatus 100 is provided with a light source L1 and a light source L2 around it, and is displayed by the display unit 160 by the light generated by the light source L1 and the light source L2. The object 161 is irradiated. In this case, to indicate that the object 161 is three-dimensionally configured, it is preferable that a shadow is displayed on the lower right side of the object 161 by irradiating the light generated by the light source L1 to the object 161 (object). (161a)). The lower right in this case is a direction opposite to the direction in which the light source L1 exists based on the object 161. Therefore, the user can see the real image through the image processing apparatus 100.

마찬가지로 광원(L2)에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 왼쪽 아래에 그림자가 표시되도록 하는 것이 바람직하다(오브젝트(161b) 참조). 이 경우의 왼쪽 아래는, 오브젝트(161)를 기준으로 하여 광원(L2)가 존재하는 방향과는 반대의 방향이 된다. 또 광원(L1)과 광원(L2)의 양쪽에서 발생된 광이 오브젝트(161)에 조사됨으로써 오브젝트(161)의 오른쪽 아래와 왼쪽 아래에 그림자를 표시하도록 하는 것이 바람직하다(오브젝트(161c) 참조). 특히 오브젝트(161)의 아래에 상당하는 영역은 양쪽의 그림자가 겹치기 때문에 비교적 진한 그림자로서 표시되는 것이 바람직하다.Similarly, it is preferable that the light generated by the light source L2 is irradiated to the object 161 so that a shadow is displayed at the lower left of the object 161 (see object 161b). The lower left side in this case becomes a direction opposite to the direction in which the light source L2 exists based on the object 161. In addition, it is preferable that the light generated by both the light source L1 and the light source L2 is irradiated to the object 161 so that a shadow is displayed on the lower right and lower left of the object 161 (see object 161c). In particular, the area corresponding to the bottom of the object 161 is preferably displayed as a relatively dark shadow because both shadows overlap.

이것을 실현하기 위해 본 발명의 실시 형태에 관한 화상 처리 장치(100)는 촬영부(110)를 구비한 것으로 한다. 촬영부(110)는 적어도 어안렌즈(111)와 촬상 소자(112)를 가지고 있고, 촬상 소자(112)는 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 수광하여 화상을 촬영하는 기능을 가진다. 본 발명의 실시 형태에서는 이와 같이 화상을 촬영하기 위해 사용하는 렌즈로서 평면적인 렌즈(이하, 통상 렌즈라고 한다)가 아닌 어안렌즈(111)를 사용한다. 통상 렌즈의 화각은 180도보다 좁기 때문에 오브젝트(161)를 조사하는 광을 발생시키는 광원이 촬영 범위 내로 수렴되지 않을 가능성이 있다. 하지만, 어안렌즈(111)의 화각은 180도이므로 오브젝트(161)를 조사하는 광을 발생시키는 광원을 촬영 범위 내로 수렴할 수 있다.In order to realize this, it is assumed that the image processing apparatus 100 according to the embodiment of the present invention includes the photographing unit 110. The imaging unit 110 has at least a fisheye lens 111 and an imaging device 112, and the imaging device 112 receives an image from the outside of the image processing apparatus 100 through the fisheye lens 111 to capture an image. Has the function. In the embodiment of the present invention, the fisheye lens 111 is used as a lens used for capturing an image as described above, instead of a flat lens (hereinafter referred to as a normal lens). Since the angle of view of the lens is usually narrower than 180 degrees, there is a possibility that the light source for generating the light irradiating the object 161 does not converge within the shooting range. However, since the angle of view of the fisheye lens 111 is 180 degrees, the light source for generating light irradiating the object 161 may converge within the photographing range.

예를 들면, 적분구(Integrating sphere)를 포함하는 측광 장치를 사용하여 화상 처리 장치(100)를 조사하는 환경 광에 관한 정보를 취득하는 기술로는 환경 광에 관한 정보를 취득할 수 있지만 광원에 관한 정보를 취득할 수 없다. 따라서 상기와 같은 그림자를 표시해야 할 방향 등을 파악할 수 없다. 본 발명의 실시형태에서는 화상 처리 장치(100)가 어안렌즈를 사용하여 촬영할 수 있기 때문에 광원에 관한 정보를 취득할 수 있고 어떠한 방향으로 그림자를 표시해야할지 파악할 수 있다. 또 본 발명의 실시형태에 관한 화상 처리 장치(100)는 광원에 관한 정보를 취득할 수 있기 때문에 광원에 관한 정보와는 별개로 환경 광에 관한 정보를 취득할 수도 있다. For example, a technique for acquiring information about environmental light irradiating the image processing apparatus 100 using a photometric device including an integrating sphere may acquire information about environmental light, No information could be obtained. Therefore, it is not possible to determine the direction or the like to display the shadow as described above. In the embodiment of the present invention, since the image processing apparatus 100 can photograph using the fisheye lens, it is possible to acquire information about the light source and to grasp in which direction the shadow should be displayed. Moreover, since the image processing apparatus 100 which concerns on embodiment of this invention can acquire the information about a light source, it can also acquire the information about environmental light separately from the information about a light source.

본 발명의 실시 형태는 어안렌즈(111)를 가진 촬영부(110)에 의해 촬영된 화상을 처리함으로써 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시한다. 이로써 사용자에게 보다 리얼한 화상을 표시할 수 있다.Embodiment of this invention acquires the information about the light source which exists in real space by processing the image picked up by the imaging | photography part 110 which has the fisheye lens 111, and displays the image which reflected the information about the light source. As a result, a more realistic image can be displayed to the user.

도 2를 참조하여 본 발명의 실시 형태에 관한 화상 처리 장치의 기능 구성에 대해서 설명하기로 한다. 도 2는 도 1에 도시된 화상 처리 장치(100)의 기능 구성을 도시한 도면이다.With reference to FIG. 2, the functional structure of the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus 100 shown in FIG. 1.

도 2에 도시한 것처럼, 본 발명의 실시형태에 관한 화상 처리 장치(100)는 촬영부(110), 광원 갯수 산출부(120), 기억부(130), 광원 정보 산출부(140), 3차원 CG작성부(150) 및 표시부(160)를 포함한다.As shown in FIG. 2, the image processing apparatus 100 according to the embodiment of the present invention includes a photographing unit 110, a light source number calculating unit 120, a storage unit 130, a light source information calculating unit 140, and 3. The dimension CG generator 150 and the display unit 160 are included.

촬영부(110)는 어안렌즈(111)를 포함하고, 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 수광하여 화상을 촬영하는 기능을 한다. 촬영부(110)는 어안렌즈(111)를 1 이상 또는 여러 개 포함할 수 있다. 촬영부(110)는 어안렌즈(111) 외에 어안렌즈(111)를 통해 화상 처리 장치(100)의 외부에서 입사된 광을 전기 신호로 변환하는 촬상 소자(112)를 가진다.The photographing unit 110 includes a fisheye lens 111 and functions to receive an image from the outside of the image processing apparatus 100 through the fisheye lens 111. The photographing unit 110 may include one or more fisheye lenses 111. In addition to the fisheye lens 111, the photographing unit 110 includes an imaging device 112 that converts light incident from the outside of the image processing apparatus 100 through the fisheye lens 111 into an electrical signal.

기억부(130)는 3차원 공간을 규정하는 3차원 CG(Computer Graphics)모델 정보(131)를 기억하는 기능을 가진 것이다. 3차원 공간은 표시부(160)에 의해 표시되는 가상적인 공간으로서, 예를 들면 형상, 크기, 위치, 방향, 색 등을 가진 오브젝트에 의해 규정된다. 오브젝트에 대해서는 후술하기로 한다. 3차원 CG모델 정보(131)는 3차원 모델 정보의 일례가 되는 정보이다. 기억부(130)는 기타 화상 처리 장치(100)의 각 구성요소들에 의해 사용되는 데이터나 프로그램 등을 저장한다. The storage unit 130 has a function of storing three-dimensional computer graphics (CG) model information 131 that defines a three-dimensional space. The three-dimensional space is a virtual space displayed by the display unit 160 and is defined by an object having, for example, a shape, a size, a position, a direction, and a color. The object will be described later. The three-dimensional CG model information 131 is information that is an example of three-dimensional model information. The storage unit 130 stores data, programs, and the like used by the components of the other image processing apparatus 100.

광원 갯수 산출부(120)는 촬영부(110)에 의해 촬영된 화상에 찍혀 있는 광원의 갯수를 산출하는 광원 갯수 산출 처리를 하여 산출한 갯수분에 상당하는 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출한다. 광원 갯수 산출부(120)의 기능의 상세에 대해서는, 도 3을 참조하여 후술하기로 한다. The light source number calculating unit 120 performs light source number calculation processing for calculating the number of light sources captured on the image photographed by the photographing unit 110, and the light source coordinates indicating the position in the image of the light source corresponding to the number calculated. Calculate the information. Details of the function of the light source number calculator 120 will be described later with reference to FIG. 3.

광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출한다. 광원 갯수 산출부(120)의 기능의 상세에 대해서는 도 4를 참조하여 후술하기로 한다. The light source information calculating unit 140 calculates a parameter in the real space related to the light source as light source information that is a parameter in the three-dimensional space based on the light source coordinate information calculated by the light source number calculating unit 120. Details of the function of the light source number calculator 120 will be described later with reference to FIG. 4.

3차원 CG작성부(150)는 기억부(130)에 의해 기억되어 있는 3차원 CG모델 정보(131)와 광원 정보 산출부(140)에 의해 산출된 광원 정보에 기초하여 3차원 화상을 작성한다. 3차원 CG작성부(150)는 3차원 화상 작성부의 일례로서 기능한다. The three-dimensional CG creation unit 150 creates a three-dimensional image based on the three-dimensional CG model information 131 stored in the storage unit 130 and the light source information calculated by the light source information calculating unit 140. . The three-dimensional CG creation unit 150 functions as an example of the three-dimensional image creation unit.

표시부(160)는 3차원 CG작성부(150)에 의해 작성된 3차원 화상을 표시한다. 표시부(160)는 기타 화상 처리 장치(100)가 열람하기 위한 정보를 필요에 따라 표시할 수 있다. 표시부(160)는, 예를 들면 표시 장치에 의해 구성될 수 있다.The display unit 160 displays the three-dimensional image created by the three-dimensional CG creating unit 150. The display unit 160 may display other information for viewing by the image processing apparatus 100 as necessary. The display unit 160 may be configured by, for example, a display device.

여기서, 각각의 구성요소들, 예를 들면 광원 갯수 산출부(120), 광원 정보 산출부(140), 3차원 CG작성부(150)는 CPU, RAM으로 구성되어 CPU가 기억부(130)에 의해 기억되어 있는 프로그램을 RAM에 전개하고 RAM에 전개한 프로그램을 실행함으로써 그 기능이 실현될 수 있다. Here, each of the components, for example, the light source number calculating unit 120, the light source information calculating unit 140, and the three-dimensional CG generating unit 150 are composed of a CPU and a RAM, and the CPU is stored in the storage unit 130. The function can be realized by developing the program stored in the RAM and executing the program deployed in the RAM.

도 3을 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 갯수 산출부의 기능에 대해서 설명하기로 한다. 도 3은 도 2에 도시된 광원 갯수 산출부(120)의 기능에 대해서 설명하기 위한 도면이다.With reference to FIG. 3, the function of the light source number calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. 3 is a view for explaining the function of the light source number calculation unit 120 shown in FIG.

도 3에 도시한 것처럼, 촬영부(110)는 예를 들면 촬영한 결과로서 화상 전체(IMA)를 취득할 수 있다. 화상 전체(IMA)에는 렌즈내 화상(IMB)와 렌즈외 화상(IMC)이 포함되어 있다. 렌즈내 화상(IMB)는 촬영부(110)가 화상 처리 장치(100)의 외부에서 어안렌즈(111)를 통해 수광하여 촬영한 화상이며, 렌즈외 화상(IMC)는 촬영부(110)가 어안렌즈(111)를 통하지 않고 수광하여 촬영한 화상이다. 본 발명의 실시형태에서는 주로 렌즈외 화상(IMC)가 아닌 렌즈내 화상(IMB)를 사용한다. 아울러 광원 위치(P1)는 광원(L1)이 촬영된 부분에 상당하고, 광원 위치(P2)는 광원(L2)이 촬영된 부분에 해당한다.As illustrated in FIG. 3, the photographing unit 110 may acquire the entire image IMA as a result of photographing, for example. The whole image IMA includes the intra-lens image IMB and the out-lens image IMC. The intra-lens image IMB is an image captured by the photographing unit 110 through the fisheye lens 111 from the outside of the image processing apparatus 100, and the out-of-lens image IMC is obtained by the photographing unit 110. It is an image received and photographed without passing through the lens 111. In the embodiment of the present invention, the intra-lens image IMB is mainly used instead of the out-lens image IMC. In addition, the light source position P1 corresponds to the part where the light source L1 was imaged, and the light source position P2 corresponds to the part where the light source L2 was imaged.

상기와 같이 광원 갯수 산출부(120)는 촬영부(110)에 의해 촬영된 렌즈내 화상(IMB)에 찍혀 있는 광원의 갯수를 산출하는 광원 갯수 산출 처리를 한다. 예를 들면, 광원 갯수 산출부(120)는 렌즈내 화상(IMB)의 히스토그램을 사용하여 소정값 이상의 휘도를 가진 부분을 광원 후보 영역으로 한다. 이 경우의 소정값은, 예를 들면 기억부(130)에 기억시켜둘 수 있다.As described above, the light source number calculator 120 performs a light source number calculation process for calculating the number of light sources captured in the in-lens image IMB photographed by the photographing unit 110. For example, the light source number calculator 120 uses a histogram of the in-lens image IMB to make a portion having a luminance equal to or greater than a predetermined value as the light source candidate region. The predetermined value in this case can be stored, for example, in the storage unit 130.

도 3에 도시한 예에서는, 렌즈내 화상(IMB)에 나타나 있는 2개의 타원 영역을 광원 후보 영역으로 한다. 여기에서는 광원(L1)과 광원(L2)가 점광원이므로 광원 후보 영역이 타원 영역으로서 촬영되었는데, 광원 후보 영역은 반드시 타원형상이 된다고는 볼 수 없으며, 예를 들면 광원이 길쭉한 형광등과 같은 경우에는 직사각형이 되기도 한다. 이와 같이 광원의 형상에 의해 광원 후보 영역의 형상은 변경될 수도 있다.In the example shown in FIG. 3, the two elliptic regions shown in the intra-lens image IMB are the light source candidate regions. In this case, since the light source L1 and the light source L2 are point light sources, the light source candidate region was photographed as an elliptic region. The light source candidate region is not necessarily elliptical, for example, a rectangular shape when the light source is an elongated fluorescent lamp. It can also be. As such, the shape of the light source candidate region may be changed by the shape of the light source.

이어서 광원 갯수 산출부(120)는 이 광원 후보 영역에 대한 포락선을 검출하고, 포락선으로 둘러싸인 영역이 소정 값 이상의 면적을 가진 것이라면 그 광원 후보 영역을 광원 영역으로 하여 광원 영역에 하나의 광원이 존재하는 것으로 간주한다. 이 경우의 소정값에 대해서도, 예를 들면 기억부(130)에 기억시켜 둘 수 있다. 광원 갯수 산출부(120)는, 예를 들면 광원 영역의 휘도를 척도로 한 중심 위치를 광원 위치로서 검출한다.Subsequently, the light source number calculator 120 detects an envelope of the light source candidate area, and if the area enclosed by the envelope has an area equal to or greater than a predetermined value, the light source candidate area is used as a light source area. To be considered. The predetermined value in this case can also be stored in the storage unit 130, for example. The light source number calculation unit 120 detects, for example, a center position in which the luminance of the light source region is measured as the light source position.

포락선은 광원 후보 영역을 포함하도록 둘러싸는 선이라면 어떠한 것이어도 좋지만, 광원 후보 영역을 포함하도록 가능한 한 작은 영역을 규정하는 선으로 하는 것이 좋다. 이와 같이 소정 값 이상의 면적을 갖는다고 판단한 영역에 하나의 광원이 존재한다고 간주하는 것은, 단순한 광의 반사에 의해 촬영된 영역에 광원이 존재한다고 오인하는 것을 방지하기 위함이다.The envelope may be any line that encloses the light source candidate region, but may be a line defining a region as small as possible to include the light source candidate region. The reason why one light source exists in an area determined to have an area equal to or greater than a predetermined value is to prevent a mistake in the light source being present in an area photographed by simple reflection of light.

도 3에 도시한 예에서는, 광원 갯수 산출부(120)는, 예를 들면 포락선으로 둘러싸인 영역으로서 직사각형 영역(IM1)과 직사각형 영역(IM2)을 검출한다. 광원 갯수 산출부(120)는 직사각형 영역(IM1)과 직사각형 영역(IM2) 모두 소정 값 이상의 면적을 가진다고 판단하고 2개의 타원 영역 각각을 광원 영역으로 간주한다. 또 광원 갯수 산출부(120)는 2개의 광원 영역의 중심을 각각의 광원 좌표 정보로 하여 광원 위치(P1) 및 광원 위치(P2)로서 산출한다.In the example shown in FIG. 3, the light source number calculation part 120 detects rectangular area IM1 and rectangular area IM2 as the area | region enclosed by an envelope, for example. The light source number calculator 120 determines that both the rectangular area IM1 and the rectangular area IM2 have an area equal to or greater than a predetermined value, and regards each of the two elliptic areas as the light source area. The light source number calculation unit 120 calculates the center of the two light source regions as the light source coordinate information as the light source position P1 and the light source position P2.

이상에 설명한 것처럼, 광원 갯수 산출부(120)는 우선 촬영부(110)에 의해 촬영된 렌즈내 화상(IMB)에 찍혀 있는 광원의 갯수를 산출하고, 산출한 갯수분에 상당하는 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출한다. 이와 같이 광원 좌표를 산출하기 전에 광원의 갯수를 산출하는 것은, 2개의 광원을 포함하는 영역을 하나의 광원 영역으로 간주하고, 그 광원 영역의 휘도를 척도로 한 중심 위치를 광원 위치로 오인하는 것을 방지하기 위함이다.As described above, the light source number calculating unit 120 first calculates the number of light sources imprinted on the intra-lens image IMB photographed by the photographing unit 110, and calculates the number of light sources corresponding to the calculated number. Calculate the light source coordinate information indicating the position of. Calculating the number of light sources before calculating the light source coordinates thus regards a region including two light sources as one light source region, and misidentifies a center position based on the luminance of the light source region as a light source position. This is to prevent.

도 4를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부의 기능에 대해서 설명하기로 한다. 도 4는 도 2에 도시된 광원 정보 산출부(140)의 기능에 대해서 설명하기 위한 도면이다.With reference to FIG. 4, the function of the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. 4 is a diagram for describing a function of the light source information calculating unit 140 shown in FIG. 2.

상기와 같이 광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출 처리를 한다. 도 3에 도시한 예에서는, 광원 갯수 산출부(120)는 렌즈내 화상(IMB)에서의 광원 좌표로서 광원 위치(P1) 및 광원 위치(P2)를 산출하였다. 도 4에 도시한 예에서는, 광원 정보 산출부(140)는 렌즈내 화상(IMB)에서의 광원 위치(P1) 및 광원 위치(P2)에 기초하여 광원(L1) 및 광원(L2)에 관한 실 공간에서의 파라미터를 3차원 공간에서의 파라미터인 광원 정보로서 산출한다. 광원에 관한 실 공간에서의 파라미터에는 여러 가지가 있지만, 예를 들면 광원의 방위, 위치, 광원에서 발생되는 광의 강도, 색, 퍼짐 등을 포함한다. 광원 정보 산출부(140)는 이들 값을 직사각형 영역(직사각형 영역(IM1)이나 직사각형 영역(IM2))마다 산출한다.As described above, the light source information calculator 140 calculates a parameter in a real space related to a light source as light source information that is a parameter in a three-dimensional space based on the light source coordinate information calculated by the light source number calculator 120. Perform information calculation processing. In the example shown in FIG. 3, the light source number calculation unit 120 calculated the light source position P1 and the light source position P2 as light source coordinates in the in-lens image IMB. In the example shown in FIG. 4, the light source information calculating unit 140 is a thread related to the light source L1 and the light source L2 based on the light source position P1 and the light source position P2 in the in-lens image IMB. The parameter in space is calculated as light source information which is a parameter in three-dimensional space. Although there are various parameters in the real space with respect to the light source, for example, the orientation, position of the light source, intensity of light generated by the light source, color, spread, and the like. The light source information calculation unit 140 calculates these values for each rectangular area (rectangular area IM1 or rectangular area IM2).

광원 정보 산출부(140)는, 예를 들면 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 촬영부(110)의 위치를 기준으로 한 광원의 실 공간에서의 방위를 나타내는 방위 정보를 광원 정보로서 산출한다. 방위 정보의 산출 수법에 대해서는, 도 7 및 도 8을 참조하여 후술하기로 한다. 또 광원 정보 산출부(140)는 광원의 실 공간에서의 위치를 나타내는 위치 정보를 광원 정보로서 산출할 수도 있다. 광원의 위치 정보의 산출 수법에도 여러 가지가 있는데, 예를 들면 방위 정보와 소정값에 기초하여 산출하는 수법이나 여러 개의 어안렌즈를 사용하여 산출하는 수법 등이 있다. 전자에 대해서는 도 7 및 도 8을 참조하여 후술하기로 한다. 후자에 대해서는 도 9를 참조하여 후술하기로 한다.The light source information calculating unit 140 is, for example, based on the light source coordinate information calculated by the light source number calculating unit 120 in the real space of the light source based on the position of the photographing unit 110 by projection conversion. The orientation information indicating the orientation is calculated as the light source information. The calculation method of the orientation information will be described later with reference to FIGS. 7 and 8. In addition, the light source information calculator 140 may calculate positional information indicating the position of the light source in the real space as the light source information. There are various methods of calculating the positional information of the light source, for example, a method of calculating based on azimuth information and a predetermined value, a method of calculating using several fisheye lenses, and the like. The former will be described later with reference to FIGS. 7 and 8. The latter will be described later with reference to FIG. 9.

광원 정보 산출부(140)에 의해 여러 개의 광원의 위치가 산출된 경우에는, 3차원 CG작성부(150)는 여러 개의 광원의 위치에 기초하여 반그림자를 포함한 3차원 화상을 생성할 수 있다. 반그림자는 여러 개의 광원 중 일부의 광원에서 발생된 광이 도달하지 않기 때문에 생기는 그림자이다. 보다 상세하게는, 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 광원 정보로서 산출된 위치 정보와 기억부(130)에 의해 기억되어 있는 3차원 모델 정보에 기초하여 3차원 공간에 생기는 반그림자 영역을 특정하고, 특정한 반그림자 영역에 반그림자를 가진 3차원 화상을 작성한다.When the positions of the plurality of light sources are calculated by the light source information calculating unit 140, the 3D CG preparing unit 150 may generate a 3D image including half shadows based on the positions of the plurality of light sources. A half shadow is a shadow that occurs because light generated by a light source of some of the light sources does not reach. More specifically, the three-dimensional CG creation unit 150 is three-dimensional based on the position information calculated as the light source information by the light source information calculating unit 140 and the three-dimensional model information stored by the storage unit 130. The half shadow area | region which arises in space is specified, and the three-dimensional image which has a half shadow in a specific half shadow area is created.

광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 광원에서 발생되는 광의 강도 및 색 중 적어도 한쪽을 광원 정보로 하여 방위 정보에 추가하여 산출할 수도 있다. 광원 정보 산출부(140)는, 예를 들면 광원의 강도로서, 광원 위치(P1) 또는 광원 위치(P2)의 화소값과 촬영부(110)의 노출값에 기초하여 산출한다. 광원 위치의 화소값은, 광원 위치의 RGB의 3개를 사용한 연산에 의해 산출된다. 촬영부(110)의 노출값은 조리개값과 노광 시간 또는 셔터 스피드에 의해 정해지는 노출 정도를 나타내는 값이다. 또 광원 정보 산출부(140)는, 예를 들면 광원의 색으로서, 광원 위치(P1) 또는 광원 위치(P2)의 RGB에 기초하여 산출한다.The light source information calculating unit 140 may add and calculate at least one of the intensity and the color of the light generated by the light source based on the light source coordinate information calculated by the light source number calculating unit 120 as the light source information and add it to the orientation information. . The light source information calculating unit 140 calculates, for example, the intensity of the light source based on the pixel value of the light source position P1 or the light source position P2 and the exposure value of the photographing unit 110. The pixel value of a light source position is computed by the calculation using three RGB of a light source position. The exposure value of the photographing unit 110 is a value representing the exposure degree determined by the aperture value and the exposure time or the shutter speed. The light source information calculating unit 140 calculates, for example, based on the RGB of the light source position P1 or the light source position P2 as the color of the light source.

광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 영역 좌표 정보에 기초하여 광원에서 발생되는 광의 퍼짐을 광원 정보로서 방위 정보에 추가하여 산출할 수 있다. 보다 상세하게는, 광원 정보 산출부(140)는, 예를 들면 광원 갯수 산출부(120)에 의해 산출된 광원 영역 좌표 정보에 기초하여 광원 영역을 2개의 벡터로 근사하고 2개의 벡터에 의해 광의 퍼짐으로서 사용할 수 있다. The light source information calculator 140 may calculate the spread of light generated by the light source based on the light source region coordinate information calculated by the light source number calculator 120 as the light source information and adds the orientation information. More specifically, the light source information calculating unit 140 approximates the light source region to two vectors based on the light source region coordinate information calculated by the light source number calculating unit 120, for example. It can be used as a spread.

도 4에 도시한 예에서는, 광원 정보 산출부(140)가 직사각형 영역(IM1)에 존재하는 광원 영역의 단축을 벡터(V1a), 장축을 벡터(V1b)로 근사하고, 직사각형 영역(IM2)에 존재하는 광원 영역의 장축을 벡터(V2a), 단축을 벡터(V2b)로 근사하는 경우에 대해서 도시되어 있다. 그러나 광원 영역을 2개의 벡터로 근사하는 수법에 대해서는 특별히 한정되지 않는다. 광원 정보 산출부(140)는, 예를 들면 광원 영역이 직사각형인 경우에는 직사각형의 종횡을 2개의 벡터로 근사할 수도 있다. 또 정확하게 장축, 단축, 종횡을 벡터로 근사하는 경우뿐 아니라 소정의 정수를 곱한 벡터로 근사할 수도 있다. In the example shown in FIG. 4, the light source information calculating unit 140 approximates the short axis of the light source region existing in the rectangular region IM1 with the vector V1a and the long axis with the vector V1b, and to the rectangular region IM2. The case where the long axis of the existing light source area is approximated by the vector V2a and the short axis by the vector V2b is shown. However, the method of approximating the light source region to two vectors is not particularly limited. For example, when the light source region is a rectangle, the light source information calculator 140 may approximate the vertical and horizontal sides of the rectangle as two vectors. It is also possible to approximate not only the case where the long axis, the short axis, and the vertical and horizontal directions are accurately approximated by a vector, but also the vector multiplied by a predetermined integer.

광원 정보 산출부(140)는 광원 갯수 산출부(120)에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 한쪽을 3차원 공간에서의 파라미터인 환경 광 정보로서 광원 정보 이외에 더 산출할 수도 있다. 광원 정보 산출부(140)는, 예를 들면 렌즈내 화상(IMB) 중에서 직사각형 영역(IM1)이나 직사각형 영역(IM2)에 속하지 않는 영역의 화소값과 노출값에 기초하여 실 공간에서의 환경 광의 강도를 산출할 수 있다.The light source information calculating unit 140 uses at least one of the intensity and color of the environmental light in the real space as the environmental light information as a parameter in the three-dimensional space based on the light source coordinate information calculated by the light source number calculating unit 120. In addition to the information can also be calculated. The light source information calculator 140 calculates the intensity of the ambient light in the real space based on, for example, the pixel value and the exposure value of a region that does not belong to the rectangular region IM1 or the rectangular region IM2 in the in-lens image IMB. Can be calculated.

또 광원 정보 산출부(140)는, 예를 들면 렌즈내 화상(IMB) 중 직사각형 영역(IM1)이나 직사각형 영역(IM2)에 속하지 않는 영역의 RGB에 기초하여 실 공간에서의 환경 광의 색을 산출할 수 있다. 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 산출된 환경 광 정보에 기초하여 3차원 공간에서의 물체의 색을 특정하고, 특정한 물체 색을 가진 3차원 화상을 작성한다. 환경 광 정보는 광원으로부터의 광이 닿지 않는 부분의 밝기에 특히 크게 기여하는 요소이다. 광원으로부터의 광이 닿지 않는 부분이란, 다음의 설명에 등장하는 그림자가 생기는 부분을 의미한다.In addition, the light source information calculation unit 140 calculates the color of the ambient light in the real space based on, for example, RGB of an area of the intra-lens image IMB that does not belong to the rectangular area IM1 or the rectangular area IM2. Can be. The three-dimensional CG creating unit 150 specifies the color of the object in the three-dimensional space based on the ambient light information calculated by the light source information calculating unit 140, and creates a three-dimensional image having a specific object color. The ambient light information is a factor that contributes particularly significantly to the brightness of the part where light from the light source does not reach. The part which light does not reach from a light source means the part which the shadow which appears in the following description occurs.

이와 같이 본 발명의 실시형태에서는 화상 처리 장치(100)는 어안렌즈를 사용하여 촬영한 화상에서 광원에 관한 정보를 취득할 수 있기 때문에 광원에 관한 정보와는 구별된 환경 광에 관한 정보를 취득할 수 있다. 예를 들면 어안렌즈가 아닌 적분구 등을 사용하여 적분구에 들어가는 광에 관한 정보를 취득한 경우에는 취득한 정보로부터 광원에 관한 정보와 환경 광에 관한 정보를 나눌 수 없다.As described above, in the embodiment of the present invention, since the image processing apparatus 100 can acquire the information about the light source from the image photographed using the fisheye lens, the image processing device 100 can acquire the information about the ambient light distinct from the information about the light source. Can be. For example, when information on light entering the integrating sphere is acquired using an integrating sphere other than the fisheye lens, the information on the light source and the information on the ambient light cannot be divided from the acquired information.

도 5a를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 광원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 5a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.The case where one light source exists as an example of display of the image processed by the image processing apparatus which concerns on embodiment of this invention with reference to FIG. 5A is demonstrated. 5A is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.

도 5a에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(200)가 표시하는 화면(210a)에는 오브젝트(220a)가 포함되어 있다. 이 오브젝트(220a)는 3차원 CG모델 정보(131)에 의해 규정되어 있으며 3차원 화상으로서 표시부(160)에 표시된다. 여기에서 도 5a에 도시한 것처럼 오브젝트(220a)에는 화면(210a)에 대해 수직 방향으로 높이를 가진 오브젝트(231) 및 오브젝트(232)가 포함되어 있다. 그와 같은 경우에는 화상 처리 장치(200)의 광원 정보 산출부(140)가 가진 기능에 의해 화상 처리 장치(200)를 조사하는 광을 발생시키는 광원에 관한 정보가 취득된다. 또 화상 처리 장치(200)의 3차원 CG작성부(150)가 가진 기능에 의해 광원에 관한 정보에 기초한 그림자(241) 및 그림자(242)가 화면(210a)에 표시된다. 이로써 화상 처리 장치(200)를 실내에 설치한 경우에 화상 처리 장치(200) 주위의 환경과의 친화감을 증대시킨 화면(210a)을 표시할 수 있다.As shown in FIG. 5A, the object 220a is included in the screen 210a displayed by the image processing apparatus 200 as an example of the image processing apparatus 100. This object 220a is defined by the three-dimensional CG model information 131 and displayed on the display unit 160 as a three-dimensional image. Here, as illustrated in FIG. 5A, the object 220a includes an object 231 and an object 232 having a height in a vertical direction with respect to the screen 210a. In such a case, the information regarding the light source which generate | occur | produces the light which irradiates the image processing apparatus 200 is acquired by the function which the light source information calculating part 140 of the image processing apparatus 200 has. In addition, the shadow 241 and the shadow 242 based on the information on the light source are displayed on the screen 210a by the function of the three-dimensional CG creating unit 150 of the image processing apparatus 200. As a result, when the image processing apparatus 200 is installed indoors, the screen 210a having increased affinity with the environment around the image processing apparatus 200 can be displayed.

더욱 상세하게는, 화상 처리 장치(200)의 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 산출된 광원 정보와 기억부(130)에 의해 기억되어 있는 3차원 CG모델 정보(131)에 기초하여 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출한다. 3차원 CG작성부(150)는 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성한다. 표시부(160)는 3차원 CG작성부(150)에 의해 생성된 3차원 화상을 표시한다.More specifically, the three-dimensional CG creation unit 150 of the image processing apparatus 200 includes light source information calculated by the light source information calculating unit 140 and three-dimensional CG model information stored by the storage unit 130. Based on 131, the direction and number of shadows generated in the three-dimensional space are calculated. The 3D CG creation unit 150 specifies a shadow area based on the calculated direction and number of shadows, and creates a 3D image having shadows in the specific shadow area. The display unit 160 displays the three-dimensional image generated by the three-dimensional CG creating unit 150.

최근에는 디지털 포토 프레임, 스마트폰, 타블렛PC 등 휴대 가능한 디스플레이가 널리 유통되고 있다. 이러한 디스플레이는 사용되는 환경이 변화되는 경우가 많아 광원에 적응적인 표현을 하는 것이 특히 유용하다. 또 판매 대상이 되는 상품의 견본 등을 입체적으로 표시할 때 광원에 적응된 음영이 첨부된 화상을 표시함으로써 구입자가 실제로 상품을 입수했을 때의 인상과 견본을 열람했을 때의 인상 사이에 생기는 차이를 줄일 수 있다.Recently, portable displays such as digital photo frames, smart phones, and tablet PCs have been widely distributed. Such a display is often useful, because the environment used is often changed. In addition, when displaying a sample of a product to be sold in three dimensions, an image with a shade adapted to a light source is displayed so that the difference between an impression when the purchaser actually obtains the product and an impression when the sample is viewed is displayed. Can be reduced.

또 화상 처리 장치(200)는 설치되는 환경이 변화됨으로써 광원의 정보를 조속히 산출하여 표시 대상의 화상을 변화 후의 환경에 맞춘 3차원 화상에 즉시성을 가지고 변경할 수도 있다. 보다 상세하게는 광원 정보 산출부(140)는 3차원 화상의 작성에 전회 사용된 광원 정보인 전회의 광원 정보와 비교하여 현재의 광원 정보가 변화되었는지 여부를 판단하고, 3차원 CG작성부(150)는 광원 정보 산출부(140)에 의해 현재의 광원 정보가 전회의 광원 정보로부터 변화되었다고 판단된 경우에 3차원 화상을 재작성하고, 표시부(160)는 3차원 CG작성부(150)에 의해 재작성된 3차원 화상을 재표시한다.In addition, the image processing apparatus 200 may change the installed light source as soon as the installed environment changes, and change the image of the display object into a three-dimensional image adapted immediately after the change. In more detail, the light source information calculating unit 140 determines whether the current light source information has changed by comparing with the previous light source information, which is the light source information used last time for creating the 3D image, and the 3D CG creating unit 150. ) Re-creates the 3D image when it is determined by the light source information calculating unit 140 that the current light source information has been changed from the previous light source information, and the display unit 160 is executed by the 3D CG creating unit 150. The recreated three-dimensional image is displayed again.

도 5b를 참조하여 일반적인 화상 처리 장치에 의해 표시된 화상의 표시예ㄹ로서, 광원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 5b는 일반적인 화상 표시 장치에 의해 표시된 화상의 표시 예를 도시한 도면이다.A case in which one light source exists as an example of display of an image displayed by a general image processing apparatus will be described with reference to FIG. 5B. 5B is a diagram showing a display example of an image displayed by a general image display apparatus.

도 5b에 도시한 것처럼, 일반적인 화상 처리 장치는 오브젝트(220b)를 포함한 화면(210b)를 표시하고 있다. 오브젝트(220b)는 오브젝트(231) 및 오브젝트(232)를 가지지만, 오브젝트(231) 및 오브젝트(232)가 존재함으로써 생기는 그림자는 오브젝트(220b)에는 특별히 나타나 있지 않다.As shown in FIG. 5B, a general image processing apparatus displays a screen 210b including an object 220b. The object 220b has an object 231 and an object 232, but the shadow generated by the presence of the object 231 and the object 232 is not particularly shown in the object 220b.

도 6a를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원이 1개 존재하는 경우에 대해서 설명하기로 한다. 도 6a는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6A, the case where one point light source exists as an example of display of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 6A is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.

도 6a에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310a)을 표시하고 있으며, 화면(310a)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S1)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광 원이 1개 존재하는 경우에 대해 나타나 있다.As shown in FIG. 6A, the image processing apparatus 300 as an example of the image processing apparatus 100 displays the screen 310a, and the screen 310a includes the object 321, the object 322, and the object 323. ), Etc. are included. The information about the light source is obtained by the function of the light source information calculating unit 140 of the image processing apparatus 300, and the object 321 is provided by the function of the three-dimensional CG creating unit 150 of the image processing apparatus 300. And the object 322 as a starting point, a three-dimensional image having a shadow in the direction S1 is generated. The display unit 160 of the image processing apparatus 300 displays a three-dimensional image. Here, the case where one point light source exists is shown.

도 6b를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원이 2개 존재하는 경우에 대해서 설명하기로 한다. 도 6b는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6B, the case where two point light sources exist as a display example of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 6B is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.

도 6b에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310b)을 표시하고 있으며, 화면(310b)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S2) 및 방향(S3)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광 원이 2개 존재하는 경우에 대해 나타나 있다.As shown in FIG. 6B, the image processing apparatus 300 as an example of the image processing apparatus 100 displays a screen 310b, and the screen 310b includes an object 321, an object 322, and an object 323. ), Etc. are included. The information about the light source is obtained by the function of the light source information calculating unit 140 of the image processing apparatus 300, and the object 321 is provided by the function of the three-dimensional CG creating unit 150 of the image processing apparatus 300. And the object 322 as a starting point, a three-dimensional image having a shadow in the direction S2 and the direction S3 is generated. The display unit 160 of the image processing apparatus 300 displays a three-dimensional image. Here, the case where two point light sources exist is shown.

도 6c를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치에 의해 처리된 화상의 표시 예로서, 점광 원 1개와 면 광원 1개가 존재하는 경우에 대해서 설명하기로 한다. 도 6c는 도 1에 도시된 화상 처리 장치(100)에 의해 처리된 화상의 표시 예를 도시한 도면이다.With reference to FIG. 6C, the case where one point light source and one surface light source exist as a display example of the image processed by the image processing apparatus which concerns on embodiment of this invention is demonstrated. 6C is a diagram illustrating a display example of an image processed by the image processing apparatus 100 shown in FIG. 1.

도 6c에 도시한 것처럼, 화상 처리 장치(100)의 일례로서의 화상 처리 장치(300)는 화면(310c)을 표시하고 있고, 화면(310b)에는 오브젝트(321), 오브젝트(322), 오브젝트(323) 등이 포함되어 있다. 화상 처리 장치(300)의 광원 정보 산출부(140)가 가진 기능에 의해 광원에 관한 정보가 취득되고, 화상 처리 장치(300)의 3차원 CG작성부(150)가 가진 기능에 의해 오브젝트(321) 및 오브젝트(322)를 기점으로 하여 방향(S2) 및 방향(S3)에 그림자를 가진 3차원 화상이 생성된다. 화상 처리 장치(300)의 표시부(160)에 의해 3차원 화상이 표시된다. 여기에서는 점광원이 1개, 면광원이 1개 존재하는 경우에 대해서 나타나 있다. 면 광원에서 광이 조사되기 때문에 방향(S2)에 생기는 그림자는 경계가 완만하게 되어 있다. 이것은 화상 처리 장치(300)의 광원 정보 산출부(140)에 의해 광원의 퍼짐을 나타내는 정보가 광원 정보로서 취득되어 화상 처리 장치(300)의 3차원 CG작성부(150)가 광원의 확대를 고려한 3차원 화상을 작성했기 때문이다.As shown in FIG. 6C, the image processing apparatus 300 as an example of the image processing apparatus 100 displays the screen 310c, and the screen 310b includes the object 321, the object 322, and the object 323. ), Etc. are included. The information about the light source is obtained by the function of the light source information calculating unit 140 of the image processing apparatus 300, and the object 321 is provided by the function of the three-dimensional CG creating unit 150 of the image processing apparatus 300. And the object 322 as a starting point, a three-dimensional image having a shadow in the direction S2 and the direction S3 is generated. The display unit 160 of the image processing apparatus 300 displays a three-dimensional image. Here, the case where one point light source and one surface light source exist is shown. Since light is irradiated from the surface light source, the shadow generated in the direction S2 has a smooth border. The information indicating the spread of the light source is acquired as the light source information by the light source information calculating unit 140 of the image processing apparatus 300 so that the three-dimensional CG creating unit 150 of the image processing apparatus 300 considers the enlargement of the light source. This is because a three-dimensional image is created.

도 7을 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부가 광원 정보로서 광원의 방위를 산출하는 수법에 대해서 설명하기로 한다. 도 7은 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 방위를 산출하는 것을 설명하기 위한 도면이다. 여기에서는 화상 처리 장치(100)가 사용하는 어안렌즈(111)는 하나를 가정한다. With reference to FIG. 7, the method which calculates the orientation of a light source as light source information is demonstrated with the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention. FIG. 7 is a diagram for explaining that the light source information calculating unit 140 shown in FIG. 2 calculates a direction of a light source as light source information. Here, one fisheye lens 111 used by the image processing apparatus 100 is assumed.

광원의 렌즈내 화상(IMB)에서의 광원 좌표(i,j)가 2차원 좌표로서 얻어지고, 어안렌즈(111)는 정거 도법(equidistant projection) 중 하나인 정거 원통 도법으로 렌즈내 화상(IMB)에 광을 투영하고 있으며 화상 내에서 90도가 되는 길이를 W라고 한다. 이때 광원 좌표(i,j)와 광원의 방위(방위각, 앙각)=(θ,φ)의 관계는 다음 수학식 1로 표현된다. 앙각 및 방위각의 정의는 도 8에 도시하였다.The light source coordinates i, j in the intra-lens image IMB of the light source are obtained as two-dimensional coordinates, and the fisheye lens 111 is an intra-lens image IMB with a stationary cylindrical projection, which is one of equidistant projections. The light is projected onto and the length that becomes 90 degrees in the image is called W. At this time, the relationship between the light source coordinates (i, j) and the orientation (azimuth, elevation) of the light source = (θ, φ) is expressed by the following equation (1). Definitions of elevation and azimuth are shown in FIG. 8.

Figure pat00001
Figure pat00001

3차원 CG작성부(150)가 3차원 CG에서 반그림자를 그리지 않는 경우에는 광원의 방향을 사용하면 광원의 위치를 알 수 없더라도 그림자를 작성할 수 있다. 3차원 CG작성부(150)가 반그림자를 그릴 때에는 적절한 반경(R)을 설정하고 다음 수학식 2에 의해 얻어지는 광원 좌표(x,y,z)를 사용한다. 반경(R)은, 예를 들면 기억부(130)에 기억시켜 둘 수 있어 화상 처리 장치(100)를 관리하는 관리자 등이 적절히 변경할 수 있다.When the 3D CG preparing unit 150 does not draw the anti-shadow in 3D CG, the shadow may be created even if the position of the light source is not known using the direction of the light source. When the three-dimensional CG preparing unit 150 draws the half shadow, an appropriate radius R is set and the light source coordinates (x, y, z) obtained by the following equation (2) are used. The radius R can be stored in the storage unit 130, for example, and can be appropriately changed by a manager or the like who manages the image processing apparatus 100.

Figure pat00002
Figure pat00002

도 8을 참조하여 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각에 대해서 설명하기로 한다. 도 8은, 광원의 방위를 산출하기 위해 사용하는 앙각 및 방위각에 대해서 설명하기 위한 도면이다.An elevation angle and an azimuth angle used to calculate an orientation of a light source will be described with reference to FIG. 8. 8 is a diagram for explaining elevation angles and azimuth angles used to calculate the orientation of the light source.

화상 처리 장치(100)에 의해 광원의 방향을 산출하기 위해 사용되는 앙각, 방위각은, 예를 들면 도 8에 도시한 것처럼 정의된다.The elevation angle and azimuth angle used for calculating the direction of the light source by the image processing apparatus 100 are defined, for example, as shown in FIG. 8.

도 9를 참조하여 본 발명의 실시형태에 관한 화상 처리 장치의 광원 정보 산출부가 광원 정보로서 광원의 위치를 산출하는 수법에 대해서 설명하기로 한다. 도 9는 도 2에 도시된 광원 정보 산출부(140)가 광원 정보로서 광원의 위치를 산출하는 것을 설명하기 위한 도면이다. 여기에서는 화상 처리 장치(100)가 사용하는 어안렌즈(111)는 여러 개로 가정한다. With reference to FIG. 9, the method to calculate the position of a light source as a light source information in the light source information calculation part of the image processing apparatus which concerns on embodiment of this invention is demonstrated. FIG. 9 is a view for explaining that the light source information calculating unit 140 shown in FIG. 2 calculates the position of the light source as the light source information. It is assumed here that there are several fisheye lenses 111 used by the image processing apparatus 100.

어안렌즈(111)가 여러 개 있는 경우에는 반경(R)을 가정하지 않아도 광원 좌표를 얻을 수 있다. 간단하게는 어안렌즈(111)가 2개 있고 각각의 실 공간에서의 좌표(x1,y1,z1),(x2,y2,z2)는 화상 처리 장치(100)에서 미리 알고 있는 것이고 각각의 어안렌즈(111)에서 광원의 방위(θ1,φ1),(θ2,φ2)는 화상 처리 장치(100)에 의해 산출 완료된다. 이때 광원의 방향 벡터(v1x,v1y,v1z),(v2x,v2y,v2z)는 다음 수학식 3으로 표현된다.If there are several fisheye lenses 111, the light source coordinates can be obtained without assuming a radius R. Simply there are two fisheye lenses 111 and the coordinates (x1, y1, z1), (x2, y2, z2) in each real space are known in advance in the image processing apparatus 100 and each fisheye lens At 111, the orientations θ1, φ1, and θ2, φ2 of the light source are calculated by the image processing apparatus 100. At this time, the direction vectors (v1x, v1y, v1z) and (v2x, v2y, v2z) of the light source are represented by the following equation (3).

Figure pat00003
Figure pat00003

상기 수학식 3을 사용하면 광원의 좌표(x,y,z)는 다음 수학식 4로 표현된다.Using Equation 3, the coordinates (x, y, z) of the light source are represented by the following Equation 4.

Figure pat00004
Figure pat00004

여기에서 s,t는 매개 변수이고, 다음 수학식 5로 정의된다(†는 Moore-Penrose의 일반 역행렬을 표시한다). 여기서, 광원 수가 2개가 아닌 n개(n이 3 이상)가 되어도 유효하다.Where s, t is a parameter and is defined by Equation 5 († denotes Moore-Penrose's general inverse matrix): Here, it is effective even if the number of light sources is n (n is 3 or more) instead of two.

Figure pat00005
Figure pat00005

이상 설명한 것처럼 본 실시형태에 관한 기술은 실 공간에 존재하는 광원에 관한 정보를 취득하여 광원에 관한 정보를 반영한 화상을 표시할 수 있다. 따라서, 사용자는 화상 처리 장치(100)를 통해 리얼한 화상을 볼 수 있다. As described above, the technique according to the present embodiment can acquire information about the light source existing in the real space and display an image reflecting the information about the light source. Therefore, the user can see the real image through the image processing apparatus 100.

본 발명에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An apparatus according to the present invention may include a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, Devices, and the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. Here, the computer-readable recording medium may be a magnetic storage medium such as a read-only memory (ROM), a random-access memory (RAM), a floppy disk, a hard disk, ), And a DVD (Digital Versatile Disc). The computer-readable recording medium may be distributed over networked computer systems so that computer readable code can be stored and executed in a distributed manner. The medium is readable by a computer, stored in a memory, and executable on a processor.

본 발명에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 본 발명에서 전체적으로 병합하여 나타낸 것과 동일하게 본 발명에 병합될 수 있다.All documents including publications, patent applications, patents, etc. cited in the present invention can be incorporated into the present invention in the same manner as each cited document individually and concretely, .

본 발명의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 본 발명의 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 본 발명은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. In order to facilitate understanding of the present invention, reference will be made to the preferred embodiments shown in the drawings, and specific terminology is used to describe the embodiments of the present invention. However, the present invention is not limited to the specific terminology, Lt; / RTI > may include all elements commonly conceivable by those skilled in the art.

본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.The invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, the present invention is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. You can employ them. Similar to the components of the present invention that may be implemented with software programming or software components, the present invention may be implemented as a combination of C, C ++, and C ++, including various algorithms implemented with data structures, processes, routines, , Java (Java), assembler, and the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, the present invention may employ the prior art for electronic environment setting, signal processing, and / or data processing. Terms such as "mechanism", "element", "means" and "configuration" can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the invention in detail and is not to be construed as a limitation on the scope of the invention, It is not. In addition, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made depending on design conditions and factors within the scope of the appended claims or equivalents thereof.

100 화상 처리 장치
110 촬영부
111 어안렌즈
112 촬상소자
120 광원 갯수 산출부
130 기억부
131 3차원 CG모델 정보(3차원 모델 정보)
1140 광원 정보 산출부
150 3차원 CG작성부(3차원 화상 작성부)
160 표시부
100 image processing unit
110 Shooting Department
111 Fisheye Lens
112 image pickup device
120 Number of Light Sources
130 memory
131 3D CG Model Information (3D Model Information)
1140 light source information calculation unit
150 3D CG Creator (3D Image Creator)
160 display

Claims (14)

어안렌즈를 구비하고, 상기 어안렌즈를 통해 화상을 촬영하는 촬영부;
3차원 공간을 규정하는 3차원 모델 정보를 저장하는 기억부;
상기 촬영부에 의해 촬영된 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 광원 갯수 산출부;
상기 산출된 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 광원 정보 산출부;
상기 저장한 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 3차원 화상 작성부; 및
상기 작성한 3차원 화상을 표시하는 표시부를 포함하는 화상 처리 장치.
A photographing unit having a fisheye lens and photographing an image through the fisheye lens;
A storage unit for storing three-dimensional model information defining a three-dimensional space;
A light source number calculating unit for calculating the number of light sources captured by the image capturing unit and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number;
A light source information calculation unit calculating a parameter in a real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space;
A three-dimensional image creating unit which creates a three-dimensional image based on the stored three-dimensional model information and the calculated light source information; And
An image processing apparatus comprising a display unit for displaying the created three-dimensional image.
제 1 항에 있어서,
상기 광원 정보 산출부는,
상기 산출된 광원 좌표 정보에 기초하여 투영 변환에 의해 상기 촬영부의 위치를 기준으로 상기 광원의 실 공간에서의 방위를 나타내는 방위 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 1,
The light source information calculation unit,
And the orientation information indicating the orientation in the real space of the light source with respect to the position of the photographing unit based on the calculated light source coordinate information as the light source information.
제 2 항에 있어서,
상기 광원 정보 산출부는,
상기 방위 정보와 소정 값에 기초하여 상기 광원의 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 2,
The light source information calculation unit,
And position information indicating a position in a real space of the light source based on the orientation information and a predetermined value as the light source information.
제 2 항에 있어서,
상기 촬영부는,
상기 적어도 둘 이상의 어안 렌즈를 포함하고, 상기 둘 이상의 어안렌즈를 통해 각각의 화상을 촬영하고,
상기 광원 갯수 산출부는,
상기 촬영부에 의해 촬영된 각각의 화상에 대해서 광원 갯수와 광원 정보를 산출하고,
상기 광원 정보 산출부는,
상기 촬영부에 의해 촬영된 각각의 화상에 대해 방위 정보를 산출하고, 상기 산출된 방위 정보에 기초하여 상기 광원의 상기 실 공간에서의 위치를 나타내는 위치 정보를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 2,
Wherein,
Including at least two fisheye lenses, photographing each image through the at least two fisheye lenses,
The light source number calculation unit,
Calculating light source number and light source information for each image photographed by the photographing unit;
The light source information calculation unit,
Azimuth information is calculated for each image photographed by the photographing unit, and based on the calculated azimuth information, positional information indicating a position in the real space of the light source is calculated as the light source information. Image processing apparatus.
제 2 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 광원 정보 산출부는,
상기 산출된 광원 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 강도 및 색 중 적어도 하나를 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method according to any one of claims 2 to 4,
The light source information calculation unit,
And at least one of an intensity and a color of light generated by the light source based on the calculated light source coordinate information as the light source information.
제 2 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 광원 갯수 산출부는,
상기 산출한 갯수에 상응하는 광원 영역을 상기 화상으로부터 검출하고, 상기 검출한 광원 영역의 상기 화상에서의 위치를 광원 영역 좌표 정보로서 산출하고,
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 상기 광원 영역 좌표 정보에 기초하여 상기 광원에서 발생되는 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method according to any one of claims 2 to 4,
The light source number calculation unit,
Detecting a light source region corresponding to the calculated number from the image, calculating a position in the image of the detected light source region as light source region coordinate information,
The light source information calculation unit,
And the spread of light generated by the light source as the light source information based on the light source region coordinate information calculated by the light source number calculation unit.
제 6 항에 있어서,
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 광원 영역 좌표 정보에 기초하여 상기 광원 영역을 2개의 벡터로 근사하고, 상기 2개의 벡터에 의해 상기 광의 퍼짐을 상기 광원 정보로서 산출하는 것을 특징으로 하는 화상 처리 장치.
The method according to claim 6,
The light source information calculation unit,
An image processing apparatus characterized by approximating the light source region to two vectors based on the light source region coordinate information calculated by the light source number calculating unit, and calculating the spread of the light as the light source information by the two vectors. .
제 1 항에 있어서,
상기 광원 정보 산출부는,
상기 광원 갯수 산출부에 의해 산출된 광원 좌표 정보에 기초하여 실 공간에서의 환경 광의 강도 및 색 중 적어도 하나를 상기 3차원 공간에서의 파라미터인 환경 광 정보로서 산출하고,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 산출된 상기 환경 광 정보에 기초하여 상기 3차원 공간에서의 물체 색을 특정하고, 상기 특정한 물체 색을 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 1,
The light source information calculation unit,
Calculating at least one of the intensity and the color of the environmental light in the real space based on the light source coordinate information calculated by the light source number calculating unit as the environmental light information as a parameter in the three-dimensional space,
The three-dimensional image creation unit,
An object color in the three-dimensional space is specified based on the ambient light information calculated by the light source information calculating unit, and a three-dimensional image having the specific object color is created.
제 1 항에 있어서,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 산출된 광원 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 그림자의 방향 및 갯수를 산출하고, 상기 산출한 그림자의 방향 및 갯수에 기초하여 그림자 영역을 특정하고, 상기 특정한 그림자 영역에 그림자를 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 1,
The three-dimensional image creation unit,
The direction and number of shadows generated in the three-dimensional space are calculated based on the light source information calculated by the light source information calculating unit and the three-dimensional model information stored in the storage unit. Specifying a shadow area on the basis of the shadow area, and creating a three-dimensional image having a shadow in the specific shadow area.
제 3 항 또는 제 4 항에 있어서,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 상기 광원 정보로서 산출된 위치 정보와 상기 기억부에 저장한 상기 3차원 모델 정보에 기초하여 상기 3차원 공간에 생기는 반그림자 영역을 특정하고, 상기 특정한 상기 반그림자 영역에 반그림자를 가진 3차원 화상을 작성하는 것을 특징으로 하는 화상 처리 장치.
The method according to claim 3 or 4,
The three-dimensional image creation unit,
Based on the positional information calculated as the light source information by the light source information calculating unit and the three-dimensional model information stored in the storage unit, a half shadow region generated in the three-dimensional space is specified, and a half shadow is formed in the specific half shadow region. An image processing apparatus characterized by creating a three-dimensional image.
제 1 항에 있어서,
상기 광원 정보 산출부는,
상기 3차원 화상의 작성에 이전에 사용된 광원 정보인 이전의 광원 정보와 비교하고. 현재의 광원 정보가 변화되었는지 여부를 판단하고,
상기 3차원 화상 작성부는,
상기 광원 정보 산출부에 의해 상기 현재의 광원 정보가 상기 이전의 광원 정보로부터 변화되었다고 판단된 경우에 상기 3차원 화상을 재작성하고,
상기 표시부는,
상기 재작성한 상기 3차원 화상을 재표시하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 1,
The light source information calculation unit,
Compare with previous light source information which is light source information previously used for the creation of the three-dimensional image. Determine whether the current light source information has changed,
The three-dimensional image creation unit,
Reconstruct the three-dimensional image when it is determined by the light source information calculating unit that the current light source information has been changed from the previous light source information,
The display unit,
And re-display the recreated three-dimensional image.
제 1 항에 있어서,
상기 촬영부는,
상기 어안렌즈를 통해 상기 화상 처리 장치의 외부에서 수광하여 화상을 촬영하는 것을 특징으로 하는 화상 처리 장치.
The method of claim 1,
Wherein,
And an image is received by the outside of the image processing apparatus through the fisheye lens to capture an image.
어안렌즈를 통해 화상을 촬영하는 단계;
상기 촬영한 화상에 찍힌 광원의 갯수를 산출하고, 상기 산출한 갯수에 상응하는 상기 광원의 화상에서의 위치를 나타내는 광원 좌표 정보를 산출하는 단계;
상기 산출한 광원 좌표 정보에 기초하여 상기 광원에 관한 실 공간에서의 파라미터를 상기 3차원 공간에서의 파라미터인 광원 정보로서 산출하는 단계;
미리 저장한 3차원 공간을 규정하는 3차원 모델 정보와 상기 산출한 광원 정보에 기초하여 3차원 화상을 작성하는 단계; 및
상기 작성한 3차원 화상을 표시하는 단계를 포함하는 화상 처리 방법.
Photographing an image through a fisheye lens;
Calculating the number of light sources imprinted on the photographed image, and calculating light source coordinate information indicating a position in the image of the light source corresponding to the calculated number;
Calculating a parameter in real space with respect to the light source based on the calculated light source coordinate information as light source information that is a parameter in the three-dimensional space;
Creating a three-dimensional image based on the three-dimensional model information defining the three-dimensional space stored in advance and the calculated light source information; And
An image processing method comprising the step of displaying the created three-dimensional image.
제 13 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium having recorded thereon a program for executing the method according to claim 13 on a computer.
KR1020100127873A 2009-12-24 2010-12-14 Image processing apparatus, image processing method and recording medium KR20110074442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/978,281 US20110157314A1 (en) 2009-12-24 2010-12-23 Image Processing Apparatus, Image Processing Method and Recording Medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2009-293471 2009-12-24
JP2009293471A JP5506371B2 (en) 2009-12-24 2009-12-24 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
KR20110074442A true KR20110074442A (en) 2011-06-30

Family

ID=44346787

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100127873A KR20110074442A (en) 2009-12-24 2010-12-14 Image processing apparatus, image processing method and recording medium

Country Status (2)

Country Link
JP (1) JP5506371B2 (en)
KR (1) KR20110074442A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130060158A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Image processing apparatus and method
WO2019083266A1 (en) * 2017-10-24 2019-05-02 엘지전자 주식회사 Method for transmitting/receiving 360-degree video including fisheye video information, and device therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812271B2 (en) * 2017-02-27 2021-01-13 キヤノン株式会社 Image processing equipment, image processing methods and programs

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5797475A (en) * 1980-12-10 1982-06-17 Meidensha Electric Mfg Co Ltd Measuring method for position of energy source
JPH01106284A (en) * 1987-10-20 1989-04-24 Fujitsu Ltd Three-dimensional image display control device
EP0447226A3 (en) * 1990-03-16 1993-05-12 Hewlett-Packard Company Computer graphics method for adding specular reflections to images with shadow penumbrae
US6226006B1 (en) * 1997-06-27 2001-05-01 C-Light Partners, Inc. Method and apparatus for providing shading in a graphic display system
US6647146B1 (en) * 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
JPH11175762A (en) * 1997-12-08 1999-07-02 Katsushi Ikeuchi Light environment measuring instrument and device and method for shading virtual image using same
US8100552B2 (en) * 2002-07-12 2012-01-24 Yechezkal Evan Spero Multiple light-source illuminating system
JP4274377B2 (en) * 2003-05-30 2009-06-03 ラティス・テクノロジー株式会社 3D graphics data display device
JP4436101B2 (en) * 2003-09-29 2010-03-24 学校法人東京理科大学 robot
US7750936B2 (en) * 2004-08-06 2010-07-06 Sony Corporation Immersive surveillance system interface
JP2006107093A (en) * 2004-10-05 2006-04-20 Konica Minolta Medical & Graphic Inc Image processor and program
JP2008041107A (en) * 2007-09-10 2008-02-21 Sanyo Electric Co Ltd Imaging apparatus and image synthesizer
US8289318B1 (en) * 2008-08-29 2012-10-16 Adobe Systems Incorporated Determining three-dimensional shape characteristics in a two-dimensional image
KR20110068469A (en) * 2009-12-16 2011-06-22 인하대학교 산학협력단 The method for 3d object information extraction from single image without meta information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130060158A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Image processing apparatus and method
WO2019083266A1 (en) * 2017-10-24 2019-05-02 엘지전자 주식회사 Method for transmitting/receiving 360-degree video including fisheye video information, and device therefor

Also Published As

Publication number Publication date
JP5506371B2 (en) 2014-05-28
JP2011134133A (en) 2011-07-07

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10171728B2 (en) Image processing device, photographing control method, and program
JP6685827B2 (en) Image processing apparatus, image processing method and program
US10923004B2 (en) Information processing apparatus, information processing method, and computer program product for arranging a planar image within a panoramic image
US11663733B2 (en) Depth determination for images captured with a moving camera and representing moving features
JP7007348B2 (en) Image processing equipment
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
CN112272292B (en) Projection correction method, apparatus and storage medium
JP6576083B2 (en) Image processing apparatus, image processing method, and program
US20130120451A1 (en) Image processing device, image processing method, and program
JP2016020891A (en) Shape measurement system and imaging device
JP2016537901A (en) Light field processing method
JP2018163648A (en) Image processor, method for image processing, and program
US11962946B2 (en) Image processing apparatus, display system, image processing method, and medium
KR20190067438A (en) Method for providing image and electronic device for supporting the same
JP2016218729A (en) Image processor, image processing method and program
CN114449249A (en) Image projection method, image projection device, storage medium and projection equipment
CN109427089B (en) Mixed reality object presentation based on ambient lighting conditions
KR20110074442A (en) Image processing apparatus, image processing method and recording medium
US20230316640A1 (en) Image processing apparatus, image processing method, and storage medium
WO2020209108A1 (en) Image processing device, 3d model generation method, and program
JP6896811B2 (en) Image processing equipment, image processing methods, and programs
CN108876891B (en) Face image data acquisition method and face image data acquisition device
US20110157314A1 (en) Image Processing Apparatus, Image Processing Method and Recording Medium
EP2816794B1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application