KR101788471B1 - Apparatus and method for displaying augmented reality based on information of lighting - Google Patents

Apparatus and method for displaying augmented reality based on information of lighting Download PDF

Info

Publication number
KR101788471B1
KR101788471B1 KR1020160129829A KR20160129829A KR101788471B1 KR 101788471 B1 KR101788471 B1 KR 101788471B1 KR 1020160129829 A KR1020160129829 A KR 1020160129829A KR 20160129829 A KR20160129829 A KR 20160129829A KR 101788471 B1 KR101788471 B1 KR 101788471B1
Authority
KR
South Korea
Prior art keywords
board
illumination
information
image
augmented reality
Prior art date
Application number
KR1020160129829A
Other languages
Korean (ko)
Inventor
김회민
조미령
정광현
김상유
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020160129829A priority Critical patent/KR101788471B1/en
Application granted granted Critical
Publication of KR101788471B1 publication Critical patent/KR101788471B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법을 제공하는 것을 목적으로 한다. 이를 위해, 본 발명은 주변의 조명 환경 정보를 표시하는 보드; 상기 보드와, 보드의 주변 배경을 촬영하는 카메라; 상기 카메라가 촬영한 보드와 보드의 주변 배경 이미지를 분석하여 조명 환경을 검출하고, 상기 검출된 조명 환경 정보를 반영한 가상 구조의 증강 현실 이미지를 생성하는 제어부; 및 상기 제어부에서 생성된 증강 현실 이미지를 표시하는 디스플레이부를 포함한다. 따라서 본 발명은 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공할 수 있는 장점이 있다.An object of the present invention is to provide an object augmented reality display apparatus and method based on an illumination information that provides a realistic image through natural combination of an object and a background by enhancing an object based on the position of traceable illumination and the light distribution information . To this end, the present invention provides a display device comprising: a board for displaying surrounding illumination environment information; A camera for photographing the background of the board and a peripheral background of the board; A control unit for detecting an illumination environment by analyzing a peripheral background image of the board and the board photographed by the camera and generating a virtual structure augmented reality image reflecting the detected illumination environment information; And a display unit for displaying the augmented reality image generated by the control unit. Therefore, the present invention has the advantage of providing a realistic image through natural combination of object and background by enhancing the object based on the position of trackable illumination and the light distribution information.

Description

조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법 {APPARATUS AND METHOD FOR DISPLAYING AUGMENTED REALITY BASED ON INFORMATION OF LIGHTING}FIELD OF THE INVENTION [0001] The present invention relates to an object augmented reality display apparatus and method based on illumination information,

본 발명은 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for displaying augmented reality based on illumination information, and more particularly, to an apparatus and method for displaying an augmented reality based on illumination information, and more particularly, And more particularly, to an apparatus and method for displaying object augmented reality based on illumination information.

컴퓨터와 정보통신 기술의 발전은 과거에 시도하기 어려웠었던 대용량 데이터의 분석과 처리를 가능하게 하고 특히, 동영상 이미지 데이터 처리 분야에 많은 영향을 주어 획기적인 발전이 이루어지고 있다.Advances in computers and information and communication technologies have made it possible to analyze and process large amounts of data that have been difficult to try in the past, and especially in the field of video image data processing.

증강현실(Augmented Reality: AR)은 가상현실(Virtual Reality: VR)의 한 분야이며 실제 환경을 촬영한 멀티미디어 이미지에 가상의 사물 또는 선택되거나 지정된 멀티미디어를 합성(융합)시켜 실제 환경에 존재하는 것처럼 보여주는 컴퓨터 그래픽 분야 중의 하나이다.Augmented Reality (AR) is a field of Virtual Reality (VR). It is a field of virtual reality (VR). It combines a virtual object or a selected or designated multimedia into a multimedia image of a real environment, It is one of the areas of computer graphics.

가상현실(VR)은 현실세계와의 상호작용을 배제하고 사전에 미리 구축해 놓은 가상공간에서 대상체 또는 객체들이 서로 상호작용하는 상태로 노출되도록 처리하는 첨단기술의 컴퓨터 그래픽이다.Virtual reality (VR) is a high-tech computer graphics that excludes interaction with the real world and processes objects or objects to be exposed in a state where they interact with each other in a pre-built virtual space.

한편, 증강현실(AR)은 실제 환경과 가상의 물체를 실시간으로 합성(융합)된 상태로 노출시켜 보여주는 것으로 현실세계 정보(증강정보)를 가상세계 정보로 보완해주는 개념의 컴퓨터 그래픽이며 가상환경을 사용하지만 주역은 현실세계의 환경이다.On the other hand, Augmented Reality (AR) is a computer graphic of a concept that complements real world information (reinforcement information) with virtual world information by exposing real environment and virtual objects in a synthesized (fusion) state in real time. But the protagonist is the environment of the real world.

즉, 증강현실(AR)은 실제로 관찰되는 현실세계의 영상 또는 실사 영상에 컴퓨터 그래픽이라는 특수 인터페이스를 이용하고 3차원 가상영상을 정합(register)시켜 표현하므로 현실세계의 현실환경과 가상세계의 가상 환경에 대한 구분이 모호해지면서 실제 환경이 보다 증강되어 개선된 이미지로 보이도록 하는 것으로, 특정 지역 또는 실제 상품 등의 정보에 대하여 관찰자가 신속하고 빠르며 편리하게 상황 판단하도록 응용할 수 있다.In other words, the Augmented Reality (AR) uses a special interface called computer graphic for the actual or real image of the real world observed and registers the 3D virtual image by registering it, The user can apply the present invention to a situation where the observer can quickly, quickly and easily judge the situation of the information such as the specific area or the actual product by making the actual environment appear more improved and improved image.

일반적으로 가상 물체가 실제 영상에 존재하는 것처럼 보이는 사실적인 합성 영상을 렌더링하기 위해서는 주변 환경에 존재하는 조명정보들이 필요하다.Generally, in order to render a realistic composite image in which a virtual object appears to exist in a real image, illumination information present in the surrounding environment is required.

그러나 실제 주변 환경에서 상기 조명정보의 영향을 모두 고려하여 가상 물체를 사실적으로 합성하는 기술(예컨대, 전역조명(global illumination) 모델 등)은 많은 계산량이 요구될 수 있다.However, a technique of realistically synthesizing a virtual object in consideration of the influence of the illumination information in an actual surrounding environment (e.g., a global illumination model and the like) may require a large amount of calculation.

또한, 종래의 증강 기술은 대부분 객체와 배경의 조명 환경이 달라 부자연스러운 이미지 합성 결과를 보여주고, 특히 야외 조명의 경우 실시간으로 변화하기 때문에 조명 환경 정보를 전달하여 객체를 렌더링할 수 없는 문제점이 있다.In addition, most of the conventional enhancement technologies have different illumination environments of objects and backgrounds, and result in unnatural image synthesis. In particular, since outdoor illumination changes in real time, there is a problem that objects can not be rendered by transmitting illumination environment information .

한국 등록특허공보 등록번호 제10-0897006호(발명의 명칭: 실시간으로 영상 합성이 가능한 영상 합성기 및 그 방법)Korean Patent Registration No. 10-0897006 (entitled " Image synthesizer capable of image synthesis in real time and method thereof "

이러한 문제점을 해결하기 위하여, 본 발명은 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법을 제공하는 것을 목적으로 한다.In order to solve these problems, the present invention provides an object augmented reality display device and method based on illumination information, which provides a realistic image through natural combination of object and background by enhancing an object based on the position of trackable illumination and light distribution information And to provide the above objects.

상기한 목적을 달성하기 위하여 본 발명은 주변의 조명 환경 정보를 표시하는 보드; 상기 보드와, 보드의 주변 배경을 촬영하는 카메라; 상기 카메라가 촬영한 보드와 보드의 주변 배경 이미지를 분석하여 조명 환경을 검출하고, 상기 검출된 조명 환경 정보를 반영한 가상 구조의 증강 현실 이미지를 생성하는 제어부; 및 상기 제어부에서 생성된 증강 현실 이미지를 표시하는 디스플레이부를 포함한다.According to an aspect of the present invention, there is provided a display device including a board for displaying surrounding illumination environment information; A camera for photographing the background of the board and a peripheral background of the board; A control unit for detecting an illumination environment by analyzing a peripheral background image of the board and the board photographed by the camera and generating a virtual structure augmented reality image reflecting the detected illumination environment information; And a display unit for displaying the augmented reality image generated by the control unit.

또한, 본 발명은 사용자가 상기 보드를 중심으로 설치된 조명의 방향 및 개수를 입력하는 입력부를 더 포함하는 것을 특징으로 한다.The present invention further includes an input unit for inputting the direction and the number of the lights installed around the board by the user.

또한, 본 발명은 보드에 설치되어 상기 보드 상의 배치되는 객체의 위치를 검출하는 센서부를 더 포함하는 것을 특징으로 한다.The present invention further includes a sensor unit installed on the board for detecting a position of an object disposed on the board.

또한, 본 발명에 따른 상기 보드는 조명의 방향 정보가 추정되도록 조명의 방향에 따라 음영을 형성하는 조명 정보 검출부를 포함하는 것을 특징으로 한다.The board according to the present invention is characterized in that it includes an illumination information detector for forming a shadow according to the direction of the illumination so that the direction information of the illumination is estimated.

또한, 본 발명에 따른 상기 보드는 보드의 크기, 형태, 좌표, 방향 정보 중 적어도 하나를 나타내는 하나 이상의 프레임 마커를 더 포함하는 것을 특징으로 한다.Also, the board according to the present invention may further include one or more frame markers indicating at least one of size, shape, coordinates, and orientation information of the board.

또한, 본 발명에 따른 상기 조명 정보 검출부는 도금, 동일한 색상 또는 일정 패턴의 색상으로 도색된 것을 특징으로 한다.Also, the illumination information detecting unit according to the present invention is characterized in that it is plated, painted in the same hue or a certain pattern color.

또한, 본 발명에 따른 상기 조명 정보 검출부는 보드에 일체로 설치되거나 또는 상기 보드와 분리 가능하게 설치된 것을 특징으로 한다.Further, the illumination information detecting unit according to the present invention may be integrally installed on the board or may be detachably mounted on the board.

또한, 본 발명에 따른 상기 조명 정보 검출부는 일정 형상의 입체 모형인 것을 특징으로 한다.Further, the illumination information detecting unit according to the present invention is characterized by being a three-dimensional model having a predetermined shape.

또한, 본 발명에 따른 상기 조명 정보 검출부는 조명의 밝기와 방향을 검출하는 광센서로 이루어진 것을 특징으로 한다.Further, the illumination information detecting unit according to the present invention is characterized by comprising an optical sensor for detecting the brightness and direction of the illumination.

또한, 본 발명에 따른 상기 조명 정보 검출부는 보드의 중앙 또는 상기 보드의 임의의 위치에 적어도 하나 이상 설치한 것을 특징으로 한다.In addition, the illumination information detecting unit according to the present invention is characterized in that at least one or more of the illumination information detecting units are installed at the center of the board or at any position of the board.

또한, 본 발명에 따른 상기 제어부는 검출된 조명 환경 정보와, 미리 설정된 보드 설정 정보를 반영하여 상기 보드가 임의의 형태 및 재질감을 재구성한 보드 이미지를 생성하여 디스플레이부로 출력하는 것을 특징으로 한다.In addition, the control unit according to the present invention generates a board image in which the board reconstructs an arbitrary shape and texture by reflecting the detected illumination environment information and preset board setting information, and outputs the generated board image to the display unit.

또한, 본 발명에 따른 상기 제어부는 보드의 크기, 형태, 좌표 및 방향 정보 중 적어도 하나 이상의 정보를 이용하여 상기 보드 상에 위치한 객체의 위치를 추정하는 것을 특징으로 한다.In addition, the controller estimates the position of an object located on the board using at least one of size, shape, coordinates, and orientation information of the board.

또한, 본 발명에 따른 상기 제어부는 상기 보드 상에 위치한 객체의 형태, 재질감을 재구성한 객체 이미지를 생성하여 디스플레이부로 출력하는 것을 특징으로 한다.In addition, the controller according to the present invention generates an object image reconstructing the shape and texture of the object located on the board, and outputs the object image to the display unit.

또한, 본 발명에 따른 상기 제어부는 보드와 객체에 알파 채널을 합성하여 동적 이미지를 생성하여 디스플레이부로 출력하는 것을 특징으로 한다.Also, the controller according to the present invention is characterized in that a dynamic image is generated by combining an alpha channel with a board and an object, and the dynamic image is output to the display unit.

또한, 본 발명은 a) 제어부가 카메라에서 촬영한 주변의 조명 환경 정보를 표시하는 보드의 이미지와, 미리 설정된 상기 보드의 기본 정보를 인식하는 단계; b) 상기 제어부가 보드 주변의 조명 환경 정보를 검출하는 단계; 및 c) 상기 제어부가 검출된 조명 환경 정보에 따라 상기 보드의 형태 및 재질감을 재구성한 보드 이미지를 생성하여 디스플레이부를 통해 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling a display device, the method comprising the steps of: a) recognizing an image of a board displaying illumination environment information of a surrounding area photographed by a controller; b) the control unit detects illumination environment information around the board; And c) generating a board image in which the shape and the texture of the board are reconstructed according to the detected illumination environment information, and outputting the generated board image through the display unit.

또한, 본 발명은 상기 객체 증강 현실 디스플레이 방법은 d) 상기 제어부가 보드 상의 객체와, 상기 객체의 위치를 인식하는 단계; e) 상기 제어부가 상기 b) 단계에서 검출한 조명 환경 정보를 이용하여 상기 객체의 형태 및 재질감을 재구성하여 객체 이미지를 생성하는 단계; 및 f) 상기 제어부가 상기 c) 단계 및 e) 단계에서 생성한 보드 이미지와 객체 이미지를 레이어 합성하여 디스플레이부를 통해 출력하는 단계를 더 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for displaying an object augmented reality, comprising the steps of: d) recognizing the object on a board and the position of the object; e) generating an object image by reconstructing the shape and texture of the object using the illumination environment information detected in the step b); And f) layering the board image and the object image generated by the controller in steps c) and e), and outputting the result through the display unit.

또한, 본 발명에 따른 상기 b) 단계의 조명 환경 정보는 상기 보드에 설치된 조명 정보 검출부가 조명의 방향에 따라 형성하는 음영 정보 또는 사용자가 입력부를 통해 입력하는 사용자의 조명 방향 정보 중 적어도 하나인 것을 특징으로 한다.In addition, the illumination environment information in the step b) according to the present invention is at least one of shading information formed by the illumination information detection unit installed on the board according to the direction of the illumination, or illumination direction information of the user inputted by the user through the input unit .

본 발명은 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공할 수 있는 장점이 있다.The present invention has the advantage of providing a realistic image through natural synthesis of objects and background by enhancing objects based on the position of trackable illumination and the light distribution information.

또한, 본 발명은 사용자가 간편하고, 정확한 조명정보를 선정할 수 있어 개선된 증강현실 이미지를 제공할 수 있는 장점이 있다.Further, the present invention is advantageous in that an improved augmented reality image can be provided because a user can easily and accurately select illumination information.

또한, 본 발명은 개선된 증강현실 기술을 이용하여 다양한 게임 및 교육용 애플리케이션 개발에 활용할 수 있는 장점이 있다.In addition, the present invention has an advantage that it can be utilized for developing various games and educational applications by using the advanced augmented reality technology.

도 1 은 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치를 나타낸 예시도.
도 2 는 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치를 나타낸 블록도.
도 3 은 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치의 보드 구조를 나타낸 단면도.
도 4 는 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 과정을 나타낸 흐름도.
1 is a view illustrating an object augmented reality display apparatus based on an illumination information according to the present invention;
2 is a block diagram illustrating an object augmented reality display apparatus based on illumination information according to the present invention.
3 is a cross-sectional view illustrating a board structure of an object augmented reality display apparatus based on illumination information according to the present invention.
4 is a flowchart illustrating an object augmented reality display process based on illumination information according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of an apparatus and method for displaying augmented reality based on illumination information according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치를 나타낸 예시도이고, 도 2는 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치를 나타낸 블록도이며, 도 3은 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치의 보드 구조를 나타낸 단면도이다.FIG. 1 is a diagram illustrating an object augmented reality display apparatus based on an illumination information according to the present invention. FIG. 2 is a block diagram illustrating an object augmented reality display apparatus based on an illumination information according to the present invention. Sectional view illustrating a board structure of an object augmented reality display device based on illumination information according to an embodiment of the present invention.

도 1 내지 도 3에 나타낸 바와 같이, 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 장치는 보드(100)와, 카메라(200)와, 제어부(300)와, 디스플레이부(400)를 포함하여 구성되고, 상기 보드(100) 주변의 조명 환경을 카메라(200)와 제어부(300)를 이용하여 추정하고, 상기 추정된 조명 환경을 이용하여 사실적인 증강 현실 이미지를 생성한다.1 to 3, the illumination information-based object augmented reality display apparatus according to the present invention includes a board 100, a camera 200, a control unit 300, and a display unit 400 And estimates the illumination environment around the board 100 using the camera 200 and the controller 300, and generates a realistic augmented reality image using the estimated illumination environment.

상기 보드(100)는 실내공간(10)의 일정 위치에 배치되고, 상기 실내 공간(10)에 설치된 조명(20)의 위치에 따라 상기 조명(20)에서 발광되는 빛의 조사 방향에 따른 조명의 방향을 포함한 보드(100) 주변의 조명 환경 정보를 추정할 수 있도록 표시하는 구성으로서, 상기 조명(20)의 위치에 따라 상기 보드(100) 상에 음영 정보가 생성되도록 적어도 하나의 조명 정보 검출부(110)가 설치된다.The board 100 is disposed at a predetermined position of the interior space 10 and is arranged at a position corresponding to the illumination direction of the light emitted from the illumination 20 according to the position of the illumination 20 installed in the interior space 10. [ (100) so that shadow information can be generated on the board (100) according to the position of the illumination (20), wherein the illumination information detecting unit 110 are installed.

상기 조명 정보 검출부(110)는 보드(100)의 중앙에 설치되거나 또는 보드(100)의 모서리와 같은 보드(100)의 주변부 일정 위치에 설치되고, 상기 보드(100)의 상면으로 일정 높이 돌출된 구, 반구, 원기둥 등의 일정 형상을 갖는 입체 모형으로 이루어진다.The illumination information detecting unit 110 may be installed at a center of the board 100 or may be installed at a predetermined position on the periphery of the board 100 such as the edge of the board 100, A three-dimensional model having a predetermined shape such as a sphere, a hemisphere, and a cylinder.

즉 상기 조명 정보 검출부(110)는 보드(100)가 설치된 위치와 실내 공간(10)에 설치된 조명(20)의 위치에 따라 음영이 표시되도록 하여 빛의 방향을 표시할 수 있도록 한다.That is, the illumination information detector 110 displays the shade according to the location of the board 100 and the location of the illumination 20 installed in the indoor space 10, thereby displaying the direction of the light.

또한, 상기 조명 정보 검출부(110)는 보드(100)에 일체로 설치되거나 또는 상기 보드(100)와 분리 가능하게 설치된다.The illumination information detecting unit 110 may be integrally installed on the board 100 or may be detachably mounted on the board 100.

또한, 상기 조명 정보 검출부(110)는 외부 표면을 임의의 재질로 도금하거나, 동일한 색상으로 도색하거나 또는 일정 패턴의 색상으로 도색하여 구성함으로써, 보드(100) 상에 인쇄를 통해 임의의 게임 정보 등이 표시되거나 경로, 배경 그림 등이 표시되는 인쇄부(130) 또는 놀이 말과 같은 객체(140)와 구별될 수 있도록 한다.The illumination information detecting unit 110 may be formed by plating the outer surface with an arbitrary material, painting with the same color, or coloring with a certain pattern color so that arbitrary game information or the like is printed on the board 100 Or an object 140 such as a printing unit 130 or a play horse that displays a route, a background picture, and the like.

또한, 본 실시예에서는 상기 조명 정보 검출부(110)를 조명 환경을 추정하기 위한 입체 모형으로 구성하였으나, 이에 한정되는 것은 아니고, 조명의 방향성과 밝기를 검출 및 추정할 수 있는 광센서로 구성할 수도 있다.In the present embodiment, the illumination information detection unit 110 is configured as a three-dimensional model for estimating the illumination environment. However, the present invention is not limited thereto, and the illumination information detection unit 110 may be an optical sensor capable of detecting and estimating the directionality and brightness of illumination have.

또한, 상기 보드(100)는 제어부(300)가 카메라(200)를 통해 촬영한 이미지에서 상기 보드(100)의 크기, 형태, 좌표, 방향 정보 등을 쉽게 인식할 수 있도록 하나 이상의 프레임 마커(120)가 설치된다.The board 100 may include one or more frame markers 120 (not shown) so as to easily recognize the size, shape, coordinates, and orientation information of the board 100 in an image taken by the controller 300 through the camera 200. [ Is installed.

상기 프레임 마커(120)는 일반적인 위치 정보를 포함하고, 상기 프레임 마커(120)의 위치를 예를 들면, 4개의 꼭지점 정보로 나타냄으로써, 증강 현실 이미지에서 쉽게 위치를 찾을 수 있도록 하며, 상기 프레임 마커(120)는 2개 또는 3개로 구성할 수도 있다.The frame marker 120 includes general positional information, and the position of the frame marker 120 is represented by, for example, four pieces of vertex information, so that the position of the frame marker 120 can be easily found in the augmented reality image. (120) may be composed of two or three.

상기 카메라(200)는 임의의 해상도를 갖는 이미지 신호에서 빛의 세기에 따라 적색(R), 녹색(G), 청색(B)의 RGB 신호를 출력하고, 피사체 정보를 빛의 형태로 읽어 전기적인 영상신호로 변환하여 출력하며, CCD 센서, CMOS 센서 또는 입력되는 빛의 세기에 따라 RGB 신호를 출력하는 구성으로서, 보드(100)와 일정 거리 이격된 위치에서 상기 보드(100)와 보드(100) 주변의 배경을 촬영한 이미지를 출력한다.The camera 200 outputs RGB signals of red (R), green (G), and blue (B) according to the intensity of light in an image signal having an arbitrary resolution, reads the object information in the form of light, And outputs the RGB signal according to the intensity of the inputted light. The board 100 and the board 100 are connected to each other at a position spaced apart from the board 100 by a predetermined distance, The image of the surrounding background is photographed.

또한, 상기 카메라(200)는 별도의 촬영수단으로 이루어질 수도 있고, 스마트폰 등의 휴대 단말기에 설치된 촬영수단으로 구성될 수도 있다.In addition, the camera 200 may be a separate photographing means, or may be a photographing means installed in a portable terminal such as a smart phone.

상기 제어부(300)는 카메라(200)가 촬영한 보드(100)와 보드(100)의 주변 배경 이미지를 분석하여 조명 환경을 검출하고, 상기 검출된 조명 환경 정보를 반영한 가상 구조의 증강 현실 이미지를 생성하는 구성으로서, 상기 카메라(200)와 함께 스마트폰 등에 구성될 수도 있고, 별도의 연산수단으로 구성될 수도 있다.The control unit 300 detects an illumination environment by analyzing the background image of the board 100 captured by the camera 200 and the background image of the board 100 and displays a virtual reality image of the virtual structure reflecting the detected illumination environment information And may be configured as a smart phone or the like together with the camera 200, or may be configured as a separate computing means.

즉 상기 제어부(300)는 카메라(200)가 촬영한 이미지를 분석하여 보드(100)에 설치된 조명 정보 검출부(110)를 인식하고, 상기 조명 정보 검출부(110) 주변에 형성되는 음영 정보를 검출하여 조명의 방향 정보를 추출함으로써, 보드(100)가 설치된 실내 공간(10)의 조명 환경을 인식할 수 있다.That is, the control unit 300 recognizes the illumination information detection unit 110 installed on the board 100 by analyzing the image photographed by the camera 200, and detects shadow information formed around the illumination information detection unit 110 By extracting the direction information of the illumination, the illumination environment of the indoor space 10 in which the board 100 is installed can be recognized.

또한, 상기 제어부(300)는 카메라(200)의 자동 노출 정보를 이용하여 실시간 밝기 추정을 수행하여 조명(20)에 의한 조도 또는 밝기 정보를 검출함으로써, 조명의 방향, 밝기 등의 조명 환경 정보를 추출할 수 있다.In addition, the controller 300 performs real-time brightness estimation using the automatic exposure information of the camera 200 to detect illuminance information or brightness information of the illuminant 20, Can be extracted.

또한, 상기 제어부(300)는 신속한 인식을 위해 보드(100)에 설치되는 조명 정보 검출부(110)의 형상 정보와, 조명의 방향에 따라 형성되는 음영의 위치 정보 등을 미리 저장하여 구성할 수도 있다.In addition, the controller 300 may previously store shape information of the illumination information detector 110 installed in the board 100 and positional information of shadows formed in accordance with the illumination direction for quick recognition .

또한, 상기 제어부(300)는 보드(100)와 관련하여 미리 설정된 보드의 형태, 재질 등과 관련된 설정 정보를 저장하고, 상기 저장된 보드의 설정 정보와 검출된 조명의 방향 및 밝기를 포함한 조명 환경 정보를 이용하여 디스플레이될 보드를 일정 형태와 재질감이 재구성된 가상의 보드 이미지를 생성한다.In addition, the controller 300 stores setting information related to the board type, material, and the like, which are preset with respect to the board 100, and stores the setting information of the board, the illumination environment information including the direction and brightness of the detected illumination To generate a virtual board image in which a board to be displayed is reconstructed in a certain form and texture.

또한, 상기 제어부(300)는 보드(100)에 설치된 프레임 마커(120)를 이용하여 보드(100)의 크기, 형태, 좌표 및 방향 정보 등을 검출하고, 상기 검출된 정보를 이용하여 상기 보드(100) 상에 위치한 객체(140)의 위치를 추정한다.The controller 300 detects the size, shape, coordinate and direction information of the board 100 using the frame marker 120 installed on the board 100, 0.0 > 140 < / RTI >

또한, 상기 제어부(300)는 객체(140)와 관련하여 미리 설정된 객체(140)의 형태, 재질 등과 관련된 설정 정보를 저장하고, 상기 저장된 객체(140)의 설정 정보와, 검출된 조명의 방향 및 밝기를 포함한 조명 환경 정보를 이용하여 디스플레이될 객체의 형태와 재질감이 재구성된 가상의 객체 이미지를 생성하고, 상기 생성된 가상의 객체 이미지를 상기 추정된 객체(140)의 위치에서 디스플레이되도록 한다. The control unit 300 stores setting information related to the type, material, and the like of the object 140 previously set in association with the object 140, and stores setting information of the stored object 140, Generates a virtual object image in which the shape and texture of the object to be displayed are reconstructed using the illumination environment information including brightness, and displays the generated virtual object image at the position of the estimated object 140. [

또한, 상기 제어부(300)는 보드(100)에 설치되어 상기 보드(100) 상의 배치되는 객체(140)의 위치를 검출하는 센서부(600)를 이용하여 상기 객체(140)의 위치를 검출할 수도 있다.The controller 300 detects the position of the object 140 using the sensor unit 600 installed on the board 100 and detects the position of the object 140 disposed on the board 100 It is possible.

또한, 상기 제어부(300)는 재구성된 가상의 보드와 가상의 객체에 알파 채널(레이어)을 합성하여 동적 이미지를 생성할 수도 있다.Also, the controller 300 may generate a dynamic image by synthesizing alpha channels (layers) with the reconstructed virtual board and virtual objects.

한편, 본 실시예에서는 상기 제어부(300)가 보드(100)에 설치된 조명 정보 검출부(110)를 이용하여 조명 환경 정보를 자동으로 추정하는 구성을 실시예로 설명하였지만, 이에 한정되는 것은 아니고, 사용자가 입력하는 조명 환경 정보를 검출하여 가상의 보드 이미지와 객체 이미지를 재구성할 수도 있다.In the present exemplary embodiment, the control unit 300 automatically estimates the illumination environment information using the illumination information detection unit 110 installed in the board 100. However, the present invention is not limited to this, It is possible to reconstruct the virtual board image and the object image by detecting the illumination environment information inputted by the user.

즉 사용자가 입력부(500)를 통해 보드(100)의 위치에 따라 상기 보드(100)를 중심으로 조명의 방향 및 조명의 개수, 조명의 밝기 정보 등을 입력함으로써, 조명 환경 정보의 추정이 난해한 환경에서 조명 환경 정보를 제공할 수 있도록 구성할 수 있다.That is, the user inputs the direction of illumination, the number of lights, the brightness information of the illumination, and the like around the board 100 in accordance with the position of the board 100 through the input unit 500, So that it is possible to provide illumination environment information.

상기 디스플레이부(400)는 제어부(300)에서 생성된 가상의 보드 이미지 및 객체 이미지를 포함한 증강 현실 이미지를 표시하는 구성으로서, LED, LCD 등의 표시장치로 이루어진다.The display unit 400 is configured to display an augmented reality image including a virtual board image and an object image generated by the controller 300, and includes a display device such as an LED and an LCD.

본 실시예에서는 설명의 편의를 위해, 카메라(200)와, 제어부(300)와, 디스플레이부(400)를 각각 분리된 구성으로 설명하였지만, 이에 한정되는 것은 아니고, 스마트폰, 테블릿 PC, 노트북 PC 등의 일체형 기기로 구성될 수도 있다.Although the camera 200, the control unit 300 and the display unit 400 are described as being separated from each other for convenience of explanation, the present invention is not limited thereto. For example, a smart phone, a tablet PC, PC or the like.

다음은 본 발명에 따른 조명 정보 기반의 객체 증강 현실 디스플레이 과정을 도 1 내지 도 4를 참조하여 설명한다.Next, a process of displaying an object augmented reality based on illumination information according to the present invention will be described with reference to Figs. 1 to 4. Fig.

실내 공간(10)의 일정 위치에 보드(100)가 설치되면, 제어부(300)는 카메라(200)에서 촬영한 주변의 조명 환경 정보를 표시하는 보드(100)의 이미지로부터 프레임 마커(120)를 분석하여 보드(100)를 검출하고, 상기 검출된 보드(100)에 대하여 미리 설정된 기본 정보를 인식(S100)한다.When the board 100 is installed at a predetermined position of the indoor space 10, the controller 300 reads out the frame marker 120 from the image of the board 100 displaying the surrounding environment information photographed by the camera 200 Detects the board 100, and recognizes the basic information set in advance for the board 100 (S100).

상기 S100 단계의 보드 인식이 완료되면, 상기 제어부(300)는 보드(100) 상에 설치된 조명 정보 검출부(110)를 이용하여 조명 환경의 자동 추정이 가능한지 판단(S110)한다.When the board recognition in step S100 is completed, the control unit 300 determines whether the illumination environment can be automatically estimated using the illumination information detection unit 110 installed on the board 100 (S110).

상기 S110 단계의 판단 결과, 자동 추정이 가능하면, 상기 제어부(300)는 카메라(200)를 통해 촬영한 이미지로부터 조명의 방향, 조명의 밝기 등을 포함한 보드(100) 주변의 조명 환경 정보를 검출(S120)한다.As a result of the determination in step S110, if the automatic estimation is possible, the controller 300 detects illumination environment information about the board 100 including the direction of the illumination, the brightness of the illumination, etc. from the image photographed through the camera 200 (S120).

또한, 상기 S110 단계의 판단 결과, 조명 정보 검출부(110)를 이용한 음영 정보의 획득이 어려우면, 입력부(500)를 통해 사용자로부터, 조명(20) 설치된 위치 또는 음영이 발생하는 방향, 상기 조명(20)의 밝기 정보 등을 입력받아 조명 환경 정보를 검출(S121)한다.If it is difficult to acquire the shade information using the illumination information detection unit 110 as a result of the determination in step S110, a position or a direction in which the illumination 20 is installed, a direction in which the shade is generated, 20), and detects illumination environment information (S121).

상기 S120 단계 또는 S121 단계를 통해 조명 환경 정보를 검출하면, 상기 제어부(300)는 미리 설정된 보드의 형태 및 재질 정보를 검출하고, 상기 검출된 조명 환경 정보를 반영하여 음영이 생기는 방향, 빛의 반사에 따른 색 변화, 재질감 등이 나타날 수 있도록 재구성한 가상의 보드 이미지를 생성(S130)하고, 상기 생성된 가상의 보드 이미지는 디스플레이부(400)를 통해 출력한다.Upon detecting the illumination environment information through the step S120 or S121, the controller 300 detects the shape and material information of the predetermined board, and reflects the detected illumination environment information to detect a direction in which shading occurs, (S130), and outputs the generated virtual board image through the display unit (400).

또한, 상기 제어부(300)는 카메라(200)를 통해 촬영한 이미지로부터 보드(100) 상의 임의의 위치에 객체(140)가 위치하였는지 인식(S140)하는 과정을 수행한다.The control unit 300 recognizes whether the object 140 is positioned at an arbitrary position on the board 100 from the image photographed through the camera 200 in operation S140.

상기 객체를 인식하는 단계는 제어부(300)가 미리 저장된 객체(140)의 형태 정보를 이용하여 촬영된 이미지에 대응되는 객체의 유무를 확인하고, 프레임 마커(120)를 이용한 객체의 위치 추정 또는 센서부(600)를 이용한 위치 추정을 통해 객체(140)의 위치를 검출한다.In the step of recognizing the object, the control unit 300 confirms presence or absence of an object corresponding to the photographed image using the shape information of the object 140 previously stored, The position of the object 140 is detected through the position estimation using the unit 600.

상기 S140 단계를 통해 임의의 위치에 객체(140)가 인식되면, 상기 제어부(300)는 상기 S120 단계 또는 S121 단계를 통해 검출한 조명 환경 정보를 반영하여 음영이 생기는 방향, 빛의 반사에 따른 색 변화, 재질감 등이 나타날 수 있도록 재구성한 가상의 객체 이미지를 생성(S150)한다.If the object 140 is recognized at an arbitrary position in step S140, the controller 300 reflects the illumination environment information detected in step S120 or S121 to detect the direction in which shading occurs, (S150) a reconstructed virtual object image so that a change, a texture, and the like may appear.

상기 S150 단계에서 가상의 객체 이미지가 생성되면, 상기 제어부(300)는 상기 S130 단계 및 S150 단계에서 생성한 가상의 보드 이미지와 객체 이미지를 레이어 합성하여 동적인 이미지를 생성(S160)하고, 상기 생성된 동적 이미지를 디스플레이부(400)를 통해 출력한다.If a virtual object image is generated in step S150, the controller 300 generates a dynamic image by layering the virtual board image and the object image generated in steps S130 and S150 (S160) And outputs the dynamic image through the display unit 400.

따라서 추적 가능한 조명의 위치와 배광 정보를 기반으로 객체를 증강시켜 객체와 배경의 자연스러운 합성을 통해 사실적인 이미지를 제공할 수 있게 된다.Therefore, it is possible to provide a realistic image through natural synthesis of object and background by enhancing the object based on the position of traceable illumination and the light distribution information.

상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined in the appended claims. It can be understood that

또한, 본 발명의 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있으며, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the course of the description of the embodiments of the present invention, the thicknesses of the lines and the sizes of the components shown in the drawings may be exaggerated for clarity and convenience of explanation, , Which may vary depending on the intentions or customs of the user, the operator, and the interpretation of such terms should be based on the contents throughout this specification.

10 : 실내공간
20 : 조명
100 : 보드
110 : 조명 정보 검출부
120 : 프레임 마커
130 : 인쇄부
140 : 객체
200 : 카메라
300 : 제어부
400 : 디스플레이부
500 : 입력부
600 : 센서부
10: Indoor space
20: Lighting
100: Board
110:
120: frame marker
130:
140: object
200: camera
300:
400:
500: input unit
600:

Claims (17)

주변의 조명 환경 정보를 표시하는 보드(100);
상기 보드(100)와, 보드(100)의 주변 배경을 촬영하는 카메라(200);
상기 카메라(200)가 촬영한 보드(100)와 보드(100)의 주변 배경 이미지를 분석하여 조명 환경을 검출하고, 상기 검출된 조명 환경 정보와, 미리 설정된 보드 설정 정보를 반영하여 상기 보드(100)의 형태 및 재질감을 재구성한 보드 이미지를 생성하는 제어부(300); 및
상기 제어부(300)에서 생성된 보드(100)의 형태 및 재질감을 재구성한 보드 이미지를 표시하는 디스플레이부(400)를 포함하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
A board (100) for displaying surrounding illumination environment information;
A camera (200) for photographing the background of the board (100) and a background of the board (100);
The illumination environment is detected by analyzing the peripheral background image of the board 100 photographed by the camera 200 and the board 100 and the brightness of the board 100 is detected by reflecting the detected illumination environment information and preset board setting information. A controller 300 for generating a board image reconstructing the shape and texture of the board image; And
And a display unit (400) for displaying a board image reconstructing the shape and texture of the board (100) generated by the controller (300).
제 1 항에 있어서,
사용자가 상기 보드(100)를 중심으로 설치된 조명의 방향 및 개수를 입력하는 입력부(500)를 더 포함하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
The method according to claim 1,
Further comprising an input unit (500) for allowing a user to input directions and the number of lights installed around the board (100).
제 1 항에 있어서,
상기 보드(100)에 설치되어 보드(100) 상의 배치되는 객체(140)의 위치를 검출하는 센서부(600)를 더 포함하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
The method according to claim 1,
Further comprising a sensor unit (600) installed on the board (100) and detecting a position of an object (140) disposed on the board (100).
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 보드(100)는 조명의 방향 정보가 추정되도록 조명의 방향에 따라 음영을 형성하는 조명 정보 검출부(110)를 포함하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
4. The method according to any one of claims 1 to 3,
Wherein the board (100) includes an illumination information detection unit (110) for forming a shadow according to a direction of illumination so that direction information of the illumination is estimated.
제 4 항에 있어서,
상기 보드(100)는 보드의 크기, 형태, 좌표, 방향 정보 중 적어도 하나를 나타내는 하나 이상의 프레임 마커(120)를 더 포함하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
5. The method of claim 4,
Wherein the board (100) further comprises one or more frame markers (120) indicating at least one of size, shape, coordinates, and orientation information of the board.
제 5 항에 있어서,
상기 조명 정보 검출부(110)는 도금, 동일한 색상 또는 일정 패턴의 색상으로 도색된 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
Wherein the illumination information detection unit (110) is plated with a color of the same color or a predetermined pattern.
제 6 항에 있어서,
상기 조명 정보 검출부(110)는 보드(100)에 일체로 설치되거나 또는 상기 보드(100)와 분리 가능하게 설치된 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
The method according to claim 6,
Wherein the illumination information detection unit (110) is integrally installed on the board (100) or is detachably installed on the board (100).
제 5 항에 있어서,
상기 조명 정보 검출부(110)는 일정 형상의 입체 모형인 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
Wherein the illumination information detection unit (110) is a stereoscopic model having a predetermined shape.
제 5 항에 있어서,
상기 조명 정보 검출부(110)는 조명의 밝기와 방향을 검출하는 광센서로 이루어진 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
Wherein the illumination information detection unit (110) comprises an optical sensor for detecting the brightness and direction of the illumination.
제 5 항에 있어서,
상기 조명 정보 검출부(110)는 보드(100)의 중앙 또는 상기 보드(100)의 임의의 위치에 적어도 하나 이상 설치한 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
Wherein at least one or more of the illumination information detecting unit 110 is installed at a center of the board 100 or at an arbitrary position of the board 100.
삭제delete 제 5 항에 있어서,
상기 제어부(300)는 보드(100)의 크기, 형태, 좌표 및 방향 정보 중 적어도 하나 이상의 정보를 이용하여 상기 보드(100) 상에 위치한 객체(140)의 위치를 추정하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
The controller 300 estimates the position of the object 140 located on the board 100 using at least one of size, shape, coordinates, and orientation information of the board 100. [ Based object augmented reality display device.
제 12 항에 있어서,
상기 제어부(300)는 상기 보드(100) 상에 위치한 객체(140)의 형태, 재질감을 재구성한 객체 이미지를 생성하여 디스플레이부(400)로 출력하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
13. The method of claim 12,
The control unit 300 generates an object image reconstructing the shape and texture of the object 140 located on the board 100 and outputs the object image to the display unit 400. [ Device.
제 5 항에 있어서,
상기 제어부(300)는 보드(100)와 객체(140)에 알파 채널을 합성하여 동적 이미지를 생성하여 디스플레이부(400)로 출력하는 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 장치.
6. The method of claim 5,
Wherein the control unit (300) synthesizes an alpha channel with the board (100) and the object (140) to generate a dynamic image and outputs the dynamic image to the display unit (400).
a) 제어부(300)가 카메라(200)에서 촬영한 주변의 조명 환경 정보를 표시하는 보드(100)의 이미지와, 미리 설정된 상기 보드(100)의 기본 정보를 인식하는 단계;
b) 상기 제어부(300)가 보드(100) 주변의 조명 환경 정보를 검출하는 단계; 및
c) 상기 제어부(300)가 검출된 조명 환경 정보에 따라 상기 보드(100)의 형태 및 재질감을 재구성한 보드 이미지를 생성하여 디스플레이부(400)를 통해 출력하는 단계를 포함하는 조명 정보 기반의 객체 증강 현실 디스플레이 방법.
a) recognizing an image of the board 100 displaying the surrounding illumination environment information taken by the camera 200 by the control unit 300 and basic information of the predetermined board 100;
b) the control unit (300) detects illumination environment information around the board (100); And
c) generating a board image by reconstructing the shape and texture of the board 100 according to the detected illumination environment information, and outputting the generated board image through the display unit 400; Augmented reality display method.
제 15 항에 있어서,
상기 객체 증강 현실 디스플레이 방법은 d) 상기 제어부(300)가 보드(100) 상의 객체(140)와, 상기 객체(140)의 위치를 인식하는 단계;
e) 상기 제어부(300)가 상기 b) 단계에서 검출한 조명 환경 정보를 이용하여 상기 객체(140)의 형태 및 재질감을 재구성하여 객체 이미지를 생성하는 단계; 및
f) 상기 제어부(300)가 상기 c) 단계 및 e) 단계에서 생성한 보드 이미지와 객체 이미지를 레이어 합성하여 디스플레이부(400)를 통해 출력하는 단계를 더 포함하는 조명 정보 기반의 객체 증강 현실 디스플레이 방법.
16. The method of claim 15,
The method of displaying an object augmented reality includes: d) the controller 300 recognizing the position of the object 140 and the object 140 on the board 100;
e) generating an object image by reconstructing the shape and texture of the object 140 using the illumination environment information detected by the controller 300 in step b); And
f) outputting the combined image of the board image and the object image generated in the step c) and the object image generated by the control unit 300 through the display unit 400, Way.
제 16 항에 있어서,
상기 b) 단계의 조명 환경 정보는 상기 보드(100)에 설치된 조명 정보 검출부(110)가 조명의 방향에 따라 형성하는 음영 정보 또는 사용자가 입력부(500)를 통해 입력하는 사용자의 조명 방향 정보 중 적어도 하나인 것을 특징으로 하는 조명 정보 기반의 객체 증강 현실 디스플레이 방법.
17. The method of claim 16,
The illumination environment information in the step b) may include at least one of shading information formed by the illumination information detection unit 110 installed on the board 100 in accordance with the illumination direction or illumination direction information of a user input by the user through the input unit 500 And displaying the object augmented reality based on the illumination information.
KR1020160129829A 2016-10-07 2016-10-07 Apparatus and method for displaying augmented reality based on information of lighting KR101788471B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129829A KR101788471B1 (en) 2016-10-07 2016-10-07 Apparatus and method for displaying augmented reality based on information of lighting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129829A KR101788471B1 (en) 2016-10-07 2016-10-07 Apparatus and method for displaying augmented reality based on information of lighting

Publications (1)

Publication Number Publication Date
KR101788471B1 true KR101788471B1 (en) 2017-10-19

Family

ID=60298235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129829A KR101788471B1 (en) 2016-10-07 2016-10-07 Apparatus and method for displaying augmented reality based on information of lighting

Country Status (1)

Country Link
KR (1) KR101788471B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195909A1 (en) * 2023-03-23 2024-09-26 엘지전자 주식회사 Device for displaying artificial sun-based content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100897006B1 (en) 2007-08-28 2009-05-14 중앙대학교 산학협력단 Image synthesizer capable of compositing image by real-time and method thereof
KR101509992B1 (en) * 2013-11-28 2015-04-08 창원대학교 산학협력단 A method and apparatus for illuminant compensation based on highlight region selection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100897006B1 (en) 2007-08-28 2009-05-14 중앙대학교 산학협력단 Image synthesizer capable of compositing image by real-time and method thereof
KR101509992B1 (en) * 2013-11-28 2015-04-08 창원대학교 산학협력단 A method and apparatus for illuminant compensation based on highlight region selection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195909A1 (en) * 2023-03-23 2024-09-26 엘지전자 주식회사 Device for displaying artificial sun-based content

Similar Documents

Publication Publication Date Title
Oufqir et al. ARKit and ARCore in serve to augmented reality
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
US10692288B1 (en) Compositing images for augmented reality
CN110070621B (en) Electronic device, method for displaying augmented reality scene and computer readable medium
KR101187500B1 (en) Light projection device and illumination device
CN106062862A (en) System and method for immersive and interactive multimedia generation
WO2015098807A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
US11425283B1 (en) Blending real and virtual focus in a virtual display environment
EP2437244A1 (en) Information presentation device
CN109615703A (en) Image presentation method, device and the equipment of augmented reality
AU2018225269B2 (en) Method, system and apparatus for visual effects
GB2465791A (en) Rendering shadows in augmented reality scenes
GB2465793A (en) Estimating camera angle using extrapolated corner locations from a calibration pattern
KR101553273B1 (en) Method and Apparatus for Providing Augmented Reality Service
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP7403967B2 (en) Information processing device, video generation device, image processing system, control method and program thereof
US11189101B2 (en) Lighting integration
KR20080045392A (en) Method for light environment reconstruction for image synthesis and storage medium storing program therefor
KR20160068186A (en) Apparatus and method for providingaugmented reality contentents
Wang et al. A context-aware light source
US20190066366A1 (en) Methods and Apparatus for Decorating User Interface Elements with Environmental Lighting
KR101788471B1 (en) Apparatus and method for displaying augmented reality based on information of lighting
JP2022093262A (en) Image processing apparatus, method for controlling image processing apparatus, and program
WO2022195157A1 (en) Detection of test object for virtual superimposition
Bach et al. Vision-based hand representation and intuitive virtual object manipulation in mixed reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant