KR101080040B1 - Method for display spatial augmented reality-based interactive - Google Patents

Method for display spatial augmented reality-based interactive Download PDF

Info

Publication number
KR101080040B1
KR101080040B1 KR1020100026969A KR20100026969A KR101080040B1 KR 101080040 B1 KR101080040 B1 KR 101080040B1 KR 1020100026969 A KR1020100026969 A KR 1020100026969A KR 20100026969 A KR20100026969 A KR 20100026969A KR 101080040 B1 KR101080040 B1 KR 101080040B1
Authority
KR
South Korea
Prior art keywords
image
subject
touch screen
augmented reality
exhibition
Prior art date
Application number
KR1020100026969A
Other languages
Korean (ko)
Other versions
KR20110107691A (en
Inventor
이동훈
윤태수
한상헌
김정훈
현상균
Original Assignee
동서대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교산학협력단 filed Critical 동서대학교산학협력단
Priority to KR1020100026969A priority Critical patent/KR101080040B1/en
Publication of KR20110107691A publication Critical patent/KR20110107691A/en
Application granted granted Critical
Publication of KR101080040B1 publication Critical patent/KR101080040B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법에 관한 것으로, 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력하여 관찰자가 전시물을 관람하는 것만으로 해당 전시물의 정보를 획득할 수 있고 한 공간상에 존재하는 다량의 피사체에 대해서 안내할 수 있다. 또한, 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현함으로써, 몰입감과 현실감을 높일 수 있다.
본 발명에 따른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은, 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 멀티 터치 스크린과; 정지 또는 움직이는 피사체를 전시하는 전시공간과; 상기 전시공간의 피사체의 모습을 실시간 촬영하는 카메라와; 상기 멀티 터치 스크린을 통해 입력된 정보에 의해 만들어진 공간 증강을 위한 영상을 출력하는 영상출력장치와; 상기 전시공간의 모습과 상기 영상출력장치의 출력 영상이 겹쳐서 보이도록 하는 반투영 거울과; 상기 멀티 터치 스크린으로 콘텐츠 진행 화면을 출력하는 빔 프로젝터와; 상기 멀티 터치 스크린의 하부에 적외선 빛을 출력하여 인터랙션 막을 형성하는 적외선 LED 어레이 바와; 상기 멀티 터치 스크린에 손을 터치했을 때 상기 인터랙션 막에서 발산되는 적외선 빛을 영상 입력하는 적외선 카메라; 및 상기 카메라로부터 영상을 입력받아 상기 피사체의 위치 정보를 실시간으로 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 실행하는 제어 PC;를 포함하여 구성한다.
The present invention relates to a spatial augmented reality-based interactive display system and a method thereof, by outputting a guide post to a fixed object or a fluid object fixed on the exhibition space, an observer can obtain information on the exhibition object only by viewing the exhibition object. And guide a large number of subjects in a space. In addition, a multi-touch screen is manufactured using a beam projector and an infrared LED, and a display environment for augmented reality is realized using a semi-projection mirror and a large image output device, thereby increasing immersion and realism.
According to an aspect of the present invention, there is provided a spatial augmented reality-based interactive display system comprising: a multi-touch screen configured to receive a signal for content progression from a user; An exhibition space for displaying a still or moving subject; A camera for real-time photographing a state of the subject in the exhibition space; An image output device for outputting an image for spatial enhancement made by information input through the multi-touch screen; A semi-projection mirror for overlapping the appearance of the exhibition space and the output image of the image output device; A beam projector for outputting a content progress screen to the multi-touch screen; An infrared LED array bar outputting infrared light under the multi-touch screen to form an interaction film; An infrared camera configured to input an infrared light emitted from the interaction layer when the hand touches the multi-touch screen; And receiving the image from the camera to calculate the location information of the subject in real time, and receiving the image from the infrared camera to calculate the user's touch point, such that the information input through the multi-touch screen is the same as the movement of the subject. And a control PC outputting through the image output apparatus or executing contents of a corresponding touch point through the image output apparatus to move in a shape.

Description

공간 증강 현실 기반 인터랙티브 디스플레이 방법{METHOD FOR DISPLAY SPATIAL AUGMENTED REALITY-BASED INTERACTIVE}Spatial Augmented Reality-based Interactive Display Method {METHOD FOR DISPLAY SPATIAL AUGMENTED REALITY-BASED INTERACTIVE}

본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것으로, 보다 상세하게는 관찰자가 전시되어 있는 사물을 보는 것만으로도 해당 사물에 대한 정보를 쉽게 획득할 수 있도록, 각각의 사물에 대한 정보를 전시되어 있는 사물의 측면에 출력해 주는 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것이다.The present invention relates to a spatial augmented reality-based interactive display method, and more particularly, information about each object is displayed so that an observer can easily obtain information about the object only by viewing the displayed object. The present invention relates to a spatial augmented reality based interactive display method that outputs to a side of an object.

또한, 본 발명은 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현한 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것이다.
In addition, the present invention relates to a spatial augmented reality-based interactive display method for producing a multi-touch screen using a beam projector and an infrared LED, realizing a display environment for spatial augmented reality using a semi-projection mirror and a large image output device will be.

일반적으로, 박물관이나 전시장 내의 전시물에 관한 정보는 전시장 벽면에 부착된 패널 상에 그림이나 문자 형태로 간단하게 설명되어 있어 전시물에 관해 깊이 있는 지식이나 정보를 얻는데 한계가 있다. 기존의 전시 시스템들은 개별적인 전시보다 유사 물품들에 대한 전반적인 구성과 각각의 안내가 필요할 경우가 일반적인데, 관람자가 전시물품에 대한 정보를 취득하기 위하여 각각의 전시물을 관찰하고 전시공간과 별도로 마련되어 있는 게시물에서 해당 정보를 찾아보기란 적지 않은 시간이 소요되며 쉽지 않은 일이다. 특히, 단체 관람 시 관찰자 각자가 원하는 정보를 획득하지 못하고 이동해야 하는 경우도 많이 볼 수 있다. In general, information about exhibits in a museum or exhibition hall is briefly explained in the form of pictures or letters on a panel attached to the wall of the exhibition hall, and thus there is a limit to obtaining in-depth knowledge or information about the exhibit. Existing exhibition systems generally require the general composition and guidance of similar items rather than individual exhibitions. Posts are provided separately from the exhibition space where viewers observe each exhibition to obtain information about the exhibits. Browsing this information can be time-consuming and difficult. In particular, many observers may need to move without obtaining the information they want.

이러한 기존의 한계점들을 해결하고자 음성 안내 시스템이 구축되어 있지만 전시관 내부 여러 곳에서 동시에 음성 안내 시스템을 작동할 경우 관찰자는 본인에게 필요한 음성 안내를 듣기가 힘들며 원하는 정보를 지나쳤을 경우 많은 시간을 들여서 다시 음성 안내를 들어야 한다는 문제가 발생한다. 또한, 어린이들이 패널에 적힌 내용을 노트에 필기하느라 전시 부스 앞에 모여 있어 다른 관람객에게 방해가 되는 경우도 있으며, 전시물의 명칭만 영어로 표시되어 있어 전문가가 아닌 일반 외국인의 경우 전시물이 어떤 것인지 상세한 내용을 알 수 없는 문제가 발생한다.Although the voice guidance system is established to solve these existing limitations, when the voice guidance system is operated simultaneously in various places inside the exhibition hall, it is difficult for the observer to listen to the voice guidance required by the viewer, and if a user passes the desired information, the user spends a lot of time again. There is a problem of being guided. In addition, children may gather in front of the exhibition booths while taking notes on the panel, which may disturb other visitors.The names of the exhibits are displayed in English only. An unknown problem occurs.

이러한 문제점을 해결하기 위하여 국내 공개특허 제2005-0071114호(무선 단말기를 이용한 유물 안내 서비스시스템 및 그 방법)와, 국내 공개특허 제2002-0059150호(전시물 상세정보 안내 서비스 방법)와, 국내 공개특허 제2003-0055236호(전시물 현장 안내 서비스 제공 방법 및 시스템)와, 국내 공개특허 제2003-0057053호(이동통신을 이용한 관광 및 전시물 관람 정보제공 서비스 방법)에에는 전시물 또는 전시물의 주변에 태그 장치를 설치하고, 관람객 단말기(PDA, 핸드폰 등)를 이용하여 전시물에 근접하면 태그 장치를 통해 전시물의 안내를 제공하는 시스템에 대해 개시되어 있다. In order to solve this problem, Korean Patent Publication No. 2005-0071114 (Article guidance service system and method using a wireless terminal), Korean Patent Publication No. 2002-0059150 (Exhibit information guide service method), and domestic published patent No. 2003-0055236 (Method and system for providing exhibition site information service) and Korean Patent Publication No. 2003-0057053 (Method for providing tour and exhibition viewing information using mobile communication) tag apparatus around the exhibit or exhibit The present invention discloses a system for providing a guide of an exhibition through a tag device when installed and approaching the exhibition using a visitor terminal (PDA, mobile phone, etc.).

그러나, 이러한 종래 기술은 이동통신 단말기를 이용하여 전시물의 정보를 제공함으로써 막대한 초기 비용이 소요될 뿐만 아니라 단순한 정보만을 제공하였다. 이에 따라, 종래에는 관람자의 몰입을 극대화하기 위해 가상현실 기술을 접목한 전시 환경 시스템이 개발되었다. 하지만, 이 경우에도 거대한 설치 공간과 막대한 비용 초래로 특수한 형태의 일부 전시물에 대한 표현이라는 한계를 지니고 있다. 특히 HMD(Head Mount Display) 등과 같은 고가의 장비가 부가적으로 필요할 뿐만 아니라 소수의 관람자를 대상으로 하고 있기 때문에 몰입의 극대화에는 한계를 지니고 있다. However, this conventional technology not only entails huge initial costs by providing information on exhibitions using a mobile communication terminal but also provides only simple information. Accordingly, conventionally, an exhibition environment system incorporating virtual reality technology has been developed to maximize the immersion of viewers. However, even in this case, there is a limit to the representation of some special types of exhibits due to the huge installation space and enormous cost. In particular, expensive equipment such as HMD (Head Mount Display) is not only additionally necessary, but also has a limited number of viewers because it is limited in maximization of immersion.

또한, 종래의 전시 시스템은 전시물에 대한 안내를 위한 방법으로 전시공간과 별도로 마련되어 있는 사진과 글로 이루어진 안내판을 설치하여 단순한 고정된 물체에 대해서만 정보를 제공하고, 호기심을 가지고 관련 정보를 얻으려해도 짧은 시간에 원하는 정보를 획득하기에 많은 한계가 발생하였다.In addition, the conventional exhibition system provides information about only a simple fixed object by providing a guide plate composed of photographs and texts provided separately from the exhibition space as a method for guiding the exhibits, Many limitations have arisen in obtaining the desired information in time.

최근에는 별도의 도구 없이 사용자의 손으로 자연스럽게 상호작용을 할 수 있는 멀티 터치 스크린에 대한 연구가 활발하다. 그리고 디스플레이를 위한 방법으로 기존의 2D 영상보다 더 현실감 있는 3D 영상이 주를 이루고 있으나, 최근에는 3D 영상보다 더 실제와 유사한 영상을 제공하기 위하여 공간 증강 현실을 이용한 디스플레이에 대한 연구가 활발하다.
Recently, researches on multi-touch screens that can naturally interact with a user's hand without any tools have been actively conducted. As a method for displaying a 3D image, which is more realistic than a conventional 2D image, the research on display using spatial augmented reality has been actively conducted in order to provide a more realistic image than a 3D image.

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력하는 형태로 구성하여 관찰자가 전시물을 관람하는 것만으로 해당 전시물의 정보를 획득할 수 있고 한 공간상에 존재하는 다량의 피사체에 대해서 안내하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.The technical problem to be solved by the present invention to solve the above-mentioned problem is to configure the form of outputting a guide post to a fixed object or a fluid object fixed on the exhibition space to observe the information of the exhibition object by simply viewing the exhibit. A spatial augmented reality-based interactive display method for acquiring and guiding a large number of subjects existing in a space is provided.

또한, 본 발명이 이루고자 하는 다른 기술적 과제는 단순히 전시물에 대한 안내를 하는 것에 그치지 않고, 관람객의 흥미를 유발시키며 그와 더불어서 사용자가 직접 참여하여 시스템과 상호작용을 통한 진행으로 학습할 수 있는 형태의 교육용 플랫폼을 제공하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, the other technical problem to be achieved by the present invention is not only to guide the exhibition, but also to induce the interest of the audience, and in addition, the user can directly participate in the form of learning through the interaction with the system The present invention proposes an interactive display method based on spatial augmented reality that provides an educational platform.

또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현한 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is to produce a multi-touch screen using a beam projector and an infrared LED, and to enhance the space to realize a display environment for space augmented reality using a semi-projection mirror and a large image output device The present invention proposes a reality-based interactive display method.

또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 실제 영상을 기반으로 최소한의 가상영상을 증강시켜서 보여줌으로써 몰입감과 현실감을 높인 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is to propose a spatial augmented reality-based interactive display method to enhance the immersion and realism by showing a minimum of the virtual image based on the actual image.

또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 사용자가 입력한 정보를 공간 증강 현실기반으로 조성된 실제 영상으로 확인 가능하게 함으로써 몰입감과 현실감을 높인 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.
In addition, another technical problem to be achieved by the present invention is to present a spatial augmented reality-based interactive display method to increase the immersion and realism by enabling the user input information to be confirmed as a real image formed on the basis of spatial augmented reality.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The problem of the present invention is not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 방안으로 본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 있어서,
(a) 전시공간의 피사체 모습을 카메라로 실시간 촬영하는 단계와;
(b) 멀티 터치 스크린을 통해 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 단계와;
(c) 상기 멀티 터치 스크린에 손을 터치했을 때 상기 멀티 터치 스크린의 하부에 적외선으로 형성된 인터랙션 막에서 발산되는 적외선 빛을 적외선 카메라로 영상 입력하는 단계와;
(d) 상기 카메라의 영상 신호를 영상 처리하여 상기 피사체의 위치 정보를 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 출력하는 단계; 및
(e) 상기 전시공간의 모습과 상기 영상출력장치에서 출력되는 영상 정보를 반투영 거울을 통해 겹쳐서 보이도록 하는 단계;
를 포함하되,
상기 (d) 단계에서 피사체의 위치정보는 한 개의 피사체에 대해 백그라운드 모델링(Background Modeling) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하고, 여러 개의 피사체에 대해 캠시프트(CamShift) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하며,
또한 상기 (e)단계에서 영상출력장치에서 출력되는 영상정보는 반투영 거울의 기울기에 의해 왜곡될 정도를 미리 계산한 후 영상의 출력시 변형될 영상을 반대로 보정하는 반사 변환 행렬을 이용하여, 상기 반투영 거울의 기울기에 따라 알맞은 값으로 보정하여 출력하는 것을 특징으로 하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 과제 해결 수단으로 한다.
In order to solve the above technical problem, the present invention provides a spatial augmented reality based interactive display method,
(a) real-time photographing of the subject of the exhibition space with a camera;
(b) receiving a signal for content progress from a user through a multi-touch screen;
(c) image inputting infrared light emitted from an interaction film formed in the infrared under the multi-touch screen when the hand touches the multi-touch screen with an infrared camera;
(d) image processing the image signal of the camera to calculate position information of the subject, receiving an image from the infrared camera, calculating a user's touch point, and moving information of the subject through the multi-touch screen; Outputting the image output apparatus to move in a shape such as or outputting a content of a corresponding touch point through the image output apparatus; And
(e) superimposing the appearance of the exhibition space and the image information output from the image output apparatus through a semi-projection mirror;
Including,
In the step (d), the position information of the subject is calculated by calculating the position coordinates of the subject through a background modeling tracking algorithm for one subject and by using a CamShift tracking algorithm on the plurality of subjects. Calculate position coordinates,
In addition, in the step (e), the image information output from the image output apparatus is calculated by using a reflection transformation matrix that calculates a degree of distortion by the tilt of the semi-projection mirror in advance and then reversely corrects the image to be deformed when the image is output. A problem-solving method is a spatial augmented reality-based interactive display method characterized by correcting and outputting an appropriate value according to a tilt of a semi-projection mirror.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따르면, 종래의 전시관 안내 시스템에 차세대 디스플레이 기술을 접목시켜 고정된 사물에만 적용하던 공간 증강 현실 기술을 동적인 사물에 적용함으로써 다양한 3차원 콘텐츠 제작에 효율적으로 사용할 수 있다. 이는 단순 관람형태의 수족관에서 빠르고 정확한 정보를 얻을 수 있는 교육적인 면에서도 효과적이다.According to the present invention, by applying the next-generation display technology to the conventional exhibition hall guide system, the space augmented reality technology applied only to a fixed object can be efficiently used for producing various 3D contents. This is also effective in terms of education in which quick and accurate information can be obtained from simple viewing aquariums.

또한, 공간 증강 현실기반 입체 영상 디스플레이 시스템의 국산화로 고비용의 수입을 대체하여 시장원가를 절감하고 해외 수출 및 해외 시장 선점에 기여할 수 있다. In addition, localization of a space-augmented reality-based stereoscopic image display system can replace high-cost imports, thereby reducing market costs and contributing to overseas exports and preoccupation of overseas markets.

또한, 본 발명을 이용하여 다양하고 효율적인 메시지 전달이 가능 한 전시 및 광고 시스템으로 활용이 가능하며, 관련 유관 콘텐츠 시장(미래형 게임 등)으로의 응용력이 높아 다양한 형태의 사업으로 발전이 가능하다. In addition, the present invention can be utilized as an exhibition and advertisement system capable of delivering various and efficient messages, and has high applicability to related related content markets (future games, etc.), thereby enabling the development of various types of projects.

또한, 실제 영상을 기반으로 최소한의 가상영상을 증강시켜서 보여줌으로써, 가상 현실 환경에 비하여 저비용으로 구성이 가능하며, 몰입감과 현실감을 높여 학습에 대한 효율을 높일 수 있다.In addition, by augmenting and displaying the minimum virtual image based on the actual image, the composition can be configured at a lower cost than the virtual reality environment, and the efficiency of learning can be improved by increasing the immersion and the realism.

또한, 콘텐츠의 주 캐릭터를 사용자의 입력을 통해서 생성함으로써 흥미와 관심을 유발시킬 수 있다.In addition, by generating the main character of the content through the user's input it can cause interest and interest.

또한, 음성 안내 시스템과 같이 다른 전시물을 관람중인 타인에게 피해를 주지 않으며, 단체 관람 시 모든 관찰자가 자신이 원하는 정보를 획득하는데 불편함이 없다.In addition, there is no damage to others viewing other exhibits, such as a voice guidance system, and there is no inconvenience for all observers to obtain information they want when viewing a group.

또한, 전시되는 콘텐츠에 대한 관심과 호기심을 유도하고 해당 정보를 간편하게 얻을 수 있으며, 공간 증강현실 기술을 활용하여 부가적인 장비 없이 비교적 좁은 공간에서도 시연 가능하다.
In addition, it is possible to induce interest and curiosity about the displayed contents and to easily obtain the corresponding information, and it is possible to demonstrate in a relatively small space without additional equipment by using the space augmented reality technology.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 바람직한 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도
도 2는 본 발명의 시스템 동작 원리를 나타낸 내부 순서도
도 3은 배경과 피사체를 분리하여 피사체의 위치 좌표를 알아내는 과정을 나타낸 도면
도 4는 캠시프트(CamShift) 알고리즘을 통한 각기 다른 두 피사체의 위치를 검출하는 모습을 나타낸 도면
도 5는 왜곡된 입력 영상 때문에 발생한 오류를 나타낸 도면
도 6은 보정된 영상을 기반으로 깊이 정보를 계산하는 방법을 나타낸 도면
도 7은 왜곡 보정이 적용된 카메라 입력 영상을 나타낸 사진
도 8은 피사체의 위치로 이동을 하던 중에 피사체의 위치에 변화가 생기면 계산되어진 좌표값을 향하여 피사체의 위치까지 유연한 움직임으로 추적하는 방법을 설명하기 위한 도면
도 9는 본 발명의 바람직한 다른 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도
도 10은 적외선 LED 어레이 바(IR-LEDs Array Bar)의 제품 사진
도 11 내지 도 39는 본 발명에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구현 예를 나타낸 캡처 화면으로서,
도 11 내지 도 15는 멀티 터치 스크린을 통해 사용자가 입력한 정보를 시스템 내부의 전시공간에 콘텐츠로 실현한 예를 보인 캡처 화면이고,
도 16 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예를 보인 캡처 화면이다.
1 is a block diagram of a spatial augmented reality based interactive display system according to an embodiment of the present invention
2 is an internal flow chart illustrating the system operation principle of the present invention.
3 is a diagram illustrating a process of determining a location coordinate of a subject by separating a background and a subject;
4 is a diagram illustrating a state of detecting two different subjects through a CamShift algorithm.
5 is a diagram illustrating an error caused by a distorted input image.
6 is a diagram illustrating a method of calculating depth information based on a corrected image.
7 is a photograph showing a camera input image to which distortion correction is applied
FIG. 8 is a view for explaining a method of tracking a flexible movement to a position of a subject toward a calculated coordinate value when a change in the position of the subject occurs while moving to a position of the subject
9 is a block diagram of a spatial augmented reality based interactive display system according to another embodiment of the present invention
10 is a product photograph of an IR-LEDs Array Bar.
11 to 39 are capture screens showing an implementation example of the spatial augmented reality based interactive display system according to the present invention.
11 to 15 are capture screens showing an example of realizing the information input by the user through the multi-touch screen as content in the exhibition space inside the system,
16 to 39 are capture screens showing an example of the implementation of the educational learning content for the exhibition environment of the exhibition space.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명되는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and similar parts are denoted by similar reference numerals throughout the specification.

이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 실시 예 Embodiment of the display system

도 1은 본 발명의 바람직한 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도이고, 도 2는 본 발명의 시스템 동작 원리를 나타낸 내부 순서도이다.1 is a block diagram of a spatial augmented reality based interactive display system according to a preferred embodiment of the present invention, Figure 2 is an internal flow chart showing the operating principle of the system of the present invention.

도 1 및 도 2를 참고하면, 본 발명에 따른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은, 영상출력장치(110), 반투영 거울(120), CCD 카메라(130), 실제 전시공간(140)으로 구성된다. 1 and 2, the spatial augmented reality-based interactive display system according to the present invention includes an image output device 110, a semi-projection mirror 120, a CCD camera 130, and an actual exhibition space 140. do.

먼저, 상기 영상출력장치(110)는 LCD 디스플레이 장치로 구성되며, 도 2의 알고리즘에 의해 계산되어 진 영상을 최종으로 출력하게 된다. 그 다음, 기울어진 상태로 설치되어 있는 상기 반투영 거울(120)은 상기 영상출력장치(110)에서 출력된 영상이 투영되는 면으로써, 거울의 특성상 반사되어 진 영상과 함께 거울 뒷면의 실제 공간의 모습을 관람자가 동시에 볼 수 있도록 한다. 그리고, 시스템의 천장에 설치되어 있는 상기 카메라(130)는 실제 전시공간(140)의 모습을 실시간으로 촬영을 하여 움직이는 물체의 위치 정보를 계산하기 위한 영상을 제공한다. 마지막으로, 상기 반투영 거울(120)의 뒤쪽에 설치된 상기 실제 전시공간(140)은 움직이는 피사체를 위한 공간으로 할당하여 전시를 위한 유동 피사체를 배치한다.First, the image output device 110 is composed of an LCD display device, and finally outputs the image calculated by the algorithm of FIG. Next, the semi-projection mirror 120 installed in an inclined state is a surface on which the image output from the image output apparatus 110 is projected, and the image of the real space behind the mirror is reflected along with the image reflected on the mirror. Allow viewers to watch the scene at the same time. In addition, the camera 130 installed on the ceiling of the system provides an image for calculating the position information of the moving object by capturing a real time picture of the actual exhibition space 140 in real time. Finally, the actual exhibition space 140 installed at the rear of the semi-projection mirror 120 is allocated as a space for a moving subject to arrange a moving subject for exhibition.

본 발명은 거울 뒷면의 실제 전시공간(140)상에 유동 피사체를 전시할 공간과 유동 피사체를 전시하고, 전시공간(140)의 윗면과 앞면을 천장에 설치되어 있는 카메라(120)로 실시간 영상을 입력받으며, 내부의 계산에 의해 생성된 영상을 상기 영상출력장치(110)로 출력하여, 상기 반투영 거울(120)에 투영함으로써 전시물을 안내하게 된다. The present invention displays a space to display the moving subject and the moving subject on the actual exhibition space 140 on the back of the mirror, and the real-time image with the camera 120 is installed on the ceiling and the top and front of the exhibition space 140 It receives the input, outputs the image generated by the internal calculation to the image output device 110, and guides the exhibit by projecting on the semi-projection mirror 120.

본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은 도 2에 도시된 바와 같이, 내부적인 계산을 통해 상기 영상출력장치(110)에 영상을 출력하게 된다. 이하, 이해를 돕기 위해 상기 전시공간(140)은 수족관을 예로 들어 설명하기로 한다.As shown in FIG. 2, the spatial augmented reality-based interactive display system of the present invention outputs an image to the image output apparatus 110 through internal calculation. Hereinafter, to facilitate understanding, the exhibition space 140 will be described taking an aquarium as an example.

먼저, 상기 카메라(130)를 통해 입력받은 영상에서 상기 수족관(140)의 앞면 영역을 기반으로, 실시간으로 피사체의 위치 좌표를 계산한다(단계 S100∼S110). 이와 동시에, 입력받은 영상의 수족관(140) 윗면에 해당하는 수면의 영역만을 기반으로 피사체의 깊이 정보를 계산한다(단계 S120).First, the position coordinates of the subject are calculated in real time based on the front region of the aquarium 140 in the image received through the camera 130 (steps S100 to S110). At the same time, depth information of the subject is calculated based on only the area of the water surface corresponding to the upper surface of the aquarium 140 of the received image (step S120).

여기서, 실시간 피사체의 위치 좌표를 계산하는 방법은 다음과 같다.Here, the method of calculating the position coordinates of the real-time subject is as follows.

본 시스템에서는 한 개의 피사체에 대해서는 백그라운드 모델링(Background Modeling)이라는 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하였으며, 여러 개의 피사체에 대해서는 캠시프트(CamShift)라는 트래킹 알고리즘을 통해 위치를 계산하였다. 아래는 알고리즘의 내용이다.In this system, the position coordinates of a subject are calculated using a tracking algorithm called Background Modeling for one subject, and the position is calculated through a tracking algorithm called CamShift for several subjects. Below is the contents of the algorithm.

상기 CCD 카메라(130)로 입력되는 영상에서 배경을 분리하고 피사체의 위치좌표를 계산하기 위해 배경과 피사체 각각의 컬러 모델에 대한 학습을 해야 한다. 우선 RGB 컬러 모델에서 학습할 배경영상에 대해서 평균영상과 표준편차영상을 구한다. 본 과정에서 컬러의 채널 특성을 이용하기 때문에 영상의 R, G, B 컬러를 각각 분할한다.In order to separate the background from the image input to the CCD camera 130 and calculate the position coordinates of the subject, the background and the color model of each subject should be learned. First, the average image and the standard deviation image are obtained for the background image to be learned in the RGB color model. In this process, since the channel characteristics of the color are used, the R, G, and B colors of the image are respectively divided.

하지만, 단순히 RGB 컬러 모델을 기반으로 평균영상과 표준편차 영상을 사용할 경우, 피사체에 의하여 발생하는 그림자로 인하여 피사체 영상 위치 계산에 오차가 발생한다. 이러한 문제를 해결하기 위하여 RGB 컬러 모델을 정규화하여 평균영상과 표준편차 영상을 아래의 수학식 1과 같은 방법으로 구한다.However, when the average image and the standard deviation image are simply used based on the RGB color model, an error occurs in calculating the subject image position due to the shadow generated by the subject. To solve this problem, the RGB color model is normalized to obtain an average image and a standard deviation image as shown in Equation 1 below.

Figure 112010019130964-pat00001
Figure 112010019130964-pat00001

상기 수학식 1에서

Figure 112010019130964-pat00002
는 각각의 컬러 채널이며,
Figure 112010019130964-pat00003
는 정규화 된 각각의 컬러 채널이다. 상기 수학식 1에서
Figure 112010019130964-pat00004
를 나타낸다. 정규화된 rgb 컬러 모델에서는 밝기 성분이 제거되기 때문에 밝기에 대한 컬러 구분이 없다. 그 결과 입력되는 피사체의 영상으로부터 그림자 영역을 제거할 수 있다.In Equation (1)
Figure 112010019130964-pat00002
Are the respective color channels,
Figure 112010019130964-pat00003
Is each color channel normalized. In Equation (1)
Figure 112010019130964-pat00004
Indicates. In the normalized rgb color model, there is no color distinction for brightness because the brightness component is removed. As a result, the shadow area may be removed from the input image of the subject.

Figure 112011042542755-pat00005
Figure 112011042542755-pat00005

Figure 112010019130964-pat00006
Figure 112010019130964-pat00006

상기 수학식 2와 같은 방법으로 정규화된 rgb 컬러 모델의 평균영상과 표준편차 영상을 구한다.

Figure 112010019130964-pat00007
는 학습 될 배경 영상,
Figure 112010019130964-pat00008
은 학습할 전체 프레임 수를 나타낸다.
Figure 112010019130964-pat00009
는 각 채널에 대한 평균 영상,
Figure 112010019130964-pat00010
는 각 채널에 대한 표준편차 영상이다. 상기 수학식 3에서
Figure 112010019130964-pat00011
는 정규화 된 각 채널에 대한 평균영상,
Figure 112010019130964-pat00012
는 정규화 된 각 채널에 대한 표준편차 영상이다.The average image and the standard deviation image of the normalized rgb color model are obtained in the same manner as in Equation 2 above.
Figure 112010019130964-pat00007
Background image to be learned,
Figure 112010019130964-pat00008
Represents the total number of frames to learn.
Figure 112010019130964-pat00009
Is the average image for each channel,
Figure 112010019130964-pat00010
Is the standard deviation image for each channel. In Equation 3
Figure 112010019130964-pat00011
Is the average image for each normalized channel,
Figure 112010019130964-pat00012
Is the standard deviation image for each normalized channel.

배경 학습을 통해서 배경의 평균영상과 표준편차 영상이 구해지면, 실시간으로 입력되는 영상과 비교한다. 계산되어 진 영상과 실시간으로 입력되는 영상에서 각각의 픽셀 차를 계산하여 기존 영상의 픽셀과 다른 값을 가진 픽셀들을 검출한다. 이때 검출된 픽셀들을 블랍(Blob)으로 지정하며, 크기 비교를 통하여 가장 큰 범위의 블랍(Blob)을 피사체로 지정하며, 나머지 블랍(Blob)들은 노이즈로 인한 오류 값으로 간주하여 제거한다. 최종적으로 피사체의 블랍을 구성하는 픽셀들의 평균값을 계산하여 피사체의 중심 좌표를 얻게 된다.When the background average image and the standard deviation image are obtained through the background learning, the image is compared with the input image in real time. Each pixel difference is calculated from the calculated image and the input image in real time to detect pixels having different values from those of the existing image. At this time, the detected pixels are designated as blobs, and the largest range of blobs is designated as a subject through size comparison, and the remaining blobs are regarded as an error value due to noise and removed. Finally, the average coordinates of the pixels constituting the blob of the subject are calculated to obtain the center coordinates of the subject.

도 3은 배경과 피사체를 분리하여 피사체의 위치 좌표를 알아내는 과정을 나타낸 도면으로, (a)는 배경의 평균영상 검출, (b)는 피사체(물고기) 삽입, (c)는 배경과 피사체 분리, (d)는 피사체의 중심점 획득을 각각 나타낸다.3 is a diagram illustrating a process of determining a position coordinate of a subject by separating a background and a subject, (a) detecting an average image of a background, (b) inserting a subject (fish), and (c) separating a background and a subject and (d) indicate acquisition of the center point of the subject, respectively.

하지만, 이러한 배경 모델링 기법을 사용할 경우, 배경 영상의 변화를 계산하여 사용하기 때문에 목표 피사체가 한 개일 경우 배경 영상과 피사체를 분리하는데 지장 없지만 구분해야 하는 피사체가 두 개 이상일 경우 두 피사체가 조금이라도 겹쳐졌다가 분리 되는 경우, 계산된 위치 좌표와 해당 피사체가 일치 하지 않을 수 있는 문제가 발생한다.However, when using this background modeling technique, the change in the background image is calculated and used, so it is not difficult to separate the background image and the subject when there is one target subject, but when two or more subjects need to be separated, the two subjects overlap even a little. If it is removed and separated, a problem may occur in which the calculated position coordinates and the subject do not coincide.

앞에서 언급한 바와 같이 배경 모델링 기법을 사용할 경우 발생하는 문제점을 보완하기 위해서 캠시프트(CamShift) 기반 트래킹 기법을 사용한다.As mentioned above, CamShift-based tracking technique is used to compensate for the problem that occurs when using the background modeling technique.

도 4는 캠시프트(CamShift) 알고리즘을 통한 각기 다른 두 피사체의 위치를 검출하는 모습을 나타낸 도면이다.FIG. 4 is a diagram illustrating a state of detecting two different subjects through a CamShift algorithm.

컬러 모델이 여러 다른 조명 환경 상황에 적절히 조절된다면 컬러 정보는 특징 부분을 확인하기 위한 효율적인 도구가 될 것이다. 이러한 컬러 정보를 이용하는 알고리즘인 민시프트(MeanShift)와 캠시프트(CamShift) 알고리즘은 상대적으로 적은 계산으로 실시간 트래킹을 할 수 있다. 하지만 민시프트(MeanShift) 알고리즘의 경우, 피사체와 카메라의 거리 변화에 따른 피사체 크기변화를 새로 업데이트 하지 못하여 피사체의 중심을 찾을 수 없는 문제가 있다. 그러한 민시프트(MeanShift)의 단점을 보완한 캠시프트(CamShift)는 불규칙한 피사체의 움직임을 트래킹 할 수 있으며, 다른 물체가 현재 트래킹하는 피사체에 100% 겹치지 않는 한 트래킹 하던 피사체의 위치 좌표를 획득할 수 있다.If the color model is properly adapted to different lighting conditions, color information will be an efficient tool for identifying features. MeanShift and CamShift algorithms, which use these color information, can perform real-time tracking with relatively few calculations. However, in the case of the MeanShift algorithm, there is a problem in that the center of the subject cannot be found because the subject size change according to the change of the distance between the subject and the camera cannot be newly updated. CamShift, which compensates for the shortcomings of MeanShift, can track irregular subject movement, and acquire the position coordinates of the subject that was being tracked unless another object overlaps 100% with the subject currently being tracked. have.

다음으로, 수면의 영역을 기반으로 피사체의 깊이 정보를 계산하기 위해서 본 발명에서는 전시되어 있는 사물의 윗면에서 모서리 4곳의 꼭지점을 지정하여 앞면과 뒷면의 경계선을 할당하고 해당 구간을 일정한 간격으로 나누어 앞면에서 뒷면으로 깊이 정보 값을 적용한다.Next, in order to calculate the depth information of the subject based on the area of the surface, the present invention assigns four vertices of the corners from the top of the object to be displayed, allocates the front and back borders, and divides the corresponding sections at regular intervals. Apply the depth information value from front to back.

하지만, 도 5의 (a) 형태로 입력되는 영상은 도 5의 (b)와 같이 카메라가 피사체를 바라보는 각도에 의한 왜곡이 발생하기 때문에 입력된 영상을 도 5의 (c)와 같이 일방적으로 나눌 경우에는 도 5의 (d)와 같은 실질적인 거리와는 다른 오차가 발생하게 된다. 카메라의 시점에서 일관 되게 나눌 경우 실질적으로는 단위당 거리가 앞쪽일수록 짧게 되고 뒤쪽으로 갈수록 점차 길어지게 된다. 이러한 영상 왜곡에 의한 불규칙적으로 할당되는 오류를 수정하기 위하여 호모그래피 행렬(Homography Matrix)을 사용하여 카메라가 피사체를 바라보는 각도에 대한 입력 영상의 오류를 보정 한다.However, since the image input in the form of FIG. 5 (a) is distorted due to the angle at which the camera looks at the subject as shown in FIG. 5 (b), the input image is unilaterally illustrated in FIG. 5 (c). In the case of division, an error different from the actual distance as shown in FIG. When divided consistently from the camera's point of view, the distance per unit is substantially shorter in the front and gradually longer in the rear. In order to correct an irregularly allocated error due to such image distortion, a homography matrix is used to correct an error of an input image with respect to an angle at which a camera looks at a subject.

어느 한 평면에 대하여 그 평면 위에 있는 점과 다른 한 평면의 대응점은 3×3 행렬로 표현이 가능하다. 여기에서 3×3 행렬은 두 평면 사이의 사영 변환 관계를 나타내는데, 이것을 호모그래피 라고 한다. 그러한 호모그래피 행렬을 사전식으로 배열한 9×1 벡터를 평면 위에 있는 점과 다른 한 평면의 대응점을 조합한 n×9 행렬에 곱하면 0이 된다. 이 과정에서 호모그래피 행렬을 사전식으로 배열한 9×1 벡터는 SVD (Singular Value Decomposition)를 통해 구할 수 있다. 하지만 여기서 평면 위에 있는 점과 다른 한 평면의 대응점을 조합한 n×9 행렬은 정방 행렬이 아니기 때문에 SVD를 바로 적용할 수 없다. 이를 해결하기 위하여 유사 역원을 이용한다.For a plane, the point on the plane and the corresponding point of the other plane can be expressed in a 3x3 matrix. The 3x3 matrix here represents the projection transformation relationship between the two planes, which is called homography. Multiplying such a homography matrix by a 9x1 vector lexically by an nx9 matrix that combines points on the plane with corresponding points on the other plane results in zero. In this process, a 9 × 1 vector in which the homography matrix is arranged in a dictionary can be obtained through SVD (Singular Value Decomposition). However, since the n × 9 matrix that combines the points on the plane with the corresponding points on the other plane is not a square matrix, SVD cannot be applied immediately. A pseudo inverse is used to solve this.

Figure 112010019130964-pat00013
Figure 112010019130964-pat00013

상기 수학식 4와 같이,

Figure 112010019130964-pat00014
에서
Figure 112010019130964-pat00015
Figure 112010019130964-pat00016
행렬을 사전식으로 배열한
Figure 112010019130964-pat00017
벡터이며,
Figure 112010019130964-pat00018
Figure 112010019130964-pat00019
Figure 112010019130964-pat00020
를 조합한
Figure 112010019130964-pat00021
행렬이다. 여기서,
Figure 112010019130964-pat00022
는 SVD를 통하여 계산을 하며, 호모그래피 행렬인
Figure 112010019130964-pat00023
Figure 112010019130964-pat00024
의 가장 작은 고유값에 해당하는 고유벡터들로 구성된다.As shown in Equation 4,
Figure 112010019130964-pat00014
in
Figure 112010019130964-pat00015
Is
Figure 112010019130964-pat00016
Lexicographically arranging the matrix
Figure 112010019130964-pat00017
Vector,
Figure 112010019130964-pat00018
Is
Figure 112010019130964-pat00019
Wow
Figure 112010019130964-pat00020
Combining
Figure 112010019130964-pat00021
It is a matrix. here,
Figure 112010019130964-pat00022
Is computed through SVD, which is a homography matrix
Figure 112010019130964-pat00023
Is
Figure 112010019130964-pat00024
It consists of eigenvectors corresponding to the smallest eigenvalues of.

위와 같은 과정을 통해서 계산되어진 호모그래피 행렬을 이용하여 도 6의 (b)와 같은 보정된 영상을 구하고, 그 영상을 도 6의 (c)와 같이 일정한 간격으로 배분하여, 도 6의 (d)와 같은 기준면을 생성하여 피사체의 위치에 따른 깊이 정보 값을 산출한다. 이는 그림을 통하여 확인할 수 있다.Using the homography matrix calculated through the above process, a corrected image as shown in FIG. 6 (b) is obtained, and the images are distributed at regular intervals as shown in FIG. Depth information values are calculated according to the position of the object by generating a reference plane as shown in FIG. This can be seen in the figure.

실제 입력 영상인 도 7의 (a)를 대상으로 호모그래피 행렬을 적용하여 도 7의 (b)를 생성하고, 그에 따른 피사체 위치를 기준으로 z좌표를 지정한다.7B is generated by applying a homography matrix to the actual input image of FIG. 7A, and the z-coordinate is designated based on the subject position.

이러한 방법으로 계산된 피사체의 위치 좌표인 x, y, z값을 사용하여 대상에 알맞은 안내 영상을 출력하게 되는데, 이때 이동하는 피사체의 방향에 알맞은 변화를 주게 되어 더욱 자연스러운 결과를 얻게 된다. 이러한 과정에서 발생할 수 있는 프레임 저하로 인한 출력 영상의 끊김 현상을 방지하기 위하여 병렬처리를 통한 유연한 움직임의 추적 기법으로 영상을 출력하여 더욱 자연스러운 움직임의 결과를 확인할 수 있다.In this way, the guide image suitable for the target is output using the calculated position coordinates x, y, and z of the subject. In this case, a change in the direction of the moving subject is changed to obtain a more natural result. In order to prevent the disconnection of the output image due to the frame degradation that may occur in this process, it is possible to check the results of the more natural movement by outputting the image by a flexible motion tracking technique through parallel processing.

여기서, 본 발명에서는 실시간으로 해당 좌표에 안내문을 출력하는 방식 대신에 계산되어 진 좌표값을 향하여 피사체의 위치까지 유연한 움직임으로 추적을 하는 알고리즘을 적용하였다.Here, in the present invention, instead of the method of outputting the guidance text to the corresponding coordinates in real time, the algorithm is applied to track the flexible movement to the position of the subject toward the calculated coordinate value.

도 8은 피사체의 위치로 이동(a)을 하던 중에 피사체의 위치에 변화가 생기면 질량과 가속도를 고려하여 방향을 전환(b)하여 피사체의 위치까지 유연한 움직임으로 도달하게 된다(c).FIG. 8 shows that when a change occurs in the position of the subject while moving to the position of the subject (a), the direction is changed in consideration of mass and acceleration (b) to reach the position of the subject with flexible movement (c).

유동적인 피사체를 추적하는 피사체에 사용자가 적절한 값으로 질량을 설정하면, 해당 피사체는 자신의 가속도와 질량에 알맞은 유연한 움직임을 보여준다. 정지된 피사체가 피사체의 이동을 감지하고 추적을 시작할 때, 설정된 가속도에 따라서 민첩함이 변하고, 피사체의 진행 방향이 변하여 회전을 할 경우, 설정된 질량에 따라 회전하는 형태가 변한다. 그 결과 이동을 멈춘 피사체의 주변에 도착하면, 추적을 멈춘 피사체는 이동을 멈추고 피사체의 위치 좌표 변화를 주시하게 된다.When the user sets the mass to an appropriate value for a subject that tracks a moving subject, the subject shows a flexible movement appropriate to its acceleration and mass. When the stationary subject detects the movement of the subject and starts tracking, the agility changes according to the set acceleration, and when the subject moves in the direction of rotation, the rotating form changes according to the set mass. As a result, when the subject arrives in the vicinity of the subject which has stopped moving, the subject who has stopped tracking stops the movement and observes the change in the position coordinate of the subject.

이러한 과정을 통하여 생성되는 영상을 기울어져 설치되어 있는 반투영 거울에 바로 투영을 할 경우, 반투영 거울의 기울기에 따른 왜곡이 발생하게 된다. 이처럼 거울의 기울기에 따라 발생하는 왜곡은 반사 변환 행렬을 이용하면 해당 기울기에 따라 알맞은 값으로 보정이 가능하다. When the image generated through such a process is directly projected on the semi-projection mirror installed at an inclination, distortion occurs due to the tilt of the semi-projection mirror. The distortion caused by the tilt of the mirror can be corrected to an appropriate value according to the tilt using the reflection transformation matrix.

여기서, 상기 반투영 거울(120)을 이용하여 공간 증강 현실 환경을 제작할 경우 고려해야 하는 사항이 있다. 상기 반투영 거울(120)에 비춰 진 영상은 거울의 기울기에 의한 왜곡이 발생한다. 그러한 문제점을 해결하기 위한 방법으로 반사 변환 행렬(Reflection Matrix)을 사용한다. 기울어진 거울에 의해서 왜곡될 정도를 미리 계산하여, 영상을 출력 시에 변형될 영상을 반대로 보정 한 뒤에 출력하는 것이다.Here, there are matters to be considered when manufacturing a space augmented reality environment using the semi-projection mirror 120. The image reflected on the semi-projection mirror 120 is a distortion caused by the tilt of the mirror. The reflection matrix is used as a method to solve such a problem. The degree of distortion by the tilted mirror is calculated in advance, and the image to be distorted at the time of output is corrected in reverse and then output.

Figure 112010019130964-pat00025
Figure 112010019130964-pat00025

본 발명에 적용한 반사 변환 행렬(수학식 3)은 컴퓨터 그래픽스 분야에서 널리 사용되고 있는 OpenGL의 모델 뷰 변환 과정(Model-view Transformation)에서 접목되어 사용된다.The reflection transformation matrix (Equation 3) applied to the present invention is used in a model-view transformation process of OpenGL widely used in the field of computer graphics.

상기 수학식 5의

Figure 112010019130964-pat00026
는 일반적인 평면의 방정식을 통하여 계산할 수 있다. 상기 반투영 거울(120)이 바라보는 법선 벡터
Figure 112010019130964-pat00027
와 상기 반투영 거울(120)상에 존재하는 임의의 점
Figure 112010019130964-pat00028
와 원점 0, 0, 0이 있을 경우 평면의 방정식은
Figure 112010019130964-pat00029
과 같다. 즉, 평면의 방정식을 이용하면 기울어진 거울로 인하여 생길 수 있는 왜곡을 보정 하기에 알맞은 반사 변환 행렬을 구할 수 있다.Of Equation 5
Figure 112010019130964-pat00026
Can be calculated through the equation of a general plane. Normal vector viewed by the translucent mirror 120
Figure 112010019130964-pat00027
And any point present on the translucent mirror 120
Figure 112010019130964-pat00028
And origin zero, zero, zero, the equation of the plane
Figure 112010019130964-pat00029
Is the same as In other words, by using the equation of the plane, it is possible to obtain a reflection transformation matrix suitable for correcting the distortion caused by the tilted mirror.

일반적인 OpenGL에서는 물체별로 모델링에 편하게 설정된 좌표계가 모델 좌표계(Object Coordinates)이다. 개별 물체를 모았을 때 이를 한꺼번에 아우를 수 있는 좌표계가 전역 좌표계(World Coordinates)이며, 물체를 바라보는 시점을 기준으로 표현한 것이 시점 좌표계(Eye Coordinates)이다. 하지만 반사 변환 행렬을 접목 시킬 경우 전역 좌표계와 시점 좌표계에 작은 변화가 생긴다.In general OpenGL, the coordinate system set for modeling by object is the model coordinate system (Object Coordinates). When the individual objects are collected, the coordinate system that can encompass them at once is the world coordinate system and the world coordinate system is expressed based on the viewpoint of the object. However, when the reflection transformation matrix is combined, small changes occur in the global coordinate system and the viewpoint coordinate system.

앞에서 설명한 바와 같이, 생성된 전역 좌표계에 반사 변환 행렬을 적용하여 반사된 전역 좌표계(Reflected World Coordinates)를 생성한다. 기존에 계산되어 진 시점 좌표계 또한 새로운 반사된 시점 좌표계(Reflected Eye Coordinates)로 사용하게 된다. 이러한 방법으로 거울의 기울기에 의해서 영상이 왜곡된 것을 변형하여 출력함으로써 거울의 기울기에 의한 왜곡 문제를 해결할 수 있다.As described above, the reflected global coordinate system is generated by applying the reflection transformation matrix to the generated global coordinate system. The previously calculated view coordinate system will also be used as new reflected eye coordinates. In this way, the distortion of the mirror may be solved by modifying and outputting a distorted image due to the tilt of the mirror.

마지막으로, 반사 변환 행렬을 통하여 보정된 영상을 설치되어 있는 상기 반투영 거울(120)에 투영을 시키면, 관찰자는 거울 뒷면에 설치되어 있는 실제 공간에서 움직이는 피사체에 대한 정보를 공간 증강되어 나타나는 안내문에 의해 쉽게 얻을 수 있다.
Finally, when projecting the corrected image through the reflection transformation matrix to the semi-projection mirror 120 is installed, the observer is a spatial augmented guide to the information about the moving subject in the real space installed on the back of the mirror Can be easily obtained by

공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 다른 실시 예 Another embodiment of a display system

도 9는 본 발명의 바람직한 다른 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도이다.9 is a configuration diagram of a spatial augmented reality based interactive display system according to another exemplary embodiment of the present invention.

상기 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은 도 9에 도시된 바와 같이, 공간 증강 현실 디스플레이 또는 시스템 내부의 실제 전시공간(201), 영상출력장치(202), 멀티 터치 스크린(203), 적외선 LED 어레이 바(IR-LEDs Array Bar: 204), 적외선 카메라(Infrared Camera: 205), 전반사 거울(206), 반투영 거울(207), 전반사 거울(208), 카메라(209), 백색 LED 조명(210), 수직이동장치(211), 빔 프로젝터(212), 제어 PC(213)를 포함하여 구성된다.As shown in FIG. 9, the spatial augmented reality-based interactive display system includes an actual exhibition space 201, an image output device 202, a multi-touch screen 203, and an infrared LED array bar in a spatial augmented reality display or system. (IR-LEDs Array Bar: 204), Infrared Camera (205), Total Reflection Mirror (206), Translucent Mirror (207), Total Reflection Mirror (208), Camera (209), White LED Light (210), It comprises a vertical moving device 211, a beam projector 212, the control PC (213).

여기서, 상기 공간 증강 현실 디스플레이(201)는 사용자로 하여금 공간증강된 영상을 관람하게 한다. 즉, 상기 멀티 터치 스크린(203)을 통해 사용자가 입력한 정보(그림, 문자 등)가 상기 시스템 내부에 설치된 실제 전시공간(201) 안에 들어 있는 것처럼 보이는 공간증강 현실 환경을 관람할 수 있도록 한다.Here, the spatial augmented reality display 201 allows a user to view a spatially enhanced image. That is, the multi-touch screen 203 allows the user to view a spatial augmented reality environment that appears to be contained in the actual exhibition space 201 installed inside the system.

상기 영상출력장치(202)은 상기 멀티 터치 스크린(203)을 통해 사용자가 입력한 정보를 가지고 상기 제어 PC(213)에서 만들어진 공간증강을 위한 영상을 상기 반투영 거울(207)로 출력한다.The image output device 202 outputs an image for spatial enhancement made by the control PC 213 to the semi-projection mirror 207 with information input by a user through the multi-touch screen 203.

상기 멀티 터치 스크린(203)은 모니터의 역할로 정보를 전달하며 콘텐츠 진행을 위한 사용자의 정보를 입력받는다. 상기 멀티 터치 스크린(203)에는 상기 빔 프로젝터(212)에서 출력된 영상이 상기 전반사 거울(206)에 반사되어 디스플레이되며, 사용자에게 콘텐츠 사용 방법에 대해 안내한다. 상기 멀티 터치 스크린(203)은 아크릴 판과 리어스크린으로 구성된다.The multi-touch screen 203 transmits information as a monitor and receives user information for content progress. The image output from the beam projector 212 is reflected and displayed on the total reflection mirror 206 on the multi-touch screen 203, and guides the user on how to use the content. The multi-touch screen 203 is composed of an acrylic plate and a rear screen.

상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 204)는 상기 멀티 터치 스크린(203)을 통해 입력되는 사용자의 터치 지점을 감지하기 위해 상기 멀티 터치 스크린(203)의 상단과 하단(또는, 좌측 및 우측)에 설치되어 적외선 빛을 출력하여 상기 멀티 터치 스크린(203)의 하부에 인터랙션 막(Interactive Surface)을 형성한다. 이때, 상기 멀티 터치 스크린(203)에 손을 터치했을 때 손이 터치 된 지점의 상기 인터랙션 막에서 적외선 빛이 발산되게 된다.The IR-LEDs array bar 204 is configured to detect the touch point of the user input through the multi-touch screen 203, and the top and bottom (or left and right) of the multi-touch screen 203. Installed on the right side) to output infrared light to form an interactive surface under the multi-touch screen 203. In this case, when the hand touches the multi-touch screen 203, infrared light is emitted from the interaction layer at the point where the hand is touched.

상기 적외선 LED 어레이 바(204)는 도 10의 사진과 같이, 복수 개의 적외선 LED(IR-LEDs: 220)를 일정 간격(예를 들어, 3cm 간격)을 두고 설치한다. 이때, 상기 적외선 LED(220)를 일정한 간격으로 배치하는 이유는 모든 영역에 대해서 적외선 빛의 양을 균일하게 하기 위해서이다. 그리고, 상기 적외선 LED(220)의 간격을 3cm로 하는 이유는 각 LED의 발열량을 고려하면서 충분한 적외선의 양을 공급받을 수 있는 거리를 시험한 결과, 3cm의 간격이 적당한 것으로 밝혀졌다. 하지만, 이값에 반드시 국한된 것은 아니며, LED 소자나 기타 다른 환경에 따라 변할 수도 있다. As shown in the photo of FIG. 10, the infrared LED array bar 204 installs a plurality of infrared LEDs (IR-LEDs) 220 at regular intervals (for example, 3 cm intervals). In this case, the reason for disposing the infrared LED 220 at regular intervals is to make the amount of infrared light uniform for all regions. In addition, the reason for setting the spacing of the infrared LEDs 220 to 3 cm is a distance of 3 cm, which was found to be adequate as a result of testing a distance that can be supplied with sufficient amount of infrared light while considering the amount of heat generated by each LED. However, it is not necessarily limited to this value and may vary depending on the LED device or other environment.

상기 적외선 LED(220)는 일반적으로 45도 각도로 빛이 발산된다. 따라서, 본 발명의 적외선 LED 어레이 바(204)에서는 LED의 빛이 45°로 발산하는 것을 막기 위해 상기 적외선 LED(220)의 양쪽을 벽으로 차단함으로써 수직으로만 빛이 나갈 수 있도록 구성하여 빛의 직진성을 향상시켰다.The infrared LED 220 generally emits light at a 45 degree angle. Therefore, in the infrared LED array bar 204 of the present invention, by blocking both sides of the infrared LED 220 to the wall in order to prevent the light of the LED diverging at 45 ° to configure the light to go out only vertically Improved straightness.

한편, 상기 적외선 LED 어레이 바(204)는 상기 멀티 터치 스크린(203)의 크기에 따라 상단 또는 하단에 1개만 설치하여 구성할 수도 있다.Meanwhile, only one infrared LED array bar 204 may be installed at the top or the bottom of the multi-touch screen 203.

상기 적외선 카메라(Infrared Camera: 205)는 상기 멀티 터치 스크린(203)에 사용자의 터치 지점을 영상 입력하기 위한 것으로, 상기 멀티 터치 스크린(203)에 손을 터치했을 때 상기 적외선 LED 어레이 바(204)에 의해 형성된 인터랙션 막(영역)에서 발산되는 적외선 빛을 영상 입력하게 된다.The infrared camera 205 is for inputting an image of a user's touch point to the multi-touch screen 203, and the infrared LED array bar 204 when a hand is touched on the multi-touch screen 203. The infrared light emitted from the interaction film (region) formed by the image is input.

상기 전반사 거울(206)은 상기 빔 프로젝터(212)에서 출력되는 영상을 상기 멀티 터치 스크린(203)으로 반사시키는 역할을 한다. 이때, 상기 빔 프로젝터(212)에서 출력되는 영상을 상기 전반사 거울(206)을 이용하여 반사하는 이유는 상기 빔 프로젝터(212)와 상기 멀티 터치 스크린(203)의 거리가 멀어질수록 넓은 화면의 영상을 얻을 수 있기 때문이다. 그리고, 빛의 감소가 발생하지 않기 위해서 일반거울이 아닌 전반사거울을 이용한다.The total reflection mirror 206 reflects the image output from the beam projector 212 to the multi-touch screen 203. In this case, the reason for reflecting the image output from the beam projector 212 using the total reflection mirror 206 is that as the distance between the beam projector 212 and the multi-touch screen 203 increases, the image of the wide screen Because you can get And, in order to prevent the reduction of light, a total reflection mirror is used instead of a general mirror.

상기 반투영 거울(207)은 상기 영상출력장치(202)의 화면과 상기 실제 전시공간(201)의 사물을 겹쳐서 보이도록 하여 사용자로 하여금 공간증강 현실 환경을 관람할 수 있도록 한다.The semi-projection mirror 207 allows the user to view the space-augmented reality environment by overlapping the screen of the image output device 202 and the object of the actual exhibition space 201.

상기 전반사 거울(208)은 상기 전반사 거울(206)과 비슷한 용도지만 반대의 동작을 한다. 즉, 상기 전반사 거울(208)은 상기 전시공간(201)의 모습을 상기 카메라(209)로 하여금 좁고 짧은 공간에서 넓은 화각의 영상을 입력받을 수 있도록 제공한다. 만약, 상기 카메라(209)의 렌즈를 광각렌즈로 사용하게 되면 이미지가 왜곡되기 때문에 왜곡된 이미지를 보정 하기 위한 장치가 더 필요하여 시스템에 불필요한 부하가 걸린다. 따라서, 상기 전반사 거울(208)을 이용하여 상기 카메라(209)의 설치 공간의 제약을 덜어내었다.The total reflection mirror 208 serves a similar purpose as the total reflection mirror 206 but performs the opposite operation. That is, the total reflection mirror 208 provides the camera 209 to receive the image of a wide angle of view in a narrow and short space. If the lens of the camera 209 is used as a wide-angle lens, since the image is distorted, an additional device for correcting the distorted image is required, which places an unnecessary load on the system. Thus, the total reflection mirror 208 was used to remove the constraint of the installation space of the camera 209.

상기 카메라(209)는 상기 전반사 거울(208)을 통해 상기 전시공간(201)의 모습을 영상으로 입력하여, 유동적으로 움직이는 사물의 위치를 실시간으로 계산하기 위한 기반 영상을 입력한다.The camera 209 inputs a state of the exhibition space 201 through the total reflection mirror 208 as an image, and inputs a base image for calculating a position of a moving object in real time.

상기 백색 LED 조명(210)은 상기 영상출력장치(202)에서 출력되는 영상의 밝기와 상기 전시공간(201)의 밝기가 유사하도록 상기 전시공간(210)의 밝기를 조절하는 조명이다. 즉, 상기 전시공간(210)과 상기 영상출력장치(202)의 밝기 차이를 줄여서 현실감을 높이기 위해 설치된 것으로, 밝기의 조절을 위해 가변저항이 설치되어 있다.The white LED light 210 is an illumination that controls the brightness of the exhibition space 210 such that the brightness of the image output from the image output device 202 and the brightness of the exhibition space 201 are similar. That is, the display space 210 and the image output device 202 by reducing the difference in brightness is installed to increase the realism, the variable resistor is installed for the adjustment of the brightness.

상기 반투영 거울(207)을 통해 상기 전시공간의 모습과 상기 영상출력장치(202)에서 출력되는 영상이 하나로 겹쳐서 보이기 때문에, 상기 전시공간(201)의 밝기와 상기 영상출력장치(202)에서 출력되는 영상의 밝기가 동일할수록 이질감을 느끼지 않게 된다. 그런데, 상기 영상출력장치(202)의 영상 밝기를 조절하는 데는 한계가 있기 때문에 상기 백색 LED 조명(210)을 이용하여 상기 전시공간(201)의 밝기를 상기 영상출력장치(202)에서 출력되는 영상의 밝기와 유사 또는 동일하도록 조절한다.Since the image of the exhibition space and the image output from the image output device 202 are superimposed on one through the semi-projection mirror 207, the brightness of the exhibition space 201 and the image output device 202 are output. The more the brightness of the image is the same, the less heterogeneity is felt. However, since there is a limit in controlling the image brightness of the image output device 202, the image output from the image output device 202 is displayed on the brightness of the exhibition space 201 using the white LED light 210. Adjust the brightness to be similar to or the same as.

상기 수직이동장치(211)는 상기 영상출력장치(202)의 높낮이에 따라 사용자가 느껴지는 영상의 깊이가 달라지기 때문에 상기 영상출력장치(202)의 높낮이를 상황에 맞게 조절하기 위한 수직이동장치이다. 여기서, 증강되는 영상의 깊이 차이로 인하여 증강되는 영상이 상기 전시공간(201)의 사물과 일치하여 보이거나(알맞은 설정), 공중에 떠있거나 배경사물 안쪽으로 묻혀있는 것처럼 보일 수 있다. 그러므로, 상기 수직이동장치(211)를 이용하여 상기 영상출력장치(202)의 높낮이를 적절한 높이로 조절하게 된다.The vertical moving device 211 is a vertical moving device for adjusting the height of the image output device 202 according to the situation because the depth of the image felt by the user varies depending on the height of the image output device 202. Here, the augmented image due to the difference in depth of the augmented image may appear to match the object of the exhibition space 201 (a suitable setting), or may appear to be floating in the air or buried inside a background object. Therefore, the height of the image output device 202 is adjusted to an appropriate height using the vertical moving device 211.

상기 빔 프로젝터(212)는 상기 전반사 거울(206)을 통해 상기 멀티 터치 스크린(203)에 출력될 영상을 출력해 준다.The beam projector 212 outputs an image to be output to the multi-touch screen 203 through the total reflection mirror 206.

상기 제어 PC(213)는 상기 카메라(209)로부터 상기 전시공간(201)의 사물 영상을 실시간으로 입력받아 유동적으로 움직이는 사물의 위치를 실시간으로 계산하고, 상기 빔 프로젝터(212)를 통해 영상을 출력하여 상기 멀티 터치 스크린(203)에 출력한 영상이 디스플레이되도록 한다. 그리고, 상기 멀티 터치 스크린(203)에 입력되는 사용자의 터치 지점을 상기 적외선 카메라(205)를 통해 입력받아 터치 지점의 좌표값을 계산하여 해당 지점의 콘텐츠를 상기 영상출력장치(202)로 실행하거나 또는 사용자가 입력한 그림이나 문자 정보를 상기 영상출력장치(202)를 통해 디스플레이한다. 또한, 공간 증강 현실 프로그램에 따라 사용자가 상기 멀티 터치 스크린(203)에 입력한 그림 정보를 상기 전시공간(201)의 사물의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치(202)에 디스플레이한다. 또한, 상기 제어 PC(213)는 상기 수직이동장치(211)를 통해 상기 영상출력장치(202)의 높낮이를 조절하며, 상기 백색 LED 조명(210)의 밝기를 제어한다. 이외에, 상기 제어 PC(213)는 시스템에서 필요한 출력 영상 및 각종 연산을 처리한다.The control PC 213 receives the object image of the exhibition space 201 from the camera 209 in real time, calculates the position of the moving object in real time, and outputs the image through the beam projector 212. The image output on the multi-touch screen 203 is displayed. In addition, the touch point of the user input to the multi-touch screen 203 is input through the infrared camera 205, the coordinate value of the touch point is calculated, and the content of the corresponding point is executed by the image output device 202. Alternatively, the image or text information input by the user is displayed through the image output apparatus 202. In addition, the image information input by the user to the multi-touch screen 203 is displayed on the image output device 202 to move in the same shape as the movement of the object in the exhibition space 201 according to the space augmented reality program. In addition, the control PC 213 adjusts the height of the image output device 202 through the vertical moving device 211, and controls the brightness of the white LED light 210. In addition, the control PC 213 processes the output image and various operations required by the system.

상기 적외선 카메라(205)는 상기 멀티 터치 스크린(203)에 손을 터치했을 때 상기 적외선 LED 어레이 바(204)에 의해 형성된 인터랙션 막(영역)에서 발산되는 적외선 빛을 영상으로 입력하여 상기 제어 PC(213)로 전송하게 된다. 상기 제어 PC(213)에서는 상기 적외선 카메라(205)에서 전송된 신호를 영상처리를 통해 손 영역의 좌표(x,y) 값을 계산하게 된다. The infrared camera 205 inputs infrared light emitted from the interaction film (area) formed by the infrared LED array bar 204 when the user touches the multi-touch screen 203 as an image to control the PC. 213). The control PC 213 calculates coordinate (x, y) values of the hand region through image processing of the signal transmitted from the infrared camera 205.

여기서, 손 영역의 좌표(x,y) 값을 계산하는 방법은 다음과 같다.Here, the method of calculating the coordinate (x, y) value of the hand region is as follows.

영상 이진화를 통하여 LED가 반사되는 영역과 그렇지 않은 영역을 나눈 뒤에 반사되는 영역에 한해서 블랍/라벨링을 거쳐 호모그래피 행렬을 이용하여 왜곡을 보정한 뒤 좌표의 최상위점을 인식하고 있는 좌표로 계산하여서 작동한다. 여기서, 상기 블랍은 영상 이진화를 하였을 때, LED가 반사된 영역들을 묶는 역할을 한다. 즉, 사람의 손이 하나의 픽셀(점)로 빛을 반사시키는 게 아니라 다수의 픽셀(면)로 빛을 반사시키기 때문에, 연속으로 LED가 반사되는 영역을 묶어주는 역할을 한다. 상기 라벨링은 상기 블랍을 통해 묶인 영역들에 대해 이름 그대로 번호를 지정하는 작업이다. 각 영역당 번호를 지정함으로써, 영역이 생겨서부터 사라질 때까지의 좌표값을 계산할 수 있다. 이때, 영상은 3차원이 아닌 2차원이기 때문에 (x,y)좌표로만 계산하여 (x,y)의 좌표정보 값만 계산된다.This function operates by calculating the coordinates that recognize the highest point of the coordinates after correcting the distortion using a homography matrix through the blob / labeling only in the region where the LED is reflected through the image binarization and the region that is not. do. Here, the blob binds the areas where the LED is reflected when the image is binarized. That is, since the human hand does not reflect light to one pixel (point) but reflects light to a plurality of pixels (planes), it serves to bind the areas where the LED is continuously reflected. The labeling is an operation of numbering the regions bounded by the blobs as they are. By assigning a number for each region, it is possible to calculate the coordinate values from when the region is created to disappear. At this time, since the image is two-dimensional rather than three-dimensional, only the coordinate information value of (x, y) is calculated by calculating only the (x, y) coordinate.

상기 터치 지점의 좌표값을 계산한 후 해당 지점의 콘텐츠를 상기 영상출력장치(202)로 실행하거나 또는 사용자가 입력한 그림이나 문자 정보를 상기 영상출력장치(202)를 통해 디스플레이한다. 또한, 공간 증강 현실 프로그램에 따라 사용자가 상기 멀티 터치 스크린(203)에 입력한 그림 정보를 상기 전시공간(201)의 사물의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치(202)에 디스플레이한다.After calculating the coordinate value of the touch point, the content of the corresponding point is executed by the image output device 202 or the picture or text information input by the user is displayed through the image output device 202. In addition, the image information input by the user to the multi-touch screen 203 is displayed on the image output device 202 to move in the same shape as the movement of the object in the exhibition space 201 according to the space augmented reality program.

이하, 본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템을 실제로 구현한 예를 첨부된 도면을 참조하여 설명하기로 한다.
Hereinafter, an example of actually implementing a spatial augmented reality based interactive display system of the present invention will be described with reference to the accompanying drawings.

공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 구현 예 Example of display system

도 11 내지 도 39는 본 발명에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구현 예를 나타낸 캡처 화면으로서, 도 11 내지 도 15는 멀티 터치 스크린을 통해 사용자가 입력한 정보를 시스템 내부의 전시공간에 콘텐츠로 실현한 예를 보인 캡처 화면이고, 도 16 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예를 보인 캡처 화면이다.11 to 39 are capture screens showing an implementation example of a spatial augmented reality-based interactive display system according to the present invention. FIGS. 11 to 15 show contents input by a user through a multi-touch screen in an exhibition space inside the system. 16 to 39 are capture screens showing an example of the implementation of the educational learning content for the exhibition environment of the exhibition space.

먼저, 도 11과 같이 상기 멀티 터치 스크린(203)의 콘텐츠 화면에 "체험하기" 버튼을 누르면 상기 공간 증강 현실 디스플레이(201)에 도 12 및 도 13과 같이 보이게 된다. 이때, 도 12 및 도 13의 모습은 상기 전시공간(201)의 사물 모습과 상기 영상출력장치(202)의 영상 모습이 상기 반투영 거울(207)을 통해 겹쳐서 보이는 모습을 나타낸 것이다.First, as shown in FIG. 11, when the "experience" button is pressed on the content screen of the multi-touch screen 203, the spatial augmented reality display 201 is displayed as shown in FIGS. 12 and 13. 12 and 13 illustrate a state in which an object in the exhibition space 201 and an image in the image output device 202 are overlapped through the semi-projection mirror 207.

이후, 상기 멀티 터치 스크린(203)의 콘텐츠 화면이 도 14와 같이 바뀌게 된다. 도 14 내지 도 22는 사용자가 그린 물고기가 상기 전시공간(201)에 실제 물고기처럼 움직이도록 하는 콘텐츠이다.Thereafter, the content screen of the multi-touch screen 203 is changed as shown in FIG. 14. 14 to 22 are contents that allow a user-drawn fish to move like a real fish in the exhibition space 201.

도 14의 화면에서 하단의 "그려 보아요" 버튼을 누르면 도 15와 같은 그리기 화면이 나타난다. 상기 그리기 화면(도 80)에서 손가락으로 그림을 그릴 색을 선택한 후(도 16) 도 17과 같이 물고기 모양을 그리면 사용자가 선택한 색으로 물고기가 그려진다. 이후, "다 그렸어요" 버튼을 누르면 도 18과 같이 상기 전시공간(201)에 사용자가 그린 물고기가 실제로 살아있는 것과 같이 움직이게 된다. 이때, 사용자가 그린 물고기가 실제 물고기와 같이 움직이는 동작은 앞에서 설명한 바와 같이, 상기 전시공간(201)의 사물 모습을 실시간으로 촬영한 상기 카메라(209)의 영상 신호를 상기 제어 PC(213)에서 영상처리를 통해 움직이는 사물의 위치 정보(좌표)를 추출하여 상기 사용자가 입력한 물고기 모양의 그림에 적용하여 상기 영상출력장치(202)를 통해 출력함으로써 가능하다.Pressing the “draw” button at the bottom of the screen of FIG. 14 brings up a drawing screen as shown in FIG. 15. After selecting a color for drawing with a finger on the drawing screen (FIG. 80) (FIG. 16), when the fish is drawn as shown in FIG. 17, the fish is drawn in the color selected by the user. Subsequently, when the "Draw" button is pressed, the fish drawn by the user in the exhibition space 201 moves as if it is actually alive as shown in FIG. At this time, the movement of the fish drawn by the user moves like an actual fish, as described above, the image signal of the camera 209 which captured the image of the object in the exhibition space 201 in real time to the image on the control PC 213 It is possible to extract the position information (coordinates) of the moving object through the process and apply it to the fish-shaped picture input by the user and output it through the image output device 202.

그 다음, 도 19의 화면은 손가락으로 물고기를 이용시키며 먹이를 주는 콘텐츠로서, 하단의 "넘어가기" 버튼을 누른 후 도 21과 같이 화면에 손가락을 대고 움직이면 도 24 내지 도 22와 같이 상기 물고기 모양의 그림이 손가락의 움직임에 따라 움직이면서 먹이를 먹게 된다. 이때, 먹이는 상기 영상출력장치(202)를 통해 출력되는 콘텐츠의 영상이다.Next, the screen of FIG. 19 is a content of feeding the fish using a finger and feeding the food. When the user moves the finger on the screen as shown in FIG. 'S picture moves as the finger moves and eats. At this time, the food is an image of the content output through the image output device 202.

도 23 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예이다.23 to 39 are exemplary implementations of educational learning content for an exhibition environment of an exhibition space.

상기 멀티 터치 스크린(202)에 나타난 도 23의 화면은 강의 상류, 중류, 하류의 모습을 나타낸 것으로, 도 24와 같이 사용자가 화면에 표시된 상류, 중류, 하류 중 하나(예를 들어, 중류)를 터치하면 터치한 중류에 대한 간단한 설명이 풍선 말을 통해 화면이 표시된 다음, 상기 반투영 거울(207)을 통해 바라본 상기 전시공간(201)에 강의 중류가 나타난다. 물론, 상기 전시공간(201)에 나타난 강의 모습은 앞에서도 설명했듯이, 상기 영상출력장치(202)를 통해 출력된 영상이다.The screen of FIG. 23 shown in the multi-touch screen 202 shows the upstream, midstream, and downstream of the river. As shown in FIG. When touched, a brief description of the touched midstream is displayed on the screen through a balloon, and then the midstream of the river appears in the exhibition space 201 viewed through the semi-projection mirror 207. Of course, the state of the river shown in the exhibition space 201 is an image output through the image output device 202, as described above.

다음으로, 도 26 내지 도 29는 지각과 지진에 대한 교육 학습 콘텐츠로서, 상기 멀티 터치 스크린(202)을 통해 지각의 모습과 생성과정을 순차적으로 보여준다. 도 30 내지 도 39는 사용자가 직접 체험할 수 있는 교육 학습 콘텐츠이다. Next, FIGS. 26 to 29 are education learning contents for perception and earthquake, and show the appearance and generation process of perception sequentially through the multi-touch screen 202. 30 to 39 are educational learning contents that a user can directly experience.

도 30과 같이, 상기 멀티 터치 스크린(202)의 화면에 그림으로 표시된 맨틀을 음성 안내에 따라 터치하면 도 31과 같이 화면이 바뀌면서 맨틀에 대한 구체적인 설명과 그림이 표시된다. 여기서, 하단의 선택 버튼을 누르면 도 32와 같이 맨틀 및 지층 구조가 그림으로 표시된다.As shown in FIG. 30, when the mantle displayed as a picture on the screen of the multi-touch screen 202 is touched according to voice guidance, the screen is changed as shown in FIG. 31 and a detailed description and a figure of the mantle are displayed. Here, when the selection button at the bottom is pressed, the mantle and the strata structure are displayed in a picture as shown in FIG.

음성 안내에 따라 도 32의 화면에서 맨틀을 터치하면 도 33의 화면과 같이 지층 밀어 보기 창이 뜬다. 상기 지층 밀어 보기 창에서 선택 버튼을 누른 후 도 34와 같이 상기 멀티 터치 스크린(202)을 통해 양손으로 지층을 밀게 되면 도 35와 같이 지층이 밀려서 표시된다.When the mantle is touched on the screen of FIG. 32 according to the voice guidance, a stratum pushing view window is displayed as shown in the screen of FIG. 33. After pressing a selection button in the strata push window, the strata are pushed and displayed as shown in FIG. 35 when the strata are pushed with both hands through the multi-touch screen 202 as shown in FIG. 34.

이어서, 지각 내부의 마그마가 지각 밖으로 분출하여 화산이 폭발하도록 도 36과 같이 상기 멀티 터치 스크린(202)을 통해 손(손가락)으로 지층 아래에서 지층 위로 선을 그어서 분출구를 만들면 도 37 내지 도 39의 화면과 같이, 상기 반투영 거울(207)을 통해 바라본 상기 전시공간(201)에 화산이 폭발하는 모습이 연출된다.Subsequently, the magma inside the crust erupts out of the crust so that the volcano erupts, as shown in FIG. As shown in the screen, a volcanic eruption is produced in the exhibition space 201 viewed through the translucent mirror 207.

이와 같이 구성된 본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력함으로서, 본 발명의 기술적 과제를 해결할 수가 있다.The spatial augmented reality-based interactive display system and method of the present invention configured as described above can solve the technical problem of the present invention by outputting a guide post to a fixed object or a flexible object in the exhibition space.

또한, 본 발명의 다른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현함으로써, 본 발명의 기술적 과제를 해결할 수가 있다.
In addition, another spatial augmented reality-based interactive display system and method thereof of the present invention produce a multi-touch screen using a beam projector and an infrared LED, and display environment for spatial augmented reality using a semi-projection mirror and a large image output device By implementing this, the technical problem of the present invention can be solved.

이상에서 설명한 본 발명의 바람직한 실시 예들은 기술적 과제를 해결하기 위해 개시된 것으로, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(당업자)라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가 등이 가능할 것이며, 이러한 수정 변경 등은 이하의 특허청구범위에 속하는 것으로 보아야 할 것이다.
Preferred embodiments of the present invention described above are disclosed to solve the technical problem, and those skilled in the art to which the present invention pertains (man skilled in the art) various modifications, changes, additions, etc. within the spirit and scope of the present invention. It will be possible to, and such modifications, changes, etc. will be considered to be within the scope of the following claims.

본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 다양하고 효율적인 메시지 전달이 가능 한 전시 및 광고 시스템으로 활용이 가능하며, 관련 유관 콘텐츠 시장(미래형 게임 등)으로의 응용력이 높아 다양한 형태의 사업으로 발전이 가능하다.
The spatial augmented reality-based interactive display system and method thereof can be used as an exhibition and advertisement system capable of delivering various and efficient messages, and have high application ability to related related content markets (future games, etc.). Development is possible.

110 : 영상출력장치 120 : 반투영 거울
130 : CCD 카메라 140 : 전시공간
200 : 공간 증강 현실 기반 인터랙티브 디스플레이 시스템
201 : 공간 증강 현실 디스플레이 또는 시스템 내부의 실제 전시공간
202 : 영상출력장치 203 : 멀티 터치 스크린
204 : 적외선 LED 어레이 바(IR-LEDs Array Bar)
205 : 적외선 카메라(Infrared Camera)
206 : 전반사 거울 207 : 반투영 거울
208 : 전반사 거울 209 : 카메라
210 : 백색 LED 조명 211 : 수직이동장치
212 : 빔 프로젝터 213 : 제어 PC
220 : 적외선 LED(IR-LEDs)
110: image output device 120: semi-projection mirror
130: CCD camera 140: exhibition space
200: Spatial Augmented Reality Based Interactive Display System
201: Space augmented reality display or actual exhibition space inside the system
202: video output device 203: multi-touch screen
204 IR-LEDs Array Bar
205: Infrared Camera
206: total reflection mirror 207: semi-projection mirror
208: total reflection mirror 209: camera
210: white LED light 211: vertical moving device
212: beam projector 213: control PC
220: Infrared LEDs

Claims (10)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 있어서,
(a) 전시공간의 피사체 모습을 카메라로 실시간 촬영하는 단계와;
(b) 멀티 터치 스크린을 통해 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 단계와;
(c) 상기 멀티 터치 스크린에 손을 터치했을 때 상기 멀티 터치 스크린의 하부에 적외선으로 형성된 인터랙션 막에서 발산되는 적외선 빛을 적외선 카메라로 영상 입력하는 단계와;
(d) 상기 카메라의 영상 신호를 영상 처리하여 상기 피사체의 위치 정보를 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 출력하는 단계; 및
(e) 상기 전시공간의 모습과 상기 영상출력장치에서 출력되는 영상 정보를 반투영 거울을 통해 겹쳐서 보이도록 하는 단계;
를 포함하되,
상기 (d) 단계에서 피사체의 위치정보는 한 개의 피사체에 대해 백그라운드 모델링(Background Modeling) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하고, 여러 개의 피사체에 대해 캠시프트(CamShift) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하며,
또한 상기 (e)단계에서 영상출력장치에서 출력되는 영상정보는 반투영 거울의 기울기에 의해 왜곡될 정도를 미리 계산한 후 영상의 출력시 변형될 영상을 반대로 보정하는 반사 변환 행렬을 이용하여, 상기 반투영 거울의 기울기에 따라 알맞은 값으로 보정하여 출력하는 것을 특징으로 하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법.
In the spatial augmented reality based interactive display method,
(a) real-time photographing of the subject of the exhibition space with a camera;
(b) receiving a signal for content progress from a user through a multi-touch screen;
(c) image inputting infrared light emitted from an interaction film formed in the infrared under the multi-touch screen when the hand touches the multi-touch screen with an infrared camera;
(d) image processing the image signal of the camera to calculate position information of the subject, receiving an image from the infrared camera, calculating a user's touch point, and moving information of the subject through the multi-touch screen; Outputting the image output apparatus to move in a shape such as or outputting a content of a corresponding touch point through the image output apparatus; And
(e) superimposing the appearance of the exhibition space and the image information output from the image output apparatus through a semi-projection mirror;
Including,
In the step (d), the position information of the subject is calculated by calculating the position coordinates of the subject through a background modeling tracking algorithm for one subject and by using a CamShift tracking algorithm on the plurality of subjects. Calculate position coordinates,
In addition, in the step (e), the image information output from the image output apparatus is calculated by using a reflection transformation matrix that calculates a degree of distortion by the tilt of the semi-projection mirror in advance and then reversely corrects the image to be deformed when the image is output. A spatial augmented reality based interactive display method, characterized in that for correcting the output according to the tilt of the translucent mirror.
삭제delete 삭제delete
KR1020100026969A 2010-03-25 2010-03-25 Method for display spatial augmented reality-based interactive KR101080040B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100026969A KR101080040B1 (en) 2010-03-25 2010-03-25 Method for display spatial augmented reality-based interactive

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100026969A KR101080040B1 (en) 2010-03-25 2010-03-25 Method for display spatial augmented reality-based interactive

Publications (2)

Publication Number Publication Date
KR20110107691A KR20110107691A (en) 2011-10-04
KR101080040B1 true KR101080040B1 (en) 2011-11-04

Family

ID=45025767

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100026969A KR101080040B1 (en) 2010-03-25 2010-03-25 Method for display spatial augmented reality-based interactive

Country Status (1)

Country Link
KR (1) KR101080040B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210030241A1 (en) * 2019-07-31 2021-02-04 Lg Electronics Inc. Ai robot cleaner and robot system having the same
KR20230158701A (en) 2022-05-12 2023-11-21 정혜주 Interactive exhibition system and method for processing thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013790B1 (en) * 2013-01-18 2019-08-26 한국전자통신연구원 Apparatus for control an interactive content based on l style multiple display and method for performing the same
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9514571B2 (en) * 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
KR20170008896A (en) * 2015-06-19 2017-01-25 (주)블루클라우드 An apparatus for providing augmented virtual exercising space in an exercising system based on augmented virtual interactive contents and the method thereof
CN108958618A (en) * 2017-05-25 2018-12-07 异象科技(北京)有限公司 AR computer-projector interacts touch one-piece machine
KR102074072B1 (en) * 2018-06-01 2020-02-05 한국과학기술원 A focus-context display techinique and apparatus using a mobile device with a dual camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100276433B1 (en) 1998-10-10 2001-02-01 정선종 Sightseeing Telescope System Using Augmented Reality and Its Operation Method
JP2001344617A (en) 2000-03-31 2001-12-14 Hitachi Zosen Corp Composite reality realizing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100276433B1 (en) 1998-10-10 2001-02-01 정선종 Sightseeing Telescope System Using Augmented Reality and Its Operation Method
JP2001344617A (en) 2000-03-31 2001-12-14 Hitachi Zosen Corp Composite reality realizing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210030241A1 (en) * 2019-07-31 2021-02-04 Lg Electronics Inc. Ai robot cleaner and robot system having the same
KR20230158701A (en) 2022-05-12 2023-11-21 정혜주 Interactive exhibition system and method for processing thereof

Also Published As

Publication number Publication date
KR20110107691A (en) 2011-10-04

Similar Documents

Publication Publication Date Title
KR101080040B1 (en) Method for display spatial augmented reality-based interactive
US11068225B2 (en) Forming a larger display using multiple smaller displays
US8988343B2 (en) Method of automatically forming one three-dimensional space with multiple screens
US8890812B2 (en) Graphical user interface adjusting to a change of user's disposition
US7796134B2 (en) Multi-plane horizontal perspective display
US20110084983A1 (en) Systems and Methods for Interaction With a Virtual Environment
KR101096617B1 (en) Spatial multi interaction-based 3d stereo interactive vision system and method of the same
JP7073481B2 (en) Image display system
CN107168534B (en) Rendering optimization method and projection method based on CAVE system
US20170161943A1 (en) Apparatus for generating a display medium, a method of displaying a visible image and a display apparatus
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
CN208506731U (en) Image display systems
KR20090071851A (en) Development of annotaion system based on spatial augmented reality
CN110870304B (en) Method and apparatus for providing information to a user for viewing multi-view content
KR20120060548A (en) System for 3D based marker
CN110554556B (en) Method and system for spatial holographic interactive control of multiple screens
CN108205823A (en) MR holographies vacuum experiences shop and experiential method
JP2022515608A (en) Systems and / or methods for parallax correction in large area transparent touch interfaces
Teubl et al. Spheree: An interactive perspective-corrected spherical 3d display
KR101276558B1 (en) A DID stereo image control equipment
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
Hirsch et al. 8d: interacting with a relightable glasses-free 3d display
JP4436101B2 (en) robot
WO2023277020A1 (en) Image display system and image display method
Miyata et al. An application of projection imaging systems for museum exhibitions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140627

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150623

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 9