KR101080040B1 - Method for display spatial augmented reality-based interactive - Google Patents
Method for display spatial augmented reality-based interactive Download PDFInfo
- Publication number
- KR101080040B1 KR101080040B1 KR1020100026969A KR20100026969A KR101080040B1 KR 101080040 B1 KR101080040 B1 KR 101080040B1 KR 1020100026969 A KR1020100026969 A KR 1020100026969A KR 20100026969 A KR20100026969 A KR 20100026969A KR 101080040 B1 KR101080040 B1 KR 101080040B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- subject
- touch screen
- augmented reality
- exhibition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법에 관한 것으로, 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력하여 관찰자가 전시물을 관람하는 것만으로 해당 전시물의 정보를 획득할 수 있고 한 공간상에 존재하는 다량의 피사체에 대해서 안내할 수 있다. 또한, 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현함으로써, 몰입감과 현실감을 높일 수 있다.
본 발명에 따른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은, 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 멀티 터치 스크린과; 정지 또는 움직이는 피사체를 전시하는 전시공간과; 상기 전시공간의 피사체의 모습을 실시간 촬영하는 카메라와; 상기 멀티 터치 스크린을 통해 입력된 정보에 의해 만들어진 공간 증강을 위한 영상을 출력하는 영상출력장치와; 상기 전시공간의 모습과 상기 영상출력장치의 출력 영상이 겹쳐서 보이도록 하는 반투영 거울과; 상기 멀티 터치 스크린으로 콘텐츠 진행 화면을 출력하는 빔 프로젝터와; 상기 멀티 터치 스크린의 하부에 적외선 빛을 출력하여 인터랙션 막을 형성하는 적외선 LED 어레이 바와; 상기 멀티 터치 스크린에 손을 터치했을 때 상기 인터랙션 막에서 발산되는 적외선 빛을 영상 입력하는 적외선 카메라; 및 상기 카메라로부터 영상을 입력받아 상기 피사체의 위치 정보를 실시간으로 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 실행하는 제어 PC;를 포함하여 구성한다.The present invention relates to a spatial augmented reality-based interactive display system and a method thereof, by outputting a guide post to a fixed object or a fluid object fixed on the exhibition space, an observer can obtain information on the exhibition object only by viewing the exhibition object. And guide a large number of subjects in a space. In addition, a multi-touch screen is manufactured using a beam projector and an infrared LED, and a display environment for augmented reality is realized using a semi-projection mirror and a large image output device, thereby increasing immersion and realism.
According to an aspect of the present invention, there is provided a spatial augmented reality-based interactive display system comprising: a multi-touch screen configured to receive a signal for content progression from a user; An exhibition space for displaying a still or moving subject; A camera for real-time photographing a state of the subject in the exhibition space; An image output device for outputting an image for spatial enhancement made by information input through the multi-touch screen; A semi-projection mirror for overlapping the appearance of the exhibition space and the output image of the image output device; A beam projector for outputting a content progress screen to the multi-touch screen; An infrared LED array bar outputting infrared light under the multi-touch screen to form an interaction film; An infrared camera configured to input an infrared light emitted from the interaction layer when the hand touches the multi-touch screen; And receiving the image from the camera to calculate the location information of the subject in real time, and receiving the image from the infrared camera to calculate the user's touch point, such that the information input through the multi-touch screen is the same as the movement of the subject. And a control PC outputting through the image output apparatus or executing contents of a corresponding touch point through the image output apparatus to move in a shape.
Description
본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것으로, 보다 상세하게는 관찰자가 전시되어 있는 사물을 보는 것만으로도 해당 사물에 대한 정보를 쉽게 획득할 수 있도록, 각각의 사물에 대한 정보를 전시되어 있는 사물의 측면에 출력해 주는 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것이다.The present invention relates to a spatial augmented reality-based interactive display method, and more particularly, information about each object is displayed so that an observer can easily obtain information about the object only by viewing the displayed object. The present invention relates to a spatial augmented reality based interactive display method that outputs to a side of an object.
또한, 본 발명은 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현한 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 관한 것이다.
In addition, the present invention relates to a spatial augmented reality-based interactive display method for producing a multi-touch screen using a beam projector and an infrared LED, realizing a display environment for spatial augmented reality using a semi-projection mirror and a large image output device will be.
일반적으로, 박물관이나 전시장 내의 전시물에 관한 정보는 전시장 벽면에 부착된 패널 상에 그림이나 문자 형태로 간단하게 설명되어 있어 전시물에 관해 깊이 있는 지식이나 정보를 얻는데 한계가 있다. 기존의 전시 시스템들은 개별적인 전시보다 유사 물품들에 대한 전반적인 구성과 각각의 안내가 필요할 경우가 일반적인데, 관람자가 전시물품에 대한 정보를 취득하기 위하여 각각의 전시물을 관찰하고 전시공간과 별도로 마련되어 있는 게시물에서 해당 정보를 찾아보기란 적지 않은 시간이 소요되며 쉽지 않은 일이다. 특히, 단체 관람 시 관찰자 각자가 원하는 정보를 획득하지 못하고 이동해야 하는 경우도 많이 볼 수 있다. In general, information about exhibits in a museum or exhibition hall is briefly explained in the form of pictures or letters on a panel attached to the wall of the exhibition hall, and thus there is a limit to obtaining in-depth knowledge or information about the exhibit. Existing exhibition systems generally require the general composition and guidance of similar items rather than individual exhibitions. Posts are provided separately from the exhibition space where viewers observe each exhibition to obtain information about the exhibits. Browsing this information can be time-consuming and difficult. In particular, many observers may need to move without obtaining the information they want.
이러한 기존의 한계점들을 해결하고자 음성 안내 시스템이 구축되어 있지만 전시관 내부 여러 곳에서 동시에 음성 안내 시스템을 작동할 경우 관찰자는 본인에게 필요한 음성 안내를 듣기가 힘들며 원하는 정보를 지나쳤을 경우 많은 시간을 들여서 다시 음성 안내를 들어야 한다는 문제가 발생한다. 또한, 어린이들이 패널에 적힌 내용을 노트에 필기하느라 전시 부스 앞에 모여 있어 다른 관람객에게 방해가 되는 경우도 있으며, 전시물의 명칭만 영어로 표시되어 있어 전문가가 아닌 일반 외국인의 경우 전시물이 어떤 것인지 상세한 내용을 알 수 없는 문제가 발생한다.Although the voice guidance system is established to solve these existing limitations, when the voice guidance system is operated simultaneously in various places inside the exhibition hall, it is difficult for the observer to listen to the voice guidance required by the viewer, and if a user passes the desired information, the user spends a lot of time again. There is a problem of being guided. In addition, children may gather in front of the exhibition booths while taking notes on the panel, which may disturb other visitors.The names of the exhibits are displayed in English only. An unknown problem occurs.
이러한 문제점을 해결하기 위하여 국내 공개특허 제2005-0071114호(무선 단말기를 이용한 유물 안내 서비스시스템 및 그 방법)와, 국내 공개특허 제2002-0059150호(전시물 상세정보 안내 서비스 방법)와, 국내 공개특허 제2003-0055236호(전시물 현장 안내 서비스 제공 방법 및 시스템)와, 국내 공개특허 제2003-0057053호(이동통신을 이용한 관광 및 전시물 관람 정보제공 서비스 방법)에에는 전시물 또는 전시물의 주변에 태그 장치를 설치하고, 관람객 단말기(PDA, 핸드폰 등)를 이용하여 전시물에 근접하면 태그 장치를 통해 전시물의 안내를 제공하는 시스템에 대해 개시되어 있다. In order to solve this problem, Korean Patent Publication No. 2005-0071114 (Article guidance service system and method using a wireless terminal), Korean Patent Publication No. 2002-0059150 (Exhibit information guide service method), and domestic published patent No. 2003-0055236 (Method and system for providing exhibition site information service) and Korean Patent Publication No. 2003-0057053 (Method for providing tour and exhibition viewing information using mobile communication) tag apparatus around the exhibit or exhibit The present invention discloses a system for providing a guide of an exhibition through a tag device when installed and approaching the exhibition using a visitor terminal (PDA, mobile phone, etc.).
그러나, 이러한 종래 기술은 이동통신 단말기를 이용하여 전시물의 정보를 제공함으로써 막대한 초기 비용이 소요될 뿐만 아니라 단순한 정보만을 제공하였다. 이에 따라, 종래에는 관람자의 몰입을 극대화하기 위해 가상현실 기술을 접목한 전시 환경 시스템이 개발되었다. 하지만, 이 경우에도 거대한 설치 공간과 막대한 비용 초래로 특수한 형태의 일부 전시물에 대한 표현이라는 한계를 지니고 있다. 특히 HMD(Head Mount Display) 등과 같은 고가의 장비가 부가적으로 필요할 뿐만 아니라 소수의 관람자를 대상으로 하고 있기 때문에 몰입의 극대화에는 한계를 지니고 있다. However, this conventional technology not only entails huge initial costs by providing information on exhibitions using a mobile communication terminal but also provides only simple information. Accordingly, conventionally, an exhibition environment system incorporating virtual reality technology has been developed to maximize the immersion of viewers. However, even in this case, there is a limit to the representation of some special types of exhibits due to the huge installation space and enormous cost. In particular, expensive equipment such as HMD (Head Mount Display) is not only additionally necessary, but also has a limited number of viewers because it is limited in maximization of immersion.
또한, 종래의 전시 시스템은 전시물에 대한 안내를 위한 방법으로 전시공간과 별도로 마련되어 있는 사진과 글로 이루어진 안내판을 설치하여 단순한 고정된 물체에 대해서만 정보를 제공하고, 호기심을 가지고 관련 정보를 얻으려해도 짧은 시간에 원하는 정보를 획득하기에 많은 한계가 발생하였다.In addition, the conventional exhibition system provides information about only a simple fixed object by providing a guide plate composed of photographs and texts provided separately from the exhibition space as a method for guiding the exhibits, Many limitations have arisen in obtaining the desired information in time.
최근에는 별도의 도구 없이 사용자의 손으로 자연스럽게 상호작용을 할 수 있는 멀티 터치 스크린에 대한 연구가 활발하다. 그리고 디스플레이를 위한 방법으로 기존의 2D 영상보다 더 현실감 있는 3D 영상이 주를 이루고 있으나, 최근에는 3D 영상보다 더 실제와 유사한 영상을 제공하기 위하여 공간 증강 현실을 이용한 디스플레이에 대한 연구가 활발하다.
Recently, researches on multi-touch screens that can naturally interact with a user's hand without any tools have been actively conducted. As a method for displaying a 3D image, which is more realistic than a conventional 2D image, the research on display using spatial augmented reality has been actively conducted in order to provide a more realistic image than a 3D image.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력하는 형태로 구성하여 관찰자가 전시물을 관람하는 것만으로 해당 전시물의 정보를 획득할 수 있고 한 공간상에 존재하는 다량의 피사체에 대해서 안내하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.The technical problem to be solved by the present invention to solve the above-mentioned problem is to configure the form of outputting a guide post to a fixed object or a fluid object fixed on the exhibition space to observe the information of the exhibition object by simply viewing the exhibit. A spatial augmented reality-based interactive display method for acquiring and guiding a large number of subjects existing in a space is provided.
또한, 본 발명이 이루고자 하는 다른 기술적 과제는 단순히 전시물에 대한 안내를 하는 것에 그치지 않고, 관람객의 흥미를 유발시키며 그와 더불어서 사용자가 직접 참여하여 시스템과 상호작용을 통한 진행으로 학습할 수 있는 형태의 교육용 플랫폼을 제공하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, the other technical problem to be achieved by the present invention is not only to guide the exhibition, but also to induce the interest of the audience, and in addition, the user can directly participate in the form of learning through the interaction with the system The present invention proposes an interactive display method based on spatial augmented reality that provides an educational platform.
또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현한 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is to produce a multi-touch screen using a beam projector and an infrared LED, and to enhance the space to realize a display environment for space augmented reality using a semi-projection mirror and a large image output device The present invention proposes a reality-based interactive display method.
또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 실제 영상을 기반으로 최소한의 가상영상을 증강시켜서 보여줌으로써 몰입감과 현실감을 높인 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is to propose a spatial augmented reality-based interactive display method to enhance the immersion and realism by showing a minimum of the virtual image based on the actual image.
또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 사용자가 입력한 정보를 공간 증강 현실기반으로 조성된 실제 영상으로 확인 가능하게 함으로써 몰입감과 현실감을 높인 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 제시하는 데 있다.
In addition, another technical problem to be achieved by the present invention is to present a spatial augmented reality-based interactive display method to increase the immersion and realism by enabling the user input information to be confirmed as a real image formed on the basis of spatial augmented reality.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The problem of the present invention is not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 기술적 과제를 해결하기 위한 방안으로 본 발명은 공간 증강 현실 기반 인터랙티브 디스플레이 방법에 있어서,
(a) 전시공간의 피사체 모습을 카메라로 실시간 촬영하는 단계와;
(b) 멀티 터치 스크린을 통해 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 단계와;
(c) 상기 멀티 터치 스크린에 손을 터치했을 때 상기 멀티 터치 스크린의 하부에 적외선으로 형성된 인터랙션 막에서 발산되는 적외선 빛을 적외선 카메라로 영상 입력하는 단계와;
(d) 상기 카메라의 영상 신호를 영상 처리하여 상기 피사체의 위치 정보를 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 출력하는 단계; 및
(e) 상기 전시공간의 모습과 상기 영상출력장치에서 출력되는 영상 정보를 반투영 거울을 통해 겹쳐서 보이도록 하는 단계;
를 포함하되,
상기 (d) 단계에서 피사체의 위치정보는 한 개의 피사체에 대해 백그라운드 모델링(Background Modeling) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하고, 여러 개의 피사체에 대해 캠시프트(CamShift) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하며,
또한 상기 (e)단계에서 영상출력장치에서 출력되는 영상정보는 반투영 거울의 기울기에 의해 왜곡될 정도를 미리 계산한 후 영상의 출력시 변형될 영상을 반대로 보정하는 반사 변환 행렬을 이용하여, 상기 반투영 거울의 기울기에 따라 알맞은 값으로 보정하여 출력하는 것을 특징으로 하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법을 과제 해결 수단으로 한다.
In order to solve the above technical problem, the present invention provides a spatial augmented reality based interactive display method,
(a) real-time photographing of the subject of the exhibition space with a camera;
(b) receiving a signal for content progress from a user through a multi-touch screen;
(c) image inputting infrared light emitted from an interaction film formed in the infrared under the multi-touch screen when the hand touches the multi-touch screen with an infrared camera;
(d) image processing the image signal of the camera to calculate position information of the subject, receiving an image from the infrared camera, calculating a user's touch point, and moving information of the subject through the multi-touch screen; Outputting the image output apparatus to move in a shape such as or outputting a content of a corresponding touch point through the image output apparatus; And
(e) superimposing the appearance of the exhibition space and the image information output from the image output apparatus through a semi-projection mirror;
Including,
In the step (d), the position information of the subject is calculated by calculating the position coordinates of the subject through a background modeling tracking algorithm for one subject and by using a CamShift tracking algorithm on the plurality of subjects. Calculate position coordinates,
In addition, in the step (e), the image information output from the image output apparatus is calculated by using a reflection transformation matrix that calculates a degree of distortion by the tilt of the semi-projection mirror in advance and then reversely corrects the image to be deformed when the image is output. A problem-solving method is a spatial augmented reality-based interactive display method characterized by correcting and outputting an appropriate value according to a tilt of a semi-projection mirror.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
본 발명에 따르면, 종래의 전시관 안내 시스템에 차세대 디스플레이 기술을 접목시켜 고정된 사물에만 적용하던 공간 증강 현실 기술을 동적인 사물에 적용함으로써 다양한 3차원 콘텐츠 제작에 효율적으로 사용할 수 있다. 이는 단순 관람형태의 수족관에서 빠르고 정확한 정보를 얻을 수 있는 교육적인 면에서도 효과적이다.According to the present invention, by applying the next-generation display technology to the conventional exhibition hall guide system, the space augmented reality technology applied only to a fixed object can be efficiently used for producing various 3D contents. This is also effective in terms of education in which quick and accurate information can be obtained from simple viewing aquariums.
또한, 공간 증강 현실기반 입체 영상 디스플레이 시스템의 국산화로 고비용의 수입을 대체하여 시장원가를 절감하고 해외 수출 및 해외 시장 선점에 기여할 수 있다. In addition, localization of a space-augmented reality-based stereoscopic image display system can replace high-cost imports, thereby reducing market costs and contributing to overseas exports and preoccupation of overseas markets.
또한, 본 발명을 이용하여 다양하고 효율적인 메시지 전달이 가능 한 전시 및 광고 시스템으로 활용이 가능하며, 관련 유관 콘텐츠 시장(미래형 게임 등)으로의 응용력이 높아 다양한 형태의 사업으로 발전이 가능하다. In addition, the present invention can be utilized as an exhibition and advertisement system capable of delivering various and efficient messages, and has high applicability to related related content markets (future games, etc.), thereby enabling the development of various types of projects.
또한, 실제 영상을 기반으로 최소한의 가상영상을 증강시켜서 보여줌으로써, 가상 현실 환경에 비하여 저비용으로 구성이 가능하며, 몰입감과 현실감을 높여 학습에 대한 효율을 높일 수 있다.In addition, by augmenting and displaying the minimum virtual image based on the actual image, the composition can be configured at a lower cost than the virtual reality environment, and the efficiency of learning can be improved by increasing the immersion and the realism.
또한, 콘텐츠의 주 캐릭터를 사용자의 입력을 통해서 생성함으로써 흥미와 관심을 유발시킬 수 있다.In addition, by generating the main character of the content through the user's input it can cause interest and interest.
또한, 음성 안내 시스템과 같이 다른 전시물을 관람중인 타인에게 피해를 주지 않으며, 단체 관람 시 모든 관찰자가 자신이 원하는 정보를 획득하는데 불편함이 없다.In addition, there is no damage to others viewing other exhibits, such as a voice guidance system, and there is no inconvenience for all observers to obtain information they want when viewing a group.
또한, 전시되는 콘텐츠에 대한 관심과 호기심을 유도하고 해당 정보를 간편하게 얻을 수 있으며, 공간 증강현실 기술을 활용하여 부가적인 장비 없이 비교적 좁은 공간에서도 시연 가능하다.
In addition, it is possible to induce interest and curiosity about the displayed contents and to easily obtain the corresponding information, and it is possible to demonstrate in a relatively small space without additional equipment by using the space augmented reality technology.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 바람직한 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도
도 2는 본 발명의 시스템 동작 원리를 나타낸 내부 순서도
도 3은 배경과 피사체를 분리하여 피사체의 위치 좌표를 알아내는 과정을 나타낸 도면
도 4는 캠시프트(CamShift) 알고리즘을 통한 각기 다른 두 피사체의 위치를 검출하는 모습을 나타낸 도면
도 5는 왜곡된 입력 영상 때문에 발생한 오류를 나타낸 도면
도 6은 보정된 영상을 기반으로 깊이 정보를 계산하는 방법을 나타낸 도면
도 7은 왜곡 보정이 적용된 카메라 입력 영상을 나타낸 사진
도 8은 피사체의 위치로 이동을 하던 중에 피사체의 위치에 변화가 생기면 계산되어진 좌표값을 향하여 피사체의 위치까지 유연한 움직임으로 추적하는 방법을 설명하기 위한 도면
도 9는 본 발명의 바람직한 다른 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도
도 10은 적외선 LED 어레이 바(IR-LEDs Array Bar)의 제품 사진
도 11 내지 도 39는 본 발명에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구현 예를 나타낸 캡처 화면으로서,
도 11 내지 도 15는 멀티 터치 스크린을 통해 사용자가 입력한 정보를 시스템 내부의 전시공간에 콘텐츠로 실현한 예를 보인 캡처 화면이고,
도 16 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예를 보인 캡처 화면이다.1 is a block diagram of a spatial augmented reality based interactive display system according to an embodiment of the present invention
2 is an internal flow chart illustrating the system operation principle of the present invention.
3 is a diagram illustrating a process of determining a location coordinate of a subject by separating a background and a subject;
4 is a diagram illustrating a state of detecting two different subjects through a CamShift algorithm.
5 is a diagram illustrating an error caused by a distorted input image.
6 is a diagram illustrating a method of calculating depth information based on a corrected image.
7 is a photograph showing a camera input image to which distortion correction is applied
FIG. 8 is a view for explaining a method of tracking a flexible movement to a position of a subject toward a calculated coordinate value when a change in the position of the subject occurs while moving to a position of the subject
9 is a block diagram of a spatial augmented reality based interactive display system according to another embodiment of the present invention
10 is a product photograph of an IR-LEDs Array Bar.
11 to 39 are capture screens showing an implementation example of the spatial augmented reality based interactive display system according to the present invention.
11 to 15 are capture screens showing an example of realizing the information input by the user through the multi-touch screen as content in the exhibition space inside the system,
16 to 39 are capture screens showing an example of the implementation of the educational learning content for the exhibition environment of the exhibition space.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명되는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and similar parts are denoted by similar reference numerals throughout the specification.
이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 실시 예 Embodiment of the display system
도 1은 본 발명의 바람직한 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도이고, 도 2는 본 발명의 시스템 동작 원리를 나타낸 내부 순서도이다.1 is a block diagram of a spatial augmented reality based interactive display system according to a preferred embodiment of the present invention, Figure 2 is an internal flow chart showing the operating principle of the system of the present invention.
도 1 및 도 2를 참고하면, 본 발명에 따른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은, 영상출력장치(110), 반투영 거울(120), CCD 카메라(130), 실제 전시공간(140)으로 구성된다. 1 and 2, the spatial augmented reality-based interactive display system according to the present invention includes an
먼저, 상기 영상출력장치(110)는 LCD 디스플레이 장치로 구성되며, 도 2의 알고리즘에 의해 계산되어 진 영상을 최종으로 출력하게 된다. 그 다음, 기울어진 상태로 설치되어 있는 상기 반투영 거울(120)은 상기 영상출력장치(110)에서 출력된 영상이 투영되는 면으로써, 거울의 특성상 반사되어 진 영상과 함께 거울 뒷면의 실제 공간의 모습을 관람자가 동시에 볼 수 있도록 한다. 그리고, 시스템의 천장에 설치되어 있는 상기 카메라(130)는 실제 전시공간(140)의 모습을 실시간으로 촬영을 하여 움직이는 물체의 위치 정보를 계산하기 위한 영상을 제공한다. 마지막으로, 상기 반투영 거울(120)의 뒤쪽에 설치된 상기 실제 전시공간(140)은 움직이는 피사체를 위한 공간으로 할당하여 전시를 위한 유동 피사체를 배치한다.First, the
본 발명은 거울 뒷면의 실제 전시공간(140)상에 유동 피사체를 전시할 공간과 유동 피사체를 전시하고, 전시공간(140)의 윗면과 앞면을 천장에 설치되어 있는 카메라(120)로 실시간 영상을 입력받으며, 내부의 계산에 의해 생성된 영상을 상기 영상출력장치(110)로 출력하여, 상기 반투영 거울(120)에 투영함으로써 전시물을 안내하게 된다. The present invention displays a space to display the moving subject and the moving subject on the
본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은 도 2에 도시된 바와 같이, 내부적인 계산을 통해 상기 영상출력장치(110)에 영상을 출력하게 된다. 이하, 이해를 돕기 위해 상기 전시공간(140)은 수족관을 예로 들어 설명하기로 한다.As shown in FIG. 2, the spatial augmented reality-based interactive display system of the present invention outputs an image to the
먼저, 상기 카메라(130)를 통해 입력받은 영상에서 상기 수족관(140)의 앞면 영역을 기반으로, 실시간으로 피사체의 위치 좌표를 계산한다(단계 S100∼S110). 이와 동시에, 입력받은 영상의 수족관(140) 윗면에 해당하는 수면의 영역만을 기반으로 피사체의 깊이 정보를 계산한다(단계 S120).First, the position coordinates of the subject are calculated in real time based on the front region of the
여기서, 실시간 피사체의 위치 좌표를 계산하는 방법은 다음과 같다.Here, the method of calculating the position coordinates of the real-time subject is as follows.
본 시스템에서는 한 개의 피사체에 대해서는 백그라운드 모델링(Background Modeling)이라는 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하였으며, 여러 개의 피사체에 대해서는 캠시프트(CamShift)라는 트래킹 알고리즘을 통해 위치를 계산하였다. 아래는 알고리즘의 내용이다.In this system, the position coordinates of a subject are calculated using a tracking algorithm called Background Modeling for one subject, and the position is calculated through a tracking algorithm called CamShift for several subjects. Below is the contents of the algorithm.
상기 CCD 카메라(130)로 입력되는 영상에서 배경을 분리하고 피사체의 위치좌표를 계산하기 위해 배경과 피사체 각각의 컬러 모델에 대한 학습을 해야 한다. 우선 RGB 컬러 모델에서 학습할 배경영상에 대해서 평균영상과 표준편차영상을 구한다. 본 과정에서 컬러의 채널 특성을 이용하기 때문에 영상의 R, G, B 컬러를 각각 분할한다.In order to separate the background from the image input to the
하지만, 단순히 RGB 컬러 모델을 기반으로 평균영상과 표준편차 영상을 사용할 경우, 피사체에 의하여 발생하는 그림자로 인하여 피사체 영상 위치 계산에 오차가 발생한다. 이러한 문제를 해결하기 위하여 RGB 컬러 모델을 정규화하여 평균영상과 표준편차 영상을 아래의 수학식 1과 같은 방법으로 구한다.However, when the average image and the standard deviation image are simply used based on the RGB color model, an error occurs in calculating the subject image position due to the shadow generated by the subject. To solve this problem, the RGB color model is normalized to obtain an average image and a standard deviation image as shown in
상기 수학식 1에서 는 각각의 컬러 채널이며, 는 정규화 된 각각의 컬러 채널이다. 상기 수학식 1에서 를 나타낸다. 정규화된 rgb 컬러 모델에서는 밝기 성분이 제거되기 때문에 밝기에 대한 컬러 구분이 없다. 그 결과 입력되는 피사체의 영상으로부터 그림자 영역을 제거할 수 있다.In Equation (1) Are the respective color channels, Is each color channel normalized. In Equation (1) Indicates. In the normalized rgb color model, there is no color distinction for brightness because the brightness component is removed. As a result, the shadow area may be removed from the input image of the subject.
상기 수학식 2와 같은 방법으로 정규화된 rgb 컬러 모델의 평균영상과 표준편차 영상을 구한다. 는 학습 될 배경 영상, 은 학습할 전체 프레임 수를 나타낸다. 는 각 채널에 대한 평균 영상, 는 각 채널에 대한 표준편차 영상이다. 상기 수학식 3에서 는 정규화 된 각 채널에 대한 평균영상, 는 정규화 된 각 채널에 대한 표준편차 영상이다.The average image and the standard deviation image of the normalized rgb color model are obtained in the same manner as in
배경 학습을 통해서 배경의 평균영상과 표준편차 영상이 구해지면, 실시간으로 입력되는 영상과 비교한다. 계산되어 진 영상과 실시간으로 입력되는 영상에서 각각의 픽셀 차를 계산하여 기존 영상의 픽셀과 다른 값을 가진 픽셀들을 검출한다. 이때 검출된 픽셀들을 블랍(Blob)으로 지정하며, 크기 비교를 통하여 가장 큰 범위의 블랍(Blob)을 피사체로 지정하며, 나머지 블랍(Blob)들은 노이즈로 인한 오류 값으로 간주하여 제거한다. 최종적으로 피사체의 블랍을 구성하는 픽셀들의 평균값을 계산하여 피사체의 중심 좌표를 얻게 된다.When the background average image and the standard deviation image are obtained through the background learning, the image is compared with the input image in real time. Each pixel difference is calculated from the calculated image and the input image in real time to detect pixels having different values from those of the existing image. At this time, the detected pixels are designated as blobs, and the largest range of blobs is designated as a subject through size comparison, and the remaining blobs are regarded as an error value due to noise and removed. Finally, the average coordinates of the pixels constituting the blob of the subject are calculated to obtain the center coordinates of the subject.
도 3은 배경과 피사체를 분리하여 피사체의 위치 좌표를 알아내는 과정을 나타낸 도면으로, (a)는 배경의 평균영상 검출, (b)는 피사체(물고기) 삽입, (c)는 배경과 피사체 분리, (d)는 피사체의 중심점 획득을 각각 나타낸다.3 is a diagram illustrating a process of determining a position coordinate of a subject by separating a background and a subject, (a) detecting an average image of a background, (b) inserting a subject (fish), and (c) separating a background and a subject and (d) indicate acquisition of the center point of the subject, respectively.
하지만, 이러한 배경 모델링 기법을 사용할 경우, 배경 영상의 변화를 계산하여 사용하기 때문에 목표 피사체가 한 개일 경우 배경 영상과 피사체를 분리하는데 지장 없지만 구분해야 하는 피사체가 두 개 이상일 경우 두 피사체가 조금이라도 겹쳐졌다가 분리 되는 경우, 계산된 위치 좌표와 해당 피사체가 일치 하지 않을 수 있는 문제가 발생한다.However, when using this background modeling technique, the change in the background image is calculated and used, so it is not difficult to separate the background image and the subject when there is one target subject, but when two or more subjects need to be separated, the two subjects overlap even a little. If it is removed and separated, a problem may occur in which the calculated position coordinates and the subject do not coincide.
앞에서 언급한 바와 같이 배경 모델링 기법을 사용할 경우 발생하는 문제점을 보완하기 위해서 캠시프트(CamShift) 기반 트래킹 기법을 사용한다.As mentioned above, CamShift-based tracking technique is used to compensate for the problem that occurs when using the background modeling technique.
도 4는 캠시프트(CamShift) 알고리즘을 통한 각기 다른 두 피사체의 위치를 검출하는 모습을 나타낸 도면이다.FIG. 4 is a diagram illustrating a state of detecting two different subjects through a CamShift algorithm.
컬러 모델이 여러 다른 조명 환경 상황에 적절히 조절된다면 컬러 정보는 특징 부분을 확인하기 위한 효율적인 도구가 될 것이다. 이러한 컬러 정보를 이용하는 알고리즘인 민시프트(MeanShift)와 캠시프트(CamShift) 알고리즘은 상대적으로 적은 계산으로 실시간 트래킹을 할 수 있다. 하지만 민시프트(MeanShift) 알고리즘의 경우, 피사체와 카메라의 거리 변화에 따른 피사체 크기변화를 새로 업데이트 하지 못하여 피사체의 중심을 찾을 수 없는 문제가 있다. 그러한 민시프트(MeanShift)의 단점을 보완한 캠시프트(CamShift)는 불규칙한 피사체의 움직임을 트래킹 할 수 있으며, 다른 물체가 현재 트래킹하는 피사체에 100% 겹치지 않는 한 트래킹 하던 피사체의 위치 좌표를 획득할 수 있다.If the color model is properly adapted to different lighting conditions, color information will be an efficient tool for identifying features. MeanShift and CamShift algorithms, which use these color information, can perform real-time tracking with relatively few calculations. However, in the case of the MeanShift algorithm, there is a problem in that the center of the subject cannot be found because the subject size change according to the change of the distance between the subject and the camera cannot be newly updated. CamShift, which compensates for the shortcomings of MeanShift, can track irregular subject movement, and acquire the position coordinates of the subject that was being tracked unless another object overlaps 100% with the subject currently being tracked. have.
다음으로, 수면의 영역을 기반으로 피사체의 깊이 정보를 계산하기 위해서 본 발명에서는 전시되어 있는 사물의 윗면에서 모서리 4곳의 꼭지점을 지정하여 앞면과 뒷면의 경계선을 할당하고 해당 구간을 일정한 간격으로 나누어 앞면에서 뒷면으로 깊이 정보 값을 적용한다.Next, in order to calculate the depth information of the subject based on the area of the surface, the present invention assigns four vertices of the corners from the top of the object to be displayed, allocates the front and back borders, and divides the corresponding sections at regular intervals. Apply the depth information value from front to back.
하지만, 도 5의 (a) 형태로 입력되는 영상은 도 5의 (b)와 같이 카메라가 피사체를 바라보는 각도에 의한 왜곡이 발생하기 때문에 입력된 영상을 도 5의 (c)와 같이 일방적으로 나눌 경우에는 도 5의 (d)와 같은 실질적인 거리와는 다른 오차가 발생하게 된다. 카메라의 시점에서 일관 되게 나눌 경우 실질적으로는 단위당 거리가 앞쪽일수록 짧게 되고 뒤쪽으로 갈수록 점차 길어지게 된다. 이러한 영상 왜곡에 의한 불규칙적으로 할당되는 오류를 수정하기 위하여 호모그래피 행렬(Homography Matrix)을 사용하여 카메라가 피사체를 바라보는 각도에 대한 입력 영상의 오류를 보정 한다.However, since the image input in the form of FIG. 5 (a) is distorted due to the angle at which the camera looks at the subject as shown in FIG. 5 (b), the input image is unilaterally illustrated in FIG. 5 (c). In the case of division, an error different from the actual distance as shown in FIG. When divided consistently from the camera's point of view, the distance per unit is substantially shorter in the front and gradually longer in the rear. In order to correct an irregularly allocated error due to such image distortion, a homography matrix is used to correct an error of an input image with respect to an angle at which a camera looks at a subject.
어느 한 평면에 대하여 그 평면 위에 있는 점과 다른 한 평면의 대응점은 3×3 행렬로 표현이 가능하다. 여기에서 3×3 행렬은 두 평면 사이의 사영 변환 관계를 나타내는데, 이것을 호모그래피 라고 한다. 그러한 호모그래피 행렬을 사전식으로 배열한 9×1 벡터를 평면 위에 있는 점과 다른 한 평면의 대응점을 조합한 n×9 행렬에 곱하면 0이 된다. 이 과정에서 호모그래피 행렬을 사전식으로 배열한 9×1 벡터는 SVD (Singular Value Decomposition)를 통해 구할 수 있다. 하지만 여기서 평면 위에 있는 점과 다른 한 평면의 대응점을 조합한 n×9 행렬은 정방 행렬이 아니기 때문에 SVD를 바로 적용할 수 없다. 이를 해결하기 위하여 유사 역원을 이용한다.For a plane, the point on the plane and the corresponding point of the other plane can be expressed in a 3x3 matrix. The 3x3 matrix here represents the projection transformation relationship between the two planes, which is called homography. Multiplying such a homography matrix by a 9x1 vector lexically by an nx9 matrix that combines points on the plane with corresponding points on the other plane results in zero. In this process, a 9 × 1 vector in which the homography matrix is arranged in a dictionary can be obtained through SVD (Singular Value Decomposition). However, since the n × 9 matrix that combines the points on the plane with the corresponding points on the other plane is not a square matrix, SVD cannot be applied immediately. A pseudo inverse is used to solve this.
상기 수학식 4와 같이, 에서 는 행렬을 사전식으로 배열한 벡터이며, 는 와 를 조합한 행렬이다. 여기서, 는 SVD를 통하여 계산을 하며, 호모그래피 행렬인 는 의 가장 작은 고유값에 해당하는 고유벡터들로 구성된다.As shown in Equation 4, in Is Lexicographically arranging the matrix Vector, Is Wow Combining It is a matrix. here, Is computed through SVD, which is a homography matrix Is It consists of eigenvectors corresponding to the smallest eigenvalues of.
위와 같은 과정을 통해서 계산되어진 호모그래피 행렬을 이용하여 도 6의 (b)와 같은 보정된 영상을 구하고, 그 영상을 도 6의 (c)와 같이 일정한 간격으로 배분하여, 도 6의 (d)와 같은 기준면을 생성하여 피사체의 위치에 따른 깊이 정보 값을 산출한다. 이는 그림을 통하여 확인할 수 있다.Using the homography matrix calculated through the above process, a corrected image as shown in FIG. 6 (b) is obtained, and the images are distributed at regular intervals as shown in FIG. Depth information values are calculated according to the position of the object by generating a reference plane as shown in FIG. This can be seen in the figure.
실제 입력 영상인 도 7의 (a)를 대상으로 호모그래피 행렬을 적용하여 도 7의 (b)를 생성하고, 그에 따른 피사체 위치를 기준으로 z좌표를 지정한다.7B is generated by applying a homography matrix to the actual input image of FIG. 7A, and the z-coordinate is designated based on the subject position.
이러한 방법으로 계산된 피사체의 위치 좌표인 x, y, z값을 사용하여 대상에 알맞은 안내 영상을 출력하게 되는데, 이때 이동하는 피사체의 방향에 알맞은 변화를 주게 되어 더욱 자연스러운 결과를 얻게 된다. 이러한 과정에서 발생할 수 있는 프레임 저하로 인한 출력 영상의 끊김 현상을 방지하기 위하여 병렬처리를 통한 유연한 움직임의 추적 기법으로 영상을 출력하여 더욱 자연스러운 움직임의 결과를 확인할 수 있다.In this way, the guide image suitable for the target is output using the calculated position coordinates x, y, and z of the subject. In this case, a change in the direction of the moving subject is changed to obtain a more natural result. In order to prevent the disconnection of the output image due to the frame degradation that may occur in this process, it is possible to check the results of the more natural movement by outputting the image by a flexible motion tracking technique through parallel processing.
여기서, 본 발명에서는 실시간으로 해당 좌표에 안내문을 출력하는 방식 대신에 계산되어 진 좌표값을 향하여 피사체의 위치까지 유연한 움직임으로 추적을 하는 알고리즘을 적용하였다.Here, in the present invention, instead of the method of outputting the guidance text to the corresponding coordinates in real time, the algorithm is applied to track the flexible movement to the position of the subject toward the calculated coordinate value.
도 8은 피사체의 위치로 이동(a)을 하던 중에 피사체의 위치에 변화가 생기면 질량과 가속도를 고려하여 방향을 전환(b)하여 피사체의 위치까지 유연한 움직임으로 도달하게 된다(c).FIG. 8 shows that when a change occurs in the position of the subject while moving to the position of the subject (a), the direction is changed in consideration of mass and acceleration (b) to reach the position of the subject with flexible movement (c).
유동적인 피사체를 추적하는 피사체에 사용자가 적절한 값으로 질량을 설정하면, 해당 피사체는 자신의 가속도와 질량에 알맞은 유연한 움직임을 보여준다. 정지된 피사체가 피사체의 이동을 감지하고 추적을 시작할 때, 설정된 가속도에 따라서 민첩함이 변하고, 피사체의 진행 방향이 변하여 회전을 할 경우, 설정된 질량에 따라 회전하는 형태가 변한다. 그 결과 이동을 멈춘 피사체의 주변에 도착하면, 추적을 멈춘 피사체는 이동을 멈추고 피사체의 위치 좌표 변화를 주시하게 된다.When the user sets the mass to an appropriate value for a subject that tracks a moving subject, the subject shows a flexible movement appropriate to its acceleration and mass. When the stationary subject detects the movement of the subject and starts tracking, the agility changes according to the set acceleration, and when the subject moves in the direction of rotation, the rotating form changes according to the set mass. As a result, when the subject arrives in the vicinity of the subject which has stopped moving, the subject who has stopped tracking stops the movement and observes the change in the position coordinate of the subject.
이러한 과정을 통하여 생성되는 영상을 기울어져 설치되어 있는 반투영 거울에 바로 투영을 할 경우, 반투영 거울의 기울기에 따른 왜곡이 발생하게 된다. 이처럼 거울의 기울기에 따라 발생하는 왜곡은 반사 변환 행렬을 이용하면 해당 기울기에 따라 알맞은 값으로 보정이 가능하다. When the image generated through such a process is directly projected on the semi-projection mirror installed at an inclination, distortion occurs due to the tilt of the semi-projection mirror. The distortion caused by the tilt of the mirror can be corrected to an appropriate value according to the tilt using the reflection transformation matrix.
여기서, 상기 반투영 거울(120)을 이용하여 공간 증강 현실 환경을 제작할 경우 고려해야 하는 사항이 있다. 상기 반투영 거울(120)에 비춰 진 영상은 거울의 기울기에 의한 왜곡이 발생한다. 그러한 문제점을 해결하기 위한 방법으로 반사 변환 행렬(Reflection Matrix)을 사용한다. 기울어진 거울에 의해서 왜곡될 정도를 미리 계산하여, 영상을 출력 시에 변형될 영상을 반대로 보정 한 뒤에 출력하는 것이다.Here, there are matters to be considered when manufacturing a space augmented reality environment using the
본 발명에 적용한 반사 변환 행렬(수학식 3)은 컴퓨터 그래픽스 분야에서 널리 사용되고 있는 OpenGL의 모델 뷰 변환 과정(Model-view Transformation)에서 접목되어 사용된다.The reflection transformation matrix (Equation 3) applied to the present invention is used in a model-view transformation process of OpenGL widely used in the field of computer graphics.
상기 수학식 5의 는 일반적인 평면의 방정식을 통하여 계산할 수 있다. 상기 반투영 거울(120)이 바라보는 법선 벡터 와 상기 반투영 거울(120)상에 존재하는 임의의 점 와 원점 0, 0, 0이 있을 경우 평면의 방정식은 과 같다. 즉, 평면의 방정식을 이용하면 기울어진 거울로 인하여 생길 수 있는 왜곡을 보정 하기에 알맞은 반사 변환 행렬을 구할 수 있다.Of Equation 5 Can be calculated through the equation of a general plane. Normal vector viewed by the
일반적인 OpenGL에서는 물체별로 모델링에 편하게 설정된 좌표계가 모델 좌표계(Object Coordinates)이다. 개별 물체를 모았을 때 이를 한꺼번에 아우를 수 있는 좌표계가 전역 좌표계(World Coordinates)이며, 물체를 바라보는 시점을 기준으로 표현한 것이 시점 좌표계(Eye Coordinates)이다. 하지만 반사 변환 행렬을 접목 시킬 경우 전역 좌표계와 시점 좌표계에 작은 변화가 생긴다.In general OpenGL, the coordinate system set for modeling by object is the model coordinate system (Object Coordinates). When the individual objects are collected, the coordinate system that can encompass them at once is the world coordinate system and the world coordinate system is expressed based on the viewpoint of the object. However, when the reflection transformation matrix is combined, small changes occur in the global coordinate system and the viewpoint coordinate system.
앞에서 설명한 바와 같이, 생성된 전역 좌표계에 반사 변환 행렬을 적용하여 반사된 전역 좌표계(Reflected World Coordinates)를 생성한다. 기존에 계산되어 진 시점 좌표계 또한 새로운 반사된 시점 좌표계(Reflected Eye Coordinates)로 사용하게 된다. 이러한 방법으로 거울의 기울기에 의해서 영상이 왜곡된 것을 변형하여 출력함으로써 거울의 기울기에 의한 왜곡 문제를 해결할 수 있다.As described above, the reflected global coordinate system is generated by applying the reflection transformation matrix to the generated global coordinate system. The previously calculated view coordinate system will also be used as new reflected eye coordinates. In this way, the distortion of the mirror may be solved by modifying and outputting a distorted image due to the tilt of the mirror.
마지막으로, 반사 변환 행렬을 통하여 보정된 영상을 설치되어 있는 상기 반투영 거울(120)에 투영을 시키면, 관찰자는 거울 뒷면에 설치되어 있는 실제 공간에서 움직이는 피사체에 대한 정보를 공간 증강되어 나타나는 안내문에 의해 쉽게 얻을 수 있다.
Finally, when projecting the corrected image through the reflection transformation matrix to the
공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 다른 실시 예 Another embodiment of a display system
도 9는 본 발명의 바람직한 다른 실시 예에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구성도이다.9 is a configuration diagram of a spatial augmented reality based interactive display system according to another exemplary embodiment of the present invention.
상기 공간 증강 현실 기반 인터랙티브 디스플레이 시스템은 도 9에 도시된 바와 같이, 공간 증강 현실 디스플레이 또는 시스템 내부의 실제 전시공간(201), 영상출력장치(202), 멀티 터치 스크린(203), 적외선 LED 어레이 바(IR-LEDs Array Bar: 204), 적외선 카메라(Infrared Camera: 205), 전반사 거울(206), 반투영 거울(207), 전반사 거울(208), 카메라(209), 백색 LED 조명(210), 수직이동장치(211), 빔 프로젝터(212), 제어 PC(213)를 포함하여 구성된다.As shown in FIG. 9, the spatial augmented reality-based interactive display system includes an
여기서, 상기 공간 증강 현실 디스플레이(201)는 사용자로 하여금 공간증강된 영상을 관람하게 한다. 즉, 상기 멀티 터치 스크린(203)을 통해 사용자가 입력한 정보(그림, 문자 등)가 상기 시스템 내부에 설치된 실제 전시공간(201) 안에 들어 있는 것처럼 보이는 공간증강 현실 환경을 관람할 수 있도록 한다.Here, the spatial
상기 영상출력장치(202)은 상기 멀티 터치 스크린(203)을 통해 사용자가 입력한 정보를 가지고 상기 제어 PC(213)에서 만들어진 공간증강을 위한 영상을 상기 반투영 거울(207)로 출력한다.The
상기 멀티 터치 스크린(203)은 모니터의 역할로 정보를 전달하며 콘텐츠 진행을 위한 사용자의 정보를 입력받는다. 상기 멀티 터치 스크린(203)에는 상기 빔 프로젝터(212)에서 출력된 영상이 상기 전반사 거울(206)에 반사되어 디스플레이되며, 사용자에게 콘텐츠 사용 방법에 대해 안내한다. 상기 멀티 터치 스크린(203)은 아크릴 판과 리어스크린으로 구성된다.The
상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 204)는 상기 멀티 터치 스크린(203)을 통해 입력되는 사용자의 터치 지점을 감지하기 위해 상기 멀티 터치 스크린(203)의 상단과 하단(또는, 좌측 및 우측)에 설치되어 적외선 빛을 출력하여 상기 멀티 터치 스크린(203)의 하부에 인터랙션 막(Interactive Surface)을 형성한다. 이때, 상기 멀티 터치 스크린(203)에 손을 터치했을 때 손이 터치 된 지점의 상기 인터랙션 막에서 적외선 빛이 발산되게 된다.The IR-
상기 적외선 LED 어레이 바(204)는 도 10의 사진과 같이, 복수 개의 적외선 LED(IR-LEDs: 220)를 일정 간격(예를 들어, 3cm 간격)을 두고 설치한다. 이때, 상기 적외선 LED(220)를 일정한 간격으로 배치하는 이유는 모든 영역에 대해서 적외선 빛의 양을 균일하게 하기 위해서이다. 그리고, 상기 적외선 LED(220)의 간격을 3cm로 하는 이유는 각 LED의 발열량을 고려하면서 충분한 적외선의 양을 공급받을 수 있는 거리를 시험한 결과, 3cm의 간격이 적당한 것으로 밝혀졌다. 하지만, 이값에 반드시 국한된 것은 아니며, LED 소자나 기타 다른 환경에 따라 변할 수도 있다. As shown in the photo of FIG. 10, the infrared
상기 적외선 LED(220)는 일반적으로 45도 각도로 빛이 발산된다. 따라서, 본 발명의 적외선 LED 어레이 바(204)에서는 LED의 빛이 45°로 발산하는 것을 막기 위해 상기 적외선 LED(220)의 양쪽을 벽으로 차단함으로써 수직으로만 빛이 나갈 수 있도록 구성하여 빛의 직진성을 향상시켰다.The
한편, 상기 적외선 LED 어레이 바(204)는 상기 멀티 터치 스크린(203)의 크기에 따라 상단 또는 하단에 1개만 설치하여 구성할 수도 있다.Meanwhile, only one infrared
상기 적외선 카메라(Infrared Camera: 205)는 상기 멀티 터치 스크린(203)에 사용자의 터치 지점을 영상 입력하기 위한 것으로, 상기 멀티 터치 스크린(203)에 손을 터치했을 때 상기 적외선 LED 어레이 바(204)에 의해 형성된 인터랙션 막(영역)에서 발산되는 적외선 빛을 영상 입력하게 된다.The
상기 전반사 거울(206)은 상기 빔 프로젝터(212)에서 출력되는 영상을 상기 멀티 터치 스크린(203)으로 반사시키는 역할을 한다. 이때, 상기 빔 프로젝터(212)에서 출력되는 영상을 상기 전반사 거울(206)을 이용하여 반사하는 이유는 상기 빔 프로젝터(212)와 상기 멀티 터치 스크린(203)의 거리가 멀어질수록 넓은 화면의 영상을 얻을 수 있기 때문이다. 그리고, 빛의 감소가 발생하지 않기 위해서 일반거울이 아닌 전반사거울을 이용한다.The
상기 반투영 거울(207)은 상기 영상출력장치(202)의 화면과 상기 실제 전시공간(201)의 사물을 겹쳐서 보이도록 하여 사용자로 하여금 공간증강 현실 환경을 관람할 수 있도록 한다.The
상기 전반사 거울(208)은 상기 전반사 거울(206)과 비슷한 용도지만 반대의 동작을 한다. 즉, 상기 전반사 거울(208)은 상기 전시공간(201)의 모습을 상기 카메라(209)로 하여금 좁고 짧은 공간에서 넓은 화각의 영상을 입력받을 수 있도록 제공한다. 만약, 상기 카메라(209)의 렌즈를 광각렌즈로 사용하게 되면 이미지가 왜곡되기 때문에 왜곡된 이미지를 보정 하기 위한 장치가 더 필요하여 시스템에 불필요한 부하가 걸린다. 따라서, 상기 전반사 거울(208)을 이용하여 상기 카메라(209)의 설치 공간의 제약을 덜어내었다.The
상기 카메라(209)는 상기 전반사 거울(208)을 통해 상기 전시공간(201)의 모습을 영상으로 입력하여, 유동적으로 움직이는 사물의 위치를 실시간으로 계산하기 위한 기반 영상을 입력한다.The
상기 백색 LED 조명(210)은 상기 영상출력장치(202)에서 출력되는 영상의 밝기와 상기 전시공간(201)의 밝기가 유사하도록 상기 전시공간(210)의 밝기를 조절하는 조명이다. 즉, 상기 전시공간(210)과 상기 영상출력장치(202)의 밝기 차이를 줄여서 현실감을 높이기 위해 설치된 것으로, 밝기의 조절을 위해 가변저항이 설치되어 있다.The
상기 반투영 거울(207)을 통해 상기 전시공간의 모습과 상기 영상출력장치(202)에서 출력되는 영상이 하나로 겹쳐서 보이기 때문에, 상기 전시공간(201)의 밝기와 상기 영상출력장치(202)에서 출력되는 영상의 밝기가 동일할수록 이질감을 느끼지 않게 된다. 그런데, 상기 영상출력장치(202)의 영상 밝기를 조절하는 데는 한계가 있기 때문에 상기 백색 LED 조명(210)을 이용하여 상기 전시공간(201)의 밝기를 상기 영상출력장치(202)에서 출력되는 영상의 밝기와 유사 또는 동일하도록 조절한다.Since the image of the exhibition space and the image output from the
상기 수직이동장치(211)는 상기 영상출력장치(202)의 높낮이에 따라 사용자가 느껴지는 영상의 깊이가 달라지기 때문에 상기 영상출력장치(202)의 높낮이를 상황에 맞게 조절하기 위한 수직이동장치이다. 여기서, 증강되는 영상의 깊이 차이로 인하여 증강되는 영상이 상기 전시공간(201)의 사물과 일치하여 보이거나(알맞은 설정), 공중에 떠있거나 배경사물 안쪽으로 묻혀있는 것처럼 보일 수 있다. 그러므로, 상기 수직이동장치(211)를 이용하여 상기 영상출력장치(202)의 높낮이를 적절한 높이로 조절하게 된다.The vertical moving
상기 빔 프로젝터(212)는 상기 전반사 거울(206)을 통해 상기 멀티 터치 스크린(203)에 출력될 영상을 출력해 준다.The
상기 제어 PC(213)는 상기 카메라(209)로부터 상기 전시공간(201)의 사물 영상을 실시간으로 입력받아 유동적으로 움직이는 사물의 위치를 실시간으로 계산하고, 상기 빔 프로젝터(212)를 통해 영상을 출력하여 상기 멀티 터치 스크린(203)에 출력한 영상이 디스플레이되도록 한다. 그리고, 상기 멀티 터치 스크린(203)에 입력되는 사용자의 터치 지점을 상기 적외선 카메라(205)를 통해 입력받아 터치 지점의 좌표값을 계산하여 해당 지점의 콘텐츠를 상기 영상출력장치(202)로 실행하거나 또는 사용자가 입력한 그림이나 문자 정보를 상기 영상출력장치(202)를 통해 디스플레이한다. 또한, 공간 증강 현실 프로그램에 따라 사용자가 상기 멀티 터치 스크린(203)에 입력한 그림 정보를 상기 전시공간(201)의 사물의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치(202)에 디스플레이한다. 또한, 상기 제어 PC(213)는 상기 수직이동장치(211)를 통해 상기 영상출력장치(202)의 높낮이를 조절하며, 상기 백색 LED 조명(210)의 밝기를 제어한다. 이외에, 상기 제어 PC(213)는 시스템에서 필요한 출력 영상 및 각종 연산을 처리한다.The
상기 적외선 카메라(205)는 상기 멀티 터치 스크린(203)에 손을 터치했을 때 상기 적외선 LED 어레이 바(204)에 의해 형성된 인터랙션 막(영역)에서 발산되는 적외선 빛을 영상으로 입력하여 상기 제어 PC(213)로 전송하게 된다. 상기 제어 PC(213)에서는 상기 적외선 카메라(205)에서 전송된 신호를 영상처리를 통해 손 영역의 좌표(x,y) 값을 계산하게 된다. The
여기서, 손 영역의 좌표(x,y) 값을 계산하는 방법은 다음과 같다.Here, the method of calculating the coordinate (x, y) value of the hand region is as follows.
영상 이진화를 통하여 LED가 반사되는 영역과 그렇지 않은 영역을 나눈 뒤에 반사되는 영역에 한해서 블랍/라벨링을 거쳐 호모그래피 행렬을 이용하여 왜곡을 보정한 뒤 좌표의 최상위점을 인식하고 있는 좌표로 계산하여서 작동한다. 여기서, 상기 블랍은 영상 이진화를 하였을 때, LED가 반사된 영역들을 묶는 역할을 한다. 즉, 사람의 손이 하나의 픽셀(점)로 빛을 반사시키는 게 아니라 다수의 픽셀(면)로 빛을 반사시키기 때문에, 연속으로 LED가 반사되는 영역을 묶어주는 역할을 한다. 상기 라벨링은 상기 블랍을 통해 묶인 영역들에 대해 이름 그대로 번호를 지정하는 작업이다. 각 영역당 번호를 지정함으로써, 영역이 생겨서부터 사라질 때까지의 좌표값을 계산할 수 있다. 이때, 영상은 3차원이 아닌 2차원이기 때문에 (x,y)좌표로만 계산하여 (x,y)의 좌표정보 값만 계산된다.This function operates by calculating the coordinates that recognize the highest point of the coordinates after correcting the distortion using a homography matrix through the blob / labeling only in the region where the LED is reflected through the image binarization and the region that is not. do. Here, the blob binds the areas where the LED is reflected when the image is binarized. That is, since the human hand does not reflect light to one pixel (point) but reflects light to a plurality of pixels (planes), it serves to bind the areas where the LED is continuously reflected. The labeling is an operation of numbering the regions bounded by the blobs as they are. By assigning a number for each region, it is possible to calculate the coordinate values from when the region is created to disappear. At this time, since the image is two-dimensional rather than three-dimensional, only the coordinate information value of (x, y) is calculated by calculating only the (x, y) coordinate.
상기 터치 지점의 좌표값을 계산한 후 해당 지점의 콘텐츠를 상기 영상출력장치(202)로 실행하거나 또는 사용자가 입력한 그림이나 문자 정보를 상기 영상출력장치(202)를 통해 디스플레이한다. 또한, 공간 증강 현실 프로그램에 따라 사용자가 상기 멀티 터치 스크린(203)에 입력한 그림 정보를 상기 전시공간(201)의 사물의 움직임과 같은 모양으로 움직이도록 상기 영상출력장치(202)에 디스플레이한다.After calculating the coordinate value of the touch point, the content of the corresponding point is executed by the
이하, 본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템을 실제로 구현한 예를 첨부된 도면을 참조하여 설명하기로 한다.
Hereinafter, an example of actually implementing a spatial augmented reality based interactive display system of the present invention will be described with reference to the accompanying drawings.
공간 증강 현실 기반 Space Augmented Reality Based 인터랙티브Interactive 디스플레이 시스템의 구현 예 Example of display system
도 11 내지 도 39는 본 발명에 의한 공간 증강 현실 기반 인터랙티브 디스플레이 시스템의 구현 예를 나타낸 캡처 화면으로서, 도 11 내지 도 15는 멀티 터치 스크린을 통해 사용자가 입력한 정보를 시스템 내부의 전시공간에 콘텐츠로 실현한 예를 보인 캡처 화면이고, 도 16 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예를 보인 캡처 화면이다.11 to 39 are capture screens showing an implementation example of a spatial augmented reality-based interactive display system according to the present invention. FIGS. 11 to 15 show contents input by a user through a multi-touch screen in an exhibition space inside the system. 16 to 39 are capture screens showing an example of the implementation of the educational learning content for the exhibition environment of the exhibition space.
먼저, 도 11과 같이 상기 멀티 터치 스크린(203)의 콘텐츠 화면에 "체험하기" 버튼을 누르면 상기 공간 증강 현실 디스플레이(201)에 도 12 및 도 13과 같이 보이게 된다. 이때, 도 12 및 도 13의 모습은 상기 전시공간(201)의 사물 모습과 상기 영상출력장치(202)의 영상 모습이 상기 반투영 거울(207)을 통해 겹쳐서 보이는 모습을 나타낸 것이다.First, as shown in FIG. 11, when the "experience" button is pressed on the content screen of the
이후, 상기 멀티 터치 스크린(203)의 콘텐츠 화면이 도 14와 같이 바뀌게 된다. 도 14 내지 도 22는 사용자가 그린 물고기가 상기 전시공간(201)에 실제 물고기처럼 움직이도록 하는 콘텐츠이다.Thereafter, the content screen of the
도 14의 화면에서 하단의 "그려 보아요" 버튼을 누르면 도 15와 같은 그리기 화면이 나타난다. 상기 그리기 화면(도 80)에서 손가락으로 그림을 그릴 색을 선택한 후(도 16) 도 17과 같이 물고기 모양을 그리면 사용자가 선택한 색으로 물고기가 그려진다. 이후, "다 그렸어요" 버튼을 누르면 도 18과 같이 상기 전시공간(201)에 사용자가 그린 물고기가 실제로 살아있는 것과 같이 움직이게 된다. 이때, 사용자가 그린 물고기가 실제 물고기와 같이 움직이는 동작은 앞에서 설명한 바와 같이, 상기 전시공간(201)의 사물 모습을 실시간으로 촬영한 상기 카메라(209)의 영상 신호를 상기 제어 PC(213)에서 영상처리를 통해 움직이는 사물의 위치 정보(좌표)를 추출하여 상기 사용자가 입력한 물고기 모양의 그림에 적용하여 상기 영상출력장치(202)를 통해 출력함으로써 가능하다.Pressing the “draw” button at the bottom of the screen of FIG. 14 brings up a drawing screen as shown in FIG. 15. After selecting a color for drawing with a finger on the drawing screen (FIG. 80) (FIG. 16), when the fish is drawn as shown in FIG. 17, the fish is drawn in the color selected by the user. Subsequently, when the "Draw" button is pressed, the fish drawn by the user in the
그 다음, 도 19의 화면은 손가락으로 물고기를 이용시키며 먹이를 주는 콘텐츠로서, 하단의 "넘어가기" 버튼을 누른 후 도 21과 같이 화면에 손가락을 대고 움직이면 도 24 내지 도 22와 같이 상기 물고기 모양의 그림이 손가락의 움직임에 따라 움직이면서 먹이를 먹게 된다. 이때, 먹이는 상기 영상출력장치(202)를 통해 출력되는 콘텐츠의 영상이다.Next, the screen of FIG. 19 is a content of feeding the fish using a finger and feeding the food. When the user moves the finger on the screen as shown in FIG. 'S picture moves as the finger moves and eats. At this time, the food is an image of the content output through the
도 23 내지 도 39는 전시공간의 전시 환경에 대한 교육 학습 콘텐츠의 구현 예이다.23 to 39 are exemplary implementations of educational learning content for an exhibition environment of an exhibition space.
상기 멀티 터치 스크린(202)에 나타난 도 23의 화면은 강의 상류, 중류, 하류의 모습을 나타낸 것으로, 도 24와 같이 사용자가 화면에 표시된 상류, 중류, 하류 중 하나(예를 들어, 중류)를 터치하면 터치한 중류에 대한 간단한 설명이 풍선 말을 통해 화면이 표시된 다음, 상기 반투영 거울(207)을 통해 바라본 상기 전시공간(201)에 강의 중류가 나타난다. 물론, 상기 전시공간(201)에 나타난 강의 모습은 앞에서도 설명했듯이, 상기 영상출력장치(202)를 통해 출력된 영상이다.The screen of FIG. 23 shown in the
다음으로, 도 26 내지 도 29는 지각과 지진에 대한 교육 학습 콘텐츠로서, 상기 멀티 터치 스크린(202)을 통해 지각의 모습과 생성과정을 순차적으로 보여준다. 도 30 내지 도 39는 사용자가 직접 체험할 수 있는 교육 학습 콘텐츠이다. Next, FIGS. 26 to 29 are education learning contents for perception and earthquake, and show the appearance and generation process of perception sequentially through the
도 30과 같이, 상기 멀티 터치 스크린(202)의 화면에 그림으로 표시된 맨틀을 음성 안내에 따라 터치하면 도 31과 같이 화면이 바뀌면서 맨틀에 대한 구체적인 설명과 그림이 표시된다. 여기서, 하단의 선택 버튼을 누르면 도 32와 같이 맨틀 및 지층 구조가 그림으로 표시된다.As shown in FIG. 30, when the mantle displayed as a picture on the screen of the
음성 안내에 따라 도 32의 화면에서 맨틀을 터치하면 도 33의 화면과 같이 지층 밀어 보기 창이 뜬다. 상기 지층 밀어 보기 창에서 선택 버튼을 누른 후 도 34와 같이 상기 멀티 터치 스크린(202)을 통해 양손으로 지층을 밀게 되면 도 35와 같이 지층이 밀려서 표시된다.When the mantle is touched on the screen of FIG. 32 according to the voice guidance, a stratum pushing view window is displayed as shown in the screen of FIG. 33. After pressing a selection button in the strata push window, the strata are pushed and displayed as shown in FIG. 35 when the strata are pushed with both hands through the
이어서, 지각 내부의 마그마가 지각 밖으로 분출하여 화산이 폭발하도록 도 36과 같이 상기 멀티 터치 스크린(202)을 통해 손(손가락)으로 지층 아래에서 지층 위로 선을 그어서 분출구를 만들면 도 37 내지 도 39의 화면과 같이, 상기 반투영 거울(207)을 통해 바라본 상기 전시공간(201)에 화산이 폭발하는 모습이 연출된다.Subsequently, the magma inside the crust erupts out of the crust so that the volcano erupts, as shown in FIG. As shown in the screen, a volcanic eruption is produced in the
이와 같이 구성된 본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 전시공간상에 고정된 사물이나 유동적인 사물에 안내 게시물을 출력함으로서, 본 발명의 기술적 과제를 해결할 수가 있다.The spatial augmented reality-based interactive display system and method of the present invention configured as described above can solve the technical problem of the present invention by outputting a guide post to a fixed object or a flexible object in the exhibition space.
또한, 본 발명의 다른 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 빔 프로젝터와 적외선 LED를 이용하여 멀티 터치스크린을 제작하며, 반투영 거울과 대형 영상출력장치를 사용하여 공간 증강 현실을 위한 디스플레이 환경을 구현함으로써, 본 발명의 기술적 과제를 해결할 수가 있다.
In addition, another spatial augmented reality-based interactive display system and method thereof of the present invention produce a multi-touch screen using a beam projector and an infrared LED, and display environment for spatial augmented reality using a semi-projection mirror and a large image output device By implementing this, the technical problem of the present invention can be solved.
이상에서 설명한 본 발명의 바람직한 실시 예들은 기술적 과제를 해결하기 위해 개시된 것으로, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(당업자)라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가 등이 가능할 것이며, 이러한 수정 변경 등은 이하의 특허청구범위에 속하는 것으로 보아야 할 것이다.
Preferred embodiments of the present invention described above are disclosed to solve the technical problem, and those skilled in the art to which the present invention pertains (man skilled in the art) various modifications, changes, additions, etc. within the spirit and scope of the present invention. It will be possible to, and such modifications, changes, etc. will be considered to be within the scope of the following claims.
본 발명의 공간 증강 현실 기반 인터랙티브 디스플레이 시스템 및 그 방법은 다양하고 효율적인 메시지 전달이 가능 한 전시 및 광고 시스템으로 활용이 가능하며, 관련 유관 콘텐츠 시장(미래형 게임 등)으로의 응용력이 높아 다양한 형태의 사업으로 발전이 가능하다.
The spatial augmented reality-based interactive display system and method thereof can be used as an exhibition and advertisement system capable of delivering various and efficient messages, and have high application ability to related related content markets (future games, etc.). Development is possible.
110 : 영상출력장치 120 : 반투영 거울
130 : CCD 카메라 140 : 전시공간
200 : 공간 증강 현실 기반 인터랙티브 디스플레이 시스템
201 : 공간 증강 현실 디스플레이 또는 시스템 내부의 실제 전시공간
202 : 영상출력장치 203 : 멀티 터치 스크린
204 : 적외선 LED 어레이 바(IR-LEDs Array Bar)
205 : 적외선 카메라(Infrared Camera)
206 : 전반사 거울 207 : 반투영 거울
208 : 전반사 거울 209 : 카메라
210 : 백색 LED 조명 211 : 수직이동장치
212 : 빔 프로젝터 213 : 제어 PC
220 : 적외선 LED(IR-LEDs)110: image output device 120: semi-projection mirror
130: CCD camera 140: exhibition space
200: Spatial Augmented Reality Based Interactive Display System
201: Space augmented reality display or actual exhibition space inside the system
202: video output device 203: multi-touch screen
204 IR-LEDs Array Bar
205: Infrared Camera
206: total reflection mirror 207: semi-projection mirror
208: total reflection mirror 209: camera
210: white LED light 211: vertical moving device
212: beam projector 213: control PC
220: Infrared LEDs
Claims (10)
(a) 전시공간의 피사체 모습을 카메라로 실시간 촬영하는 단계와;
(b) 멀티 터치 스크린을 통해 사용자로부터 콘텐츠 진행을 위한 신호를 입력받는 단계와;
(c) 상기 멀티 터치 스크린에 손을 터치했을 때 상기 멀티 터치 스크린의 하부에 적외선으로 형성된 인터랙션 막에서 발산되는 적외선 빛을 적외선 카메라로 영상 입력하는 단계와;
(d) 상기 카메라의 영상 신호를 영상 처리하여 상기 피사체의 위치 정보를 계산하고 상기 적외선 카메라로부터 영상을 입력받아 사용자의 터치 지점을 계산하여, 상기 멀티 터치 스크린을 통해 입력된 정보를 상기 피사체의 움직임과 같은 모양으로 움직이도록 영상출력장치를 통해 출력하거나 또는 해당 터치 지점의 콘텐츠를 상기 영상출력장치를 통해 출력하는 단계; 및
(e) 상기 전시공간의 모습과 상기 영상출력장치에서 출력되는 영상 정보를 반투영 거울을 통해 겹쳐서 보이도록 하는 단계;
를 포함하되,
상기 (d) 단계에서 피사체의 위치정보는 한 개의 피사체에 대해 백그라운드 모델링(Background Modeling) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하고, 여러 개의 피사체에 대해 캠시프트(CamShift) 트래킹 알고리즘을 통해 피사체의 위치 좌표를 계산하며,
또한 상기 (e)단계에서 영상출력장치에서 출력되는 영상정보는 반투영 거울의 기울기에 의해 왜곡될 정도를 미리 계산한 후 영상의 출력시 변형될 영상을 반대로 보정하는 반사 변환 행렬을 이용하여, 상기 반투영 거울의 기울기에 따라 알맞은 값으로 보정하여 출력하는 것을 특징으로 하는 공간 증강 현실 기반 인터랙티브 디스플레이 방법.In the spatial augmented reality based interactive display method,
(a) real-time photographing of the subject of the exhibition space with a camera;
(b) receiving a signal for content progress from a user through a multi-touch screen;
(c) image inputting infrared light emitted from an interaction film formed in the infrared under the multi-touch screen when the hand touches the multi-touch screen with an infrared camera;
(d) image processing the image signal of the camera to calculate position information of the subject, receiving an image from the infrared camera, calculating a user's touch point, and moving information of the subject through the multi-touch screen; Outputting the image output apparatus to move in a shape such as or outputting a content of a corresponding touch point through the image output apparatus; And
(e) superimposing the appearance of the exhibition space and the image information output from the image output apparatus through a semi-projection mirror;
Including,
In the step (d), the position information of the subject is calculated by calculating the position coordinates of the subject through a background modeling tracking algorithm for one subject and by using a CamShift tracking algorithm on the plurality of subjects. Calculate position coordinates,
In addition, in the step (e), the image information output from the image output apparatus is calculated by using a reflection transformation matrix that calculates a degree of distortion by the tilt of the semi-projection mirror in advance and then reversely corrects the image to be deformed when the image is output. A spatial augmented reality based interactive display method, characterized in that for correcting the output according to the tilt of the translucent mirror.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100026969A KR101080040B1 (en) | 2010-03-25 | 2010-03-25 | Method for display spatial augmented reality-based interactive |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100026969A KR101080040B1 (en) | 2010-03-25 | 2010-03-25 | Method for display spatial augmented reality-based interactive |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110107691A KR20110107691A (en) | 2011-10-04 |
KR101080040B1 true KR101080040B1 (en) | 2011-11-04 |
Family
ID=45025767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100026969A KR101080040B1 (en) | 2010-03-25 | 2010-03-25 | Method for display spatial augmented reality-based interactive |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101080040B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210030241A1 (en) * | 2019-07-31 | 2021-02-04 | Lg Electronics Inc. | Ai robot cleaner and robot system having the same |
KR20230158701A (en) | 2022-05-12 | 2023-11-21 | 정혜주 | Interactive exhibition system and method for processing thereof |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102013790B1 (en) * | 2013-01-18 | 2019-08-26 | 한국전자통신연구원 | Apparatus for control an interactive content based on l style multiple display and method for performing the same |
US9443355B2 (en) * | 2013-06-28 | 2016-09-13 | Microsoft Technology Licensing, Llc | Reprojection OLED display for augmented reality experiences |
US9514571B2 (en) * | 2013-07-25 | 2016-12-06 | Microsoft Technology Licensing, Llc | Late stage reprojection |
KR20170008896A (en) * | 2015-06-19 | 2017-01-25 | (주)블루클라우드 | An apparatus for providing augmented virtual exercising space in an exercising system based on augmented virtual interactive contents and the method thereof |
CN108958618A (en) * | 2017-05-25 | 2018-12-07 | 异象科技(北京)有限公司 | AR computer-projector interacts touch one-piece machine |
KR102074072B1 (en) * | 2018-06-01 | 2020-02-05 | 한국과학기술원 | A focus-context display techinique and apparatus using a mobile device with a dual camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100276433B1 (en) | 1998-10-10 | 2001-02-01 | 정선종 | Sightseeing Telescope System Using Augmented Reality and Its Operation Method |
JP2001344617A (en) | 2000-03-31 | 2001-12-14 | Hitachi Zosen Corp | Composite reality realizing system |
-
2010
- 2010-03-25 KR KR1020100026969A patent/KR101080040B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100276433B1 (en) | 1998-10-10 | 2001-02-01 | 정선종 | Sightseeing Telescope System Using Augmented Reality and Its Operation Method |
JP2001344617A (en) | 2000-03-31 | 2001-12-14 | Hitachi Zosen Corp | Composite reality realizing system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210030241A1 (en) * | 2019-07-31 | 2021-02-04 | Lg Electronics Inc. | Ai robot cleaner and robot system having the same |
KR20230158701A (en) | 2022-05-12 | 2023-11-21 | 정혜주 | Interactive exhibition system and method for processing thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20110107691A (en) | 2011-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101080040B1 (en) | Method for display spatial augmented reality-based interactive | |
US11068225B2 (en) | Forming a larger display using multiple smaller displays | |
US8988343B2 (en) | Method of automatically forming one three-dimensional space with multiple screens | |
US8890812B2 (en) | Graphical user interface adjusting to a change of user's disposition | |
US7796134B2 (en) | Multi-plane horizontal perspective display | |
US20110084983A1 (en) | Systems and Methods for Interaction With a Virtual Environment | |
KR101096617B1 (en) | Spatial multi interaction-based 3d stereo interactive vision system and method of the same | |
JP7073481B2 (en) | Image display system | |
CN107168534B (en) | Rendering optimization method and projection method based on CAVE system | |
US20170161943A1 (en) | Apparatus for generating a display medium, a method of displaying a visible image and a display apparatus | |
KR20140082610A (en) | Method and apaaratus for augmented exhibition contents in portable terminal | |
CN208506731U (en) | Image display systems | |
KR20090071851A (en) | Development of annotaion system based on spatial augmented reality | |
CN110870304B (en) | Method and apparatus for providing information to a user for viewing multi-view content | |
KR20120060548A (en) | System for 3D based marker | |
CN110554556B (en) | Method and system for spatial holographic interactive control of multiple screens | |
CN108205823A (en) | MR holographies vacuum experiences shop and experiential method | |
JP2022515608A (en) | Systems and / or methods for parallax correction in large area transparent touch interfaces | |
Teubl et al. | Spheree: An interactive perspective-corrected spherical 3d display | |
KR101276558B1 (en) | A DID stereo image control equipment | |
EP2962290B1 (en) | Relaying 3d information by depth simulation using 2d pixel displacement | |
Hirsch et al. | 8d: interacting with a relightable glasses-free 3d display | |
JP4436101B2 (en) | robot | |
WO2023277020A1 (en) | Image display system and image display method | |
Miyata et al. | An application of projection imaging systems for museum exhibitions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140627 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150623 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160928 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20181001 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191001 Year of fee payment: 9 |