KR100491432B1 - Interactive exhibition system using multi-modal user interface - Google Patents
Interactive exhibition system using multi-modal user interface Download PDFInfo
- Publication number
- KR100491432B1 KR100491432B1 KR10-2002-0068459A KR20020068459A KR100491432B1 KR 100491432 B1 KR100491432 B1 KR 100491432B1 KR 20020068459 A KR20020068459 A KR 20020068459A KR 100491432 B1 KR100491432 B1 KR 100491432B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- rod
- gaze
- screen
- user
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract 1
- 230000009471 action Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229940034880 tencon Drugs 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 멀티모달 사용자 인터페이스를 이용한 대화형 디지털 전시 시스템에 관한 것으로, 레드볼(Red Ball)과 블루밴드(Blue Band)를 가진 봉; 및 스크린의 상부에 장착되어 봉을 들고 있는 사용자의 이미지를 촬영하는 카메라;를 구비하고, 카메라가 제공한 이미지에서 사용자의 눈의 위치 및 명암을 분석하여 시선의 방향을 계산하는 시선 추적 모듈과, 이미지에서 봉의 수평 및 수직 위치를 인식하고 이미지에 나타난 레드볼의 크기를 이용하여 스크린과 봉과의 거리를 계산함으로써 봉의 움직임을 추적하는 행동 인식 모듈을 포함하는 3D 입력 모듈; 및 3D 입력 모듈로부터 시선의 방향 및 봉의 움직임을 입력 받아 그에 따라 전시물의 디스플레이 상태를 변경하는 3D GUI 툴킷;을 포함하는 컴퓨터를 구비하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템을 제공함으로써, 인간과 컴퓨터의 상호작용을 간편하게 하고 비용 면에서도 저렴한 전시 시스템을 구현할 수 있다는 효과가 있다. The present invention relates to an interactive digital exhibition system using a multi-modal user interface, comprising: a rod having a red ball and a blue band; And a camera mounted on an upper portion of the screen to capture an image of a user holding a rod; a gaze tracking module configured to calculate a direction of a gaze by analyzing a position and contrast of a user's eyes in an image provided by the camera; A 3D input module including a behavior recognition module for recognizing the horizontal and vertical positions of the rods in the image and tracking the movement of the rods by calculating the distance between the rod and the screen using the size of the red ball shown in the image; And a 3D GUI toolkit for receiving the direction of the gaze and the movement of the rod from the 3D input module and changing the display state of the exhibit according to the 3D input module. By doing so, there is an effect that a human-computer interaction can be made simple and a cost-effective exhibition system can be realized.
Description
본 발명은 멀티모달 사용자 인터페이스(Multi-Modal User Interface)를 이용한 대화형 전시 시스템(Interactive Exhibition System)에 관한 것으로, 보다 상세하게는 PC 카메라와 봉을 이용하여 사용자의 시선과 행동을 인식하여 다양한 각도에서 전시물을 관람할 수 있도록 한 대화형 전시 시스템에 관한 것이다.The present invention relates to an interactive exhibition system using a multi-modal user interface. More particularly, the present invention relates to a user's gaze and behavior using a PC camera and a rod. It's about an interactive exhibition system that lets you view your exhibits at.
오늘날, 많은 박물관들이 대화형 전시 시스템을 사용하고 있다. 따라서 방문객들의 행동을 반영한 시스템을 구축하여 사용자들이 대화형 전시 시스템을 편리하게 이용하도록 돕는 것이 필요로 하게 되었다. Today, many museums use interactive exhibition systems. Therefore, it is necessary to build a system that reflects the behavior of visitors to help users to use the interactive exhibition system conveniently.
대부분의 대화형 전시 시스템은 컴퓨터 시스템에 의존하고 있으므로, 주된 관심사는 HCI(Human-Computer Interaction : 인간과 컴퓨터의 상호작용), 특히 시스템 이용법을 쉽게 익힐 수 있고 사용하기 간편한 새로운 멀티모달(Non-Conventional Multi-Modal) 사용자 인터페이스에 있다. Since most interactive display systems rely on computer systems, the main concern is Human-Computer Interaction (HCI), especially the new Non-Conventional, easy to use and easy to use system. Multi-Modal) in the user interface.
이러한 인터페이스는 대화형 전시 시스템을 방문하는 사용자들이 따로 컴퓨터 사용법을 익혀야 하는 번거로움을 대신해 주어 시스템을 좀 더 효율적으로 이용할 수 있도록 도와준다. 즉, 대화형 전시 시스템이 박물관 방문객들의 행동을 반영하도록 설계되므로 매우 유용하다. 이것이 바로 멀티모달 사용자 인터페이스를 사용한 대화형 전시 시스템에 대한 연구가 이루어지는 가장 큰 이유이다. This interface replaces the hassle of having to learn how to use the computer separately for users visiting the interactive display system, so that the system can be used more efficiently. In other words, the interactive exhibition system is very useful because it is designed to reflect the behavior of museum visitors. This is the main reason why research on interactive exhibition systems using a multi-modal user interface is conducted.
현재 HMD(Head Mounted Display : 머리부착형 화면표시장치), 데이터 글러브(Data Gloves) 및 CAVE(Cave Automated Virtual Environment) 등과 같은 장비들이 가상 현실 프로그램에서 사용되고 있다. 이 장비들은 입체적인 관점을 통해 실제와 같은 3차원 화면들을 만들어 내어 사용자들에게 깊은 매력을 선사한다. 그러나 그리 상용화되어 있지 않아서 박물관에 설치되기에는 적합하지 않다. 또한 일반인이 사용하기에는 복잡하고 가격이 비싸다는 단점을 가지고 있다.Currently, devices such as Head Mounted Display (HMD), Data Gloves, and Cave Automated Virtual Environment (CAVE) are used in virtual reality programs. These devices create realistic three-dimensional screens from a three-dimensional perspective, bringing deep appeal to users. However, it is not so commercially suitable for installation in museums. It also has the disadvantage of being complicated and expensive for the general public to use.
지금까지 시선 추적에 대한 많은 연구들이 수행되어 왔다. 이러한 연구들은 시선의 위치를 추적하는데 주안점을 두고 있다. Many studies on eye tracking have been conducted. These studies focus on tracking the position of the eye.
템플릿 매칭(Template Matching) 방법은 초기의 템플릿과 시간이 경과한 후의 템플릿 영상을 비교하여 얼굴의 변형된 부분을 알아낸다 [A.L.Yuile, D.S.Cohen and P.W.Halinan, Feature extraction from face using deformable template, Proceedings of IEEE Computer Society Conference On Computer Vision and Pattern Recognition, pp.104-109, 1989].Template matching method compares the initial template with the template image over time to find out the deformed part of the face [ ALYuile, DSCohen and PWHalinan, Feature extraction from face using deformable template, Proceedings of IEEE Computer Society Conference On Computer Vision and Pattern Recognition, pp . 104-109, 1989 ].
위치선정 방법은 시선이 위치하는 곳이 어딘지를 알아낸다 [J.K.Ko, N.Kim and R.S.Ramakrishna, Facial Feature Tracking for Eye-Head Controlled Human Computer Inteface, IEEE TENCON, 1999].Positioning methods find out where the gaze is located [ JKKo, N.Kim and RSRamakrishna, Facial Feature Tracking for Eye-Head Controlled Human Computer Inteface, IEEE TENCON, 1999 ].
눈동자 조절 시스템(Eye-head Controlled System)과 시선 추적 시스템은 비번 테크롤러지에 기반한다. 또한, 컬러 기반 방법은 시선의 범위를 줄여준다. 이 방법은 얼굴 표면의 색을 조사하여 비슷한 색의 분포를 가지는 영역을 가려낸다 [J.Yang and A.Waibel, A Real-time Face Tracker, Proceedings of the Third IEEE Workshop on Applications of Computer Vision, pp.142-147, 1996, Rogerio Schmidt Feris, Teofilo Emidio de Campos, Roberto Marcondes Cesar Junior Detection and Tracking of Facial Feature in Video Sequences, Lecture Notes in Artificial Intelligence, vol.1793, pp.197-206, April 2000]. 이 방법을 통해 좀더 나은 결과를 도출해내기 위해서는 동일한 사람에 대해 같은 조명을 주어 실행하는 것이 좋다. 대부분의 시선 추적 방법은 얼굴의 특징을 도출해 내는 과정을 가진다. 이 방법은 방문객들이 대화형 전시 시스템을 좀 더 쉽고 간편하게 사용하는 데 있어 큰 도움을 주기 때문에 시스템의 핵심적인 부분이다. 시선추적 방법은 이 뿐만이 아니라, 가상 현실(VR : Virtua1 Reality), 실감형 현실(AR : Augmented Rea1ity), 또한 그 밖의 다양한 컴퓨팅 환경에도 적용할 수 있다.Eye-head controlled systems and eye tracking systems are based on off-site technology. Color-based methods also reduce the gaze range. This method examines the color of the face surface to identify areas of similar color distribution [ J. Yang and A. Waibel, A Real-time Face Tracker, Proceedings of the Third IEEE Workshop on Applications of Computer Vision, pp. 142-147, 1996, Rogerio Schmidt Feris, Teofilo Emidio de Campos, Roberto Marcondes Cesar Junior Detection and Tracking of Facial Feature in Video Sequences, Lecture Notes in Artificial Intelligence, vol. 1793, pp. 197-206, April 2000 ]. To get better results this way, it's a good idea to give the same person the same lighting. Most eye tracking methods have a process of deriving facial features. This method is an integral part of the system because it helps visitors to use the interactive display system more easily and conveniently. The eye tracking method can be applied not only to this, but also to virtual reality (VR), augmented reality (AR), and various other computing environments.
행동 인식 시스템은 봉 추적 기술에 기초한다. 봉의 정확한 위치를 파악해 내기 위해 마그네틱 센서를 이용하는 방법이 있지만 비용이 상당하다. 그러므로 비용이 적게 들면서 간편한 새로운 기술이 필요하다. Behavior recognition system is based on rod tracking technology. There is a way to use a magnetic sensor to pinpoint the rod, but it is expensive. Therefore, there is a need for new technologies that are simple and inexpensive.
우선 적외선 LED를 봉의 끝에 장착하여 적외선 카메라를 통해 봉의 움직임을 인식하기 위해 사용하는 방법이 있다[J.Y.Chung, N.K.Kim, G.J.Kim and C.M.Park, A Low Cost Real-Time Motion Tracking System for VR Application, International Conference on Virtual Systems and Multimedia 2001, 2001].First, there is a method of attaching an infrared LED to the end of the rod and using the infrared camera to recognize the movement of the rod [ JYChung, NKKim, GJKim and CMPark, A Low Cost Real-Time Motion Tracking System for VR Application, International Conference on Virtual Systems and Multimedia 2001, 2001 ].
PC 카메라와 컬러 기반 봉을 이용하는 것도 다른 방법이 될 수 있다. 복잡하게 만들어진 도구가 아닌, 간단한 구조의 봉을 삼차원 포인팅 도구로 사용하여 누구나 쉽게 다룰 수 있게 하며, 저가의 PC 카메라를 이용한 눈의 시선 정보 인식은 사물을 둘러보고, 쉽게 포인팅할 수 있게 깊이 정보를 파악하게 해준다.Another option would be to use a PC camera and a color-based rod. Using a simple structured rod as a three-dimensional pointing tool, not a complicated tool, it can be easily handled by anyone. Eye recognition using an inexpensive PC camera makes it possible to look around objects and easily find deep information for easy pointing. Helps you figure out
본 발명은 상기 문제점을 해결하기 위하여 3DOF(Degree Of Freedom)을 제공하는 컬러 기반 봉과 PC 카메라를 이용하여 박물관 등의 방문객들이 쉽게 즐길 수 있도록 직관적이고 간편하며 저렴한 대화형 전시 시스템을 제공하는 것을 목적으로 한다. In order to solve the above problems, an object of the present invention is to provide an intuitive, simple and inexpensive interactive exhibition system that can be easily enjoyed by visitors such as museums using color-based rods and PC cameras that provide 3DOF (Degree Of Freedom). do.
본 발명은 상기 목적의 달성을 위해, 컴퓨터 스크린에 전시물을 디스플레이하는 대화형 전시 시스템에 있어서, 레드볼(Red Ball)과 블루밴드(Blue Band)를 가진 봉; 및 상기 스크린의 상부에 장착되어 상기 봉을 들고 있는 사용자의 이미지를 촬영하는 카메라;를 구비하고, 상기 카메라가 제공한 이미지에서 상기 사용자의 눈의 위치 및 명암을 분석하여 시선의 방향을 계산하는 시선 추적 모듈과, 상기 이미지에서 상기 봉의 수평 및 수직 위치를 인식하고 상기 이미지에 나타난 레드볼의 크기를 이용하여 상기 스크린과 상기 봉과의 거리를 계산함으로써 상기 봉의 움직임을 추적하는 행동 인식 모듈을 포함하는 3D 입력 모듈; 및 상기 3D 입력 모듈로부터 상기 시선의 방향 및 상기 봉의 움직임을 입력 받아 그에 따라 전시물의 디스플레이 상태를 변경하는 3D GUI 툴킷;을 포함하는 컴퓨터를 구비하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템을 제공한다.In order to achieve the above object, the present invention provides an interactive display system for displaying an exhibit on a computer screen, comprising: a rod having a red ball and a blue band; And a camera mounted on an upper portion of the screen to capture an image of a user holding the rod, and analyzing the position and contrast of the eye of the user in the image provided by the camera to calculate the direction of the gaze. A tracking module, and a behavior recognition module for recognizing the horizontal and vertical positions of the rods in the image and tracking the movement of the rods by calculating the distance between the screen and the rods using the size of the red ball shown in the image. Input module; And a 3D GUI toolkit which receives the direction of the eye and the movement of the rod from the 3D input module and changes the display state of the exhibit accordingly. Provide a system.
상기와 같이, 본 발명에 따른 대화형 전시 시스템은 PC 카메라와 봉을 구비하여, 사용자의 시선을 추적하고 행동을 인식한다. 특히, 봉은 사용자의 행동을 인식하기 위한 것으로서, 사용자들의 행동을 표현할 수 있도록 디자인되어야 한다. 사용자의 행동은 인터페이스에 의해 인식된다. 사용자가 스크린 상에서 전시품을 다양한 각도로 보길 원하는 경우, 스크린 상의 물체를 회전시키면 된다. 사용자는 인터페이스 상에서 보고자 하는 사물을 회전시키기 위해 봉을 잡고 원을 그리는 행동을 하면 된다. 또한 사용자는 물체를 확대시키거나 축소시키는 명령을 위한 도구로서 이 봉을 사용할 수 있다. 물체의 크기를 확대하기 위하여 봉을 당기면 되고, 반대로 축소하기 위해서는 봉을 밀면 되는 것이다. 봉은 또한 물체를 선택하거나 프로세스를 실행하는 것과 같은 간편한 대화형 업무를 수행할 수 있도록 고안되어 있어, 메뉴에서 물체를 선택하기 위해서는 봉을 가지고 드로잉을 하는 것만으로 쉽게 실행할 수 있다. PC 카메라는 사용자의 시선과 봉의 움직임을 인식하기 위해 사용된다. As described above, the interactive exhibition system according to the present invention includes a PC camera and a rod, and tracks the eyes of the user and recognizes the behavior. In particular, the rod is for recognizing the user's behavior, and should be designed to express the user's behavior. The user's behavior is recognized by the interface. If the user wants to see the exhibits at various angles on the screen, the object on the screen can be rotated. The user simply grabs the rod and draws a circle to rotate the object he wants to see on the interface. The user can also use this rod as a tool for commands to enlarge or reduce an object. Pull the rod to enlarge the size of the object, and push the rod to shrink it. The rods are also designed to perform simple interactive tasks such as selecting an object or executing a process, making it easy to draw with a rod to select an object from the menu. PC camera is used to recognize the user's gaze and the movement of the rod.
시선 추적 기술과 행동 인식 기술은 독립적으로 사용될 수도 있고, 사용자는 시선 추적과 봉을 조합하여 시스템에 명령을 내릴 수도 있다. 이러한 대화 방법은 3차원 공간에서 인간과 컴퓨가 대화한다는 관점에서 3D 대화라고 불린다. 툴킷은 PC 카메라와 봉을 사용하여 이와 같은 대화형 전시 시스템을 만들고자 하는 프로그래머를 위해 API(Application Program Interface)를 제공한다. 상기 대화 방법과 인터페이스는 디지털 박물관에 적용될 수 있다. 최근에 많은 박물관들이 비디오나 3차원 그래픽 영상물과 같은 멀티미디어 전시품을 박물관에 배치하고 있다. 이것은 이러한 박물관들이 멀티미디어 컴퓨터 시스템을 갖추고 있음을 의미한다. 이와 같은 사실을 통해 우리는 기존의 박물관 방문객들이 컴퓨터에 대한 지식이 없이도 박물관에 설치된 컴퓨터 시스템을 다룰 수 있도록 해야 한다는 것을 알 수 있다. 방문객들이 시스템을 간편하고 쉽게 사용할 수 있는 방법을 제공하기 위해 대화 방법이 이용된다. The eye tracking technique and the behavior recognition technique may be used independently, or the user may command the system by combining the eye tracking and the rod. This method of conversation is called 3D conversation from the point of view of human and computer talking in three-dimensional space. The toolkit provides an application program interface (API) for programmers who want to create such interactive display systems using PC cameras and rods. The conversation method and interface can be applied to a digital museum. Recently, many museums have placed multimedia exhibits in the museum, such as video and three-dimensional graphic images. This means that these museums are equipped with multimedia computer systems. This suggests that we should allow existing museum visitors to handle computer systems installed in museums without knowledge of computers. The conversation method is used to provide a way for visitors to use the system simply and easily.
도 1은 대화 방법이 디지털 박물관에 어떻게 적용되는지를 보여 준다. 즉, 3D GUI(Graphical User Interface) 툴킷을 이용하여 대화형 전시 시스템과 같은 응용 프로그램을 구축할 수 있다.1 shows how the conversation method is applied to a digital museum. In other words, an application program such as an interactive exhibition system can be built using a 3D Graphical User Interface (GUI) toolkit.
먼저, 3D 입력 모듈(110)은 시선 추적 모듈(111)과 행동 인식 모듈(112)로 이루어진다. 3D 입력 모듈(110)은 PC 카메라로부터 전달된 정보를 분석하여 스크린 상에 비치는 물체를 보는 시선의 방향을 알아내고, 사용자가 들고 있는 봉의 3차원적 위치를 계산하여 봉의 움직임을 추적한다. First, the 3D input module 110 includes a gaze tracking module 111 and a behavior recognition module 112. The 3D input module 110 analyzes the information transmitted from the PC camera, finds the direction of the gaze of the object reflected on the screen, and calculates the three-dimensional position of the rod that the user is holding to track the rod movement.
3D GUI 툴킷(120)은 응용 프로그램을 위한 API를 제공한다. 이들 API는 3D 입력 모듈로부터 시선과 봉의 3차원적 위치를 얻어 낸다. 그러므로, 프로그래머는 3D 입력 모듈을 조절하는 API를 이용하여 박물관에 사용되는 대화형 전시 시스템과 같은 응용 프로그램을 개발할 수 있다. 툴킷은 3D 위짓(122)과 3D 윈도우 관리자(121)로 구성된다. 위짓(Widget)이란 본래 X-Windows 시스템의 Xtoolkit에서 GUI를 구성하는 부품의 이름 지칭하는 용어이다. 예를 들어, 각종 버튼이나 스크롤바 등 부품이 윈도우로써 독립해 있는 것을 위짓이라고 한다.The 3D GUI toolkit 120 provides an API for the application. These APIs derive three-dimensional positions of the gaze and rods from the 3D input module. Therefore, programmers can develop applications such as interactive exhibition systems used in museums using APIs to control 3D input modules. The toolkit is composed of a 3D widget 122 and a 3D window manager 121. Widget is the term used to refer to the names of the components that make up the GUI in Xtoolkit on X-Windows systems. For example, widgets are those in which parts such as buttons and scroll bars are independent as windows.
마지막으로, 응용 프로그램(130)은 3D GUI 툴킷(120)을 이용하여 개발된다. 상기에서 언급한 바와 같이 박물관 방문객들이 그들의 눈과 봉을 이용하여 스크린 상의 전시품을 보고 다룰 수 있는 대화형 전시 시스템의 개발이 그 예가 될 것이다.Finally, application 130 is developed using 3D GUI toolkit 120. As mentioned above, an example would be the development of an interactive exhibition system where museum visitors can use their eyes and rods to view and manipulate exhibits on the screen.
3D 입력 모듈3D input module
3D 입력 모듈(110)은 도 1에서와 같이 시선 추적 모듈(111)과 행동 인식 모듈(112)로 이루어진다. The 3D input module 110 includes a gaze tracking module 111 and a behavior recognition module 112 as shown in FIG. 1.
시선 추적 모듈(111)은 입력 센서로 PC 카메라를 이용한다. PC 카메라가 얼굴의 이미지를 제공하면, 시선 추적 모듈은 눈의 위치와 명암을 분석하여 시선의 방향을 알아 낸다. The eye tracking module 111 uses a PC camera as an input sensor. When the PC camera provides an image of the face, the gaze tracking module analyzes the position and contrast of the eye to determine the direction of the gaze.
도 2는 이미지 처리 과정을 도시한 것이다. 먼저, 카메라에서 넘어온 RGB 이미지의 사이트는 연산 과정을 줄일 수 있도록 조정된다. 그리고 나서 이미지는 검정과 흰색의 이미지로 변환되며, 변환 과정에서 도출된 초기값은 이미지를 단순화하는 데 사용된다. 눈은 단순화된 이미지의 가장 어두운 부분이다. 시선 추적 방법은 눈의 가로 세로의 비율과 위치값을 포함하는 초기값을 가지고 연산한다. 눈이 보통 얼굴의 상단에 위치한다는 사실을 이용해 시선 추적 연산의 속도를 증가시킬 수 있다. 2 illustrates an image processing process. First, the site of the RGB image from the camera is adjusted to reduce the computational process. The image is then converted into a black and white image, and the initial values derived from the conversion process are used to simplify the image. The eye is the darkest part of the simplified image. The gaze tracking method calculates the initial value including the ratio of the eye's aspect and position to the position value. The fact that the eyes are usually at the top of the face can be used to speed up the gaze tracking operation.
도 3은 시선 추적의 범위와 파라미터의 위치를 도시한 도면으로, 시선의 방향(Dir)과 눈의 위치(Pos)가 x, y, d로 표시되어 있다. x는 수평거리, y는 수직 거리를 나타낸다. 사용자 시선의 중앙이 (x, y)에 있고, d가 카메라와 사용자 사이의 거리인 z 값을 가진다고 가정하면, Dir과 POS는 도 3처럼 정의할 수 있다. 여기서 FOV는 카메라의 시계(Field Of View)이다.3 is a diagram illustrating the range of gaze tracking and the position of a parameter, in which the direction Dir and the position Pos of the eye are represented by x, y, and d. x is the horizontal distance and y is the vertical distance. Assuming that the center of the user's line of sight is at (x, y) and d has a z value, which is the distance between the camera and the user, Dir and POS can be defined as shown in FIG. Where FOV is the field of view of the camera.
도 4는 본 발명에서 제안하는 봉을 도시한 것으로, 레드볼(Red Ball : 410)이라고 불리는 머리와 블루밴드(Blue Band : 420)라 불리는 기둥으로 이루어 진다. 행동 인식 모듈(112)은 색의 패턴을 이용하여 봉의 위치를 인식하며, 레드볼과 블루밴드를 조화시켜 사용한다. 이것은 2차원 위치를 제공하는데, 이를 x, y라 하자. 깊이에 대한 정보인 z 값은 레드볼의 크기를 계산하여 얻을 수 있다.Figure 4 shows the rod proposed in the present invention, it consists of a head called a red ball (410) and a pillar called a blue band (Blue Band: 420). The behavior recognition module 112 recognizes the position of the rod using a color pattern, and uses the red ball and the blue band in combination. This gives a two-dimensional position, let's call it x and y. The z value, which is information about the depth, can be obtained by calculating the size of the red ball.
본 발명에서는 봉의 레드볼을 인식하기 위해 색기반 방법을 사용한다. 먼저 RGB 값이 정규화되는데, 이 과정은 레드볼의 정규화된 값이 R/(R+G+B), G/(R+G+B), B/(R+G+B)로 계산되는 것을 의미한다. 그리고 나서 이 값은 사물의 색을 알아내기 위하여 이용된다. RGB 값은 미리 정의되어 있지 않으므로 측정의 과정이 필요하다. 이것은 색의 평균값과 편향값이 계산되고 정규화된 색의 분포값이 계산되는 일종의 계산 과정이다. 이 값은 행동 인식 모듈이 레드볼을 추적할 때 사용된다. In the present invention, a color-based method is used to recognize the red ball of the rod. First, the RGB values are normalized. This process shows that the normalized values of the red ball are calculated as R / (R + G + B), G / (R + G + B), and B / (R + G + B). it means. This value is then used to determine the color of the object. Since RGB values are not predefined, a measurement process is required. This is a kind of calculation process in which the mean and deflection values of the color are calculated and the normalized color distribution is calculated. This value is used when the Behavior Awareness module tracks the Red Ball.
도 5는 색의 정규화된 분포가 레드볼 값에 의해 계산되는 과정을 도시한 것이다. 입력받은 영상 이미지의 각 피셀값을 색의 정규 분포내의 확률을 계산하여, 미리 정의된 임계치 이상 확률을 가진 픽셀값만을 걸러내어 전체 이미지내에서 레드볼 이미지만 걸러내게 된다. 이렇게 얻어진 레드볼 이미지에서 레드볼의 크기와 위치를 얻어내게 된다.5 shows the process by which the normalized distribution of colors is calculated by the red ball value. By calculating the probability within the normal distribution of colors for each pixel value of the input video image, only the pixel values having a predetermined threshold or more probability are filtered to filter out only the red ball image within the entire image. From the red ball image thus obtained, the size and position of the red ball are obtained.
일단 봉의 레드볼이 인식되면, 시스템은 볼의 위치인 x, y, z를 계산한다. 도 6은 레드볼의 움직임이 인터페이스에 의해 인식되는 영역인 작동 범위를 도시한 것으로, 작동 영역 밖의 움직임은 무시된다. 위치에 대한 정보를 나타내는 x, y, z의 값은 정규화되며 그 범위는 -1≤x≤1, -1≤y≤1 그리고 O≤z≤1로 설정된다. PC 카메라는 스크린의 중앙에 놓이는데, 레드볼이 작동 범위 영역 내에 있을 때만 레드볼의 움직임을 인식한다. 아래의 수학식 1은 레드볼의 x와 z 값을 계산한 것이다.Once the rod's red ball is recognized, the system calculates the ball's position, x, y, z. 6 illustrates an operating range in which the movement of the red ball is an area recognized by the interface, where movement outside the operating area is ignored. The values of x, y, and z representing information about the position are normalized and the ranges are set to −1 ≦ x ≦ 1, −1 ≦ y ≦ 1 and O ≦ z ≦ 1. The PC camera is centered on the screen, and it only detects the red ball's movement when it's in range. Equation 1 below is to calculate the x and z values of the red ball.
z' : 작동 범위에서 레드볼의 z 값 z ' : z value of the red ball in the operating range
r b : 레드볼의 반지름 (rmin≤rb≤rmax) r b : Red ball radius (r min ≤r b ≤r max )
r min : 레드볼의 최소 반지름 (z = 1일 때) r min : minimum radius of the red ball (when z = 1)
r max : 레드볼의 최대 반지름 (z = 0일 때) r max : Maximum radius of the red ball (when z = 0)
x' : 작동 범위에서 레드볼의 x 값 x ' : x value of the red ball in the operating range
x b : 스크린에서의 레드볼의 x 값 (O≤xb≤1) x b X value of the red ball on the screen (O≤x b ≤1)
FOV : 카메라의 시계 (Field Of View of the camera) FOV : field of view of the camera
레드볼의 y 값도 이와 유사하게 계산할 수 있다. 이런 식으로 작동 범위 내에서 봉의 움직이 추적되고 스크린에 투사된다.The red ball y value can be calculated similarly. In this way the movement of the rods within the operating range is tracked and projected onto the screen.
3D GUI 툴킷 (3D Graphic User Interface Toolkit)3D Graphic User Interface Toolkit
3D GUI 툴킷(120)은 대화형 전시 시스템을 개발하고자 하는 응용 프로그래머들을 위해 제공되는 것으로, 도 7에 그 기본 구조가 도시되어 있다. 이 툴킷은 3D 입력 수단에서 얻어진 데이터를 다루는 API(Application Program Interface)를 제공한다. 툴킷은 기본 3D 위짓(Widget)과 기본 위짓, 시각화 위짓 등으로 이루어진다. 가장 기본적인 위짓은 기본 위짓(Basic Widget : 710)으로, 이는 도 7에서 보는 바와 같이 다른 위짓들의 기본적인 특징을 제공하는데, 구체적으로는 라벨(720)과 버튼(730)과 같은 간편한 GUI 컴포넌트들이 제공된다. 이 컴포넌트들은 3차원 형식으로 나타내며 선택과 회전과 같은 3차원 포인팅도 가능하다.The 3D GUI toolkit 120 is provided for application programmers who wish to develop an interactive display system, the basic structure of which is shown in FIG. The toolkit provides an application program interface (API) for handling data obtained from 3D input means. The toolkit consists of a basic 3D widget, a basic widget and a visualization widget. The most basic widget is the Basic Widget (710), which provides the basic features of the other widgets as shown in FIG. 7, specifically, simple GUI components such as label 720 and button 730 are provided. . These components are presented in a three-dimensional format, and three-dimensional pointing such as selection and rotation is also possible.
3D(3차원) 윈도우 시스템은 기본 3D 위짓에서 확장될 수 있다. 이 시스템은 3차원으로 볼 수 있는 윈도우 창을 제공한다. 도 8에서 볼 수 있는 것과 같이 윈도우 관리자는 여러 개의 창을 띄우고, 3차원의 형식으로 윈도우를 정렬한다. 윈도우 관리자는 사용자의 시선의 움직임에 따라서 작동 윈도우를 변화시킨다. 만약에 사용자의 눈이 다른 윈도우를 바라보고 있으면 PC 카메라는 이 움직임을 감지하고 이전의 창은 비활성화된다. 이러한 과정은 도 8에 도시되어 있다. 윈도우(750)와 윈도우 관리자(760)와 같은 위짓은 3차원 윈도우 시스템을 이용한다.The 3D window system can be extended from the basic 3D widget. The system provides a window window that can be viewed in three dimensions. As shown in FIG. 8, the window manager displays several windows and arranges the windows in a three-dimensional form. The window manager changes the operation window according to the movement of the user's eyes. If the user's eyes are looking at another window, the PC camera detects this movement and the previous window is inactive. This process is illustrated in FIG. Widgets such as window 750 and window manager 760 use a three-dimensional window system.
모델뷰어(Model Viewer) 위짓(740) 또한 시선의 움직임을 추적하여 스크린에 물체를 변화시킨다. 도 9는 사용자의 초점에 의해 스크린 상에서 목적물이 변화하는 모델뷰어를 도시한 것으로, 만약에 사용자가 아래를 보거나 사물의 밑바닥을 향하고 있으면 모델뷰어는 시점을 바꾸어 도 9에 도시된 바와 같이 바닥을 보여 준다.The Model Viewer widget 740 also tracks the movement of the eye to change the object on the screen. FIG. 9 illustrates a model viewer in which an object changes on a screen due to the focus of the user. If the user looks down or faces the bottom of an object, the model viewer changes the viewpoint to show the floor as shown in FIG. 9. give.
3D 대화 방법3D conversation method
이하에서는, 본 발명에 따른 대화형 전시 시스템에서 채용하고 있는 3D 대화 방법을 설명한다.Hereinafter, the 3D conversation method employed in the interactive exhibition system according to the present invention will be described.
시선은 기본 대화 방법 중 하나로 시선 추적 시스템의 기본이 된다. 예를 들어 모델뷰어 위짓은 시선의 움직임에 따라서 사물의 위치와 방향을 바꾼다. 사용자가 사물을 다른 방향에서 보기를 원할 경우, PC 카메라는 시선의 움직임을 추적하며 시스템은 관점에 따라 사물을 보여준다.Eye gaze is one of the basic conversation methods and is the basis of eye tracking system. For example, the model viewer widget changes the position and direction of objects according to the movement of the eyes. If the user wants to see the object from a different direction, the PC camera tracks the eye's movement and the system shows the object from the perspective.
다른 기본 대화 방법은 봉을 이용하는 것이다. 사용자는 봉을 이용하여 다양한 행동을 표현할 수 있다. 행동은 박물관 안에서나 전시관에서 사용자의 행동을 반영할 수 있도록 자연스러워야 한다. 이하에서는 스크린에서 실행할 수 있는 3차원 연산이 어떤 것이 있는지 알아보고 연산의 결과를 나열한다. Another basic method of dialogue is to use rods. The user can express various actions using the rod. Behavior should be natural to reflect the user's behavior in a museum or exhibition hall. Below we will look at what three-dimensional operations can be performed on the screen and list the results of the operations.
① 선택① Select
이 동작은 마우스의 클릭에 해당하며, 사용자가 사물에 포인터를 놓고 1초 정도 기다리면 사물이 선택된다.This action corresponds to a mouse click, and when the user places the pointer on the object and waits about one second, the object is selected.
② 취소② Cancel
이 동작은 선택 동작을 취소시키며, 클릭된 마우스에서 손을 떼는 것과 같다. 사용자가 빨리 사물에서 포인터를 떼면, 이전의 선택은 취소가 된다.This action cancels the selection action and is like releasing the clicked mouse. If the user quickly releases the pointer from an object, the previous selection is canceled.
③ 실행 ③ Run
이 동작은 마우스의 더블 클릭에 해당하며, 명령어를 수행하거나 선택된 사물을 동작시키는 것을 의미한다. 사용자는 봉을 수직으로 흔든다. 봉을 빠르게 올렸다 내리는 것은 레드볼의 y 값을 변화시킨다.This operation corresponds to a double click of the mouse, which means to perform a command or to operate a selected object. The user shakes the rod vertically. Raising and lowering the rod quickly changes the red ball's y value.
④ 회전④ rotation
이 동작은 마우스를 드래깅하는 것에 해당하며, 스크린 상에 선택된 물체를 회전시켜 보여준다. 회전은 작동 범위의 중앙에 대하여 봉의 위치를 계산하는 것에 의해 수행된다.This action corresponds to dragging the mouse and rotating the selected object on the screen. Rotation is performed by calculating the position of the rod with respect to the center of the operating range.
⑤ 확대와 축소⑤ Zoom in and out
이 동작은 스크린 상에서 이미지를 확대하거나 축소하여 보여준다. 사용자는 확대 동작을 통하여 사물을 더 자세히 볼 수 있고, 축소 동작을 실행시킴으로서 사물의 전체적 모양을 볼 수도 있다. 확대 동작을 실행하기 위해서는 봉을 밀고, 축소 동작을 위해서는 봉을 잡아당기면 된다. 즉, 사용자는 확대와 축소 동작을 위해 z 축을 따라 봉을 움직이면 되는 것이다.This action enlarges or reduces the image on the screen. The user can see the object in more detail through the magnification operation, or can see the overall shape of the object by executing the reduction operation. Push the rod to perform the enlargement operation and pull the rod to perform the reduction operation. That is, the user only needs to move the rod along the z axis for the enlargement and reduction operation.
상기와 같은 새로운 대화 방법은 새 응용 프로그램이 만들어질 때마다 다르게 설계되고 구현될 수 있으며, 툴킷에 있는 함수를 이용하여 이러한 방법을 구현한다.This new conversational method can be designed and implemented differently each time a new application is created, using the functions in the toolkit to implement this method.
실험Experiment
본 발명에서 제안하는 시스템의 성능을 측정하기 위해 다음과 같은 실험이 수행되었다. 스크린에 각각 노란색과 빨간색인 두 개의 원뿔(cone)이 있다. 도 10과 같이, 사용자로 하여금 노란 원뿔을 빨간 원뿔 쪽으로 이동하도록 하였다. 이 과정은 사물의 선택, 이동, 회전으로 이루어진다. In order to measure the performance of the system proposed in the present invention, the following experiment was performed. There are two cones on the screen, yellow and red, respectively. As shown in FIG. 10, the user was allowed to move the yellow cone toward the red cone. This process consists of selecting, moving, and rotating things.
상기 작업을 완성하는 데 걸리는 시간을 측정한 결과가 도 11과 아래 표 1에 나타나 있다. 도 11a 및 도 11b는 각각 3D(3차원) 마우스와 봉을 이용하여 작업을 마치는데 걸리는 수행 시간을 도시한 그래프이고, 표 1은 평균 수행 시간을 나타낸다. 여기서, 노란 원뿔을 선택하는 데 걸리는 시간은 T+S, 이 노란 원뿔을 빨간 원뿔의 위치로 옮기는 데 걸리는 시간은 T, 노란 원뿔과 빨간 원뿔이 일치하도록 노란 원뿔을 회전하는 데 걸리는 시간은 R로 표시되었다. 이 작업은 3차원 마우스와 본 발명에 따른 시스템에 대해 각각 20 회씩 수행되었다. The results of measuring the time taken to complete the operation are shown in FIG. 11 and Table 1 below. 11A and 11B are graphs showing execution time for finishing work using a 3D mouse and a rod, respectively, and Table 1 shows average execution time. Here, the time taken to select the yellow cone is T + S, the time taken to move this yellow cone to the position of the red cone is T, and the time it takes to rotate the yellow cone to match the yellow cone and the red cone is R. Displayed. This operation was performed 20 times for each of the three-dimensional mouse and the system according to the present invention.
이 실험의 결과는 본 발명에 따른 봉을 사용했을 때 사물을 옮기고 회전시키는 데 걸리는 시간이 거의 3D 마우스 만큼이라는 것을 보여준다. 봉이 사용되었을 때, 수행 시간이 다소 불규칙적이며, 평균 수행이 약간 더 오래 걸리기는 하다. 그러나, 봉을 이용하여 사물을 이동시키는 과정은, 3D 마우스와 비교해 볼 때, 수행 시간은 비슷한 반면 실행이 간편하다는 장점이 있다. The results of this experiment show that the time it takes to move and rotate an object is almost as much as a 3D mouse when using the rod according to the invention. When rods are used, the run time is somewhat irregular and the average run takes slightly longer. However, the process of moving an object using a rod has an advantage that the execution time is similar but simple to execute, compared to a 3D mouse.
본 발명의 적용 사례Application examples of the present invention
본 발명에 따른 대화형 전시 시스템은 많은 분야에 적용될 수 있다. 많은 박물관들이 디지털화되면서 많은 전시품들이 컴퓨터를 이용해 전시되고 있다. 반면에, 박물관을 방문하는 사람들은 효율적으로 컴퓨터를 사용하지 못하므로, 본 발명에 따른 대화형 전시 시스템은 디지털 박물관에 매우 적합하다.The interactive exhibition system according to the present invention can be applied to many fields. As many museums are digitized, many exhibits are displayed using computers. On the other hand, visitors to the museum do not use computers efficiently, so the interactive exhibition system according to the present invention is well suited for digital museums.
도 12는 본 발명에 따른 대화형 전시 시스템을 디지털 박물관에 적용한 실시예를 도시한 것이다. 박물관 방문객(1210)은 전시품을 관람하고 관련된 정보를 찾아 보기 위해 스크린(1240) 앞에 서 있다. PC 카메라(1230)는 스크린의 꼭대기에 장착되어 있다. 방문객들은 봉(1220)을 잡고 스크린에 있는 사물을 바라보며 봉을 움직인다. 이 봉을 이용하여 스크린 상의 사물을 선택하고 회전하며 실행할 수 있으며, 확대와 축소도 할 수 있다.12 illustrates an embodiment in which the interactive exhibition system according to the present invention is applied to a digital museum. Museum visitor 1210 stands in front of screen 1240 to view the exhibits and find related information. PC camera 1230 is mounted on top of the screen. Visitors grab rod 1220 and move it while looking at objects on the screen. The rod can be used to select, rotate and execute objects on the screen, and to zoom in and out.
또 다른 예로, 고대 한국에서 개발된 악기인 양도위(Yangdowi)를 대화형 전시 시스템을 사용하여 재현할 수 있다. 이 악기는 현존하지 않으므로 우리는 이것을 직접 다룰 수 없다. 그러나 기록에 근거하여 3차원 디지털 모델의 형태로 이 악기를 재현할 수 있다.As another example, Yangdowi, a musical instrument developed in ancient Korea, can be reproduced using an interactive exhibition system. This instrument is not present and we cannot deal with it directly. However, based on the records, the instrument can be reproduced in the form of a three-dimensional digital model.
본 발명에 따른 대화형 전시 시스템을 이용하면, 이것을 보고 동작시킬 수 있다. PC 카메라가 시선의 움직임을 따라가면 3차원 모델이 시선의 움직임을 따라 변형되고 보여 진다. 악기의 3차원 모델을 회전시키고 다루어 보기 위해 봉을 사용할 수 있다. 또한, 봉을 사용해 악기와 관련된 더 많은 정보도 찾아볼 수 있다. 사용자의 행동은 선택, 취소, 실행, 회전, 확대, 축소가 될 수 있을 것이다. 이 시스템은 양도위에 대한 기초적인 지식을 설명해주는 만화 세션을 보여줄 수도 있으며, 악기의 구조나 작동법 등도 보여줄 수 있다. 따라서, 사용자는 3차원 모델에 의해 제공되는 하이퍼링크와 메뉴를 통해 더 자세한 정보를 찾을 수 있다.By using the interactive exhibition system according to the present invention, it can be viewed and operated. As the PC camera follows the movement of the line of sight, the 3D model is transformed and shown along with the line of sight. You can use the rod to rotate and manipulate the three-dimensional model of the instrument. You can also use the rods to find more information about the instrument. The user's actions may be select, cancel, execute, rotate, zoom in, zoom out. The system can also show cartoon sessions that explain the basic knowledge of the assignments, as well as the structure and operation of the instrument. Thus, the user can find more detailed information through the hyperlinks and menus provided by the three-dimensional model.
본 발명에 따르면, 인간과 컴퓨터와의 상호작용을 간단하고 직관적인 방법으로 제시하여 간편한 대화형 전시 시스템을 구현할 수 있으므로, 3D 마우스를 사용한 시스템과는 달리 사용자에게 컴퓨터에 대한 사전 지식이 없어도 쉽게 사용할 수 있다. According to the present invention, it is possible to implement a simple interactive display system by presenting a human-computer interaction in a simple and intuitive manner, unlike a system using a 3D mouse, the user can easily use the computer without prior knowledge of the computer. Can be.
또한, 스크린에 3차원 영상을 보여주기 위해 어떤 특별한 장비도 요구되지 않는다. 사용자의 시선의 움직임과 봉만으로 3차원 영상을 보여주고 다루는데 필요한 GUI 동작을 수행할 수 있다. In addition, no special equipment is required to display three-dimensional images on the screen. The GUI operation required to display and manipulate 3D images can be performed using only the movement of the eyes and the rods of the user.
더욱이, 본 발명에 따른 봉은, 봉의 정확한 위치 파악을 위해 마그네틱 센서를 이용하는 방법이나 3D 마우스에 비해 저렴하면서, 속도 면에서 볼 때 3D 마우스에 많이 뒤지지 않으므로 대화형 전시 시스템에 사용하기에 효율적이다.Furthermore, the rod according to the present invention is cheaper than a 3D mouse or a method using a magnetic sensor for accurate positioning of the rod, and is efficient for use in an interactive display system since it does not lag much behind the 3D mouse in terms of speed.
도 1은 본 발명에 따른 전시 시스템의 구조를 도시한 도면,1 is a view showing the structure of an exhibition system according to the present invention;
도 2는 시선 추적을 위한 이미지 처리 과정을 도시한 도면,2 is a diagram illustrating an image processing process for eye tracking;
도 3은 시선 추적의 범위를 도시한 도면,3 is a diagram illustrating a range of eye tracking;
도 4는 본 발명에 따른 봉(Baton)을 도시한 도면,4 is a view showing a baton according to the present invention;
도 5는 각각 봉두, 헤드 색의 표준 공급 산정, 헤드 인증을 도시한 도면,5 is a diagram showing the peak, the standard supply calculation of the head color, head certification, respectively,
도 6은 행동 인식의 작동 범위를 도시한 도면,6 is a diagram illustrating an operation range of behavior recognition;
도 7은 3D GUI 툴킷의 기본 구조를 도시한 도면,7 is a view showing the basic structure of the 3D GUI toolkit,
도 8은 3D 윈도우 시스템에서 윈도우 관리자의 관리를 도시한 도면,8 is a diagram illustrating management of a window manager in a 3D window system;
도 9는 사용자의 초점에 의해 스크린 상에서 목적물이 변화하는 모델뷰어를 도시한 도면, 9 illustrates a model viewer in which an object is changed on a screen by a user's focus;
도 10은 본 발명의 성능 측정을 위한 작동 연습의 예를 도시한 도면,10 shows an example of an operation practice for measuring the performance of the present invention;
도 11은 각각 3D 마우스와 봉을 이용한 작업 시간을 도시한 그래프,11 is a graph showing the working time using a 3D mouse and a rod, respectively;
도 12는 본 발명을 디지털 박물관에 적용한 경우를 도시한 도면.12 is a diagram illustrating a case where the present invention is applied to a digital museum.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0068459A KR100491432B1 (en) | 2002-11-06 | 2002-11-06 | Interactive exhibition system using multi-modal user interface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0068459A KR100491432B1 (en) | 2002-11-06 | 2002-11-06 | Interactive exhibition system using multi-modal user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040040119A KR20040040119A (en) | 2004-05-12 |
KR100491432B1 true KR100491432B1 (en) | 2005-05-25 |
Family
ID=37337612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2002-0068459A KR100491432B1 (en) | 2002-11-06 | 2002-11-06 | Interactive exhibition system using multi-modal user interface |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100491432B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516278B1 (en) | 2022-06-08 | 2023-03-30 | (주)이브이알스튜디오 | User terminal for providing intuitive control environment on media pannel, server, and display apparatus |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100659888B1 (en) * | 2005-01-07 | 2006-12-20 | 엘지전자 주식회사 | 3d video processing system of mobile device |
KR100611680B1 (en) * | 2005-06-28 | 2006-08-14 | 한국과학기술연구원 | Multi modal interaction-based remote meeting system |
KR100845274B1 (en) * | 2006-11-06 | 2008-07-09 | 주식회사 시공테크 | Apparatus and method for generating user-interface based on face recognition in a exhibition system |
KR200454004Y1 (en) * | 2009-02-13 | 2011-06-10 | 제드테크(주) | apparatus for cleaning panel |
KR20160100749A (en) * | 2015-02-16 | 2016-08-24 | (주)이지위드 | Exhibition management system and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000056563A (en) * | 1999-02-23 | 2000-09-15 | 김재희 | gaze detection system |
US6157382A (en) * | 1996-11-29 | 2000-12-05 | Canon Kabushiki Kaisha | Image display method and apparatus therefor |
KR20020031188A (en) * | 2000-07-13 | 2002-04-26 | 요트.게.아. 롤페즈 | Pointing direction calibration in video conferencing and other camera-based system applications |
KR20020035986A (en) * | 2000-11-07 | 2002-05-16 | 김효근 | Method of fabricating gate dielectric for use in semiconductor device |
-
2002
- 2002-11-06 KR KR10-2002-0068459A patent/KR100491432B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6157382A (en) * | 1996-11-29 | 2000-12-05 | Canon Kabushiki Kaisha | Image display method and apparatus therefor |
KR20000056563A (en) * | 1999-02-23 | 2000-09-15 | 김재희 | gaze detection system |
KR20020031188A (en) * | 2000-07-13 | 2002-04-26 | 요트.게.아. 롤페즈 | Pointing direction calibration in video conferencing and other camera-based system applications |
KR20020035986A (en) * | 2000-11-07 | 2002-05-16 | 김효근 | Method of fabricating gate dielectric for use in semiconductor device |
Non-Patent Citations (1)
Title |
---|
얼굴의 3차원 위치 및 움직임 추적에 의한 시선 위치 추적 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516278B1 (en) | 2022-06-08 | 2023-03-30 | (주)이브이알스튜디오 | User terminal for providing intuitive control environment on media pannel, server, and display apparatus |
KR20230168951A (en) | 2022-06-08 | 2023-12-15 | (주)이브이알스튜디오 | System for controlling display apparatus based on gaze direction and motion direction of user terminal |
KR20230168950A (en) | 2022-06-08 | 2023-12-15 | (주)이브이알스튜디오 | User terminal for providing intuitive control environment based on gaze direction according to gps information, server, and display apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20040040119A (en) | 2004-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11546505B2 (en) | Touchless photo capture in response to detected hand gestures | |
US11954268B2 (en) | Augmented reality eyewear 3D painting | |
US8552976B2 (en) | Virtual controller for visual displays | |
EP4172726A1 (en) | Augmented reality experiences using speech and text captions | |
EP4327185A1 (en) | Hand gestures for animating and controlling virtual and graphical elements | |
US20030004678A1 (en) | System and method for providing a mobile input device | |
JPH08315154A (en) | Gesture recognition system | |
KR20230017849A (en) | Augmented Reality Guide | |
WO2022006116A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
US7982751B2 (en) | Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop | |
WO2021097600A1 (en) | Inter-air interaction method and apparatus, and device | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
EP3807745A1 (en) | Pinning virtual reality passthrough regions to real-world locations | |
WO2022005733A1 (en) | Augmented reality eyewear with mood sharing | |
KR100491432B1 (en) | Interactive exhibition system using multi-modal user interface | |
Guliani et al. | Gesture controlled mouse navigation: Hand landmark approach | |
Upasana et al. | Virtual mouse with RGB colored tapes | |
WO2024049596A1 (en) | Recording following behaviors between virtual objects and user avatars in ar experiences | |
CN116934841A (en) | Positioning method of hand area and display device | |
Oliveira et al. | Interaction in an immersive multi-projection system based on light wand like devices | |
Chandra Gope et al. | Fingertip Interaction With Large Screen Display System Using Virtual Touch Scre |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20081118 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |