KR100491432B1 - Interactive exhibition system using multi-modal user interface - Google Patents

Interactive exhibition system using multi-modal user interface Download PDF

Info

Publication number
KR100491432B1
KR100491432B1 KR10-2002-0068459A KR20020068459A KR100491432B1 KR 100491432 B1 KR100491432 B1 KR 100491432B1 KR 20020068459 A KR20020068459 A KR 20020068459A KR 100491432 B1 KR100491432 B1 KR 100491432B1
Authority
KR
South Korea
Prior art keywords
image
rod
gaze
screen
user
Prior art date
Application number
KR10-2002-0068459A
Other languages
Korean (ko)
Other versions
KR20040040119A (en
Inventor
김지인
이장호
Original Assignee
주식회사 유씨티코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유씨티코리아 filed Critical 주식회사 유씨티코리아
Priority to KR10-2002-0068459A priority Critical patent/KR100491432B1/en
Publication of KR20040040119A publication Critical patent/KR20040040119A/en
Application granted granted Critical
Publication of KR100491432B1 publication Critical patent/KR100491432B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 멀티모달 사용자 인터페이스를 이용한 대화형 디지털 전시 시스템에 관한 것으로, 레드볼(Red Ball)과 블루밴드(Blue Band)를 가진 봉; 및 스크린의 상부에 장착되어 봉을 들고 있는 사용자의 이미지를 촬영하는 카메라;를 구비하고, 카메라가 제공한 이미지에서 사용자의 눈의 위치 및 명암을 분석하여 시선의 방향을 계산하는 시선 추적 모듈과, 이미지에서 봉의 수평 및 수직 위치를 인식하고 이미지에 나타난 레드볼의 크기를 이용하여 스크린과 봉과의 거리를 계산함으로써 봉의 움직임을 추적하는 행동 인식 모듈을 포함하는 3D 입력 모듈; 및 3D 입력 모듈로부터 시선의 방향 및 봉의 움직임을 입력 받아 그에 따라 전시물의 디스플레이 상태를 변경하는 3D GUI 툴킷;을 포함하는 컴퓨터를 구비하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템을 제공함으로써, 인간과 컴퓨터의 상호작용을 간편하게 하고 비용 면에서도 저렴한 전시 시스템을 구현할 수 있다는 효과가 있다. The present invention relates to an interactive digital exhibition system using a multi-modal user interface, comprising: a rod having a red ball and a blue band; And a camera mounted on an upper portion of the screen to capture an image of a user holding a rod; a gaze tracking module configured to calculate a direction of a gaze by analyzing a position and contrast of a user's eyes in an image provided by the camera; A 3D input module including a behavior recognition module for recognizing the horizontal and vertical positions of the rods in the image and tracking the movement of the rods by calculating the distance between the rod and the screen using the size of the red ball shown in the image; And a 3D GUI toolkit for receiving the direction of the gaze and the movement of the rod from the 3D input module and changing the display state of the exhibit according to the 3D input module. By doing so, there is an effect that a human-computer interaction can be made simple and a cost-effective exhibition system can be realized.

Description

멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템 {INTERACTIVE EXHIBITION SYSTEM USING MULTI-MODAL USER INTERFACE}Interactive exhibition system with multi-modal user interface {INTERACTIVE EXHIBITION SYSTEM USING MULTI-MODAL USER INTERFACE}

본 발명은 멀티모달 사용자 인터페이스(Multi-Modal User Interface)를 이용한 대화형 전시 시스템(Interactive Exhibition System)에 관한 것으로, 보다 상세하게는 PC 카메라와 봉을 이용하여 사용자의 시선과 행동을 인식하여 다양한 각도에서 전시물을 관람할 수 있도록 한 대화형 전시 시스템에 관한 것이다.The present invention relates to an interactive exhibition system using a multi-modal user interface. More particularly, the present invention relates to a user's gaze and behavior using a PC camera and a rod. It's about an interactive exhibition system that lets you view your exhibits at.

오늘날, 많은 박물관들이 대화형 전시 시스템을 사용하고 있다. 따라서 방문객들의 행동을 반영한 시스템을 구축하여 사용자들이 대화형 전시 시스템을 편리하게 이용하도록 돕는 것이 필요로 하게 되었다. Today, many museums use interactive exhibition systems. Therefore, it is necessary to build a system that reflects the behavior of visitors to help users to use the interactive exhibition system conveniently.

대부분의 대화형 전시 시스템은 컴퓨터 시스템에 의존하고 있으므로, 주된 관심사는 HCI(Human-Computer Interaction : 인간과 컴퓨터의 상호작용), 특히 시스템 이용법을 쉽게 익힐 수 있고 사용하기 간편한 새로운 멀티모달(Non-Conventional Multi-Modal) 사용자 인터페이스에 있다. Since most interactive display systems rely on computer systems, the main concern is Human-Computer Interaction (HCI), especially the new Non-Conventional, easy to use and easy to use system. Multi-Modal) in the user interface.

이러한 인터페이스는 대화형 전시 시스템을 방문하는 사용자들이 따로 컴퓨터 사용법을 익혀야 하는 번거로움을 대신해 주어 시스템을 좀 더 효율적으로 이용할 수 있도록 도와준다. 즉, 대화형 전시 시스템이 박물관 방문객들의 행동을 반영하도록 설계되므로 매우 유용하다. 이것이 바로 멀티모달 사용자 인터페이스를 사용한 대화형 전시 시스템에 대한 연구가 이루어지는 가장 큰 이유이다. This interface replaces the hassle of having to learn how to use the computer separately for users visiting the interactive display system, so that the system can be used more efficiently. In other words, the interactive exhibition system is very useful because it is designed to reflect the behavior of museum visitors. This is the main reason why research on interactive exhibition systems using a multi-modal user interface is conducted.

현재 HMD(Head Mounted Display : 머리부착형 화면표시장치), 데이터 글러브(Data Gloves) 및 CAVE(Cave Automated Virtual Environment) 등과 같은 장비들이 가상 현실 프로그램에서 사용되고 있다. 이 장비들은 입체적인 관점을 통해 실제와 같은 3차원 화면들을 만들어 내어 사용자들에게 깊은 매력을 선사한다. 그러나 그리 상용화되어 있지 않아서 박물관에 설치되기에는 적합하지 않다. 또한 일반인이 사용하기에는 복잡하고 가격이 비싸다는 단점을 가지고 있다.Currently, devices such as Head Mounted Display (HMD), Data Gloves, and Cave Automated Virtual Environment (CAVE) are used in virtual reality programs. These devices create realistic three-dimensional screens from a three-dimensional perspective, bringing deep appeal to users. However, it is not so commercially suitable for installation in museums. It also has the disadvantage of being complicated and expensive for the general public to use.

지금까지 시선 추적에 대한 많은 연구들이 수행되어 왔다. 이러한 연구들은 시선의 위치를 추적하는데 주안점을 두고 있다. Many studies on eye tracking have been conducted. These studies focus on tracking the position of the eye.

템플릿 매칭(Template Matching) 방법은 초기의 템플릿과 시간이 경과한 후의 템플릿 영상을 비교하여 얼굴의 변형된 부분을 알아낸다 [A.L.Yuile, D.S.Cohen and P.W.Halinan, Feature extraction from face using deformable template, Proceedings of IEEE Computer Society Conference On Computer Vision and Pattern Recognition, pp.104-109, 1989].Template matching method compares the initial template with the template image over time to find out the deformed part of the face [ ALYuile, DSCohen and PWHalinan, Feature extraction from face using deformable template, Proceedings of IEEE Computer Society Conference On Computer Vision and Pattern Recognition, pp . 104-109, 1989 ].

위치선정 방법은 시선이 위치하는 곳이 어딘지를 알아낸다 [J.K.Ko, N.Kim and R.S.Ramakrishna, Facial Feature Tracking for Eye-Head Controlled Human Computer Inteface, IEEE TENCON, 1999].Positioning methods find out where the gaze is located [ JKKo, N.Kim and RSRamakrishna, Facial Feature Tracking for Eye-Head Controlled Human Computer Inteface, IEEE TENCON, 1999 ].

눈동자 조절 시스템(Eye-head Controlled System)과 시선 추적 시스템은 비번 테크롤러지에 기반한다. 또한, 컬러 기반 방법은 시선의 범위를 줄여준다. 이 방법은 얼굴 표면의 색을 조사하여 비슷한 색의 분포를 가지는 영역을 가려낸다 [J.Yang and A.Waibel, A Real-time Face Tracker, Proceedings of the Third IEEE Workshop on Applications of Computer Vision, pp.142-147, 1996, Rogerio Schmidt Feris, Teofilo Emidio de Campos, Roberto Marcondes Cesar Junior Detection and Tracking of Facial Feature in Video Sequences, Lecture Notes in Artificial Intelligence, vol.1793, pp.197-206, April 2000]. 이 방법을 통해 좀더 나은 결과를 도출해내기 위해서는 동일한 사람에 대해 같은 조명을 주어 실행하는 것이 좋다. 대부분의 시선 추적 방법은 얼굴의 특징을 도출해 내는 과정을 가진다. 이 방법은 방문객들이 대화형 전시 시스템을 좀 더 쉽고 간편하게 사용하는 데 있어 큰 도움을 주기 때문에 시스템의 핵심적인 부분이다. 시선추적 방법은 이 뿐만이 아니라, 가상 현실(VR : Virtua1 Reality), 실감형 현실(AR : Augmented Rea1ity), 또한 그 밖의 다양한 컴퓨팅 환경에도 적용할 수 있다.Eye-head controlled systems and eye tracking systems are based on off-site technology. Color-based methods also reduce the gaze range. This method examines the color of the face surface to identify areas of similar color distribution [ J. Yang and A. Waibel, A Real-time Face Tracker, Proceedings of the Third IEEE Workshop on Applications of Computer Vision, pp. 142-147, 1996, Rogerio Schmidt Feris, Teofilo Emidio de Campos, Roberto Marcondes Cesar Junior Detection and Tracking of Facial Feature in Video Sequences, Lecture Notes in Artificial Intelligence, vol. 1793, pp. 197-206, April 2000 ]. To get better results this way, it's a good idea to give the same person the same lighting. Most eye tracking methods have a process of deriving facial features. This method is an integral part of the system because it helps visitors to use the interactive display system more easily and conveniently. The eye tracking method can be applied not only to this, but also to virtual reality (VR), augmented reality (AR), and various other computing environments.

행동 인식 시스템은 봉 추적 기술에 기초한다. 봉의 정확한 위치를 파악해 내기 위해 마그네틱 센서를 이용하는 방법이 있지만 비용이 상당하다. 그러므로 비용이 적게 들면서 간편한 새로운 기술이 필요하다. Behavior recognition system is based on rod tracking technology. There is a way to use a magnetic sensor to pinpoint the rod, but it is expensive. Therefore, there is a need for new technologies that are simple and inexpensive.

우선 적외선 LED를 봉의 끝에 장착하여 적외선 카메라를 통해 봉의 움직임을 인식하기 위해 사용하는 방법이 있다[J.Y.Chung, N.K.Kim, G.J.Kim and C.M.Park, A Low Cost Real-Time Motion Tracking System for VR Application, International Conference on Virtual Systems and Multimedia 2001, 2001].First, there is a method of attaching an infrared LED to the end of the rod and using the infrared camera to recognize the movement of the rod [ JYChung, NKKim, GJKim and CMPark, A Low Cost Real-Time Motion Tracking System for VR Application, International Conference on Virtual Systems and Multimedia 2001, 2001 ].

PC 카메라와 컬러 기반 봉을 이용하는 것도 다른 방법이 될 수 있다. 복잡하게 만들어진 도구가 아닌, 간단한 구조의 봉을 삼차원 포인팅 도구로 사용하여 누구나 쉽게 다룰 수 있게 하며, 저가의 PC 카메라를 이용한 눈의 시선 정보 인식은 사물을 둘러보고, 쉽게 포인팅할 수 있게 깊이 정보를 파악하게 해준다.Another option would be to use a PC camera and a color-based rod. Using a simple structured rod as a three-dimensional pointing tool, not a complicated tool, it can be easily handled by anyone. Eye recognition using an inexpensive PC camera makes it possible to look around objects and easily find deep information for easy pointing. Helps you figure out

본 발명은 상기 문제점을 해결하기 위하여 3DOF(Degree Of Freedom)을 제공하는 컬러 기반 봉과 PC 카메라를 이용하여 박물관 등의 방문객들이 쉽게 즐길 수 있도록 직관적이고 간편하며 저렴한 대화형 전시 시스템을 제공하는 것을 목적으로 한다. In order to solve the above problems, an object of the present invention is to provide an intuitive, simple and inexpensive interactive exhibition system that can be easily enjoyed by visitors such as museums using color-based rods and PC cameras that provide 3DOF (Degree Of Freedom). do.

본 발명은 상기 목적의 달성을 위해, 컴퓨터 스크린에 전시물을 디스플레이하는 대화형 전시 시스템에 있어서, 레드볼(Red Ball)과 블루밴드(Blue Band)를 가진 봉; 및 상기 스크린의 상부에 장착되어 상기 봉을 들고 있는 사용자의 이미지를 촬영하는 카메라;를 구비하고, 상기 카메라가 제공한 이미지에서 상기 사용자의 눈의 위치 및 명암을 분석하여 시선의 방향을 계산하는 시선 추적 모듈과, 상기 이미지에서 상기 봉의 수평 및 수직 위치를 인식하고 상기 이미지에 나타난 레드볼의 크기를 이용하여 상기 스크린과 상기 봉과의 거리를 계산함으로써 상기 봉의 움직임을 추적하는 행동 인식 모듈을 포함하는 3D 입력 모듈; 및 상기 3D 입력 모듈로부터 상기 시선의 방향 및 상기 봉의 움직임을 입력 받아 그에 따라 전시물의 디스플레이 상태를 변경하는 3D GUI 툴킷;을 포함하는 컴퓨터를 구비하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템을 제공한다.In order to achieve the above object, the present invention provides an interactive display system for displaying an exhibit on a computer screen, comprising: a rod having a red ball and a blue band; And a camera mounted on an upper portion of the screen to capture an image of a user holding the rod, and analyzing the position and contrast of the eye of the user in the image provided by the camera to calculate the direction of the gaze. A tracking module, and a behavior recognition module for recognizing the horizontal and vertical positions of the rods in the image and tracking the movement of the rods by calculating the distance between the screen and the rods using the size of the red ball shown in the image. Input module; And a 3D GUI toolkit which receives the direction of the eye and the movement of the rod from the 3D input module and changes the display state of the exhibit accordingly. Provide a system.

상기와 같이, 본 발명에 따른 대화형 전시 시스템은 PC 카메라와 봉을 구비하여, 사용자의 시선을 추적하고 행동을 인식한다. 특히, 봉은 사용자의 행동을 인식하기 위한 것으로서, 사용자들의 행동을 표현할 수 있도록 디자인되어야 한다. 사용자의 행동은 인터페이스에 의해 인식된다. 사용자가 스크린 상에서 전시품을 다양한 각도로 보길 원하는 경우, 스크린 상의 물체를 회전시키면 된다. 사용자는 인터페이스 상에서 보고자 하는 사물을 회전시키기 위해 봉을 잡고 원을 그리는 행동을 하면 된다. 또한 사용자는 물체를 확대시키거나 축소시키는 명령을 위한 도구로서 이 봉을 사용할 수 있다. 물체의 크기를 확대하기 위하여 봉을 당기면 되고, 반대로 축소하기 위해서는 봉을 밀면 되는 것이다. 봉은 또한 물체를 선택하거나 프로세스를 실행하는 것과 같은 간편한 대화형 업무를 수행할 수 있도록 고안되어 있어, 메뉴에서 물체를 선택하기 위해서는 봉을 가지고 드로잉을 하는 것만으로 쉽게 실행할 수 있다. PC 카메라는 사용자의 시선과 봉의 움직임을 인식하기 위해 사용된다. As described above, the interactive exhibition system according to the present invention includes a PC camera and a rod, and tracks the eyes of the user and recognizes the behavior. In particular, the rod is for recognizing the user's behavior, and should be designed to express the user's behavior. The user's behavior is recognized by the interface. If the user wants to see the exhibits at various angles on the screen, the object on the screen can be rotated. The user simply grabs the rod and draws a circle to rotate the object he wants to see on the interface. The user can also use this rod as a tool for commands to enlarge or reduce an object. Pull the rod to enlarge the size of the object, and push the rod to shrink it. The rods are also designed to perform simple interactive tasks such as selecting an object or executing a process, making it easy to draw with a rod to select an object from the menu. PC camera is used to recognize the user's gaze and the movement of the rod.

시선 추적 기술과 행동 인식 기술은 독립적으로 사용될 수도 있고, 사용자는 시선 추적과 봉을 조합하여 시스템에 명령을 내릴 수도 있다. 이러한 대화 방법은 3차원 공간에서 인간과 컴퓨가 대화한다는 관점에서 3D 대화라고 불린다. 툴킷은 PC 카메라와 봉을 사용하여 이와 같은 대화형 전시 시스템을 만들고자 하는 프로그래머를 위해 API(Application Program Interface)를 제공한다. 상기 대화 방법과 인터페이스는 디지털 박물관에 적용될 수 있다. 최근에 많은 박물관들이 비디오나 3차원 그래픽 영상물과 같은 멀티미디어 전시품을 박물관에 배치하고 있다. 이것은 이러한 박물관들이 멀티미디어 컴퓨터 시스템을 갖추고 있음을 의미한다. 이와 같은 사실을 통해 우리는 기존의 박물관 방문객들이 컴퓨터에 대한 지식이 없이도 박물관에 설치된 컴퓨터 시스템을 다룰 수 있도록 해야 한다는 것을 알 수 있다. 방문객들이 시스템을 간편하고 쉽게 사용할 수 있는 방법을 제공하기 위해 대화 방법이 이용된다. The eye tracking technique and the behavior recognition technique may be used independently, or the user may command the system by combining the eye tracking and the rod. This method of conversation is called 3D conversation from the point of view of human and computer talking in three-dimensional space. The toolkit provides an application program interface (API) for programmers who want to create such interactive display systems using PC cameras and rods. The conversation method and interface can be applied to a digital museum. Recently, many museums have placed multimedia exhibits in the museum, such as video and three-dimensional graphic images. This means that these museums are equipped with multimedia computer systems. This suggests that we should allow existing museum visitors to handle computer systems installed in museums without knowledge of computers. The conversation method is used to provide a way for visitors to use the system simply and easily.

도 1은 대화 방법이 디지털 박물관에 어떻게 적용되는지를 보여 준다. 즉, 3D GUI(Graphical User Interface) 툴킷을 이용하여 대화형 전시 시스템과 같은 응용 프로그램을 구축할 수 있다.1 shows how the conversation method is applied to a digital museum. In other words, an application program such as an interactive exhibition system can be built using a 3D Graphical User Interface (GUI) toolkit.

먼저, 3D 입력 모듈(110)은 시선 추적 모듈(111)과 행동 인식 모듈(112)로 이루어진다. 3D 입력 모듈(110)은 PC 카메라로부터 전달된 정보를 분석하여 스크린 상에 비치는 물체를 보는 시선의 방향을 알아내고, 사용자가 들고 있는 봉의 3차원적 위치를 계산하여 봉의 움직임을 추적한다. First, the 3D input module 110 includes a gaze tracking module 111 and a behavior recognition module 112. The 3D input module 110 analyzes the information transmitted from the PC camera, finds the direction of the gaze of the object reflected on the screen, and calculates the three-dimensional position of the rod that the user is holding to track the rod movement.

3D GUI 툴킷(120)은 응용 프로그램을 위한 API를 제공한다. 이들 API는 3D 입력 모듈로부터 시선과 봉의 3차원적 위치를 얻어 낸다. 그러므로, 프로그래머는 3D 입력 모듈을 조절하는 API를 이용하여 박물관에 사용되는 대화형 전시 시스템과 같은 응용 프로그램을 개발할 수 있다. 툴킷은 3D 위짓(122)과 3D 윈도우 관리자(121)로 구성된다. 위짓(Widget)이란 본래 X-Windows 시스템의 Xtoolkit에서 GUI를 구성하는 부품의 이름 지칭하는 용어이다. 예를 들어, 각종 버튼이나 스크롤바 등 부품이 윈도우로써 독립해 있는 것을 위짓이라고 한다.The 3D GUI toolkit 120 provides an API for the application. These APIs derive three-dimensional positions of the gaze and rods from the 3D input module. Therefore, programmers can develop applications such as interactive exhibition systems used in museums using APIs to control 3D input modules. The toolkit is composed of a 3D widget 122 and a 3D window manager 121. Widget is the term used to refer to the names of the components that make up the GUI in Xtoolkit on X-Windows systems. For example, widgets are those in which parts such as buttons and scroll bars are independent as windows.

마지막으로, 응용 프로그램(130)은 3D GUI 툴킷(120)을 이용하여 개발된다. 상기에서 언급한 바와 같이 박물관 방문객들이 그들의 눈과 봉을 이용하여 스크린 상의 전시품을 보고 다룰 수 있는 대화형 전시 시스템의 개발이 그 예가 될 것이다.Finally, application 130 is developed using 3D GUI toolkit 120. As mentioned above, an example would be the development of an interactive exhibition system where museum visitors can use their eyes and rods to view and manipulate exhibits on the screen.

3D 입력 모듈3D input module

3D 입력 모듈(110)은 도 1에서와 같이 시선 추적 모듈(111)과 행동 인식 모듈(112)로 이루어진다. The 3D input module 110 includes a gaze tracking module 111 and a behavior recognition module 112 as shown in FIG. 1.

시선 추적 모듈(111)은 입력 센서로 PC 카메라를 이용한다. PC 카메라가 얼굴의 이미지를 제공하면, 시선 추적 모듈은 눈의 위치와 명암을 분석하여 시선의 방향을 알아 낸다. The eye tracking module 111 uses a PC camera as an input sensor. When the PC camera provides an image of the face, the gaze tracking module analyzes the position and contrast of the eye to determine the direction of the gaze.

도 2는 이미지 처리 과정을 도시한 것이다. 먼저, 카메라에서 넘어온 RGB 이미지의 사이트는 연산 과정을 줄일 수 있도록 조정된다. 그리고 나서 이미지는 검정과 흰색의 이미지로 변환되며, 변환 과정에서 도출된 초기값은 이미지를 단순화하는 데 사용된다. 눈은 단순화된 이미지의 가장 어두운 부분이다. 시선 추적 방법은 눈의 가로 세로의 비율과 위치값을 포함하는 초기값을 가지고 연산한다. 눈이 보통 얼굴의 상단에 위치한다는 사실을 이용해 시선 추적 연산의 속도를 증가시킬 수 있다. 2 illustrates an image processing process. First, the site of the RGB image from the camera is adjusted to reduce the computational process. The image is then converted into a black and white image, and the initial values derived from the conversion process are used to simplify the image. The eye is the darkest part of the simplified image. The gaze tracking method calculates the initial value including the ratio of the eye's aspect and position to the position value. The fact that the eyes are usually at the top of the face can be used to speed up the gaze tracking operation.

도 3은 시선 추적의 범위와 파라미터의 위치를 도시한 도면으로, 시선의 방향(Dir)과 눈의 위치(Pos)가 x, y, d로 표시되어 있다. x는 수평거리, y는 수직 거리를 나타낸다. 사용자 시선의 중앙이 (x, y)에 있고, d가 카메라와 사용자 사이의 거리인 z 값을 가진다고 가정하면, Dir과 POS는 도 3처럼 정의할 수 있다. 여기서 FOV는 카메라의 시계(Field Of View)이다.3 is a diagram illustrating the range of gaze tracking and the position of a parameter, in which the direction Dir and the position Pos of the eye are represented by x, y, and d. x is the horizontal distance and y is the vertical distance. Assuming that the center of the user's line of sight is at (x, y) and d has a z value, which is the distance between the camera and the user, Dir and POS can be defined as shown in FIG. Where FOV is the field of view of the camera.

도 4는 본 발명에서 제안하는 봉을 도시한 것으로, 레드볼(Red Ball : 410)이라고 불리는 머리와 블루밴드(Blue Band : 420)라 불리는 기둥으로 이루어 진다. 행동 인식 모듈(112)은 색의 패턴을 이용하여 봉의 위치를 인식하며, 레드볼과 블루밴드를 조화시켜 사용한다. 이것은 2차원 위치를 제공하는데, 이를 x, y라 하자. 깊이에 대한 정보인 z 값은 레드볼의 크기를 계산하여 얻을 수 있다.Figure 4 shows the rod proposed in the present invention, it consists of a head called a red ball (410) and a pillar called a blue band (Blue Band: 420). The behavior recognition module 112 recognizes the position of the rod using a color pattern, and uses the red ball and the blue band in combination. This gives a two-dimensional position, let's call it x and y. The z value, which is information about the depth, can be obtained by calculating the size of the red ball.

본 발명에서는 봉의 레드볼을 인식하기 위해 색기반 방법을 사용한다. 먼저 RGB 값이 정규화되는데, 이 과정은 레드볼의 정규화된 값이 R/(R+G+B), G/(R+G+B), B/(R+G+B)로 계산되는 것을 의미한다. 그리고 나서 이 값은 사물의 색을 알아내기 위하여 이용된다. RGB 값은 미리 정의되어 있지 않으므로 측정의 과정이 필요하다. 이것은 색의 평균값과 편향값이 계산되고 정규화된 색의 분포값이 계산되는 일종의 계산 과정이다. 이 값은 행동 인식 모듈이 레드볼을 추적할 때 사용된다. In the present invention, a color-based method is used to recognize the red ball of the rod. First, the RGB values are normalized. This process shows that the normalized values of the red ball are calculated as R / (R + G + B), G / (R + G + B), and B / (R + G + B). it means. This value is then used to determine the color of the object. Since RGB values are not predefined, a measurement process is required. This is a kind of calculation process in which the mean and deflection values of the color are calculated and the normalized color distribution is calculated. This value is used when the Behavior Awareness module tracks the Red Ball.

도 5는 색의 정규화된 분포가 레드볼 값에 의해 계산되는 과정을 도시한 것이다. 입력받은 영상 이미지의 각 피셀값을 색의 정규 분포내의 확률을 계산하여, 미리 정의된 임계치 이상 확률을 가진 픽셀값만을 걸러내어 전체 이미지내에서 레드볼 이미지만 걸러내게 된다. 이렇게 얻어진 레드볼 이미지에서 레드볼의 크기와 위치를 얻어내게 된다.5 shows the process by which the normalized distribution of colors is calculated by the red ball value. By calculating the probability within the normal distribution of colors for each pixel value of the input video image, only the pixel values having a predetermined threshold or more probability are filtered to filter out only the red ball image within the entire image. From the red ball image thus obtained, the size and position of the red ball are obtained.

일단 봉의 레드볼이 인식되면, 시스템은 볼의 위치인 x, y, z를 계산한다. 도 6은 레드볼의 움직임이 인터페이스에 의해 인식되는 영역인 작동 범위를 도시한 것으로, 작동 영역 밖의 움직임은 무시된다. 위치에 대한 정보를 나타내는 x, y, z의 값은 정규화되며 그 범위는 -1≤x≤1, -1≤y≤1 그리고 O≤z≤1로 설정된다. PC 카메라는 스크린의 중앙에 놓이는데, 레드볼이 작동 범위 영역 내에 있을 때만 레드볼의 움직임을 인식한다. 아래의 수학식 1은 레드볼의 x와 z 값을 계산한 것이다.Once the rod's red ball is recognized, the system calculates the ball's position, x, y, z. 6 illustrates an operating range in which the movement of the red ball is an area recognized by the interface, where movement outside the operating area is ignored. The values of x, y, and z representing information about the position are normalized and the ranges are set to −1 ≦ x ≦ 1, −1 ≦ y ≦ 1 and O ≦ z ≦ 1. The PC camera is centered on the screen, and it only detects the red ball's movement when it's in range. Equation 1 below is to calculate the x and z values of the red ball.

z' : 작동 범위에서 레드볼의 z 값 z ' : z value of the red ball in the operating range

r b : 레드볼의 반지름 (rmin≤rb≤rmax) r b : Red ball radius (r min ≤r b ≤r max )

r min : 레드볼의 최소 반지름 (z = 1일 때) r min : minimum radius of the red ball (when z = 1)

r max : 레드볼의 최대 반지름 (z = 0일 때) r max : Maximum radius of the red ball (when z = 0)

x' : 작동 범위에서 레드볼의 x 값 x ' : x value of the red ball in the operating range

x b : 스크린에서의 레드볼의 x 값 (O≤xb≤1) x b X value of the red ball on the screen (O≤x b ≤1)

FOV : 카메라의 시계 (Field Of View of the camera) FOV : field of view of the camera

레드볼의 y 값도 이와 유사하게 계산할 수 있다. 이런 식으로 작동 범위 내에서 봉의 움직이 추적되고 스크린에 투사된다.The red ball y value can be calculated similarly. In this way the movement of the rods within the operating range is tracked and projected onto the screen.

3D GUI 툴킷 (3D Graphic User Interface Toolkit)3D Graphic User Interface Toolkit

3D GUI 툴킷(120)은 대화형 전시 시스템을 개발하고자 하는 응용 프로그래머들을 위해 제공되는 것으로, 도 7에 그 기본 구조가 도시되어 있다. 이 툴킷은 3D 입력 수단에서 얻어진 데이터를 다루는 API(Application Program Interface)를 제공한다. 툴킷은 기본 3D 위짓(Widget)과 기본 위짓, 시각화 위짓 등으로 이루어진다. 가장 기본적인 위짓은 기본 위짓(Basic Widget : 710)으로, 이는 도 7에서 보는 바와 같이 다른 위짓들의 기본적인 특징을 제공하는데, 구체적으로는 라벨(720)과 버튼(730)과 같은 간편한 GUI 컴포넌트들이 제공된다. 이 컴포넌트들은 3차원 형식으로 나타내며 선택과 회전과 같은 3차원 포인팅도 가능하다.The 3D GUI toolkit 120 is provided for application programmers who wish to develop an interactive display system, the basic structure of which is shown in FIG. The toolkit provides an application program interface (API) for handling data obtained from 3D input means. The toolkit consists of a basic 3D widget, a basic widget and a visualization widget. The most basic widget is the Basic Widget (710), which provides the basic features of the other widgets as shown in FIG. 7, specifically, simple GUI components such as label 720 and button 730 are provided. . These components are presented in a three-dimensional format, and three-dimensional pointing such as selection and rotation is also possible.

3D(3차원) 윈도우 시스템은 기본 3D 위짓에서 확장될 수 있다. 이 시스템은 3차원으로 볼 수 있는 윈도우 창을 제공한다. 도 8에서 볼 수 있는 것과 같이 윈도우 관리자는 여러 개의 창을 띄우고, 3차원의 형식으로 윈도우를 정렬한다. 윈도우 관리자는 사용자의 시선의 움직임에 따라서 작동 윈도우를 변화시킨다. 만약에 사용자의 눈이 다른 윈도우를 바라보고 있으면 PC 카메라는 이 움직임을 감지하고 이전의 창은 비활성화된다. 이러한 과정은 도 8에 도시되어 있다. 윈도우(750)와 윈도우 관리자(760)와 같은 위짓은 3차원 윈도우 시스템을 이용한다.The 3D window system can be extended from the basic 3D widget. The system provides a window window that can be viewed in three dimensions. As shown in FIG. 8, the window manager displays several windows and arranges the windows in a three-dimensional form. The window manager changes the operation window according to the movement of the user's eyes. If the user's eyes are looking at another window, the PC camera detects this movement and the previous window is inactive. This process is illustrated in FIG. Widgets such as window 750 and window manager 760 use a three-dimensional window system.

모델뷰어(Model Viewer) 위짓(740) 또한 시선의 움직임을 추적하여 스크린에 물체를 변화시킨다. 도 9는 사용자의 초점에 의해 스크린 상에서 목적물이 변화하는 모델뷰어를 도시한 것으로, 만약에 사용자가 아래를 보거나 사물의 밑바닥을 향하고 있으면 모델뷰어는 시점을 바꾸어 도 9에 도시된 바와 같이 바닥을 보여 준다.The Model Viewer widget 740 also tracks the movement of the eye to change the object on the screen. FIG. 9 illustrates a model viewer in which an object changes on a screen due to the focus of the user. If the user looks down or faces the bottom of an object, the model viewer changes the viewpoint to show the floor as shown in FIG. 9. give.

3D 대화 방법3D conversation method

이하에서는, 본 발명에 따른 대화형 전시 시스템에서 채용하고 있는 3D 대화 방법을 설명한다.Hereinafter, the 3D conversation method employed in the interactive exhibition system according to the present invention will be described.

시선은 기본 대화 방법 중 하나로 시선 추적 시스템의 기본이 된다. 예를 들어 모델뷰어 위짓은 시선의 움직임에 따라서 사물의 위치와 방향을 바꾼다. 사용자가 사물을 다른 방향에서 보기를 원할 경우, PC 카메라는 시선의 움직임을 추적하며 시스템은 관점에 따라 사물을 보여준다.Eye gaze is one of the basic conversation methods and is the basis of eye tracking system. For example, the model viewer widget changes the position and direction of objects according to the movement of the eyes. If the user wants to see the object from a different direction, the PC camera tracks the eye's movement and the system shows the object from the perspective.

다른 기본 대화 방법은 봉을 이용하는 것이다. 사용자는 봉을 이용하여 다양한 행동을 표현할 수 있다. 행동은 박물관 안에서나 전시관에서 사용자의 행동을 반영할 수 있도록 자연스러워야 한다. 이하에서는 스크린에서 실행할 수 있는 3차원 연산이 어떤 것이 있는지 알아보고 연산의 결과를 나열한다. Another basic method of dialogue is to use rods. The user can express various actions using the rod. Behavior should be natural to reflect the user's behavior in a museum or exhibition hall. Below we will look at what three-dimensional operations can be performed on the screen and list the results of the operations.

① 선택① Select

이 동작은 마우스의 클릭에 해당하며, 사용자가 사물에 포인터를 놓고 1초 정도 기다리면 사물이 선택된다.This action corresponds to a mouse click, and when the user places the pointer on the object and waits about one second, the object is selected.

② 취소② Cancel

이 동작은 선택 동작을 취소시키며, 클릭된 마우스에서 손을 떼는 것과 같다. 사용자가 빨리 사물에서 포인터를 떼면, 이전의 선택은 취소가 된다.This action cancels the selection action and is like releasing the clicked mouse. If the user quickly releases the pointer from an object, the previous selection is canceled.

③ 실행 ③ Run

이 동작은 마우스의 더블 클릭에 해당하며, 명령어를 수행하거나 선택된 사물을 동작시키는 것을 의미한다. 사용자는 봉을 수직으로 흔든다. 봉을 빠르게 올렸다 내리는 것은 레드볼의 y 값을 변화시킨다.This operation corresponds to a double click of the mouse, which means to perform a command or to operate a selected object. The user shakes the rod vertically. Raising and lowering the rod quickly changes the red ball's y value.

④ 회전④ rotation

이 동작은 마우스를 드래깅하는 것에 해당하며, 스크린 상에 선택된 물체를 회전시켜 보여준다. 회전은 작동 범위의 중앙에 대하여 봉의 위치를 계산하는 것에 의해 수행된다.This action corresponds to dragging the mouse and rotating the selected object on the screen. Rotation is performed by calculating the position of the rod with respect to the center of the operating range.

⑤ 확대와 축소⑤ Zoom in and out

이 동작은 스크린 상에서 이미지를 확대하거나 축소하여 보여준다. 사용자는 확대 동작을 통하여 사물을 더 자세히 볼 수 있고, 축소 동작을 실행시킴으로서 사물의 전체적 모양을 볼 수도 있다. 확대 동작을 실행하기 위해서는 봉을 밀고, 축소 동작을 위해서는 봉을 잡아당기면 된다. 즉, 사용자는 확대와 축소 동작을 위해 z 축을 따라 봉을 움직이면 되는 것이다.This action enlarges or reduces the image on the screen. The user can see the object in more detail through the magnification operation, or can see the overall shape of the object by executing the reduction operation. Push the rod to perform the enlargement operation and pull the rod to perform the reduction operation. That is, the user only needs to move the rod along the z axis for the enlargement and reduction operation.

상기와 같은 새로운 대화 방법은 새 응용 프로그램이 만들어질 때마다 다르게 설계되고 구현될 수 있으며, 툴킷에 있는 함수를 이용하여 이러한 방법을 구현한다.This new conversational method can be designed and implemented differently each time a new application is created, using the functions in the toolkit to implement this method.

실험Experiment

본 발명에서 제안하는 시스템의 성능을 측정하기 위해 다음과 같은 실험이 수행되었다. 스크린에 각각 노란색과 빨간색인 두 개의 원뿔(cone)이 있다. 도 10과 같이, 사용자로 하여금 노란 원뿔을 빨간 원뿔 쪽으로 이동하도록 하였다. 이 과정은 사물의 선택, 이동, 회전으로 이루어진다. In order to measure the performance of the system proposed in the present invention, the following experiment was performed. There are two cones on the screen, yellow and red, respectively. As shown in FIG. 10, the user was allowed to move the yellow cone toward the red cone. This process consists of selecting, moving, and rotating things.

상기 작업을 완성하는 데 걸리는 시간을 측정한 결과가 도 11과 아래 표 1에 나타나 있다. 도 11a 및 도 11b는 각각 3D(3차원) 마우스와 봉을 이용하여 작업을 마치는데 걸리는 수행 시간을 도시한 그래프이고, 표 1은 평균 수행 시간을 나타낸다. 여기서, 노란 원뿔을 선택하는 데 걸리는 시간은 T+S, 이 노란 원뿔을 빨간 원뿔의 위치로 옮기는 데 걸리는 시간은 T, 노란 원뿔과 빨간 원뿔이 일치하도록 노란 원뿔을 회전하는 데 걸리는 시간은 R로 표시되었다. 이 작업은 3차원 마우스와 본 발명에 따른 시스템에 대해 각각 20 회씩 수행되었다. The results of measuring the time taken to complete the operation are shown in FIG. 11 and Table 1 below. 11A and 11B are graphs showing execution time for finishing work using a 3D mouse and a rod, respectively, and Table 1 shows average execution time. Here, the time taken to select the yellow cone is T + S, the time taken to move this yellow cone to the position of the red cone is T, and the time it takes to rotate the yellow cone to match the yellow cone and the red cone is R. Displayed. This operation was performed 20 times for each of the three-dimensional mouse and the system according to the present invention.

T+ST + S TT RR 3D 마우스3D mouse 3.553.55 2.202.20 2.572.57 Rod 4.144.14 2.342.34 3.403.40

이 실험의 결과는 본 발명에 따른 봉을 사용했을 때 사물을 옮기고 회전시키는 데 걸리는 시간이 거의 3D 마우스 만큼이라는 것을 보여준다. 봉이 사용되었을 때, 수행 시간이 다소 불규칙적이며, 평균 수행이 약간 더 오래 걸리기는 하다. 그러나, 봉을 이용하여 사물을 이동시키는 과정은, 3D 마우스와 비교해 볼 때, 수행 시간은 비슷한 반면 실행이 간편하다는 장점이 있다. The results of this experiment show that the time it takes to move and rotate an object is almost as much as a 3D mouse when using the rod according to the invention. When rods are used, the run time is somewhat irregular and the average run takes slightly longer. However, the process of moving an object using a rod has an advantage that the execution time is similar but simple to execute, compared to a 3D mouse.

본 발명의 적용 사례Application examples of the present invention

본 발명에 따른 대화형 전시 시스템은 많은 분야에 적용될 수 있다. 많은 박물관들이 디지털화되면서 많은 전시품들이 컴퓨터를 이용해 전시되고 있다. 반면에, 박물관을 방문하는 사람들은 효율적으로 컴퓨터를 사용하지 못하므로, 본 발명에 따른 대화형 전시 시스템은 디지털 박물관에 매우 적합하다.The interactive exhibition system according to the present invention can be applied to many fields. As many museums are digitized, many exhibits are displayed using computers. On the other hand, visitors to the museum do not use computers efficiently, so the interactive exhibition system according to the present invention is well suited for digital museums.

도 12는 본 발명에 따른 대화형 전시 시스템을 디지털 박물관에 적용한 실시예를 도시한 것이다. 박물관 방문객(1210)은 전시품을 관람하고 관련된 정보를 찾아 보기 위해 스크린(1240) 앞에 서 있다. PC 카메라(1230)는 스크린의 꼭대기에 장착되어 있다. 방문객들은 봉(1220)을 잡고 스크린에 있는 사물을 바라보며 봉을 움직인다. 이 봉을 이용하여 스크린 상의 사물을 선택하고 회전하며 실행할 수 있으며, 확대와 축소도 할 수 있다.12 illustrates an embodiment in which the interactive exhibition system according to the present invention is applied to a digital museum. Museum visitor 1210 stands in front of screen 1240 to view the exhibits and find related information. PC camera 1230 is mounted on top of the screen. Visitors grab rod 1220 and move it while looking at objects on the screen. The rod can be used to select, rotate and execute objects on the screen, and to zoom in and out.

또 다른 예로, 고대 한국에서 개발된 악기인 양도위(Yangdowi)를 대화형 전시 시스템을 사용하여 재현할 수 있다. 이 악기는 현존하지 않으므로 우리는 이것을 직접 다룰 수 없다. 그러나 기록에 근거하여 3차원 디지털 모델의 형태로 이 악기를 재현할 수 있다.As another example, Yangdowi, a musical instrument developed in ancient Korea, can be reproduced using an interactive exhibition system. This instrument is not present and we cannot deal with it directly. However, based on the records, the instrument can be reproduced in the form of a three-dimensional digital model.

본 발명에 따른 대화형 전시 시스템을 이용하면, 이것을 보고 동작시킬 수 있다. PC 카메라가 시선의 움직임을 따라가면 3차원 모델이 시선의 움직임을 따라 변형되고 보여 진다. 악기의 3차원 모델을 회전시키고 다루어 보기 위해 봉을 사용할 수 있다. 또한, 봉을 사용해 악기와 관련된 더 많은 정보도 찾아볼 수 있다. 사용자의 행동은 선택, 취소, 실행, 회전, 확대, 축소가 될 수 있을 것이다. 이 시스템은 양도위에 대한 기초적인 지식을 설명해주는 만화 세션을 보여줄 수도 있으며, 악기의 구조나 작동법 등도 보여줄 수 있다. 따라서, 사용자는 3차원 모델에 의해 제공되는 하이퍼링크와 메뉴를 통해 더 자세한 정보를 찾을 수 있다.By using the interactive exhibition system according to the present invention, it can be viewed and operated. As the PC camera follows the movement of the line of sight, the 3D model is transformed and shown along with the line of sight. You can use the rod to rotate and manipulate the three-dimensional model of the instrument. You can also use the rods to find more information about the instrument. The user's actions may be select, cancel, execute, rotate, zoom in, zoom out. The system can also show cartoon sessions that explain the basic knowledge of the assignments, as well as the structure and operation of the instrument. Thus, the user can find more detailed information through the hyperlinks and menus provided by the three-dimensional model.

본 발명에 따르면, 인간과 컴퓨터와의 상호작용을 간단하고 직관적인 방법으로 제시하여 간편한 대화형 전시 시스템을 구현할 수 있으므로, 3D 마우스를 사용한 시스템과는 달리 사용자에게 컴퓨터에 대한 사전 지식이 없어도 쉽게 사용할 수 있다. According to the present invention, it is possible to implement a simple interactive display system by presenting a human-computer interaction in a simple and intuitive manner, unlike a system using a 3D mouse, the user can easily use the computer without prior knowledge of the computer. Can be.

또한, 스크린에 3차원 영상을 보여주기 위해 어떤 특별한 장비도 요구되지 않는다. 사용자의 시선의 움직임과 봉만으로 3차원 영상을 보여주고 다루는데 필요한 GUI 동작을 수행할 수 있다. In addition, no special equipment is required to display three-dimensional images on the screen. The GUI operation required to display and manipulate 3D images can be performed using only the movement of the eyes and the rods of the user.

더욱이, 본 발명에 따른 봉은, 봉의 정확한 위치 파악을 위해 마그네틱 센서를 이용하는 방법이나 3D 마우스에 비해 저렴하면서, 속도 면에서 볼 때 3D 마우스에 많이 뒤지지 않으므로 대화형 전시 시스템에 사용하기에 효율적이다.Furthermore, the rod according to the present invention is cheaper than a 3D mouse or a method using a magnetic sensor for accurate positioning of the rod, and is efficient for use in an interactive display system since it does not lag much behind the 3D mouse in terms of speed.

도 1은 본 발명에 따른 전시 시스템의 구조를 도시한 도면,1 is a view showing the structure of an exhibition system according to the present invention;

도 2는 시선 추적을 위한 이미지 처리 과정을 도시한 도면,2 is a diagram illustrating an image processing process for eye tracking;

도 3은 시선 추적의 범위를 도시한 도면,3 is a diagram illustrating a range of eye tracking;

도 4는 본 발명에 따른 봉(Baton)을 도시한 도면,4 is a view showing a baton according to the present invention;

도 5는 각각 봉두, 헤드 색의 표준 공급 산정, 헤드 인증을 도시한 도면,5 is a diagram showing the peak, the standard supply calculation of the head color, head certification, respectively,

도 6은 행동 인식의 작동 범위를 도시한 도면,6 is a diagram illustrating an operation range of behavior recognition;

도 7은 3D GUI 툴킷의 기본 구조를 도시한 도면,7 is a view showing the basic structure of the 3D GUI toolkit,

도 8은 3D 윈도우 시스템에서 윈도우 관리자의 관리를 도시한 도면,8 is a diagram illustrating management of a window manager in a 3D window system;

도 9는 사용자의 초점에 의해 스크린 상에서 목적물이 변화하는 모델뷰어를 도시한 도면, 9 illustrates a model viewer in which an object is changed on a screen by a user's focus;

도 10은 본 발명의 성능 측정을 위한 작동 연습의 예를 도시한 도면,10 shows an example of an operation practice for measuring the performance of the present invention;

도 11은 각각 3D 마우스와 봉을 이용한 작업 시간을 도시한 그래프,11 is a graph showing the working time using a 3D mouse and a rod, respectively;

도 12는 본 발명을 디지털 박물관에 적용한 경우를 도시한 도면.12 is a diagram illustrating a case where the present invention is applied to a digital museum.

Claims (5)

삭제delete 컴퓨터 스크린에 전시물을 디스플레이하는 대화형 전시 시스템에 있어서,In an interactive display system for displaying an exhibit on a computer screen, 레드볼(Red Ball)과 블루밴드(Blue Band)를 가진 봉; 및Rods with Red Ball and Blue Band; And 상기 스크린의 상부에 장착되어 상기 봉을 들고 있는 사용자를 촬영하는 카메라;를 구비하고,A camera mounted on an upper portion of the screen to photograph a user holding the rod; 상기 카메라가 촬영하여 제공한 이미지에서 상기 사용자의 눈의 위치 및 명암을 분석하여 시선의 방향을 계산하는 시선 추적 모듈과, 상기 이미지에서 상기 봉의 수평 및 수직 위치를 계산하고 상기 이미지에 나타난 레드볼의 크기를 이용하여 상기 스크린과 상기 봉과의 거리를 계산함으로써 상기 봉의 움직임을 추적하는 행동 인식 모듈을 포함하는 3D 입력 모듈; 및A gaze tracking module that calculates the direction of the gaze by analyzing the position and contrast of the user's eyes in the image photographed and provided by the camera, and calculates the horizontal and vertical positions of the rods in the image, A 3D input module including a behavior recognition module for tracking the movement of the rod by calculating a distance between the screen and the rod using a size; And 상기 3D 입력 모듈로부터 상기 시선의 방향 및 상기 봉의 움직임을 입력 받아 그에 따라 전시물의 디스플레이 상태를 변경하는 3D GUI 툴킷;을 포함하는 컴퓨터를 구비하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템.Interactive display system using a multi-modal user interface, characterized in that it comprises a; 3D GUI toolkit for receiving the direction of the gaze and the movement of the rod from the 3D input module to change the display state of the exhibit accordingly . 제 2 항에 있어서,The method of claim 2, 상기 3D GUI 툴킷은 상기 시선의 움직임에 따라 활성 윈도우를 변경하는 윈도우 관리자 위짓과, 상기 시선의 움직임에 따라 상기 전시물의 시점(View Point)를 변화시켜 다시 디스플레이하는 모델뷰어 위짓을 포함하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템.The 3D GUI toolkit includes a window manager widget for changing an active window according to the movement of the gaze, and a model viewer widget for changing and displaying the view point of the exhibit according to the movement of the gaze. Interactive exhibition system using multi-modal user interface. 제 2 항에 있어서,The method of claim 2, 상기 시선 추적 모듈은, 연산 과정을 줄일 수 있도록 상기 이미지를 조정하고, 검정과 흰색의 이미지로 변환하고, 상기 변환 과정에서 도출된 초기값을 이용하여 상기 이미지를 단순화하여, 상기 단순화된 이미지의 가장 어두운 부분을 상기 사용자의 눈의 위치로 판단하는 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템.The gaze tracking module adjusts the image to reduce a calculation process, converts the image into a black and white image, and simplifies the image by using an initial value derived from the conversion process, thereby simulating the image of the simplified image. Interactive display system using a multi-modal user interface, characterized in that the dark part is determined by the position of the user's eyes. 제 2 항에 있어서,The method of claim 2, 상기 스크린과 상기 봉과의 거리는 최소값이 0이고 최대값이 1로서 수식 에 의해 계산되며, 여기서 r b 는 상기 이미지에 나타난 레드볼의 반지름, r min 은 거리가 최대값일 때의 레드볼의 최소 반지름, r max 은 거리가 최소값일 때의 레드볼의 최대 반지름인 것을 특징으로 하는 멀티모달 사용자 인터페이스를 이용한 대화형 전시 시스템.The distance between the screen and the rod is expressed by a minimum value of 0 and a maximum value of 1 R b is the radius of the red ball shown in the image, r min is the minimum radius of the red ball when the distance is the maximum value, and r max is the maximum radius of the red ball when the distance is the minimum value. Interactive display system using multi-modal user interface.
KR10-2002-0068459A 2002-11-06 2002-11-06 Interactive exhibition system using multi-modal user interface KR100491432B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0068459A KR100491432B1 (en) 2002-11-06 2002-11-06 Interactive exhibition system using multi-modal user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0068459A KR100491432B1 (en) 2002-11-06 2002-11-06 Interactive exhibition system using multi-modal user interface

Publications (2)

Publication Number Publication Date
KR20040040119A KR20040040119A (en) 2004-05-12
KR100491432B1 true KR100491432B1 (en) 2005-05-25

Family

ID=37337612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0068459A KR100491432B1 (en) 2002-11-06 2002-11-06 Interactive exhibition system using multi-modal user interface

Country Status (1)

Country Link
KR (1) KR100491432B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516278B1 (en) 2022-06-08 2023-03-30 (주)이브이알스튜디오 User terminal for providing intuitive control environment on media pannel, server, and display apparatus

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100659888B1 (en) * 2005-01-07 2006-12-20 엘지전자 주식회사 3d video processing system of mobile device
KR100611680B1 (en) * 2005-06-28 2006-08-14 한국과학기술연구원 Multi modal interaction-based remote meeting system
KR100845274B1 (en) * 2006-11-06 2008-07-09 주식회사 시공테크 Apparatus and method for generating user-interface based on face recognition in a exhibition system
KR200454004Y1 (en) * 2009-02-13 2011-06-10 제드테크(주) apparatus for cleaning panel
KR20160100749A (en) * 2015-02-16 2016-08-24 (주)이지위드 Exhibition management system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000056563A (en) * 1999-02-23 2000-09-15 김재희 gaze detection system
US6157382A (en) * 1996-11-29 2000-12-05 Canon Kabushiki Kaisha Image display method and apparatus therefor
KR20020031188A (en) * 2000-07-13 2002-04-26 요트.게.아. 롤페즈 Pointing direction calibration in video conferencing and other camera-based system applications
KR20020035986A (en) * 2000-11-07 2002-05-16 김효근 Method of fabricating gate dielectric for use in semiconductor device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157382A (en) * 1996-11-29 2000-12-05 Canon Kabushiki Kaisha Image display method and apparatus therefor
KR20000056563A (en) * 1999-02-23 2000-09-15 김재희 gaze detection system
KR20020031188A (en) * 2000-07-13 2002-04-26 요트.게.아. 롤페즈 Pointing direction calibration in video conferencing and other camera-based system applications
KR20020035986A (en) * 2000-11-07 2002-05-16 김효근 Method of fabricating gate dielectric for use in semiconductor device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
얼굴의 3차원 위치 및 움직임 추적에 의한 시선 위치 추적 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516278B1 (en) 2022-06-08 2023-03-30 (주)이브이알스튜디오 User terminal for providing intuitive control environment on media pannel, server, and display apparatus
KR20230168951A (en) 2022-06-08 2023-12-15 (주)이브이알스튜디오 System for controlling display apparatus based on gaze direction and motion direction of user terminal
KR20230168950A (en) 2022-06-08 2023-12-15 (주)이브이알스튜디오 User terminal for providing intuitive control environment based on gaze direction according to gps information, server, and display apparatus

Also Published As

Publication number Publication date
KR20040040119A (en) 2004-05-12

Similar Documents

Publication Publication Date Title
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US11954268B2 (en) Augmented reality eyewear 3D painting
US8552976B2 (en) Virtual controller for visual displays
EP4172726A1 (en) Augmented reality experiences using speech and text captions
EP4327185A1 (en) Hand gestures for animating and controlling virtual and graphical elements
US20030004678A1 (en) System and method for providing a mobile input device
JPH08315154A (en) Gesture recognition system
KR20230017849A (en) Augmented Reality Guide
WO2022006116A1 (en) Augmented reality eyewear with speech bubbles and translation
US7982751B2 (en) Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop
WO2021097600A1 (en) Inter-air interaction method and apparatus, and device
US11195341B1 (en) Augmented reality eyewear with 3D costumes
EP3807745A1 (en) Pinning virtual reality passthrough regions to real-world locations
WO2022005733A1 (en) Augmented reality eyewear with mood sharing
KR100491432B1 (en) Interactive exhibition system using multi-modal user interface
Guliani et al. Gesture controlled mouse navigation: Hand landmark approach
Upasana et al. Virtual mouse with RGB colored tapes
WO2024049596A1 (en) Recording following behaviors between virtual objects and user avatars in ar experiences
CN116934841A (en) Positioning method of hand area and display device
Oliveira et al. Interaction in an immersive multi-projection system based on light wand like devices
Chandra Gope et al. Fingertip Interaction With Large Screen Display System Using Virtual Touch Scre

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081118

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee