KR101102953B1 - Large scale interactive display system based multi touch and method of the same - Google Patents
Large scale interactive display system based multi touch and method of the same Download PDFInfo
- Publication number
- KR101102953B1 KR101102953B1 KR1020100026964A KR20100026964A KR101102953B1 KR 101102953 B1 KR101102953 B1 KR 101102953B1 KR 1020100026964 A KR1020100026964 A KR 1020100026964A KR 20100026964 A KR20100026964 A KR 20100026964A KR 101102953 B1 KR101102953 B1 KR 101102953B1
- Authority
- KR
- South Korea
- Prior art keywords
- infrared
- screen
- packet
- generating
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
본 발명은 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법에 관한 것으로, 스크린 전면의 천장 또는 바닥에 적외선 LED 어레이 바(IR-LEDs Array Bar)를 설치하여 사용자가 인터랙션할 수 있는 인터랙티브 막(interactive surface)을 생성함으로써, 사용자가 콘텐츠와 인터랙션(interaction)을 자유롭게 할 수 있는 시스템을 제공한다. 본 발명에 따르면, 사용자가 디스플레이에서 멀리 있을 때에는 보통의 광고판 같은 역할을 하지만 사용자가 인터랙티브 영역에 들어오면 인터랙티브 막에서 사용자가 인터랙션을 할 수 있게 바뀌게 된다. 이를 통해, 개인 또는 다수의 사람이 다양하게 콘텐츠를 즐길 수 있다.
본 발명에 따른 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템은 영상을 디스플레이하는 스크린과; 상기 스크린의 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 적외선 LED 어레이 바와; 상기 스크린에 영상을 투영하는 프로젝터와; 상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 촬영하는 적외선 카메라와; 상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 서버; 및 상기 서버로부터 전송받은 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 상기 프로젝트를 통해 상기 스크린에 실행하는 클라이언트 PC;를 포함하여 구성하고 있다.The present invention relates to a large interactive display system and a method based on a multi-touch, and an interactive surface that can be interacted with by installing an infrared LED array bar (IR-LEDs array bar) on the ceiling or floor of the front of the screen. ), A system that allows a user to interact with content freely. According to the present invention, when the user is far from the display, it acts like a normal billboard but when the user enters the interactive area, the interactive screen is changed to allow the user to interact. Through this, an individual or a plurality of people can enjoy various contents.
The multi-touch large interactive display system according to the present invention comprises a screen for displaying an image; An infrared LED array bar generating infrared light by generating infrared rays in front of the screen; A projector for projecting an image onto the screen; An infrared camera for photographing infrared light reflected when a human body or an object comes into contact with the interactive film; A server configured to extract a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generate a packet generating an interaction at a corresponding point; And a client PC analyzing the packet received from the server and executing the content according to the packet on the screen through the project.
Description
본 발명은 멀티 터치 기반의 대형 인터랙티브(interactive) 디스플레이 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 사용자가 스크린에서 멀리 떨어져 있으면 디스플레이 기능만 하고, 사용자가 스크린의 인터랙티브 영역(interactive Zone)에 들어오면 사용자에게 콘텐츠와 인터랙션(interaction)을 할 수 있는 기능을 제공하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법에 관한 것이다.
The present invention relates to a multi-touch based large interactive display system and method thereof. More specifically, the present invention relates to a large interactive display system and a method thereof. The present invention relates to a multi-touch large interactive display system and a method for providing a user with a function of interacting with content.
최근, 다양한 유비쿼터스 컴퓨팅 기술들이 제공하는 인터랙티브 디스플레이는 사용자에게 다양한 인터렉션 방식을 제공하고 있다. 즉, 보이지 않는 컴퓨팅으로 불리는 유비쿼터스 컴퓨팅 환경에서는 키보드나 마우스를 이용하는 기존의 명시적인 인터랙션(explicit interaction) 이외에, 자연적으로 발생하는 사용자의 행동이나 센서들에 의해 파악되는 사용자의 동작을 통한 암시적인 인터랙션(implicit interaction)방식이 요구되어 지고 있다. Recently, interactive displays provided by various ubiquitous computing technologies have provided various interaction methods to users. In other words, in a ubiquitous computing environment called invisible computing, in addition to the existing explicit interaction using a keyboard or a mouse, implicit interactions through user's actions grasped by naturally occurring user's actions or sensors ( Implicit interaction method is required.
인간이 시각, 청각, 촉각 등의 여러 감각을 통해 의사 소통하는 것처럼 유비쿼터스 컴퓨팅 환경의 인간-컴퓨터 상호작용에서는 다중기기로부터의 멀티 모달리티(modality)를 융합하여 종합적으로 분석하는 것이 더욱 중요해졌다. 예를 들어, 손 터치나 단순한 입력 장치만을 이용하여 사용자의 의도를 파악하는 것보다 사용자의 손의 움직임, 몸의 움직임, 얼굴 표정, 시선 방향 등을 함께 분석함으로써 전체적인 신뢰도를 높일 수 있다.Just as humans communicate through various senses such as sight, hearing, and touch, it is more important to synthesize and analyze multimodality from multiple devices in the human-computer interaction of the ubiquitous computing environment. For example, the overall reliability can be improved by analyzing the user's hand movements, body movements, facial expressions, gaze direction, etc. rather than grasping the user's intention using only a hand touch or a simple input device.
종래 기술에는 단순한 터치 방식의 디스플레이만을 제공하거나 다양한 센서 장치를 이용하여 사용자의 의도를 파악한다. 거리 센서를 이용한 Gossip Wall 등이 있고, 다양한 카메라를 이용하여 사용자의 위치 정보를 파악하는 공유형 인터랙티브 앰비언트 디스플레이 시스템이 있다. In the prior art, only a simple touch-type display is provided or various sensor devices are used to grasp a user's intention. There is a Gossip Wall using a distance sensor, and there is a shared interactive ambient display system that uses a variety of cameras to determine user location information.
구체적으로, 독일 프라운호퍼 연구소에서 개발한 Gossip Wall이 있다. 사용자와 디스플레이와의 거리가 아주 먼 앰비언트 영역에 있으면 일반적인 정보를 디스플레이하고, 사용자가 디스플레이에 좀 더 접근하게 되어 디스플레이가 사용자를 인지하게 되면 해당 사용자에게 적합한 콘텐츠를 보여주게 된다. 즉, 사용자가 디스플레이와 아주 근접한 인터랙션 영역으로 접근하게 되면, 모바일 단말기를 통해 보다 세부적인 정보를 얻을 수 있고 외부와의 연결도 가능하도록 되어 있다. Specifically, there is a Gossip Wall developed by the Fraunhofer Institute in Germany. When the distance between the user and the display is far away from the ambient area, general information is displayed, and when the user approaches the display more and the display recognizes the user, the appropriate content is displayed for the user. In other words, when the user approaches the interaction area that is very close to the display, the mobile terminal can obtain more detailed information and connect with the outside.
이와 같이, 상기 Gossip Wall은 사용자가 거리 센서 방식을 채택한 모바일 단말기를 이용하여 디스플레이에서 정보를 얻고, 모바일 단말기를 통해 사용자의 위치를 파악하게 된다. 하지만 상기 Gossip Wall은 사용자가 모바일 단말기를 항상 휴대하고 있어야만 사용자의 추적이 가능하고, 디스플레이 장치가 다양하게 제공되지 못하는 등의 문제점이 있다. As such, the Gossip Wall obtains information from the display using a mobile terminal adopting a distance sensor method, and determines the location of the user through the mobile terminal. However, the Gossip Wall has a problem such that the user can keep track of the user only when the user always carries the mobile terminal, and various display devices are not provided.
한편, Toronto 대학의 공유형 인터랙티브 앰비언트 디스플레이 시스템은 사용자와 디스플레이 간의 근접성에 따라 네 단계로 나누어 각기 다른 인터랙션을 할 수 있도록 설계하였다. 하지만 이 시스템은 사용자가 여러 타입의 인식 장치를 착용해야하는 큰 문제점이 있다. The shared interactive ambient display system at the University of Toronto, meanwhile, is designed to allow for different interactions in four stages, depending on the proximity between the user and the display. However, this system has a big problem that the user has to wear several types of recognition devices.
또한, 종래 기술에 따른 디바이스 장치를 이용한 인식 방식을 채택한 인터랙션 방식은 사용자에게 자연스러운 인터랙션을 제공하지 못하는 문제점이 있다. 그리고 센서인식 방식을 통한 방법이기에 여러 사용자가 디바이스를 장착해야만 하기 때문에 다 같이 참여할 수 없다는 한계점도 발생한다.
In addition, the interaction method adopting a recognition method using a device device according to the prior art has a problem that can not provide a natural interaction to the user. In addition, the sensor recognition method has a limitation in that multiple users must be equipped with the device and thus cannot participate together.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 스크린의 전면에 인터랙티브 영역(interactive Zone)을 제공하여 사용자가 콘텐츠와 인터랙션(interaction)을 자유롭게 할 수 있도록 한 멀티 터치 기반의 대형 인터랙티브(interactive) 디스플레이 시스템 및 그 방법을 제시하는 데 있다.The technical problem to be solved by the present invention is to provide an interactive zone on the front of the screen so that the user can freely interact with the content (large interactive based on multi-touch) interactive display system and method thereof.
또한, 본 발명이 이루고자 하는 다른 기술적 과제는 사용자가 스크린에서 멀리 떨어져 있으면 디스플레이 기능만 하고, 사용자가 스크린의 인터랙티브 영역에 들어오면 사용자에게 콘텐츠와 인터랙션을 할 수 있는 기능을 제공하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is a large multi-touch-based large size that provides the ability to interact with the content when the user enters the interactive area of the screen only when the user is away from the screen and the user enters the interactive area of the screen An interactive display system and method thereof are provided.
또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 스크린 전면의 천장 또는 바닥에 적외선 LED 어레이 바(IR-LEDs Array Bar)를 설치하여 사용자가 인터랙션할 수 있는 인터랙티브 막(interactive surface)을 생성한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법을 제시하는 데 있다.In addition, another technical problem to be achieved by the present invention is to install an infrared LED array bar (IR-LEDs Array Bar) on the ceiling or floor of the front of the screen to create a multi-touch interactive surface (interactive) that the user can interact with The present invention provides a large interactive display system and a method thereof.
또한, 본 발명이 이루고자 하는 또 다른 기술적 과제는 유비쿼터스 엠비언트 환경에서 사용자에게 다양한 멀티 터치를 제공함으로써, 인식을 위한 디바이스 장치의 도움없이 사용자의 단순한 터치 동작만으로 인터랙션 할 수 있는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법을 제시하는 데 있다.
In addition, another technical problem to be achieved by the present invention is to provide a multi-touch to the user in the ubiquitous ambient environment, a multi-touch based large interactive display that can be interacted with a simple touch operation of the user without the help of the device device for recognition A system and method are provided.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The problem of the present invention is not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 기술적 과제를 해결하기 위한 본 발명은 「멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템에 있어서,
영상을 디스플레이하는 스크린과;
상기 스크린의 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 적외선 LED 어레이 바와;
상기 스크린에 영상을 투영하는 프로젝터와;
상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 촬영하는 적외선 카메라와;
상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 서버; 및
상기 서버로부터 전송받은 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 클라이언트 PC;
를 포함하되,
상기 적외선 LED 어레이 바는 복수 개의 적외선 LED(IR-LEDs)를 일정 간격으로 배열하여 구성되고, 상기 적외선 LED 양쪽에 격벽이 형성된 구조로서, 상기 스크린의 전면 상단 또는 천장에 설치되고, 상기 프로젝터와 상기 적외선 카메라는 상기 적외선 LED 어레이 바와 일정 거리만큼 떨어진 상단 또는 천장에 설치된 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템.」을 제공함을 과제 해결 수단으로 한다.
The present invention for solving the above technical problem is a "large interactive display system based on multi-touch,
A screen for displaying an image;
An infrared LED array bar generating infrared light by generating infrared rays in front of the screen;
A projector for projecting an image onto the screen;
An infrared camera for photographing infrared light reflected when a human body or an object comes into contact with the interactive film;
A server configured to extract a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generate a packet generating an interaction at a corresponding point; And
A client PC that analyzes the packet received from the server and executes the content according to the packet on the screen through a project;
Including,
The infrared LED array bar is configured by arranging a plurality of infrared LEDs (IR-LEDs) at regular intervals, and a partition wall is formed on both sides of the infrared LEDs, and is installed on the top or ceiling of the screen, and the projector and the The infrared camera is a multi-touch-based large interactive display system, characterized in that the infrared LED array bar is installed on the top or the ceiling separated by a predetermined distance.
그리고 본 발명은, 「멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템에 있어서,
영상을 디스플레이하는 스크린과;
상기 스크린의 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 적외선 LED 어레이 바와;
상기 스크린에 영상을 투영하는 프로젝터와;
상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 촬영하는 적외선 카메라와;
상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 서버; 및
상기 서버로부터 전송받은 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 클라이언트 PC;
를 포함하되,
상기 적외선 LED 어레이 바는 복수 개의 적외선 LED(IR-LEDs)를 일정 간격으로 배열하여 구성되고, 상기 적외선 LED 양쪽에 격벽이 형성된 구조로서, 상기 스크린의 전면 하단 또는 바닥에 설치되고, 상기 프로젝터와 상기 적외선 카메라는 상기 스크린의 후면 쪽 하단 또는 바닥에 설치되고,
상기 스크린은 유리창 또는 아크릴판 위에 리어 스크린(Rear Screen)으로 구성되는 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템.」을 제공함을 다른 과제 해결 수단으로 한다.
And the present invention, "In the large interactive display system based on multi-touch,
A screen for displaying an image;
An infrared LED array bar generating infrared light by generating infrared rays in front of the screen;
A projector for projecting an image onto the screen;
An infrared camera for photographing infrared light reflected when a human body or an object comes into contact with the interactive film;
A server configured to extract a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generate a packet generating an interaction at a corresponding point; And
A client PC that analyzes the packet received from the server and executes the content according to the packet on the screen through a project;
Including,
The infrared LED array bar is configured by arranging a plurality of infrared LEDs (IR-LEDs) at regular intervals, and a partition wall is formed on both sides of the infrared LEDs, and is installed at the bottom or bottom of the front of the screen, and the projector and the An infrared camera is installed at the bottom or bottom of the rear side of the screen,
The screen is a multi-touch-based large interactive display system characterized in that the rear screen (Rear Screen) on a glass window or an acrylic plate.
또한 본 발명은 「멀티 터치 기반의 대형 인터랙티브 디스플레이 방법에 있어서,
(a) 스크린 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 단계와;
(b) 상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 적외선 카메라로 촬영하는 단계와;
(c) 상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 단계; 및
(d) 상기 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 단계;
를 포함하되,
상기 (c)단계에서 인터랙션 위치의 좌표값을 추출하는 방법은,
(c1) 상기 적외선 카메라로부터 획득한 정보를 영상 이진화를 통하여 LED 빛이 반사된 영역과 그렇지 않은 영역으로 분리하는 이진화 단계와;
(c2) 상기 반사된 영역을 묶어주는 블랍 단계와;
(c3) 상기 블랍을 통해 묶인 영역들에 대해 번호를 지정하는 라벨링 단계와;
(c4) 상기 라벨링 이후 호모그래피 행렬을 이용하여 신호 왜곡을 보정하는 호모그래피 단계와;
(c5) 상기 적외선 카메라가 보는 화면에서 영상의 각 모서리 4군데의 좌표를 입력하여 4개의 점으로 이루어진 사각형 내의 이미지를 새로운 4개의 점으로 이루어진 사각형으로 변환하여 왜곡을 보정하는 윈도우 API 좌표보정 단계; 및
(c6) 상기 인체나 물체의 인터랙션 위치를 파악하여 좌표값을 추출하는 단계;
를 포함하는 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 방법.」을 제공함을 또 다른 과제 해결 수단으로 한다.
In addition, the present invention "In the multi-interactive large interactive display method,
(a) generating infrared film by generating infrared rays in front of the screen;
(b) photographing infrared light reflected by a human body or an object in contact with the interactive film with an infrared camera;
(c) extracting a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generating a packet generating an interaction at a corresponding point; And
(d) analyzing the packet and executing content according to the packet on the screen through a project;
Including,
The method of extracting the coordinate value of the interaction position in the step (c),
(c1) a binarization step of separating the information obtained from the infrared camera into an area where the LED light is reflected and an area that is not through image binarization;
(c2) a blob to bind the reflected area;
(c3) labeling the numbered areas bounded by the blobs;
(c4) a homography step of correcting signal distortion using a homography matrix after the labeling;
(c5) a window API coordinate correction step of correcting distortion by inputting coordinates of four corners of an image on a screen viewed by the infrared camera and converting an image in a quadrangle of four points into a quadrangle of four points; And
(c6) extracting coordinate values by identifying interaction positions of the human body or an object;
It is another object solving means to provide a multi-touch-based large interactive display method characterized in that it comprises a.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
본 발명에 따르면, 사용자가 스크린에서 멀리 떨어져 있으면 디스플레이 기능만 하고, 사용자가 스크린의 인터랙티브 영역에 들어오면 사용자에게 콘텐츠와 인터랙션을 할 수 있는 기능을 제공할 수 있다.According to the present invention, when the user is far from the screen, only the display function may be provided, and when the user enters the interactive area of the screen, the user may be provided with a function to interact with the content.
또한, 개인 또는 대규모의 군중이 다양하게 콘텐츠를 즐길 수 있는 인터랙티브 앰비언트 디스플레이 환경으로도 제공이 가능하다.In addition, it can be provided as an interactive ambient display environment where individual or large crowds can enjoy various contents.
또한, 다양한 인터랙션 정보들을 전처리 과정을 통해 인식하게 되며 스크린의 크기가 커지면 다수의 사용자가 함께 사용이 가능하다.In addition, various interaction information is recognized through a preprocessing process, and as the size of the screen increases, a plurality of users can use it together.
또한, 작은 공간에서 대규모 공간까지 아무런 제약 없이 운용 가능한 확장성을 가지고 있다.In addition, it has scalability that can be operated from a small space to a large space without any restrictions.
또한, 스크린을 터치함으로써 사용자가 직접 다양한 콘텐츠를 직접 몸으로 느끼고 체험할 수 있다.
In addition, by touching the screen, the user can directly feel and experience various contents.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 바람직한 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템을 개략적으로 나타낸 구성도
도 2는 사용자가 콘텐츠와 인터랙션 할 수 있는 인터랙티브 막(Interactive Surface)을 나타낸 도면
도 3은 적외선 LED 어레이 바(IR-LEDs Array Bar)를 이용한 빛의 직진성 향상 원리를 개략적으로 나타낸 도면
도 4 및 도 5는 적외선 LED 어레이 바(IR-LEDs Array Bar)의 제품 사진과 설치 모습의 사진
도 6은 적외선 카메라를 통해 적외선 빛이 손에 반사되어 추출되어 지는 원리를 개략적으로 나타낸 도면
도 7은 본 발명의 바람직한 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 방법을 개략적으로 나타낸 흐름도
도 8은 영상 왜곡 보정을 위한 호모그래픽(Homography) 알고리즘 과정을 보여주는 예시도
도 9는 본 발명의 바람직한 다른 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템을 개략적으로 나타낸 구성도1 is a schematic view showing a multi-touch based large size interactive display system according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an interactive surface through which a user can interact with content.
FIG. 3 is a schematic diagram illustrating the principle of improving the linearity of light using an IR-LEDs array bar. FIG.
4 and 5 are product photographs and installation images of the IR-LEDs array bar.
6 is a view schematically showing the principle that the infrared light is reflected to the hand and extracted through the infrared camera
7 is a flowchart schematically illustrating a multi-touch based large interactive display method according to an exemplary embodiment of the present invention.
8 is an exemplary view showing a homography algorithm process for image distortion correction
9 is a schematic diagram of a multi-touch based large size interactive display system according to another exemplary embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명되는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted, and similar parts are denoted by similar reference numerals throughout the specification.
이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
멀티 터치 기반의 대형 Multi touch based large 인터랙티브Interactive 디스플레이 시스템의 실시 예 Embodiment of the display system
도 1은 본 발명의 바람직한 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템을 개략적으로 나타낸 구성도이고, 도 2는 사용자가 콘텐츠와 인터랙션 할 수 있는 인터랙티브 막(Interactive Surface: 160)을 나타낸 도면이다.1 is a block diagram schematically illustrating a multi-touch based large size interactive display system according to an exemplary embodiment of the present invention, and FIG. 2 is a diagram illustrating an
본 발명의 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템은 도 1에 도시된 바와 같이, 스크린 또는 벽면형 디스플레이 장치(이하, '스크린'이라 한다: 100), 적외선 LED 어레이 바(IR-LEDs Array Bar: 110), 프로젝터(projector: 120), 적외선 투과 필터(IR-Filter: 131)를 장착한 적외선 카메라(Infrared Camera: 130), 서버(140), 클라이언트 PC(150)를 포함하여 구성한다.As shown in FIG. 1, the multi-touch-based large interactive display system of the present invention is a screen or wall display device (hereinafter, referred to as a 'screen': 100), an infrared LED array bar (IR-LEDs Array Bar: 110). ), A
여기서, 상기 스크린(Screen: 100)은 상기 프로젝터(120)의 영상을 투영할 수 있도록 영상을 맺히도록 한다. 상기 적외선 LED 어레이 바(110)는 복수 개의 적외선 LED(IR-LEDs: 111)를 일정 간격으로 배열하여 구성되고, 상기 적외선 LED 양쪽에 격벽이 형성된 적외선 발생장치로서, 상기 스크린(100) 전면의 천장(10)에 설치되며, 상기 스크린(100) 앞쪽에 적외선을 발생하여 사용자가 콘텐츠와 인터랙션 할 수 있는 인터랙티브 막(Interactive Surface: 160)을 생성한다. 상기 프로젝터(120)는 상기 스크린(100)에 영상을 투영하는 기능을 하며, 상기 적외선 카메라(130)는 일반 카메라(예를 들어, USB CCD 카메라 등)의 렌즈 앞에 적외선 투과 필터(IR-Filter: 131)를 장착한 카메라로서, 상기 인터랙티브 막(160)에 사용자의 손이 닿을 때 사용자의 손(손등)에서 반사되는 적외선 빛을 촬영하여 상기 서버(140)로 촬영한 영상신호를 전송한다. 상기 서버(140)는 상기 적외선 카메라(130)에서 전송된 영상신호를 가지고 영상처리를 통해 사용자의 손 영역의 좌표(x,y) 값을 계산하여 사용자의 인터랙션 위치를 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하여 상기 클라이언트 PC(150)로 전송한다. 상기 클라이언트 PC(150)는 상기 서버(140)로부터 전송받은 패킷을 분석하여 상기 프로젝터(120)를 통해 상기 패킷에 따른 콘텐츠를 실행하는 역할을 한다.Here, the
본 발명에서는 상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 110)를 이용하여 상기 스크린(100) 전면에 인터랙티브 막(160)을 생성함으로써 다양한 인터랙션(Interaction) 기법을 제공한다. 이하, 상기 인터랙티브 막(160)에 사람의 손을 통해 터치 되는 영역들에 대해서는 인터랙티브 영역(Interactive Zone)이라 지칭하고 그 외에 터치가 되지 않는 영역을 앰비언트 영역(Ambient Zone)이라고 정의하기로 한다. The present invention provides various interaction techniques by generating the
도 1 및 도 2를 참조하면, 상기 프로젝터(120)와 상기 적외선 카메라(130)는 사용자의 인터랙션을 하기 위한 최적의 장소를 찾아 위치시킨다. 이때, 상기 카메라(130)는 밴드 패스 필터(Band pass filter)의 사용 없이 화면 자체를 얻어오게 되면 빔 프로젝터에서 영사되는 모든 영상을 다 받아오기 때문에 밴드 패스 필터(Band pass filter; 예를 들어, 850nm 이하를 차단하는 필터)를 이용하여 상기 프로젝터(120)에서 나오는 영상을 차단하고 적외선 빛을 받을 수 있도록 하였다. 1 and 2, the
그 결과, 사용자가 콘텐츠와의 인터랙션을 위해 상기 스크린(100)에 손을 뻗게 되면, 상기 스크린(100) 위에 위치한 상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 110)에서 내려오는 적외선이 손(손등)을 통과하지 못하고 막히게 된다. 이때 상기 적외선 카메라(130)는 손(손등)에서 반사되는 적외선 빛을 촬영하여 상기 서버(140)에 촬영된 영상 신호를 전송하게 된다. 상기 서버(140)에서는 상기 적외선 카메라(130)에서 전송된 신호를 영상처리를 통해 손 영역의 좌표(x,y) 값을 계산하게 된다. As a result, when the user reaches the
여기서, 손 영역의 좌표(x,y) 값을 계산하는 방법은 다음과 같다.Here, the method of calculating the coordinate (x, y) value of the hand region is as follows.
영상 이진화를 통하여 LED가 반사되는 영역과 그렇지 않은 영역을 나눈 뒤에 반사되는 영역에 한해서 블랍/라벨링을 거쳐 호모그래피 행렬을 이용하여 왜곡을 보정한 뒤 좌표의 최상위점을 인식하고 있는 좌표로 계산하여서 작동한다. 여기서, 상기 블랍은 영상 이진화를 하였을 때, LED가 반사된 영역들을 묶는 역할을 한다. 즉, 사람의 손이 하나의 픽셀(점)로 빛을 반사시키는 게 아니라 다수의 픽셀(면)로 빛을 반사시키기 때문에, 연속으로 LED가 반사되는 영역을 묶어주는 역할을 한다. 상기 라벨링은 상기 블랍을 통해 묶인 영역들에 대해 이름 그대로 번호를 지정하는 작업이다. 각 영역당 번호를 지정함으로써, 영역이 생겨서부터 사라질 때까지의 좌표값을 계산할 수 있다. 이때, 영상은 3차원이 아닌 2차원이기 때문에 (x,y)좌표로만 계산하여 (x,y)의 좌표정보 값만 계산된다.This function operates by calculating the coordinates that recognize the highest point of the coordinates after correcting the distortion using a homography matrix through the blob / labeling only in the region where the LED is reflected through the image binarization and the region that is not. do. Here, the blob binds the areas where the LED is reflected when the image is binarized. That is, since the human hand does not reflect light to one pixel (point) but reflects light to a plurality of pixels (planes), it serves to bind the areas where the LED is continuously reflected. The labeling is an operation of numbering the regions bounded by the blobs as they are. By assigning a number for each region, it is possible to calculate the coordinate values from when the region is created to disappear. At this time, since the image is two-dimensional rather than three-dimensional, only the coordinate information value of (x, y) is calculated by calculating only the (x, y) coordinate.
시스템의 전체적인 구성은 상기 적외선 카메라(130)로부터 획득한 정보로 영상처리를 통하여 사용자의 인터랙션 위치를 알아내는 상기 서버(140)와 콘텐츠를 진행하는 상기 클라이언트 PC(150)로 구성된다. 상기 적외선 카메라(130)는 상기 서버(140)에 연결을 한다. 그리고 상기 클라이언트 PC(150)에 상기 프로젝터(120)를 연결하여 상기 서버(140)로부터 전송받은 패킷을 분석하여 콘텐츠를 실행하게 된다.
The overall configuration of the system is composed of the
적외선 infrared ray LEDLED 어레이 바( Array Bars IRIR -- LEDsLEDs ArrayArray BarBar ))
도 3은 적외선 LED 어레이 바(IR-LEDs Array Bar)를 이용한 빛의 직진성 향상 원리를 개략적으로 나타낸 도면이고, 도 4 및 도 5는 적외선 LED 어레이 바(IR-LEDs Array Bar)의 제품 사진과 설치 모습의 사진이다.3 is a schematic view showing the principle of improving the linearity of light using an infrared LED array bar (IR-LEDs Array Bar), Figures 4 and 5 is a product picture and installation of the infrared LED array bar (IR-LEDs Array Bar). It is a photograph of the appearance.
상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 110)는 도 4의 사진과 같이, 복수 개의 적외선 LED(IR-LEDs)를 일정 간격(예를 들어, 3cm 간격)을 두고 설치한다. 이때, 상기 적외선 LED(IR-LEDs: 111)를 일정한 간격으로 배치하는 이유는 모든 영역에 대해서 적외선 빛의 양을 균일하게 하기 위해서이다. 그리고, 상기 적외선 LED(IR-LEDs)의 간격을 3cm로 하는 이유는 각 LED의 발열량을 고려하면서 충분한 적외선의 양을 공급받을 수 있는 거리를 시험한 결과, 3cm의 간격이 적당한 것으로 밝혀졌다. 하지만, 이값에 반드시 국한된 것은 아니며, LED 소자나 기타 다른 환경에 따라 변할 수도 있다.The infrared
상기 적외선 LED(IR-LEDs: 111)는 일반적으로 45도 각도로 빛이 발산된다. 따라서, 본 발명의 적외선 LED 어레이 바(IR-LEDs Array Bar: 110)에서는 LED의 빛이 45°로 발산하는 것을 막기 위해 상기 적외선 LED(IR-LEDs: 111)의 양쪽을 벽으로 차단함으로써 수직으로만 빛이 나갈 수 있도록 구성하여 빛의 직진성을 향상시켰다(도 3 참조).The infrared LEDs (IR-LEDs) 111 generally emit light at a 45 degree angle. Accordingly, the IR-
상기 적외선 LED 어레이 바(IR-LEDs Array Bar: 110)는 상기 스크린(100) 전면의 상단 부분(천장 또는 측벽 상부)에 위치시킨다. 이는 사용자의 인터랙션을 포착하기 위해서 일정 간격을 두고(예를 들어, 3cm 정도) 전면부에 부착을 하며, 사용자의 인터랙션 영역을 구성하는 인터랙션 막(160)을 생성하게 된다. 이는 사용자가 손을 뻗었을 때 상기 인터랙션 막(160)에 사용자의 손이 닿음으로써, 사용자가 인터랙션을 자유롭게 할 수 있는 인터랙션 영역에 진입했다는 의미이다.
The IR-
인터랙션Interaction 영역 추출 방법 Zone extraction method
도 6은 적외선 카메라를 통해 적외선 빛이 손에 반사되어 추출되어 지는 원리를 개략적으로 나타낸 도면이다.6 is a view schematically showing the principle that the infrared light is reflected by the hand through the infrared camera and extracted.
상기 적외선 LED 어레이 바(110)의 적외선 빛은 ‘빛의 직진성’ 원리에 의해 직선으로 퍼져나간다. 그리고 앞에 물체가 가로막고 있으면 직진성의 성질을 잃어 물체의 반대편에 그림자가 생기게 된다. 본 발명은 이러한 원리를 이용하여 다음과 같이 구성하였다.Infrared light of the infrared
먼저, 사용자가 상기 스크린(100)에 인터랙션하기 위해 손으로 터치할 경우 상기 스크린(100) 전면에 형성된 상기 인터랙션 막(160)에 닿게 된다. 상기 인터랙션 막(160)은 앞에서 설명한 바와 같이, 상기 적외선 LED 어레이 바(110)에서 발생된 적외선 빛에 의해 형성된 인터랙션 영역이다.First, when a user touches with his hand to interact with the
도 6의 그림과 같이, 상기 인터랙션 막(160)에 손이 닿으면, 손 아래쪽에는 상기 적외선 LED(IR-LEDs)의 빛이 차단되어 그림자가 생기게 되고, 손 위쪽에는 상기 적외선 LED(IR-LEDs)의 빛이 손등에서 반사되게 된다. 이때, 상기 손등에서 반사되는 적외선 빛은 상기 인터랙션 영역을 촬영하는 상기 적외선 카메라(130)에 촬영되어 수집된다. 상기 적외선 카메라(130)는 촬영된 영상 신호를 상기 서버(140)에 전송하고, 상기 서버(140)에서는 상기 적외선 카메라(130)에서 전송된 신호를 영상처리를 통해 사용자의 손 영역을 검출함으로써, 손의 좌표(x,y) 값을 추출하게 된다. As shown in FIG. 6, when the hand touches the
상기와 같이, 상기 적외선 LED 어레이 바(110)는 복수 개의 적외선 LED(IR-LEDs)를 일정 간격(예, 3cm 간격)으로 위치시켜서 적외선 LED(111)에서 출력되는 빛의 영역들이 서로 겹쳐지게 함으로써, 넓은 영역의 적외선 빛 막을 제공한다.
As described above, the infrared
멀티 터치 기반의 대형 Multi touch based large 인터랙티브Interactive 디스플레이 방법 Display method
도 7은 본 발명의 바람직한 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 방법을 개략적으로 나타낸 흐름도이다.7 is a flowchart schematically illustrating a multi-touch based large interactive display method according to an exemplary embodiment of the present invention.
도 1, 도 2 및 도 6을 참조하여 설명하면, 상기 스크린(100) 앞쪽 상단에 설치된 상기 적외선 LED 어레이 바(110)에서 상기 스크린(100) 앞쪽에 수직으로 적외선을 발생하여 인터랙티브 막(160)을 생성한다. 그 후, 상기 인터랙티브 막(160)에 인체나 물체가 접촉하여 상기 인체 또는 물체에 부딪혀 반사되는 적외선 빛을 상기 적외선 카메라(130)로 촬영한다. 상기 적외선 카메라(130)에 촬영된 영상 신호는 상기 서버(140)로 전송된다.Referring to FIGS. 1, 2, and 6, the infrared
다음, 도 7을 참조하여 설명하면, 상기 서버(140)에서는 상기 적외선 카메라(130)로부터 획득한 정보를 영상 이진화를 통하여 LED 빛이 반사된 영역과 그렇지 않은 영역으로 분리한다(단계 S10∼S20).Next, referring to FIG. 7, the
그 다음, 상기 반사된 영역을 블랍을 통하여 묶어준다(단계 S30). 즉, 사람의 손이나 물체가 하나의 픽셀(점)로 빛을 반사시키는 것이 아니라 다수의 픽셀(면)로 빛을 반사하기 때문에, 연속으로 LED가 반사되는 영역을 묶어주게 된다.Then, the reflected area is bundled through the blob (step S30). That is, since a human hand or an object reflects light to a plurality of pixels (planes) instead of reflecting light to one pixel (dot), it binds an area where the LED is continuously reflected.
그 다음, 상기 블랍을 통해 묶인 영역들에 대해 라벨링을 통해 번호를 지정한다(단계 S40). 각 영역당 번호를 지정함으로써, 영역이 생겨서부터 사라질 때까지의 좌표값을 계산할 수 있다.Next, the areas bound through the blob are numbered by labeling (step S40). By assigning a number for each region, it is possible to calculate the coordinate values from when the region is created to disappear.
그 다음, 상기 라벨링 이후 호모그래피 행렬을 이용하여 신호 왜곡을 보정한다(단계 S50). 상기 호모그래피 행렬에 대해서는 후술하는 도 8에서 자세히 설명하기로 한다.Then, the signal distortion is corrected using the homography matrix after the labeling (step S50). The homography matrix will be described in detail later with reference to FIG. 8.
그 다음, 윈도우(Windows) API 레벨에서 좌표 보정을 하여 트래킹 한다(단계 S60∼S70). 이때, 상기 윈도우(Windows) API 레벨에서 좌표 보정하는 방법과 트래킹 방법은 다음과 같다. OpenCV 라이브러리에서 제공하는 cvWarpPerspective와 cvGetPerspectiveTransform을 통하여 상기 적외선 카메라(130)가 보는 화면에서 영상의 각 모서리 4군데의 좌표를 입력하여 4개의 점으로 이루어진 사각형 내의 이미지를 새로운 4개의 점으로 이루어진 사각형으로 변환하여 왜곡을 보정 한다. 상기 트래킹은 사람의 손이나 물체의 위치를 파악하여 얻은 좌표값을 네트워크로 좌표값을 콘텐츠에 보내서 해당되는 지점에 인터랙션을 발생하게 해준다.Then, the coordinates are corrected and tracked at the Windows API level (steps S60 to S70). In this case, the method of correcting coordinates and tracking method at the Windows API level is as follows. Through the cvWarpPerspective and cvGetPerspectiveTransform provided by the OpenCV library, input coordinates of four corners of the image on the screen viewed by the
그 다음, 상기 서버(140)에서 상기 트래킹 후 패킷을 생성하여 상기 클라이언트 PC(150)로 전송한다(단계 S80).Next, the
끝으로, 상기 클라이언트 PC(150)에서 상기 서버(140)로부터 수신된 패킷을 분석한 후 패킷 명령을 실행하여 패킷에 따른 콘텐츠를 상기 프로젝터(120)를 통해 상기 스크린(100)에 실행한다(단계 S90∼S120).Finally, the
이와 같이, 본 발명에서는 카메라를 통해 획득된 영상을 인식하기 위한 영상 전처리(Image Processing) 모듈과, 상기 영상 처리 모듈에서 처리된 정보를 전송하기 위한 네트워크(Network) 통신 연결 모듈로 구분할 수 있다.As described above, the present invention may be classified into an image processing module for recognizing an image acquired through a camera and a network communication connection module for transmitting information processed by the image processing module.
여기서, 영상 처리 모듈은, 상기 적외선 카메라(130)를 이용하여 영상을 획득한 후 획득 영상에서 보이는 실제 영사 화면의 영역을 지정한다. 이때, 발생하는 영상의 왜곡을 보정하기 위하여 호모그래피 행렬을 사용한다. 그 다음 일정한 조도 이외에 들어오는 영상은 이진화 과정을 거쳐 잡음을 제거한 후, 블랍/라벨링을 거쳐 손(손가락)이나 물체의 위치를 파악한다. Here, the image processing module designates an area of the actual projection screen seen in the acquired image after acquiring an image by using the
그러나, 실제 스크린의 왜곡현상은 호모그래피 행렬로 보정되었지만 추출되어 진 좌표는 카메라 뷰 영역에서의 좌표일 뿐, 실제 윈도우 좌표에 적용되는 좌표가 아니다. 이를 위해 API레벨에서 좌표계산하여 카메라 뷰와 실제 뷰 좌표를 일치시킨다. 구체제적으로 설명하면, 상기 프로젝터(120)가 바라보는 스크린(100)과 상기 적외선 카메라(130)가 바라보는 상기 스크린(100)의 화면은 모양과 크기가 서로 다르다. 이러한 영상의 왜곡을 보정하기 위하여 호모그래피 행렬을 사용하여 해결한다. However, the distortion of the actual screen is corrected by the homography matrix, but the extracted coordinates are only coordinates in the camera view area, not coordinates applied to the actual window coordinates. To do this, coordinates are calculated at the API level to match the camera view with the actual view coordinates. Specifically, the
다음으로, 상기 적외선 카메라(130)가 바라보는 해상도의 크기는 640×480이지만, 실제 모니터(1024×768) 또는 프로젝터(120)에 보이는 화면의 크기가 달라 호모그래피 행렬을 사용하여 좌표보정을 하여도 올바르지 않다. 이를 위해, WindowsAPI 레벨에서 좌표 보정을 하게 되면 올바르게 트래킹이 된다. 여기서, 도 8을 통해 상기 호모그래피를 계산한다. 도 8은 영상에서의 왜곡 보정을 위한 호모그래피(Homography) 알고리즘 과정을 개략적으로 보여준다. Next, the size of the resolution viewed by the
먼저, 실제 사용자가 바라보는 뷰 영역의 스크린과 상기 적외선 카메라(130)가 바라보는 뷰 영역의 스크린의 영상의 모양은 차이가 있다. 사용자가 바라보는 뷰 영역은 편의를 위해 직사각형의 영역으로 맞추지만(도 8의 a). 상기 적외선 카메라(130)로 바라보는 뷰 영역은 공간적 제약에 따른 사다리꼴의 영상왜곡이 생긴다(도 8의 b). 왜곡된 영상의 손가락(또는 물체) 좌표를 보정 없이 윈도우 시스템이 좌표로 적용하는 것은 원하는 위치의 좌표로 반환할 수 없다. 이러한 문제를 해결하기 위한 방법으로 호모그래피 행렬(Homography Matrix)을 적용한다. First, the shape of the image of the screen of the viewing area viewed by the actual user and the screen of the viewing area viewed by the
상기 호모그래피 행렬은 어느 한 평면에 대하여 그 평면 위에 있는 점과 다른 한 평면의 대응점은 3×3 행렬로 표현이 가능하다. 여기에서 3×3 행렬은 두 평면 사이의 사용 변환 관계를 나타내는데, 이것을 호모그래피(Homography) 라고 한다. 호모그래피 행렬을 사전식으로 배열한 9×1 벡터를 평면 위에 있는 점과 다른 한 평면의 대응점을 조합한 n×9 행렬에 곱하면 0이 된다. 이 과정에서 호모그래피 행렬을 사전식으로 배열한 9×1 벡터는 SVD(Singular value Decomposition)를 통해 구한다. The homography matrix may represent a point on the plane with respect to one plane and a corresponding point of the other plane with a 3x3 matrix. Here the 3x3 matrix represents the use transformation relationship between the two planes, which is called homography. Multiplying a homogeneous matrix by a 9x1 vector by an nx9 matrix that combines points on the plane with corresponding points on the other plane results in zero. In this process, a 9 × 1 vector in which the homography matrix is arranged in a dictionary is obtained through SVD (Singular Value Decomposition).
이와 같이, 호모그래피 행렬을 이용하여 영상의 왜곡을 보정한다. 보정된 좌표는 상기 적외선 카메라(130)의 뷰 영역에서의 좌표일 뿐 실제 윈도우 좌표에 적용되는 좌표는 아니다. 만약, 상기 적외선 카메라(130)의 전체 뷰 영역이 640×480이고, 윈도우의 해상도가 1024×768이라면 위치의 오차는 많이 날 수밖에 없다. 이러한 위치를 줄이기 위해 마우스의 범위를 API레벨에서 계산하여 제어 가능하도록 하였다. 마우스의 실제 좌표는 상하좌우의 모든 영역은 해상도와 관계없이 0~65535의 영역을 가지기 때문에 현 해상도(width, height)를 나눠준 후 호모그래피의 계산 결과로 나온 좌표를 곱하면 해상도에 맞는 좌표가 계산된다(도 8의 c). As such, the distortion of the image is corrected by using a homography matrix. The corrected coordinates are coordinates in the viewing area of the
여기서, 네트워크 통신 모듈은, 사용자와 콘텐츠의 인터랙션을 위하여, 사용자들이 입력한 값들을 실시간으로 계속 콘텐츠에 전송을 한다. 서버/클라이언트 모델이 1:1, 1:N가 될 수 있지만 콘텐츠를 실행시키기 위한 환경이 갖춰진다면, 상기 적외선 카메라(130)와 상기 프로젝터(130)를 하나씩 더 늘리면서 사용할 수 있다. 사용자가 콘텐츠에 상호작용한 행동들은, 콘텐츠가 서버로부터 전송받은 패킷을 분석하여 패킷의 번호별로 콘텐츠를 진행하면 된다.
Here, the network communication module continuously transmits the values input by the users to the content in real time in order to interact with the content. The server / client model may be 1: 1, 1: N, but if the environment for executing the content is provided, the
멀티 터치 기반의 대형 Multi touch based large 인터랙티브Interactive 디스플레이 시스템의 다른 실시 예 Another embodiment of a display system
도 9는 본 발명의 바람직한 다른 실시 예에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템을 개략적으로 나타낸 구성도이다.9 is a schematic diagram of a multi-touch based large size interactive display system according to another exemplary embodiment of the present invention.
먼저, 도 1에서 설명한 대형 인터랙티브 디스플레이 시스템의 경우에는 상기 스크린(100)의 전면 상단 또는 천장에 상기 적외선 LED 어레이 바(111)가 설치되고, 상기 적외선 LED 어레이 바(110)와 일정 거리만큼 떨어진 상단 또는 천장에 상기 프로젝터(120)와 상기 적외선 카메라(130)가 설치되었다. 하지만, 이 시스템에서는 사용자가 손으로 상기 인터랙티브 막(160)에 터치를 했을 때 이를 감지하는 상기 적외선 카메라(130)가 사용자의 등 뒤쪽에 위치하고 있기 때문에 사용자의 손에서 부딪혀 반사되는 적외선 빛을 감지(촬영)하지 못하는 경우가 발생한다.First, in the case of the large interactive display system described with reference to FIG. 1, the infrared
이러한 문제점을 해결하기 위해, 본 발명에서는 도 9와 같은 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템을 제안한다.In order to solve this problem, the present invention proposes a multi-touch large interactive display system as shown in FIG. 9.
도 9의 대형 인터랙티브 디스플레이 시스템에서는 상기 스크린(100) 전면의 하단 또는 바닥에 상기 적외선 LED 어레이 바(110)를 설치하여 상기 스크린(100) 전면에 인터랙티브 막(160)을 형성하고, 상기 스크린(100)의 후면 쪽 하단 또는 바닥에 상기 프로젝터(120)와 상기 적외선 카메라(130)를 설치하였다. 이때, 상기 스크린(100)은 유리창 또는 아크릴판 위에 리어 스크린(Rear Screen)을 설치하여 구성한다. 따라서, 상기 인터랙티브 막(160)에 사용자가 손으로(또는, 다른 물체로) 터치를 했을 때 손에서 부딪혀 반사되는 적외선 빛을 상기 적외선 카메라(130)가 감지(촬영)하여 서버(도 1의 140 참조)로 전송함으로써, 상기 손 영역의 좌표값을 추출할 수 있다. 이때, 상기 서버에서 손 영역의 좌표값을 추출하는 방법은 도 1 및 도 7에서 설명한 바와 동일하므로 여기서는 생략하기로 한다.In the large interactive display system of FIG. 9, the infrared
상기 서버(140)에서는 사용자의 인터랙션 위치를 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하여 상기 클라이언트 PC(도 1의 150 참조)로 전송하고, 상기 클라이언트 PC(150)에서는 상기 서버(140)로부터 전송받은 패킷을 분석하여 상기 프로젝터(120)를 통해 패킷에 따른 콘텐츠를 실행한다.The
이와 같이 구성된 본 발명에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법은 스크린 전면의 천장 또는 바닥에 적외선 LED 어레이 바(IR-LEDs Array Bar)를 설치하여 사용자가 인터랙션할 수 있는 인터랙티브 막(interactive surface)을 생성하여 사용자가 콘텐츠와 인터랙션(interaction)을 자유롭게 할 수 있도록 함으로써, 본 발명의 기술적 과제를 해결할 수가 있다.
The multi-touch-based large interactive display system and method thereof according to the present invention configured as described above are provided with an interactive film (IR) that can be interacted with by installing an infrared LED array bar (IR-LEDs array bar) on the ceiling or floor of the front of the screen. The technical problem of the present invention can be solved by generating a surface to allow a user to freely interact with the content.
이상에서 설명한 본 발명의 바람직한 실시 예들은 기술적 과제를 해결하기 위해 개시된 것으로, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(당업자)라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가 등이 가능할 것이며, 이러한 수정 변경 등은 이하의 특허청구범위에 속하는 것으로 보아야 할 것이다.
Preferred embodiments of the present invention described above are disclosed to solve the technical problem, and those skilled in the art to which the present invention pertains (man skilled in the art) various modifications, changes, additions, etc. within the spirit and scope of the present invention. It will be possible to, and such modifications, changes, etc. will be considered to be within the scope of the following claims.
본 발명에 의한 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템 및 그 방법은 개인 도는 대규모의 군중이 다양하게 콘텐츠를 즐길 수 있는 인터랙티브 앰비언트 디스플레이 환경으로 제공할 수 있으며, 멀티 카메라, 멀티 컴퓨터 등의 연동을 통한 패러럴 컴퓨팅 방식으로 확장을 할 수 있다.
The multi-touch-based large interactive display system and method thereof according to the present invention can be provided as an interactive ambient display environment in which individual or large crowds can enjoy various contents, and can be parallelized through interworking with multiple cameras and multi computers. It can be scaled by computing.
10 : 천장
100 : 스크린 또는 벽면형 디스플레이 장치
110 : 적외선 LED 어레이 바(IR-LEDs Array Bar)
111 : 적외선 LED(IR-LEDs) 120 : 프로젝터(projector)
130 : 적외선 카메라(Infrared Camera)
131 : 적외선 투과 필터(IR-Filter)
140 : 서버 150 : 클라이언트 PC
160 : 인터랙티브 영역(interactive Zone) 또는 인터랙티브 막(interactive surface)10: ceiling
100: screen or wall display device
110: IR-LEDs Array Bar
111: IR-LEDs 120: projector
130: Infrared Camera
131: IR-Filter
140: server 150: client PC
160: interactive zone or interactive surface
Claims (8)
영상을 디스플레이하는 스크린과;
상기 스크린의 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 적외선 LED 어레이 바와;
상기 스크린에 영상을 투영하는 프로젝터와;
상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 촬영하는 적외선 카메라와;
상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 서버; 및
상기 서버로부터 전송받은 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 클라이언트 PC;
를 포함하되,
상기 적외선 LED 어레이 바는 복수 개의 적외선 LED(IR-LEDs)를 일정 간격으로 배열하여 구성되고, 상기 적외선 LED 양쪽에 격벽이 형성된 구조로서, 상기 스크린의 전면 상단 또는 천장에 설치되고, 상기 프로젝터와 상기 적외선 카메라는 상기 적외선 LED 어레이 바와 일정 거리만큼 떨어진 상단 또는 천장에 설치된 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템.
In the large interactive display system based on multi-touch,
A screen for displaying an image;
An infrared LED array bar generating infrared light by generating infrared rays in front of the screen;
A projector for projecting an image onto the screen;
An infrared camera for photographing infrared light reflected when a human body or an object comes into contact with the interactive film;
A server configured to extract a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generate a packet generating an interaction at a corresponding point; And
A client PC that analyzes the packet received from the server and executes the content according to the packet on the screen through a project;
Including,
The infrared LED array bar is configured by arranging a plurality of infrared LEDs (IR-LEDs) at regular intervals, and a partition wall is formed on both sides of the infrared LEDs, and is installed on the top or ceiling of the screen, and the projector and the The infrared camera is a multi-touch large interactive display system, characterized in that installed on the top or ceiling separated by a predetermined distance to the infrared LED array bar.
영상을 디스플레이하는 스크린과;
상기 스크린의 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 적외선 LED 어레이 바와;
상기 스크린에 영상을 투영하는 프로젝터와;
상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 촬영하는 적외선 카메라와;
상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 서버; 및
상기 서버로부터 전송받은 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 클라이언트 PC;
를 포함하되,
상기 적외선 LED 어레이 바는 복수 개의 적외선 LED(IR-LEDs)를 일정 간격으로 배열하여 구성되고, 상기 적외선 LED 양쪽에 격벽이 형성된 구조로서, 상기 스크린의 전면 하단 또는 바닥에 설치되고, 상기 프로젝터와 상기 적외선 카메라는 상기 스크린의 후면 쪽 하단 또는 바닥에 설치되고,
상기 스크린은 유리창 또는 아크릴판 위에 리어 스크린(Rear Screen)으로 구성되는 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템.
In the large interactive display system based on multi-touch,
A screen for displaying an image;
An infrared LED array bar generating infrared light by generating infrared rays in front of the screen;
A projector for projecting an image onto the screen;
An infrared camera for photographing infrared light reflected when a human body or an object comes into contact with the interactive film;
A server configured to extract a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generate a packet for generating an interaction at a corresponding point; And
A client PC that analyzes the packet received from the server and executes the content according to the packet on the screen through a project;
Including,
The infrared LED array bar is configured by arranging a plurality of infrared LEDs (IR-LEDs) at regular intervals, and a partition wall is formed on both sides of the infrared LEDs, and is installed at the bottom or bottom of the front of the screen, and the projector and the An infrared camera is installed at the bottom or bottom of the rear side of the screen,
The screen is a large touch-based large interactive display system, characterized in that consisting of a rear screen (Rear Screen) on a glass window or an acrylic plate.
상기 적외선 카메라는 CCD 카메라, USB CCD 카메라, 웹 카메라를 포함한 카메라 중 하나이며, 상기 카메라의 렌즈 앞에 적외선 투과 필터(IR-Filter)를 장착한 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 시스템.
The method according to claim 2 or 3,
The infrared camera is one of a camera including a CCD camera, a USB CCD camera, and a web camera, and the infrared touch filter (IR-Filter) is installed in front of the lens of the camera.
(a) 스크린 앞쪽에 적외선을 발생하여 인터랙티브 막을 생성하는 단계와;
(b) 상기 인터랙티브 막에 인체나 물체가 접촉되었을 때 반사되는 적외선 빛을 적외선 카메라로 촬영하는 단계와;
(c) 상기 적외선 카메라로부터 획득한 정보로 영상처리를 통하여 상기 인체나 물체의 인터랙션 위치의 좌표값을 추출한 후 해당 지점에 인터랙션을 발생하는 패킷을 생성하는 단계; 및
(d) 상기 패킷을 분석하여 상기 패킷에 따른 콘텐츠를 프로젝트를 통해 상기 스크린에 실행하는 단계;
를 포함하되,
상기 (c)단계에서 인터랙션 위치의 좌표값을 추출하는 방법은,
(c1) 상기 적외선 카메라로부터 획득한 정보를 영상 이진화를 통하여 LED 빛이 반사된 영역과 그렇지 않은 영역으로 분리하는 이진화 단계와;
(c2) 상기 반사된 영역을 묶어주는 블랍 단계와;
(c3) 상기 블랍을 통해 묶인 영역들에 대해 번호를 지정하는 라벨링 단계와;
(c4) 상기 라벨링 이후 호모그래피 행렬을 이용하여 신호 왜곡을 보정하는 호모그래피 단계와;
(c5) 상기 적외선 카메라가 보는 화면에서 영상의 각 모서리 4군데의 좌표를 입력하여 4개의 점으로 이루어진 사각형 내의 이미지를 새로운 4개의 점으로 이루어진 사각형으로 변환하여 왜곡을 보정하는 윈도우 API 좌표보정 단계; 및
(c6) 상기 인체나 물체의 인터랙션 위치를 파악하여 좌표값을 추출하는 단계;
를 포함하는 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 방법.
In the large interactive display method based on multi-touch,
(a) generating infrared film by generating infrared rays in front of the screen;
(b) photographing infrared light reflected by a human body or an object in contact with the interactive film with an infrared camera;
(c) extracting a coordinate value of an interaction position of the human body or an object through image processing using the information obtained from the infrared camera, and generating a packet generating an interaction at a corresponding point; And
(d) analyzing the packet and executing content according to the packet on the screen through a project;
Including,
The method of extracting the coordinate value of the interaction position in the step (c),
(c1) a binarization step of separating the information obtained from the infrared camera into an area where the LED light is reflected and an area that is not through image binarization;
(c2) a blob to bind the reflected area;
(c3) labeling the numbered areas bounded by the blobs;
(c4) a homography step of correcting signal distortion using a homography matrix after the labeling;
(c5) a window API coordinate correction step of correcting distortion by inputting coordinates of four corners of an image on a screen viewed by the infrared camera and converting an image in a quadrangle of four points into a quadrangle of four points; And
(c6) extracting coordinate values by identifying interaction positions of the human body or an object;
Multi-touch based large interactive display method comprising a.
상기 (c)단계에서 상기 패킷을 생성하는 방법은,
(c7) 상기 인체나 물체의 인터랙션 위치의 좌표값을 네트워크로 콘텐츠에 전송하여 해당 지점에 인터랙션을 발생하도록 패킷을 생성하는 것을 특징으로 하는 멀티 터치 기반의 대형 인터랙티브 디스플레이 방법.The method according to claim 6,
The method of generating the packet in step (c),
and (c7) generating a packet to generate an interaction at a corresponding point by transmitting a coordinate value of an interaction position of the human body or an object to a network through a content.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090027265 | 2009-03-31 | ||
KR1020090027265A KR20090038413A (en) | 2009-03-31 | 2009-03-31 | Multi-touch based large-scale interactive display system, and a method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100109420A KR20100109420A (en) | 2010-10-08 |
KR101102953B1 true KR101102953B1 (en) | 2012-01-11 |
Family
ID=40762625
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090027265A KR20090038413A (en) | 2009-03-31 | 2009-03-31 | Multi-touch based large-scale interactive display system, and a method thereof |
KR1020100026964A KR101102953B1 (en) | 2009-03-31 | 2010-03-25 | Large scale interactive display system based multi touch and method of the same |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090027265A KR20090038413A (en) | 2009-03-31 | 2009-03-31 | Multi-touch based large-scale interactive display system, and a method thereof |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR20090038413A (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101065408B1 (en) | 2010-03-17 | 2011-09-16 | 삼성모바일디스플레이주식회사 | Touch controlled display device |
KR101743948B1 (en) | 2010-04-07 | 2017-06-21 | 삼성전자주식회사 | Method for hover sensing in the interactive display and method for processing hover sensing image |
WO2012005438A2 (en) * | 2010-07-09 | 2012-01-12 | (주)디스트릭트홀딩스 | Multimedia advertisement display method and system using touch screen and projector |
GB2487043B (en) | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction and illumination system and method |
WO2012118514A1 (en) * | 2011-03-03 | 2012-09-07 | Hewlett-Packard Development Company, L.P. | Audio association systems and methods |
KR101398252B1 (en) * | 2012-12-27 | 2014-06-25 | (주)액티미디어 | Method for Recognizing Reality and Reducing Observational Error Using infrared camera |
KR101583527B1 (en) * | 2013-07-02 | 2016-01-11 | 경북대학교 산학협력단 | media facade materialization meatod, media facade materialization server and media facade materialization system |
KR101481082B1 (en) * | 2013-10-11 | 2015-01-13 | 윤영기 | Apparatus and method for infrared ray touch by using penetration screen |
KR102205283B1 (en) | 2014-02-12 | 2021-01-20 | 삼성전자주식회사 | Electro device executing at least one application and method for controlling thereof |
CN104850275B (en) * | 2015-05-15 | 2019-06-14 | 深圳欧菲光科技股份有限公司 | Projection terminal and its projection touch-control implementation method |
CN105260021A (en) * | 2015-10-15 | 2016-01-20 | 深圳市祈锦通信技术有限公司 | Intelligent interactive projection system |
WO2017212509A1 (en) * | 2016-06-08 | 2017-12-14 | パナソニックIpマネジメント株式会社 | Projection system |
JP2018005806A (en) * | 2016-07-08 | 2018-01-11 | 株式会社スクウェア・エニックス | Position specification program, computer device, position specification method, and position specification system |
KR101894454B1 (en) * | 2017-02-20 | 2018-09-04 | 동서대학교산학협력단 | Smart interaction space model system for ambient intelligence environment, and method thereof |
KR101886243B1 (en) * | 2018-02-20 | 2018-08-08 | 유성운 | Image display device identifying touch location using infrared rays |
KR102215733B1 (en) * | 2018-06-08 | 2021-02-16 | 주식회사 이미지마이닝 | Interactive system using laser |
KR102518397B1 (en) * | 2023-01-31 | 2023-04-05 | 주식회사 팔레트온 | Space-customized immersive content construction system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070024969A (en) * | 2005-08-31 | 2007-03-08 | (주)제니텀 엔터테인먼트 컴퓨팅 | Screen display system and method for gesture-based interaction |
KR20090019345A (en) * | 2007-08-20 | 2009-02-25 | 윤주영 | Multi touch screen using infrared camera |
-
2009
- 2009-03-31 KR KR1020090027265A patent/KR20090038413A/en active Search and Examination
-
2010
- 2010-03-25 KR KR1020100026964A patent/KR101102953B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070024969A (en) * | 2005-08-31 | 2007-03-08 | (주)제니텀 엔터테인먼트 컴퓨팅 | Screen display system and method for gesture-based interaction |
KR20090019345A (en) * | 2007-08-20 | 2009-02-25 | 윤주영 | Multi touch screen using infrared camera |
Also Published As
Publication number | Publication date |
---|---|
KR20090038413A (en) | 2009-04-20 |
KR20100109420A (en) | 2010-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101102953B1 (en) | Large scale interactive display system based multi touch and method of the same | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
Harrison et al. | OmniTouch: wearable multitouch interaction everywhere | |
CN101971123B (en) | Interactive surface computer with switchable diffuser | |
US7170492B2 (en) | Interactive video display system | |
US10210629B2 (en) | Information processor and information processing method | |
JP5201096B2 (en) | Interactive operation device | |
US8485668B2 (en) | 3D interaction for mobile device | |
US8686943B1 (en) | Two-dimensional method and system enabling three-dimensional user interaction with a device | |
US9619105B1 (en) | Systems and methods for gesture based interaction with viewpoint dependent user interfaces | |
US20130135199A1 (en) | System and method for user interaction with projected content | |
US9317127B2 (en) | Method and apparatus for motion recognition | |
US20150089453A1 (en) | Systems and Methods for Interacting with a Projected User Interface | |
CN102541256A (en) | Position aware gestures with visual feedback as input method | |
CN102460373A (en) | Surface computer user interaction | |
JP2014517361A (en) | Camera-type multi-touch interaction device, system and method | |
EP2907307A1 (en) | System and method for combining data from multiple depth cameras | |
TW200842665A (en) | Cursor controlling device and method for image apparatus and image system | |
US10303259B2 (en) | Systems and methods for gesture-based interaction | |
KR100968205B1 (en) | Apparatus and Method for Space Touch Sensing and Screen Apparatus sensing Infrared Camera | |
US20120249468A1 (en) | Virtual Touchpad Using a Depth Camera | |
KR101426378B1 (en) | System and Method for Processing Presentation Event Using Depth Information | |
US9489077B2 (en) | Optical touch panel system, optical sensing module, and operation method thereof | |
WO2013145035A1 (en) | Interactive display device | |
US9785253B2 (en) | Pointing device using camera and outputting mark |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140627 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150623 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161207 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171201 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20181203 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191202 Year of fee payment: 9 |