KR20180117000A - 표시화면 입력 인터페이스 시스템 및 그 방법 - Google Patents
표시화면 입력 인터페이스 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR20180117000A KR20180117000A KR1020170050032A KR20170050032A KR20180117000A KR 20180117000 A KR20180117000 A KR 20180117000A KR 1020170050032 A KR1020170050032 A KR 1020170050032A KR 20170050032 A KR20170050032 A KR 20170050032A KR 20180117000 A KR20180117000 A KR 20180117000A
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- screen
- display screen
- coordinate
- dimensional camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Position Input By Displaying (AREA)
Abstract
표시화면 입력 인터페이스 시스템 및 그 방법이 개시된다.
본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템은, 스크린의 측면에 위치하고, 슬릿을 통해 빛을 조사하여 상기 스크린 상에 터치 영역을 형성하며, 상기 터치 영역에서 피사체에 반사된 빛을 이용하여 터치 좌표를 계산하는 3차원 카메라 및 상기 3차원 카메라로부터 수신된 상기 터치 좌표에 기초하여 상기 피사체의 터치 입력을 제어하는 제어기를 포함한다.
본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템은, 스크린의 측면에 위치하고, 슬릿을 통해 빛을 조사하여 상기 스크린 상에 터치 영역을 형성하며, 상기 터치 영역에서 피사체에 반사된 빛을 이용하여 터치 좌표를 계산하는 3차원 카메라 및 상기 3차원 카메라로부터 수신된 상기 터치 좌표에 기초하여 상기 피사체의 터치 입력을 제어하는 제어기를 포함한다.
Description
본 발명은 표시화면 인터페이스 시스템 및 그 방법에 관한 것이다.
일반적으로 컴퓨터에는 기기와 인간의 상호작용을 처리하기 위해 마우스 및 키보드 등과 같은 입력 인터페이스가 사용되고 있다.
나아가 최근 스마트폰 및 테블릿 PC 등과 같이 터치스크린이 적용된 정보통신기기가 늘어나면서 입력 인터페이스는 마우스와 키보드가 생략된 터치입력방식이 주를 이루고 있다.
상기 터치입력방식은 마우스의 포인터(커서)가 생략되고 사용자가 직접 터치스크린을 터치하는 것으로 기기 조작이 가능한 점에서 진보된 입력 인터페이스로서 인정받고 있다. 그러나, 빔프로젝터(Beam Projector)와 같이 원격에서 빔을 조사하여 대화면을 표시하는 디스플레이의 표시화면에는 터치 입력을 구현하기 매우 어렵다.
예를 들면, 빔프로젝터는 특성상 대화면에 설치 위치에 따라 사이즈가 가변적인 반면에 빔이 조사되는 스크린 상에 터치 패드를 설치하는 경우 화면 크기가 제한적이다. 또한 사이즈의 가변이 어렵고 설치비용이 매우 크므로 적당한 장치를 구비하기 어렵다.
이러한, 어려움을 개선하기 위하여 RF 신호를 방출하는 리모콘과 유사한 장치를 이용하여 가상 마우스 기능을 제공하는 방법이 있지만, 터치 기능이 불가능하며 잘 작동하지 않고 조작 기능에도 큰 한계가 있는 단점 있다.
또한, 종래에는 3차원 카메라의 동작 인식기능을 이용한 가상 터치 기술 제안되어 있으나 3차원 카메라를 스크린 정면에서 비추고 3차원 영상을 확보함으로써 3차원 영상 처리에 따른 복잡도와 잦은 인식 오류가 발생되는 문제점이 있다.
예컨대, 종래에는 상기 3차원 영상에서 스크린 영역 상에 있는 터치 수행자의 신체를 파악하고, 터치 신체 일부를 파악해야 하며, 상기 신체 일부가 스크린 상을 터치 했는지 여부를 계산해야 하는 등의 복잡도가 늘어나 인식성능이 크게 떨어지는 단점이 있다.
또한, 3차원 카메라를 스크린의 정면에서 비추고 있기 때문에 터치 수행자의 몸이나 신체 일부가 터치하는 손을 가리게 되는 경우 터치 여부를 인식하지 못하는 단점이 있다.
본 발명의 실시 예는 입력 인터페이스가 없는 표시화면의 직관적인 조작을 위하여 사용자 입력 기능을 지원하는 표시화면 인터페이스 시스템 및 그 방법을 제공하고자 한다.
본 발명의 일 측면에 따르면, 표시화면 입력 인터페이스 시스템은 스크린의 측면에 위치하고, 슬릿을 통해 빛을 조사하여 상기 스크린 상에 터치 영역을 형성하며, 상기 터치 영역에서 피사체에 반사된 빛을 이용하여 터치 좌표를 계산하는 3차원 카메라; 및 상기 3차원 카메라로부터 수신된 상기 터치 좌표에 기초하여 상기 피사체의 터치 입력을 제어하는 제어기를 포함한다.
또한, 상기 3차원 카메라는, TOF(Time of Flight) 센서를 이용하며 상기 스크린 좌우의 대각선 상단이나 하단 중 어느 한 곳에 위치할 수 있다.
또한, 상기 3차원 카메라는, 설치 위치를 기준으로 상기 피사체의 상대 거리 및 각도를 포함하는 터치 위치를 측정할 수 있다.
또한, 상기 3차원 카메라는, 스크린의 측부에서 빛을 스크린 상의 평면으로 조사하는 송신부; 상기 스크린 상에 존재하는 피사체에 의해 반사된 빛을 수신하는 수신부; 렌즈에 장착되어 상기 송신부에서 발사되는 빛이 슬릿을 통해 스크린 위에 평면으로만 조사하도록 제한하는 슬릿부; 상기 슬릿을 통해 형성된 평면 터치 영역에서 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 상기 터치 좌표를 산출하는 터치 검출부; 및 상기 터치 좌표를 상기 제어기로 전송하는 통신부를 포함할 수 있다.
또한, 상기 터치 검출부는, 상기 피사체에 반사된 빛의 왕복 시간과 위상변화를 토대로 상기 피사체의 거리와 각도를 측정할 수 있다.
또한, 상기 터치 검출부는, 상기 거리와 각도를 이용하여 상기 스크린의 표시화면 상의 X좌표와 Y좌표를 계산할 수 있다.
또한, 상기 X좌표는 상기 거리와 코싸인 각도를 곱하여 계산하고, 상기 Y좌표는 상기 거리와 사인 각도를 곱하여 계산할 수 있다.
또한, 상기 표시화면 입력 인터페이스 시스템은, 상기 3차원 카메라를 일면에 부착하고 상기 스크린의 일측 대각선에서 타측 대각선 방향을 향하도록 고정하는 장착부를 더 포함할 수 있다.
또한, 상기 장착부는, 상기 3차원 카메라를 부착하고, 스크린의 일측 대각선에 고정하는 집게, 상기 스크린의 전면과 후면에 걸린 상태로 간격을 조이는 체결부재, 자력으로 부착하는 마그네틱 및 스크린의 전면에 흡착되는 흡착판 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어기는, 표시화면을 상기 스크린에 표시하는 화면 표시 모듈; 상기 표시화면에 대한 상기 3차원 카메라의 좌표계를 설정하고, 상기 좌표계의 설정 정보를 표시화면과 매칭하여 저장하는 좌표 설정 모듈; 및 상기 3차원 카메라로부터 수신된 터치 좌표에 따른 상기 표시화면의 터치 입력을 제어하는 제어 모듈을 포함할 수 있다.
또한, 상기 좌표 설정 모듈은, 캘리브레이션을 위한 표시화면에 복수의 기준 포인트를 표시하고, 상기 기준 포인트의 터치 좌표를 입력 받아 상기 기준 포인트와 터치 좌표의 편차를 계산하여 상기 3차원 카메라의 위치 조정을 안내할 수 있다.
또한, 상기 제어 모듈은, 상기 수신된 터치 좌표가 상기 좌표계 내에 존재하는 경우에만 유효한 것으로 판단하고, 상기 좌표계를 벗어나면 오입력으로 판단하여 폐기할 수 있다.
한편, 본 발명의 일 측면에 따른, 스크린 표시화면의 입력 인터페이스를 지원하는 3차원 카메라는, 상기 스크린의 대각선 일단에 위치하여 측면에서 빛을 조사하는 송신부; 피사체에 의해 반사된 빛을 수신하는 수신부; 상기 수신부의 렌즈에 장착되어 상기 피사체에 반사된 빛이 바 형태의 슬릿을 통한 상기 스크린 상의 평면 터치 영역에서만 수신되도록 제한하는 슬릿부; 상기 평면 터치 영역에서 터치가 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 터치 좌표를 산출하는 터치 검출부; 및 상기 터치 좌표를 상기 표시화면의 터치 입력을 제어하는 제어기로 전송하는 통신부를 포함한다.
또한, 상기 터치 검출부는, 상기 평면 터치 영역에서 터치가 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 상기 터치 좌표를 산출할 수 있다.
한편, 본 발명의 일 측면에 따른, 스크린의 대각선에 설치되는 3차원 카메라를 이용한 표시화면 입력 인터페이스 방법은, 렌즈에 형성된 슬릿을 통해 제한된 폭의 빛을 조사하여 상기 스크린 상에 수평한 평면 터치 영역을 형성하는 단계; 스크린 상의 평면 터치 영역에서 피사체에 의해 반사된 빛으로 상기 3차원 카메라로부터의 터치 위치를 측정하는 단계; 상기 터치 위치의 거리와 각도를 이용하여 표시화면의 터치 좌표를 계산하는 단계; 및 상기 터치 좌표를 상기 표시화면을 제어하는 제어기로 전송하여 사용자 터치 정보를 입력하는 단계를 포함한다.
또한, 상기 평면 터치 영역을 형성하는 단계는, 상기 스크린의 표시화면 크기에 맞게 좌표계를 설정하는 단계; 및 상기 좌표계를 상기 제어기로 전송하여 표시화면과 매칭시키는 단계를 포함할 수 있다.
또한, 상기 좌표계를 설정은, 상기 스크린에 표시된 표시화면의 4개 꼭지점 좌표를 입력 받아 서로 연결하여 상기 표시화면에 영역에 대한 좌표계를 설정하는 단계를 포함할 수 있다.
또한, 상기 평면 터치 영역을 형성하는 단계는, 캘리브레이션 표시화면에 복수의 기준 포인트 표시하고 상기 기준 포인트를 터치한 터치 좌표를 측정하는 단계; 및 상기 기준 포인트와 터치 좌표의 편차가 보정되도록 상기 3차원 카메라의 위치 조정을 안내하는 단계를 포함할 수 있다.
또한, 상기 터치 좌표를 계산하는 단계는, 상기 거리와 코싸인 각도를 곱하여 X좌표를 계산하는 단계; 및 상기 거리와 사인 각도를 곱하여 Y좌표를 계산하는 단계를 포함할 수 있다.
또한, 상기 터치 좌표를 계산하는 단계는, 상기 터치 좌표가 상기 표시화면에 매칭된 좌표계를 벗어난 값이면 상기 표시화면 바깥 영역의 터치가 오입력된 것으로 판단하여 폐기하는 단계를 포함할 수 있다.
본 발명의 실시 예에 따르면, 입력 인터페이스 기능이 없는 대형 스크린이나 일반 디스플레이의 대각선 단부에 3차원 카메라를 설치하여 간단히 표시화면에 대한 입력 인터페이스 기능을 제공할 수 있다.
또한, 3차원 카메라의 렌즈에 슬릿을 형성하여 스크린 상의 제한된 평면 영역에서만 피사체의 터치를 검출하도록 하고, 이를 통해 2차원 터치 좌표를 계산함으로써 기존 3차원 영상 처리의 복잡도와 인식률 저하의 문제를 해결할 수 있다.
또한, 스크린의 종류와 규격에 맞게 3차원 카메라의 좌표계를 설정함으로써 다양한 사이즈의 표시화면에 적응된 입력 인터페이스 기능을 부여할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템을 개략적으로 나타낸다.
도 2는 본 발명의 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 3차원 카메라 시점에서 슬릿부를 통해 바라본 평면 터치 영역을 나타낸다.
도 4는 본 발명의 실시 예에 따른 3차원 카메라의 터치 위치 검출 방법을 나타낸다.
도 5는 본 발명의 실시 예에 따른 제어기의 구성을 개략적으로 나타낸 블록도이다.
도 6은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 전 상태를 나타낸다.
도 7은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 상태를 나타낸다.
도 8은 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 방법을 개략적으로 나타낸 흐름도이다.
도 9는 본 발명의 다른 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
도 10은 본 발명의 다른 실시 예에 따른 3차원 카메라의 좌표계 설정방법을 나타낸다.
도 2는 본 발명의 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
도 3은 본 발명의 실시 예에 따른 3차원 카메라 시점에서 슬릿부를 통해 바라본 평면 터치 영역을 나타낸다.
도 4는 본 발명의 실시 예에 따른 3차원 카메라의 터치 위치 검출 방법을 나타낸다.
도 5는 본 발명의 실시 예에 따른 제어기의 구성을 개략적으로 나타낸 블록도이다.
도 6은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 전 상태를 나타낸다.
도 7은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 상태를 나타낸다.
도 8은 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 방법을 개략적으로 나타낸 흐름도이다.
도 9는 본 발명의 다른 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
도 10은 본 발명의 다른 실시 예에 따른 3차원 카메라의 좌표계 설정방법을 나타낸다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이제 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템 및 그 방법에 대하여 도면을 참조로 하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템을 개략적으로 나타낸다.
첨부된 도 1을 참조하면, 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템은 빔프로젝터(100), 3차원 카메라(200) 및 제어기(300)를 포함한다.
빔프로젝터(100)는 스크린에 빔을 조사하여 표시화면을 표시한다.
상기 스크린은 사용자 입력 인터페이스 기능 없이 빔프로젝터(100)의 표시화면을 표시할 수 있는 평면으로 전용 화이트 보드나 일반 벽면 등일 수 있다.
또한, 본 발명의 실시 예는 이에 한정되지 않으며 스크린은 터치 입력기능이 없는 일반 모니터(예; LCD), TV 및 전자칠판 등과 같은 모든 디스플레이 일 수 있다.
3차원 카메라(200)는 상기 스크린의 대각선 상단에 위치하며며, 렌즈에 형성된 슬릿을 통해 제한된 폭의 빛을 타측 대각선방향으로 조사하여 상기 스크린 상에 평면인 2D 터치 영역(이하, 평면 터치 영역이라 명명함)을 형성한다.
그리고, 3차원 카메라(200)는 상기 평면 터치 영역에서 사람의 손이나 지시봉과 같은 피사체에 반사된 빛을 수신하여 터치 위치를 측정하고, 상기 터치 위치에 대한 터치 좌표를 계산하여 제어기(300)로 전달한다.
여기서, 상기 터치 위치는 3차원 카메라(200)의 설치 위치를 기준으로 검출된 피사체의 상대 거리 및 각도 정보를 포함할 수 있다.
제어기(300)는 PC, 노트북, 넷북, 테블릿 PC 등과 같은 정보통신 단말기로써 빔프로젝터(100) 및 3차원 카메라(200)와 유/무선 통신으로 연결되어 표시화면 입력 인터페이스 지원을 위한 전반적인 동작을 제어한다. 그리고 이를 위한 하드웨어 및 소프트웨어를 포함한다.
제어기(300)는 빔프로젝터(100)에 영상소스를 전달하여 표시화면을 스크린에 표시하도록 제어한다.
또한, 제어기(300)는 상기 스크린 상의 평면 터치 영역에 대한 3차원 카메라(200)의 좌표계를 설정하여, 스크린 상의 표시화면에 따른 상기 평면 터치 영역의 좌표계를 매칭하여 저장한다.
즉, 제어기(300)는 스크린 상의 표시화면과 상기 평면 터치 영역의 좌표계를 매칭하여 저장하고, 3차원 카메라(200)로부터 수신된 상기 터치 위치(좌표)에 기초하여 상기 표시화면에 대한 터치 입력 동작을 제어할 수 있다.
도 2는 본 발명의 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
첨부된 도 2를 참조하면, 본 발명의 실시 예에 따른 3차원 카메라(200)는 송신부(210), 수신부(220), 슬릿부(230), 터치 검출부(240) 및 통신부(250)를 포함한다. 여기에, 3차원 카메라(200)를 스크린의 대각선 단부(꼭지점 부분)에 표시화면과 수직으로 고정시기 위한 안내 구조의 장착부(260)를 더 포함할 수 있다. 즉, 3차원 카메라(200)는 스크린 좌우의 대각선 상단이나 하단 중 어느 한 곳에 위치할 수 있다.
먼저, 3차원 카메라(200)는 TOF(Time of Flight) 센서를 이용하여 피사체의 거리를 측정할 수 있는 카메라로 구성될 수 있으며, 이에 한정되지 않고 피사체의 깊이(depth)를 측정할 수 있는 3차원 카메라를 적용할 수 있다.
송신부(210)는 스크린의 측부에서 빛을 스크린 상의 평면으로 조사하며, 이를 위한 적외선(Infrared Ray, IR) 및 레이저(Laser) 발생 장치로 구성될 수 있다.
수신부(220)는 송신부(210)에서 조사된 빛이 평면 터치 영역에 존재하는 피사체에 의해 반사된 빛을 수신하며, 상기 반사된 빛을 검출하는 이미지 센서로 구성될 수 있다.
슬릿부(230)는 3차원 카메라(200)의 측정 영역을 스크린 상의 평면 영역(2D Line)으로 제한하기 위하여 바(bar) 형태로 관통된 가늘고 긴 슬릿의 필터로써 렌즈에 장착한다.
슬릿부(230)는 3차원 카메라(200)가 상기 슬릿을 통해 스크린 상에 수평한 평면 터치 영역에서만 피사체의 위치를 검출할 수 있도록 측정 영역을 제한하는 역할을 한다.
슬릿부(230)는 송신부(210)의 렌즈에 장착되어, 송신부(210)에서 조사되는 빛(송신 신호)이 슬릿을 통해 스크린 위에 평면으로만 조사하도록 제한할 수 있다.
이때, 송신부(210)에서 발사되는 빛은 슬릿부(230)를 통해 스크린 상에 평면으로만 조사되므로, 수신부(220)에서는 상기 평면 터치 영역에 존재하는 피사체에 반사된 빛 만을 수신할 수 있다.
여기서, 슬릿부(230)를 통해 측정 영역을 제한하는 이유는 3차원 영상의 측정 영역이 넓어질수록 피사체의 측정 범위가 늘어나며, 늘어난 범위에 들어가는 피사체가 하나의 큰 덩어리로 검출되므로 실질적으로 터치한 위치(좌표)를 인식하기가 어렵기 때문이다.
따라서, 슬릿부(230)는 슬릿을 통과하는 제한된 평면 터치 영역(제한된 측정 영역)에 대해서만 피사체의 검출 위치를 계산하도록 하여 후술되는 스크린 상의 터치 좌표를 보다 간단하게 인식할 수 있도록 하는 이점이 있다.
터치 검출부(240)는 스크린의 측부로부터 바라본 평면 터치 영역에서 터치가 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 터치 좌표를 산출한다.
한편, 도 3은 본 발명의 실시 예에 따른 3차원 카메라 시점에서 슬릿부를 통해 바라본 평면 터치 영역을 나타낸다.
도 4는 본 발명의 실시 예에 따른 3차원 카메라의 터치 위치 검출 방법을 나타낸다.
먼저, 첨부된 도 3을 참조하면, 3차원 카메라 시점에서 슬릿부를 통해 바라본 평면 터치 영역은, 마치 사람이 스크린의 대각선 위치에서 동전이 투입되는 슬롯과 같은 틈새로 스크린 표시화면 상의 일정 폭을 평행하게 바라본 것과 유사하다고 설명할 수 있다.
이때, 3차원 카메라(200)의 송신부(210)에서 조사된 빛이 스크린의 표시화면 상의 검은 점선과 같이 제한된 폭의 평면 터치 영역을 설정하고, 피사체가 터치를 원하는 표시화에 위치하면 상기 피사체에 반사된 빛을 수신부(220)에서 수신한다.
터치 검출부(240)는 송신부(210)에서 조사된 빛이 손가락과 같은 피사체에 반사되어 수신부(220)에 수신된 왕복 시간과 위상변화를 감지하여 상기 피사체의 터치 위치를 측정한다.
첨부된 도 4를 참조하면, 본 발명의 실시 예에 따른 3차원 카메라(200)를 스크린의 대각선 상단에 위치시키면 평면 터치 영역에 존재하는 피사체에 반사된 빛의 왕복 시간과 위상변화를 감시할 수 있다.
터치 검출부(240)는 피사체에 반사된 빛의 왕복 시간과 위상변화를 토대로 3차원 카메라(200)에 기준 하는 상대 거리(R)와 각도(θ)를 검출한다.
또한, 터치 검출부(240)는 상기 상대 거리(R)와 각도(θ)를 이용하여 스크린의 표시화면 상의 X좌표와 Y좌표(이하, 터치 좌표라 명명함)를 계산할 수 있다.
상기 X좌표는 거리(R)와 코싸인 각도(cos(θ))를 곱하여 계산하고, 상기 Y좌표는 거리(R)와 사인 각도(sin(θ))를 곱하여 계산할 수 있다.
여기서, 터치 검출부(240)는 TOF 센서를 통해 획득되는 픽셀 강도(pixel intensity) 데이터를 이용하여 수신된 빛의 위상 변화에 대한 사인(sin)과 코사인(cos) 데이터를 획득하여 활용할 수 있다.
상기 터치 좌표 입력의 동작 주기는 3차원 카메라(200)에 빛이 수신되는 값의 변화량에 의존한다.
또한, 터치 검출부(240)는 멀티 터치와 같이 동시에 복수의 터치 좌표를 검출할 수 있으며, 터치 드레그와 같이 터치 좌표의 이동궤적(동작) 등을 검출할 수 있다.
통신부(250)는 터치 검출부(240)에서 검출된 터치 좌표를 제어기(300)로 전송한다.
장착부(260)는 3차원 카메라(200)를 일면에 부착하고 스크린의 일측 대각선에서 타측 대각선 방향을 향하도록 고정하는 장착 구조를 갖는다.
예컨대, 장착부(260)는 3차원 카메라(200)를 일면에 부착하고, 스크린의 대각선에 고정하는 집게, 상기 스크린의 전면과 후면에 걸린 상태로 간격을 조이는 체결부재, 자력으로 부착하는 마그네틱 및 스크린의 전면에 흡착되는 흡착판 중 적어도 하나로 구성될 수 있다.
또한, 장착부(260)는 롤 형태와 같이 스크린에 장착에 용이하지 않은 경우 별도의 스텐드에 장착하여 3차원 카메라(200)를 스크린의 대각선 하단에 위치시킬 수도 있다.
한편, 도 5는 본 발명의 실시 예에 따른 제어기의 구성을 개략적으로 나타낸 블록도이다.
첨부된 도 5를 참조하면, 본 발명의 실시 예에 따른 제어기(300)는 통신 모듈(310), 화면 표시 모듈(320), 좌표 설정 모듈(330) 및 제어 모듈(340)을 포함한다.
통신 모듈(310)은 빔프로젝터(100) 및 3차원 카메라(200)와 통신을 연결하고, 데이터를 송수신한다.
화면 표시 모듈(320)은 제어기(300)기의 작동에 따른 표시화면을 통신 모듈(310)을 통해 빔프로젝터(100)로 전송한다.
좌표 설정 모듈(330)은 스크린에 표시되는 상기 표시화면에 대한 3차원 카메라(200)의 좌표계를 설정하고, 상기 좌표계의 설정 정보를 표시화면과 매칭하여 저장한다.
3차원 카메라(200)는 장소에 따라 다양한 크기와 종류의 스크린/디스플레이에 설치될 수 있는 이동성을 가지므로, 상기 좌표계는 3차원 카메라(200)가 설치되는 스크린의 크기에 따라서 가변 될 수 있다. 여기서, 스크린의 면적 크기뿐만 아니라 스크린에 표시되는 표시화면의 가로/세로 비율의 다양한 규격을 포함한다.
그러므로, 좌표 설정 모듈(330)은 스크린에 표시되는 표시화면과 상기 스크린의 대각선에 설치된 3차원 카메라(200) 좌표계의 매칭을 위한 캘리브레이션을 수행할 수 있다.
도 6은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 전 상태를 나타낸다.
첨부된 도 6을 참조하면, 스크린의 대각선 상단에 3차원 카메라(200)를 설치하면, 좌표 설정 모듈(330)은 3차원 카메라(200)의 캘리브레이션 표시화면을 스크린의 크기에 맞게 표시한다.
상기 캘리브레이션 표시화면에는 복수의 기준 포인트(P)가 표시된다.
좌표 설정 모듈(330)은 사용자의 기준 포인트(P) 터치로 검출된 터치 좌표(T)를 입력 받아 캘리브레이션 표시화면에 기준 포인트(P)와 함께 표시한다.
이 때, 3차원 카메라(200)가 틀어진 경우의 캘리브레이션 전 화면에서는 기준 포인트(P)와 터치 좌표(T)가 불일치 하는 것으로 표시될 수 있다.
도 7은 본 발명의 실시 예에 따른 3차원 카메라의 캘리브레이션 상태를 나타낸다.
첨부된 도 7을 참조하면, 좌표 설정 모듈(330)은 불일치 하는 기준 포인트(P)와 터치 좌표(T)의 편차를 계산하여 3차원 카메라(200)의 위치 조정을 안내한다.
상기 위치 조정 안내에 따라 3차원 카메라(200)의 위치와 각도를 조정한 후 위와 같은 방식으로 터치 좌표(T)를 재입력하여 기준 포인트(P)와 터치 좌표(T)표가 일치하는지 확인한다.
좌표 설정 모듈(330)은 위 과정을 반복하여, 기준 포인트(P)와 터치 좌표(T)를 일치 시키는 캘리브레이션을 수행할 수 있다.
한편, 제어 모듈(340)은 통신 모듈(310)에 연결된 3차원 카메라(200)를 입력 인터페이스로 인식하고, 3차원 카메라(200)로부터 수신된 터치 좌표에 따른 표시화면을 제어한다.
제어 모듈(340)은 표시화면과 매칭된 좌표계에 기초하여 표시화면을 제어하며, 3차원 카메라(200)로부터 수신된 터치 좌표가 상기 좌표계 내에 있을 때만 유효한 것으로 판단한다. 그리고, 상기 수신된 터치 좌표가 상기 좌표계를 벗어난 경우 오입력으로 판단하여 무시할 수 있다.
즉, 제어 모듈(340)는 표시화면과 캘리브레이션 완료된 좌표계의 평면 터치 영역에서만 터치 입력을 수행한다.
이상의 설명에서 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템은 설명의 편의상 좌표 설정 모듈(330)이 제어기(300)에 포함되는 것으로 설명하였으나 이에 한정되지 않으며 3차원 카메라(200)에 포함되도록 구성할 수 있다.
이때, 3차원 카메라(200)의 통신부(250)는 빔프로젝터(100)와의 통신 연결로 스크린의 크기에 맞게 캘리브레이션 표시화면을 표시하여, 빔프로젝터(100)의 표시화면 크기(즉, 스크린 크기)에 맞게 좌표계를 설정할 수 있다.
한편, 전술한 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 시스템의 구성을 바탕으로 하는, 표시화면 입력 인터페이스 제공 방법을 설명한다.
도 8은 본 발명의 실시 예에 따른 표시화면 입력 인터페이스 방법을 개략적으로 나타낸 흐름도이다.
첨부된 도 8을 참조하면, 스크린의 대각선에 3차원 카메라(200)를 설치하고, 3차원 카메라(200)와 제어기(300)간 통신 연결이 완료된 것을 가정하여 설명한다.
3차원 카메라(200)는 스크린의 일측 대각선에 위치에서, 렌즈에 형성된 슬릿을 통해 제한된 폭의 빛을 타측 대각선방향으로 조사하여 상기 스크린 상에 평면인 평면 터치 영역을 형성한다(S101).
3차원 카메라(200)는 스크린 크기에 맞게 조절된 표시화면에 맞게 좌표계를 설정하고(S102), 이를 제어기(300)로 전송하여 표시화면과 매칭시킨다(S103, S104).
이때, 3차원 카메라(200)는 캘리브레이션 표시화면에 복수의 기준 포인트(P)를 터치한 터치 좌표(T)를 측정하고, 상기 기준 포인트(P)와 비교하여 터치 좌표(T)의 편차를 보정할 수 있다.
제어기(300)는 영상 데이터를 빔프로젝터(100)로 전송하여 스크린 상에 표시화면을 표시한다(S105).
3차원 카메라(200)는 스크린 상의 평면 터치 영역에서 반사된 빛으로 검출된 피사체의 터치 위치를 측정한다(S106). 상기 터치 위치는 3차원 카메라(200)로부터의 상대 거리(R)와 각도(θ)를 포함한다.
3차원 카메라(200)는 상기 거리(R)와 각도(θ)를 이용하여 표시화면 상의 터치 좌표를 계산하고(S107), 상기 터치 좌표를 표시화면을 제어하는 제어기(300)로 전송하여 사용자의 터치 정보를 입력한다(S108).
이후에도, 3차원 카메라(200)는 평면 터치 영역에 피사체가 검출되면 상기 S206, S107 단계를 반복하여 표시화면 상의 터치 좌표를 제어기(300)로 전송하는 입력 인터페이스로서 동작 한다.
제어기(300)는 3차원 카메라(200)로부터 터치 좌표를 수신하면, 표시화면에 매칭된 좌표계와 비교하여 유효한 값인지 판단한다(S108). 그리고, 상기 터치 좌표가 상기 좌표계 내의 유효한 값이면(S108; 예), 상기 터치 좌표에 따른 표시화면을 제어한다(S109).
반면, 제어기(300)는 상기 터치 좌표가 상기 좌표계를 벗어난 값이면 표시화면 바깥 영역의 터치가 오입력된 것으로 판단하여 상기 터치 좌표의 입력을 무시할 수 있다(S110).
여기서, 상기 S108 단계의 터치 좌표 유효성 판단은 위 설명의 실시 예에 한정되지 않으며, 제어기(300)가 아닌 3차원 카메라(200)가 터치 좌표를 계산한 후에 수행하도록 할 수 있다.
즉, 3차원 카메라(200)의 터치 검출부(240)는 계산된 상기 터치 좌표가 상기 표시화면에 매칭된 좌표계를 벗어난 값이면 상기 표시화면 바깥 영역의 터치가 오입력된 것으로 판단하여 무시할 수 있다.
따라서, 사전에 3차원 카메라(200) 단에서 계산된 좌표의 유효성을 판단함으로써 오입력된 터치 좌표가 불필요하게 제어기(300)로 전송되는 것을 방지할 수 있다.
이와 같이, 본 발명의 실시 예에 따르면, 입력 인터페이스 기능이 없는 대형 스크린이나 일반 디스플레이에 3차원 카메라를 설치하여 간단히 표시화면에 대한 입력 인터페이스 기능을 제공할 수 있는 효과가 있다.
또한, 3차원 카메라의 렌즈에 슬릿을 형성하여 스크린 상에 제한된 평면 영역에서만 피사체의 터치를 검출하도록 하고, 이를 통해 2차원 터치 좌표를 계산함으로써 기존 3차원 영상 처리의 복잡도와 인식률 저하의 문제를 해결할 수 있다.
또한, 스크린의 종류와 규격에 맞게 3차원 카메라의 좌표계를 설정함으로써 다양한 사이즈의 표시화면에 적응된 입력 인터페이스 기능을 부여할 수 있는 효과가 있다.
이상에서는 본 발명의 실시 예에 대하여 설명하였으나, 본 발명은 상기한 실시 예에만 한정되는 것은 아니며 그 외의 다양한 변경이 가능하다.
예컨대, 도 2에 도시한 본 발명의 실시 예에서는 슬릿부(230)는 송신부(210)의 렌즈에 장착된 것으로 설명 하였으나, 이에 한정되지 않으며 슬릿부(230)를 수신부(220)에 장착할 수 있다.
도 9는 본 발명의 다른 실시 예에 따른 3차원 카메라의 구성을 개략적으로 나타낸 블록도이다.
첨부된 도 9를 참조하면, 본 발명의 다른 실시 예는 앞서 설명된 도 2와 유사하며, 슬릿부(230)의 설치 위치만 다르므로 이를 위주로 설명한다.
슬릿부(230)를 수신부(220)의 렌즈에 장착하여, 피사체에 반사된 빛을 상기 슬릿을 통해서만 수신할 수 있도록 제한할 수 있다.
송신부(210)에는 슬릿부(230)가 없으므로 제한 없이 조사된 빛이 터치 하고자 손가락이나 지시봉뿐 아니라 사람의 몸에서도 반사 되더라도, 수신부(220)는 슬릿을 통해 스크린 상의 상기 평면 터치 영역에 존재하는 피사체에 반사된 빛만을 수신할 수 있다.
즉, 수신부(220)는 렌즈에 형성된 슬릿부(230)를 통해 제한된 폭의 반사된 빛을 수신하므로 상기 스크린 상에 평면인 평면 터치 영역을 형성하는 것과 동일한 효과를 가질 수 있다.
또한, 도 10은 본 발명의 다른 실시 예에 따른 3차원 카메라의 좌표계 설정방법을 나타낸다.
첨부된 도 10을 참조하면, 앞선 도 6 및 도 7을 통해서 3차원 카메라(200)의 표시화면과 좌표를 맞추기 위해 캘리브레이션하는 방법을 설명하였으나 이에 한정되지 않으며, 표시화면의 꼭지점 영역을 터치 좌표로 입력하여 간단히 좌표계를 설정할 수도 있다.
예컨대, 도 10과 같이 3차원 카메라(200)는 스크린의 대각선에 설치된 상태에서 다소 틀어지더라도, 스크린에 표시된 표시화면의 4개 꼭지점 좌표(T1, T2, T3, T4)를 터치로 입력 받는다.
그리고, 이들 꼭지점 좌표를 서로 연결하여 표시화면에 영역에 대한 좌표계를 설정하고, 상기 좌표계를 제어기(300)로 전달하여 표시화면에 매칭시킬 수 있다.
따라서, 3차원 카메라(200)의 설치 위치를 미세 조정할 필요 없이 4개의 터치로 간단하게 좌표계를 설정할 수 있는 이점이 있다.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 빔프로젝터 200: 3차원 카메라
210: 송신부 220: 수신부
230: 슬릿부 240: 터치 검출부
250: 통신부 260: 장착부
300: 제어기 310: 통신 모듈
320: 화면 표시 모듈 330: 좌표 설정 모듈
340: 제어 모듈
210: 송신부 220: 수신부
230: 슬릿부 240: 터치 검출부
250: 통신부 260: 장착부
300: 제어기 310: 통신 모듈
320: 화면 표시 모듈 330: 좌표 설정 모듈
340: 제어 모듈
Claims (20)
- 스크린의 측면에 위치하고, 슬릿을 통해 빛을 조사하여 상기 스크린 상에 터치 영역을 형성하며, 상기 터치 영역에서 피사체에 반사된 빛을 이용하여 터치 좌표를 계산하는 3차원 카메라; 및
상기 3차원 카메라로부터 수신된 상기 터치 좌표에 기초하여 상기 피사체의 터치 입력을 제어하는 제어기
를 포함하는 표시화면 입력 인터페이스 시스템. - 제 1 항에 있어서,
상기 3차원 카메라는,
TOF(Time of Flight) 센서를 이용하며 상기 스크린 좌우의 대각선 상단이나 하단 중 어느 한 곳에 위치하는 표시화면 입력 인터페이스 시스템. - 제 1 항에 있어서,
상기 3차원 카메라는,
설치 위치를 기준으로 상기 피사체의 상대 거리 및 각도를 포함하는 터치 위치를 측정하는 표시화면 입력 인터페이스 시스템. - 제 1 항에 있어서,
상기 3차원 카메라는,
스크린의 측부에서 빛을 스크린 상의 평면으로 조사하는 송신부;
상기 스크린 상에 존재하는 피사체에 의해 반사된 빛을 수신하는 수신부;
렌즈에 장착되어 상기 송신부에서 발사되는 빛이 슬릿을 통해 스크린 위에 평면으로만 조사하도록 제한하는 슬릿부;
상기 슬릿을 통해 형성된 평면 터치 영역에서 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 상기 터치 좌표를 산출하는 터치 검출부; 및
상기 터치 좌표를 상기 제어기로 전송하는 통신부를 포함하는 표시화면 입력 인터페이스 시스템. - 제 4 항에 있어서,
상기 터치 검출부는,
상기 피사체에 반사된 빛의 왕복 시간과 위상변화를 토대로 상기 피사체의 거리와 각도를 측정하는 표시화면 입력 인터페이스 시스템. - 제 4 항에 있어서,
상기 터치 검출부는,
상기 거리와 각도를 이용하여 상기 스크린의 표시화면 상의 X좌표와 Y좌표를 계산하는 표시화면 입력 인터페이스 시스템. - 제 6 항에 있어서,
상기 X좌표는 상기 거리와 코싸인 각도를 곱하여 계산하고, 상기 Y좌표는 상기 거리와 사인 각도를 곱하여 계산하는 표시화면 입력 인터페이스 시스템. - 제 1 항에 있어서,
상기 3차원 카메라를 일면에 부착하고 상기 스크린의 일측 대각선에서 타측 대각선 방향을 향하도록 고정하는 장착부를 더 포함하는 표시화면 입력 인터페이스 시스템. - 제 8 항에 있어서,
상기 장착부는,
상기 3차원 카메라를 부착하고, 스크린의 일측 대각선에 고정하는 집게, 상기 스크린의 전면과 후면에 걸린 상태로 간격을 조이는 체결부재, 자력으로 부착하는 마그네틱 및 스크린의 전면에 흡착되는 흡착판 중 적어도 하나를 포함하는 표시화면 입력 인터페이스 시스템. - 제 1 항에 있어서,
상기 제어기는,
표시화면을 상기 스크린에 표시하는 화면 표시 모듈;
상기 표시화면에 대한 상기 3차원 카메라의 좌표계를 설정하고, 상기 좌표계의 설정 정보를 표시화면과 매칭하여 저장하는 좌표 설정 모듈; 및
상기 3차원 카메라로부터 수신된 터치 좌표에 따른 상기 표시화면의 터치 입력을 제어하는 제어 모듈을 포함하는 표시화면 입력 인터페이스 시스템. - 제 10 항에 있어서,
상기 좌표 설정 모듈은,
캘리브레이션을 위한 표시화면에 복수의 기준 포인트를 표시하고, 상기 기준 포인트의 터치 좌표를 입력 받아 상기 기준 포인트와 터치 좌표의 편차를 계산하여 상기 3차원 카메라의 위치 조정을 안내하는 표시화면 입력 인터페이스 시스템. - 제 10 항에 있어서,
상기 제어 모듈은,
상기 수신된 터치 좌표가 상기 좌표계 내에 존재하는 경우에만 유효한 것으로 판단하고, 상기 좌표계를 벗어나면 오입력으로 판단하여 폐기하는 표시화면 입력 인터페이스 시스템. - 스크린 표시화면의 입력 인터페이스를 지원하는 3차원 카메라에 있어서,
상기 스크린의 대각선 일단에 위치하여 측면에서 빛을 조사하는 송신부;
피사체에 의해 반사된 빛을 수신하는 수신부;
상기 수신부의 렌즈에 장착되어 상기 피사체에 반사된 빛이 바 형태의 슬릿을 통한 상기 스크린 상의 평면 터치 영역에서만 수신되도록 제한하는 슬릿부;
상기 평면 터치 영역에서 터치가 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 터치 좌표를 산출하는 터치 검출부; 및
상기 터치 좌표를 상기 표시화면의 터치 입력을 제어하는 제어기로 전송하는 통신부
를 포함하는 표시화면 입력 인터페이스 시스템. - 제 13 항에 있어서,
상기 터치 검출부는,
상기 평면 터치 영역에서 터치가 검출된 피사체의 거리와 각도를 측정하고 이를 토대로 상기 터치 좌표를 산출하는 표시화면 입력 인터페이스 시스템. - 스크린의 대각선에 설치되는 3차원 카메라를 이용한 표시화면 입력 인터페이스 방법에 있어서,
렌즈에 형성된 슬릿을 통해 제한된 폭의 빛을 조사하여 상기 스크린 상에 수평한 평면 터치 영역을 형성하는 단계;
스크린 상의 평면 터치 영역에서 피사체에 의해 반사된 빛으로 상기 3차원 카메라로부터의 터치 위치를 측정하는 단계;
상기 터치 위치의 거리와 각도를 이용하여 표시화면의 터치 좌표를 계산하는 단계; 및
상기 터치 좌표를 상기 표시화면을 제어하는 제어기로 전송하여 사용자 터치 정보를 입력하는 단계
를 포함하는 표시화면 입력 인터페이스 방법. - 제 15 항에 있어서,
상기 평면 터치 영역을 형성하는 단계는,
상기 스크린의 표시화면 크기에 맞게 좌표계를 설정하는 단계; 및
상기 좌표계를 상기 제어기로 전송하여 표시화면과 매칭시키는 단계를 포함하는 표시화면 입력 인터페이스 방법. - 제 16 항에 있어서,
상기 좌표계를 설정은,
상기 스크린에 표시된 표시화면의 4개 꼭지점 좌표를 입력 받아 서로 연결하여 상기 표시화면에 영역에 대한 좌표계를 설정하는 단계를 포함하는 표시화면 입력 인터페이스 방법. - 제 15 항에 있어서,
상기 평면 터치 영역을 형성하는 단계는,
캘리브레이션 표시화면에 복수의 기준 포인트 표시하고 상기 기준 포인트를 터치한 터치 좌표를 측정하는 단계; 및
상기 기준 포인트와 터치 좌표의 편차가 보정되도록 상기 3차원 카메라의 위치 조정을 안내하는 단계를 포함하는 표시화면 입력 인터페이스 방법. - 제 15 항에 있어서,
상기 터치 좌표를 계산하는 단계는,
상기 거리와 코싸인 각도를 곱하여 X좌표를 계산하는 단계; 및
상기 거리와 사인 각도를 곱하여 Y좌표를 계산하는 단계를 포함하는 표시화면 입력 인터페이스 방법. - 제 15 항에 있어서,
상기 터치 좌표를 계산하는 단계는,
상기 터치 좌표가 상기 표시화면에 매칭된 좌표계를 벗어난 값이면 상기 표시화면 바깥 영역의 터치가 오입력된 것으로 판단하여 폐기하는 단계를 포함하는 표시화면 입력 인터페이스 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170050032A KR20180117000A (ko) | 2017-04-18 | 2017-04-18 | 표시화면 입력 인터페이스 시스템 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170050032A KR20180117000A (ko) | 2017-04-18 | 2017-04-18 | 표시화면 입력 인터페이스 시스템 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180117000A true KR20180117000A (ko) | 2018-10-26 |
Family
ID=64099171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170050032A KR20180117000A (ko) | 2017-04-18 | 2017-04-18 | 표시화면 입력 인터페이스 시스템 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180117000A (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102414378B1 (ko) * | 2021-01-29 | 2022-06-30 | 주식회사 베오텍 | 드라이브 스루 공간터치 시스템 및 방법 |
-
2017
- 2017-04-18 KR KR1020170050032A patent/KR20180117000A/ko unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102414378B1 (ko) * | 2021-01-29 | 2022-06-30 | 주식회사 베오텍 | 드라이브 스루 공간터치 시스템 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9207812B2 (en) | Interactive input system and method | |
EP3054693B1 (en) | Image display apparatus and pointing method for same | |
US8878819B2 (en) | Portable optical touch system and operating method thereof | |
WO2004090706A2 (en) | Auto-aligning touch system and method | |
AU2007204570A1 (en) | Interactive input system | |
TWI536226B (zh) | 光學觸控裝置與觸控影像處理方法 | |
US20160293140A1 (en) | Brightness adjustment system and method, and mobile terminal | |
US20180088696A1 (en) | Display screen, touch pen and display module | |
US20190361569A1 (en) | Interactive screen devices, systems, and methods | |
US8854338B2 (en) | Display apparatus and method of controlling display apparatus | |
US9639209B2 (en) | Optical touch system and touch display system | |
KR101375056B1 (ko) | 적외선펜의 좌표를 인식하는 터치스크린시스템 | |
KR20180117000A (ko) | 표시화면 입력 인터페이스 시스템 및 그 방법 | |
US20120019442A1 (en) | Pointing device for use with a computer and methods of operation and calibration thereof | |
WO2017013186A1 (en) | Apparatus and method for detecting gestures on a touchpad | |
KR20130110309A (ko) | 반사부를 이용한 터치인식 시스템 | |
JP4136584B2 (ja) | 座標入力装置及び座標値出力方法とプログラム | |
KR102202186B1 (ko) | 터치감지 모듈을 내장하는 공간터치 인식 장치 | |
JP5627547B2 (ja) | 座標検出装置の設置方法及び座標検出装置 | |
KR20160148872A (ko) | 전자 칠판 시스템 | |
KR20140145028A (ko) | 입력 장치 및 그의 구동 방법 | |
WO2018205478A1 (zh) | 一种指向型设备的定位装置 | |
KR20140042244A (ko) | 터치 좌표 인식 장치 및 방법 | |
KR20140044525A (ko) | 모션 센서 카메라를 이용한 터치 스크린 프레임 및 이를 포함하는 디스플레이 시스템 | |
JP2003076484A (ja) | 座標指示物の大きさ算出方法、座標入力装置および座標指示物の大きさ算出プログラム |