KR102417535B1 - 터치 인터랙션이 가능한 프로젝터 - Google Patents

터치 인터랙션이 가능한 프로젝터 Download PDF

Info

Publication number
KR102417535B1
KR102417535B1 KR1020170056857A KR20170056857A KR102417535B1 KR 102417535 B1 KR102417535 B1 KR 102417535B1 KR 1020170056857 A KR1020170056857 A KR 1020170056857A KR 20170056857 A KR20170056857 A KR 20170056857A KR 102417535 B1 KR102417535 B1 KR 102417535B1
Authority
KR
South Korea
Prior art keywords
light
touch
panel
lens
screen
Prior art date
Application number
KR1020170056857A
Other languages
English (en)
Other versions
KR20180122811A (ko
Inventor
임성현
Original Assignee
임성현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임성현 filed Critical 임성현
Priority to KR1020170056857A priority Critical patent/KR102417535B1/ko
Priority to PCT/KR2018/002237 priority patent/WO2018203595A1/ko
Publication of KR20180122811A publication Critical patent/KR20180122811A/ko
Application granted granted Critical
Publication of KR102417535B1 publication Critical patent/KR102417535B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • Projection Apparatus (AREA)

Abstract

사용자가 휴대할 수 있고 이동할 때마다 다른 조작이 없이 터치 인터랙션이 가능한 프로젝터를 제시한다. 제시된 프로젝터는 광원으로부터의 광을 영상으로 변환하는 패널, 패턴빔을 출력하는 패턴빔 제공부, 패턴빔 및 패널로부터의 영상을 스크린에게로 투사하고 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈, 터치 인터랙션에 의한 신호에 근거하여 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서, 및 광원으로부터의 광을 패널에게로 보내고 패널로부터의 영상을 투과시켜 렌즈에게로 보내고 패턴빔을 반사시켜 렌즈에게로 보내고 렌즈에서 수신되는 터치 인터랙션에 의한 신호를 센서에게로 보내는 광분리 소자를 포함한다.

Description

터치 인터랙션이 가능한 프로젝터{Touch-enabled projector}
본 발명은 터치 인터랙션이 가능한 프로젝터에 관한 것으로, 보다 상세하게는 소형 빔 프로젝터로부터 투사되는 화면에 터치 인터랙션이 가능하도록 하는 프로젝터에 관한 것이다.
최근 스마트폰과 태블릿 PC 등의 휴대용 장치들이 널리 보급됨에 따라 휴대용 장치들과 연동되는 제품이 소비자들에게 큰 인기를 얻고 있다.
특히, 스마트폰과 같이 크기가 작은 화면을 크게 보여줄 수 있는 휴대용 프로젝터가 크게 인기를 얻고 있다.
그런데, 휴대용 프로젝터는 화면을 크게 볼 수만 있을 뿐, 화면의 컨텐츠를 제어 및 조작하려고 하면 사용자는 터치스크린을 직접 터치하거나 휴대 장치(예컨대, 스마트폰)의 키를 누름으로써 명령을 입력하게 된다. 이때, 사용자가 휴대 장치의 화면을 터치하게 되면 초점을 맞춘 상태로 특정 위치에 놓아둔 휴대 장치의 위치도 어긋날 수 있다. 이와 같이 되면 외부로 투사되는 이미지가 흔들릴 수 있다.
이를 해결하기 위해, 프로젝터 화면을 직접 터치가 가능하도록 만드는 기술이 개발되었고, 인터랙션이 되는 프로젝터가 출시되고 있고 소비자들도 관련 제품에 많은 관심을 가지고 있다.
하지만, 현재 시중에 나온 터치 인터랙션이 가능한 프로젝터는 화면을 투사하는 렌즈와 인터랙션을 인식하는 렌즈가 각각 설치되어 있어서 크기가 크다. 또한, 프로젝터를 이동시킬 때마다 인터랙션을 위한 캘리브레이션을 매번 수행해야 하는 불편함이 있다. 즉, 기존에는 빔 프로젝터에서 터치를 인식하기 위해서는 화면을 투사하는 렌즈 이외에 터치를 인식하는 렌즈를 별도로 두어야 하고, 비춰지는 화면 영역에 따라 터치 영역을 캘리브레이션해야 한다.
선행기술 1 : 대한민국 공개특허 제10-2012-0044783호(프로젝터를 이용한 스크린 장치 및 그 스크린 장치의 터치 위치 검출방법) 선행기술 2 : 대한민국 공개특허 제10-2003-0072591호(데이터 입력 디바이스)
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 사용자가 휴대할 수 있고 이동할 때마다 다른 조작(보정과정)이 없이 터치 인터랙션이 가능한 프로젝터를 제공함에 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 패턴빔을 출력하는 패턴빔 제공부; 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.
상기 패널은 반사 패널로 구성될 수 있다.
상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치될 수 있고, 상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있고, 상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치될 수 있다.
상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함할 수 있다.
태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함할 수 있다.
상기 패턴빔은 적외선 광으로 형성될 수 있다.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 해당 터치 지점에서 패턴 왜곡 또는 모양 변화된 적외선 광일 수 있다.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 신체 일부로 어느 한 터치 객체를 터치함에 따라 다른 지점과 비교하여 해당 터치 지점에서 변화된 광량을 가진 적외선 광일 수 있다.
한편, 본 발명의 바람직한 다른 실시양태에 따른 터치 인터랙션이 가능한 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 패턴빔을 출력하는 패턴빔 제공부; 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈; 상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및 상기 패널로부터의 영상을 투과시켜 상기 렌즈에게로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈에게로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서에게로 보내는 광분리 소자;를 포함한다.
상기 패널은 투과 패널로 구성될 수 있다.
상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치될 수 있고, 상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치될 수 있고, 상기 패턴빔 제공부 및 상기 센서는 상기 광분리 소자의 제 3면에 대향하여 설치될 수 있다.
이러한 구성의 본 발명에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하도록 하고, 화면 영역에 따라 터치 영역을 별도의 캘리브레이션 없이 동작하도록 할 수 있다.
다양한 투사면(사각형, 원, 원기둥 등의 비평면 사물스크린, 초근접 광각의 투사면)에 대해서 휴대용, 이동형 소형 프로젝터에서 보여주는 컨텐츠나 OS 제어를 전용펜을 이용해서 어떤 면에서나 터치가 가능한 프로젝터를 구현할 수 있다.
종래에는 스크린의 형태가 평면에서만 동작 가능하였으나, 본 발명에 따르면 환경이 바뀔 때마다 번거롭게 수행하여야 하는 복잡한 보정과정없이 인터랙션 환경을 바꾸어가면서 사용할 수 있다.
그리고, 사물스크린과 같이 기존에 공간구성을 변경하지 않고 만들어지는 콘텐츠에 대해서도 인터랙션을 적용하여 다양한 서비스와 콘텐츠 기술로 활용할 수 있다.
최근 자동차 전장 시장이나 애프터 마켓의 헤드업 디스플레이(HUD)가 활성화 됨에 따라 본 발명의 활용도는 더욱 늘어날 것으로 예상된다.
또한, 패턴빔과 인식센서가 좌표평면이 일체화된 센서로 발전하여 3D 인식과 자연 입력영상의 텍스처 맵핑이 동시에 이루어져 스마트폰용 3D 스캐너 역할을 하여, 다양한 인터랙션을 이용한 입력장치의 거리 확대 및 증강현실에도 활용이 가능하다.
도 1은 본 발명에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.
도 2는 도 1에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다.
도 3 내지 도 5는 도 2의 구성에 의해 캘리브레이션이 필요없는 이유를 설명하기 위한 도면이다.
도 6은 도 2에 도시된 센서의 인식 영역을 예시한 도면이다.
도 7은 도 2에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.
도 8은 도 1에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다.
도 9는 도 8에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명하기 위한 플로우차트이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명에 따른 터치 인터랙션이 가능한 프로젝터의 전체적인 동작 개념을 설명하기 위한 도면이다.
본 발명에 따른 터치 인터랙션이 가능한 프로젝터(100)는 스크린(200)을 향해 소정 거리 이격되게 위치한다.
프로젝터(100)는 휴대 및 이동가능할 정도의 작은 사이즈로서, 예를 들어 피코(pico) 프로젝터라고 할 수도 있다.
물론, 프로젝터(100)는 다양한 디지털 사이니지에도 활용가능하므로, 이동형 프로젝터 뿐만 아니라 대형의 사물스크린 등과 같이 인터랙션을 위한 캘리브레이션(보정)이 크고 어려운 환경에서도 적용가능하다.
프로젝터(100)는 렌즈(33, 43)를 통해 소정의 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함) 및 패턴빔(예컨대, 적외선 패턴빔)을 스크린(200)에게로 투사할 수 있다. 여기서, 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다.
그리고, 프로젝터(100)는 스크린(200)상에서 터치 인터랙션이 발생하면 그에 상응하는 신호를 수신할 수 있다.
또한, 프로젝터(100)는 발생된 터치 인터랙션에 상응하는 터치 이벤트를 처리할 수 있다.
여기서, 터치 인터랙션은 사용자의 터치에 의해 발생된다. 예를 들어, 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화가 발생하게 된다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다. 이와 같이 신체 일부로 터치 객체를 터치함에 따라 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 일어나게 하는 것을 터치 인터랙션이라고 할 수 있다. 따라서, 다른 지점과 비교하여 해당 터치 지점에서 패턴 왜곡 또는 모양 변화된 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다. 상기 예로 든 패턴 왜곡 또는 모양 변화를 이용하는 것은 프로젝터(100)와 스크린(200)간의 거리 확대에도 기여할 것이다.
한편, 상기 예로 든 패턴 왜곡 또는 모양 변화를 이용하는 것 이외에도, 광량 변화를 이용할 수도 있다. 예를 들어, 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서는 적외선 광량 변화가 발생하게 된다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 지점에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다. 다시 말해서, 손가락에서 난반사 등이 일어나므로 수신측에서는 다른 위치에 비해 광량이 보다 적은 적외선 패턴빔을 수신할 것이다. 이와 같이 신체 일부로 터치 객체를 터치함에 따라 해당 터치 지점에서 적외선 광량 변화가 일어나게 하는 것을 터치 인터랙션이라고 할 수 있다. 따라서, 다른 지점과 비교하여 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다.
스크린(200)은 투사화면이 될 수 있는데, 스크린(200)은 도 1에서와 같이 평평한 면으로 이루어지는 것이 바람직할 것이다.
그러나, 스크린(200)은 평평하지 않은 면으로 이루어져도 무방하다. 예를 들어, 평평한 두 개의 면의 경계가 서로 닿아 있는 부위를 향해 소정의 영상을 투사하더라도 투사되는 영상이 두 개의 면에 나뉘어져서 서로 자연스럽게 연결된 것처럼 보여질 것이다.
도 2는 도 1에 도시된 프로젝터의 내부 구성의 일 예를 나타낸 도면이다. 도 2의 프로젝터는 DLP(Digital Light Processing) 프로젝터라고 할 수 있으며, 신체 일부(예컨대, 손가락)로 스크린(200)을 직접 터치할 수 있다.
도 2에 도시된 프로젝터(100)는 광원(30), 패널(11), 적외선 패턴빔 제공부(32), 렌즈(33), 필터(34), 센서(35), 인터랙션 신호 처리부(36), 및 광분리 소자(37)를 포함한다.
광원(30)은 소정의 광을 방사한다. 예를 들어, 광원(30)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다.
광원(30)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다.
패널(31)은 광원(30)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(31)에는 광원(30)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(31)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.
여기서, 패널(31)은 반사 패널로 구성될 수 있다. 그에 따라, 광원(30)은 패널(31)과 소정 거리 이격된 측방에 설치된다.
적외선 패턴빔 제공부(32)는 스크린(200)의 전면에 투사되는 적외선 패턴빔을 출력한다. 적외선 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다. 적외선 패턴빔은 적외선 광으로 형성된 소정 패턴의 빔을 의미할 수 있다. 적외선 패턴빔은 본 발명의 청구범위에 기재된 패턴빔의 일 예가 될 수 있다.
렌즈(33)는 패널(31)로부터의 영상을 확대하여 스크린(200)에게로 보낸다.
렌즈(33)는 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 스크린(200)의 전면에 골고루 퍼질 수 있도록 보낸다.
그리고, 렌즈(33)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 예를 들어, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(33)는 해당 터치 지점에서의 패턴 왜곡 또는 모양 변화된 적외선 광을 수광할 수 있다. 다른 예로는, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(33)는 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 수광할 수 있다. 물론, 렌즈(33)는 터치 지점 이외의 지점에서의 적외선 광도 수광할 것이다.
렌즈(33)는 프로젝터(100)의 최전방에 설치된다.
렌즈(33)는 도 1에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.
필터(34)는 태양광 또는 광원(30)의 빛이 센서(35)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(34)는 스크린(200)에서 반사되어 렌즈(33) 및 광분리 소자(37)를 거쳐 입사되는 적외선 신호(광량 변화가 있는 적외선 신호 및 광량 변화가 없는 적외선 신호)만을 통과시키고 그 이외의 신호는 제거한다.
필터(34)는 센서(35)의 전단에 설치됨이 바람직하다.
도 2에서, 광원(30)에서 방사되는 광은 광분리 소자(37)에서 모두 반사되어 패널(31)로 입사되는 것이 아니라 그 중의 일부는 광분리 소자(37)를 그대로 투과할 수 있다. 예를 들어, 광원(30)에서 방사되는 광이 레이저라고 가정하였을 경우 레이저는 적외선 영역을 포함하므로 적외선 영역에 해당하는 광이 광분리 소자(37)를 그대로 투과하여 센서(35)에게로 입사될 수 있다. 이 경우, 센서(35)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(34)는 센서(35)의 전단에 설치됨으로써 센서(35)에 인가될 필요가 없는 광(즉, 광원(30)의 광)을 제거한다.
또한, 프로젝터(100)의 외부에서 태양광이 프로젝터(100)의 내부로 유입될 수 있다. 이때, 프로젝터(100)의 내부로 유입된 태양광이 센서(35)에게로 입사되면 센서(35)는 비정상적인 센싱을 수행하게 될 것이다. 따라서, 필터(34)는 센서(35)의 전단에 설치됨으로써 센서(35)에 인가될 수 있는 광(즉, 태양광)을 제거한다.
센서(35)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호를 포함)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(35)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(35)의 위치 좌표 인식 동작에 대한 보다 자세한 설명은 후술하기로 한다.
인터랙션 신호 처리부(36)는 센서(35)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.
한편, 인터랙션 신호 처리부(36)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.
그리고, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리할 수 있다.
광분리 소자(37)는 광원(30)으로부터의 광을 패널(31)측으로 반사시키고, 패널(31)로부터의 영상을 투과시켜 렌즈(33)에게로 보낸다. 광분리 소자(37)는 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 반사시켜 렌즈(33)에게로 보낸다. 또한, 광분리 소자(37)는 렌즈(33)를 통해 입사되는 적외선 신호(광)를 센서(35)측으로 반사시킨다.
보다 상세하게는, 광분리 소자(37)의 내부에는 빗면(37a)이 형성된다. 빗면(37a)은 광원(30)으로부터의 광을 패널(31)측으로 반사시키고, 패널(31)로부터의 영상을 그대로 투과시킬 수 있다. 빗면(37a)은 적외선 패턴빔 제공부(32)로부터의 적외선 패턴빔을 렌즈(33)측으로 반사시킬 수 있다. 그리고, 빗면(37a)은 렌즈(33)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(35)측으로 반사시킬 수 있다.
도 2에서, 광분리 소자(37)는 육면체로 구성될 수 있다. 광원(30)은 광분리 소자(37)의 제 1면(예컨대, 좌측면)에 대향하여 설치될 수 있다. 패널(31)은 광분리 소자(37)의 제 2면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(33)는 광분리 소자(37)의 제 3면(예컨대, 정면)에 대향하여 설치될 수 있다. 적외선 패턴빔 제공부(32)와 필터(34) 및 센서(35)는 광분리 소자(37)의 제 4면(예컨대, 우측면)에 대향하여 설치될 수 있다.
상술한 도 2에서는 인터랙션 신호 처리부(36)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(36)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(35)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.
도 3 내지 도 5는 도 2의 구성에 의해 캘리브레이션이 필요없는 이유를 설명하기 위한 도면이다.
기존의 터치 인터랙션이 가능한 프로젝터는 도 3에서와 같이 스크린에게로 소정의 영상을 투사하는 투사 렌즈, 및 스크린상에서의 터치 인터랙션에 따른 신호(빛)를 수광하는 인터랙션 렌즈를 각각 설치한다.
그에 따라, 기존의 터치 인터랙션이 가능한 프로젝터는 도 3에서와 같이 두 렌즈 사이의 거리 때문에 인식 영역에서 차이가 발생한다. 즉, 인터랙션 범위와 투사 범위가 서로 차이난다.
그리하여, 도 4에서와 같이 기존에는 투사 렌즈와 인터랙션 렌즈의 설치 각도를 조절하여 동시 인식 가능 범위를 늘렸다. 이 과정에서, 투사 렌즈와 인터랙션 렌즈의 광축이 서로 달라지게 되므로, 이에 따른 오차를 없애기 위해 캘리브레이션을 행하였다. 두 렌즈 사이에 발생하는 오차는 스크린과 프로젝터 사이의 거리, 각도에 따라 변하기 때문에 프로젝터 설치 위치가 변경될 때마다 캘리브레이션이 필요하였다.
그런데, 도 5에서와 같이 본 발명에서는 투사와 인터랙션을 하나의 렌즈(33)에서 처리하게 되므로, 투사 렌즈와 인터랙션 렌즈의 광축이 일치가 된다. 따라서, 광축이 동일하여 오차가 없고, 오차가 없으므로 캘리브레이션이 필요없게 된다.
다시 말해서, 본 발명에 의해서는 도 5에서와 같이 투사범위와 인터랙션 범위가 동일하게 되고, 인식가능범위(즉, 인식 영역)가 확대된다.
도 6은 도 2에 도시된 센서의 인식 영역을 예시한 도면이다.
앞서 설명한 바와 같이, 도 2의 구성에 의해서는 별도의 캘리브레이션이 필요없게 되므로, 도 6에서와 같이 센서(35)의 인식 영역(범위)은 고정적으로 정해질 것이다.
패턴 왜곡 또는 모양 변화를 이용하는 경우, 터치가 없으면 센서(35)는 인식 영역내의 모든 위치에서 패턴 왜곡 또는 모양 변화가 없는 적외선 신호(즉, 적외선 패턴빔)를 인식할 것이다. 그런데, 터치가 있게 되면 인식 영역내의 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화가 발생할 것이다. 따라서, 센서(35)는 인식 영역내에 터치 지점이 있게 되면 인식 영역을 기준으로 해당 터치 지점의 X,Y좌표값을 손쉽게 계산할 수 있다.
한편, 광량을 이용하는 경우, 터치가 없으면 센서(35)는 인식 영역내의 모든 위치에서의 적외선 신호(즉, 적외선 패턴빔)가 동일한 광량인 것으로 인식할 것이다. 그런데, 터치가 있게 되면 인식 영역내의 해당 터치 지점에서의 적외선 신호의 광량만이 차이날 것이다. 따라서, 센서(35)는 인식 영역내에 터치 지점이 있게 되면 인식 영역을 기준으로 해당 터치 지점의 X,Y좌표값을 손쉽게 계산할 수 있다.
예를 들어, 상술한 X,Y좌표값의 범위는 0 ~ 4095 일 수 있다. 즉, 센서(35)에서의 X,Y의 위치 좌표값은 0 ~ 4095 사이의 값으로 계산되어 인터랙션 신호 처리부(36)에게로 입력될 것이다. 필요에 따라, 센서(35)는 손가락 끝점을 파악할 수 있는 알고리즘을 추가로 채용하여 보다 정확하게 터치 지점의 X,Y좌표값을 계산할 수 있다. 손가락 끝점을 파악할 수 있는 알고리즘은 당업자라면 주지의 기술을 통해 충분히 이해할 수 있으리라 본다.
프로젝터(100)에서 필요로 하는 좌표값은 해당 프로젝터(100)의 해상도에 따라 다를 것이다. 예를 들어, 프로젝터(100)의 해상도가 1920 × 1080이라면 프로젝터(100)가 필요로 하는 좌표값은 가로 0 ~ 1980, 세로 0 ~ 1080 값이 될 것이다.
그에 따라, 인터랙션 신호 처리부(36)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(35)의 좌표데이터를 실세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(36)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리할 수 있다.
이번에는, 도 7의 플로우차트를 참조하여, 도 2에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S100).
그에 따라, 광원(30)이 온(ON)되고, 적외선 패턴빔 제공부(32)가 온(ON)된다(S102, S104).
광원(30)은 광(예컨대, 레이저 광)을 광분리 소자(37)에게로 방사하게 되고, 광원(30)에서 방사된 광은 광분리 소자(37)의 빗면(37a)에서 반사되어 패널(31)에게로 입사된다(S106). 그에 따라, 패널(31)에는 소정의 영상이 맺힌다. 즉, 광원(30)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(31)에는 광원(30)으로부터의 광에 의해 소정의 영상이 형성될 것이다. 이와 함께, 적외선 패턴빔 제공부(32)는 적외선 패턴빔을 광분리 소자(37)에게로 출력한다.
이어, 패널(31)의 영상은 광분리 소자(37)를 투과하여 렌즈(33)에게로 향하고, 적외선 패턴빔은 빗면(37a)에서 반사되어 렌즈(33)에게로 향한다(S108).
렌즈(33)에게로 전달된 영상은 렌즈(33)를 통해 스크린(200)에 투사되고, 적외선 패턴빔은 렌즈(33)를 통해 스크린(200)의 전면에 골고루 퍼지게 된다(S110).
그에 따라, 스크린(200)에는 적외선 패턴빔이 분포할 뿐만 아니라 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 된다.
그에 따라, 패턴 왜곡 또는 모양 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다.
이와 다르게, 적외선 광량 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 적외선 광량 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 위치에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서 터치 인터랙션이 발생한다(S112에서 "Yes").
이후, 터치 인터랙션이 발생한 지점에서의 적외선 신호 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호가 스크린(200)에서 렌즈(33)를 통해 광분리 소자(37)에게로 입사된다. 광분리 소자(37)에게로 입사된 적외선 신호(광)들은 빗면(37a)에서 반사되어 필터(34)를 통과하여 센서(35)에게로 입력된다(S114).
센서(35)의 인식영역에는 터치 인터랙션이 발생한 지점에서의 적외선 신호(광) 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호(광)가 모두 들어온다. 그에 따라, 센서(35)는 패턴 왜곡 또는 모양 변화가 발생한 해당 터치 지점의 좌표값(즉, X,Y좌표값), 또는 광량에서 차이가 있는 해당 터치 지점의 좌표값(즉, X,Y좌표값)을 손쉽게 인식(계산 또는 변환)해 낼 수 있다(S116).
그리고, 센서(35)는 인식한 위치 좌표값을 인터랙션 신호 처리부(36)에게로 전달한다(S118).
인터랙션 신호 처리부(36)는 센서(35)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S120).
그리고 나서, 인터랙션 신호 처리부(36)는 해당 터치 이벤트를 처리한다(S122).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.
도 8은 도 1에 도시된 프로젝터의 내부 구성의 다른 예를 나타낸 도면이다. 도 8의 프로젝터는 LCD 프로젝터 또는 LED 프로젝터라고 할 수 있으며, 신체 일부(예컨대, 손가락)로 스크린(200)을 직접 터치할 수 있다.
도 2에 도시된 프로젝터(100)는 광원(40), 패널(41), 적외선 패턴빔 제공부(42), 렌즈(43), 필터(44), 센서(45), 인터랙션 신호 처리부(46), 및 광분리 소자(47)를 포함한다.
광원(40)은 소정의 광을 방사한다. 예를 들어, 광원(40)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다.
광원(40)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있다.
패널(41)은 광원(40)에서 발생하는 광(빛)을 사람이 볼 수 있는 영상으로 변환할 수 있다. 다시 말해서, 패널(41)에는 광원(40)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(41)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.
여기서, 패널(41)은 투과 패널로 구성될 수 있다. 그에 따라, 광원(40)은 패널(41)의 후방에 설치된다.
적외선 패턴빔 제공부(42)는 스크린(200)의 전면에 투사되는 일정 광량의 적외선 패턴빔을 출력한다. 적외선 패턴빔은 스크린(200)의 전면을 전부 커버할 수 있도록 골고루 퍼질 것이다. 적외선 패턴빔은 적외선 광으로 형성된 소정 패턴의 빔을 의미할 수 있다. 적외선 패턴빔은 본 발명의 청구범위에 기재된 패턴빔의 일 예가 될 수 있다.
렌즈(43)는 패널(41)로부터의 영상을 확대하여 스크린(200)에게로 보낸다.
렌즈(43)는 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 스크린(200)의 전면에 골고루 퍼질 수 있도록 보낸다.
그리고, 렌즈(43)는 스크린(200)에서의 터치 인터랙션에 의한 적외선 신호(광)를 수광할 수 있다. 예를 들어, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(43)는 해당 터치 지점에서의 패턴 왜곡 또는 모양 변화된 적외선 광을 수광할 수 있다. 다른 예로는, 사용자가 신체 일부로 터치 객체를 터치하게 되면 렌즈(43)는 해당 터치 지점에서 변화된 광량을 가진 적외선 광을 수광할 수 있다. 물론, 렌즈(43)는 터치 지점 이외의 지점에서의 적외선 광도 수광할 것이다.
렌즈(43)는 프로젝터(100)의 최전방에 설치된다.
렌즈(43)는 도 1에서와 같이 프로젝터(100)에서 노출되게 설치될 수 있다.
필터(44)는 태양광 또는 광원(40)의 빛이 센서(45)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(44)는 스크린(200)에서 반사되어 렌즈(43) 및 광분리 소자(47)를 거쳐 입사되는 적외선 신호(광량 변화가 있는 적외선 신호 및 광량 변화가 없는 적외선 신호)만을 통과시키고 그 이외의 신호는 제거한다.
필터(44)는 센서(45)의 전단에 설치됨이 바람직하다.
필터(44)의 채용 목적에 대한 구체적인 설명은 상술한 도 2에서의 필터(34) 설명으로 충분하리라 본다.
센서(45)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호를 포함)에 근거하여 현재 터치된 터치 객체의 위치 좌표를 인식한다. 즉, 센서(45)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(45)의 위치 좌표 인식 동작에 대한 보다 구체적인 설명은 앞서 도 6을 근거로 설명한 센서(35)의 내용으로 대체가능하리라 본다.
인터랙션 신호 처리부(46)는 센서(45)로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단할 수 있다.
한편, 인터랙션 신호 처리부(46)는 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하면 해당하는 터치 이벤트로 변환시킬 수 있다.
그리고, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리할 수 있다.
다시 말해서, 인터랙션 신호 처리부(46)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(45)의 좌표데이터를 실세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(46)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리할 수 있다.
광분리 소자(47)는 패널(41)로부터의 영상을 투과시켜 렌즈(43)에게로 보낸다. 광분리 소자(47)는 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 반사시켜 렌즈(43)에게로 보낸다. 또한, 광분리 소자(47)는 렌즈(43)를 통해 입사되는 적외선 신호(광)를 센서(45)측으로 반사시킨다.
보다 상세하게는, 광분리 소자(47)의 내부에는 빗면(47a)이 형성된다. 빗면(47a)은 패널(41)로부터의 영상을 그대로 투과시킬 수 있다. 빗면(47a)은 적외선 패턴빔 제공부(42)로부터의 적외선 패턴빔을 렌즈(43)측으로 반사시킬 수 있다. 그리고, 빗면(47a)은 렌즈(43)를 통해 입사되는 적외선 신호(광이 될 수 있음)를 센서(45)측으로 반사시킬 수 있다.
도 8에서, 광분리 소자(47)는 육면체로 구성될 수 있다. 광원(40) 및 패널(41)은 광분리 소자(47)의 제 1면(예컨대, 배면)에 대향하여 설치될 수 있다. 렌즈(43)는 광분리 소자(47)의 제 2면(예컨대, 정면)에 대향하여 설치될 수 있다. 적외선 패턴빔 제공부(42)와 필터(44) 및 센서(45)는 광분리 소자(47)의 제 4면(예컨대, 우측면)에 대향하여 설치될 수 있다.
상술한 도 8에서는 인터랙션 신호 처리부(46)를 프로젝터(100)의 내부에 설치되는 것으로 하였는데, OS가 탑재된 휴대장치(예컨대, 스마트폰) 또는 PC의 내부에 설치시켜도 된다. 만약, 인터랙션 신호 처리부(46)가 휴대장치 또는 PC의 내부에 설치되었을 경우에는 센서(45)의 내부에는 별도의 송신 모듈이 포함되어 위치 좌표값을 휴대장치 또는 PC에게로 보낼 수 있을 것이다.
그리고, 상술한 바와 같은 도 8의 구성에 의해서도 캘리브레이션이 필요없게 된다. 캘리브레이션이 필요없는 이유는 상술한 도 3 내지 도 5의 내용을 참조하면 충분히 이해할 수 있으리라 본다.
이번에는, 도 9의 플로우차트를 참조하여, 도 8에 도시된 프로젝터를 이용한 터치 인터랙션 동작을 설명한다.
먼저, 프로젝터(100)의 전원을 온(ON)시킨다(S200).
그에 따라, 광원(40)이 온(ON)되고, 적외선 패턴빔 제공부(42)가 온(ON)된다(S202, S204).
광원(40)의 광빔(예컨대, 레이저 광)이 패널(41)의 후면으로 직접 입사되어, 패널(21)에는 소정의 영상이 맺힌다(S206, S208). 즉, 광원(40)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(41)에는 광원(40)으로부터의 광에 의해 소정의 영상이 형성될 것이다. 이와 함께, 적외선 패턴빔 제공부(42)는 적외선 패턴빔을 광분리 소자(47)에게로 출력한다.
이어, 패널(41)의 영상은 광분리 소자(47)를 투과하여 렌즈(43)에게로 향하고, 적외선 패턴빔은 빗면(47a)에서 반사되어 렌즈(43)에게로 향한다(S210).
렌즈(43)에게로 전달된 영상은 렌즈(43)를 통해 스크린(200)에 투사되고, 적외선 패턴빔은 렌즈(43)를 통해 스크린(200)의 전면에 골고루 퍼지게 된다(S212).
그에 따라, 스크린(200)에는 적외선 패턴빔이 분포할 뿐만 아니라 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 된다.
그에 따라, 패턴 왜곡 또는 모양 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 패턴 왜곡 또는 모양 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에는 적외선 패턴빔(예컨대, 구조광빔(structured light beam))이 형성되어 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 손가락에 의해 해당 터치 지점에서는 패턴 왜곡 또는 모양 변화를 일으키게 된다.
이와 다르게, 적외선 광량 변화를 근거로 터치 인터랙션의 위치를 파악하는 경우에는 해당 터치 지점에서 적외선 광량 변화가 발생하게 될 것이다. 즉, 스크린(200)의 전면에 일정한 광량의 적외선 패턴빔이 골고루 분포하고 있는데, 어느 한 터치 객체를 손가락으로 터치하게 되면 해당 터치 위치에서의 적외선 패턴빔의 광량은 다른 위치에서의 적외선 패턴빔의 광량과는 차이날 것이다.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 신체 일부(예컨대, 손가락)로 어느 한 터치 객체를 터치하게 되면 해당 터치 지점에서 터치 인터랙션이 발생한다(S214에서 "Yes").
이후, 터치 인터랙션이 발생한 지점에서의 적외선 신호 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호가 스크린(200)에서 렌즈(43)를 통해 광분리 소자(47)에게로 입사된다. 광분리 소자(47)에게로 입사된 적외선 신호(광)들은 빗면(47a)에서 반사되어 필터(44)를 통과하여 센서(45)에게로 입력된다(S216).
센서(45)의 인식영역에는 터치 인터랙션이 발생한 지점에서의 적외선 신호(광) 및 터치 인터랙션이 없는 다른 지점들에서의 적외선 신호(광)가 모두 들어온다. 그에 따라, 센서(45)는 패턴 왜곡 또는 모양 변화가 발생한 해당 터치 지점의 좌표값(즉, X,Y좌표값), 또는 광량에서 차이가 있는 해당 터치 지점의 좌표값(즉, X,Y좌표값)을 손쉽게 인식(계산 또는 변환)해 낼 수 있다(S218).
그리고, 센서(45)는 인식한 위치 좌표값을 인터랙션 신호 처리부(46)에게로 전달한다(S220).
인터랙션 신호 처리부(46)는 센서(45)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S222).
그리고 나서, 인터랙션 신호 처리부(46)는 해당 터치 이벤트를 처리한다(S224).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.
30, 40 : 광원
31, 41 : 패널
32, 42 : 적외선 패턴빔 제공부
33, 43 : 렌즈
34, 44 : 필터
35, 45 : 센서
36, 46 : 인터랙션 신호 처리부
37, 47 : 광분리 소자

Claims (16)

  1. 광원으로부터의 광을 영상으로 변환하는 패널;
    패턴빔을 출력하는 패턴빔 제공부;
    영상 투사와 터치 인터랙션의 광축을 일치시키기 위해, 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및
    상기 광원으로부터의 광을 상기 패널에게로 보내고, 상기 패널로부터의 영상을 투과시켜 상기 렌즈로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서로 보내는 광분리 소자;를 포함하고,
    상기 광원은 상기 광분리 소자의 제 1면에 대향하여 설치되고, 상기 패널은 상기 광분리 소자의 제 2면에 대향하여 설치되고, 상기 렌즈는 상기 광분리 소자의 제 3면에 대향하여 설치되고, 상기 센서는 상기 광분리 소자의 제 4면에 대향하여 설치되되, 상기 광분리 소자를 중심으로 상기 패널과 상기 렌즈가 제 1 방향으로 일렬로 설치되고, 상기 광분리 소자를 중심으로 상기 광원과 상기 센서가 제 2 방향으로 일렬로 설치되고,
    상기 패널은 반사 패널로 구성되고,
    상기 패턴빔은 적외선 광으로 형성되고,
    상기 센서는,
    상기 스크린 상의 패턴빔이 투사된 영역 중 제1 지점의 적외선 광량과 제2 지점의 적외선 광량 간 차이에 기초하여 상기 터치 인터랙션의 위치를 인식하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  2. 삭제
  3. 삭제
  4. 청구항 1에 있어서,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  5. 청구항 1에 있어서,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 광원으로부터의 광을 영상으로 변환하는 패널;
    패턴빔을 출력하는 패턴빔 제공부;
    영상 투사와 터치 인터랙션의 광축을 일치시키기 위해, 상기 패턴빔 및 상기 패널로부터의 영상을 스크린에 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 수신하는 단일의 렌즈;
    상기 터치 인터랙션에 의한 신호에 근거하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 및
    상기 패널로부터의 영상을 투과시켜 상기 렌즈로 보내고, 상기 패턴빔을 반사시켜 상기 렌즈로 보내고, 상기 렌즈에서 수신되는 상기 터치 인터랙션에 의한 신호를 상기 센서로 보내는 광분리 소자;를 포함하고,
    상기 광원 및 상기 패널은 상기 광분리 소자의 제 1면에 대향하여 설치되되 상기 광원은 상기 패널의 후방에 설치되고, 상기 렌즈는 상기 광분리 소자의 제 2면에 대향하여 설치되고, 상기 센서는 상기 광분리 소자의 제 3면에 대향하여 제 1 방향으로 일렬로 설치되고, 상기 광원과 상기 패널과 상기 렌즈는 상기 광분리 소자를 중심으로 제 2 방향으로 일렬로 설치되고,
    상기 패널은 투과 패널로 구성되고,
    상기 패턴빔은 적외선 광으로 형성되고,
    상기 센서는,
    상기 스크린의 상기 패턴빔이 투사된 영역 중 제1 지점과 제2 지점 간 적외선 광량 차이에 기초하여 상기 터치 인터랙션의 위치를 인식하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  10. 삭제
  11. 삭제
  12. 청구항 9에 있어서,
    상기 센서로부터의 위치 좌표를 근거로 어느 터치 객체에 대하여 터치 이벤트가 발생하였는지를 판단하여 해당하는 터치 이벤트로 변환시키는 인터랙션 신호 처리부;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  13. 청구항 9에 있어서,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 터치 인터랙션이 가능한 프로젝터.
  14. 삭제
  15. 삭제
  16. 삭제
KR1020170056857A 2017-05-04 2017-05-04 터치 인터랙션이 가능한 프로젝터 KR102417535B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170056857A KR102417535B1 (ko) 2017-05-04 2017-05-04 터치 인터랙션이 가능한 프로젝터
PCT/KR2018/002237 WO2018203595A1 (ko) 2017-05-04 2018-02-23 터치 인터랙션이 가능한 프로젝터

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170056857A KR102417535B1 (ko) 2017-05-04 2017-05-04 터치 인터랙션이 가능한 프로젝터

Publications (2)

Publication Number Publication Date
KR20180122811A KR20180122811A (ko) 2018-11-14
KR102417535B1 true KR102417535B1 (ko) 2022-07-05

Family

ID=64328405

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170056857A KR102417535B1 (ko) 2017-05-04 2017-05-04 터치 인터랙션이 가능한 프로젝터

Country Status (1)

Country Link
KR (1) KR102417535B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102400513B1 (ko) 2020-12-07 2022-05-24 한국전자통신연구원 에어 스크린 디텍터 장치
CN113906372A (zh) * 2021-05-20 2022-01-07 深圳盈天下视觉科技有限公司 一种空中成像交互系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175421A (ja) * 2008-01-24 2009-08-06 Nikon Corp 液晶プロジェクタ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1352303A4 (en) 2001-01-08 2007-12-12 Vkb Inc DATA INPUT DEVICE
KR20120044783A (ko) 2010-10-28 2012-05-08 주식회사 세바비드코어 프로젝터를 이용한 터치 스크린 장치 및 그 터치 스크린 장치의 터치 위치 검출방법
KR102082702B1 (ko) * 2013-03-28 2020-02-28 엘지전자 주식회사 레이저 영상표시장치
KR20150062952A (ko) * 2013-11-29 2015-06-08 주식회사 크레모텍 위치 감지가 가능한 레이저 프로젝터 및 이를 이용한 위치 감지 방법
KR102155120B1 (ko) * 2014-02-26 2020-09-11 삼성전자주식회사 뷰 센서 장치 및 이를 포함하는 홈 제어 시스템, 그리고 이의 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175421A (ja) * 2008-01-24 2009-08-06 Nikon Corp 液晶プロジェクタ

Also Published As

Publication number Publication date
KR20180122811A (ko) 2018-11-14

Similar Documents

Publication Publication Date Title
TWI547828B (zh) 感測器與投射器之校準技術
CN209028562U (zh) 一种基于无介质空中成像的交互和反馈装置
US9658765B2 (en) Image magnification system for computer interface
KR102463712B1 (ko) 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
CN107407959B (zh) 基于姿势的三维图像的操纵
JP2012503230A (ja) 複数のカメラを有するタッチスクリーンディスプレイ
CN102455779A (zh) 信息处理设备和方法
US20110199337A1 (en) Object-detecting system and method by use of non-coincident fields of light
US20180007328A1 (en) Viewpoint adaptive image projection system
US9372572B2 (en) Touch locating method and optical touch system
KR102417535B1 (ko) 터치 인터랙션이 가능한 프로젝터
CN109451291A (zh) 无介质浮空投影声源定向语音交互系统、智能汽车
US10481739B2 (en) Optical steering of component wavelengths of a multi-wavelength beam to enable interactivity
KR102417534B1 (ko) 터치 인터랙션이 가능한 프로젝터
CN108141560B (zh) 用于图像投影的系统及方法
WO2022137940A1 (ja) 空間浮遊映像表示装置
TWI564773B (zh) 光學觸控系統及其光學觸控裝置
KR101488287B1 (ko) 터치 인식 디스플레이 장치
US20100295823A1 (en) Apparatus for touching reflection image using an infrared screen
US20150185321A1 (en) Image Display Device
KR101550606B1 (ko) 차량용 곡면 디스플레이 장치
CN204066012U (zh) 一种投影装置
US20160306418A1 (en) Interactive image projection
KR102426484B1 (ko) 팬틸트 능동제어형 미러 스크린 프로젝터
US11338680B2 (en) Air imaging apparatus for vehicle and human-machine interactive in-vehicle assistance system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant