KR102426484B1 - 팬틸트 능동제어형 미러 스크린 프로젝터 - Google Patents

팬틸트 능동제어형 미러 스크린 프로젝터 Download PDF

Info

Publication number
KR102426484B1
KR102426484B1 KR1020170162493A KR20170162493A KR102426484B1 KR 102426484 B1 KR102426484 B1 KR 102426484B1 KR 1020170162493 A KR1020170162493 A KR 1020170162493A KR 20170162493 A KR20170162493 A KR 20170162493A KR 102426484 B1 KR102426484 B1 KR 102426484B1
Authority
KR
South Korea
Prior art keywords
image
pan
tilt
touch
mirror
Prior art date
Application number
KR1020170162493A
Other languages
English (en)
Other versions
KR20190063593A (ko
Inventor
임성현
Original Assignee
주식회사 애니랙티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 애니랙티브 filed Critical 주식회사 애니랙티브
Priority to KR1020170162493A priority Critical patent/KR102426484B1/ko
Publication of KR20190063593A publication Critical patent/KR20190063593A/ko
Application granted granted Critical
Publication of KR102426484B1 publication Critical patent/KR102426484B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/18Fire preventing or extinguishing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

하나의 렌즈에서 화면 투사와 터치 인식이 가능하고 화면 영역에 따라 터치 영역을 별도의 캘리브레이션없이 동작하도록 하는 팬틸트 능동제어형 미러 스크린 프로젝터를 제시한다. 제시된 미러 스크린 프로젝터는 광원으로부터의 광을 영상으로 변환하는 패널, 패널로부터의 영상을 확대하는 단일의 렌즈, 렌즈를 통과한 패널로부터의 영상을 스크린에게로 투사하고 스크린에서의 터치 인터랙션에 의한 신호를 센서측으로 반사시키는 반사 미러, 터치 인터랙션에 의한 신호를 수신하여 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서, 센서로부터의 위치 좌표를 터치 이벤트로 변환하는 인터랙션 신호 처리부, 반사 미러에서 반사되어 센서에게로 입력되어 오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성하고 생성된 팬틸트 미러 보정 파라메터로 반사 미러의 팬틸트를 제어하고 팬틸트 미러 보정 파라메터를 출력하는 팬틸트 제어부, 및 팬틸트 미러 보정 파라메터를 근거로 영상의 왜곡과 터치 인터랙션에 의한 신호의 왜곡을 보정하는 왜곡 보정 제어부를 포함한다.

Description

팬틸트 능동제어형 미러 스크린 프로젝터{Pan Tilt Active Controlled Mirror Screen Projector}
본 발명은 팬틸트 능동제어형 미러 스크린 프로젝터에 관한 것으로, 보다 상세하게는 투사되는 화면에 터치 인터랙션이 가능하도록 하는 팬틸트 능동제어형 미러 스크린 프로젝터에 관한 것이다.
최근 스마트폰과 태블릿 PC 등의 휴대용 장치들이 널리 보급됨에 따라 휴대용 장치들과 연동되는 제품이 소비자들에게 큰 인기를 얻고 있다.
특히, 스마트폰과 같이 크기가 작은 화면을 크게 보여줄 수 있는 휴대용 프로젝터가 크게 인기를 얻고 있다.
그런데, 휴대용 프로젝터는 화면을 크게 볼 수만 있을 뿐, 화면의 컨텐츠를 제어 및 조작하려고 하면 사용자는 터치스크린을 직접 터치하거나 휴대 장치(예컨대, 스마트폰)의 키를 누름으로써 명령을 입력하게 된다. 이때, 사용자가 휴대 장치의 화면을 터치하게 되면 초점을 맞춘 상태로 특정 위치에 놓아둔 휴대 장치의 위치도 어긋날 수 있다. 이와 같이 되면 외부로 투사되는 이미지가 흔들릴 수 있다.
이를 해결하기 위해, 프로젝터 화면을 직접 터치가 가능하도록 만드는 기술이 개발되었고, 인터랙션이 되는 프로젝터가 출시되고 있고 소비자들도 관련 제품에 많은 관심을 가지고 있다.
하지만, 현재 시중에 나온 터치 인터랙션이 가능한 프로젝터는 화면을 투사하는 렌즈와 인터랙션을 인식하는 렌즈가 각각 설치되어 있어서 크기가 크다. 또한, 프로젝터를 이동시킬 때마다 인터랙션을 위한 캘리브레이션을 매번 수행해야 하는 불편함이 있다.
또한, 광 분리소자를 이용한 인터랙션 가능한 피코 프로젝터는 광원이 렌즈 내부에서 광 분리소자를 통과하여 출력되면서 밝기가 감소하고, 렌즈 외부에서 인터랙션 신호가 광 분리소자를 통과하여 입력되면서 인터랙션 신호의 민감도가 감소되는 단점이 있다.
선행기술 1 : 대한민국 공개특허 제10-2012-0044783호(프로젝터를 이용한 스크린 장치 및 그 스크린 장치의 터치 위치 검출방법) 선행기술 2 : 대한민국 공개특허 제10-2003-0072591호(데이터 입력 디바이스)
본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 하나의 렌즈에서 화면 투사와 터치 인식이 가능하고 화면 영역에 따라 터치 영역을 별도의 캘리브레이션없이 동작하도록 하는 팬틸트 능동제어형 미러 스크린 프로젝터를 제공함에 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 팬틸트 능동제어형 미러 스크린 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 상기 패널로부터의 영상을 확대하는 단일의 렌즈; 상기 렌즈를 통과한 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 센서측으로 반사시키는 반사 미러; 상기 터치 인터랙션에 의한 신호를 수신하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서; 상기 센서로부터의 위치 좌표를 터치 이벤트로 변환하는 인터랙션 신호 처리부; 상기 반사 미러에서 반사되어 상기 센서에게로 입력되어 오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성하고, 생성된 팬틸트 미러 보정 파라메터로 상기 반사 미러의 팬틸트를 제어하고, 상기 팬틸트 미러 보정 파라메터를 출력하는 팬틸트 제어부; 및 상기 팬틸트 미러 보정 파라메터를 근거로 상기 영상의 왜곡과 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 왜곡 보정 제어부;를 포함한다.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 터치기기로 어느 한 터치 객체를 터치함에 따라 터치 지점에서 상기 터치기기에 의해 방출되는 특정 광일 수 있다.
상기 특정 광은 적외선 광일 수 있다.
태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하여도 된다.
상기 패널은 반사 패널 또는 투과 패널로 구성될 수 있다.
그리고, 본 발명의 다른 바람직한 실시양태에 따른 팬틸트 능동제어형 미러 스크린 프로젝터는, 광원으로부터의 광을 영상으로 변환하는 패널; 상기 패널로부터의 영상을 확대하는 단일의 렌즈; 상기 렌즈를 통과한 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 센서측으로 반사시키는 반사 미러; 상기 터치 인터랙션에 의한 신호를 인식하는 센서; 상기 센서에서 인식된 신호를 터치 이벤트로 변환하는 인터랙션 신호 처리부; 상기 반사 미러에서 반사되어 상기 센서에게로 입력되어 오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성하고, 생성된 팬틸트 미러 보정 파라메터로 상기 반사 미러의 팬틸트를 제어하고, 상기 팬틸트 미러 보정 파라메터를 출력하는 팬틸트 제어부; 및 상기 팬틸트 제어부로부터의 팬틸트 미러 보정 파라메터를 근거로 상기 영상의 왜곡과 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 왜곡 보정 제어부;를 포함한다.
상기 터치 인터랙션에 의한 신호는, 사용자가 상기 스크린상에 투사된 영상에서 손가락으로 어느 한 터치 객체를 터치함에 따라 해당 터치 객체를 터치하고 있는 손가락을 포함하는 영상 신호일 수 있다.
상기 인터랙션 신호 처리부는, 상기 센서에서 인식된 신호에서 손 영상을 추출하고, 추출된 손 영상에 깊이 영상을 마스크하고, 손 영상과 마스크 영상에 인터랙션을 위한 관심영역을 설정하고, 손 영상의 연결 컴포넌트의 외곽선을 추출하고, 추출된 외곽선 정보를 근거로 해당 터치 위치에 대한 위치 정보를 생성하여 해당 위치에서의 터치 이벤트를 처리할 수 있다.
이러한 구성의 본 발명에 따르면, 투사와 인터랙션을 하나의 렌즈에서 동시에 처리할 수 있으므로, 투사 렌즈와 인터랙션 렌즈의 광축이 일치하게 되고, 광축이 동일하기에 오차가 없고 오차가 없으므로 캘리브레이션이 필요없게 된다. 즉, 하나의 렌즈에서 화면 투사와 터치 인식을 동시에 가능하도록 하고 화면 영역에 따라 터치 영역을 별도의 캘리브레이션 없이 동작하도록 할 수 있다. 다시 말해서, 고정용 또는 휴대용으로 사용할 수 있는 동적 환경 적응형의 방법으로 인터랙션이 가능한 팬틸트 능동제어형 미러 스크린 프로젝터 기능을 제공하게 된다.
다양한 투사면(사각형, 원, 원기둥 등 비평면사물스크린)에 대해서 휴대용, 이동형 소형 프로젝터에서 보여주는 컨텐츠 또는 OS 제어를 손가락 또는 전용펜을 이용하여 어떤 면에서나 터치가 가능한다.
팬틸트 능동형 미러를 이용한 방법으로 투사영역이 변경되어도 실시간으로 왜곡보정을 수행하여 인터랙션범위와 투사범위가 일치하게 된다.
종래의 기술은 스크린의 형태가 평면인 경우에서만 동작 가능하지만, 본 발명을 사용하면 환경이 바뀔 때마다 번거롭게 수행하여야 하는 복잡한 보정과정없이 인터랙션 환경을 바꾸어가면서 사용할 수 있다. 사물스크린과 같이 기존에 공간구성을 변경하지 않고 만들어지는 콘텐츠에 대해서도 인터랙션을 적용하여 다양한 서비스와 콘텐츠 기술로 활용될 수 있다.
이를 기반으로 패턴빔과 인식센서가 좌표평면이 일체화된 센서로 발전하여 3D 인식과 자연 입력영상의 텍스처 맵핑이 동시에 이루어져서, 스마트폰용 3D 스캐너 역할을 하여 다양한 인터랙션을 이용한 입력장치의 거리 확대 및 증강현실에도 활용이 가능할 수 있게 된다.
최근 자동차 전장 시장이나 애프터 마켓의 HUD가 활성화됨에 따라 본 발명의 활용도는 더욱 늘어날 것으로 예상된다.
도 1은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터의 동작 개념을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터의 구성도이다.
도 3은 도 2에 도시된 센서의 인식 영역을 예시한 도면이다.
도 4 내지 도 6은 도 2에 도시된 팬틸트 제어부의 설명에 채용되는 예이다.
도 7은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에 의한 인터랙션 범위와 투사 범위를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에서의 전용펜을 이용한 인터랙션 인식 동작을 설명하기 위한 플로우차트이다.
도 9는 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에서의 손동작 인터랙션 인식 동작을 설명하기 위한 플로우차트이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터의 동작 개념을 설명하기 위한 도면이다.
본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터(100)는 스크린(200)을 향해 소정 거리 이격되게 위치한다.
미러 스크린 프로젝터(100)는 휴대 및 이동가능할 정도의 작은 사이즈로서, 예를 들어 피코(pico) 프로젝터라고 할 수도 있다.
물론, 미러 스크린 프로젝터(100)는 다양한 디지털 사이니지에도 활용가능하므로, 이동형 프로젝터 뿐만 아니라 대형의 사물스크린 등과 같이 인터랙션을 위한 캘리브레이션(보정)이 크고 어려운 환경에서도 적용가능하다.
미러 스크린 프로젝터(100)는 단일의 렌즈(16) 및 팬틸트(pan-tilt; 상하좌우로의 회전) 가능한 반사 미러(18)를 통해 소정의 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 스크린(200)에게로 투사할 수 있다.
그리고, 미러 스크린 프로젝터(100)는 스크린(200)상에서 터치 인터랙션이 발생하면 그에 상응하는 신호를 팬틸트(pan-tilt; 상하좌우로의 회전) 가능한 반사 미러(18) 및 단일의 렌즈(16)를 통해 수신할 수 있다. 또한, 미러 스크린 프로젝터(100)는 발생된 터치 인터랙션에 상응하는 터치 이벤트를 처리할 수 있다.
여기서, 터치 인터랙션은 사용자가 스크린(200)상에 투사된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)에서 적외선펜과 같은 전용의 터치기기로 어느 한 터치 객체를 터치하게 되면 터치기기가 해당 터치 지점에 대해 적외선 광을 방출하는 것을 의미할 수 있다. 따라서, 터치 지점에서 터치기기에 의해 방출되는 적외선 광을 본 발명의 청구범위에 기재된 터치 인터랙션에 의한 신호의 일 예라고 할 수 있다. 한편, 상술한 적외선펜과 같은 전용의 터치기기 이외로 손가락으로의 터치도 가능하다.
스크린(200)은 투사화면이 될 수 있는데, 스크린(200)은 도 1에서와 같이 평평한 면으로 이루어지는 것이 바람직할 것이다. 그러나, 스크린(200)은 평평하지 않은 면으로 이루어져도 무방하다. 예를 들어, 평평한 두 개의 면의 경계가 서로 닿아 있는 부위를 향해 소정의 영상을 투사하더라도 투사되는 영상이 두 개의 면에 나뉘어져서 서로 자연스럽게 연결된 것처럼 보여질 것이다.
기존의 빔 프로젝터의 경우 터치를 인식하기 위해서는 화면을 투사하는 렌즈 이외에 터치를 인식하는 렌즈를 별도로 두어야 하고 비춰지는 화면 영역에 따라 터치 영역을 캘리브레이션해야 되었다.
그러나, 본 발명은 단일의 렌즈(16)에서 화면 투사와 터치 인식을 동시에 가능하도록 하고 화면 영역에 따라 터치 영역을 별도의 캘리브레이션없이 동작하도록 하였다. 이때, 터치 영역은 평면이 아닌 경우에 터치 인터랙션이 될 수 있도록 하는 렌즈와 인터랙션 좌표계가 일체형으로 구현된다.
이에 의해, 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터(100)는 고정용 또는 휴대용으로 사용할 수 있는 동적 환경 적응형의 방법으로 인터랙션이 가능하다.
도 2는 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터의 구성도이다.
본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터는, 영상 입력부(10), 광원(12), 패널(14), 렌즈(16), 반사 미러(18), 필터(20), 센서(22), 인터랙션 신호 처리부(24), 왜곡 보정 제어부(26), 및 팬틸트 제어부(28)를 포함한다.
영상 입력부(10)는 VGA칩셋, HDMI 등을 채용한 노트북, PC 등의 외부기기로부터 소정의 영상 소스를 입력받는다.
광원(12)은 영상 입력부(10)로부터의 영상 소스에 대해 소정의 광을 방사한다. 예를 들어, 광원(12)은 레이저 다이오드, LCD, LED 등을 포함할 수 있다.
광원(12)에서의 광이 비춰진 영상 소스는 스크린(200)에 디스플레이될 영상이 될 것이다.
패널(14)은 광원(12)에서의 광이 비춰진 영상 소스를 사람이 볼 수 있는 영상으로 변환한다. 다시 말해서, 패널(14)에는 광원(12)으로부터의 광을 근거로 하는 영상이 맺힌다. 즉, 패널(14)에는 스크린(200)에 디스플레이될 영상이 맺힌다고 할 수 있다.
예를 들어, DLP 프로젝터의 경우 패널(14)은 반사 패널로 구성될 수 있고, LCD(LED) 프로젝터의 경우 패널(14)은 투과 패널로 구성될 수 있다.
렌즈(16)는 패널(14)로부터의 영상을 확대하여 반사 미러(18)측으로 보낸다.
반사 미러(18)는 반사면(18a)을 포함한다. 반사 미러(18)는 렌즈(16)를 통과한 빔 영상을 반사면(18a)에서 반사시켜 스크린(200)(벽면, 기타 물체 포함)에게로 투사한다. 그리고, 반사 미러(18)는 입사되는 인터랙션 신호를 반사면(18a)에서 반사시켜 인터랙션 신호 처리부(24)측으로 투사한다. 여기서, 반사 미러(18)는 팬틸트(pan-tilt; 상하좌우로의 회전) 가능하다. 상술한 인터랙션 신호는 적외선 신호, 손가락이 포함된 영상 신호 등이 될 수 있다.
필터(20)는 태양광 또는 광원(12)의 빛이 센서(22)에 영향을 미치지 않도록 제거한다. 다시 말해서, 필터(20)는 스크린(200)에서 반사되어 반사 미러(18)를 통해 입사되는 인터랙션 신호(예컨대, 적외선 신호, 손가락이 포함된 영상 신호)만을 통과시키고 그 이외의 신호는 제거한다.
필터(20)는 센서(22)의 전단에 설치됨이 바람직하다.
센서(22)는 입력받은 적외선 신호(즉, 터치 인터랙션에 의한 신호)를 인식해서 현재 터치된 터치 객체의 위치 좌표로 변환한다. 즉, 센서(22)는 사용자가 스크린(200)상의 어느 한 터치 객체를 터치함에 따른 적외선 신호(즉, 터치기기에서 발생)를 수신하고, 수신된 적외선 신호를 근거로 해당 터치 객체에 대한 위치 좌표를 인식할 수 있다. 센서(22)의 위치 좌표 인식 동작에 대한 보다 자세한 설명은 후술하기로 한다.
한편, 센서(22)는 반사 미러(18)에서 반사되어 입사되는 영상 신호를 인식(센싱)할 수 있다.
인터랙션 신호 처리부(24)는 센서(22)로부터의 위치 좌표를 OS가 인식할 수 있도록 터치 이벤트로 변환한다. 여기서, 인터랙션 신호 처리부(24)는 휴대용 장치(스마트폰)에 위치하거나 프로젝터에 위치할 수 있다.
왜곡 보정 제어부(26)는 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정한다. 예를 들어, 왜곡 보정 제어부(26)는 팬틸트 미러 보정 파라메터를 이용하여 영상 입력부(10)를 제어함으로써 영상 왜곡을 보정할 수 있다. 그리고, 왜곡 보정 제어부(26)는 팬틸트 미러 보정 파라메터를 이용하여 인터랙션 신호 처리부(24)를 제어함으로써 인터랙션 신호(즉, 터치 인터랙션에 의한 신호) 왜곡을 보정할 수 있다. 여기서, 팬틸트 미러 보정 파라메터는 팬틸트 제어부(28)로부터 제공받는다.
즉, 영상 입력부(10)를 통해 입력된 영상소스가 광원(12)과 패널(14) 및 렌즈(16)를 통해 반사 미러(18)에서 반사되어 스크린(200)측으로 출력되는 경우에 반사 미러(18)의 각도와 방향에 따라 영상이 왜곡될 수 있다. 또한, 외부의 인터랙션 신호가 반사 미러(18)에 반사되어 필터(20)와 센서(22) 및 인터랙션 신호 처리부(24)를 통해 입력되는 경우에 반사 미러(18)의 각도와 방향에 따라 인터랙션 신호가 왜곡될 수 있다.
이러한 영상 왜곡 및/또는 인터랙션 신호 왜곡을 보정하기 위해, 왜곡 보정 제어부(26)는 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정한다.
다시 말해서, 왜곡 보정 제어부(26)는 영상 또는 인터랙션 신호에 대한 월드 좌표계를 픽셀 좌표계로 보정한다.
팬틸트 제어부(28)는 스크린(200)에 투사된 영상이 반사 미러(18)에 반사되어 입력으로 다시 들어오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성한다. 팬틸트 제어부(28)는 생성한 팬틸트 미러 보정 파라메터로 반사 미러(18)의 팬틸트를 제어하여 출력되는 영상을 1차적으로 자동으로 보정한다. 그리고, 팬틸트 제어부(28)는 왜곡 보정 제어부(26)에 팬틸트 미러 보정 파라메터를 전달하여 2차적으로 자동으로 영상 왜곡을 보정할 수 있게 한다.
팬틸트 제어부(28)는 수동으로 제어가 가능하다.
도 3은 도 2에 도시된 센서(22)의 인식 영역을 예시한 도면이다.
예를 들어, 도 3에서와 같이 센서(22)는 인식 영역 안에 적외선 빛이 들어오면 인식 영역 기준으로 X,Y 좌표값을 계산한다. 여기서, X,Y 좌표값의 범위는 0~4095가 될 수 있다. 센서(22)에서의 X,Y의 위치 좌표값은 0 ~ 4095 사이의 값으로 계산되어 인터랙션 신호 처리부(24)에게로 입력될 것이다. 필요에 따라, 센서(22)는 터치기기의 끝점을 파악할 수 있는 알고리즘을 추가로 채용하여 보다 정확하게 터치 지점의 X,Y좌표값을 계산할 수 있다. 터치기기의 끝점을 파악할 수 있는 알고리즘은 당업자라면 주지의 기술을 통해 충분히 이해할 수 있으리라 본다.
한편, 센서(22)에서 들어오는 좌표값은 0 ~ 4095 사이의 값인데 반해, 미러 스크린 프로젝터(100)에서 필요로 하는 좌표값은 해당 미러 스크린 프로젝터(100)의 해상도에 따라 다를 것이다. 예를 들어, 미러 스크린 프로젝터(100)의 해상도가 1920 × 1080이라면 미러 스크린 프로젝터(100)가 필요로 하는 좌표값은 가로 0 ~ 1920, 세로 0 ~ 1080 값이 될 것이다. 그에 따라, 인터랙션 신호 처리부(24)는 워핑(Warping) 알고리즘 또는 지오메트릭 변환(Geometry translation) 등을 사용하여 센서(22)의 좌표데이터를 실 세계 좌표데이터(즉, 프로젝터에서 사용하는 좌표데이터)로 변환할 수 있다. 그리고, 인터랙션 신호 처리부(24)는 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킬 수 있다. 그리고, 인터랙션 신호 처리부(24)는 해당 터치 이벤트를 OS(운영체제)에게로 전달할 수 있다.
도 4 내지 도 6은 도 2에 도시된 팬틸트 제어부(28)의 설명에 채용되는 예로서, 팬틸트 제어부(28)에서의 반사 미러(18)의 팬틸트를 자동조정하는 과정을 설명하는데 채용되는 도면이다.
팬틸트 제어부(28)는 렌즈(16) 내부에서 출력되는 영상을 반사 미러(18)에서 반사시켜 원하는 곳(즉, 스크린)으로 투사되도록 하는 기능을 한다.
영상 분석을 위한 기준이 되는 패턴지를 도 4와 같은 형태인 것으로 가정하였을 경우, 팬틸트 제어부(28)는 벽면 등의 스크린(200)에 투사된 영상(도 5 참조)이 반사 미러(18)를 통해 반사되어 입력된 영상을 분석한다. 즉, 팬틸트 제어부(28)는 왜곡된 영상을 분석하여 패턴의 기울기 등을 분석함으로써, 도 6에서와 같은 팬틸트 미러 보정 파라메터를 생성한다. 그리고, 팬틸트 제어부(28)는 생성된 팬틸트 미러 보정 파라메터를 근거로 반사 미러(18)의 팬틸트를 1차적으로 자동조정한다.
도 7은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에 의한 인터랙션 범위와 투사 범위를 나타낸 도면이다.
투사 렌즈와 인터랙션 렌즈가 각각 있는 기존의 프로젝터는 두 렌즈 사이의 거리 때문에 인식 영역에 차이가 생긴다. 그에 따라, 기존의 프로젝터에서는 동시 인식 가능 범위를 늘리기 위해 투사 렌즈와 인터랙션 렌즈의 설치 각도를 조절해서 설계를 해야 한다. 이 과정에서 투사 렌즈와 인터랙션 렌즈의 광축이 달라지게 되는데, 이에 따라 생긴 오차를 없애기 위해 캘리브레이션이 필요하다. 두 렌즈사이에 발생하는 오차는 스크린과 프로젝터 사이의 거리, 각도에 따라 변하기 때문에 프로젝터의 설치 위치가 변경될 때마다 캘리브레이션이 필요하다.
이에 반해, 상술한 본 발명의 실시예서와 같이 투사와 인터랙션을 하나의 렌즈(16)에서 동시에 처리하면 도 7에서와 같이 투사 렌즈와 인터랙션 렌즈의 광축이 일치하게 된다. 광축이 동일하기 때문에 인터렉션 범위와 투사 범위간에는 오차가 없고(즉, 서로 동일함), 오차가 없으므로 캘리브레이션이 필요없다. 팬틸트 능동형 미러(즉, 반사 미러(18))를 이용한 방법으로 투사영역이 변경되어도 실시간으로 왜곡 보정을 수행하여 인터랙션 범위와 투사범위가 일치하게 된다.
도 8은 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에서의 전용펜을 이용한 인터랙션 인식 동작을 설명하기 위한 플로우차트이다. 도 8의 경우, 센서(22)는 적외선 센서로 구성될 것이다.
먼저, 미러 스크린 프로젝터(100)의 전원을 온(ON)시킨다(S10).
그에 따라, 광원(12)이 온(ON)되어 동작한다(S12).
광원(12)에서 방사된 광은 패널(14)에게로 입사된다. 그에 따라, 패널(14)에는 소정의 영상이 맺힌다(S14). 즉, 광원(12)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(14)에는 광원(12)으로부터의 광에 의해 소정의 영상이 형성될 것이다.
그리고, 패널(14)의 영상은 렌즈(16)에게로 전달된다(S16).
렌즈(16)에게로 전달된 영상은 반사 미러(18)에게로 투사된다(S18).
반사 미러(18)에게로 투사된 영상은 반사 미러(18)의 반사면(18a)에서 반사되어 스크린(200)에 투사된다(S20). 그에 따라, 스크린(200)에는 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 미러 스크린 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 적외선펜과 같은 전용의 터치기기로 어느 한 터치 객체를 터치하게 된다. 그에 따라, 터치기기는 해당 지점(즉, 터치 객체를 터치한 위치)에서 적외선 신호(광)를 출력하게 된다.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 전용의 터치기기로 어느 한 터치 객체를 터치하는 인터랙션이 발생하게 되면(S22에서 "Yes"), 해당 인터랙션이 발생한 지점에서는 적외선 신호(광)를 발생한다(S24).
그에 따라, 해당 터치 지점에서의 적외선 신호(광)는 스크린(200)에서 반사되어 반사 미러(18)의 반사면(18a)에서 반사되어 필터(20)를 통해 센서(22)에게로 입사된다. 센서(22)는 인식영역내에 적외선 신호(광)가 들어오게 됨에 따라 해당 위치(터치 지점)의 좌표값(즉, X,Y좌표값)을 인식(계산 또는 변환)해 낸다(S26, S28).
그리고, 센서(22)는 인식한 위치 좌표값을 인터랙션 신호 처리부(24)에게로 전달한다(S30).
인터랙션 신호 처리부(24)는 센서(22)의 위치 좌표값을 실세계 좌표데이터로 변환하고, 변환된 좌표데이터를 그에 상응하는 터치 이벤트(Touch Event)로 매핑시킨다(S32).
그리고 나서, 인터랙션 신호 처리부(24)는 해당 터치 이벤트를 처리한다(S34).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.
한편, 영상 입력부(10)를 통해 입력된 영상소스가 광원(12)과 패널(14) 및 렌즈(16)를 통해 반사 미러(18)에서 반사되어 스크린(200)측으로 출력되는 경우에 반사 미러(18)의 각도와 방향에 따라 영상이 왜곡될 수 있다. 또한, 외부의 인터랙션 신호가 반사 미러(18)에 반사되어 필터(20)와 센서(22) 및 인터랙션 신호 처리부(24)를 통해 입력되는 경우에 반사 미러(18)의 각도와 방향에 따라 인터랙션 신호가 왜곡될 수 있다. 이러한 영상 왜곡 및/또는 인터랙션 신호 왜곡을 보정하기 위해, 왜곡 보정 제어부(26)는 팬틸트 제어부(28)로부터의 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정할 수 있다.
다시 말해서, 팬틸트 제어부(28)는 스크린(200)에 투사된 영상이 반사 미러(18)에 반사되어 입력으로 다시 들어오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성한다. 팬틸트 제어부(28)는 생성한 팬틸트 미러 보정 파라메터로 반사 미러(18)의 팬틸트를 제어함으로써, 출력되는 영상을 1차적으로 자동으로 보정한다. 그리고, 왜곡 보정 제어부(26)는 2차적으로 자동으로 영상 왜곡을 보정하는데, 팬틸트 제어부(28)로부터의 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정한다.
상술한 도 8은 프로젝터에서 전용펜을 이용한 인터랙션을 인식하는 동작에 대해 설명한 것으로 볼 수 있는데, 전용펜 이외로 손가락에 의한 인터랙션이 있을 수 있으므로, 이하에서는 프로젝터에서 3차원 손동작 인터랙션을 인식하는 동작에 대해 설명하기로 한다.
도 9는 본 발명의 실시예에 따른 팬틸트 능동제어형 미러 스크린 프로젝터에서의 손동작 인터랙션 인식 동작을 설명하기 위한 플로우차트이다. 도 9의 경우, 센서(22)는 3차원 영상 카메라로 구성될 것이다.
먼저, 미러 스크린 프로젝터(100)의 전원을 온(ON)시킨다(S50).
그에 따라, 광원(12)이 온(ON)되어 동작한다(S52).
광원(12)에서 방사된 광은 패널(14)에게로 입사된다. 그에 따라, 패널(14)에는 소정의 영상이 맺힌다(S54). 즉, 광원(12)에서 방사되는 광은 스크린(200)에 디스플레이될 영상이 되는 광이라고 할 수 있으므로, 패널(14)에는 광원(12)으로부터의 광에 의해 소정의 영상이 형성될 것이다.
그리고, 패널(14)의 영상은 렌즈(16)에게로 전달된다(S56).
렌즈(16)에게로 전달된 영상은 반사 미러(18)에게로 투사된다(S58).
반사 미러(18)에게로 투사된 영상은 반사 미러(18)의 반사면(18a)에서 반사되어 스크린(200)에 투사된다(S60). 그에 따라, 스크린(200)에는 하나 이상의 터치 객체(즉, 선택 메뉴)가 디스플레이된다. 여기서, 터치 객체의 제한은 없다. 만약, 스마트폰 화면이 미러 스크린 프로젝터(100)를 통해 스크린(200)에 투사되고 있다면 스마트폰에 있는 모든 메뉴(전화걸기, 카카오톡, 메시지, 인터넷 등)가 터치 객체가 될 수 있다. PC 화면이 스크린(200)에 투사되고 있다면 PC에 있는 모든 메뉴가 터치 객체가 될 수 있다.
이후, 사용자는 스크린(200)에 디스플레이된 영상(예컨대, 하나 이상의 터치 객체(선택 메뉴)를 포함)을 보고서 손가락으로 어느 한 터치 객체를 터치하게 된다.
이와 같이, 사용자가 스크린(200)상에 투사된 영상에서 손가락으로 어느 한 터치 객체를 터치하는 인터랙션이 발생하게 되면(S62에서 "Yes"), 반사 미러(18)에서 반사된 영상 신호(즉, 어느 한 터치 객체를 터치하고 있는 손가락이 포함된 영상 신호)를 센서(22)에서 인식한다(S64).
센서(22)는 인식한 영상 신호를 인터랙션 신호 처리부(24)에게로 전달하고, 인터랙션 신호 처리부(24)는 손(hand) 영상을 추출한다(S66). 예를 들어, 인터랙션 신호 처리부(24)는 처음에 센서(22)(예컨대, 3차원 영상 카메라)로부터 들어오는 영상에서 스킨(skin) 칼러값을 가지는 영상만 추출하고, 최초 스킨 칼러값을 가지는 영상과 현재의 스킨(skin) 칼러값을 가지는 영상을 비교하여 다른 부분만 추출한다. 즉, 인터랙션 신호 처리부(24)는 최초 스킨 칼러값을 가지는 영상과 현재의 스킨(skin) 칼러값을 가지는 영상간의 차영상에 이로드(erode) 필터와 다이레이트(dilate) 필터를 적용하여 손(hand) 영상을 추출할 수 있다.
이어, 인터랙션 신호 처리부(24)는 손 영상에 깊이(depth) 영상을 마스크(mask)한다(S68).
그리고, 인터랙션 신호 처리부(24)는 손 영상과 마스크 영상에 인터랙션을 위한 관심영역(ROI)을 설정한다(S70).
이후, 인터랙션 신호 처리부(24)는 손 영상의 연결 컴포넌트의 외곽선을 추출(findContours)하여 영상에 표시한다(S72). 이때, 인터랙션 신호 처리부(24)는 표시되는 영상에 외곽선 찾기(convexhull) 알고리즘을 적용하여 꼭지점(즉, 손가락)을 특정할 수 있다.
그리고 나서, 인터랙션 신호 처리부(24)는 외곽선 찾기(convexhull) 알고리즘을 적용하여 얻어진 값중에서 최상단의 X,Y값을 추출하고, 마스크 영상에서 손 영상에 대한 깊이(Depth)값 평균을 추출한다. 깊이(Depth)값이 일정값 이하로 내려갔을때 인터랙션값을 전송한다.
이와 같이 최상단의 X,Y값, 및 마스크 영상에서 손 영상에 대한 깊이(Depth)값 평균을 추출함에 따라, 해당 터치 위치(X,Y,깊이값 평균)에서 터치 이벤트가 발생한 것으로 판단하여 해당 터치 위치에서의 터치 이벤트를 처리한다(S74).
상술한 바에 따르면, 하나의 렌즈를 통해 화면 투사와 터치 인식을 가능하게 된다.
또한, 이동할 때마다 다른 조작(보정과정)을 거치지 않고 터치 인터랙션이 가능하다. 예를 들어, 이동 후에 투사되는 화면과의 각도와 방향이 이동 전과 차이나거나, 커브드 TV와 같이 투사되는 모양에 변화가 있더라도 캘리브레이션을 하지 않고도 터치 인터랙션이 가능하다.
한편, 영상 입력부(10)를 통해 입력된 영상소스가 광원(12)과 패널(14) 및 렌즈(16)를 통해 반사 미러(18)에서 반사되어 스크린(200)측으로 출력되는 경우에 반사 미러(18)의 각도와 방향에 따라 영상이 왜곡될 수 있다. 또한, 외부의 인터랙션 신호가 반사 미러(18)에 반사되어 필터(20)와 센서(22) 및 인터랙션 신호 처리부(24)를 통해 입력되는 경우에 반사 미러(18)의 각도와 방향에 따라 인터랙션 신호가 왜곡될 수 있다. 이러한 영상 왜곡 및/또는 인터랙션 신호 왜곡을 보정하기 위해, 왜곡 보정 제어부(26)는 팬틸트 제어부(28)로부터의 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정할 수 있다.
다시 말해서, 팬틸트 제어부(28)는 스크린(200)에 투사된 영상이 반사 미러(18)에 반사되어 입력으로 다시 들어오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성한다. 팬틸트 제어부(28)는 생성한 팬틸트 미러 보정 파라메터로 반사 미러(18)의 팬틸트를 제어하여 출력되는 영상을 1차적으로 자동으로 보정한다. 그리고, 왜곡 보정 제어부(26)는 2차적으로 자동으로 영상 왜곡을 보정하는데, 팬틸트 제어부(28)로부터의 팬틸트 미러 보정 파라메터를 이용하여 영상 왜곡과 인터랙션 신호 왜곡을 보정한다.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10 : 영상 입력부 12 : 광원
14 : 패널 16 : 렌즈
18 : 반사 미러 20 : 필터
22 : 센서 24 : 인터랙션 신호 처리부
26 : 왜곡 보정 제어부 28 : 팬틸트 제어부
100 : 팬틸트 능동제어형 미러 스크린 프로젝터
200 : 스크린

Claims (10)

  1. 광원으로부터의 광을 영상으로 변환하는 패널;
    상기 패널로부터의 영상을 확대하는 단일의 렌즈;
    상기 렌즈를 통과한 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 센서측으로 반사시키는 반사 미러;
    상기 터치 인터랙션에 의한 신호를 수신하여 상기 스크린에서 현재 터치된 터치 객체의 위치 좌표를 인식하는 센서;
    상기 센서로부터의 위치 좌표를 터치 이벤트로 변환하는 인터랙션 신호 처리부;
    상기 반사 미러에서 반사되어 상기 센서에게로 입력되어 오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성하는 팬틸트 제어부; 및
    상기 팬틸트 미러 보정 파라메터를 근거로 상기 영상의 왜곡과 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 왜곡 보정 제어부;를 포함하고,
    상기 팬틸트 제어부가 상기 팬틸트 미러 보정 파라메터로 상기 반사 미러의 팬틸트를 자동 조정하는 1차 보정, 및 상기 왜곡 보정 제어부가 상기 팬틸트 미러 보정 파라미터를 이용하여 영상 입력부 또는 상기 인터랙션 신호 처리부를 제어하여 상기 영상의 왜곡 또는 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 2차 보정이 수행되고,
    상기 영상 입력부는 외부 기기로부터 영상 소스를 입력받고,
    상기 광원은 상기 영상 입력부의 상기 영상 소스에 대해 상기 광을 방사하는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  2. 청구항 1에 있어서,
    상기 터치 인터랙션에 의한 신호는,
    사용자가 상기 스크린상에 투사된 영상에서 터치기기로 어느 한 터치 객체를 터치함에 따라 터치 지점에서 상기 터치기기에 의해 방출되는 특정 광인 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  3. 청구항 2에 있어서,
    상기 특정 광은 적외선 광인 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  4. 청구항 1에 있어서,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  5. 청구항 1에 있어서,
    상기 패널은 반사 패널 또는 투과 패널로 구성되는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  6. 광원으로부터의 광을 영상으로 변환하는 패널;
    상기 패널로부터의 영상을 확대하는 단일의 렌즈;
    상기 렌즈를 통과한 상기 패널로부터의 영상을 스크린에게로 투사하고, 상기 스크린에서의 터치 인터랙션에 의한 신호를 센서측으로 반사시키는 반사 미러;
    상기 터치 인터랙션에 의한 신호를 인식하는 센서;
    상기 센서에서 인식된 신호를 터치 이벤트로 변환하는 인터랙션 신호 처리부;
    상기 반사 미러에서 반사되어 상기 센서에게로 입력되어 오는 영상의 왜곡 정보를 분석하여 팬틸트 미러 보정 파라메터를 생성하는 팬틸트 제어부; 및
    상기 팬틸트 제어부로부터의 팬틸트 미러 보정 파라메터를 근거로 상기 영상의 왜곡과 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 왜곡 보정 제어부;를 포함하고,
    상기 팬틸트 제어부가 상기 팬틸트 미러 보정 파라메터로 상기 반사 미러의 팬틸트를 자동 조정하는 1차 보정, 및 상기 왜곡 보정 제어부가 상기 팬틸트 미러 보정 파라메터를 이용하여 영상 입력부 또는 상기 인터랙션 신호 처리부를 제어하여 상기 영상의 왜곡 또는 상기 터치 인터랙션에 의한 신호의 왜곡을 보정하는 2차 보정이 수행되고,
    상기 영상 입력부는 외부 기기로부터 영상 소스를 입력받고,
    상기 광원은 상기 영상 입력부의 상기 영상 소스에 대해 상기 광을 방사하는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  7. 청구항 6에 있어서,
    상기 터치 인터랙션에 의한 신호는,
    사용자가 상기 스크린상에 투사된 영상에서 손가락으로 어느 한 터치 객체를 터치함에 따라 해당 터치 객체를 터치하고 있는 손가락을 포함하는 영상 신호인 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  8. 청구항 7에 있어서,
    상기 인터랙션 신호 처리부는,
    상기 센서에서 인식된 신호에서 손 영상을 추출하고, 추출된 손 영상에 깊이 영상을 마스크하고, 손 영상과 마스크 영상에 인터랙션을 위한 관심영역을 설정하고, 손 영상의 연결 컴포넌트의 외곽선을 추출하고, 추출된 외곽선 정보를 근거로 해당 터치 위치에 대한 위치 정보를 생성하여 해당 위치에서의 터치 이벤트를 처리하는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  9. 청구항 6에 있어서,
    태양광 또는 상기 광원의 광이 상기 센서에게 영향을 미치지 않도록 제거하는 필터;를 추가로 포함하는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
  10. 청구항 6에 있어서,
    상기 패널은 반사 패널 또는 투과 패널로 구성되는 것을 특징으로 하는 팬틸트 능동제어형 미러 스크린 프로젝터.
KR1020170162493A 2017-11-30 2017-11-30 팬틸트 능동제어형 미러 스크린 프로젝터 KR102426484B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170162493A KR102426484B1 (ko) 2017-11-30 2017-11-30 팬틸트 능동제어형 미러 스크린 프로젝터

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170162493A KR102426484B1 (ko) 2017-11-30 2017-11-30 팬틸트 능동제어형 미러 스크린 프로젝터

Publications (2)

Publication Number Publication Date
KR20190063593A KR20190063593A (ko) 2019-06-10
KR102426484B1 true KR102426484B1 (ko) 2022-07-28

Family

ID=66848624

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170162493A KR102426484B1 (ko) 2017-11-30 2017-11-30 팬틸트 능동제어형 미러 스크린 프로젝터

Country Status (1)

Country Link
KR (1) KR102426484B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619392B1 (ko) * 2014-11-14 2016-05-10 현대자동차 주식회사 헤드업 디스플레이

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004523031A (ja) 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
KR20120044783A (ko) 2010-10-28 2012-05-08 주식회사 세바비드코어 프로젝터를 이용한 터치 스크린 장치 및 그 터치 스크린 장치의 터치 위치 검출방법
KR102082702B1 (ko) * 2013-03-28 2020-02-28 엘지전자 주식회사 레이저 영상표시장치
KR101536673B1 (ko) * 2013-11-22 2015-07-15 동의대학교 산학협력단 깊이 정보를 이용한 가상의 터치 센서 및 그의 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619392B1 (ko) * 2014-11-14 2016-05-10 현대자동차 주식회사 헤드업 디스플레이

Also Published As

Publication number Publication date
KR20190063593A (ko) 2019-06-10

Similar Documents

Publication Publication Date Title
US10481475B2 (en) Smart lighting device and control method thereof
US10701324B2 (en) Gestural control of visual projectors
EP3018903B1 (en) Method and system for projector calibration
KR102463712B1 (ko) 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US20130135199A1 (en) System and method for user interaction with projected content
US20150208019A1 (en) Image correction
CN107407959B (zh) 基于姿势的三维图像的操纵
US20130044054A1 (en) Method and apparatus for providing bare-hand interaction
EP3111299A1 (en) Calibration of sensors and projector
KR20150135765A (ko) 웨어러블 장치의 프로젝션을 제어하기 위한 방법 및 디바이스, 및 웨어러블 장치
US10416813B2 (en) Display system, display device, information processing device, and information processing method
TWI504931B (zh) 投影系統及其投影方法
US20180007328A1 (en) Viewpoint adaptive image projection system
US20200241697A1 (en) Position detecting method, position detecting device, and interactive projector
US20200241695A1 (en) Position detecting method, position detecting device, and interactive projector
CN113286133A (zh) 投影系统、投影仪的控制方法以及投影仪
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
KR102417535B1 (ko) 터치 인터랙션이 가능한 프로젝터
US11093085B2 (en) Position detection method, position detection device, and interactive projector
KR102426484B1 (ko) 팬틸트 능동제어형 미러 스크린 프로젝터
US9946333B2 (en) Interactive image projection
US20150185321A1 (en) Image Display Device
KR20150062952A (ko) 위치 감지가 가능한 레이저 프로젝터 및 이를 이용한 위치 감지 방법
KR102417534B1 (ko) 터치 인터랙션이 가능한 프로젝터
JP2012234149A (ja) 映像投影装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant