KR20060044871A - 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리방법 - Google Patents

화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리방법 Download PDF

Info

Publication number
KR20060044871A
KR20060044871A KR1020050025677A KR20050025677A KR20060044871A KR 20060044871 A KR20060044871 A KR 20060044871A KR 1020050025677 A KR1020050025677 A KR 1020050025677A KR 20050025677 A KR20050025677 A KR 20050025677A KR 20060044871 A KR20060044871 A KR 20060044871A
Authority
KR
South Korea
Prior art keywords
image
information
projection
correction
aspect ratio
Prior art date
Application number
KR1020050025677A
Other languages
English (en)
Other versions
KR100637308B1 (ko
Inventor
마사노부 고바야시
오사무 와다
Original Assignee
세이코 엡슨 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세이코 엡슨 가부시키가이샤 filed Critical 세이코 엡슨 가부시키가이샤
Publication of KR20060044871A publication Critical patent/KR20060044871A/ko
Application granted granted Critical
Publication of KR100637308B1 publication Critical patent/KR100637308B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/72Modifying the appearance of television pictures by optical filters or diffusing screens

Abstract

원하는 애스펙트비(aspect ratio)로 되도록 화상의 왜곡을 보정할 수 있는 화상 처리 시스템 등을 제공한다.
화상을 구형(矩形)의 스크린을 향해 액정 패널을 통해 투사하는 화상 투사부(190), 이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성부(140), 위치 조정 정보에 기초하여, 스크린에서의 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성부(120), 및 위치 보정 정보에 기초하여, 화상을 투사하기 위한 화상 정보를 보정하는 보정부(130)를 포함하여 프로젝터를 구성한다.
스크린, 종횡비, 화상, 애스펙트비, 사다리꼴, 왜곡, 프로젝터

Description

화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리 방법{IMAGE PROCESSING SYSTEM, PROJECTOR, INFORMATION STORAGE MEDIUM AND IMAGE PROCESSING METHOD}
도1은 화상 투사시의 상태를 도시한 모식도.
도2는 본 실시 형태의 일례에 따른 프로젝터의 기능 블록도.
도3은 본 실시 형태의 일례에 따른 프로젝터의 하드웨어 블록도.
도4는 본 실시 형태의 일례에 따른 화상 처리의 흐름을 도시한 플로우차트.
도5는 본 실시 형태의 일례에 따른 투사 패널 영역을 도시한 모식도.
도6은 본 실시 형태의 일례에 따른 3차원 공간과 깊이값 Pz를 도시한 모식도.
도7은 본 실시 형태의 일례에 따른 스크린과 보정 후의 투사 영역의 관계를 도시한 도면으로, 도7의 (A)는 종길이보다 횡길이가 긴 경우의 스크린을 도시한 도면이고, 도7의 (B)는 도7의 (A)의 스크린에서의 보정 후의 투사 영역을 도시한 도면.
도8은 본 실시 형태의 일례에 따른 스크린과 보정 후의 투사 영역의 관계를 도시한 도면으로, 도8의 (A)는 종길이보다 횡길이가 짧은 경우의 스크린을 도시한 도면이고, 도8의 (B)는 도8의 (A)의 스크린에서의 보정 후의 투사 영역을 도시한 도면.
도9는 본 실시 형태의 일례에 따른 변환용 파라미터를 구하는 연산식을 도시한 도면.
*도면의 주요 부분에 대한 부호의 설명
10: 스크린(투사 대상물) 12: 투사 화상
20: 프로젝터(화상 처리 시스템) 60: 센서
120: 보정 정보 생성부 130: 보정부
140: 위치 조정 정보 생성부 190: 화상투사부
199: 화각 조정부 900: 정보 기억 매체
920: 액정 패널(투사 패널)
(특허문헌 1) 일본 특허공개 제2002-44571호 공보.
(특허문헌 2) 일본 특허공개 제2002-247614호 공보.
본 발명은 화상 형상의 보정이 가능한 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리 방법에 관한 것이다.
프로젝터 등의 화상 투사 장치로부터의 투사광의 광축과 스크린 등의 투사 대상의 상대적인 각도에 의해 화상이 왜곡되어, 종방향이나 횡방향으로 소위 사다리꼴 왜곡이 발생되는 경우가 있다.
따라서, 화상 표시 장치는, 화상을 표시하는 경우에, 화상의 왜곡을 제거한 상태로 화상을 표시할 필요가 있다.
그러나, 일반적인 화상의 보정 기능을 갖는 프로젝터는 기울기 센서를 내장하여 화상의 종방향의 왜곡만을 보정하고, 화상의 횡방향의 왜곡은 보정할 수 없다.
또한, 화상의 횡방향의 왜곡을 보정하는 경우, 예를 들면, 특허문헌 1에서는 이용자가 마우스 등을 이용하여 스크린의 4개 모서리의 점을 지시함으로써, 프로젝터가 당해 지시 정보에 기초하여, 반자동적으로 화상의 왜곡을 보정하는 방식이 제안되고 있다.
또한, 예를 들면, 특허문헌 2에서는, 프로젝터가 촬상부를 이용하여 스크린의 외형을 식별하고, 식별한 외형과 동일한 외형이 되도록 화상을 보정하는 프로젝터가 개시되어 있다.
그러나, 프로젝터가 특허문헌 1,2와 같이 스크린의 외형의 형상으로 화상의 형상을 변화시키면, 변화 후의 화상이 원래의 화상의 외형과 달라지게 된다. 이 경우, 관찰자에게 원래의 화상과 다른 인상을 주기 때문에, 이러한 처리 방식을 채용하는 것은 바람직하지 않다.
또한, 투사 대상물의 종횡비를 기준으로 하는 경우에도, 원하는 애스펙트비로 화상이 표시되는 것이 바람직하다.
본 발명은 전술한 과제를 감안하여 이루어진 것이며, 그 목적은 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있는 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리 방법을 제공하는 것에 있다.
전술한 과제를 해결하기 위해, 본 발명에 따른 화상 처리 시스템 및 프로젝터는,
화상을 구형(矩形)의 투사 대상물을 향해 투사 패널을 통해 투사하는 화상 투사 수단,
이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성 수단,
상기 위치 조정 정보에 기초하여,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성 수단, 및
상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하는 보정 수단,
을 포함하고,
상기 보정 정보 생성 수단은, 이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여, 상기 투사 대상물의 종횡비를 연산하고, 당해 종횡비에 기초하여,상기 화상이 소정의 애스펙트비(aspect ratio)로 되도록 상기 위치 보정 정보를 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 정보 기억 매체는, 컴퓨터에 의해 판독가능한 프로그램을 기억한 정보 기억 매체로서,
화상을 구형 투사 대상물을 향해 투사 패널을 통해 투사하는 화상 투사 수단,
이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성 수단,
상기 위치 조정 정보에 기초하여,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성 수단, 및
상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하는 보정 수단
으로서 컴퓨터를 기능시키기 위한 프로그램을 기억하고,
상기 보정 정보 생성 수단은, 이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여,상기 투사 대상물의 종횡비를 연산하고, 당해 종횡비에 기초하여,상기 화상이 소정의 애스펙트비로 되도록 상기 위치 보정 정보를 생성하는 것을 특징으로 한다.
또한, 본 발명에 따른 화상 처리 방법은,
화상을 구형의 투사 대상물을 향해 투사 패널을 통해 투사하고,
이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하고,
이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여, 상기 투사 대상물의 종횡비를 연산하고,
당해 종횡비에 기초하여, 상기 화상이 소정의 애스펙트비로 되도록 상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하고,
상기 위치 보정 정보에 기초하여, 상기 화상을 투사하기 위한 화상 정보를 보정하고,
보정한 화상 정보에 기초하여, 상기 화상을 투사하는 것을 특징으로 한다.
본 발명에 따르면, 화상 처리 시스템 등은, 화상의 4개 모서리와 투사 대상 물의 4개 모서리가 일치한 상태에서의 위치 조정 정보에 기초하여, 투사 대상물의 종횡비와 투사 대상물에서의 화상의 4개 모서리의 위치를 파악할 수 있다. 이들 정보를 이용함으로써, 화상 처리 시스템 등은 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
또한,상기 화상 처리 시스템,상기 프로젝터 및 상기 정보 기억 매체에서,
상기 보정 정보 생성 수단은,
상기 화상 투사 수단에서의 투사용 렌즈의 수평 방향 또는 수직 방향의 화각을 나타내는 화각 정보와,상기 투사 패널의 수평 해상도 또는 수직 해상도에 기초하여, 가상 투사면을 설정하기 위한 깊이(depth) 위치를 나타내는 깊이 위치 정보를 생성하고,
상기 투사 패널의 2차원 평면에,상기 렌즈의 주점(主點)을 원점으로 하여, 상기 렌즈의 광축을 3번째 차원으로서 더한 3차원 공간을 설정하고,
상기 위치 조정 정보에 기초하는 상기 2차원 평면에서의 상기 투사 대상물의 위치를 나타내는 제1의 2차원 위치 정보와 상기 깊이 위치 정보에 기초하여,상기 3차원 공간에서의 상기 가상 투사면에 투시투영(透視投影)한 상태의 상기 투사 대상물의 위치를 나타내는 제1의 3차원 위치 정보를 생성하고,
당해 제1의 3차원 위치 정보에 기초하여,상기 투사 대상물의 대향하는 2변의 길이가 동일하고 평행하다는 조건을 이용하여 상기 종횡비를 연산해도 좋다.
또한,상기 화상 처리 방법은,
투사용 렌즈의 수평 방향 또는 수직 방향의 화각을 나타내는 화각 정보와, 상기 투사 패널의 수평 해상도 또는 수직 해상도에 기초하여, 가상 투사면을 설정하기 위한 깊이 위치를 나타내는 깊이 위치 정보를 생성하고,
상기 투사 패널의 2차원 평면에,상기 렌즈의 주점을 원점으로 하여, 상기 렌즈의 광축을 3번째 차원으로서 더한 3차원 공간을 설정하고,
상기 위치 조정 정보에 기초하는 상기 2차원 평면에서의 상기 투사 대상물의 위치를 나타내는 제1의 2차원 위치 정보와,상기 깊이 위치 정보에 기초하여,상기 3차원 공간에서의 상기 가상 투사면에 투시투영한 상태의 상기 투사 대상물의 위치를 나타내는 제1의 3차원 위치 정보를 생성하고,
당해 제1의 3차원 위치 정보에 기초하여,상기 투사 대상물의 대향하는 2변의 길이가 동일하고 평행하다는 조건을 이용하여 상기 종횡비를 연산해도 좋다.
이에 따르면, 화상 처리 시스템 등은, 화상을 확대하거나 축소하여 투사할 경우에도 투사용 렌즈의 수평 방향 또는 수직 방향의 화각에 따라 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
또한,상기 화상 처리 시스템,상기 프로젝터 및 상기 정보 기억 매체에 있어서,
상기 보정 정보 생성 수단은,
상기 제1의 3차원 위치 정보와, 상기 종횡비와,상기 애스팩트비에 기초하여,상기 3차원 공간에서의 보정 후의 상기 화상의 위치를 나타내는 제2의 3차원 위치 정보를 생성하고,
당해 제2의 3차원 위치 정보에 기초하여,상기 가상 투사면에 투시투영한 상 태의 상기 화상의 보정 후의 위치를 나타내는 제2의 2차원 위치 정보를 생성하고,
당해 제2의 2차원 위치 정보에 기초하여,상기 위치 보정 정보를 생성해도 좋다.
또한,상기 화상 처리 방법은,
상기 제1의 3차원 위치 정보와,상기 종횡비와, 상기 애스펙트비에 기초하여,상기 3차원 공간에서의 보정 후의 상기 화상의 위치를 나타내는 제2의 3차원 위치 정보를 생성하고,
당해 제2의 3차원 위치 정보에 기초하여,상기 가상 투사면에 투시투영한 상태의 상기 화상의 보정 후의 위치를 나타내는 제2의 2차원 위치 정보를 생성하고,
당해 제2의 2차원 위치 정보에 기초하여,상기 위치 보정 정보를 생성해도 좋다.
이에 따르면, 화상 처리 시스템 등은, 3차원 공간에서의 투사 대상물의 4개 모서리의 위치를 특정하고, 투사 대상물의 대향하는 변의 길이가 동일하고 평행하다는 조건을 이용하여 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
이하, 본 발명을 화상 형상 보정을 수행하는 프로젝터에 적용한 경우를 예로 들어, 도면을 참조하면서 설명한다. 또한, 이하에 설명하는 실시 형태는, 특허 청구 범위에 기재된 발명의 내용을 한정하는 것은 아니다. 또한, 이하의 실시 형태에 나타내는 구성의 전부가, 특허 청구 범위에 기재된 발명의 해결 수단으로서 필수적이라고는 할 수 없다.
(시스템 전체의 설명)
도1은 화상 투사시의 상태를 도시한 모식도이다.
화상 처리 시스템의 일종인 프로젝터(20)는, 렌즈 유닛(24)으로부터 투사 대상물의 일종인 스크린(10)을 향해 화상을 투사한다. 본 실시예에서, 프로젝터(20)는 스크린(10)에 정면으로 대향하지 않은 상태로 되어 있다. 이 때문에, 투사 화상(12)의 형상은 사다리꼴 형상으로 왜곡되어 있다.
이러한 화상의 왜곡을 보정하기 위해, 본 실시예에서는 이용자가 리모콘(26)을 이용하여 투사 화상(12)의 4개 모서리가 스크린(10)의 4개 모서리에 일치하도록 투사 화상(12)을 조정할 수 있도록 프로젝터(20)가 형성되어 있다. 또한, 이러한 기능은, 현재 시판되고 있는 프로젝터에 포함되어 있는 기능이다. 구체적으로는, 예를 들면, 세이코 엡슨 가부시키가이샤의 프로젝터에 구비되어 있는 「퀵 코너(Quick Corner)」 등이 있다.
그러나, 스크린(10)의 형상이 원하는 종횡비로 되어 있지 않은 경우, 투사 화상(12)의 4개 모서리를 스크린(10)의 4개 모서리에 일치시킨 것 만으로는, 투사 화상(12)은 원하는 애스펙트비로 되지 않고, 원화상(原畵像)과 다른 인상을 이용자에게 주게 된다.
여기서, 본 실시 형태에서는, 리모콘(26)로부터의 조작 정보에 기초하여, 스크린(10)의 종횡비를 파악하고, 원하는 애스펙트비로 투사 화상(12)이 표시되도록 화상 정보를 보정한다.
다음에, 이러한 기능을 실장하기 위한 프로젝터(20)의 기능 블록에 대해서 설명한다.
도2는 본 실시 형태의 일례에 따른 프로젝터(20)의 기능 블록도이다.
프로젝터(20)는 화상 정보(예를 들면, RGB 신호 등)을 입력하는 화상 정보 입력부(110)와, 화상의 왜곡이 보정되도록 입력된 화상 정보를 보정하는 보정부(130)와, 보정된 화상 정보를 출력하는 화상 정보 출력부(160)와, 화상 정보에 기초하여, 화상을 투사하는 화상 투사부(190)를 포함하여 구성되어 있다.
또한, 프로젝터(20)는, 리모콘(26)으로부터의 조작 정보에 기초하여, 위치 조정 정보를 생성하는 위치 조정 정보 생성부(140)와, 위치 조정 정보에 기초하여, 스크린(10)에서의 투사 화상(12)의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성부(120)를 포함하여 구성되어 있다.
또한, 화상 투사부(190)는 액정 패널을 갖는 공간 광변조기(192)와, 공간 광 변조기(192)를 구동하는 구동부(194)와, 광원(196)과, 렌즈 유닛(24)에 포함되는 렌즈(198)와, 화각 조정부(199)를 포함하여 구성되어 있다.
구동부(194)는, 화상 정보 출력부(160)로부터의 화상 정보에 기초하여, 공간 광 변조기(192)를 구동한다. 그리고, 화상 투사부(190)는 광원(196)로부터의 빛을 공간 광 변조기(192) 및 렌즈(198)를 통해 투사한다.
또한,전술한 프로젝터(20)의 각 부를 실장하기 위한 하드웨어로서는, 예를 들면, 이하의 것을 적용할 수 있다.
도3은 본 실시 형태의 일례에 따른 프로젝터(20)의 하드웨어 블록도이다.
예를 들면, 화상 정보 입력부(110)로서는, 예를 들면, A/D 컨버터(930) 등, 보정부(130)로서는, 예를 들면, 화상 처리 회로(970), RAM(950), CPU(910) 등, 화상 정보 출력부(160)로서는, 예를 들면, D/A컨버터(940) 등, 보정 정보 생성부(120), 위치 조정 정보 생성부(140)로서는, 예를 들면, 화상 처리 회로(970), RAM(950) 등, 공간 광 변조기(192)로서는, 예를 들면, 액정 패널(920), 액정 패널(920)을 구동하는 액정 라이트 밸브 구동 드라이버를 기억하는 ROM(960) 등을 이용하여 실장할 수 있다.
또한, 이들의 각 부는 시스템 버스(980)를 통해 상호 정보를 교환할 수 있다. 또한, 이들의 각 부는 그 일부 또는 전부를 회로와 같이 하드웨어적으로 실장해도 좋고, 드라이버와 같이 소프트웨어적으로 실장해도 좋다.
또한, 보정 정보 생성부(120) 등으로서 컴퓨터를 기능시키기 위한 프로그램을 기억한 정보 기억 매체(900)로부터 프로그램을 판독하여 보정 정보 생성부(120) 등의 기능을 컴퓨터에 실장해도 좋다.
이러한 정보 기억 매체(900)로서는, 예를 들면, CD-ROM, DVD-ROM, ROM, RAM, HDD 등을 적용할 수 있고, 그 프로그램의 판독 방식은 접촉 방식이어도, 비접촉 방식이어도 좋다.
또한, 정보 기억 매체(900)를 대신하여,전술한 각 기능을 실장하기 위한 프로그램 등을 전송로를 통해 호스트 장치 등으로부터 다운로드함으로써 전술한 각 기능을 실장할 수도 있다.
(화상 처리의 흐름 설명)
다음에, 이들 각 부를 사용한 화상 처리의 흐름에 대해서 설명한다.
도4는 본 실시 형태의 일례에 따른 화상 처리의 흐름을 도시한 플로우차트이다.
이용자는, 도1에 도시한 바와 같이, 투사 화상(12)의 외측 테두리가 스크린(10)을 벗어나도록 프로젝터(20)를 설치한다. 그리고, 이용자는 프로젝터(20)를 기동하여 백색의 화상을 투사한다(단계 S1). 이에 따라, 투사 화상(12)의 외측 테두리가 스크린(10)으로부터 벗어나 표시된다.
이용자는 도1의 굵은 화살표로 도시한 바와 같이 리모콘(26)을 이용하여 투사 화상(12)의 4개 모서리가 스크린(10)의 4개 모서리에 일치하도록 투사 화상(12)의 4개 모서리의 위치를 조정한다(단계 S2). 위치 조정 정보 생성부(140)는 리모콘(26)으로부터의 조작 정보에 기초하여 4개 모서리 각각의 위치 조정 정보를 생성한다.
또한, 보정 정보 생성부(120)는, 투사 화상(12)의 4개 모서리와 스크린(10)의 4개 모서리가 일치한 상태에서, 위치 조정 정보 생성부(140)로부터의 위치 조정정보와, 화상 투사부(190)에서의 액정 패널(920)의 수평 화각을 나타내는 값과, 렌즈(198)의 수평 방향의 화각(θH)을 나타내는 화각 정보를 취득한다.
도5는 본 실시 형태의 일례에 따른 투사 패널 영역(19)을 도시한 모식도이다.
예를 들면, 액정 패널(920)의 2차원 평면은 투사 패널 영역(19)으로서 나타 낼 수 있다. 예를 들면, 스크린(10)에 상당하는 영역인 투사 대상 영역(11)은 도5에 도시한 영역 EFGH이고, 투사 화상(12)에 상당하는 영역인 보정 전 투사 영역은 투사 패널 영역(19)과 일치하고, 도5에 도시한 영역 ABCD이다.
보정 정보 생성부(120)는, 위치 조정 정보와 액정 패널(920)의 수평 해상도와 화각 정보에 기초하여, 보정 정보를 생성한다(단계 S3).
보다 구체적으로는, 보정 정보 생성부(120)는, 먼저, 이미 알고 있는 액정 패널(920)의 수평 해상도와 화각 정보에 기초하여, 스크린(10)을 투시투영한 가상 투사면에서의 스크린(10)의 깊이값 Pz를 연산한다. 그리고, 보정 정보 생성부(120)는, 투사 패널 영역(19)의 2차원 평면에서의 투사 대상 영역(11)의 4개 모서리의 위치를 나타내는 제1의 2차원 위치 정보와 깊이값 Pz를 나타내는 깊이 위치 정보에 기초하여,상기 2차원 평면에 렌즈(198)의 주점(主點)을 원점으로 하여, 렌즈(198)의 광축을 3번째 차원으로서 더한 3차원 공간에서의 가상 투사면에 투시투영한 경우의 스크린(10)의 4개 모서리의 위치를 나타내는 제1의 3차원 위치 정보를 생성한다.
도6은 본 실시 형태의 일례에 따른 3차원 공간과 깊이값 Pz를 도시한 모식도이다.
예를 들면, 렌즈 유닛(24)(렌즈(198))의 평면을 xy의 2차원 평면이라 가정하고, 렌즈(198)의 광축인 z축을 가정한다. 이 경우, 스크린(10)의 영역 E'F'G'H'는 투사 패널 영역(19)이 상당하는 가상 투사면에서의 투사 대상 영역(11)으로 된다. 이 3차원 공간에서의 원점으로부터 가상 투사면까지의 거리가 깊이값 Pz가 된다.
이 경우, 3차원 공간에서의 투사 대상 영역(11)의 4개 모서리의 좌표는 E(Ex,Ey,Pz), F(Fx,Fy,Pz), G(Gx,Gy,Pz), H(Hx,Hy,Pz)로 나타낼 수 있다. 또한, 실제 스크린(10)의 4개 모서리의 좌표는, E'=s*E, F'=t*F, G'=u*G, H'=v*H로 나타낼 수 있다. 여기서, 스크린(10)은 장방형(長方形)이기 때문에, 대향하는 2변의 길이는 동일하고 평행하다. 즉, E'F', H'G'의 벡터는 동일하다. 또한, 이 조건에 더하여, s=1로 가정함으로써, 보정 정보 생성부(120)는 실수 s,t,u,v를 일의적으로 결정할 수 있다.
또한, 보정 정보 생성부(120)는 스크린(10)의 종횡비=E'F'/F'G'를 연산한다.
그리고, 보정 정보 생성부(120)는, 스크린(10)의 종횡비와 투사 화상(12)의 원하는 애스펙트비 Sa를 비교하고, 적절한 애스펙트비로 되는 보정 후 투사 영역(14)의 4개 모서리 IJKL의 좌표를 연산한다.
도7은 본 실시 형태의 일례에 따른 스크린(10)과 보정 후의 투사 화상(12)의 관계를 도시한 도면으로, 도7의 (A)는 종길이 보다 횡길이가 긴 경우의 스크린(10)을 도시한 도면이고, 도7의 (B)는 도7의 (A)의 스크린(10)에서의 보정 후의 투사 화상(12)을 도시한 도면이다. 또한, 도8은 본 실시 형태의 일례에 따른 스크린(10)과 보정 후의 투사 화상(12)의 관계를 도시한 도면이고, 도8의 (A)는 종길이보다 횡길이가 짧은 경우의 스크린(10)을 도시한 도면이고, 도8의 (B)는 도8의 (A)의 스크린(10)에서의 보정 후의 투사 화상(12)을 도시한 도면이다.
여기에서는, 원하는 애스펙트비 Sa=0.75라고 가정한다.
스크린(10)의 종횡비가 0.75와 거의 동일할 경우(0.75에 일치하지 않아도 허 용 범위 내에 있으면 됨), 보정 정보 생성부(120)는 투사 화상(12)의 형상을 스크린(10)의 형상에 일치시키도록 보정 정보를 생성한다. 설명을 단순하게 하기 위해, 본 실시예에서는, 보정 정보 생성부(120)는 스크린(10)의 종횡비가 O.75와 거의 동일한 경우에는 투사 화상(12)의 형상을 스크린(10)의 형상에 일치시키도록 보정 정보를 생성하는 것으로 가정한다.
또한, 도7의 (A)에 도시한 바와 같이, 종횡비<0.75인 경우, 즉 스크린(10)이 횡길이가 긴 경우, 보정 정보 생성부(120)는, 도7의 (B)에 도시한 바와 같이, 스크린(10)의 좌우에 여백을 갖는 영역에 보정 후의 투사 화상(12)(영역 A',B',C',D')이 표시되도록 보정 정보를 생성한다.
애스펙트비 Sa<O.75인 경우, A'는 E'H'를 m:n으로 분할하는 점이기 때문에, A'=(n*E'+m*H')(m+n)이다. 또한, 여기서, m+n=1인 것으로 가정한다.
또한, 스크린(10)의 횡:종=Sa:1이기 때문에, 보정 후의 투사 화상(12)의 애스펙트비를 0.75로 유지하기 위해서는, m=(1-4*Sa/3)/2, n=1-(1-4*Sa/3)/2로 할 필요가 있다.
보정 정보 생성부(120)는 A' 이외의 B', C', D'도 동일하게 연산한다.
또한, 도8의 (A)에 도시한 바와 같이, 종횡비>O.75인 경우, 즉 스크린(10)이 종길이가 긴 경우, 보정 정보 생성부(120)는, 도8의 (B)에 도시한 바와 같이, 스크린(10)의 상하에 여백을 갖는 영역에 보정 후의 투사 화상(12)이 형성되도록 보정 정보를 생성한다.
애스펙트비 Sa>0.75인 경우, A'는 E'F'를 m:n으로 분할하는 점이기 때문에, A'=(n*E'+m*F')/(m+n)이다. 또한, 여기서, m+n=1인 것으로 가정한다.
또한, 스크린(10)의 종:횡=Sa:1이기 때문에, 보정 후의 투사 화상(12)의 애스펙트비를 O.75로 유지하기 위해서는, m=(Sa-3/4)/2, n=Sa-(Sa-3/4)/2로 할 필요가 있다. 보정 정보 생성부(120)는 A' 이외의 B', C', D'도 동일하게 연산한다.
이와 같이 하여, 보정 정보 생성부(120)는 제1의 3차원 위치 정보와, 스크린(10)의 종횡비와, 애스펙트비에 기초하여, 보정 후의 투사 화상(12)의 4개 모서리의 3차원 좌표 A'(A'x,A'y,A'z), B'(B'x,B'y,B'z), C'(C'x,C'y,C'z), D'(D'x,D'y, D'z)를 나타내는 제2의 3차원 위치 정보를 생성할 수 있다.
또한, 보정 정보 생성부(120)는 보정 후의 투사 화상(12)을 약간 확대하도록 보정 정보를 생성해도 좋다. 이에 따라, 소위 가장자리가 없는 상태의 화상으로 하여 화상의 외관을 좋게 할 수 있다. 예를 들면, 확대율을 Ps, 원점을 O, 보정 후의 투사 영역의 대각선의 교점을 P라고 하면, 보정 정보 생성부(120)는 확대 후의 투사 영역의 정점 A'=Ps*PA'+OP로 구할 수 있다. 보정 정보 생성부(120)는, A' 이외의 B', C', D'도 동일하게 연산한다.
다음에, 보정 정보 생성부(120)는 이와 같이 구한 3차원 좌표계에서의 A'B'C'D'(제2의 3차원 위치 정보)를, 도6에 도시한 가상 투사면 상에 투시투영함으로써, 가상 투사면에서의 보정 후 투사 영역(14)의 4개 모서리의 좌표 IJKL을 나타내는 제2의 2차원 위치 정보를 생성한다.
여기에서, 보정 후 투사 영역(14)의 4개 모서리의 좌표를 I(X0,Y0), J(X1,Y1 ), K(X2,Y2), L(X3,Y3)라 가정한다. 이 경우, I에 대해서는 X0=Pz*A'x/A'z이고, Y0=Pz*A'y/A'z이다. J ,K ,L도 동일하게 구해진다.
또한, 보정 전 투사 영역의 4개 모서리의 좌표를 A(x0,y0), B(x1,y1), C(x2,y2), D(x3,y3)라 가정한다. 또한, 보정 전 투사 영역은 투사 패널 영역(19)과 일치하기 때문에 보정 전 투사 영역의 4개 모서리의 좌표는 이미 알고 있다.
이와 같이 하여, 보정 정보 생성부(120)는 ABCD및 IJKL의 좌표를 나타내는 위치 보정 정보를 생성할 수 있다.
보정부(130)는 보정 정보 생성부(120)로부터의 위치 보정 정보에 기초하여 화상 정보를 보정한다(단계 S4). 보다 구체적으로는, 이하의 변환식을 이용하여 투사 화상(12)의 형상을 변환하기 위한 변환용 파라미터를 구할 수 있다.
도9는 본 실시 형태의 일례에 따른 변환용 파라미터를 구하는 연산식을 도시한 도면이다.
보정부(130)는 도9에 도시한 연산식을 사용하여 8개의 변환용 파라미터 Pa~Ph를 연산한다.
또한, 보정부(130)는 입력된 화상 정보의 각 화소에 대해 이하의 식을 이용하여 각 화소의 좌표를 보정한다.
X=(Pa*x+Pb*y+Pc)/(Pg*x+Ph*y+1), Y=(Pd*x+Pe*y+Pf)/(Pg*x+Ph*y+1)
또한, 여기서, (x,y)는 보정 전의 화소의 좌표이고, (X,Y)는 보정 후의 화소의 좌표이다.
그리고, 화상 투사부(190)는 보정부(130)에 의해 보정된 화상 정보에 기초하여 화상을 투사한다(단계 S5).
이에 따라, 프로젝터(20)는 스크린(10)의 중앙에 스크린(10)을 가능한 유효하게 활용하여 왜곡이 없는 투사 화상(12)을 표시할 수 있다.
이상과 같이, 본 실시 형태에 따르면, 프로젝터(20)는 원하는 애스펙트비로 스크린(10)의 영역을 유효하게 사용하여 화상을 투사할 수 있다. 이에 따라, 프로젝터(20)는 스크린(10)의 형상의 영향을 받지 않고 관찰자가 보기 좋은 화상을 투사할 수 있다.
또한, 본 실시 형태에 따르면, 프로젝터(20)는 투사 화상(12)의 4개 모서리와 스크린(10)의 4개 모서리가 일치한 상태에서의 위치 조정 정보에 기초하여, 스크린(10)의 종횡비를 파악할 수 있다. 위치 조정 정보나 스크린(10)의 종횡비 등을 이용함으로써, 프로젝터(20)는 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
또한, 본 실시 형태에 따르면, 스크린(10)의 4개 모서리의 정보를 이용함으로써 종횡의 왜곡 검출 각도에 제한 없이 보정할 수 있다.
또한, 본 실시 형태에 따르면, 프로젝터(20)는 투사 화상(12)을 확대하거나 축소하여 투사하는 경우에서도 투사용 렌즈(198)의 수평 방향의 화각에 따라 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
또한, 본 실시 형태에 따르면, 프로젝터(20)는 3차원 공간에서의 스크린(10)의 4개 모서리의 위치를 특정하고, 스크린(10)의 대향하는 변의 길이가 동일하고 평행하다는 조건을 이용하여 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있다.
또한, 본 실시 형태에 따르면, CCD 카메라를 이용하지 않기 때문에, 프로젝터(20)에 탑재하는 메모리의 용량도 적어도 되고, CCD 카메라를 이용하는 경우에 비해 보다 저렴한 가격으로 프로젝터(20)를 구성할 수 있다.
(변형예)
본 발명은 전술한 실시예에 한정되지 않고 다양한 변형이 가능하다.
예를 들면,전술한 실시예에서는 투사 대상물로서 스크린(10)을 이용했지만, 4개 모서리를 검출할 수 있는 구형 형상이라면 좋고, 투사 대상물은, 예를 들면, 화이트 보드, 벽 등이어도 좋다.
또한,전술한 실시예에서는, 프로젝터(20)는 수평 방향의 해상도와 수평 방향의 화각을 이용했지만, 변형예로서 수직 방향의 해상도와 수직 방향의 화각을 이용해도 좋고, 수평과 수직의 양자를 병용해도 좋다.
또한, 전술한 실시예에서는, 화상 처리 시스템으로서 프로젝터(20)를 이용했지만, 본 발명은 프로젝터(20) 이외에도 CRT(Cathode Ray Tube), LED(Light Emitting Diode ), EL(Electro Luminescence) 등의 디스플레이용의 화상 처리 시스템에도 유효하다.
또한, 프로젝터(20)로서는, 예를 들면, 액정 프로젝터, DMD(Digital Micromirror Device)를 이용한 프로젝터 등을 이용해도 좋다. 또한, DMD는 미국 텍사스 인스트루먼트사의 상표이다. 투사 패널도 액정 패널(920)에 한정되지 않고, DMD용의 투사 패널이어도 좋다.
또한, 전술한 프로젝터(20)의 기능은, 예를 들면, 프로젝터 단일체에 실장해도 좋고, 다수의 처리 장치로 분산하여(예를 들면, 프로젝터와 PC로 분산 처리) 실장해도 좋다.
본 발명에 따르면, 원하는 애스펙트비로 되도록 화상의 왜곡을 보정할 수 있는 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리 방법을 제공할 수 있다.

Claims (8)

  1. 화상을 구형(矩形)의 투사 대상물을 향해 투사 패널을 통해 투사하는 화상 투사 수단;
    이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성 수단;
    상기 위치 조정 정보에 기초하여,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성 수단;및
    상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하는 보정 수단
    을 포함하고,
    상기 보정 정보 생성 수단은, 이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여, 상기 투사 대상물의 종횡비를 연산하고, 당해 종횡비에 기초하여, 상기 화상이 소정의 애스펙트비로 되도록 상기 위치 보정 정보를 생성하는
    화상 처리 시스템.
  2. 제1항에 있어서,
    상기 보정 정보 생성 수단은,
    상기 화상 투사 수단에서의 투사용 렌즈의 수평 방향 또는 수직 방향의 화각을 나타내는 화각 정보와, 상기 투사 패널의 수평 해상도 또는 수직 해상도에 기초하여, 가상 투사면을 설정하기 위한 깊이(depth) 위치를 나타내는 깊이 위치 정보를 생성하고,
    상기 투사 패널의 2차원 평면에, 상기 렌즈의 주점(主點)을 원점으로 하여 상기 렌즈의 광축을 3번째 차원으로서 더한 3차원 공간을 설정하고,
    상기 위치 조정 정보에 기초하는 상기 2차원 평면에서의 상기 투사 대상물의 위치를 나타내는 제1의 2차원 위치 정보와, 상기 깊이 위치 정보에 기초하여, 상기 3차원 공간에서의 상기 가상 투사면에 투시투영한 상태의 상기 투사 대상물의 위치를 나타내는 제1의 3차원 위치 정보를 생성하고,
    당해 제1의 3차원 위치 정보에 기초하여,상기 투사 대상물의 대향하는 2변의 길이가 동일하고 평행하다는 조건을 이용하여 상기 종횡비를 연산하는
    화상 처리 시스템.
  3. 제2항에 있어서,
    상기 보정 정보 생성 수단은, 상기 제1의 3차원 위치 정보와, 상기 종횡비 와, 상기 애스펙트비에 기초하여,상기 3차원 공간에서의 보정 후의 상기 화상의 위치를 나타내는 제2의 3차원 위치 정보를 생성하고,
    당해 제2의 3차원 위치 정보에 기초하여,상기 가상 투사면에 투시투영한 상태의 상기 화상의 보정 후의 위치를 나타내는 제2의 2차원 위치 정보를 생성하고,
    당해 제2의 2차원 위치 정보에 기초하여,상기 위치 보정 정보를 생성하는
    화상 처리 시스템.
  4. 화상을 구형의 투사 대상물을 향해 투사 패널을 통해 투사하는 화상 투사 수단;
    이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성 수단;
    상기 위치 조정 정보에 기초하여,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성 수단;및
    상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하는 보정 수단
    을 포함하고,
    상기 보정 정보 생성 수단은, 이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상 기 위치 조정 정보에 기초하여,상기 투사 대상물의 종횡비를 연산하고, 당해 종횡비에 기초하여,상기 화상이 소정의 애스펙트비로 되도록 상기 위치 보정 정보를 생성하는
    프로젝터.
  5. 컴퓨터에 의해 판독가능한 프로그램을 기억한 정보 기억 매체로서,
    화상을 구형의 투사 대상물을 향해 투사 패널을 통해 투사하는 화상 투사 수단;
    이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하는 위치 조정 정보 생성 수단;
    상기 위치 조정 정보에 기초하여,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하는 보정 정보 생성 수단; 및
    상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하는 보정 수단
    으로서 컴퓨터를 기능시키기 위한 프로그램을 기억하고,
    상기 보정 정보 생성 수단은, 이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여, 상기 투사 대상물의 종횡비를 연산하고, 당해 종횡 비에 기초하여,상기 화상이 소정의 애스펙트비로 되도록 상기 위치 보정 정보를 생성하는
    정보 기억 매체.
  6. 화상을 구형의 투사 대상물을 향해 투사 패널을 통해 투사하고,
    이용자에 의한 상기 화상의 위치 조정에 기초하는 위치 조정 정보를 생성하고,
    이용자에 의한 상기 화상의 위치 조정에 의해 상기 화상의 4개 모서리와 상기 투사 대상물의 4개 모서리가 일치한 상태에서의 상기 위치 조정 정보에 기초하여,상기 투사 대상물의 종횡비를 연산하고,
    당해 종횡비에 기초하여,상기 화상이 소정의 애스펙트비로 되도록,상기 투사 대상물에서의 상기 화상의 4개 모서리의 위치를 보정하기 위한 위치 보정 정보를 생성하고,
    상기 위치 보정 정보에 기초하여,상기 화상을 투사하기 위한 화상 정보를 보정하고,
    보정한 화상 정보에 기초하여,상기 화상을 투사하는
    화상 처리 방법.
  7. 제6항에 있어서,
    투사용 렌즈의 수평 방향 또는 수직 방향의 화각을 나타내는 화각 정보와, 상기 투사 패널의 수평 해상도 또는 수직 해상도에 기초하여, 가상 투사면을 설정하기 위한 깊이 위치를 나타내는 깊이 위치 정보를 생성하고,
    상기 투사 패널의 2차원 평면에,상기 렌즈의 주점을 원점으로 하여 상기 렌즈의 광축을 3번째 차원으로서 더한 3차원 공간을 설정하고,
    상기 위치 조정 정보에 기초하는 상기 2차원 평면에서의 상기 투사 대상물의 위치를 나타내는 제1의 2차원 위치 정보와,상기 깊이 위치 정보에 기초하여, 상기 3차원 공간에서의 상기 가상 투사면에 투시투영한 상태의 상기 투사 대상물의 위치를 나타내는 제1의 3차원 위치 정보를 생성하고,
    당해 제1의 3차원 위치 정보에 기초하여,상기 투사 대상물의 대향하는 2변의 길이가 동일하고 평행하다는 조건을 이용하여 상기 종횡비를 연산하는
    화상 처리 방법.
  8. 제7항에 있어서,
    상기 제1의 3차원 위치 정보와,상기 종횡비와,상기 애스펙트비에 기초하여, 상기 3차원 공간에서의 보정 후의 상기 화상의 위치를 나타내는 제2의 3차원 위치 정보를 생성하고,
    당해 제2의 3차원 위치 정보에 기초하여,상기 가상 투사면에 투시투영한 상태의 상기 화상의 보정 후의 위치를 나타내는 제2의 2차원 위치 정보를 생성하고,
    당해 제2의 2차원 위치 정보에 기초하여,상기 위치 보정 정보를 생성하는
    화상 처리 방법.
KR1020050025677A 2004-03-29 2005-03-28 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리방법 KR100637308B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004095935A JP4006601B2 (ja) 2004-03-29 2004-03-29 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JPJP-P-2004-00095935 2004-03-29

Publications (2)

Publication Number Publication Date
KR20060044871A true KR20060044871A (ko) 2006-05-16
KR100637308B1 KR100637308B1 (ko) 2006-10-24

Family

ID=34879915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050025677A KR100637308B1 (ko) 2004-03-29 2005-03-28 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리방법

Country Status (7)

Country Link
US (1) US7537350B2 (ko)
EP (1) EP1583370B1 (ko)
JP (1) JP4006601B2 (ko)
KR (1) KR100637308B1 (ko)
CN (1) CN100369471C (ko)
DE (1) DE602005000058T2 (ko)
TW (1) TWI278227B (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4150924B2 (ja) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2007078821A (ja) * 2005-09-12 2007-03-29 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP4344888B2 (ja) * 2005-12-09 2009-10-14 株式会社カシオ日立モバイルコミュニケーションズ 撮像装置、撮像画像処理方法及びプログラム
JP2007205030A (ja) * 2006-02-01 2007-08-16 Bunka Shutter Co Ltd 開閉装置利用によるディスプレイシステム
JP3953500B1 (ja) 2006-02-07 2007-08-08 シャープ株式会社 画像投影方法及びプロジェクタ
US8066378B2 (en) * 2006-10-06 2011-11-29 Marc Lalley Three-dimensional internal back-projection system and method for using the same
JP4978152B2 (ja) * 2006-10-25 2012-07-18 セイコーエプソン株式会社 プロジェクタ、プログラムおよび情報記憶媒体
JP4340923B2 (ja) 2007-02-23 2009-10-07 セイコーエプソン株式会社 プロジェクタ、プログラムおよび情報記憶媒体
JP5187480B2 (ja) * 2007-02-23 2013-04-24 セイコーエプソン株式会社 プロジェクタ、プログラム、情報記憶媒体および画像生成方法
JP5386828B2 (ja) * 2008-01-29 2014-01-15 セイコーエプソン株式会社 画像投影システムおよびプログラム
JP5093517B2 (ja) * 2009-03-12 2012-12-12 セイコーエプソン株式会社 プロジェクタ、プログラム、情報記憶媒体および画像生成方法
JP5327468B2 (ja) 2009-08-04 2013-10-30 セイコーエプソン株式会社 プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP5728814B2 (ja) * 2010-03-12 2015-06-03 セイコーエプソン株式会社 画像表示装置および画像処理方法
KR101385514B1 (ko) * 2010-06-08 2014-04-16 주식회사 에스칩스 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP5754124B2 (ja) * 2010-12-14 2015-07-29 セイコーエプソン株式会社 プロジェクターおよび制御方法
JP2013038626A (ja) * 2011-08-09 2013-02-21 Seiko Epson Corp 撮像装置およびプロジェクター
US8884937B2 (en) * 2012-01-09 2014-11-11 Himax Display, Inc. Projection apparatus and projection method
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
WO2013172314A1 (ja) 2012-05-16 2013-11-21 株式会社Jvcケンウッド 画像投射装置および画像投射方法
JP5958072B2 (ja) 2012-05-18 2016-07-27 株式会社Jvcケンウッド 投射装置および画像補正方法
JP5958079B2 (ja) * 2012-05-22 2016-07-27 株式会社Jvcケンウッド 投射装置、画像補正方法およびプログラム
JP6035947B2 (ja) 2012-07-26 2016-11-30 セイコーエプソン株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN102970498A (zh) * 2012-11-30 2013-03-13 深圳Tcl新技术有限公司 菜单立体显示的显示方法及显示装置
JP6205777B2 (ja) * 2013-03-22 2017-10-04 カシオ計算機株式会社 投影装置、投影方法、及び投影のためのプログラム
JP6244638B2 (ja) * 2013-03-22 2017-12-13 カシオ計算機株式会社 投影装置、投影方法及び投影プログラム
CN104580966A (zh) * 2013-10-22 2015-04-29 光宝科技股份有限公司 投影装置以及其投影图像处理方法
US10318067B2 (en) * 2014-07-11 2019-06-11 Hewlett-Packard Development Company, L.P. Corner generation in a projector display area
CN104601916B (zh) * 2015-01-20 2017-11-07 苏州佳世达光电有限公司 投影装置及其梯形校正方法
CN106250791A (zh) * 2015-06-30 2016-12-21 北京智谷睿拓技术服务有限公司 显示控制方法和装置
CN106384065B (zh) 2015-06-30 2019-08-06 北京智谷睿拓技术服务有限公司 显示控制方法和装置
CN105187751A (zh) * 2015-09-06 2015-12-23 青岛海信信芯科技有限公司 一种投影图像校正方法和装置
CN107368829B (zh) * 2016-05-11 2020-08-14 富士通株式会社 确定输入图像中的矩形目标区域的方法和设备
WO2018058476A1 (zh) * 2016-09-29 2018-04-05 华为技术有限公司 一种图像校正方法及装置
CN107027014A (zh) * 2017-03-23 2017-08-08 广景视睿科技(深圳)有限公司 一种动向智能投影系统及其方法
CN110505398B (zh) * 2019-07-16 2021-03-02 北京三快在线科技有限公司 一种图像处理方法、装置、电子设备及存储介质
CN112004072B (zh) * 2020-07-31 2022-05-03 海尔优家智能科技(北京)有限公司 投影图像检测方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000021282A1 (en) 1998-10-02 2000-04-13 Macronix International Co., Ltd. Method and apparatus for preventing keystone distortion
JP2002044571A (ja) 2000-07-27 2002-02-08 Nec Viewtechnology Ltd 投射型の格子状表示装置及び投射映像の歪み補正方法
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
JP2002158946A (ja) * 2000-11-20 2002-05-31 Seiko Epson Corp プロジェクタおよび画像歪補正方法
JP2002247614A (ja) 2001-02-15 2002-08-30 Ricoh Co Ltd プロゼェクタ
EP1395865A2 (en) * 2001-06-12 2004-03-10 Silicon Optix Inc. System and method for correcting keystone distortion
JP3761491B2 (ja) * 2002-05-10 2006-03-29 Necビューテクノロジー株式会社 投射映像の歪補正方法、歪補正プログラム及び投射型映像表示装置
JP2004040395A (ja) 2002-07-02 2004-02-05 Fujitsu Ltd 画像歪み補正装置、方法及びプログラム
JP3620537B2 (ja) * 2003-05-02 2005-02-16 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3846592B2 (ja) * 2003-06-26 2006-11-15 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7175285B2 (en) * 2003-07-29 2007-02-13 Sharp Laboratories Of America, Inc. Projection system that adjusts for keystoning
US7399086B2 (en) * 2004-09-09 2008-07-15 Jan Huewel Image processing method and image processing device
US7252387B2 (en) * 2005-03-21 2007-08-07 Mitsubishi Electric Research Laboratories, Inc. System and method for mechanically adjusting projector pose with six degrees of freedom for image alignment

Also Published As

Publication number Publication date
CN1678048A (zh) 2005-10-05
DE602005000058D1 (de) 2006-09-14
CN100369471C (zh) 2008-02-13
EP1583370B1 (en) 2006-08-02
EP1583370A1 (en) 2005-10-05
US20050214662A1 (en) 2005-09-29
US7537350B2 (en) 2009-05-26
JP4006601B2 (ja) 2007-11-14
KR100637308B1 (ko) 2006-10-24
TW200536384A (en) 2005-11-01
JP2005286572A (ja) 2005-10-13
DE602005000058T2 (de) 2007-02-15
TWI278227B (en) 2007-04-01

Similar Documents

Publication Publication Date Title
KR100637308B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상 처리방법
KR100571175B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
JP3879858B2 (ja) 画像処理システム、プロジェクタおよび画像処理方法
US7695143B2 (en) Image processing system, projector, computer-readable medium, and image processing method
KR100591708B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
JP4155890B2 (ja) プロジェクタ、プロジェクタの傾斜角度取得方法及び投影像補正方法
JP5266954B2 (ja) 投写型表示装置および表示方法
JP2005033703A (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2008211354A (ja) プロジェクタ、プログラムおよび情報記憶媒体
JP2010050540A (ja) 投写型表示装置および表示方法
JP5239611B2 (ja) 投写型表示装置および画像の補正方法
JP4572377B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
KR20130043300A (ko) 프로젝터를 통해 투사되는 영상을 보정하기 위한 장치 및 방법
JP6749402B2 (ja) 投射型映像表示装置および投射映像の調整方法
JP2008211356A (ja) プロジェクタ、プログラムおよび情報記憶媒体
JP5093517B2 (ja) プロジェクタ、プログラム、情報記憶媒体および画像生成方法
JP2005286573A (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120924

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130924

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140923

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150917

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160921

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170920

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20181004

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20191002

Year of fee payment: 14