KR20240005492A - 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법 - Google Patents

3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240005492A
KR20240005492A KR1020220082658A KR20220082658A KR20240005492A KR 20240005492 A KR20240005492 A KR 20240005492A KR 1020220082658 A KR1020220082658 A KR 1020220082658A KR 20220082658 A KR20220082658 A KR 20220082658A KR 20240005492 A KR20240005492 A KR 20240005492A
Authority
KR
South Korea
Prior art keywords
display
image
enhanced
displaying
processor
Prior art date
Application number
KR1020220082658A
Other languages
English (en)
Inventor
민관식
손상현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220082658A priority Critical patent/KR20240005492A/ko
Priority to PCT/KR2023/003963 priority patent/WO2024010174A1/ko
Priority to US18/140,291 priority patent/US20240015277A1/en
Publication of KR20240005492A publication Critical patent/KR20240005492A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

3D 영상을 제공하는 디스플레이 장치가 개시된다. 디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이, 3D 디스플레이와 제1 각도로 배치된 인핸스 디스플레이, 3D 디스플레이 및 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널 및 하나 이상의 프로세서를 포함한다. 프로세서는, 3D 영상 제공 모드에서, 인핸스 디스플레이에 입력 영상을 표시하여 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 3D 디스플레이에 입력 영상에 대응되는 다시점 영상을 표시하며, 3D 영상 제공 모드에서, 인핸스 디스플레이에 입력 영상을 표시하여 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 3D 디스플레이를 턴 오프시킬 수 있다.

Description

3D 영상을 제공하는 디스플레이 장치 및 그 제어 방법 { Dispaly apparatus for providing 3D image and control method thereof}
본 개시는 디스플레이 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 3D 영상 제공 모드 및 2D 영상 제공 모드 간 전환이 가능한 디스플레이 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 일반 가정에서 가장 많이 사용되고 있는 가전 제품 중 하나인 TV와 같은 디스플레이 장치는 최근 수년 간 급속도로 발전하고 있다.
디스플레이 장치의 성능이 고급화되면서, 디스플레이 장치에서 디스플레이하는 컨텐츠의 종류도 다양하게 증대되었다. 특히, 최근에는 3D 컨텐츠까지 시청할 수 있는 입체 디스플레이 시스템이 개발되어 보급되고 있다.
입체 디스플레이 장치는 일반 가정에서 사용되는 3D 텔레비젼 뿐만 아니라, 각종 모니터, 휴대폰, PDA, PC, 셋탑 PC, 태블릿 PC, 전자 액자, 키오스크 등과 같은 다양한 유형의 디스플레이 장치로 구현될 수 있다. 또한, 3D 디스플레이 기술은, 가정 내 사용 뿐만 아니라 과학, 의약, 디자인, 교육, 광고, 컴퓨터 게임 등과 같이 3D 이미징이 필요한 다양한 분야에 활용될 수 있다.
입체 디스플레이 시스템은 크게 안경 없이 시청 가능한 무안경식 시스템과, 안경을 착용하여 시청하여야 하는 안경식 시스템으로 분류할 수 있다.
안경식 시스템은 만족스러운 입체감을 제공할 수 있으나, 시청자가 반드시 안경을 사용하여야만 한다는 불편함이 있었다. 이에 비해, 무안경식 시스템은 안경 없이도 3D 이미지를 시청할 수 있다는 장점이 있어, 무안경식 시스템에 대한 개발 논의가 지속적으로 이루어지고 있다.
일 실시 예에 따르면, 3D 영상을 제공하는 디스플레이 장치는, 디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이, 상기 3D 디스플레이와 제1 각도로 배치된 인핸스(enhance) 디스플레이, 상기 3D 디스플레이 및 상기 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는, 3D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지(virtual image)를 제공하고 상기 3D 디스플레이에 상기 입력 영상에 대응되는 다시점 영상을 표시하며, 2D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 상기 3D 디스플레이를 턴 오프시킬 수 있다.
일 실시 예에 따르면, 상기 인핸스 디스플레이는, 상기 3D 디스플레이에 대해 수직으로 배치되며, 상기 미러 패널는, 상기 인핸스 디스플레이에 대해 45도 각도로 기울어지도록 배치된 하프 미러 패널일 수 있다.
일 실시 예에 따르면, 상기 버츄얼 이미지는, 상기 3D 디스플레이의 전방에서 상기 3D 디스플레이와 기설정된 거리만큼 이격된 위치에 제공되며, 상기 버츄얼 이미지가 제공되는 위치는, 상기 3D 디스플레이 또는 상기 인핸스 디스플레이 중 적어도 하나의 위치에 따라 조정될 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 다시점 영상에서 상이한 시점을 가지는 복수의 제1 픽셀을 식별하고, 상기 버츄얼 이미지에서 상기 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀을 식별하고, 상기 복수의 제2 픽셀의 픽셀 값 또는 밝기 값 중 적어도 하나가 상이한 값을 가지도록 상기 입력 영상을 처리하여 제1 처리 영상을 획득하고, 상기 제1 처리 영상을 상기 인핸스 디스플레이에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 복수의 영상 뷰의 배치 위치에 기초하여 서로 다른 시점의 영상 뷰 간에 발생하는 크로스토크(X-talk)를 예측하고, 상기 예측된 크로스토크에 기초하여 상기 입력 영상을 처리하여 상기 크로크토크를 보상하기 위한 제2 처리 영상을 획득하고, 상기 제2 처리 영상을 상기 인핸스 디스플레이에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상에 대한 사용자 인식 화질 정보를 예측하고, 상기 사용자 인식 화질 정보 및 타겟 화질 정보에 기초하여 상기 입력 영상의 화질을 처리하여 제3 처리 영상을 획득하고, 상기 제3 처리 영상을 상기 인핸스 디스플레이에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 3D 영상 제공 모드에서 상기 입력 영상에 포함된 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리하여 제4 처리 영상을 획득하고, 상기 제4 처리 영상을 상기 인핸스 디스플레이에 표시할 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 입력 영상의 밝기 정보 및 상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상의 밝기 정보를 예측하고, 상기 예측된 버츄얼 영상의 밝기 정보에 기초하여 상기 다시점 영상의 밝기를 조정하여 상기 3D 디스플레이에 표시할 수 있다.
일 실시 예에 따르면, 상기 인핸스 디스플레이에 표시되는 영상의 해상도는, 상기 3D 디스플레이에 포함된 상기 디스플레이 패널의 해상도와 동일하거나 낮을 수 있다.
일 실시 예에 따르면, 디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이, 상기 3D 디스플레이와 제1 각도로 배치된 인핸스(enhance) 디스플레이, 및 상기 3D 디스플레이 및 상기 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널을 포함하는 디스플레이 장치의 제어 방법은, 3D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지(virtual image)를 제공하고 상기 3D 디스플레이에 상기 입력 영상에 대응되는 다시점 영상을 표시하는 단계 및, 2D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 상기 3D 디스플레이를 턴 오프시키는 단계를 포함한다.
일 실시 예에 따르면, 디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이, 상기 3D 디스플레이와 제1 각도로 배치된 인핸스(enhance) 디스플레이, 및 상기 3D 디스플레이 및 상기 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널을 포함하는 디스플레이 장치의 프로세서에 의해 실행되는 경우 상기 디스플레이 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체가 개시된다. 상기 동작은, 3D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지(virtual image)를 제공하고 상기 3D 디스플레이에 상기 입력 영상에 대응되는 다시점 영상을 표시하는 단계 및, 2D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 상기 3D 디스플레이를 턴 오프시키는 단계를 포함한다.
도 1은 본 개시의 이해를 돕기 위한 무안경 3D 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 3은 일 실시 예에 따른 3D 디스플레이의 구성을 나타내는 도면이다.
도 4는 일 실시 예에 따른 하프 미러의 사용 형태를 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 3D 디스플레이, 인핸스 디스플레이 및 미러 패널의 배치 형태를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 프로세서의 동작을 설명하기 위한 흐름도이다.
도 7은 일 실시 예에 따른 3D 영상 제공 모드에서 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 2D 영상 제공 모드에서 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 미러 패널의 투과율 정보를 나타내는 도면이다.
도 13은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 14는 일 실시 예에 따른 다시점 영상의 처리 방법을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 보정 영상 획득 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 디스플레이 장치의 세부 구성을 나타내는 블럭도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 명세서에서 이용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. 
본 개시의 이용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 이용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 이용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 이용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
A 또는 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 하나 이상의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 이해를 돕기 위한 무안경 3D 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 1은 일 실시 예에 따라 다시점 영상을 디스플레이하여 무안경 방식으로 입체 영상을 제공하는 장치의 동작 방식을 나타내는 것으로, 여기에서, 다시점 영상은 동일한 오브젝트를 서로 다른 각도에서 촬영한 복수의 영상을 포함한다. 즉, 서로 다른 시점에서 촬영한 복수의 영상을 서로 다른 각도로 굴절시키고, 소위 시청 거리라 하는 일정한 거리만큼 떨어진 위치에 포커스된 영상을 제공한다. 이와 같이 시청 영역이 형성되는 위치를 광학 뷰라 한다. 이에 따라, 사용자의 한 쪽 눈이 하나의 제1 광학 뷰에 위치하고, 다른 쪽 눈이 제2 광학 뷰에 위치하면 입체감을 느낄 수 있게 된다.
한편, 일 실시 예에 따르면 디스플레이 장치는 복수의 영상 뷰를 이용하여 하나의 광학 뷰를 제공할 수 있다. 구체적으로, 입력된 영상에 대한 렌더링을 통해 복수의 영상 뷰를 생성하고, 복수의 영상 뷰 중 적어도 두 개의 영상 뷰가 하나의 광학 뷰를 제공하도록 다시점 영상을 생성할 수 있다. 일 예로, 도 1은 총 8 개의 서로 다른 시점의 영상 뷰를 이용하여 4개의 광학 뷰를 제공하는 경우 디스플레이 동작을 설명하는 도면이다. 도 1에 따르면, 무안경 3D 디스플레이 장치는 좌안에는 8 시점 중 1, 2 시점 영상에 해당하는 광이, 우안에는 3, 4 시점 영상에 해당하는 광이 투사되도록 할 수 있다. 이에 따라, 사용자는 좌안 및 우안에서 서로 다른 시점의 영상을 시청하게 되어 입체감을 느낄 수 있게 된다. 다만, 이는 일 실시 예에 불과하며, 총 N 개의 시점에 대응되는 영상 뷰를 이용하여 M(M>>N)개의 광학 뷰를 제공하는 경우 하나의 광학 뷰는 N/M개의 시점의 영상 뷰로 구성될 수 있다.
상술한 무안경 3D 기술은 시청 범위를 증가시키기 위해서 사용하는 시점 수만큼 해상도가 저하된다는 문제가 있다.
이하에서는 버츄얼 영상을 이용하여 무안경 3D 영상의 해상도를 증가시킬 수 있는 다양한 실시 예에 대해 설명하도록 한다.
도 2는 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 2에 따르면, 디스플레이 장치(100)는 3D 디스플레이(110), 인핸스 디스플레이(120), 미러 패널(130) 및 프로세서(140)를 포함한다.
일 실시 예에 따르면, 디스플레이 장치(100)는 TV, 모니터, PC, 키오스크, LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 비디오 월(video wall), 전장 디스플레이 장치(또는 차량용 디스플레이) 등과 같이 디스플레이 기능을 갖춘 장치라면 한정되지 않고 적용 가능하다.
3D 디스플레이(110)는 사용자의 시청 영역에서 복수의 광학 뷰를 제공하는 기능을 한다. 일 예에 따라 3D 디스플레이(110)는 도 3에 도시된 바와 같이 복수의 광학 뷰 제공을 위한 디스플레이 패널(111) 및 시역 분리부(112)를 포함한다.
디스플레이 패널(111)은 복수의 서브 픽셀로 구성된 복수의 픽셀을 포함한다. 여기에서, 서브 픽셀은 R(Red), G(Green), B(Blue)로 구성될 수 있다. 즉, R, G, B의 서브 픽셀로 구성된 픽셀이 복수의 행 및 열 방향으로 배열되어 디스플레이 패널(131)을 구성할 수 있다. 디스플레이 패널(111)은 자발광 소자를 포함하는 디스플레이 또는 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), PDP(Plasma Display Panel), QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(160) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(110)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다.
시역 분리부(112)는 디스플레이 패널(111)의 전면에 배치되어 시청 영역 별로 상이한 시점 즉, 광학 뷰를 제공할 수 있다. 이 경우, 시역 분리부(112)는 렌티큘러 렌즈(Lenticular lens) 또는, 패러랙스 배리어(Parallax Barrier)로 구현될 수 있다.
예를 들어, 시역 분리부(112)는 도 3에 도시된 바와 같이 복수의 렌즈 영역을 포함하는 렌티큘러 렌즈로 구현될 수 있다. 이에 따라, 렌티큘러 렌즈는 복수의 렌즈 영역을 통해 디스플레이 패널(111)에서 디스플레이되는 영상을 굴절시킬 수 있다. 각 렌즈 영역은 적어도 하나의 픽셀에 대응되는 크기로 형성되어, 각 픽셀을 투과하는 광을 시청 영역별로 상이하게 분산시킬 수 있다. 다른 예로, 시역 분리부(112)는 패러랙스 배리어로 구현될 수 있다. 패러랙스 배리어는 복수의 배리어 영역을 포함하는 투명 슬릿 어레이로 구현된다. 이에 따라, 배리어 영역 간의 슬릿(slit)을 통해 광을 차단하여 시청 영역 별로 상이한 시점의 영상이 출사되도록 할 수 있다.
도 3에 따르면, 디스플레이 패널(111)은 복수의 열(column)로 구분되는 복수의 픽셀을 포함한다. 각 열 별로 상이한 시점의 영상 뷰가 배치된다. 도 3에 따르면, 서로 다른 시점의 복수의 영상 뷰인 제1 내지 제8뷰가 순차적으로 반복 배치되는 형태를 나타낸다. 즉, 각 픽셀 열은 1, 2, 3, 4, 5, 6, 7, 8로 넘버링된 그룹으로 배열된다.
디스플레이 패널(111)에 형성되는 각 영상 뷰는 렌티큘러 렌즈 어레이(112)로 투사되고, 렌티큘러 렌즈 어레이(112)는 투사되는 각 영상 뷰의 광을 분산시켜 사용자 방향으로 전달한다. 즉, 렌티큘러 렌즈 어레이(112)는 사용자의 위치, 즉, 시청 거리에 출구동공(exit pupils)을 생성한다. 도시된 바와 같이 렌티큘러 렌즈 어레이로 구현되었을 경우 렌티큘러 렌즈의 두께 및 직경, 패러랙스 배리어로 구현되었을 경우 슬릿의 간격 등은 각 열에 의해 생성되는 출구 동공이 65mm 미만의 평균 양안 중심 거리로 분리되도록 설계될 수 있다. 분리된 이미지 광들은 각각 광학 뷰를 형성한다. 즉, 도 3에 도시된 바와 같이 시청 영역에는 복수의 광학 뷰가 형성되고 사용자의 좌안 및 우안이 각각 서로 다른 광학 뷰에 위치하게 되는 경우, 3D 영상을 시청할 수 있게 된다.
인핸스 디스플레이(120)는 2D 영상을 디스플레이하는 종래의 디스플레이 패널로 구현될 수 있다. 예를 들어, 인핸스 디스플레이(120)는 자발광 소자를 포함하는 디스플레이 또는 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다. 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), PDP(Plasma Display Panel), QLED(Quantum dot light-emitting diodes) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(160) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(110)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다.
미러(mirror) 패널(130)은 하프 미러(또는 미러 필름)을 포함하는 형태로 구현될 수 있다. 하프 미러는 입사(入射) 광량의 일부를 반사하고, 다른 일부를 투과하는 금속 박막 또는 유전체 다층막을 증착한 유리판 혹은 투명 플라스틱판으로 구현될 수 있다. 도 4는 하프 미러의 일반적인 사용 형태를 설명하기 위한 것으로, 사용자는 디스플레이 패널(410)에 표시되는 영상을 하프 미러(420)를 투과하여 보게 되고, 동시에 영상이 재생되지 않는 경우 외부 광원이 하프 미러(420)에 의해 반사되는 빛을 보게 되므로 거울로 이용할 수 있게 된다. 하프 미러(420)는 유리에 특수 코팅 처리를 하여 반사율과 투과율이 반반일 수 있으나, 반드시 이에 한정되는 것은 아니다.
도 5는 일 실시 예에 따른 3D 디스플레이, 인핸스 디스플레이 및 미러 패널의 배치 형태를 설명하기 위한 도면이다.
일 실시 예에 따르면, 도 5에 도시된 바와 같이 인핸스 디스플레이(120)는 3D 디스플레이(110)와 제1 각도로 배치될 수 있다. 또한, 미러 패널(130)은 3D 디스플레이(110) 및 인핸스 디스플레이(120) 사이에서 제2 각도로 배치될 수 있다.
예를 들어, 인핸스 디스플레이(120)는 3D 디스플레이(110)에 대해 수직으로 배치될 수 있다. 다만, 반드시 이에 한정되는 것은 아니며 제1 각도는 90도를 기준으로 임계 각도 범위 내에서 다른 값을 가질 수 있다.
또한, 미러 패널(130)은 인핸스 디스플레이(120)에 대해 45도 각도로 기울어지도록 배치될 수 있다. 다만, 반드시 이에 한정되는 것은 아니며 제2 각도는 45도를 기준으로 임계 각도 범위 내에서 다른 값을 가질 수 있다.
하나 이상의 프로세서(140)(이하, 프로세서)는 3D 디스플레이(110), 인핸스 디스플레이(120) 및 미러 패널(130)와 전기적으로 연결되어 디스플레이 장치(100)의 전반적인 동작을 제어한다. 하나 이상의 프로세서(140)는 하나 또는 복수의 프로세서로 구성될 수 있다. 여기서, 하나 또는 복수의 프로세서는 적어도 하나의 소프트웨어 또는 적어도 하나의 하드웨어 또는, 적어도 하나의 소프트웨어 및 적어도 하나의 하드웨어의 조합으로 구현될 수 있다. 일 예에 따라 하나 이상의 프로세서에 해당하는 소프트웨어 또는 하드웨어 로직이 하나의 칩 내에 구현될 수 있다. 일 예에 따라 복수의 프로세서 중 일부에 해당하는 소프트웨어 또는 하드웨어 로직은 하나의 칩 내에, 나머지에 해당하는 소프트웨어 또는 하드웨어 로직은 다른 칩 내에 구현될 수 있다.
구체적으로, 프로세서(140)는 메모리(1미도시)에 저장된 적어도 하나의 인스트럭션(instruction)을 실행함으로써, 본 개시의 다양한 실시 예에 따른 디스플레이 장치(100)의 동작을 수행할 수 있다.
일 실시 예에 따라 프로세서(140)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, NPU (Neural Processing Unit), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(140)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, ASIC(application specific integrated circuit), FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
또한, 일 실시 예에 따른 신경망 모델을 실행하기 위한 프로세서(140)는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공 지능 전용 프로세서과 소프트웨어의 조합을 통해 구현될 수 있다. 프로세서(140)는, 메모리(미도시)에 저장된 기 정의된 동작 규칙 또는 신경망 모델에 따라, 입력 데이터를 처리하도록 제어할 수 있다. 또는, 프로세서(140)가 전용 프로세서(또는 인공 지능 전용 프로세서)인 경우, 특정 신경망 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 예를 들어, 특정 신경망 모델의 처리에 특화된 하드웨어는 ASIC, FPGA 등의 하드웨어 칩으로 설계될 수 있다. 프로세서(140)가 전용 프로세서로 구현되는 경우, 본 개시의 실시 예를 구현하기 위한 메모리를 포함하도록 구현되거나, 외부 메모리를 이용하기 위한 메모리 처리 기능을 포함하도록 구현될 수 있다.
도 6은 일 실시 예에 따른 프로세서의 동작을 설명하기 위한 흐름도이다.
일 실시 예에 따르면, 프로세서(140)는 3D 영상 제공 모드 및 2D 영상 제공 모드 중 어느 하나로 동작할 수 있다. 예를 들어, 디스플레이 장치(100)는 사용자 명령, 입력 영상의 타입, 기 설정된 모드 등에 기초하여 3D 영상 제공 모드 및 2D 영상 제공 모드 중 어느 하나로 동작할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 3D 영상 제공 모드가 식별되면(S610), 인핸스 디스플레이(120)에 입력 영상을 표시하고, 3D 디스플레이(110)에 입력 영상에 대응되는 다시점 영상을 표시할 수 있다. 여기서, 입력 영상이란 입력 영상 그 자체 뿐 아니라, 입력 영상을 영상 처리한 처리 영상일 수 있으며 이와 관련된 다양한 실시 예에 대해서는 후술하도록 한다.
입력 영상은 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드) 등과 같은 각종 외부 장치로부터 스트리밍 또는 다운로드 방식으로 수신될 수 있다. 또는 입력 영상은 내부 메모리(미도시)에 기 저장된 영상일 수 있다. 일 예에 따라 입력 영상은 단일 시점 영상, 스테레오(Stero) 영상, 다시점 영상 중 어느 하나의 영상일 수 있다. 단일 시점 영상은 일반적인 촬영 장치에 의해 촬영된 영상이며, 스테레오 영상(Stereoscopic image)은 좌안 영상과 우안 영상만으로 표현된 3차원 비디오 영상으로, 스테레오 촬영 장치에 의해 촬영된 입체 영상이다. 일반적으로 스테레오 촬영 장치는 2개의 렌즈를 구비한 촬영 장치로 입체 영상을 촬영하는데 사용된다. 그리고, 다시점 영상(Multiview image)은 한대 이상의 촬영 장치를 통해 촬영된 영상들을 기하학적으로 교정하고 공간적인 합성 등을 통하여 여러 방향의 다양한 시점을 사용자에게 제공하는 3차원 비디오 영상을 의미한다.
일 예에 따라 입력 영상은 영상의 뎁스 정보와 함께 수신될 수 있다. 일반적으로 영상의 뎁스(Depth)는 영상의 각각 픽셀별로 부여된 깊이 값으로, 일 예로, 8bit의 뎁스는 0~255까지의 그레이 스케일(grayscale) 값을 가질 수 있다. 예를 들어, 흑/백을 기준으로 나타낼 때, 검은색(낮은 값)이 시청자로부터 먼 곳을 나타내며, 흰색(높은 값)이 시청자로부터 가까운 곳을 나타낼 수 있다. 뎁스(depth) 정보란 3D 영상의 뎁스를 나타내는 정보로, 3D 영상을 구성하는 좌안 영상과 우안 영상 사이의 양안 시차 정도에 대응되는 정보이다. 뎁스 정보에 따라 사람이 느끼는 입체감의 정도가 달라진다. 즉, 뎁스가 큰 경우 좌우 양안 시차가 크게 되므로 입체감이 상대적으로 크게 느껴지고, 뎁스가 작은 경우 좌우 양안 시차가 작게 되므로 입체감이 상대적으로 작게 느껴지게 된다. 뎁스 정보는 일반적으로, 스테레오 정합(Stereo matching) 등과 같이 영상의 2차원적 특성만을 가지고 얻는 수동적인 방법과 깊이 카메라(Depth camera)와 같은 장비를 이용하는 능동적 방법을 통하여 획득될 수 있다. 한편, 뎁스 정보는 뎁스 맵 형태가 될 수 있다. 뎁스 맵(Depth map)이란 영상의 각 영역 별 뎁스 정보를 포함하고 있는 테이블을 의미한다. 영역은 픽셀 단위로 구분될 수도 있고, 픽셀 단위보다 큰 기설정된 영역으로 정의될 수도 있다. 일 예에 따라 뎁스 맵은 0~255까지의 그레이 스케일(grayscale) 값 중 127 또는 128을 기준 값 즉, 0(또는 포컬 플레인)으로 하여 127 또는 128 보다 작은 값을 - 값으로 나타내고, 큰 값을 + 값으로 나타내는 형태가 될 수 있다. 포컬 플레인의 기준값은 0~255 사이에서 임의로 선택할 수 있다. 여기서, - 값은 침강을 의미하며, + 값은 돌출을 의미한다.
프로세서(130)는 입력 영상 및/또는 뎁스 정보에 기초하여 서로 다른 시점의 복수의 영상 뷰를 렌더링할 수 있다.
프로세서(130)는 입력 영상이 2D 영상인 경우, 2D/3D 변환에 추출된 뎁스 정보를 기초로 서로 다른 시점의 복수의 영상 뷰를 렌더링할 수 있다. 또는 프로세서(130)는 서로 다른 시점의 복수의 영상 뷰 및 대응되는 복수의 뎁스 정보가 수신되면, 복수의 영상 뷰 및 뎁스 정보 중 적어도 하나의 영상 뷰 및 뎁스 정보에 기초하여 개수(이하에서 N개라 함)의 영상 뷰를 렌더링할 수 있다. 또는 프로세서(130)는 서로 다른 시점의 복수의 영상 뷰 만 수신되면, 복수의 영상 뷰로부터 뎁스 정보 추출 후, 추출된 뎁스 정보에 기초하여 N 개의 영상 뷰를 렌더링할 수 있다.
프로세서(130)는 렌더링된 서로 다른 시점의 복수의 영상 뷰를 구성하는 서브 픽셀 값에 기초하여 3D 디스플레이(110)에 표시할 다시점 영상을 생성한다. 예를 들어, 프로세서(130)는 복수의 영상 뷰를 디스플레이 패널(110)에 기설정된 배치 패턴으로 배치하여 다시점 영상을 제공할 수 있다.
도 7은 일 실시 예에 따른 3D 영상 제공 모드에서 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 7에 따르면, 인핸스 디스플레이(130)에 영상이 표시되면, 미러 패널(130)의 동작에 의해 3D 디스플레이(110) 전방의 공간 상에 버츄얼 이미지(Virtual Image)(710)가 제공될 수 있게 된다. 예를 들어, Pepper's Ghost 방식이 이용될 수 있으나 이에 한정되는 것은 아니다. 여기서, 버츄얼 이미지는 물리적 패널이 아닌, 공간 상에 프로젝팅되어 제공되는 이미지를 의미할 수 있다.
즉, 3D 디스플레이(110) 및 시청자 사이에 저하된 해상도의 3D 영상의 시청 해상도를 향상시킬 수 있는 버츄얼 이미지(710)를 제공하여 3D 영상의 시청 해상도, 색순도, 명암비 등을 개선시킬 수 있게 된다. 특히, 3D 디스플레이(110) 전방에 투명 디스플레이를 배치하는 구조에서 발생될 수 있는 휘도 감소 및 모아레(Moire) 등을 방지할 수 있게 된다. 예를 들어, 3D 디스플레이(110) 전방에 투명 디스플레이를 배치하는 구조의 경우 투과율과 해상도의 Trade off 관계로 인해 개선할 수 있는 해상도에 제약이 있을 수 있다. 또한, 3D Display(110) 및 투명 디스플레이의 규칙적인 패턴이 겹침으로 모아레가 발생되고 이를 해소하기 위해 두 디스플레이 사이에 확산 기능을 삽입하게 되면 입체 특성이 열화되고 휘도 감소 원인이 될 수 있다.
하지만, 도 7에 도시된 실시 예와 같이 버츄얼 이미지(710)를 인핸스 이미지로 이용하게 되면 3D 시청 영상의 해상도를 향상시키고 모아레가 발생하지 않게 된다.
일 예에 따라 버츄얼 이미지(710)는 3D 디스플레이(110) 전방에서 기설정된 거리 만큼 이격된 위치에 제공될 수 있다. 이 경우, 버츄얼 이미지(710)가 제공되는 위치 즉, 3D 디스플레이(110) 및 버츄얼 이미지(710)의 간격은 3D 디스플레이(110) 또는 인핸스 디스플레이(120) 중 적어도 하나의 위치를 변경하여 조정될 수 있다. 에를 들어, 3D 디스플레이(110) 및 인핸스 디스플레이(120) 사이의 거리가 증가할수록 버츄얼 이미지(710)는 3D 디스플레이(110)로부터 상대적으로 먼 거리의 위치에 제공될 수 있다.
일 실시 예에 따라 인핸스 디스플레이(120)에 표시되는 영상의 해상도는 3D 디스플레이(110)에 포함된 디스플레이 패널의 해상도와 동일하거나 낮을 수 있다. 예를 들어, 3D 디스플레이(110)에 표시되는 영상은 SD(Standard Definition), HD(High Definition), Full HD 또는 Ultra HD 영상 중 어느 하나의 영상이 될 수 있다. 인핸스 디스플레이(120)에 표시되는 영상 또한 SD(Standard Definition), HD(High Definition), Full HD 또는 Ultra HD 영상 중 어느 하나의 영상이 될 수 있다. 다만, 인핸스 디스플레이(120)의 비용 절감을 고려하지 않는 경우 구현 예레 따라 인핸스 디스플레이(120)에 표시되는 영상의 해상도가 3D 디스플레이(110)에 표시되는 다시점 영상의 해상도보다 높을 수도 있다.
일 실시 예에 따르면, 프로세서(140)는 2D 영상 제공 모드가 식별되면(S630), 인핸스 디스플레이(120)에 입력 영상을 표시하고, 3D 디스플레이(110)를 턴 오프시킬 수 있다. 예를 들어, 도 8에 도시된 바와 같이 3D 디스플레이(110)를 블랙(black) 화면이 되게 하고 버츄얼 2D 이미지(1410)로 2D 영상을 허공에 구현함으로써 일반적인 2D 디스플레이를 시청하는 것과 동일한 효과를 구현할 수 있게 된다.
도 9는 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 9에 따르면, 프로세서(140)는 3D 디스플레이(110)에 표시될 다시점 영사에서 상이한 시점을 가지는 복수의 제1 픽셀을 식별할 수 있다(S910). 일 예에 따라 도 3에 도시된 실시 예에서 1 시점 내지 8 시점에 대응되는 8개의 픽셀을 제1 픽셀로 식별할 수 있다. 8개의 픽셀이 각각 1 시점 내지 8 시점에 대응되는 복수의 사용자에게 제공된다고 가정하면, 8개의 픽셀은 한 명의 사용자에게 하나의 픽셀처럼 인식되게 된다
이어서, 프로세서(140)는 인핸스 디스플레이(120)를 통해 제공될 버츄얼 이미지에서 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀을 식별할 수 있다(S920). 일 예에 따라 도 3에 도시된 실시 예에서 1 시점 내지 8 시점에 대응되는 8개의 픽셀에 대응되는 버츄얼 이미지 상의 제2 픽셀을 식별할 수 있다. 이 경우, S910에서 식별된 복수의 제1 픽셀이 사용자에게 하나의 픽셀처럼 인식되는 반면, 복수의 제2 픽셀은 각각 다른 픽셀로 인식되게 된다.
이어서, 프로세서(140)는 복수의 제2 픽셀의 픽셀 값 또는 밝기 값 중 적어도 하나가 상이한 값을 가지도록 입력 영상을 처리하여 제1 처리 영상을 획득할 수 있다(S930).
일 예에 따라 도 3에 도시된 실시 예에서 S910에서 식별된 복수의 제1 픽셀이 사용자에게 하나의 픽셀처럼 인식되므로 3D 디스플레이(110)에 표시되는 영상에 대해 사용자가 인식하는 해상도 또는 밝기 값 중 적어도 하나는 감소할 수 있다. 이에 따라 프로세서(140)는 3D 이미지의 해상도 또는 밝기 값 중 적어도 하나를 향상시키기 위해 버츄얼 이미지를 영상 처리할 수 있다. 예를 들어, 프로세서(140)는 3D 영상에 포함된 복수의 제1 픽셀에 대응되는 버츄얼 이미지에 포함된 복수의 제2 픽셀이 상이한 픽셀 값을 가지도록 입력 영상을 처리하여 제1 처리 영상을 획득할 수 있다. 또는 프로세서(140)는 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀이 상이한 밝기 값을 가지도록 입력 영상을 처리하여 제1 처리 영상을 획득할 수 있다. 또는 프로세서(140)는 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀이 상이한 픽셀 값 및 밝기 값을 가지도록 입력 영상을 처리하여 제1 처리 영상을 획득할 수 있다.
이 후, 프로세서(140)는 제1 처리 영상을 인핸스 디스플레이(120)에 표시할 수 있다(S940).
도 10은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 10에 따르면, 프로세서(140)는 다시점 영상에서 복수의 영상 뷰의 배치 위치에 기초하여 서로 다른 시점의 영상 뷰 간에 발생하는 크로스토크(X-talk)를 예측할 수 있다(S1010). 여기서, 크로스토크 예측은 기존의 다양한 방법, 예를 들어, X-talk 매트릭스를 적용하여 이루어질 수 있다.
이어서, 프로세서(140)는 예측된 크로스토크에 기초하여 입력 영상을 처리하여 크로크토크를 보상하기 위한 제2 처리 영상을 획득할 수 있다(S102O). 일 예에 따라 예측된 크로스토크에 대한 역보상이 가능하도록 입력 영상을 처리하여 제2 처리 영상을 획득할 수 있다.
이 후, 프로세서(140)는 제2 처리 영상을 인핸스 디스플레이(120)에 표시할 수 있다(S1030).
도 11은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 11에 따르면, 프로세서(140)는 미러 패널(130)의 투과율 정보에 기초하여 인핸스 디스플레이(120)를 통해 제공되는 버츄얼 영상에 대한 사용자 인식 화질 정보를 예측할 수 있다(S1110).
여기서, 미러 패널의 투과율 정보는 미러 패널(130)의 투과율에 기초하여 결정되는 버츄얼 영상의 계조에 따른 휘도 값에 대한 정보를 포함할 수 있다. 예를 들어, 미러 패널(130)의 휘도 특성 정보는 버츄얼 영상의 계조에 따른 휘도 측정치가 될 수 있다. 즉, 미러 패널(130)은 고정된 투과율을 가지므로, 계조 별 영상 신호를 인핸스 디스플레이(120)에 표시하여 사용자에게 인식되는 버츄얼 영상의 계조에 따른 휘도 값을 구할 수 있다. 즉, 0 IRE(Institute of Radio Engineers)(블랙) ~ 100 IRE(화이트) 영상 신호(예를 들어, 8비트 영상인 경우 0 ~ 255 계조 영상)를 인핸스 디스플레이(120)에 표시하여 버츄얼 영상의 계조에 따른 휘도 측정치를 산출하여 메모리(미도시)에 저장할 수 있다.
도 12는 일 실시 예에 따른 미러 패널의 투과율 정보를 나타내는 도면이다.
도 12에 도시된 바와 같이 인핸스 디스플레이(120)에 0 IRE(블랙)~100 IRE(화이트) 영상 신호를 표시하여 버츄얼 영상에 대한 휘도 값을 측정할 수 있으며, 이에 따른 계조 별 휘도 측정치 즉, 투과 특성 정보가 메모리(미도시)에 저장될 수 있다. 또한, 상술한 바와 같이 계조 별 휘도 측정치는 실측된 값이 아닌 프로세서(140)에 의해 예측된 값이거나, 외부로부터 수신될 수도 있다. 다만, 경우에 따라서, 메모리(미도시)는 기본 휘도 그래프 만을 저장하고, 프로세서(130)가 LUT 또는 계산식 등에 따라 실시간으로 미러 패널(120)의 투과율에 대응되는 휘도 그래프를 산출하는 것도 가능하다.
이어서, 프로세서(140)는 버츄얼 영상에 대한 사용자 인식 화질 정보 및 타겟 화질 정보에 기초하여 입력 영상의 화질을 처리하여 제3 처리 영상을 획득할 수 있다(S1120).
일 예에 따라 프로세서(140)는 메모리(미도시)에 저장된 정보에 기초하여 3D 디스플레이(110)에 표시되는 영상에 대한 사용자 인식 휘도 정보를 식별하고, 타겟 휘도 정보에 기초하여 입력 영상의 휘도를 처리하여 제3 처리 영상을 획득할 수 있다.
이 후, 프로세서(140)는 제3 처리 영상을 인핸스 디스플레이(120)에 표시할 수 있다(S1130).
도 13은 일 실시 예에 따른 인핸스 영상의 처리 방법을 설명하기 위한 도면이다.
도 13에 따르면, 프로세서(140)는 입력 영상에 포함된 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리하여 제4 처리 영상을 획득할 수 있다(S1310). 여기서, 경계 영역, 에지 영역 및 포인트 영역은 사용자에게 최우선적으로 인지되는 영역일 수 있다. 여기서, 경계(boundary) 영역은 객체의 경계 영역 또는 텍스트 영역이 될 수 있고, 에지 영역은 명확한 곧은(straight) 에지을 포함하는 영역이 될 수 있다. 일 예로, 경계 영역은 임계 굵기 이상의 굵기를 가지는 영역이고, 에지 영역은 특정 임계 굵기 미만의 굵기를 가지는 영역일 수 있다. 포인트 영역은 특정 픽셀 값이 일정 범위 이상으로 뭉쳐있는 영역으로 객체의 포인트 영역을 포함할 수 있다. 예를 들어, 사람의 눈, 눈썹, 입술 등의 영역을 포함할 수 있다.
일 예예에 따라 프로세서(140)는 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리(예를 들어, 픽셀 값 조정, 섀도잉 처리 등)하여 제4 처리 영상을 획득할 수 있다.
이어서, 프로세서(140)는 제4 처리 영상을 인핸스 디스플레이(120)에 표시할 수 있다. 예를 들어, 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리된 제4 처리 영상을 통해 버츄얼 영상이 제공되는 경우 사용자에게 해당 영역이 좀더 또렷이 인식될 수 있게 된다.
도 14는 일 실시 예에 따른 다시점 영상의 처리 방법을 설명하기 위한 도면이다.
도 14에 따르면, 프로세서(140)는 입력 영상의 밝기 정보 및 미러 패널(130)의 투과율 정보에 기초하여 버츄얼 영상의 밝기 정보를 예측할 수 있다.
일 예에 따라 인핸스 디스플레이(120)가 LCD로 구현되는 경우, 프로세서(140)는 입력 영상의 픽셀 정보(또는 픽셀 물리량)에 기초하여 백라이트 유닛(미도시)을 구동하기 위한 디밍 비율 즉, 전류의 점등 듀티(이하 전류 듀티라고 함)를 획득할 수 있다. 여기서, 픽셀 정보는, 각 블럭 영역의 평균 픽셀 값, 최대 픽셀 값(또는 피크 픽셀 값), 최저 픽셀 값 및 중간 픽셀 값 및 APL(Average Picture Level) 중 적어도 하나가 될 수 있다. 이 경우, 픽셀 값은 휘도 값(또는 계조 값) 및 색 좌표 값 중 적어도 하나를 포함할 수 있다.
프로세서(140)는 입력 영상의 밝기 정보 및 도 12에 도시된 바와 같은 미러 패널(130)의 투과율 정보에 기초하여 버츄얼 영상의 밝기 정보를 예측할 수 있다.
이어서, 프로세서(140)는 예측된 버츄얼 영상의 밝기 정보에 기초하여 다시점 영상의 밝기를 조정하여 3D 디스플레이(110)에 표시할 수 있다.
일 예에 따라 프로세서(140)는 예측된 버츄얼 영상의 밝기 정보에 기초하여 사용자 눈의 인식되는 다시점 영상의 밝기가 타겟 밝기가 되도록 다시점 영상의 밝기를 조정하여 3D 디스플레이(110)에 표시할 수 있다.
도 15는 일 실시 예에 따른 보정 영상 획득 방법을 설명하기 위한 도면이다.
일 실시 예에 따르면, 프로세서(140)는 센서(미도시)를 통해 획득된 조명 정보에 기초하여 입력 영상이 보정된 영상을 획득할 수 있다. 예를 들어, 보정 영상은 조명 정보에 적합하도록 색상, 휘도 등이 보정된 영상일 수 있다.
도 15에 따르면, 프로세서(140)는 입력 영상 및 조명 정보를 학습된 인공 지능 모델에 입력하여 보정 영상을 획득할 수 있다. 여기서, 보정 영상은 3D 디스플레이(110)에 표시될 영상을 생성하는데 이용되거나, 인핸스 디스플레이(120)에 표시될 영상일 수 있다. 또는 보정 영상은 3D 디스플레이(110)에 표시될 영상을 생성하는데 이용되고 인핸스 디스플레이(120)에 표시될 영상일 수 있다.
한편, 도면에는 도시되지 않았지만, 조명 정보 외에 다른 환경 정보(날씨 정보, 시간 정보 등) 또는 사용자 프로필 정보(사용자 시력 정보, 나이 정보 등) 등을 입력 영상과 함께 인공 지능 모델에 입력하여 보정 영상을 획득하는 것도 가능하다.
일 예에 따라 인공 지능 모델은 CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등으로 구현될 수 있으나, 이에 한정되지 않는다.
일 실시 예에 따르면, 인공 지능 모델은 입력 훈련 데이터 및 출력 훈련 데이터 쌍에 기초하여 학습되거나, 입력 훈련 데이터에 기초하여 학습될 수 있다. 여기서, 인공 지능 모델이 학습된다는 것은, 기본 인공 지능 모델(예를 들어 임의의 랜덤한 파라미터를 포함하는 인공 지능 모델)이 학습 알고리즘에 의하여 다수의 훈련 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 이러한 학습은 디스플레이 장치(100)를 통해 이루어질 수 있으나, 이에 한정되는 것은 아니며 별도의 서버 및/또는 시스템을 통해 이루어질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
도 16은 일 실시 예에 따른 디스플레이 장치의 세부 구성을 나타내는 블럭도이다.
도 16에 따르면, 디스플레이 장치(100)는 3D 디스플레이(110), 인핸스 디스플레이(120), 미러 패널(130), 프로세서(140), 메모리(150), 통신 인터페이스(160), 사용자 인터페이스(170) 및 스피커(180)를 포함할 수 있다. 도 16에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대해서는 자세한 설명을 생략하도록 한다.
메모리(150)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(150)는 데이터 저장 용도에 따라 디스플레이 장치(100)에 임베디드된 메모리 형태로 구현되거나, 디스플레이 장치(100)와 통신 가능한(또는 탈부착 가능한) 메모리 형태로 구현될 수도 있다. 예를 들어, 디스플레이 장치(100)의 구동을 위한 데이터의 경우 디스플레이 장치(100)에 임베디드된 메모리에 저장되고, 디스플레이 장치(100)의 확장 기능을 위한 데이터의 경우 디스플레이 장치(100)와 통신 가능한 메모리에 저장될 수 있다. 한편, 디스플레이 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 디스플레이 장치(100)와 통신 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 예에 따라 메모리(150)는 디스플레이 장치(100)를 제어하기 위한 적어도 하나의 인스트럭션(instruction) 또는 인스트럭션들을 포함하는 컴퓨터 프로그램을 저장할 수 있다.
다른 예에 따라, 메모리(150)는 복수의 레이어를 포함하는 인공 지능 모델에 관한 정보를 저장할 수 있다. 여기서, 인공 지능 모델에 관한 정보를 저장한다는 것은 인공 지능 모델의 동작과 관련된 다양한 정보, 예를 들어 인공 지능 모델에 포함된 복수의 레이어에 대한 정보, 복수의 레이어 각각에서 이용되는 파라미터(예를 들어, 필터 계수, 바이어스 등)에 대한 정보 등을 저장한다는 것을 의미할 수 있다.
일 실시 예에 따르면, 메모리(150)는 본 개시에 따른 다양한 동작들에서 생성되는 데이터를 저장하는 단일 메모리로 구현될 수 있다. 다만, 다른 실시 예에 따르면, 메모리(150)는 상이한 타입의 데이터를 각각 저장하거나, 상이한 단계에서 생성되는 데이터를 각각 저장하는 복수의 메모리를 포함하도록 구현될 수도 있다.
통신 인터페이스(160)는 외부 장치와 통신을 수행하는 구성 요소일 수 있다. 예를 들어 통신 인터페이스(160)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드) 등으로부터 스트리밍 또는 다운로드 방식으로 영상 신호를 입력받을 수 있다. 여기서, 영상 신호는 SD(Standard Definition), HD(High Definition), Full HD 또는 Ultra HD 영상 중 어느 하나의 디지털 영상 신호가 될 수 있으나 이에 한정되는 것은 아니다.
사용자 인터페이스(170)는 버튼, 터치 패드, 마우스 및 키보드와 같은 장치로 구현되거나, 상술한 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린, 리모콘 송수신부 등으로 구현될 수 있다. 리모콘 송수신부는 적외선 통신, 블루투스 통신 또는 와이파이 통신 중 적어도 하나의 통신 방식을 통해 외부 원격 제어 장치로부터 리모콘 신호를 수신하거나, 리모콘 신호를 송신할 수 있다. 실시 예에 따라 리모콘 송수신부는 외부 리모컨으로부터 전송되는 휠 입력 신호를 수신할 수 있다.
스피커(180)는 음향 신호를 출력한다. 예를 들어, 스피커(180)는 프로세서(140)에서 처리된 디지털 음향 신호를 아날로그 음향 신호로 변환하고 증폭하여 출력할 수 있다. 예를 들어, 스피커(180)는 적어도 하나의 채널을 출력할 수 있는, 적어도 하나의 스피커 유닛, D/A 컨버터, 오디오 앰프(audio amplifier) 등을 포함할 수 있다. 일 예에 따라 스피커(180)는 다양한 멀티 채널 음향 신호를 출력하도록 구현될 수 있다. 이 경우, 프로세서(140)는 입력 영상의 인핸스 처리에 대응되도록 입력된 음향 신호를 인핸스 처리하여 출력하도록 스피커(180)를 제어할 수 있다. 예를 들어, 프로세서(140)는 입력된 2채널 음향 신호를 가상의 멀티 채널(예를 들어, 5.1 채널) 음향 신호로 변환하거나, 디스플레이 장치(100)가 놓인 위치를 인식해 공간에 최적화된 입체 음향 신호로 처리하거나, 입력 영상의 타입(예를 들어 컨텐츠 장르)에 따라 최적화된 음향 신호를 제공할 수 있다.
그 밖에 디스플레이 장치(100)는 구현 예에 따라 튜너, 복조부 및 카메라 중 적어도 하나를 추가적으로 포함할 수 있다. 튜너(미도시)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기 저장된 모든 채널을 튜닝하여 RF 방송 신호를 수신할 수 있다. 복조부(미도시)는 튜너에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조하고, 채널 복호화 등을 수행할 수도 있다. 카메라(미도시)는 기 설정된 이벤트에 따라 턴 온 되어 촬영을 수행할 수 있다. 카메라(미도시)는 촬상된 영상을 전기적인 신호로 변환하고 변환된 신호에 기초하여 영상 데이터를 생성할 수 있다.
상술한 다양한 실시 예에 따르면, 버츄얼 이미지를 이용하여 다시점으로 인해 저하된 3D 영상의 해상도를 향상시킬 수 있게 된다. 특히, 3D 디스플레이(110) 전방에 투명 디스플레이를 배치하는 구조에서 발생될 수 있는 휘도 감소 및 모아레(Moire) 등을 방지할 수 있게 된다. 예를 들어, 3D 디스플레이(110) 전방에 투명 디스플레이를 배치하는 구조의 경우 투과율과 해상도의 Trade off 관계로 인해 개선할 수 있는 해상도에 제약이 있을 수 있다. 하지만 본 개시에 따르면, 미러 패널의 투과율과 관계 없이 버츄얼 영상을 원하는 해상도로 제공할 수 있게 된다.
또한, 3D Display(110) 및 투명 디스플레이의 규칙적인 패턴이 겹침으로 모아레가 발생되고 이를 해소하기 위해 두 디스플레이 사이에 확산 기능을 삽입하게 되면 입체 특성이 열화되고 휘도 감소 원인이 될 수 있다. 따라서 모아레를 없애기 위해 사용되는 확신 시트 등을 사용하지 않으므로 입체 특성을 보다 명료하게 구현할 수 있다.
또한, 2D/3D 모드 전환이 매우 용이할 수 있다. 대부분의 무안경 방식의 3D디스플레이 장치는 2D/3D 모드 전환이 안되거나 전환하기 위한 구성요소나 기술이 매우 복잡하다. 하지만, 본 개시에 따르면, 3D 디스플레이 및 버츄얼 이미지의 조합으로 3D 모드를 구현하고 3D 디스플레이는 오프시키고 버츄얼 이미지 만으로 2D 모드를 구현할 수 있으므로 3D 모드에서 2D 모드로 용이하게 전환이 가능하게 된다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다. 또는 상술한 본 개시의 다양한 실시 예들에 따른 방법들 중 적어도 일부는 딥 러닝 기반의 인공 지능 모델 즉, 학습 네트워크 모델을 이용하여 수행될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100: 디스플레이 장치 110: 3D 디스플레이
120: 인핸스 디스플레이 130: 미러 패널

Claims (20)

  1. 3D 영상을 제공하는 디스플레이 장치에 있어서,
    디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이;
    상기 3D 디스플레이와 제1 각도로 배치된 인핸스(enhance) 디스플레이;
    상기 3D 디스플레이 및 상기 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널; 및
    3D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지(virtual image)를 제공하고 상기 3D 디스플레이에 상기 입력 영상에 대응되는 다시점 영상을 표시하며,
    2D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 상기 3D 디스플레이를 턴 오프시키는 하나 이상의 프로세서;를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 인핸스 디스플레이는,
    상기 3D 디스플레이에 대해 수직으로 배치되며,
    상기 미러 패널는,
    상기 인핸스 디스플레이에 대해 45도 각도로 기울어지도록 배치된 하프 미러 패널인, 디스플레이 장치.
  3. 제1항에 있어서,
    상기 버츄얼 이미지는,
    상기 3D 디스플레이의 전방에서 상기 3D 디스플레이와 기설정된 거리만큼 이격된 위치에 제공되며,
    상기 버츄얼 이미지가 제공되는 위치는,
    상기 3D 디스플레이 또는 상기 인핸스 디스플레이 중 적어도 하나의 위치에 따라 조정되는, 디스플레이 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 입력 영상의 뎁스에 기초하여 상이한 시점을 갖는 복수의 영상 뷰를 렌더링하고 상기 복수의 영상 뷰를 상기 디스플레이 패널에 기설정된 배치 패턴으로 배치하여 상기 다시점 영상을 표시하는, 디스플레이 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 다시점 영상에서 상이한 시점을 가지는 복수의 제1 픽셀을 식별하고,
    상기 버츄얼 이미지에서 상기 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀을 식별하고,
    상기 복수의 제2 픽셀의 픽셀 값 또는 밝기 값 중 적어도 하나가 상이한 값을 가지도록 상기 입력 영상을 처리하여 제1 처리 영상을 획득하고,
    상기 제1 처리 영상을 상기 인핸스 디스플레이에 표시하는, 디스플레이 장치.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 복수의 영상 뷰의 배치 위치에 기초하여 서로 다른 시점의 영상 뷰 간에 발생하는 크로스토크(X-talk)를 예측하고,
    상기 예측된 크로스토크에 기초하여 상기 입력 영상을 처리하여 상기 크로크토크를 보상하기 위한 제2 처리 영상을 획득하고,
    상기 제2 처리 영상을 상기 인핸스 디스플레이에 표시하는, 디스플레이 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상에 대한 사용자 인식 화질 정보를 예측하고,
    상기 사용자 인식 화질 정보 및 타겟 화질 정보에 기초하여 상기 입력 영상의 화질을 처리하여 제3 처리 영상을 획득하고,
    상기 제3 처리 영상을 상기 인핸스 디스플레이에 표시하는, 디스플레이 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 3D 영상 제공 모드에서 상기 입력 영상에 포함된 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리하여 제4 처리 영상을 획득하고,
    상기 제4 처리 영상을 상기 인핸스 디스플레이에 표시하는, 디스플레이 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 입력 영상의 밝기 정보 및 상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상의 밝기 정보를 예측하고,
    상기 예측된 버츄얼 영상의 밝기 정보에 기초하여 상기 다시점 영상의 밝기를 조정하여 상기 3D 디스플레이에 표시하는, 디스플레이 장치.
  10. 제1항에 있어서,
    상기 인핸스 디스플레이에 표시되는 영상의 해상도는,
    상기 3D 디스플레이에 포함된 상기 디스플레이 패널의 해상도와 동일하거나 낮은, 디스플레이 장치.
  11. 디스플레이 패널 및 상기 디스플레이 패널의 전면에 배치된 시역 분리부를 포함하는 3D 디스플레이, 상기 3D 디스플레이와 제1 각도로 배치된 인핸스(enhance) 디스플레이, 및 상기 3D 디스플레이 및 상기 인핸스 디스플레이 사이에 제2 각도로 배치된 미러 패널을 포함하는 디스플레이 장치의 제어 방법에 있어서,
    3D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지(virtual image)를 제공하고 상기 3D 디스플레이에 상기 입력 영상에 대응되는 다시점 영상을 표시하는 단계; 및
    2D 영상 제공 모드에서, 상기 인핸스 디스플레이에 입력 영상을 표시하여 상기 3D 디스플레이의 전방에 버츄얼 이미지를 제공하고 상기 3D 디스플레이를 턴 오프시키는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 인핸스 디스플레이는,
    상기 3D 디스플레이에 대해 수직으로 배치되며,
    상기 미러 패널는,
    상기 인핸스 디스플레이에 대해 45도 각도로 기울어지도록 배치된 하프 미러 패널인, 제어 방법.
  13. 제11항에 있어서,
    상기 버츄얼 이미지는,
    상기 3D 디스플레이의 전방에서 상기 3D 디스플레이와 기설정된 거리만큼 이격된 위치에 제공되며,
    상기 버츄얼 이미지가 제공되는 위치는,
    상기 3D 디스플레이 또는 상기 인핸스 디스플레이 중 적어도 하나의 위치에 따라 조정되는, 제어 방법.
  14. 제11항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 입력 영상의 뎁스에 기초하여 상이한 시점을 갖는 복수의 영상 뷰를 렌더링하고 상기 복수의 영상 뷰를 상기 디스플레이 패널에 기설정된 배치 패턴으로 배치하여 상기 다시점 영상을 표시하는, 제어 방법.
  15. 제14항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 다시점 영상에서 상이한 시점을 가지는 복수의 제1 픽셀을 식별하는 단계;
    상기 버츄얼 이미지에서 상기 복수의 제1 픽셀에 대응되는 복수의 제2 픽셀을 식별하는 단계;
    상기 복수의 제2 픽셀의 픽셀 값 또는 밝기 값 중 적어도 하나가 상이한 값을 가지도록 상기 입력 영상을 처리하여 제1 처리 영상을 획득하는 단계; 및
    상기 제1 처리 영상을 상기 인핸스 디스플레이에 표시하는 단계;를 포함하는, 제어 방법.
  16. 제14항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 복수의 영상 뷰의 배치 위치에 기초하여 서로 다른 시점의 영상 뷰 간에 발생하는 크로스토크(X-talk)를 예측하는 단계;
    상기 예측된 크로스토크에 기초하여 상기 입력 영상을 처리하여 상기 크로크토크를 보상하기 위한 제2 처리 영상을 획득하는 단계; 및
    상기 제2 처리 영상을 상기 인핸스 디스플레이에 표시하는 단계;를 포함하는, 제어 방법.
  17. 제11항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상에 대한 사용자 인식 화질 정보를 예측하는 단계;
    상기 사용자 인식 화질 정보 및 타겟 화질 정보에 기초하여 상기 입력 영상의 화질을 처리하여 제3 처리 영상을 획득하는 단계; 및
    상기 제3 처리 영상을 상기 인핸스 디스플레이에 표시하는 단계;를 포함하는, 제어 방법.
  18. 제11항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 3D 영상 제공 모드에서 상기 입력 영상에 포함된 경계 영역, 에지 영역 및 포인트 영역 중 적어도 하나를 강화 처리하여 제4 처리 영상을 획득하는 단계; 및
    상기 제4 처리 영상을 상기 인핸스 디스플레이에 표시하는 단계;를 포함하는, 제어 방법.
  19. 제11항에 있어서,
    상기 다시점 영상을 표시하는 단계는,
    상기 입력 영상의 밝기 정보 및 상기 미러 패널의 투과율 정보에 기초하여 상기 버츄얼 영상의 밝기 정보를 예측하는 단계; 및
    상기 예측된 버츄얼 영상의 밝기 정보에 기초하여 상기 다시점 영상의 밝기를 조정하여 상기 3D 디스플레이에 표시하는 단계;를 포함하는, 제어 방법.
  20. 제11항에 있어서,
    상기 인핸스 디스플레이에 표시되는 영상의 해상도는,
    상기 3D 디스플레이에 포함된 상기 디스플레이 패널의 해상도와 동일하거나 낮은, 제어 방법.








KR1020220082658A 2022-07-05 2022-07-05 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법 KR20240005492A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220082658A KR20240005492A (ko) 2022-07-05 2022-07-05 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법
PCT/KR2023/003963 WO2024010174A1 (ko) 2022-07-05 2023-03-24 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법
US18/140,291 US20240015277A1 (en) 2022-07-05 2023-04-27 Display apparatus for providing 3d image and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220082658A KR20240005492A (ko) 2022-07-05 2022-07-05 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20240005492A true KR20240005492A (ko) 2024-01-12

Family

ID=89453583

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220082658A KR20240005492A (ko) 2022-07-05 2022-07-05 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20240005492A (ko)
WO (1) WO2024010174A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100893616B1 (ko) * 2006-04-17 2009-04-20 삼성모바일디스플레이주식회사 전자 영상 기기, 2d/3d 영상 표시 장치 및 그 구동방법
KR101815306B1 (ko) * 2016-03-08 2018-01-04 주식회사 홀로랩 렌티큘러렌즈가 부착된 두 개의 디스플레이 패널을 통한 3차원 영상 출력방법
KR102623052B1 (ko) * 2016-08-31 2024-01-10 엘지디스플레이 주식회사 입체 영상 디스플레이 장치
KR102551577B1 (ko) * 2016-12-20 2023-07-04 엘지디스플레이 주식회사 입체 영상 디스플레이 장치
KR20200061488A (ko) * 2018-11-24 2020-06-03 박철 2d 3d 듀얼 디스플레이가 장착된 스마트폰

Also Published As

Publication number Publication date
WO2024010174A1 (ko) 2024-01-11

Similar Documents

Publication Publication Date Title
US9866825B2 (en) Multi-view image display apparatus and control method thereof
KR102185130B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US9088790B2 (en) Display device and method of controlling the same
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
KR102174258B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US10694173B2 (en) Multiview image display apparatus and control method thereof
US20170070728A1 (en) Multiview image display apparatus and control method thereof
US20130050449A1 (en) Video processing apparatus and video processing method
US10805601B2 (en) Multiview image display device and control method therefor
US9509984B2 (en) Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
US20140071237A1 (en) Image processing device and method thereof, and program
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
US9047797B2 (en) Image display apparatus and method for operating the same
KR102143463B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US20120081513A1 (en) Multiple Parallax Image Receiver Apparatus
CN108881878B (zh) 一种裸眼3d显示设备和方法
KR20240005492A (ko) 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법
US9832458B2 (en) Multi view image display method in which viewpoints are controlled and display device thereof
US20240015277A1 (en) Display apparatus for providing 3d image and control method thereof
KR20190010060A (ko) 디스플레이 장치 및 그 제어 방법