KR101987142B1 - 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법 - Google Patents

투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법 Download PDF

Info

Publication number
KR101987142B1
KR101987142B1 KR1020170083043A KR20170083043A KR101987142B1 KR 101987142 B1 KR101987142 B1 KR 101987142B1 KR 1020170083043 A KR1020170083043 A KR 1020170083043A KR 20170083043 A KR20170083043 A KR 20170083043A KR 101987142 B1 KR101987142 B1 KR 101987142B1
Authority
KR
South Korea
Prior art keywords
display
image
displays
virtual content
user
Prior art date
Application number
KR1020170083043A
Other languages
English (en)
Other versions
KR20190002837A (ko
Inventor
박지형
김희선
이동언
김민경
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020170083043A priority Critical patent/KR101987142B1/ko
Publication of KR20190002837A publication Critical patent/KR20190002837A/ko
Application granted granted Critical
Publication of KR101987142B1 publication Critical patent/KR101987142B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일 실시예에 따른 3차원 공간에 대응하는 영상을 출력하는 장치는, 제1 디스플레이 및 제2 디스플레이; 상기 제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 획득하기 위한 촬영부; 상기 객체의 이미지에 기초하여 상기 객체를 인식하기 위한 인식부; 및 상기 제1 디스플레이에 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 상기 객체와 관련된 제2 영상을 표시하기 위한 제어부를 포함한다.
나아가, 상기 영상을 출력하는 장치는, 상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하기 위한 센서부; 상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 공간정보 산출부를 더 포함할 수 있고, 상기 제어부는 상기 3차원 공간정보에 기초하여 상기 제1 디스플레이에 제1 영상을 표시하고, 상기 제2 디스플레이에 제2 영상을 표시함으로써 입체감과 공간감을 향상시킬 수 있다.

Description

투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법{APPARATUS AND METHOD FOR OUTPUT IMAGE CORRESPONDING TO 3-DIMENSIONAL SPACE USING TRANSPARENT DISPLAYS}
본 발명은 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법에 관한 것으로서, 보다 구체적으로는 투명한 디스플레이들 사이에 위치한 객체를 촬영 및 인식하여 상기 객체와 관련된 영상을 출력하되, 디스플레이들로 둘러싸인 공간을 3차원 영상으로 대응시켜 공간감 있는 영상을 각 디스플레이에 출력하는 장치 및 방법에 관한 것이다.
전자 기술의 발달에 따라 다양한 유형의 디스플레이 장치가 개발되고 있으며, 특히, TV, PC, 랩탑 컴퓨터, 태블릿 PC, 휴대폰, MP3 플레이어 등과 같은 휴대용 디스플레이 장치들이 널리 보급되고 있다. 최근에는 더 새롭고 다양한 기능을 원하는 사용자의 요구에 부합하기 위하여, 디스플레이 장치를 좀 더 새로운 형태로 개발하기 위한 노력이 이루어지고 있다. 이른바 차세대 디스플레이라고 불리는 것이 바로 그것이다.
차세대 디스플레이 장치의 일 예로 투명 디스플레이 장치가 있다. 투명 디스플레이 장치란, 투명한 성질을 가져서 장치 뒤쪽 배경이 그대로 비치는 장치를 의미한다. 종래에는 실리콘(Si), 갈륨비소(GaAs) 등과 같은 불투명 반도체 화합물을 이용하여 디스플레이 패널을 제작하였으나, 기존의 디스플레이 패널로는 감당할 수 없는 다양한 응용분야가 개척되면서, 새로운 형태의 전자 소자에 대한 개발노력이 이루어졌었다. 이러한 노력 하에 개발된 것 중 하나가 투명 디스플레이 장치이다.
투명 디스플레이 장치는 투명한 산화물 반도체막을 포함하는 형태로 구현되어, 투명한 성질을 가지게 된다. 투명 디스플레이 장치를 사용할 경우 사용자는 장치 뒤쪽에 위치하는 후면 배경을 보면서, 필요한 정보를 투명 디스플레이 장치 화면을 통해 볼 수 있게 된다. 따라서, 기존 디스플레이 장치들이 가지고 있는 공간적, 시간적 제약을 해소할 수 있게 된다.
투명 디스플레이 장치는 다양한 용도로 다양한 환경에서 편리하게 사용될 수 있다. 가령, 상점의 쇼윈도가 투명 디스플레이 장치로 구현될 경우 사용자가 지나가면 광고 문구를 쇼윈도에 표시하여 사용자가 흥미를 가지도록 구현할 수 있다. 또한, 일반 가정 내에서 베란다 창문을 투명 디스플레이 장치로 구현할 경우, 사용자는 각종 멀티미디어 컨텐츠를 사이즈가 큰 베란다 창문을 통해 시청할 수 있게 되어, 사용자 만족도를 증대시킬 수도 있다.
최근에는 OLED(Organic Light Emitting Diodes)의 개발에 따라 투명 디스플레이가 투명 OLED의 형태로 대중화될 가능성이 높아지고 있다. 투명 OLED는 OLED의 개발에 따라 기술적인 발전이 이루어질 것으로 전망된다. 이러한 기술개발을 통해 투명 디스플레이가 대중화되면, 증강현실 등의 컨텐츠와 결합하여 사용자에게 제공될 다양하고 새로운 인터페이스가 요구된다.
한편, 최근에는 디스플레이 기술의 발달과 저전력화에 힘입어 디지털 액자와 같이 디스플레이를 이용한 실내 인테리어가 대중화되고 있다. 디지털 액자는 전통적인 사진 액자와 달리, 하나의 액자를 통해 많은 사진과 동영상을 재생할 수 있으므로 공간 활용도가 높다. 또한, 투명 디스플레이를 활용하면 창문이나 어항, 화분 등의 실내 인테리어 소품에 디지털 정보를 재생하거나 상호작용하는 것이 가능하다.
KR 10-1572619 B1 KR 10-1726576 B1
이에, 본 발명의 기술적 과제는, 투명 디스플레이 후면에 위치한 객체를 촬영 및 인식하여, 상기 객체에 따라 상이한 영상을 디스플레이에 출력하는 영상 출력 장치를 제공하는 것이다.
본 발명의 다른 목적은, 복수의 투명 디스플레이들로 둘러싸인 3차원 공간을 산출하여 이에 대응되는 영상을 각 디스플레이에 출력하는 장치 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은, 투명 디스플레이에 출력된 영상을 터치하여 컨텐츠와 상호작용하는 경우, 각각의 디스플레이에 출력되는 컨텐츠들이 서로 연관된 규칙에 따라 동시에 변경됨으로써 사용자에게 입체감 및 공간감을 체험하도록 할 수 있는 영상 출력 장치 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은, 상기 디스플레이를 투명 모드와 불투명 모드로 전환할 수 있게 하여 각 모드에 따라 상이한 정보를 표시하도록 함으로써 보다 다양한 기능을 수행할 수 있는 스마트 디스플레이 시스템을 제공하는 것이다.
본 발명의 일 실시예에 따른 영상 출력 장치는, 투명 디스플레이; 상기 투명 디스플레이에 인접한 객체의 이미지를 획득하기 위한 촬영부; 상기 객체의 이미지에 기초하여 상기 객체를 인식하기 위한 인식부; 및 상기 투명 디스플레이에 상기 객체와 관련된 영상을 표시하기 위한 제어부를 포함한다.
일 실시예에서, 상기 영상 출력 장치는, 소정의 조건에 따라 상기 투명 디스플레이를 투명 모드 및 불투명 모드 중 하나로 전환하는 모드 전환부를 더 포함하되, 상기 제어부는 상기 투명 디스플레이가 불투명 모드일 때, 상기 객체가 상기 투명 디스플레이를 통해 보이지 않도록 가시광선을 차단하는 영상을 표시할 수 있다.
일 실시예에서, 상기 투명 디스플레이는 터치스크린이고, 상기 모드 전환부는 사용자로부터의 터치를 입력 받아 상기 투명 디스플레이에 영상을 표시하되, 상기 제어부는 사용자가 상기 투명 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공할 수 있다.
본 발명의 일 실시예에 따른 3차원 공간에 대응하는 영상을 출력하는 장치는, 제1 디스플레이 및 제2 디스플레이; 상기 제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 획득하기 위한 촬영부; 상기 객체의 이미지에 기초하여 상기 객체를 인식하기 위한 인식부; 및 상기 제1 디스플레이에 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 상기 객체와 관련된 제2 영상을 표시하기 위한 제어부를 포함한다.
일 실시예에서, 상기 제1 영상 및 상기 제2 영상은 서로 상이할 수 있다.
일 실시예에서, 상기 영상을 출력하는 장치는, 상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하기 위한 센서부; 상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 공간정보 산출부를 더 포함할 수 있고, 상기 제어부는 상기 3차원 공간정보에 기초하여 상기 제1 디스플레이에 제1 영상을 표시하고, 상기 제2 디스플레이에 제2 영상을 표시할 수 있다.
일 실시예에서, 상기 제1 영상은 가상 컨텐츠의 일 측면을 포함하고, 상기 제2 영상은 상기 가상 컨텐츠의 다른 측면을 포함할 수 있다.
일 실시예에서, 상기 제1 디스플레이 및 제2 디스플레이는 터치스크린으로서, 사용자가 상기 터치스크린을 조작함으로써 상기 가상 컨텐츠와 상호작용할 수 있고, 사용자가 소정의 조작 행위를 수행하는 경우, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면은, 상기 측정된 거리 및 각도에 기초하여 표시가 변경될 수 있다.
일 실시예에서, 상기 소정의 조작 행위가, 상기 제1 영상 내 가상 컨텐츠를 상기 제2 디스플레이 방향으로 밀어내는 동작인 경우, 상기 제1 영상 내 가상 컨텐츠의 크기는 점차적으로 감소하고, 이에 비례하여 상기 제2 영상 내 가상 컨텐츠의 크기는 점차적으로 증가할 수 있다.
일 실시예에서, 상기 영상을 출력하는 장치는 상기 객체를 둘러싸는 추가적인 디스플레이들을 더 포함할 수 있고, 상기 제어부는 상기 추가적인 디스플레이들에 상기 객체와 관련된 추가적인 영상들을 더 표시할 수 있다.
일 실시예에서, 상기 추가적인 영상들은 가상 컨텐츠의 서로 다른 측면들을 각각 포함할 수 있다.
일 실시예에서, 상기 장치는 소정의 조건에 따라 상기 제1 및 제2 디스플레이 중 적어도 하나를 투명 모드 또는 불투명 모드로 전환하는 모드 전환부를 더 포함하되, 상기 제어부는 상기 제1 및 제2 디스플레이 중 불투명 모드인 디스플레이를 통해 상기 객체가 보이지 않도록 가시광선을 차단할 수 있다.
일 실시예에서, 상기 모드 전환부는 사용자로부터의 터치를 입력 받아 상기 제1 및 제2 디스플레이 중 적어도 하나에 영상을 표시하되, 상기 제어부는 사용자가 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공할 수 있다.
본 발명의 일 실시예에 따른 차원 공간에 대응하는 영상을 출력하는 방법은, 제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 촬영하는 단계; 상기 객체의 이미지에 기초하여 상기 객체를 인식하는 단계; 및 상기 제1 디스플레이에 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 상기 객체와 관련된 제2 영상을 표시하는 단계를 포함할 수 있다.
일 실시예에서, 상기 제1 영상 및 상기 제2 영상은 서로 상이할 수 있다.
일 실시예에서, 상기 방법은, 상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하는 단계; 및 상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 단계를 더 포함하되, 상기 제1 영상 및 제2 영상은 상기 3차원 공간정보에 기초하여 표시될 수 있다.
일 실시예에서, 상기 제1 영상은 가상 컨텐츠의 일 측면을 포함하고, 상기 제2 영상은 상기 가상 컨텐츠의 다른 측면을 포함할 수 있다.
일 실시예에서, 상기 제1 디스플레이 및 제2 디스플레이는 터치스크린이고, 상기 방법은 사용자가 상기 터치스크린을 이용하여 수행한 소정의 조작 행위를 인식하는 단계; 및 상기 소정의 조작 행위에 따라, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면의 표시를 각각 변경시키는 단계를 더 포함하되, 상기 가상 컨텐츠의 변경은 상기 측정된 거리 및 각도에 기초하여 실행될 수 있다.
일 실시예에서, 상기 소정의 조작 행위가 상기 제1 영상 내 가상 컨텐츠를 상기 제2 디스플레이 방향으로 밀어내는 동작인 경우, 상기 제1 영상 내 가상 컨텐츠의 크기는 점차적으로 감소하고, 이에 비례하여 상기 제2 영상 내 가상 컨텐츠의 크기는 점차적으로 증가하도록 표시가 변경될 수 있다.
일 실시예에서, 상기 방법은 소정의 조건에 따라 상기 제1 및 제2 디스플레이 중 적어도 하나를 투명 모드 또는 불투명 모드로 전환하는 단계; 및 상기 제1 및 제2 디스플레이 중 불투명 모드인 디스플레이를 통해 상기 객체가 보이지 않도록 가시광선을 차단하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 실내환경정보를 포함하는 영상을 표시하는 단계는, 사용자가 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공하는 단계를 포함할 수 있다.
일 실시예에서, 상기 방법은 상기 객체를 둘러싸는 추가적인 디스플레이들에 상기 객체와 관련된 추가적인 영상들을 더 표시하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 추가적인 영상들은 가상 컨텐츠의 서로 다른 측면들을 각각 포함할 수 있다.
본 발명의 일 실시예에 따른 컴퓨터 프로그램은, 상기 실시예들에 따른 3차원 공간에 대응하는 영상을 출력하는 방법을 수행할 수 있다.
이와 같은 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법에 따르면, 투명 디스플레이 후면에 위치한 객체를 촬영 및 인식하여 상기 객체에 따라 상이한 영상을 디스플레이에 출력함으로써, 사용자가 별다른 노력을 들이지 않고도 객체와 어울리는 적합한 디스플레이 인테리어를 구현할 수 있다.
또한, 디스플레이들 간의 거리 및 각도를 계산하여 3차원 공간정보를 산출하고, 이에 기초하여 각 디스플레이에 적절한 영상을 출력함으로써 입체감 및 공간감을 실현할 수 있다. 나아가, 사용자가 터치 스크린으로 구성된 하나의 디스플레이와 상호작용하는 경우, 다른 디스플레이들에 출력되는 컨텐츠들이 서로 연관된 규칙에 따라 동시에 변경됨으로써 보다 높은 입체감 및 공간감을 실현할 수 있다.
또한, 상기 디스플레이를 투명 모드와 불투명 모드로 전환할 수 있게 하여 각 모드에 따라 상이한 정보를 표시하도록 함으로써 보다 다양한 기능을 수행할 수 있는 스마트 디스플레이 시스템을 구현할 수 있다.
도 1은 일 실시예에 따른 3차원 공간에 대응하는 영상을 출력하는 장치를 나타낸 블록도이다.
도 2는 일 실시예에 따른 영상 출력 장치가 객체를 인식하는 것을 나타낸 도면이다.
도 3a는 일 실시예에 따른 영상 출력 장치가 인접한 객체를 인식하여 이와 관련된 적절한 영상을 표시하는 것을 나타낸 도면이다.
도 3b는 일 실시예에 따른 영상 출력 장치가 실제로 영상을 출력하는 것을 나타낸 도면이다.
도 4a는 일 실시예에 따른 영상 출력 장치가 3차원 공간정보를 산출하는 것을 나타낸 도면이다.
도 4b는 도 4a에 따라 산출된 3차원 공간정보에 대응하는 가상공간을 나타낸 도면이다.
도 5는 일 실시예에 따른 영상 출력 장치의 디스플레이들이 이루는 각도가 평행하지 않은 경우에 산출된 공간정보를 나타낸 도면이다.
도 6은 도 4a 내지 도 4b에 따라 산출된 가상공간을 디스플레이 간 거리에 따라 분할하는 것을 나타낸 도면이다.
도 7은 일 실시예에 따른 영상 출력 장치의 디스플레이 간 거리가 멀어질수록 출력 컨텐츠의 이동 반경이 늘어나는 것을 나타낸 도면이다.
도 8은 일 실시예에 따른 영상 출력 장치의 컨텐츠와 상호작용하는 것을 나타낸 도면이다.
도 9는 일 실시예에 따른 영상 출력 장치가 소정의 조건에서 실내환경정보를 표시하는 것을 나타낸 도면이다.
도 10은 일 실시예에 따른 영상 출력 장치가 디스플레이 전체에 영상을 표시하기 전 미리 보기를 제공하는 것을 나타낸 도면이다.
도 11는 일 실시예에 따른 3차원 공간에 대응하는 영상을 출력하는 방법을 나타낸 순서도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치(device)", "서버(server)" 또는 "시스템(system)" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 부, 모듈, 장치, 서버 또는 시스템은 플랫폼(platform)의 일부 또는 전부를 구성하는 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 애플리케이션(application) 등의 소프트웨어를 지칭하는 것일 수 있다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 일 실시예에 따른 3차원 공간에 대응하는 영상을 출력하는 장치를 나타낸 블록도이다. 3차원 공간에 대응하는 영상을 출력하는 장치(10; 이하 "영상 출력 장치")는, 제1 디스플레이(100), 제2 디스플레이(200), 촬영부(300), 인식부(400), 제어부(500), 센서부(600) 및 공간정보 산출부(700)를 포함할 수 있다.
제1 및 제2 디스플레이(100, 200)는 3차원 공간에 대응하는 영상을 출력하기 위한 기본적인 디스플레이 구성으로서, 실시예에 따라 더 많은 수의 디스플레이들이 이용될 수 있다.
실시예에서, 제1 디스플레이(100) 및/또는 제2 디스플레이(200)는 투명한 디스플레이로 구성된다. 도 2와 같이, 사용자는 투명한 디스플레이(100)를 통하여 디스플레이 후면의 객체(화분)를 볼 수 있다. 상기 투명 디스플레이는 투명한 산화물 반도체막을 포함하는 형태로 구현되어 투명한 성질을 가지므로, 사용자는 장치 내부에 위치하는 후방 배경을 보면서, 필요한 정보를 상기 투명 디스플레이부를 통해 볼 수 있게 된다. 따라서, 종래 디스플레이 장치들이 가지고 있는 공간적, 시간적 제약을 해소할 수 있게 된다.
실시예에서, 상기 디스플레이(100, 200)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), 프로젝터 디스플레이일 수 있다. 또한, 발광다이오드(LED; Light Emitting Diode), 유기발광소자(OLED; Organic Light Emitting Display), 발광중합체(LEP; Light Emitting Polymer), 전자발광소자(EL Element; Electro-Luminescence Element), 전계방출소자(FED; Field Emission Display), 또는 중합체발광소자(PLED; Polymer Light Emitting Display) 등이 적용될 수도 있다.
촬영부(300)는 제1 디스플레이(100)의 후면, 또는 제1 디스플레이(100)와 제2 디스플레이(200) 사이에 위치하는 객체의 이미지를 획득하기 위해 이용된다. 촬영부(300)는 객체를 촬영하여 촬영된 이미지를 메모리에 저장할 수 있는 카메라, 캠코더 또는 임의의 광학 장치를 모두 포함하며 특정한 종류의 촬영 장치에 한정되지 않는다. 일 실시예에서, 촬영부는 촬영 대상의 컬러 정보뿐만 아니라 깊이 정보까지 측정할 수 있는 RGB-D 카메라일 수 있다.
도 2에 도시된 바와 같이 촬영부(300)는 제1 디스플레이(100)의 후면(즉, 사용자가 바라보는 디스플레이 너머의 방향)에 위치한 객체를 촬영하여 이미지를 획득한다. 객체는 예를 들어 꽃, 나무, 수초 등의 인테리어 소품 또는 애완동물일 수 있다.
인식부(400)는 상기 촬영부(300)가 촬영한 객체의 이미지에 기초하여 객체의 정보를 인식한다. 구체적으로, 촬영된 객체의 이미지는 장치 내부 메모리에 저장되고, 장치 내부에 위치한 프로세서는 상기 객체의 이미지와 미리 저장된 데이터베이스 정보를 비교하여 상기 객체의 정보를 획득한다. 예를 들어, 이미지를 대조한 결과, 데이터베이스 내 저장된 나무/꽃/수초의 이미지와 일정 비율 이상 일치한다면 상기 객체는 각각 나무/꽃/수초로 인식된다. 특정 사물을 촬영하여 데이터베이스 내 저장된 정보와 비교함으로써 해당 사물이 어떤 물체인지 인식하는 기술은 공지된 기술(예를 들어, '구글 이미지 검색', '네이버 사물인식 애플리케이션', '삼성전자 빅스비' 등)이므로, 자세한 설명은 생략하도록 한다.
제어부(500)는 미리 저장된 영상 중, 상기 인식된 객체와 관련된 영상을 디스플레이에 표시하기 위해 이용된다. 디스플레이가 복수인 경우, 제1 디스플레이(100)에는 객체와 관련된 제1 영상을 표시하고, 제2 디스플레이(200)에는 객체와 관련된 제2 영상을 표시한다. 일 실시예에서, 상기 영상은 무선 또는 유선 네트워크를 통해 검색되는, 상기 객체와 관련성이 높은 적절한 사진/영상일 수 있다.
예를 들어, 상기 객체가 '나무'인 경우, 출력되는 영상은 '울창한 숲에서 자라는 곤충이 날아다니거나 상기 객체 위를 기어다니는 영상'이 될 수 있다. 상기 객체가 '꽃'인 경우, 출력되는 영상은 '꽃의 향기를 맡는 나비 또는 벌이 날아다니는 정원 영상'이 될 수 있고, 상기 객체가 '수초'인 경우, 출력되는 영상은 '바다 속에 사는 물고기나 수중 생물이 유영하는 영상'이 될 수 있다.
실시예에 따라, 제1 영상과 제2 영상은 동일할 수도 있고 서로 상이할 수 있다. 예를 들어, 도 5와 같이 서로 다른 사용자들이 각각 제1 디스플레이(100)와 제2 디스플레이(200)를 시청하는 경우, 객체가 '나무'라면 제1 디스플레이(100)에는 '울창한 숲과 곤충 영상'을 출력하는 동시에, 제2 디스플레이(200)에는 '넓은 초원에서 돌아다니는 야생동물 영상'을 출력하는 것과 같이, '나무'와 관련된 상이한 영상들을 각각 출력할 수 있다.
또 다른 실시예에서는, 후술하는 바와 같이 같은 배경은 동일하지만 컨텐츠의 상이한 측면을 나타내는 영상을 나타낼 수 있다. 예를 들어, 객체가 '수초'인 경우, 제1 디스플레이(100)에는 '물고기의 앞모습을 포함하는 영상'을 출력하는 동시에, 제2 디스플레이(200)에는 '상기 물고기의 뒷모습을 포함하는 영상'을 출력하여 입체감 및 공간감을 실현할 수 있다.
또 다른 실시예에서는, 사용자에게 더 가까이 위치한 제1 디스플레이(100)에 곤충, 물고기, 야생동물과 같은 움직이는 컨텐츠를 출력하고, 사용자에게 상대적으로 멀리 위치한 제2 디스플레이(200)에는 숲, 초원, 산, 구름과 같은 배경 영상을 출력할 수 있다. 이 경우, 각 디스플레이들은 투명한 디스플레이이므로 어느 각도에서 영상 출력 장치를 보아도 전경 및 배경을 모두 시청할 수 있다.
센서부(600)는 상기 제1 디스플레이(100) 및 제2 디스플레이(200) 간의 거리와, 상기 제1 디스플레이(100) 및 제2 디스플레이(200)가 이루는 각도를 측정하기 위해 이용된다. 측정된 거리와 각도 값은 공간정보 산출부(700)에 의해 3차원 공간정보를 산출하는데 이용될 수 있다.
일 실시예에서, 디스플레이 간의 거리를 측정하기 위해, 센서부(600)는 깊이 정보가 포함된 RGB-D 광학장치, 깊이 정보를 유추하기 위해 두 대 이상의 가시광선 광학장치, 또는 타임 오브 플라이트(Time of Flight; TOF) 방식의 광학장치를 포함할 수 있으나 이에 한정되지 않는다. 일 실시예에서, 촬영부(300)가 깊이 값을 측정할 수 있는 RGB-D 카메라인 경우에는 센서부(600)의 기능을 포함할 수 있다.
일 실시예에서, 디스플레이 패널들이 이루는 각도를 측정하기 위해, 센서부(600)는 각속도(angular velocity)를 측정하기 위한 자이로 센서(Gyro sensor) 등을 포함할 수 있으나 패널들의 각도를 측정하는 방식은 이에 한정되지 않는다.
도 4a를 참조하면, 영상 출력 장치는 센서부를 이용하여 제1 디스플레이(100)와 제2 디스플레이(200) 간의 거리 값(d)을 측정하고, 양 디스플레이가 이루는 각이 0°(또는 360°), 즉 평행하다는 것을 측정할 수 있다.
공간정보 산출부(700)는 상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하기 위해 이용된다. 도 4b를 참조하면, 도 4a에서 측정한 거리(d) 및 각도(0°)에 기초하여 3차원 공간정보에 대응하는 가상공간(S)이 할당된다. 실시예에서, 두 개의 평행한 디스플레이 패널이 감지되는 경우, 가상공간(S)은 직육면체 형태로 할당된다. 도 5을 참조하면, 또 다른 실시예에서, 두 개의 디스플레이 패널(100, 200)이 이루는 각도가 둔각(90° 내지 180°)인 경우, 가상공간(S)는 둔각 삼각기둥 형태로 할당될 수 있다.
도시되어 있지는 않지만, 상기 영상 출력 장치(10)는 객체를 둘러싸는 추가적인 디스플레이들을 더 포함할 수 있고, 이 경우, 추가 디스플레이들 간의 거리 및 각도를 계산하여 디스플레이의 개수에 따라 사각형, 오각형, 육각형 등 다양한 형태의 가상공간이 할당될 수 있다. 제어부(500)는 상기 추가적인 디스플레이들에 상기 객체와 관련된 추가적인 영상들을 더 표시할 수 있다. 디스플레이의 개수와 디스플레이들이 이루는 거리/각도는 특정한 모양에 한정되는 것이 아니며, 본 명세서에서는 단지 기술 설명의 편의를 위해, 두 개의 평행한 디스플레이로 구성된 직육면체 가상 공간을 주된 예로서 설명하고 있음을 이해해야 한다.
제어부(500)는 상기 산출된 3차원 공간정보에 기초하여 제1 디스플레이(100)에 제1 영상을 표시하고, 제2 디스플레이(200)에 제2 영상을 표시할 수 있다. 예를 들어, 객체가 '수초'인 경우, 제1 디스플레이(100)에는 '물고기의 앞모습을 포함하는 영상'을 출력하는 동시에, 제2 디스플레이(200)에는 '상기 물고기의 뒷모습을 포함하는 영상'을 출력할 수 있는데, 여기에 3차원 공간 정보가 더 반영된다.
예를 들어, 도 6을 참조하면, 가상공간(S) 중 제1 디스플레이(100)와 더 가까운 영역(Sa)에 배치되는 컨텐츠(물고기)는 제1 디스플레이(100)에서는 더 크게 보이고, 제2 디스플레이(200)에서는 더 작게 보이도록 출력된다. 반대로, 가상공간(S) 중 제2 디스플레이(200)와 더 가까운 영역(Sb)에 배치되는 컨텐츠(물고기)는 제1 디스플레이(100)에서는 더 작게 보이고, 제2 디스플레이(200)에서는 더 크게 보이도록 출력됨으로써 입체감 및 공간감이 크게 향상될 수 있다.
일 실시예에서, 디스플레이들 간의 거리 값이 커질수록 산출되는 공간 정보에 대응하는 가상공간은 더 넓어질 수 있다. 도 7을 참조하면, 디스플레이들 간의 거리(d1)가 거리(d2)로 늘어남에 따라, 가상공간에 배치되는 컨텐츠(물고기)가 유영하는 반경이 넓어진다. 구체적으로, 제1 디스플레이(100)와 제2 디스플레이(200)의 거리가 멀어지면 센서부(600)에서 이를 인식하고, 이에 따라 공간정보 산출부(700)가 할당하는 가상공간(S)이 더 넓어지며, 제어부(500)는 더 넓어진 3차원 공간에 대응하는 영상 및 컨텐츠(예를 들어, 보다 깊이감이 있는 수중 영상과 보다 크게 움직이는 물고기 그래픽)를 표시한다. 이와 같은 자동 공간산출 방법에 따라 사용자는 보다 자유롭게 디스플레이를 배치하여 입체감 있는 인테리어를 구현할 수 있다.
일 실시예에서, 상기 제1 디스플레이 및 제2 디스플레이는 터치스크린으로서, 사용자가 상기 터치스크린을 조작함으로써 상기 가상 컨텐츠와 상호작용할 수 있고, 사용자가 소정의 조작 행위를 수행하는 경우, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면은, 상기 측정된 거리 및 각도에 기초하여 표시가 변경될 수 있다.
도 8을 참조하면, 제1 디스플레이(100)에 표시된 제1 영상 내 가상 컨텐츠(예를 들어, 스마일 캐릭터)의 일 측면(예를 들어, 스마일 캐릭터의 전면부)이 출력되는데, 사용자가 소정의 조작 행위(예를 들어, 제1 디스플레이를 길게 터치하거나 더블 탭하는 행위)를 수행하는 경우, 이와 같은 조작은 '터치한 컨텐츠를 뒤로 미는 동작' 명령에 해당할 수 있고, 이에 따라 스마일 캐릭터의 전면부는 그 크기가 감소하는 등의 표시 변경을 통해 뒤로 이동하고 있음을 나타낼 수 있다.
반대로, 제2 디스플레이(200)에 표시된 제2 영상 내 가상 컨텐츠의 다른 측면(예를 들어, 스마일 캐릭터의 후면부)는, 상기 사용자의제 1 디스플레이에 대한 조작행위에 따라, 그 크기가 증가하는 등의 표시 변경을 통해 뒤로 이동하고 있음을 나타낼 수 있다.
각 디스플레이의 가로, 세로를 각각 x축, y축이라고 하고, 다른 디스플레이로의 방향, 즉 깊이 방향은 z축에 해당한다고 할 때, 종래의 기술과 같이 z축 방향으로 컨텐츠와 상호작용할 수 있을 뿐만 아니라, z축 방향에 있는 또 다른 디스플레이와도 동시에 상호작용하여 입체감 및 공간감을 크게 향상시키는 것이 본 발명의 기술적인 해결 과제 중 하나이다.
일 실시예에서, 깊이 방향(z축) 상호작용이 발생한 디스플레이 면에서는 총 이동거리의 반만큼 컨텐츠가 깊이 방향으로 작아지거나 사라지는 시각적 피드백을 제공한다. 직선이 닿은 입체 공간의 면에 다른 디스플레이가 위치한 경우, 해당 디스플레이에서는 총 이동거리의 반만큼(컨텐츠의 총 이동 거리에서 컨텐츠가 사라진 거리를 뺀 거리와 일치함) 컨텐츠가 점점 커지거나 다가오거나, 나타나는 시각적 피드백을 제공한다.
예를 들어, 제1 디스플레이(100)와 제2 디스플레이(200)가 평행하게 앞뒤로 배치된 경우, 제1 디스플레이에서 상호작용 가능한 컨텐츠가 선택된 지점으로부터 두 디스플레이 사이의 거리(d)가 컨텐츠의 총 이동 거리가 되며, 총 이동 거리의 반만큼 제1 디스플레이에서는 해당 컨텐츠가 깊이 방향(z축 방향)으로 점점 사라지고, 나머지 총 이동 거리의 반부터는 제2 디스플레이에 컨텐츠가 나타나게 된다.
도 9를 참조하면, 사용자가 터치 스크린으로 구성된 제1 디스플레이(100)를 터치하는 경우 제1 디스플레이(100) 화면 일부 상에 실내환경정보를 포함하는 영상이 표시될 수 있다.
실내환경정보는 미세먼지 농도, 실내 온도, 실내 습도 등 다양한 정보를 포함할 수 있다. 제어부(500)는 상기 실내환경정보를 텍스트, 아이콘 또는 음성과 같이 다양한 방식으로 화면에 출력할 수 있다. 이 경우, 영상 출력 장치(10)는 실내환경정보를 획득하기 위한 온도계, 습도계, 소음 측정기 등의 부가적인 센서를 더 포함할 수 있다.
일 실시예에서, 상기 제어부(500)는 사용자로부터의 터치를 입력 받아 상기 제1 및 제2 디스플레이 중 적어도 하나에 영상을 표시하되, 사용자가 디스플레이를 터치한 지점으로부터 일정한 반경의 면적을 현재와 다른 모드로 표시함으로써, 사용자에게 미리 보기를 제공할 수 있다.
도 10을 참조하면, 사용자가 제1 디스플레이(100)와 소정의 방법으로 상호작용하는 경우(예를 들어, 같은 부분을 1초 이상 길게 터치하거나, 위 또는 아래로 슬라이드 하는 경우), 제어부(500)는 제1 디스플레이(100)에서 사용자가 터치하고 있는 지점을 기준으로 일정한 반경의 화면만을 다르게 표시할 수 있다. 예를 들어, 객체가 수초로 인식되었으나 아직 관련된 영상을 표시하고 있지 않은 경우, 사용자가 터치한 부분만을 아쿠아리움 영상으로 변경하여 미리 보기를 제공할 수 있다.
일 실시예에서, 상기 상호작용의 지속 여부에 따라 제1 디스플레이(100) 또는 제2 디스플레이(100)의 화면이 완전히 변경될 수 있다. 예를 들어, 디스플레이를 1초 내지 3초간 터치하는 경우에는 터치한 부분만을 상이한 모드로 전환하여 미리 보기를 제공하고, 디스플레이를 3초 이상 터치하는 경우에는 터치한 지점을 기준으로 미리 보기 반경이 점차 넓어져 전체 영상이 변경될 수 있다.
디스플레이 전체가 아쿠아리움 영상으로 표시된 후 사용자가 반복해서 디스플레이를 터치한다면, 사용자가 터치한 부분만을 불투명하게 표시함으로써 불투명 모드에 대한 미리 보기를 제공할 수 있다. 디스플레이 전체가 불투명 모드로 전환된 후 사용자가 반복해서 디스플레이를 터치한다면 다시 투명 모드로 전환되어 사용자가 터치한 부분만을 투명하게 표시하여 객체가 보이도록 할 수 있다. 이와 같은 투명 모드와 불투명 모드의 전환은 제어부(500)에 의해 수행된다.
영상 출력 장치(10)는 소정의 조건에 따라 상기 제1 및 제2 디스플레이 중 적어도 하나를 투명 모드 또는 불투명 모드로 전환하기 위한 모드 전환부(800)를 더 포함할 수 있다. 불투명 모드는 사용자가 투명 디스플레이 너머의 객체를 볼 수 없는 모드, 즉 가시광선이 차단되는 상태를 말한다. 불투명 모드에서는 디스플레이 너머의 객체가 보이지 않게 되며, 사용자의 입력에 따라서 사진, 동영상 또는 실내환경 정보 등의 다양한 영상을 표시할 수 있다.
일 실시예에서, 제어부(500)를 통해 디스플레이에 불투명한 소정의 영상을 출력함으로써 불투명 모드가 실행될 수 있다. 또 다른 실시예에서, 영상 출력 장치(10)는 디스플레이 후면에 편광판을 더 포함할 수 있고, 불투명 모드로 전환되는 경우 편광판을 이용하여 가시광선이 반사되지 못하게 제어함으로써 사용자가 객체를 볼 수 없도록 할 수 있다.
상기 소정의 조건을 설정하고 감지하기 위해, 영상 출력 장치(10)는 위해 터치스크린, 초음파 센서, 모션 센서 등의 추가적인 장치를 포함할 수 있고, 이 경우 상기 조건은 각각 사용자의 터치, 초음파 또는 모션 센서로 감지되는 사용자의 접근 또는 특정한 동작의 수행을 포함할 수 있다.
이와 같이 3차원 공간에 대응하는 영상을 출력하는 장치의 실시예들에 따르면, 투명 디스플레이 후면에 위치한 객체를 촬영 및 인식하여 상기 객체에 따라 상이한 영상을 디스플레이에 출력함으로써, 사용자가 별다른 노력을 들이지 않고도 객체와 어울리는 적합한 디스플레이 인테리어를 구현할 수 있는 동시에, 디스플레이들 간의 거리 및 각도를 계산하여 3차원 공간정보를 산출하고, 이에 기초하여 각 디스플레이에 적절한 영상을 출력함으로써 입체감 및 공간감을 실현할 수 있다.
나아가, 사용자가 터치 스크린으로 구성된 하나의 디스플레이와 상호작용하는 경우, 다른 디스플레이들에 출력되는 컨텐츠들이 서로 연관된 규칙에 따라 동시에 변경됨으로써 보다 높은 입체감 및 공간감을 실현할 수 있다.
이하에서는, 도 9를 참조하여 3차원 공간에 대응하는 영상을 출력하는 방법에 관하여 설명하도록 한다.
먼저, 제1 디스플레이의 후면, 또는 제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 촬영하는 단계가 수행된다(S100). 상기 단계(S100)는 촬영부에 의해 수행될 수 있으며, 촬영부는 객체를 촬영하여 촬영된 이미지를 메모리에 저장할 수 있는 카메라, 캠코더 또는 임의의 광학 장치를 모두 포함하며, 대상의 컬러 정보뿐만 아니라 깊이 정보까지 측정할 수 있는 RGB-D 카메라를 포함할 수 있다.
이어, 상기 객체의 이미지에 기초하여 상기 객체를 인식하는 단계가 수행된다(S200). 상기 단계(S200)는 인식부에 의해 수행될 수 있으며, 촬영된 객체의 이미지는 장치 내부 메모리에 저장되고, 장치 내부에 위치한 프로세서는 상기 객체의 이미지와 미리 저장된 데이터베이스 정보를 비교하여 상기 객체의 정보를 획득한다. 예를 들어, 이미지를 대조한 결과, 데이터베이스 내 저장된 나무/꽃/수초의 이미지와 일정 비율 이상 일치한다면 상기 객체는 각각 나무/꽃/수초로 인식된다.
이어, 상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하는 단계가 수행된다(S300). 일 실시예에서, 상기 단계(S300)를 수행하기 위한 센서부는, 깊이 정보가 포함된 RGB-D 광학장치, 깊이 정보를 유추하기 위해 두 대 이상의 가시광선 광학장치, 또는 타임 오브 플라이트(Time of Flight; TOF) 방식의 광학장치를 포함할 수 있고, 디스플레이 패널들이 이루는 각도를 측정하기 위한 자이로 센서(Gyro sensor) 등을 포함할 수 있으나, 디스플레이 간의 거리 및/또는 각도를 측정하는 방법 및 장치는 이에 한정되지 않는다.
이어, 단계(S300)에서 측정된 디스플레이들 간의 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 단계가 수행된다(S400). 예를 들어, 두 개의 평행한 디스플레이 패널이 감지되는 경우, 가상공간(S)는 직육면체 형태로 할당되며, 두 개의 디스플레이 패널이 이루는 각도가 둔각(90° 내지 180°)인 경우, 가상공간은 둔각 삼각기둥 형태로 할당될 수 있다.
이어, 단계(S400)에서 산출된 3차원 공간정보에 기초하여, 상기 제1 디스플레이에 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 상기 객체와 관련된 제2 영상을 표시하는 단계가 수행된다(S500).
예를 들어, 단계(S200)에서 인식된 디스플레이 후면, 또는 디스플레이들 사이에 위치한 객체가 '수초'로 인식된 경우, 제1 디스플레이에는 '물고기의 앞모습을 포함하는 영상'을 출력하는 동시에, 제2 디스플레이에는 '상기 물고기의 뒷모습을 포함하는 영상'을 출력할 수 있다.
나아가, 여기에 단계(S400)에서 산출된 3차원 공간 정보가 더 반영되어, 가상공간 중 제1 디스플레이와 더 가까운 영역에 배치되는 컨텐츠(물고기)는 제1 디스플레이에서는 더 크게 보이고, 제2 디스플레이에서는 더 작게 보이도록 출력된다. 반대로, 가상공간 중 제2 디스플레이와 더 가까운 영역에 배치되는 컨텐츠(물고기)는 제1 디스플레이에서는 더 작게 보이고, 제2 디스플레이에서는 더 크게 보이도록 출력됨으로써 입체감 및 공간감이 크게 향상될 수 있다.
추가적인 실시예에서, 3차원 공간에 대응하는 영상을 출력하는 방법은, 사용자가 상기 터치스크린을 이용하여 수행한 소정의 조작 행위를 인식하는 단계(S600) 및, 상기 소정의 조작 행위에 따라 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면의 표시를 각각 변경시키는 단계를 더 포함한다(S700).
본 실시예에서, 상기 제1 디스플레이 및 제2 디스플레이는 터치스크린으로 구성될 수 있고, 사용자가 상기 터치스크린을 조작함으로써 상기 가상 컨텐츠와 상호작용할 수 있고, 사용자가 소정의 조작 행위를 수행하는 경우, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면은, 상기 측정된 거리 및 각도에 기초하여 표시가 변경될 수 있다.
이와 같이 3차원 공간에 대응하는 영상을 출력하는 방법의 실시예들에 따르면, 투명 디스플레이 후면에 위치한 객체를 촬영 및 인식하여 상기 객체에 따라 상이한 영상을 디스플레이에 출력함으로써, 사용자가 별다른 노력을 들이지 않고도 객체와 어울리는 적합한 디스플레이 인테리어를 구현할 수 있는 동시에, 디스플레이들 간의 거리 및 각도를 계산하여 3차원 공간정보를 산출하고, 이에 기초하여 각 디스플레이에 적절한 영상을 출력함으로써 입체감 및 공간감을 실현할 수 있다.
나아가, 사용자가 터치 스크린으로 구성된 하나의 디스플레이와 상호작용하는 경우, 다른 디스플레이들에 출력되는 컨텐츠들이 서로 연관된 규칙에 따라 동시에 변경됨으로써 보다 높은 입체감 및 공간감을 실현할 수 있다.
상기 3차원 공간에 대응하는 영상을 출력하는 방법은, 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10: 영상 출력 장치
100: 제1 디스플레이
200: 제2 디스플레이
300: 촬영부
400: 인식부
500: 제어부
600: 센서부
700: 공간정보 산출부
800: 모드 전환부
d, d1, d2: 제1 디스플레이와 제2 디스플레이 간의 거리
S, Sa, Sb: 3차원 가상공간

Claims (24)

  1. 제1 디스플레이 및 제2 디스플레이;
    상기 제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 획득하기 위한 촬영부;
    상기 객체의 이미지를 미리 저장된 데이터베이스 정보와 비교하여 상기 객체가 어떤 사물인지를 인식하기 위한 인식부;
    상기 제1 디스플레이에 미리 저장되거나 네트워크를 통해 다운로드된 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 미리 저장되거나 네트워크를 통해 다운로드된 상기 객체와 관련된 제2 영상을 표시하기 위한 제어부;
    상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하기 위한 센서부; 및
    상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 공간정보 산출부를 포함하되,
    상기 제어부는, 상기 3차원 공간정보에 기초하여 상기 제1 디스플레이에 제1 영상을 표시하고, 상기 제2 디스플레이에 제2 영상을 표시하고,
    3차원 공간이 확대되거나 축소되면, 확대되거나 축소된 공간에 대응하는 깊이값과 이동반경을 갖는 콘텐츠가 상기 제1 영상 및 제2 영상에 포함되는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  2. 제1항에 있어서,
    소정의 조건에 따라 상기 제1 디스플레이 또는 제2 디스플레이를 투명 모드 및 불투명 모드 중 하나로 전환하는 모드 전환부를 더 포함하되,
    상기 제어부는 상기 제1 디스플레이 또는 제2 디스플레이가 불투명 모드일 때, 상기 객체가 상기 투명 디스플레이를 통해 보이지 않도록 가시광선을 차단하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  3. 제1항에 있어서,
    상기 제1 디스플레이 또는 제2 디스플레이는 터치스크린이고,
    상기 제어부는 사용자로부터의 터치를 입력 받아 상기 제1 디스플레이 또는 제2 디스플레이에 영상을 표시하되,
    사용자가 상기 제1 디스플레이 또는 제2 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  4. 삭제
  5. 제1항에 있어서,
    상기 제1 영상 및 상기 제2 영상은 서로 상이한 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  6. 삭제
  7. 제1항에 있어서,
    상기 제1 영상은 가상 컨텐츠의 일 측면을 포함하고, 상기 제2 영상은 상기 가상 컨텐츠의 다른 측면을 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  8. 제7항에 있어서,
    상기 제1 디스플레이 및 제2 디스플레이는 터치스크린으로서, 사용자가 상기 터치스크린을 조작함으로써 상기 가상 컨텐츠와 상호작용할 수 있고,
    사용자가 소정의 조작 행위를 수행하는 경우, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면은, 상기 측정된 거리 및 각도에 기초하여 표시가 변경되는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  9. 제8항에 있어서,
    상기 소정의 조작 행위가, 상기 제1 영상 내 가상 컨텐츠를 상기 제2 디스플레이 방향으로 밀어내는 동작인 경우,
    상기 제1 영상 내 가상 컨텐츠의 크기는 점차적으로 감소하고, 이에 비례하여 상기 제2 영상 내 가상 컨텐츠의 크기는 점차적으로 증가하도록 표시가 변경되는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  10. 제1항에 있어서,
    상기 영상을 출력하는 장치는 상기 객체를 둘러싸는 추가적인 디스플레이들을 더 포함하고,
    상기 제어부는 상기 추가적인 디스플레이들에 상기 객체와 관련된 추가적인 영상들을 더 표시하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  11. 제10항에 있어서,
    상기 추가적인 영상들은, 가상 컨텐츠의 서로 다른 측면들을 각각 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  12. 제8항에 있어서,
    소정의 조건에 따라 상기 제1 및 제2 디스플레이 중 적어도 하나를 투명 모드 또는 불투명 모드로 전환하는 모드 전환부를 더 포함하되,
    상기 제어부는 상기 제1 및 제2 디스플레이 중 불투명 모드인 디스플레이를 통해 상기 객체가 보이지 않도록 가시광선을 차단하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  13. 제8항에 있어서,
    상기 제어부는 사용자로부터의 터치를 입력 받아 상기 제1 및 제2 디스플레이 중 적어도 하나에 영상을 표시하되,
    사용자가 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 장치.
  14. 3차원 공간에 대응하는 영상을 출력하는 방법으로서,
    제1 디스플레이 및 제2 디스플레이 사이에 위치하는 객체의 이미지를 촬영하는 단계;
    상기 객체의 이미지를 미리 저장된 데이터베이스 정보와 비교하여 상기 객체가 어떤 사물인지를 인식하는 단계;
    상기 제1 디스플레이에 미리 저장되거나 네트워크를 통해 다운로드된 상기 객체와 관련된 제1 영상을 표시하고, 상기 제2 디스플레이에 미리 저장되거나 네트워크를 통해 다운로드된 상기 객체와 관련된 제2 영상을 표시하는 단계;
    상기 제1 디스플레이와 제2 디스플레이 간의 거리 및 상기 제1 디스플레이와 제2 디스플레이가 이루는 각도를 측정하는 단계; 및
    상기 측정된 거리 및 각도에 기초하여 3차원 공간정보를 산출하는 단계를 포함하되,
    상기 제1 영상 및 제2 영상은, 상기 3차원 공간정보에 기초하여 표시되는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  15. 제14항에 있어서,
    상기 제1 영상 및 상기 제2 영상은 서로 상이한 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  16. 삭제
  17. 제14항에 있어서,
    상기 제1 영상은 가상 컨텐츠의 일 측면을 포함하고, 상기 제2 영상은 상기 가상 컨텐츠의 다른 측면을 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  18. 제17항에 있어서,
    상기 제1 디스플레이 및 제2 디스플레이는 터치스크린이고,
    상기 방법은, 사용자가 상기 터치스크린을 이용하여 수행한 소정의 조작 행위를 인식하는 단계; 및
    상기 소정의 조작 행위에 따라, 상기 제1 영상 내 가상 컨텐츠의 일 측면과 상기 제2 영상 내 가상 컨텐츠의 다른 측면의 표시를 각각 변경시키는 단계를 더 포함하되,
    상기 가상 컨텐츠의 변경은 상기 측정된 거리 및 각도에 기초하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  19. 제18항에 있어서,
    상기 소정의 조작 행위가, 상기 제1 영상 내 가상 컨텐츠를 상기 제2 디스플레이 방향으로 밀어내는 동작인 경우,
    상기 제1 영상 내 가상 컨텐츠의 크기는 점차적으로 감소하고, 이에 비례하여 상기 제2 영상 내 가상 컨텐츠의 크기는 점차적으로 증가하도록 표시가 변경되는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  20. 제18항에 있어서,
    상기 방법은, 소정의 조건에 따라 상기 제1 및 제2 디스플레이 중 적어도 하나를 투명 모드 또는 불투명 모드로 전환하는 단계; 및
    상기 제1 및 제2 디스플레이 중 불투명 모드인 디스플레이를 통해 상기 객체가 보이지 않도록 가시광선을 차단하는 단계를 더 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  21. 제20항에 있어서,
    상기 방법은, 사용자가 디스플레이를 터치한 지점으로부터 일정한 반경의 면적에만 상기 영상을 표시함으로써, 사용자에게 미리 보기를 제공하는 단계를 더 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  22. 제14항에 있어서,
    상기 방법은, 상기 객체를 둘러싸는 추가적인 디스플레이들에 상기 객체와 관련된 추가적인 영상들을 더 표시하는 단계를 더 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  23. 제22항에 있어서,
    상기 추가적인 영상들은, 가상 컨텐츠의 서로 다른 측면들을 각각 포함하는 것을 특징으로 하는, 3차원 공간에 대응하는 영상을 출력하는 방법.
  24. 제14항, 제15항, 제17항 내지 제23항 중 어느 하나의 항에 따른 3차원 공간에 대응하는 영상을 출력하는 방법을 수행하기 위한, 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020170083043A 2017-06-30 2017-06-30 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법 KR101987142B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170083043A KR101987142B1 (ko) 2017-06-30 2017-06-30 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170083043A KR101987142B1 (ko) 2017-06-30 2017-06-30 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190002837A KR20190002837A (ko) 2019-01-09
KR101987142B1 true KR101987142B1 (ko) 2019-06-10

Family

ID=65017618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170083043A KR101987142B1 (ko) 2017-06-30 2017-06-30 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101987142B1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101793628B1 (ko) * 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
KR101572619B1 (ko) 2014-06-26 2015-11-30 한국과학기술연구원 투명 디스플레이 장치, 그 제어 방법 및 그 방법을 수행하기 위한 기록 매체
KR101674043B1 (ko) * 2015-04-10 2016-11-08 서울과학기술대학교 산학협력단 증강현실을 이용한 건축 디자인 검증 시스템과 방법
KR101726576B1 (ko) 2015-05-28 2017-04-14 한국과학기술연구원 화면분할이 가능한 디스플레이를 갖는 디스플레이 장치, 그 제어 방법 및 그 방법을 수행하기 위한 기록 매체
KR20170065840A (ko) * 2015-12-04 2017-06-14 주식회사 휴인텍 사용자 인터렉션 기반의 디지털 사이니지

Also Published As

Publication number Publication date
KR20190002837A (ko) 2019-01-09

Similar Documents

Publication Publication Date Title
US11138796B2 (en) Systems and methods for contextually augmented video creation and sharing
US20230306688A1 (en) Selecting two-dimensional imagery data for display within a three-dimensional model
EP2732436B1 (en) Simulating three-dimensional features
US9317962B2 (en) 3D space content visualization system
US9595294B2 (en) Methods, systems and apparatuses for multi-directional still pictures and/or multi-directional motion pictures
WO2022022036A1 (zh) 一种展示方法、装置、设备、存储介质及计算机程序
US20140248950A1 (en) System and method of interaction for mobile devices
US20240062413A1 (en) Methods and Devices for Detecting and Identifying Features in an AR/VR Scene
TWI651657B (zh) 擴增實境系統與方法
US20130342568A1 (en) Low light scene augmentation
US11010961B2 (en) Object permanence in surface reconstruction
CN113436136A (zh) 以对象为中心的扫描
TW201214199A (en) A system for portable tangible interaction
US9035880B2 (en) Controlling images at hand-held devices
JP2008520052A5 (ko)
US20210038975A1 (en) Calibration to be used in an augmented reality method and system
US20150213784A1 (en) Motion-based lenticular image display
US11146744B2 (en) Automated interactive system and method for dynamically modifying a live image of a subject
JP2016511850A (ja) プレノプティックライトフィールドに対しアノテーションを付加するための方法および装置
KR101987142B1 (ko) 투명한 디스플레이들을 이용하여 3차원 공간에 대응하는 영상을 출력하는 장치 및 방법
US8797315B1 (en) Segmented editor for tours of a geographic information system, and applications thereof
JP2023171298A (ja) 拡張現実及び複合現実のための空間とコンテンツの適合
US20230125390A1 (en) Localization Failure Handling on Artificial Reality Systems
KR20190142857A (ko) 미러 디스플레이를 이용한 게임 장치 및 그 방법
TW201643677A (zh) 電子裝置以及使用者介面操作方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant