KR20160025922A - 영상 처리 방법 및 장치 - Google Patents

영상 처리 방법 및 장치 Download PDF

Info

Publication number
KR20160025922A
KR20160025922A KR1020140113419A KR20140113419A KR20160025922A KR 20160025922 A KR20160025922 A KR 20160025922A KR 1020140113419 A KR1020140113419 A KR 1020140113419A KR 20140113419 A KR20140113419 A KR 20140113419A KR 20160025922 A KR20160025922 A KR 20160025922A
Authority
KR
South Korea
Prior art keywords
user
image
dimensional image
region
viewing
Prior art date
Application number
KR1020140113419A
Other languages
English (en)
Inventor
허진구
이석
남동경
박주용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140113419A priority Critical patent/KR20160025922A/ko
Priority to US14/624,950 priority patent/US20160065953A1/en
Publication of KR20160025922A publication Critical patent/KR20160025922A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Abstract

스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하고 추적의 결과에 기반하여 복수의 영역들의 각각에 3 차원 영상을 생성하고, 상기 복수의 영역들은 복수의 사용자들의 수의 기반하여 스크린을 분할함으로써 형성되는 영상 처리 방법 및 장치가 제공된다.

Description

영상 처리 방법 및 장치{METHOD AND APPARATUS FOR IMAGE PROCESSING}
아래의 실시예들은 영상 처리에 관한 것으로, 스크린 상의 복수의 분할된 영역들에 출력되는 복수의 3 차원 영상들을 처리하는 방법 및 장치에 관한 것이다.
최근 3D 안경과 같은 추가적인 디바이스를 요구하지 않으면서, 사용자에게 3 차원 영상의 시청을 제공할 수 있는 영상 장치들이 개발되고 있다. 예컨대, 영상 장치의 디스플레이 패널의 전면에 위치되는 광학 렌즈에 의해, 영상이 사용자의 좌안에 투사될 영상 및 사용자의 우안에 투사될 영상으로 분리됨으로써 사용자는 3D 안경을 착용하지 않고 3 차원 입체 영상을 인식할 수 있다.
출력되는 3 차원 영상의 입체감은 사용자의 위치에 따라 상이하게 사용자에게 인식될 수 있다. 말하자면, 3 차원 영상이 아티팩트의 인식 또는 혼동(cross talk) 없이 사용자에게 시청되기 위해서는, 사용자는 출력되는 3 차원 영상의 옵티멀 뷰잉 존(optimal viewing zone) 내에 있어야 한다.
출력되는 3 차원 영상을 시청하는 사용자가 복수인 경우, 일부 사용자들은 출력되는 3 차원 영상의 옵티멀 뷰잉 존 내에 존재하지 않을 수 있고, 이러한 사용자들은 출력된 3 차원 영상을 시청함에 있어서 아티팩트를 인식하게 되고 3 차원 영상의 입체감을 제대로 느낄 수 없다.
일 측면에 있어서, 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 단계 및 상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수의 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 단계를 포함하는, 영상 처리 방법이 제공된다.
상기 3 차원 영상을 생성하는 단계는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
상기 영상 처리 방법은 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 단계를 더 포함할 수 있다.
상기 3 차원 영상을 생성하는 단계는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
상기 제1 영역과 관련된 영상의 콘텐츠 및 상기 제2 영역과 관련된 영상의 콘텐츠는 동일할 수 있다.
상기 제2 영역과 관련된 3 차원 영상이 주 영상일 수 있다.
상기 제2 영역과 관련된 사용자가 주 사용자일 수 있다.
상기 사용자가 상기 소기의 위치에 존재하는지 여부는 상기 사용자에 의한 아티팩트(artifact)의 인식 여부에 따라 결정될 수 있다.
상기 소기의 위치로의 이동을 지시하는 단계는 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 출력함으로써 상기 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다.
상기 3 차원 영상을 생성하는 단계는 상기 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성할 수 있다.
상기 스크린은 상기 3 차원 영상의 콘텐츠, 상기 3 차원 영상을 시청하는 사용자들의 수, 상기 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 상기 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여 상이한 형태로 분할될 수 있다.
다른 일 측면에 있어서, 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 사용자 결정부, 상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수에 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 영상 생성부를 포함하는, 영상 처리 장치가 제공된다.
상기 영상 생성부는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성할 수 있다.
상기 영상 처리 장치는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 지시부를 더 포함할 수 있다.
상기 영상 생성부는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성할 수 있다.
상기 사용자 결정부는 상기 제2 영역과 관련된 3 차원 영상을 주 영상으로 결정할 수 있다.
상기 사용자 결정부는 상기 제2 영역과 관련된 사용자를 주 사용자로 결정할 수 있다.
상기 영상 생성부는 상기 복수의 사용자들 모두 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성할 수 있다.
도 1은 일 실시예에 따른 영상 처리 장치를 나타낸다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타낸다.
도 3은 일 예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른 병합된 영역에 3 차원 영상을 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른 스크린 상에 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른 스크린 상에 생성되는 3 차원 영상을 시청하는 복수의 사용자들 중 주 사용자를 결정하는 방법을 나타내는 흐름도이다.
도 7은 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른 영상 처리 방법 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 9는 일 예에 따른 사용자의 3 차원 영상의 시청을 위한 소기의 위치로의 이동을 지시하는 방법을 나타낸다.
도 10은 일 예에 따른 스크린 상의 분할된 영역들 상에 3 차원 영상들을 생성하는 방법 및 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 영상 처리 장치를 나타낸다.
도 1에서는, 스크린 상에 생성될 3 차원 영상을 복수의 사용자들의 시청에 적합하게 처리하고 스크린 상의 분할된 영역들에 생성하는 영상 처리 장치(100)가 도시되었다.
사용자의 시청에 적합하게 처리된 3 차원 영상은 소기의 위치에서 사용자가 아티팩트(artifact)의 인식 없이 입체감을 느낄 수 있도록 처리된 영상이다. 소기의 위치는 3 차원 영상을 시청하기 위한 최적의 위치로서 사용자가 아티팩트의 인식 없이 입체감을 느낄 수 있는 위치이다.
영상 처리 장치(100)는 영상 생성부(110), 제어부(120), 사용자 결정부(130) 및 지시부(150)를 포함할 수 있다.
또한, 영상 처리 장치(100)는 스크린으로서 디스플레이 패널을 포함하는 영상 출력부를 더 포함할 수 있다. 영상 출력부의 디스플레이 패널은 복수의 픽셀들을 포함할 수 있다. 예컨대, 영상 출력부는 액정 디스플레이(Liquid Crystal Display; LCD), 플라즈마 디스플레이 패널(Plasma Display Panel; PDP) 장치 또는 유기 발광 다이오드(Organic Light Emitting Diodes; OLED) 디스플레이 장치일 수 있다. 영상 출력부는 영상 생성부(110)에 의해 생성된 영상을 출력할 수 있다.
영상 생성부(110)에 의한 영상의 생성은 영상의 렌더링일 수 있다.
영상 생성부(110)는 스크린에의 생성을 위해 처리된 3 차원 영상의 데이터를 스크린(또는 디스플레이 패널)을 포함하는 디스플레이 장치로 전송하는 장치일 수 있다.
영상 생성부(110)는 복수의 사용자들의 시청에 적합하게 처리된 3 차원 영상을 스크린 상에 생성할 수 있다. 예컨대, 영상 생성부(110)는 복수의 사용자들의 시청에 적합하게 처리된 3 차원 영상(들)을 스크린 상의 분할된 복수의 영역들의 각각에 생성할 수 있다.
또는, 영상 생성부(110)는 각각의 서로 독립적인 3 차원 영상을 스크린 상의 분할된 복수의 영역들의 각각에 생성할 수 있다.
스크린 상의 영역이 복수의 영역들로 분할되는 방법 및 복수의 영역들의 각각으로 3 차원 영상이 생성되는 방법에 대해서는 후술될 도 2 내지 도 10를 참조하여 더 자세하게 설명된다.
제어부(120)는 영상 처리 장치(100)의 구성들(110, 130 및 150 및)을 제어할 수 있다. 제어부(120)는 영상 생성부(110)를 통해 생성될 3 차원 영상을 사용자의 시청에 적합하게 처리할 수 있다. 또는, 제어부(120)는 영상 생성부(110)를 통해 생성될 3 차원 영상을 사용자의 시청에 적합하게 처리하기 위해 요구되는 연산을 수행할 수 있다. 제어부(120)는 상기의 연산을 처리하기 위한 적어도 하나의 프로세서(processor) 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 예컨대, 제어부(120)는 중앙 처리 장치(Central Processing Unit; CPU) 또는 그래픽 처리 장치(Graphics Processing Unit; GPU)일 수 있고, CPU 또는 GPU의 적어도 하나의 코어일 수 있다.
사용자 결정부(130)는 영상 생성부(110)에 의해 생성되는 3 차원 영상을 시청하는 사용자의 위치를 추적할 수 있다. 예컨대, 사용자 결정부(130)는 스크린의 복수의 분할된 영역들에 생성된 3 차원 영상들을 시청하는 복수의 사용자들의 위치를 각각 추적할 수 있다.
사용자 결정부(130)는 예컨대, 사용자의 양안, 얼굴, 몸통 및 다른 부위(body part)의 위치를 추적함으로써 사용자의 위치를 식별할 수 있다.
사용자 결정부(130)는 3 차원 영상을 시청하는 사용자의 위치를 추적 또는 식별하기 위한 여하한 장치로서, 예컨대, 양안 인식 장치 및 위치 감지 센서 중 적어도 하나를 포함할 수 있고, 사용자의 위치를 추적 또는 식별하기 위한 여하한 하나 이상의 센서들을 포함할 수 있다.
영상 생성부(110)는 식별 또는 추적된 복수의 사용자들의 위치에 기반하여, 복수의 사용자들의 각각의 시청에 적합하게 스크린 상의 영역을 복수의 영역들로 분할하고, 분할된 영역들의 각각에 각 사용자의 위치에 기반하여 각 사용자의 시청에 적합화된 처리된 3 차원 영상을 생성할 수 있다.
또한, 사용자 결정부(130)는 사용자의 위치를 추적 또는 식별함으로써, 사용자가 스크린 상의 분할된 영역에 생성된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 소기의 위치는 생성된 3 차원 영상을 사용자가 아티팩트의 인식 없이 시청하기 위한 위치일 수 있다. 말하자면, 소기의 위치는 3 차원 영상의 시청을 위한 옵티멀 뷰잉 존(optimal viewing zone)일 수 있다.
또한, 사용자 결정부(130)는 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들을 시청하는 사용자들 중 주 사용자를 결정할 수 있다. 사용자 결정부(130)가 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법에 대해서는 후술될 도 6을 참조하여 더 자세하게 설명된다.
사용자 결정부(130)는 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들 중 주 영상을 결정할 수 있다. 사용자 결정부(130)가 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법에 대해서는 후술될 도 5를 참조하여 더 자세하게 설명된다.
지시부(150)는 사용자에 대한 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역에 생성되는 3 차원 영상을 시청하기 위한 소기의 위치로의 이동을 지시할 수 있다. 예컨대, 사용자 결정부(130)에 의해 결정된 주 사용자가 아닌 다른 사용자가 주 사용자가 시청하는 3 차원 영상을 시청하고자 하는 경우 상기 다른 사용자는 주 사용자가 시청하는 3 차원 영상에 대해 아티팩트를 인식할 수 있다. 이 때, 지시부(150)는 주 사용자가 시청하는 3 차원 영상에 대해 상기 다른 사용자가 아티팩트의 인식 없이 상기 3 차원 영상을 시청할 수 있도록 해주는 소기의 위치로 상기 다른 사용자의 이동을 지시할 수 있다.
또는, 사용자 결정부(130)에 의해 결정된 주 영상을 주 영상이 아닌 다른 3 차원 영상을 시청하는 다른 사용자가 시청하고자 하는 경우 상기 다른 사용자는 주 영상에 대해 아티팩트를 인식할 수 있다. 이 때, 지시부(150)는 상기 다른 사용자를 주 영상을 아티팩트의 인식 없이 시청할 수 있도록 해주는 소기의 위치로의 상기 다른 사용자의 이동을 지시할 수 있다. 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시하는 방법에 대해서는 후술될 도 3 및 도 9를 참조하여 더 자세하게 설명된다.
영상 생성부(110)는 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들 중 2개 이상의 영상들을 병합할 수 있다. 예컨대, 영상 생성부(110)는 사용자 결정부(130)에 의해 결정된 주 영상 또는 사용자 결정부(130)에 의해 결정된 주 사용자가 시청하는 3 차원 영상을 다른 3 차원 영상과 병합할 수 있다. 영상의 병합은 영상이 생성되는 스크린 상의 영역들 간의 병합일 수 있다. 영상 생성부(110)가 생성된 3 차원 영상들을 병합하여 생성하는 방법에 대해서는 후술될 도 8 내지 10을 참조하여 더 자세하게 설명된다.
상기 구성 요소들(110, 130 및 150) 중 적어도 하나의 기능은 도시된 것과는 달리 단일한 제어부(120)에서 수행될 수 있다. 이때, 제어부(120)는 단일(single) 또는 복수(multi) 칩(chip), 프로세서 또는 코어(core)를 나타낼 수 있다. 이때, 구성요소들(110, 130 및 150) 중 적어도 하나는 제어부(120)에서 수행되는 함수(function), 라이브러리(library), 서비스(service), 프로세스(process), 쓰레드(thread) 또는 모듈(module)을 나타낼 수 있다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
단계(210)에서, 사용자 결정부(130)는 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적할 수 있다. 예컨대, 사용자 결정부(130)는 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들의 각각의 양안을 추적할 수 있다. 또는, 사용자 결정부(130)는 각 사용자의 위치를 추적함으로써 각 사용자의 양안의 위치를 식별하거나, 각 사용자의 양안의 위치를 추적함으로써 각 사용자의 위치를 식별할 수 있다. 사용자 결정부(130)는 동시에 또는 순차적으로 복수의 사용자들의 양안을 추적할 수 있다.
단계(220)에서, 사용자 결정부(130)의 추적의 결과에 기반하여 스크린 상의 복수의 영역들의 각각에 3 차원 영상을 생성할 수 있다. 복수의 영역들은 복수의 사용자들의 수의 기반하여 스크린을 분할함으로써 형성될 수 있다. 영상 생성부(110)는 스크린을 복수의 영역들로 분할하고 분할된 복수의 영역들로 3 차원 영상을 생성한다. 영상 생성부(110)는 스크린을 복수의 사용자들의 수에 기반하여 복수의 영역들로 분할할 수 있고 단계(210)에서의 양안의 추적의 결과에 기반하여 스크린의 분할된 복수의 영역들의 각각으로 복수의 사용자들의 각각의 시청에 적합화된 3 차원 영상을 생성할 수 있다. 예컨대, 영상 생성부(110)는 스크린을 사용자의 수와 동일하게 분할할 수 있다.
복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 서로 간에 독립적일 수 있다. 말하자면, 스크린 상의 분할된 임의의 영역에의 3 차원 영상의 생성은 상기 임의의 영역과는 상이한 스크린 상의 영역에의 3 차원 영상의 생성에 대해 독립적일 수 있다. 예컨대, 복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 서로 동일하거나 상이한 콘텐츠를 포함할 수 있다.
스크린 상의 복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 다시점 스테레오 영상일 수 있다.
스크린 상의 각 영역에 생성된 3 차원 영상은 적어도 하나의 사용자와 관련될 수 있다. 예컨대, 스크린 상의 각 영역에 생성된 3 차원 영상은 적어도 하나의 사용자의 시청에 적합하게 생성될 수 있다. 사용자 결정부(130)는 생성되는 3 차원 영상들을 시청하는 복수의 사용자들의 위치를 추적할 수 있고, 추적된 복수의 사용자들의 위치에 기반하여, 영상 생성부(110)는 복수의 사용자들의 각각의 시청에 적합하게 스크린 상의 분할된 영역들로 3 차원 영상들을 생성할 수 있다. 관련된 3 차원 영상의 시청에 있어서, 사용자의 위치는 관련된 3 차원 영상의 시청을 위한 소기의 위치(옵티멀 뷰잉 존) 내에 존재할 수 있고, 사용자는 아티팩트의 인식 없이 관련된 3 차원 영상을 시청할 수 있다.
예컨대, 복수의 3 차원 영상들 중 제1 영상은 스트린 상의 복수의 영역들 중 제1 사용자의 시청에 적합화된 제1 영역에서 생성될 수 있고, 복수의 3 차원 영상들 중 제2 영상은 스트린 상의 복수의 영역들 중 제2 사용자의 시청에 적합화된 제2 영역에서 생성될 수 있다. 이 때, 제1 영상은 제1 사용자와 관련되고, 제2 영상은 제2 사용자와 관련된 것으로 간주될 수 있다.
영상 생성부(110)는 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 복수의 영역들을 형성하지 않고 3 차원 영상을 생성할 수 있다. 말하자면, 영상 생성부(110)는 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존에 존재하는 경우, 분할되지 않은 풀 스크린 상에 3 차원 영상을 생성할 수 있다.
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 3은 일 예에 따른 영상 처리 방법을 나타내는 흐름도이다.
단계(320)에서, 사용자 결정부(130)는 분할된 복수의 영역들에 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 적어도 하나의 사용자가 생성된 3 차원 영상들 중 적어도 하나의 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정한다. 말하자면, 사용자 결정부(130)는 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 적어도 하나의 사용자의 위치를 추적함으로써 상기 적어도 하나의 사용자가 생성된 3 차원 영상들 중 적어도 하나의 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부는 사용자가 현재의 위치에서 상기 3 차원 영상을 시청 할 때 아티팩트가 인식되는지 여부에 따라 결정될 수 있다.
사용자 결정부(130)는 사용자와 관련되지 않은 3 차원 영상을 사용자가 시청하기 위한 소기의 위치에 상기 사용자가 존재하는지 여부를 결정할 수 있다. 예컨대, 사용자 결정부(130)는 전술된 제2 사용자가 제1 영상을 시청하기 위한 소기의 제1 위치에 존재하는지 여부를 결정할 수 있다. 여기서, 제1 사용자가 시청하는 제1 영상이 생성되는 제1 영역 및 제2 사용자가 시청하는 제2 영상이 생성되는 제2 영역은 스크린 상에서 서로 인접한 영역일 수 있다. 소기의 제1 위치는 제2 사용자가 아티팩트의 인식 없이 제1 영상 및 제2 영상을 동시에 시청할 수 있거나, 아티팩트의 인식 없이 제1 영상을 시청할 수 있는 제1 영상의 옵티멀 뷰잉 존일 수 있다.
단계(330)에서, 지시부(150)는 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하지 않으면, 상기 사용자에게 소기의 위치로의 이동을 지시한다. 예컨대, 지시부(150)는 전술된 제2 사용자에 대해 제1 영상의 시청을 위한 소기의 제1 위치로의 이동을 지시할 수 있다. 또는, 지시부(150)는 스크린 상의 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시할 수 있다.
또는, 지시부(150)는 사용자가 도 1을 참조하여 전술된 주 영상을 시청하기 위한 소기의 위치 또는 주 사용자와 관련된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하지 않는 경우, 소기의 위치로 사용자의 이동을 지시할 수 있다. 사용자가 소기의 위치로 이동됨으로써, 사용자는 주 영상 또는 주 사용자와 관련된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다.
지시부(150)는 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 예컨대, 스크린 상에 출력함으로써 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다. 인디케이터는 스크린 상에 출력될 수 있다. 사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상을 시청하고자 하는 경우에 있어서, 인디케이터는 사용자가 현재의 위치에서 주 영상 또는 주 사용자와 관련된 3 차원 영상을 시청할 때 아티팩트가 인식되는 경우 스크린 상에 출력될 수 있다. 인디케이터는 사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상의 시청을 위한 소기의 위치에 위치하는 경우에는 출력되지 않을 수 있다. 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시하는 방법에 대해서는 후술될 도 9를 참조하여 더 자세하게 설명된다.
사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상의 시청을 위한 소기의 위치에 위치하는 경우 영상 처리 장치(100)의 동작에 대해서는 후술될 도 4를 참조하여 더 자세하게 설명된다.
앞서 도 1 및 도 2를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 4는 일 예에 따른 병합된 영역에 3 차원 영상을 생성하는 방법을 나타내는 흐름도이다.
도 3를 참조하여 전술된 단계(320)에서, 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 것으로 결정되면, 단계(220)가 수행될 수 있다.
단계(220)에서, 영상 생성부(110)는 사용자가 소기의 위치로 이동되거나 소기의 위치에 존재하는 것으로 결정되면, 스크린 상의 병합된 영역에 3 차원 영상을 생성할 수 있다. 예컨대, 도 2를 참조하여 전술된 제2 사용자가 제1 위치에 존재하거나, 제2 사용자가 제1 위치로 이동되면 제1 사용자와 관련된 제1 영상 및 제2 사용자와 관련된 제2 영상은 병합되어 생성될 수 있다. 말하자면, 사용자가 소기의 위치로 이동되면, 영상 생성부(110)는 제1 영역과 상기 제2 영역의 병합된 영역에 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
또는, 영상 생성부(110)는 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 제1 영역과 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
3 차원 영상들이 병합됨에 있어서, 병합되는 3 차원 영상들 간의 콘텐츠는 서로 동일할 수 있다. 예컨대, 병합되는 제1 사용자와 관련된 제1 영상의 콘텐츠 및 제2 사용자와 관련된 제2 영상의 콘텐츠는 서로 동일할 수 있다. 또는, 제1 영역과 관련된 영상의 콘텐츠 및 제2 영역과 관련된 영상의 콘텐츠는 동일할 수 있다.
영상의 병합은 병합 전의 3 차원 영상들이 생성된 영역들이 병합됨으로써 수행될 수 있고, 병합된 영상은 병합 전의 3 차원 영상들이 생성되는 영역들의 병합된 영역에 생성될 수 있다. 예컨대, 제1 영상 및 제2 영상의 병합된 영상은 상기 제1 영역 및 상기 제2 영역이 병합된 영역 상에 생성될 수 있다.
영상의 병합은 병합된 3 차원 영상들을 제외한 스크린 상에 생성되는 다른 3 차원 영상들에 대해 독립적으로 수행될 수 있다. 예컨대, 제1 영상 및 제2 영상의 병합은 제1 영상 및 제2 영상을 제외한 스크린 상의 복수의 영역들의 각각에 생성되는 다른 3 차원 영상에 대해 독립적으로 수행될 수 있다.
스크린 상의 3개 이상의 영역들에 생성된 3 차원 영상들은 동시에 또는 순차적으로 병합될 수 있다.
3 차원 영상들 간의 병합은 사용자의 위치의 변화에 기반하여 자동적으로 수행될 수 있다.
영상 생성부(110)가 영상을 병합하는 방법에 대해서는 후술될 도 8 및 도 10를 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 5는 일 예에 따른 스크린 상에 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법을 나타내는 흐름도이다.
단계(510)에서, 사용자 결정부(130)는 영상 생성부(110)에 의해 스크린 상의 분할된 영역들 상에 생성되는 3 차원 영상들 중 주 영상을 결정한다. 주 영상은 도 3을 참조하여 전술된 단계(330)에서 사용자에게 소기의 위치로의 이동을 지시함에 있어서, 소기의 위치와 관련된 영상일 수 있다. 말하자면, 주 영상은 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시함에 있어서 사용자가 요구하는 시청의 기준이 되는 기준 영상일 수 있다. 말하자면, 단계(320)에서, 사용자 결정부는(130) 사용자가 주 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다.
또한, 주 영상은 도 4를 참조하여 전술된 단계(220)이 3 차원 영상들 간의 병합에 있어서, 병합의 기준이 되는 기준 영상일 수 있다. 말하자면, 영상의 병합은 주 영상 및 적어도 하나의 다른 3 차원 영상 간에 수행될 수 있고, 병합된 영상은 주 영상과 동일한 콘텐츠를 포함할 수 있다. 도 2를 참조하여 전술된 예시에서는, 제1 영상 및 제2 영상 중 제1 영상이 주 영상일 수 있다. 또는, 제1 영역과 관련된 3 차원의 영상 또는 제2 영역과 관련된 3 차원 영상이 주 영상으로서 결정될 수 있다.
도시된 것과는 달리, 단계(510)는 단계(210)가 수행된 후에 수행될 수도 있다. 말하자면, 사용자 결정부(130)는 스크린 상에 생성된 3 차원 영상들 중 주 영상을 결정할 수 있다.
앞서 도 1 내지 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 6은 일 예에 따른 스크린 상에 생성되는 3 차원 영상을 시청하는 복수의 사용자들 중 주 사용자를 결정하는 방법을 나타내는 흐름도이다.
단계(610)에서, 사용자 결정부는(130)는 영상 생성부(110)에 의해 스크린 상의 분할된 영역들 상에 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 주 사용자를 결정한다. 주 사용자는 도 3을 참조하여 전술된 단계(330)에서 사용자에게 소기의 위치로의 이동을 지시함에 있어서, 소기의 위치가 옵티멀 뷰잉 존인 3 차원 영상과 관련된 사용자일 수 있다. 말하자면, 주 사용자는 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시함에 있어서 사용자가 시청하고자 하는 기준 영상과 관련된 기준 사용자일 수 있다. 말하자면, 단계(320)에서, 사용자 결정부는(130)는 복수의 사용자들 중 주 사용자를 제외한 적어도 하나의 사용자가 주 사용자가 시청하는 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다.
또한, 주 사용자는 도 4를 참조하여 전술된 단계(220)이 3 차원 영상들 간의 병합에 있어서, 병합의 기준이 되는 3 차원 영상과 관련된 기준 사용자일 수 있다. 말하자면, 영상의 병합은 주 사용자와 관련된 3 차원 영상 및 적어도 하나의 다른 3 차원 영상 간에 수행될 수 있고, 병합된 영상은 주 사용자와 관련된 3 차원 영상과 동일한 콘텐츠를 포함할 수 있다. 도 2를 참조하여 전술된 예시에서는, 제1 사용자 및 제2 사용자 중 제1 사용자가 주 사용자일 수 있다. 또는, 제1 영역과 관련된 사용자 또는 제2 영역과 관련된 사용자가 주 사용자로서 결정될 수 있다.
말하자면, 지시부(150)에 의해 이동을 지시 받는 사용자는 주 사용자가 아니다.
앞서 도 1 내지 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 7은 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 7에는 도 1를 참조하여 전술된 영상 처리 장치(100)의 또 다른 실시예의 동작 방법이 도시되었다.
단계(710)에서, 영상 생성부(110)는 스크린 상에 3 차원 영상을 생성할 수 있다. 이 때, 스크린은 복수의 영역들로 분할되지 않고, 3 차원 영상은 스크린 상의 전체의 영역에 생성될 수 있다.
단계(720)에서, 사용자 결정부(130)는 생성된 3 차원 영상을 시청하는 복수의 사용자들 중 적어도 하나의 사용자가 스크린 상에 생성된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 예컨대, 사용자 결정부(130)는 사용자의 위치를 추적함으로써, 사용자가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존에 존재하는지 여부를 결정할 수 있다.
단계(730)에서, 지시부(150)는 사용자가 소기의 위치에 존재하지 않으면, 사용자에게 3 차원 영상을 시청하기 위한 상기 소기의 위치로의 이동을 지시할 수 있다. 예컨대, 지시부(150)는 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 스크린 상에 출력함으로써 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다.
단계(740)에서, 사용자 결정부(130)는 추적된 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상인지 여부를 결정할 수 있다. 상기 거리를 계산함에 있어서, 소기의 위치는 사용자가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존의 중심 위치를 의미할 수 있다.
단계(750)에서, 영상 생성부(110)는 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상이면, 스크린을 복수의 영역들로 분할할 수 있다. 스크린은 3 차원 영상을 시청하는 복수의 사용자들의 각각의 3 차원 영상의 시청에 적합한 형태로 분할될 수 있다. 또는, 영상 생성부(110)는 사용자의 이동에 의해 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상이 되면, 스크린을 복수의 영역들로 분할할 수 있다.
단계(760)에서, 영상 생성부(110)는 사용자의 시청에 적합화된 스크린의 분할된 영역에 3 차원 영상을 생성할 수 있다.
예컨대, 스크린 상의 영역은 추적된 사용자의 위치 및/또는 스크린 및 사용자 간의 거리에 기반하여 사용자의 시청에 적합한 형태로 분할 될 수 있고, 추적된 사용자의 위는 분할된 영역에 생성되는 3 차원 영상의 옵티멀 뷰잉 존 내에 존재할 수 있다. 따라서, 사용자는 분할된 영역에 생성된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다.
분할된 스크린 상의 영역에 생성되는 3 차원 영상의 콘텐츠는 단계(710)에서 생성된 3 차원 영상의 콘텐츠와 동일할 수 있다.
단계(760)은 도 2를 참조하여 전술된 단계(210)에 대응할 수 있다. 말하자면, 단계들(320, 330 및 220)이 수행됨으로써, 분할된 스크린 상의 영역들에 생성된 3 차원 영상들은 병합될 수 있다.
3 차원 영상의 분할은 사용자의 위치의 변화에 기반하여 자동적으로 수행될 수 있다.
스크린 상의 영역이 복수의 영역들로 분할되는 방법 및 분할된 영역들로 3 차원 영상들이 생성되는 방법에 대해서는 후술될 도 8 내지 도 10을 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 8은 일 예에 따른 영상 처리 방법 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 8의 (a)에는 영상 생성부(110)를 통해 스크린 상의 영역이 2개로 분할된 영역들의 각각에 3 차원 영상 ① 및 3 차원 영상 ②가 사용자 1 및 사용자 2의 시청에 적합하게 생성되는 방법이 도시되었다.
스크린 상의 분할된 영역들에 생성되는 3 차원 영상들은 렌티큘러 렌즈들(810)을 통해 생성될 수 있다. 렌티큘러 렌즈들(810)은 스크린의 크기에 대응할 수 있는 크기의 시트 또는 필름 형태로 제작될 수 있다. 렌티큘러 렌즈들(810)이 포함된 시트 또는 필름은 스크린 또는 디스플레이 패널의 전면에 부착될 수 있다. 렌티큘러 렌즈들(810)은 예컨대, 전자식 능동형 렌티큘러(Electro-Active Lenticular) 렌즈일 수 있다. 전자식 능동형 렌티큘러 렌즈는 전자 액정 렌즈로서, 전자식 능동형 렌티큘러 렌즈의 전자 액정의 분자에 전압이 인가됨에 따라 굴절률이 변화되는 렌즈이다.
도시된 3 차원 영상 ①은 주 영상이다. 또는, 3 차원 영상 ①을 시청하는 사용자 1은 주 사용자이다.
(a)에서 사용자 2는 대해서는 아티팩트의 인식 없이 3 차원 영상 ②를 시청할 수 있으나, 3 차원 영상 ①을 시청하고자 하는 경우 아티팩트를 인식하게 된다. 이때, 지시부(150)는 사용자 2에게 3 차원 영상 ①에 대한 옵티멀 뷰잉 존으로의 이동을 지시한다. 사용자 2가 3 차원 영상 ①에 대한 옵티멀 뷰잉 존으로 이동되는 경우, 3 차원 영상 ① 및 3 차원 영상 ②는 3 차원 영상 ①을 기준으로 병합된다.
말하자면, (b)에서 도시된 것처럼, 사용자 1 및 사용자 2는 아티팩트의 인식 없이 3 차원 영상 ①을 시청할 수 있다.
앞서 도 1 내지 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 9는 일 예에 따른 사용자의 3 차원 영상의 시청을 위한 소기의 위치로의 이동을 지시하는 방법을 나타낸다.
도 9에는 지시부(150)가 스크린 상에 인디케이터를 출력함으로써 사용자 2의 사용자 1과 관련된 3 차원 영상의 시청을 위한 옵티멀 뷰잉 존으로의 이동을 지시하는 방법이 도시되었다.
도시된 사용자 1은 주 사용자이다. 또는, 사용자 1과 관련된 3 차원 영상은 주 영상이다.
사용자 2가 사용자 1과 관련된 3 차원 영상을 시청하고자 하는 경우, 사용자 2는 아티팩트를 인식할 수 있고, 사용자 2는 스크린 상에 출력된 인디케이터(910)를 식별할 수 있다. 사용자 2는 인디케이터(910)에 의한 지시에 따라 이동함으로써, 사용자 1과 관련된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다. 도시된 것처럼, 예컨대, 인디케이터(910)는 사용자 2의 소기의 이동 방향을 지시하는 화살표(arrow)의 형태의 이미지일 수 있다. 인디케이터(910)는 사용자 2의 3 차원 영상의 시청을 방해하지 않도록 반투명으로 스크린 상에 출력될 수 있다.
도시된 것과는 달리 인디케이터(910)는 스크린 상에 출력되지 않고, 사용자 2가 인식할 수 있는 여하한 방식으로 제공될 수 있다. 예컨대, 인디케이터(910)는 LED와 같은 시각적인 방식 또는 음성과 같은 청각적인 방식으로 제공될 수 있다.
앞서 도 1 내지 8을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 10은 일 예에 따른 스크린 상의 분할된 영역들 상에 3 차원 영상들을 생성하는 방법 및 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도시된 것처럼, 복수의 사용자들이 3 차원 영상들을 시청하는 경우, 스크린 상의 분할된 영역들의 각각에 생성되는 3 차원 영상은 각 사용자의 시청에 적합하게 생성될 수 있다. 말하자면, 영상 생성부(110)는 각 사용자의 위치가 각 3 차원 영상의 옵티멀 뷰잉 존 내에 존재하도록 각 3 차원 영상을 생성할 수 있다.
생성된 각 3 차원 영상은 다른 3 차원 영상에 대해 독립적일 수 있다.
영상 생성부(110)는 스크린을 생성되는 3 차원 영상의 콘텐츠, 3 차원 영상을 시청하는 사용자들의 수, 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여, 상이한 형태로 분할할 수 있다. 예컨대, 영상 생성부(110)는 스크린을 3 차원 영상들을 시청하는 사용자들의 수와 동일하게 분할할 수 있다. 또는, 영상 생성부(110)는 3 차원 영상을 시청하는 사용자 및 스크린 간의 거리가 멀수록 3 차원 영상이 생성되는 스크린 상의 영역의 크기를 크게(또는 작게) 분할할 수 있다. 또는, 영상 생성부(110)는 생성되는 3 차원 영상의 콘텐츠의 복잡도가 클수록 3 차원 영상이 생성되는 스크린 상의 영역의 크기를 크게 분할할 수 있다. 또는, 영상 생성부(110)는 사용자의 선택에 기반하여 분할될 스크린 상의 영역들의 개수 및 모양을 결정할 수 있다. 도시된 것처럼, 예컨대, 영상 생성부(110)는 사용자들의 시청에 적합화된 3 차원 영상들을 생성하기 위해 스크린 상의 영역을 가로 또는 세로로 분할할 수 있다. 또는, 영상 생성부(110)는 스크린 상의 영역을 사선으로 분할할 수도 있다.
도 10의 (a)에서는 사용자 3은 주 사용자일 수 있다. 또는, 사용자 3과 관련된 3 차원 영상은 주 영상일 수 있다.
전술된 것처럼, 스크린 상의 3개 이상의 영역들에 생성된 3 차원 영상들은 주 영상 또는 주 사용자와 관련된 3 차원 영상을 기준으로 동시에 또는 순차적으로 병합될 수 있다.
사용자 4 및 사용자 5가 사용자 3과 관련된 3 차원 영상을 시청하고자 하는 경우, 지시부(150)는 사용자 4 및 사용자 5에게 사용자 3과 관련된 3 차원 영상의 옵티멀 뷰잉 존으로의 이동을 지시할 수 있다.
(b)에서 도시된 것처럼, 사용자 4 및 사용자 5가 사용자 3과 관련된 3 차원 영상의 옵티멀 뷰잉 존으로 이동되면, 사용자 4 및 사용자 5와 관련된 3 차원 영상들은 사용자 3과 관련된 3 차원 영상과 병합될 수 있다. 상기 3 차원 영상들의 병합은 사용자 1 및 사용자 2가 시청하는 3 차원 영상들에 대해서는 독립적으로 수행될 수 있다.
앞서 도 1 내지 도 9를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (19)

  1. 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 단계; 및
    상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수의 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 단계
    를 포함하는, 영상 처리 방법.
  2. 제1항에 있어서,
    상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성하는
    영상 처리 방법.
  3. 제1항에 있어서,
    상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 단계를 더 포함하는
    영상 처리 방법.
  4. 제3항에 있어서,
    상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성하는
    영상 처리 방법.
  5. 제4항에 있어서,
    상기 제1 영역과 관련된 영상의 콘텐츠 및 상기 제2 영역과 관련된 영상의 콘텐츠는 동일한, 영상 처리 방법.
  6. 제4항에 있어서,
    상기 제2 영역과 관련된 3 차원 영상이 주 영상인
    영상 처리 방법
  7. 제4항에 있어서,
    상기 제2 영역과 관련된 사용자가 주 사용자인
    영상 처리 방법.
  8. 제2항에 있어서,
    상기 사용자가 상기 소기의 위치에 존재하는지 여부는 상기 사용자에 의한 아티팩트(artifact)의 인식 여부에 따라 결정되는, 영상 처리 방법.
  9. 제3항에 있어서,
    상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 출력함으로써 상기 사용자를 상기 소기의 위치로 이동하도록 지시하는, 영상 처리 방법.
  10. 제1항에 있어서,
    상기 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성하는 영상 처리 방법.
  11. 제1항에 있어서,
    상기 스크린은 상기 3 차원 영상의 콘텐츠, 상기 3 차원 영상을 시청하는 사용자들의 수, 상기 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 상기 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여 상이한 형태로 분할되는, 영상 처리 방법.
  12. 제1항 내지 제11항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  13. 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 사용자 결정부;
    상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수에 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 영상 생성부
    를 포함하는, 영상 처리 장치.
  14. 제13항에 있어서,
    상기 영상 생성부는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성하는, 영상 처리 장치
  15. 제13항에 있어서,
    상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 지시부
    를 더 포함하는, 영상 처리 장치.
  16. 제15항에 있어서,
    상기 영상 생성부는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성하는 영상 처리 장치.
  17. 제16항에 있어서,
    상기 사용자 결정부는 상기 제2 영역과 관련된 3 차원 영상을 주 영상으로 결정하는, 영상 처리 장치.
  18. 제14항에 있어서,
    상기 사용자 결정부는 상기 제2 영역과 관련된 사용자를 주 사용자로 결정하는, 영상 처리 장치.
  19. 제13항에 있어서,
    상기 영상 생성부는 상기 복수의 사용자들 모두 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성하는 영상 처리 장치.
KR1020140113419A 2014-08-28 2014-08-28 영상 처리 방법 및 장치 KR20160025922A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140113419A KR20160025922A (ko) 2014-08-28 2014-08-28 영상 처리 방법 및 장치
US14/624,950 US20160065953A1 (en) 2014-08-28 2015-02-18 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140113419A KR20160025922A (ko) 2014-08-28 2014-08-28 영상 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20160025922A true KR20160025922A (ko) 2016-03-09

Family

ID=55404096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140113419A KR20160025922A (ko) 2014-08-28 2014-08-28 영상 처리 방법 및 장치

Country Status (2)

Country Link
US (1) US20160065953A1 (ko)
KR (1) KR20160025922A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104104934B (zh) * 2012-10-04 2019-02-19 陈笛 无眼镜多观众三维显示的组件与方法
KR20180060559A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 동공 거리 결정 방법 및 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
WO2009083854A2 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Segmentation of image data
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
WO2012015460A1 (en) * 2010-07-26 2012-02-02 Thomson Licensing Dynamic adaptation of displayed video quality based on viewers' context
WO2012144667A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Method and electronic device for gesture recognition
JP2013005135A (ja) * 2011-06-15 2013-01-07 Sony Corp 画像処理装置および方法、並びにプログラム
US20130093752A1 (en) * 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Viewer reactive auto stereoscopic display
KR101180119B1 (ko) * 2012-02-23 2012-09-05 (주)올라웍스 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체
US8890923B2 (en) * 2012-09-04 2014-11-18 Cisco Technology, Inc. Generating and rendering synthesized views with multiple video streams in telepresence video conference sessions
US9671868B2 (en) * 2013-06-11 2017-06-06 Honeywell International Inc. System and method for volumetric computing
US9843792B2 (en) * 2014-04-02 2017-12-12 Telefonaktiebolaget L M Ericsson (Publ) Multi-view display control

Also Published As

Publication number Publication date
US20160065953A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
KR102427854B1 (ko) 영상 렌더링 방법 및 장치
KR102415502B1 (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
CN108351691B (zh) 用于虚拟图像的远程渲染
CN107810463B (zh) 头戴式显示系统和设备以及头戴式显示中产生图像的方法
JP5729915B2 (ja) 多視点映像表示装置、多視点映像表示方法及び記憶媒体
US9393870B2 (en) Volumetric heads-up display with dynamic focal plane
US9934614B2 (en) Fixed size augmented reality objects
US7952808B2 (en) Display system for vehicle and display method
US8294754B2 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
US11244497B2 (en) Content visualizing device and method
US20130222410A1 (en) Image display apparatus
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
US20170102791A1 (en) Virtual Plane in a Stylus Based Stereoscopic Display System
KR20170044953A (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US20200175750A1 (en) Method of outputting three-dimensional image and electronic device performing the method
US11443487B2 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
KR20160025922A (ko) 영상 처리 방법 및 장치
Langlois et al. Virtual head-up displays for augmented reality in cars: a user testing to validate the congruence
US20130265398A1 (en) Three-Dimensional Image Based on a Distance of a Viewer
KR101649660B1 (ko) 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법
TW201441995A (zh) 顯示方法及其立體顯示系統
Lee et al. Eye tracking based glasses-free 3D display by dynamic light field rendering
Yoshikawa et al. Studies of vection field II: a method for generating smooth motion pattern
KR20160002590A (ko) 입체 영상 디스플레이 방법 및 그를 위한 장치
WO2013111267A1 (ja) ヘッドマウントディスプレイ及び表示方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid