KR20160025922A - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20160025922A KR20160025922A KR1020140113419A KR20140113419A KR20160025922A KR 20160025922 A KR20160025922 A KR 20160025922A KR 1020140113419 A KR1020140113419 A KR 1020140113419A KR 20140113419 A KR20140113419 A KR 20140113419A KR 20160025922 A KR20160025922 A KR 20160025922A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- image
- dimensional image
- region
- viewing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000003672 processing method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N2013/40—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
- H04N2013/405—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
Abstract
스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하고 추적의 결과에 기반하여 복수의 영역들의 각각에 3 차원 영상을 생성하고, 상기 복수의 영역들은 복수의 사용자들의 수의 기반하여 스크린을 분할함으로써 형성되는 영상 처리 방법 및 장치가 제공된다.
Description
아래의 실시예들은 영상 처리에 관한 것으로, 스크린 상의 복수의 분할된 영역들에 출력되는 복수의 3 차원 영상들을 처리하는 방법 및 장치에 관한 것이다.
최근 3D 안경과 같은 추가적인 디바이스를 요구하지 않으면서, 사용자에게 3 차원 영상의 시청을 제공할 수 있는 영상 장치들이 개발되고 있다. 예컨대, 영상 장치의 디스플레이 패널의 전면에 위치되는 광학 렌즈에 의해, 영상이 사용자의 좌안에 투사될 영상 및 사용자의 우안에 투사될 영상으로 분리됨으로써 사용자는 3D 안경을 착용하지 않고 3 차원 입체 영상을 인식할 수 있다.
출력되는 3 차원 영상의 입체감은 사용자의 위치에 따라 상이하게 사용자에게 인식될 수 있다. 말하자면, 3 차원 영상이 아티팩트의 인식 또는 혼동(cross talk) 없이 사용자에게 시청되기 위해서는, 사용자는 출력되는 3 차원 영상의 옵티멀 뷰잉 존(optimal viewing zone) 내에 있어야 한다.
출력되는 3 차원 영상을 시청하는 사용자가 복수인 경우, 일부 사용자들은 출력되는 3 차원 영상의 옵티멀 뷰잉 존 내에 존재하지 않을 수 있고, 이러한 사용자들은 출력된 3 차원 영상을 시청함에 있어서 아티팩트를 인식하게 되고 3 차원 영상의 입체감을 제대로 느낄 수 없다.
일 측면에 있어서, 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 단계 및 상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수의 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 단계를 포함하는, 영상 처리 방법이 제공된다.
상기 3 차원 영상을 생성하는 단계는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
상기 영상 처리 방법은 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 단계를 더 포함할 수 있다.
상기 3 차원 영상을 생성하는 단계는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
상기 제1 영역과 관련된 영상의 콘텐츠 및 상기 제2 영역과 관련된 영상의 콘텐츠는 동일할 수 있다.
상기 제2 영역과 관련된 3 차원 영상이 주 영상일 수 있다.
상기 제2 영역과 관련된 사용자가 주 사용자일 수 있다.
상기 사용자가 상기 소기의 위치에 존재하는지 여부는 상기 사용자에 의한 아티팩트(artifact)의 인식 여부에 따라 결정될 수 있다.
상기 소기의 위치로의 이동을 지시하는 단계는 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 출력함으로써 상기 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다.
상기 3 차원 영상을 생성하는 단계는 상기 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성할 수 있다.
상기 스크린은 상기 3 차원 영상의 콘텐츠, 상기 3 차원 영상을 시청하는 사용자들의 수, 상기 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 상기 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여 상이한 형태로 분할될 수 있다.
다른 일 측면에 있어서, 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 사용자 결정부, 상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수에 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 영상 생성부를 포함하는, 영상 처리 장치가 제공된다.
상기 영상 생성부는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성할 수 있다.
상기 영상 처리 장치는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 지시부를 더 포함할 수 있다.
상기 영상 생성부는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성할 수 있다.
상기 사용자 결정부는 상기 제2 영역과 관련된 3 차원 영상을 주 영상으로 결정할 수 있다.
상기 사용자 결정부는 상기 제2 영역과 관련된 사용자를 주 사용자로 결정할 수 있다.
상기 영상 생성부는 상기 복수의 사용자들 모두 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성할 수 있다.
도 1은 일 실시예에 따른 영상 처리 장치를 나타낸다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타낸다.
도 3은 일 예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른 병합된 영역에 3 차원 영상을 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른 스크린 상에 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른 스크린 상에 생성되는 3 차원 영상을 시청하는 복수의 사용자들 중 주 사용자를 결정하는 방법을 나타내는 흐름도이다.
도 7은 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른 영상 처리 방법 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 9는 일 예에 따른 사용자의 3 차원 영상의 시청을 위한 소기의 위치로의 이동을 지시하는 방법을 나타낸다.
도 10은 일 예에 따른 스크린 상의 분할된 영역들 상에 3 차원 영상들을 생성하는 방법 및 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타낸다.
도 3은 일 예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른 병합된 영역에 3 차원 영상을 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른 스크린 상에 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른 스크린 상에 생성되는 3 차원 영상을 시청하는 복수의 사용자들 중 주 사용자를 결정하는 방법을 나타내는 흐름도이다.
도 7은 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른 영상 처리 방법 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 9는 일 예에 따른 사용자의 3 차원 영상의 시청을 위한 소기의 위치로의 이동을 지시하는 방법을 나타낸다.
도 10은 일 예에 따른 스크린 상의 분할된 영역들 상에 3 차원 영상들을 생성하는 방법 및 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 영상 처리 장치를 나타낸다.
도 1에서는, 스크린 상에 생성될 3 차원 영상을 복수의 사용자들의 시청에 적합하게 처리하고 스크린 상의 분할된 영역들에 생성하는 영상 처리 장치(100)가 도시되었다.
사용자의 시청에 적합하게 처리된 3 차원 영상은 소기의 위치에서 사용자가 아티팩트(artifact)의 인식 없이 입체감을 느낄 수 있도록 처리된 영상이다. 소기의 위치는 3 차원 영상을 시청하기 위한 최적의 위치로서 사용자가 아티팩트의 인식 없이 입체감을 느낄 수 있는 위치이다.
영상 처리 장치(100)는 영상 생성부(110), 제어부(120), 사용자 결정부(130) 및 지시부(150)를 포함할 수 있다.
또한, 영상 처리 장치(100)는 스크린으로서 디스플레이 패널을 포함하는 영상 출력부를 더 포함할 수 있다. 영상 출력부의 디스플레이 패널은 복수의 픽셀들을 포함할 수 있다. 예컨대, 영상 출력부는 액정 디스플레이(Liquid Crystal Display; LCD), 플라즈마 디스플레이 패널(Plasma Display Panel; PDP) 장치 또는 유기 발광 다이오드(Organic Light Emitting Diodes; OLED) 디스플레이 장치일 수 있다. 영상 출력부는 영상 생성부(110)에 의해 생성된 영상을 출력할 수 있다.
영상 생성부(110)에 의한 영상의 생성은 영상의 렌더링일 수 있다.
영상 생성부(110)는 스크린에의 생성을 위해 처리된 3 차원 영상의 데이터를 스크린(또는 디스플레이 패널)을 포함하는 디스플레이 장치로 전송하는 장치일 수 있다.
영상 생성부(110)는 복수의 사용자들의 시청에 적합하게 처리된 3 차원 영상을 스크린 상에 생성할 수 있다. 예컨대, 영상 생성부(110)는 복수의 사용자들의 시청에 적합하게 처리된 3 차원 영상(들)을 스크린 상의 분할된 복수의 영역들의 각각에 생성할 수 있다.
또는, 영상 생성부(110)는 각각의 서로 독립적인 3 차원 영상을 스크린 상의 분할된 복수의 영역들의 각각에 생성할 수 있다.
스크린 상의 영역이 복수의 영역들로 분할되는 방법 및 복수의 영역들의 각각으로 3 차원 영상이 생성되는 방법에 대해서는 후술될 도 2 내지 도 10를 참조하여 더 자세하게 설명된다.
제어부(120)는 영상 처리 장치(100)의 구성들(110, 130 및 150 및)을 제어할 수 있다. 제어부(120)는 영상 생성부(110)를 통해 생성될 3 차원 영상을 사용자의 시청에 적합하게 처리할 수 있다. 또는, 제어부(120)는 영상 생성부(110)를 통해 생성될 3 차원 영상을 사용자의 시청에 적합하게 처리하기 위해 요구되는 연산을 수행할 수 있다. 제어부(120)는 상기의 연산을 처리하기 위한 적어도 하나의 프로세서(processor) 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 예컨대, 제어부(120)는 중앙 처리 장치(Central Processing Unit; CPU) 또는 그래픽 처리 장치(Graphics Processing Unit; GPU)일 수 있고, CPU 또는 GPU의 적어도 하나의 코어일 수 있다.
사용자 결정부(130)는 영상 생성부(110)에 의해 생성되는 3 차원 영상을 시청하는 사용자의 위치를 추적할 수 있다. 예컨대, 사용자 결정부(130)는 스크린의 복수의 분할된 영역들에 생성된 3 차원 영상들을 시청하는 복수의 사용자들의 위치를 각각 추적할 수 있다.
사용자 결정부(130)는 예컨대, 사용자의 양안, 얼굴, 몸통 및 다른 부위(body part)의 위치를 추적함으로써 사용자의 위치를 식별할 수 있다.
사용자 결정부(130)는 3 차원 영상을 시청하는 사용자의 위치를 추적 또는 식별하기 위한 여하한 장치로서, 예컨대, 양안 인식 장치 및 위치 감지 센서 중 적어도 하나를 포함할 수 있고, 사용자의 위치를 추적 또는 식별하기 위한 여하한 하나 이상의 센서들을 포함할 수 있다.
영상 생성부(110)는 식별 또는 추적된 복수의 사용자들의 위치에 기반하여, 복수의 사용자들의 각각의 시청에 적합하게 스크린 상의 영역을 복수의 영역들로 분할하고, 분할된 영역들의 각각에 각 사용자의 위치에 기반하여 각 사용자의 시청에 적합화된 처리된 3 차원 영상을 생성할 수 있다.
또한, 사용자 결정부(130)는 사용자의 위치를 추적 또는 식별함으로써, 사용자가 스크린 상의 분할된 영역에 생성된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 소기의 위치는 생성된 3 차원 영상을 사용자가 아티팩트의 인식 없이 시청하기 위한 위치일 수 있다. 말하자면, 소기의 위치는 3 차원 영상의 시청을 위한 옵티멀 뷰잉 존(optimal viewing zone)일 수 있다.
또한, 사용자 결정부(130)는 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들을 시청하는 사용자들 중 주 사용자를 결정할 수 있다. 사용자 결정부(130)가 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법에 대해서는 후술될 도 6을 참조하여 더 자세하게 설명된다.
사용자 결정부(130)는 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들 중 주 영상을 결정할 수 있다. 사용자 결정부(130)가 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법에 대해서는 후술될 도 5를 참조하여 더 자세하게 설명된다.
지시부(150)는 사용자에 대한 영상 생성부(110)를 통해 스크린 상의 분할된 복수의 영역에 생성되는 3 차원 영상을 시청하기 위한 소기의 위치로의 이동을 지시할 수 있다. 예컨대, 사용자 결정부(130)에 의해 결정된 주 사용자가 아닌 다른 사용자가 주 사용자가 시청하는 3 차원 영상을 시청하고자 하는 경우 상기 다른 사용자는 주 사용자가 시청하는 3 차원 영상에 대해 아티팩트를 인식할 수 있다. 이 때, 지시부(150)는 주 사용자가 시청하는 3 차원 영상에 대해 상기 다른 사용자가 아티팩트의 인식 없이 상기 3 차원 영상을 시청할 수 있도록 해주는 소기의 위치로 상기 다른 사용자의 이동을 지시할 수 있다.
또는, 사용자 결정부(130)에 의해 결정된 주 영상을 주 영상이 아닌 다른 3 차원 영상을 시청하는 다른 사용자가 시청하고자 하는 경우 상기 다른 사용자는 주 영상에 대해 아티팩트를 인식할 수 있다. 이 때, 지시부(150)는 상기 다른 사용자를 주 영상을 아티팩트의 인식 없이 시청할 수 있도록 해주는 소기의 위치로의 상기 다른 사용자의 이동을 지시할 수 있다. 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시하는 방법에 대해서는 후술될 도 3 및 도 9를 참조하여 더 자세하게 설명된다.
영상 생성부(110)는 스크린 상의 분할된 복수의 영역들에 생성되는 3 차원 영상들 중 2개 이상의 영상들을 병합할 수 있다. 예컨대, 영상 생성부(110)는 사용자 결정부(130)에 의해 결정된 주 영상 또는 사용자 결정부(130)에 의해 결정된 주 사용자가 시청하는 3 차원 영상을 다른 3 차원 영상과 병합할 수 있다. 영상의 병합은 영상이 생성되는 스크린 상의 영역들 간의 병합일 수 있다. 영상 생성부(110)가 생성된 3 차원 영상들을 병합하여 생성하는 방법에 대해서는 후술될 도 8 내지 10을 참조하여 더 자세하게 설명된다.
상기 구성 요소들(110, 130 및 150) 중 적어도 하나의 기능은 도시된 것과는 달리 단일한 제어부(120)에서 수행될 수 있다. 이때, 제어부(120)는 단일(single) 또는 복수(multi) 칩(chip), 프로세서 또는 코어(core)를 나타낼 수 있다. 이때, 구성요소들(110, 130 및 150) 중 적어도 하나는 제어부(120)에서 수행되는 함수(function), 라이브러리(library), 서비스(service), 프로세스(process), 쓰레드(thread) 또는 모듈(module)을 나타낼 수 있다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
단계(210)에서, 사용자 결정부(130)는 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적할 수 있다. 예컨대, 사용자 결정부(130)는 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들의 각각의 양안을 추적할 수 있다. 또는, 사용자 결정부(130)는 각 사용자의 위치를 추적함으로써 각 사용자의 양안의 위치를 식별하거나, 각 사용자의 양안의 위치를 추적함으로써 각 사용자의 위치를 식별할 수 있다. 사용자 결정부(130)는 동시에 또는 순차적으로 복수의 사용자들의 양안을 추적할 수 있다.
단계(220)에서, 사용자 결정부(130)의 추적의 결과에 기반하여 스크린 상의 복수의 영역들의 각각에 3 차원 영상을 생성할 수 있다. 복수의 영역들은 복수의 사용자들의 수의 기반하여 스크린을 분할함으로써 형성될 수 있다. 영상 생성부(110)는 스크린을 복수의 영역들로 분할하고 분할된 복수의 영역들로 3 차원 영상을 생성한다. 영상 생성부(110)는 스크린을 복수의 사용자들의 수에 기반하여 복수의 영역들로 분할할 수 있고 단계(210)에서의 양안의 추적의 결과에 기반하여 스크린의 분할된 복수의 영역들의 각각으로 복수의 사용자들의 각각의 시청에 적합화된 3 차원 영상을 생성할 수 있다. 예컨대, 영상 생성부(110)는 스크린을 사용자의 수와 동일하게 분할할 수 있다.
복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 서로 간에 독립적일 수 있다. 말하자면, 스크린 상의 분할된 임의의 영역에의 3 차원 영상의 생성은 상기 임의의 영역과는 상이한 스크린 상의 영역에의 3 차원 영상의 생성에 대해 독립적일 수 있다. 예컨대, 복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 서로 동일하거나 상이한 콘텐츠를 포함할 수 있다.
스크린 상의 복수의 영역들의 각각에 생성되는 3 차원 영상들의 각각은 다시점 스테레오 영상일 수 있다.
스크린 상의 각 영역에 생성된 3 차원 영상은 적어도 하나의 사용자와 관련될 수 있다. 예컨대, 스크린 상의 각 영역에 생성된 3 차원 영상은 적어도 하나의 사용자의 시청에 적합하게 생성될 수 있다. 사용자 결정부(130)는 생성되는 3 차원 영상들을 시청하는 복수의 사용자들의 위치를 추적할 수 있고, 추적된 복수의 사용자들의 위치에 기반하여, 영상 생성부(110)는 복수의 사용자들의 각각의 시청에 적합하게 스크린 상의 분할된 영역들로 3 차원 영상들을 생성할 수 있다. 관련된 3 차원 영상의 시청에 있어서, 사용자의 위치는 관련된 3 차원 영상의 시청을 위한 소기의 위치(옵티멀 뷰잉 존) 내에 존재할 수 있고, 사용자는 아티팩트의 인식 없이 관련된 3 차원 영상을 시청할 수 있다.
예컨대, 복수의 3 차원 영상들 중 제1 영상은 스트린 상의 복수의 영역들 중 제1 사용자의 시청에 적합화된 제1 영역에서 생성될 수 있고, 복수의 3 차원 영상들 중 제2 영상은 스트린 상의 복수의 영역들 중 제2 사용자의 시청에 적합화된 제2 영역에서 생성될 수 있다. 이 때, 제1 영상은 제1 사용자와 관련되고, 제2 영상은 제2 사용자와 관련된 것으로 간주될 수 있다.
영상 생성부(110)는 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 복수의 영역들을 형성하지 않고 3 차원 영상을 생성할 수 있다. 말하자면, 영상 생성부(110)는 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존에 존재하는 경우, 분할되지 않은 풀 스크린 상에 3 차원 영상을 생성할 수 있다.
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 3은 일 예에 따른 영상 처리 방법을 나타내는 흐름도이다.
단계(320)에서, 사용자 결정부(130)는 분할된 복수의 영역들에 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 적어도 하나의 사용자가 생성된 3 차원 영상들 중 적어도 하나의 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정한다. 말하자면, 사용자 결정부(130)는 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 적어도 하나의 사용자의 위치를 추적함으로써 상기 적어도 하나의 사용자가 생성된 3 차원 영상들 중 적어도 하나의 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부는 사용자가 현재의 위치에서 상기 3 차원 영상을 시청 할 때 아티팩트가 인식되는지 여부에 따라 결정될 수 있다.
사용자 결정부(130)는 사용자와 관련되지 않은 3 차원 영상을 사용자가 시청하기 위한 소기의 위치에 상기 사용자가 존재하는지 여부를 결정할 수 있다. 예컨대, 사용자 결정부(130)는 전술된 제2 사용자가 제1 영상을 시청하기 위한 소기의 제1 위치에 존재하는지 여부를 결정할 수 있다. 여기서, 제1 사용자가 시청하는 제1 영상이 생성되는 제1 영역 및 제2 사용자가 시청하는 제2 영상이 생성되는 제2 영역은 스크린 상에서 서로 인접한 영역일 수 있다. 소기의 제1 위치는 제2 사용자가 아티팩트의 인식 없이 제1 영상 및 제2 영상을 동시에 시청할 수 있거나, 아티팩트의 인식 없이 제1 영상을 시청할 수 있는 제1 영상의 옵티멀 뷰잉 존일 수 있다.
단계(330)에서, 지시부(150)는 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하지 않으면, 상기 사용자에게 소기의 위치로의 이동을 지시한다. 예컨대, 지시부(150)는 전술된 제2 사용자에 대해 제1 영상의 시청을 위한 소기의 제1 위치로의 이동을 지시할 수 있다. 또는, 지시부(150)는 스크린 상의 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시할 수 있다.
또는, 지시부(150)는 사용자가 도 1을 참조하여 전술된 주 영상을 시청하기 위한 소기의 위치 또는 주 사용자와 관련된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하지 않는 경우, 소기의 위치로 사용자의 이동을 지시할 수 있다. 사용자가 소기의 위치로 이동됨으로써, 사용자는 주 영상 또는 주 사용자와 관련된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다.
지시부(150)는 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 예컨대, 스크린 상에 출력함으로써 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다. 인디케이터는 스크린 상에 출력될 수 있다. 사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상을 시청하고자 하는 경우에 있어서, 인디케이터는 사용자가 현재의 위치에서 주 영상 또는 주 사용자와 관련된 3 차원 영상을 시청할 때 아티팩트가 인식되는 경우 스크린 상에 출력될 수 있다. 인디케이터는 사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상의 시청을 위한 소기의 위치에 위치하는 경우에는 출력되지 않을 수 있다. 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시하는 방법에 대해서는 후술될 도 9를 참조하여 더 자세하게 설명된다.
사용자가 주 영상 또는 주 사용자와 관련된 3 차원 영상의 시청을 위한 소기의 위치에 위치하는 경우 영상 처리 장치(100)의 동작에 대해서는 후술될 도 4를 참조하여 더 자세하게 설명된다.
앞서 도 1 및 도 2를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 4는 일 예에 따른 병합된 영역에 3 차원 영상을 생성하는 방법을 나타내는 흐름도이다.
도 3를 참조하여 전술된 단계(320)에서, 사용자가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 것으로 결정되면, 단계(220)가 수행될 수 있다.
단계(220)에서, 영상 생성부(110)는 사용자가 소기의 위치로 이동되거나 소기의 위치에 존재하는 것으로 결정되면, 스크린 상의 병합된 영역에 3 차원 영상을 생성할 수 있다. 예컨대, 도 2를 참조하여 전술된 제2 사용자가 제1 위치에 존재하거나, 제2 사용자가 제1 위치로 이동되면 제1 사용자와 관련된 제1 영상 및 제2 사용자와 관련된 제2 영상은 병합되어 생성될 수 있다. 말하자면, 사용자가 소기의 위치로 이동되면, 영상 생성부(110)는 제1 영역과 상기 제2 영역의 병합된 영역에 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
또는, 영상 생성부(110)는 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 제1 영역과 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성할 수 있다.
3 차원 영상들이 병합됨에 있어서, 병합되는 3 차원 영상들 간의 콘텐츠는 서로 동일할 수 있다. 예컨대, 병합되는 제1 사용자와 관련된 제1 영상의 콘텐츠 및 제2 사용자와 관련된 제2 영상의 콘텐츠는 서로 동일할 수 있다. 또는, 제1 영역과 관련된 영상의 콘텐츠 및 제2 영역과 관련된 영상의 콘텐츠는 동일할 수 있다.
영상의 병합은 병합 전의 3 차원 영상들이 생성된 영역들이 병합됨으로써 수행될 수 있고, 병합된 영상은 병합 전의 3 차원 영상들이 생성되는 영역들의 병합된 영역에 생성될 수 있다. 예컨대, 제1 영상 및 제2 영상의 병합된 영상은 상기 제1 영역 및 상기 제2 영역이 병합된 영역 상에 생성될 수 있다.
영상의 병합은 병합된 3 차원 영상들을 제외한 스크린 상에 생성되는 다른 3 차원 영상들에 대해 독립적으로 수행될 수 있다. 예컨대, 제1 영상 및 제2 영상의 병합은 제1 영상 및 제2 영상을 제외한 스크린 상의 복수의 영역들의 각각에 생성되는 다른 3 차원 영상에 대해 독립적으로 수행될 수 있다.
스크린 상의 3개 이상의 영역들에 생성된 3 차원 영상들은 동시에 또는 순차적으로 병합될 수 있다.
3 차원 영상들 간의 병합은 사용자의 위치의 변화에 기반하여 자동적으로 수행될 수 있다.
영상 생성부(110)가 영상을 병합하는 방법에 대해서는 후술될 도 8 및 도 10를 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 5는 일 예에 따른 스크린 상에 생성되는 3 차원 영상들 중 주 영상을 결정하는 방법을 나타내는 흐름도이다.
단계(510)에서, 사용자 결정부(130)는 영상 생성부(110)에 의해 스크린 상의 분할된 영역들 상에 생성되는 3 차원 영상들 중 주 영상을 결정한다. 주 영상은 도 3을 참조하여 전술된 단계(330)에서 사용자에게 소기의 위치로의 이동을 지시함에 있어서, 소기의 위치와 관련된 영상일 수 있다. 말하자면, 주 영상은 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시함에 있어서 사용자가 요구하는 시청의 기준이 되는 기준 영상일 수 있다. 말하자면, 단계(320)에서, 사용자 결정부는(130) 사용자가 주 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다.
또한, 주 영상은 도 4를 참조하여 전술된 단계(220)이 3 차원 영상들 간의 병합에 있어서, 병합의 기준이 되는 기준 영상일 수 있다. 말하자면, 영상의 병합은 주 영상 및 적어도 하나의 다른 3 차원 영상 간에 수행될 수 있고, 병합된 영상은 주 영상과 동일한 콘텐츠를 포함할 수 있다. 도 2를 참조하여 전술된 예시에서는, 제1 영상 및 제2 영상 중 제1 영상이 주 영상일 수 있다. 또는, 제1 영역과 관련된 3 차원의 영상 또는 제2 영역과 관련된 3 차원 영상이 주 영상으로서 결정될 수 있다.
도시된 것과는 달리, 단계(510)는 단계(210)가 수행된 후에 수행될 수도 있다. 말하자면, 사용자 결정부(130)는 스크린 상에 생성된 3 차원 영상들 중 주 영상을 결정할 수 있다.
앞서 도 1 내지 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 6은 일 예에 따른 스크린 상에 생성되는 3 차원 영상을 시청하는 복수의 사용자들 중 주 사용자를 결정하는 방법을 나타내는 흐름도이다.
단계(610)에서, 사용자 결정부는(130)는 영상 생성부(110)에 의해 스크린 상의 분할된 영역들 상에 생성된 3 차원 영상들을 시청하는 복수의 사용자들 중 주 사용자를 결정한다. 주 사용자는 도 3을 참조하여 전술된 단계(330)에서 사용자에게 소기의 위치로의 이동을 지시함에 있어서, 소기의 위치가 옵티멀 뷰잉 존인 3 차원 영상과 관련된 사용자일 수 있다. 말하자면, 주 사용자는 지시부(150)가 사용자에게 소기의 위치로의 이동을 지시함에 있어서 사용자가 시청하고자 하는 기준 영상과 관련된 기준 사용자일 수 있다. 말하자면, 단계(320)에서, 사용자 결정부는(130)는 복수의 사용자들 중 주 사용자를 제외한 적어도 하나의 사용자가 주 사용자가 시청하는 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다.
또한, 주 사용자는 도 4를 참조하여 전술된 단계(220)이 3 차원 영상들 간의 병합에 있어서, 병합의 기준이 되는 3 차원 영상과 관련된 기준 사용자일 수 있다. 말하자면, 영상의 병합은 주 사용자와 관련된 3 차원 영상 및 적어도 하나의 다른 3 차원 영상 간에 수행될 수 있고, 병합된 영상은 주 사용자와 관련된 3 차원 영상과 동일한 콘텐츠를 포함할 수 있다. 도 2를 참조하여 전술된 예시에서는, 제1 사용자 및 제2 사용자 중 제1 사용자가 주 사용자일 수 있다. 또는, 제1 영역과 관련된 사용자 또는 제2 영역과 관련된 사용자가 주 사용자로서 결정될 수 있다.
말하자면, 지시부(150)에 의해 이동을 지시 받는 사용자는 주 사용자가 아니다.
앞서 도 1 내지 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 7은 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 7에는 도 1를 참조하여 전술된 영상 처리 장치(100)의 또 다른 실시예의 동작 방법이 도시되었다.
단계(710)에서, 영상 생성부(110)는 스크린 상에 3 차원 영상을 생성할 수 있다. 이 때, 스크린은 복수의 영역들로 분할되지 않고, 3 차원 영상은 스크린 상의 전체의 영역에 생성될 수 있다.
단계(720)에서, 사용자 결정부(130)는 생성된 3 차원 영상을 시청하는 복수의 사용자들 중 적어도 하나의 사용자가 스크린 상에 생성된 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는지 여부를 결정할 수 있다. 예컨대, 사용자 결정부(130)는 사용자의 위치를 추적함으로써, 사용자가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존에 존재하는지 여부를 결정할 수 있다.
단계(730)에서, 지시부(150)는 사용자가 소기의 위치에 존재하지 않으면, 사용자에게 3 차원 영상을 시청하기 위한 상기 소기의 위치로의 이동을 지시할 수 있다. 예컨대, 지시부(150)는 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 스크린 상에 출력함으로써 사용자를 상기 소기의 위치로 이동하도록 지시할 수 있다.
단계(740)에서, 사용자 결정부(130)는 추적된 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상인지 여부를 결정할 수 있다. 상기 거리를 계산함에 있어서, 소기의 위치는 사용자가 3 차원 영상을 시청하기 위한 옵티멀 뷰잉 존의 중심 위치를 의미할 수 있다.
단계(750)에서, 영상 생성부(110)는 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상이면, 스크린을 복수의 영역들로 분할할 수 있다. 스크린은 3 차원 영상을 시청하는 복수의 사용자들의 각각의 3 차원 영상의 시청에 적합한 형태로 분할될 수 있다. 또는, 영상 생성부(110)는 사용자의 이동에 의해 사용자의 위치 및 소기의 위치 간의 거리가 소정의 값 이상이 되면, 스크린을 복수의 영역들로 분할할 수 있다.
단계(760)에서, 영상 생성부(110)는 사용자의 시청에 적합화된 스크린의 분할된 영역에 3 차원 영상을 생성할 수 있다.
예컨대, 스크린 상의 영역은 추적된 사용자의 위치 및/또는 스크린 및 사용자 간의 거리에 기반하여 사용자의 시청에 적합한 형태로 분할 될 수 있고, 추적된 사용자의 위는 분할된 영역에 생성되는 3 차원 영상의 옵티멀 뷰잉 존 내에 존재할 수 있다. 따라서, 사용자는 분할된 영역에 생성된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다.
분할된 스크린 상의 영역에 생성되는 3 차원 영상의 콘텐츠는 단계(710)에서 생성된 3 차원 영상의 콘텐츠와 동일할 수 있다.
단계(760)은 도 2를 참조하여 전술된 단계(210)에 대응할 수 있다. 말하자면, 단계들(320, 330 및 220)이 수행됨으로써, 분할된 스크린 상의 영역들에 생성된 3 차원 영상들은 병합될 수 있다.
3 차원 영상의 분할은 사용자의 위치의 변화에 기반하여 자동적으로 수행될 수 있다.
스크린 상의 영역이 복수의 영역들로 분할되는 방법 및 분할된 영역들로 3 차원 영상들이 생성되는 방법에 대해서는 후술될 도 8 내지 도 10을 참조하여 더 자세하게 설명된다.
앞서 도 1 내지 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 8은 일 예에 따른 영상 처리 방법 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도 8의 (a)에는 영상 생성부(110)를 통해 스크린 상의 영역이 2개로 분할된 영역들의 각각에 3 차원 영상 ① 및 3 차원 영상 ②가 사용자 1 및 사용자 2의 시청에 적합하게 생성되는 방법이 도시되었다.
스크린 상의 분할된 영역들에 생성되는 3 차원 영상들은 렌티큘러 렌즈들(810)을 통해 생성될 수 있다. 렌티큘러 렌즈들(810)은 스크린의 크기에 대응할 수 있는 크기의 시트 또는 필름 형태로 제작될 수 있다. 렌티큘러 렌즈들(810)이 포함된 시트 또는 필름은 스크린 또는 디스플레이 패널의 전면에 부착될 수 있다. 렌티큘러 렌즈들(810)은 예컨대, 전자식 능동형 렌티큘러(Electro-Active Lenticular) 렌즈일 수 있다. 전자식 능동형 렌티큘러 렌즈는 전자 액정 렌즈로서, 전자식 능동형 렌티큘러 렌즈의 전자 액정의 분자에 전압이 인가됨에 따라 굴절률이 변화되는 렌즈이다.
도시된 3 차원 영상 ①은 주 영상이다. 또는, 3 차원 영상 ①을 시청하는 사용자 1은 주 사용자이다.
(a)에서 사용자 2는 대해서는 아티팩트의 인식 없이 3 차원 영상 ②를 시청할 수 있으나, 3 차원 영상 ①을 시청하고자 하는 경우 아티팩트를 인식하게 된다. 이때, 지시부(150)는 사용자 2에게 3 차원 영상 ①에 대한 옵티멀 뷰잉 존으로의 이동을 지시한다. 사용자 2가 3 차원 영상 ①에 대한 옵티멀 뷰잉 존으로 이동되는 경우, 3 차원 영상 ① 및 3 차원 영상 ②는 3 차원 영상 ①을 기준으로 병합된다.
말하자면, (b)에서 도시된 것처럼, 사용자 1 및 사용자 2는 아티팩트의 인식 없이 3 차원 영상 ①을 시청할 수 있다.
앞서 도 1 내지 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 9는 일 예에 따른 사용자의 3 차원 영상의 시청을 위한 소기의 위치로의 이동을 지시하는 방법을 나타낸다.
도 9에는 지시부(150)가 스크린 상에 인디케이터를 출력함으로써 사용자 2의 사용자 1과 관련된 3 차원 영상의 시청을 위한 옵티멀 뷰잉 존으로의 이동을 지시하는 방법이 도시되었다.
도시된 사용자 1은 주 사용자이다. 또는, 사용자 1과 관련된 3 차원 영상은 주 영상이다.
사용자 2가 사용자 1과 관련된 3 차원 영상을 시청하고자 하는 경우, 사용자 2는 아티팩트를 인식할 수 있고, 사용자 2는 스크린 상에 출력된 인디케이터(910)를 식별할 수 있다. 사용자 2는 인디케이터(910)에 의한 지시에 따라 이동함으로써, 사용자 1과 관련된 3 차원 영상을 아티팩트의 인식 없이 시청할 수 있다. 도시된 것처럼, 예컨대, 인디케이터(910)는 사용자 2의 소기의 이동 방향을 지시하는 화살표(arrow)의 형태의 이미지일 수 있다. 인디케이터(910)는 사용자 2의 3 차원 영상의 시청을 방해하지 않도록 반투명으로 스크린 상에 출력될 수 있다.
도시된 것과는 달리 인디케이터(910)는 스크린 상에 출력되지 않고, 사용자 2가 인식할 수 있는 여하한 방식으로 제공될 수 있다. 예컨대, 인디케이터(910)는 LED와 같은 시각적인 방식 또는 음성과 같은 청각적인 방식으로 제공될 수 있다.
앞서 도 1 내지 8을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 10은 일 예에 따른 스크린 상의 분할된 영역들 상에 3 차원 영상들을 생성하는 방법 및 및 병합된 영역에 3 차원 영상을 생성하는 방법을 나타낸다.
도시된 것처럼, 복수의 사용자들이 3 차원 영상들을 시청하는 경우, 스크린 상의 분할된 영역들의 각각에 생성되는 3 차원 영상은 각 사용자의 시청에 적합하게 생성될 수 있다. 말하자면, 영상 생성부(110)는 각 사용자의 위치가 각 3 차원 영상의 옵티멀 뷰잉 존 내에 존재하도록 각 3 차원 영상을 생성할 수 있다.
생성된 각 3 차원 영상은 다른 3 차원 영상에 대해 독립적일 수 있다.
영상 생성부(110)는 스크린을 생성되는 3 차원 영상의 콘텐츠, 3 차원 영상을 시청하는 사용자들의 수, 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여, 상이한 형태로 분할할 수 있다. 예컨대, 영상 생성부(110)는 스크린을 3 차원 영상들을 시청하는 사용자들의 수와 동일하게 분할할 수 있다. 또는, 영상 생성부(110)는 3 차원 영상을 시청하는 사용자 및 스크린 간의 거리가 멀수록 3 차원 영상이 생성되는 스크린 상의 영역의 크기를 크게(또는 작게) 분할할 수 있다. 또는, 영상 생성부(110)는 생성되는 3 차원 영상의 콘텐츠의 복잡도가 클수록 3 차원 영상이 생성되는 스크린 상의 영역의 크기를 크게 분할할 수 있다. 또는, 영상 생성부(110)는 사용자의 선택에 기반하여 분할될 스크린 상의 영역들의 개수 및 모양을 결정할 수 있다. 도시된 것처럼, 예컨대, 영상 생성부(110)는 사용자들의 시청에 적합화된 3 차원 영상들을 생성하기 위해 스크린 상의 영역을 가로 또는 세로로 분할할 수 있다. 또는, 영상 생성부(110)는 스크린 상의 영역을 사선으로 분할할 수도 있다.
도 10의 (a)에서는 사용자 3은 주 사용자일 수 있다. 또는, 사용자 3과 관련된 3 차원 영상은 주 영상일 수 있다.
전술된 것처럼, 스크린 상의 3개 이상의 영역들에 생성된 3 차원 영상들은 주 영상 또는 주 사용자와 관련된 3 차원 영상을 기준으로 동시에 또는 순차적으로 병합될 수 있다.
사용자 4 및 사용자 5가 사용자 3과 관련된 3 차원 영상을 시청하고자 하는 경우, 지시부(150)는 사용자 4 및 사용자 5에게 사용자 3과 관련된 3 차원 영상의 옵티멀 뷰잉 존으로의 이동을 지시할 수 있다.
(b)에서 도시된 것처럼, 사용자 4 및 사용자 5가 사용자 3과 관련된 3 차원 영상의 옵티멀 뷰잉 존으로 이동되면, 사용자 4 및 사용자 5와 관련된 3 차원 영상들은 사용자 3과 관련된 3 차원 영상과 병합될 수 있다. 상기 3 차원 영상들의 병합은 사용자 1 및 사용자 2가 시청하는 3 차원 영상들에 대해서는 독립적으로 수행될 수 있다.
앞서 도 1 내지 도 9를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (19)
- 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 단계; 및
상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수의 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성하는
영상 처리 방법. - 제1항에 있어서,
상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 단계를 더 포함하는
영상 처리 방법. - 제3항에 있어서,
상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된 3 차원 영상을 생성하는
영상 처리 방법. - 제4항에 있어서,
상기 제1 영역과 관련된 영상의 콘텐츠 및 상기 제2 영역과 관련된 영상의 콘텐츠는 동일한, 영상 처리 방법. - 제4항에 있어서,
상기 제2 영역과 관련된 3 차원 영상이 주 영상인
영상 처리 방법 - 제4항에 있어서,
상기 제2 영역과 관련된 사용자가 주 사용자인
영상 처리 방법. - 제2항에 있어서,
상기 사용자가 상기 소기의 위치에 존재하는지 여부는 상기 사용자에 의한 아티팩트(artifact)의 인식 여부에 따라 결정되는, 영상 처리 방법. - 제3항에 있어서,
상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 인디케이터를 출력함으로써 상기 사용자를 상기 소기의 위치로 이동하도록 지시하는, 영상 처리 방법. - 제1항에 있어서,
상기 복수의 사용자들 모두가 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성하는 영상 처리 방법. - 제1항에 있어서,
상기 스크린은 상기 3 차원 영상의 콘텐츠, 상기 3 차원 영상을 시청하는 사용자들의 수, 상기 3 차원 영상을 시청하는 사용자들의 각각 및 상기 스크린 간의 거리 및 상기 3 차원 영상을 시청하는 사용자들의 선택 중 적어도 하나에 기반하여 상이한 형태로 분할되는, 영상 처리 방법. - 제1항 내지 제11항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
- 스크린 상에서 출력되는 3 차원 영상을 시청하는 복수의 사용자들을 추적하는 사용자 결정부;
상기 추적의 결과에 기반하여 복수의 영역들-상기 복수의 영역들은 상기 복수의 사용자들의 수에 기반하여 상기 스크린을 분할하여 형성됨-의 각각에 3 차원 영상을 생성하는 영상 생성부
를 포함하는, 영상 처리 장치. - 제13항에 있어서,
상기 영상 생성부는 상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있는 경우 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성하는, 영상 처리 장치 - 제13항에 있어서,
상기 복수의 영역들 중 제1 영역과 관련된 사용자가 제2 영역의 3 차원 영상을 시청하기 위한 소기의 위치에 있지 않으면 상기 사용자에게 상기 소기의 위치로의 이동을 지시하는 지시부
를 더 포함하는, 영상 처리 장치. - 제15항에 있어서,
상기 영상 생성부는 상기 사용자가 상기 소기의 위치로 이동되면, 상기 제1 영역과 상기 제2 영역의 병합된 영역에 상기 제2 영역과 관련된3 차원 영상을 생성하는 영상 처리 장치. - 제16항에 있어서,
상기 사용자 결정부는 상기 제2 영역과 관련된 3 차원 영상을 주 영상으로 결정하는, 영상 처리 장치. - 제14항에 있어서,
상기 사용자 결정부는 상기 제2 영역과 관련된 사용자를 주 사용자로 결정하는, 영상 처리 장치. - 제13항에 있어서,
상기 영상 생성부는 상기 복수의 사용자들 모두 3 차원 영상을 시청하기 위한 소기의 위치에 존재하는 경우 상기 복수의 영역들을 형성하지 않고 상기 3 차원 영상을 생성하는 영상 처리 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140113419A KR20160025922A (ko) | 2014-08-28 | 2014-08-28 | 영상 처리 방법 및 장치 |
US14/624,950 US20160065953A1 (en) | 2014-08-28 | 2015-02-18 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140113419A KR20160025922A (ko) | 2014-08-28 | 2014-08-28 | 영상 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160025922A true KR20160025922A (ko) | 2016-03-09 |
Family
ID=55404096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140113419A KR20160025922A (ko) | 2014-08-28 | 2014-08-28 | 영상 처리 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160065953A1 (ko) |
KR (1) | KR20160025922A (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104104934B (zh) * | 2012-10-04 | 2019-02-19 | 陈笛 | 无眼镜多观众三维显示的组件与方法 |
KR20180060559A (ko) * | 2016-11-29 | 2018-06-07 | 삼성전자주식회사 | 동공 거리 결정 방법 및 장치 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7626569B2 (en) * | 2004-10-25 | 2009-12-01 | Graphics Properties Holdings, Inc. | Movable audio/video communication interface system |
WO2009083854A2 (en) * | 2007-12-20 | 2009-07-09 | Koninklijke Philips Electronics N.V. | Segmentation of image data |
US8522308B2 (en) * | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
WO2012015460A1 (en) * | 2010-07-26 | 2012-02-02 | Thomson Licensing | Dynamic adaptation of displayed video quality based on viewers' context |
WO2012144667A1 (en) * | 2011-04-19 | 2012-10-26 | Lg Electronics Inc. | Method and electronic device for gesture recognition |
JP2013005135A (ja) * | 2011-06-15 | 2013-01-07 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US20130093752A1 (en) * | 2011-10-13 | 2013-04-18 | Sharp Laboratories Of America, Inc. | Viewer reactive auto stereoscopic display |
KR101180119B1 (ko) * | 2012-02-23 | 2012-09-05 | (주)올라웍스 | 카메라 모듈을 통해 사용자의 머리를 트래킹하여 화면을 제어하는 방법, 제어장치 및 컴퓨터 판독 가능한 기록 매체 |
US8890923B2 (en) * | 2012-09-04 | 2014-11-18 | Cisco Technology, Inc. | Generating and rendering synthesized views with multiple video streams in telepresence video conference sessions |
US9671868B2 (en) * | 2013-06-11 | 2017-06-06 | Honeywell International Inc. | System and method for volumetric computing |
US9843792B2 (en) * | 2014-04-02 | 2017-12-12 | Telefonaktiebolaget L M Ericsson (Publ) | Multi-view display control |
-
2014
- 2014-08-28 KR KR1020140113419A patent/KR20160025922A/ko not_active Application Discontinuation
-
2015
- 2015-02-18 US US14/624,950 patent/US20160065953A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20160065953A1 (en) | 2016-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102427854B1 (ko) | 영상 렌더링 방법 및 장치 | |
KR102415502B1 (ko) | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 | |
CN108351691B (zh) | 用于虚拟图像的远程渲染 | |
CN107810463B (zh) | 头戴式显示系统和设备以及头戴式显示中产生图像的方法 | |
JP5729915B2 (ja) | 多視点映像表示装置、多視点映像表示方法及び記憶媒体 | |
US9393870B2 (en) | Volumetric heads-up display with dynamic focal plane | |
US9934614B2 (en) | Fixed size augmented reality objects | |
US7952808B2 (en) | Display system for vehicle and display method | |
US8294754B2 (en) | Metadata generating method and apparatus and image processing method and apparatus using metadata | |
US11244497B2 (en) | Content visualizing device and method | |
US20130222410A1 (en) | Image display apparatus | |
CN107209565B (zh) | 用于显示固定大小的增强现实对象的方法和系统 | |
US20170102791A1 (en) | Virtual Plane in a Stylus Based Stereoscopic Display System | |
KR20170044953A (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
US20200175750A1 (en) | Method of outputting three-dimensional image and electronic device performing the method | |
US11443487B2 (en) | Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality | |
KR20160025922A (ko) | 영상 처리 방법 및 장치 | |
Langlois et al. | Virtual head-up displays for augmented reality in cars: a user testing to validate the congruence | |
US20130265398A1 (en) | Three-Dimensional Image Based on a Distance of a Viewer | |
KR101649660B1 (ko) | 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법 | |
TW201441995A (zh) | 顯示方法及其立體顯示系統 | |
Lee et al. | Eye tracking based glasses-free 3D display by dynamic light field rendering | |
Yoshikawa et al. | Studies of vection field II: a method for generating smooth motion pattern | |
KR20160002590A (ko) | 입체 영상 디스플레이 방법 및 그를 위한 장치 | |
WO2013111267A1 (ja) | ヘッドマウントディスプレイ及び表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |