KR20120013769A - 영상 처리 방법 및 장치 - Google Patents

영상 처리 방법 및 장치 Download PDF

Info

Publication number
KR20120013769A
KR20120013769A KR1020100075981A KR20100075981A KR20120013769A KR 20120013769 A KR20120013769 A KR 20120013769A KR 1020100075981 A KR1020100075981 A KR 1020100075981A KR 20100075981 A KR20100075981 A KR 20100075981A KR 20120013769 A KR20120013769 A KR 20120013769A
Authority
KR
South Korea
Prior art keywords
subject
distance
information
image
image processing
Prior art date
Application number
KR1020100075981A
Other languages
English (en)
Other versions
KR101690256B1 (ko
Inventor
한희철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100075981A priority Critical patent/KR101690256B1/ko
Priority to US13/104,101 priority patent/US9282317B2/en
Publication of KR20120013769A publication Critical patent/KR20120013769A/ko
Application granted granted Critical
Publication of KR101690256B1 publication Critical patent/KR101690256B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

영상을 획득하고, 영상의 입체감 정도를 나타내는 3차원 디스패리티 정보를 생성하고 이를 출력하는 영상 처리 방법 및 장치가 개시된다.

Description

영상 처리 방법 및 장치{Method and apparatus for processing image}
본 발명은 영상 처리 방법 및 장치에 대한 것으로, 보다 구체적으로 영상의 입체감 정도를 나타내는 정보를 생성하고 이를 출력하는 영상 처리 방법 및 장치에 대한 것이다.
디지털 기술의 발달로 영상을 3차원으로 이용하는 기술이 널리 보급되고 있다.
사람의 눈은 가로 방향으로 소정 거리만큼 떨어져 있으므로 좌안과 우안이 보는 영상이 서로 다르다. 좌안과 우안이 보는 영상의 차이를 양안시차라 한다. 뇌는 서로 다른 두 개의 2차원 영상, 즉, 좌안이 보는 좌안용 영상과 우안이 보는 우안용 영상을 융합하여 원근감과 실재감이 있는 3차원 영상을 생성한다.
3D 카메라는 사람의 두 눈에 보이는 영상의 차이를 반영하는 두 장의 영상을 생성한다. 사람은 좌안 및 우안으로 3D 카메라가 생성한 좌안용 영상과 우안용 영상을 각각 봄으로써 영상을 3차원으로 인식하게 된다.
본 발명은 영상의 입체감 정도를 표시하는 정보를 생성하는 영상 처리 방법 및 장치를 제공하기 위한 것이다.
상기 과제를 해결하기 위해 발명의 일 측면에 따르면, 영상을 획득하는 단계; 상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 단계; 및 상기 3차원 정보를 출력하는 단계를 포함하는 영상 처리 방법을 제공할 수 있다.
바람직한 실시 예에서, 상기 영상은 제1 피사체에 포커싱이 맞추어져 있고, 상기 3차원 정보를 생성하는 단계는 상기 제1 피사체까지의 거리를 구하는 단계;
상기 영상에 대한 깊이 정보를 구하는 단계; 및 상기 제1 피사체까지의 거리 및 상기 깊이 정보를 이용하여 상기 3차원 정보를 생성하는 단계를 포함 할 수 있다. 또한, 상기 제1 피사체까지의 거리를 구하는 단계는 적외선이나 초음파 중 하나를 상기 제1 피사체에 방출하고, 상기 제1 피사체로부터 반사된 파를 이용하여 상기 제1 피사체까지의 거리를 구하는 단계를 포함 할 수 있다.
또한, 상기 영상에는 제2 피사체를 가리키는 AF포인트가 표시되고, 상기 깊이 정보를 구하는 단계는 상기 AF 포인트가 가리키는 상기 제2 피사체까지의 거리를 구하는 단계를 포함 할 수 있다. 또한, 상기 제2 피사체까지의 거리를 구하는 단계는 적외선이나 초음파 중 하나를 상기 제2 피사체에 방출하고, 상기 제2피사체로부터 반사된 파를 이용하여 상기 제2 피사체까지의 거리를 구하는 단계를 포함 할 수 있다. 또한, 상기 깊이 정보를 구하는 단계는 상기 영상에 대한 뎁쓰 맵을 생성하는 단계; 및 상기 뎁쓰 맵을 이용하여, 상기 영상에 잡힌 제2 피사체까지의 거리를 구하는 단계를 포함 할 수 있다.
또한, 상기 제2 피사체까지의 거리를 구하는 단계는 상기 뎁쓰 맵을 구성하는 픽셀의 명도를 이용하여 상기 제2 피사체까지의 거리를 구하는 단계를 포함 할 수 있다. 또한, 상기 제1 피사체까지의 거리 및 상기 깊이 정보를 이용하여 상기 3차원 정보를 생성하는 단계는 상기 제1 피사체와 상기 제2 피사체 사이의 거리가 제1 기준 범위 이내인 정도를 나타내는 제1 확률 및 상기 제1 피사체까지의 거리와 상기 제2 피사체까지의 거리가 제2 기준 범위 이내인 정도를 나타내는 제2확률 중 하나 이상을 구하는 단계; 상기 구해진 하나 이상의 확률에 가중치를 부여하는 단계; 및 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계를 포함 할 수 있다.
또한, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률을 표시하는 그래프를 상기 3차원 정보로 생성하는 단계를 포함 할 수 있다. 또한, 상기 영상에는 상기 제1 피사체에 포커싱이 맞추어짐을 표시하는 정보가 제1 색상으로 표시되고, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 상기 제1 색상과 다른 제2 색상으로 상기 포커싱이 맞추어짐을 표시하는 정보를 상기 3차원 정보로 생성하는 단계를 포함 할 수 있다.
또한, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 이를 알리는 오디오 신호를 상기 3차원 정보로 생성하는 단계를 포함 할 수 있다. 또한, 포커싱이 맞추어진 상기 제1 피사체를 중심으로 상기 제1 피사체의 위 및 아래 방향으로 화살표를 표시하는 단계를 더 포함 할 수 있다. 또한, 상기 제1 기준 범위를 사용자로부터 설정받는 단계를 더 포함 할 수 있다. 또한, 상기 방법은 상기 제2 기준 범위를 사용자로부터 설정받는 단계를 더 포함 할 수 있다.
발명의 다른 측면에 따르면, 영상을 획득하는 영상 획득부; 상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 3차원 정보 생성부; 및 상기 3차원 정보를 출력하는 출력부를 포함하는 영상 처리 장치를 제공할 수 있다.
발명의 또 다른 측면에 따르면 영상을 획득하는 단계; 상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 단계; 및 상기 3차원 정보를 출력하는 단계를 포함하는 영상 처리 방법을 실행하기 위한 프로그램을 저장한 컴퓨터로 판독 가능한 기록 매체를 제공할 수 있다.
발명의 실시 예에 따르면 영상의 입체감 정도를 표시하는 정보를 생성하는 영상 처리 방법 및 장치를 제공할 수 있다.
도 1은 피사체를 촬영할 때 피사체의 거리와 광각의 관계를 설명하기 위한 도면이다.
도 2는 복수의 피사체를 촬영하는 경우, 피사체 간 거리에 따라 입체감이 달라지는 것을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 영상 처리 장치의 내부 블록도이다.
도 4는 발명의 실시 예에 따라, 도 3의 영상 처리 장치(300)가 뷰파인더에 표시된 AF 포인트를 이용하여 피사체까지의 거리를 구하는 것을 설명하기 위한 도면이다.
도 5는 발명의 실시 예에 따라, 도 3의 영상 처리 장치(300)가 뎁쓰 맵을 이용하여 피사체까지의 거리를 구하는 것을 설명하기 위한 도면이다.
도 6은 발명의 실시 예에 따라 영상에 출력된 3차원 정보를 도시한 도면이다.
도 7은 발명의 실시 예에 따른 영상 처리 방법을 도시한 순서도이다.
도 8은 도 7의 단계 720에 따른 영상 처리 방법의 일 실시 예를 도시한 순서도이다.
도 9는 도 8의 단계 830에 따른 영상 처리 방법의 일 실시 예를 도시한 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명하기로 한다.
도 1은 피사체를 촬영할 때 피사체의 거리와 광각의 관계를 설명하기 위한 도면이다. 도 1에 도시된 직사각형은 사용자가 사진을 찍거나 초점을 맞추기 위해 들여다보는 뷰파인더(viewfinder)를 나타낸다. a와 b는 각각 뷰파인더의 가로 및 세로 길이를 나타내고 d는 뷰파인더의 대각선 길이를 나타낸다. l은 카메라와 피사체까지의 거리를 나타내고, Θ는 광각을 나타낸다.
여기서, tan(Θ/2)=[d/2]/l이 되고, Θ=2*tan-1(d/(2*l))가 된다. d가 6.6cm인 경우, l과 Θ의 관계를 표로 나타내면 아래와 같다.
l 25cm 1m 2m 3m 5m 10m
Θ 15.04° 3.78° 1.89° 1.26° 0.756° 0.378°
표 1에서 볼 수 있듯이 피사체가 카메라에 가까이 있을수록 광각은 커진다. 광각이 커지면 두 눈은 피사체를 보기 위해 가운데로 몰리게 된다. 광각이 일정한 각도 이상으로 커지게 되면 뇌는 좌안용 영상과 우안용 영상에 포함된 물체를 동일 물체로 인식하지 못하게 된다. 사람마다 차이가 있지만 일반적으로 광각이 2°이상인 경우에는 뇌의 합성 한계를 벗어나게 되어 사람이 어지러움을 느끼게 된다.
반대로 피사체가 카메라로부터 소정 거리 이상 멀어져 광각이 소정 각 이하로 작아지게 되면 피사체를 바라보는 두 눈의 시선이 평행에 가까워져 사람은 피사체를 3차원이 아닌 2차원으로 인식하게 된다.
즉, 카메라로부터 피사체까지의 거리가 지나치게 가깝거나 먼 경우 입체감 있는 영상을 생성하기가 어려워진다.
일반적으로 사용자는 카메라로부터 어느 정도의 거리에 피사체가 있어야 입체감이 큰 3차원 영상이 생성되는지를 잘 알지 못한다. 따라서, 발명의 실시 예에서, 피사체가 보다 입체감 있게 촬영되는 소정 범위의 거리 이내에 피사체가 위치하는지를 나타내는 정보를 카메라가 생성하고 이를 사용자에게 알려줄 수 있다. 사용자는 카메라가 알려주는 정보를 이용하여 카메라로부터 피사체까지의 거리를 조절함으로써 의도하는 정도의 입체감을 갖는 영상이 생성되도록 할 수 있다.
피사체가 보다 입체감 있게 촬영되는 거리 범위는 발명의 실시 예로, 1m에서 10m가 될 수 있다. 그러나 이는 실시 예에 불과하며, 피사체가 입체감 있게 촬영되는 거리 범위는 사용자마다 느끼는 정도가 다르므로, 발명의 실시 예에서, 사용자는 피사체가 보다 입체감 있게 촬영되는 거리 범위를 직접 설정할 수도 있다.
도 2는 복수의 피사체를 촬영하는 경우, 피사체 간 거리에 따라 입체감이 달라지는 것을 설명하기 위한 도면이다.
물체를 다른 물체나 배경과 구별할 수 있게 만들어 주는 시각적인 특성의 차이를 콘트라스트(contrast)라 한다. 콘트라스트는 한 물체와 다른 물체의 색과 밝기의 차이 등으로 결정될 수 있다.
콘트라스트는 한 물체와 다른 물체의 깊이감 차이로도 결정될 수 있다. 예컨대, 사람의 시선 방향으로 소정 거리만큼 떨어져 있는 복수의 피사체들을 촬영하여 영상을 생성할 때, 피사체들 사이의 거리에 따라 콘트라스트가 결정될 수 있다. 이하, 발명의 실시 예에서, 피사체의 뎁쓰(depth)에 따른 콘트라스트를 디스패리티(disparity) 컨트라스라 부르기로 한다.
도 2의 (a)에는 사람의 시선 방향에 따라 서로 다른 깊이감을 갖는 세 개의 피사체들이 나열되어 있다. 이 때 피사체들 사이의 거리에 따라 사용자가 느끼는 입체감은 달라지게 된다. 즉, 사용자는 피사체들 사이의 거리가 일정한 범위 이내에 있는 경우 피사체들이 서로 다른 깊이감을 갖는다는 것을 보다 잘 느끼게 된다.
도 2의 (b)는 도 2의 (a)보다 피사체들 사이의 거리가 더 가까운 경우를 도시하고, 도 2의 (c)는 도 2의 (a)보다 피사체들 사이의 거리가 더 먼 경우를 도시한다. 피사체들 사이의 거리가 일정한 기준 범위보다 더 가까운 경우, 사용자는 세 개의 피사체들 간의 깊이감 차이, 즉, 디스패리티 컨트라스트를 잘 인식하지 못하게 된다. 또한, 피사체들 사이의 거리가 일정한 기준 범위보다 더 먼 경우에도 사용자는 세 개의 피사체들 간의 디스패리티 컨트라스트를 또한 잘 인식하지 못하게 된다.
일반적으로 사용자는 피사체들 사이의 거리가 어느 정도의 범위에 있어야 입체감이 큰 3차원 영상이 생성되는지를 잘 알지 못한다. 따라서, 발명의 실시 예에서 카메라는 피사체들 사이의 거리가 어느 정도가 되어야 입체감이 큰 영상이 생성되는지를 사용자에게 알려준다. 이를 위해 카메라는, 피사체들 사이의 거리가, 피사체들이 보다 입체감 있게 촬영되기 위한 소정 범위에 포함되는지를 나타내는 정보를 생성하고 이를 출력한다. 사용자는 카메라가 알려주는 정보를 이용하여 피사체들 사이의 거리를 조절함으로써 의도하는 정도의 입체감을 갖는 영상이 생성되도록 할 수 있다.
피사체들이 보다 입체감 있게 느껴지기 위한 피사체들 사이의 거리 범위는 사용자에 따라 달라질 수 있다. 따라서 발명의 실시 예에서, 사용자는 피사체가 보다 입체감 있게 느껴지는, 피사체들 사이의 거리 범위를 직접 설정할 수도 있다.
도 3은 발명의 일 실시 예에 따른 영상 처리 장치의 내부 블록도이다. 도 3을 참조하면, 영상 처리 장치(300)는 제어부(310), 유저 인터페이스(320), 영상 획득부(330), 출력부(340) 및 3차원 정보 생성부(350)를 포함한다.
영상 처리 장치(300)는 피사체를 촬영하는 기기로, 캠코더, 카메라 또는 카메라 기능이 있는 PDA, PMP, 핸드폰, 스마트폰, 네비게이션등이 될 수 있고, UMPC(Ultra Mobile PC)를 포함한 노트북 등이 될 수도 있다.
유저 인터페이스(320)는 사용자로부터의 명령, 문자, 숫자 또는 음성 정보 등을 받고 이를 제어부(310)에 알린다.
제어부(310)는 사용자의 요청에 따라, 영상 처리 장치(300)의 전반적인 동작을 제어하여 3차원 영상 정보가 생성되도록 한다. 제어부(310)는 계산을 수행하기 위한 ALU(Arithmetic Logic Unit), 데이터 및 명령어의 일시적인 저장을 위한 레지스터를 포함한다.
영상 획득부(330)는 렌즈 등을 포함하며 피사체에 대한 영상을 획득한다. 영상 획득부(330)는 획득된 영상을 출력부(340)로 보낸다. 사용자가 획득된 영상을 촬영할 것을 요청하면, 영상 획득부(330)는 획득된 영상을 찍어 사진이나 동영상 등의 미디어 신호를 생성한다.
발명의 실시 예에서, 영상 획득부(330)는 오토포커스(Autofocus, AF) 기능을 수행할 수 있다. AF 기능은 피사체에 대한 초점을 자동으로 조절하는 기능으로, AF 기능은 적외선을 이용한 방식, 피사체의 위상차를 이용한 방식, 컨트라스트를 검출하는 방식 등을 이용하여 수행될 수 있다.
출력부(340)는 영상 처리 장치(300)의 전반적인 상태나 사용자가 유저 인터페이스(320)를 통해 입력한 정보 등을 출력한다. 출력부(340)는 미디어 신호 중 동영상이나 사진 등의 비디오 신호를 출력하는 뷰파인더(미도시)를 포함할 수 있다. 사용자는 사진을 촬영하거나 초점을 맞추기 위해 출력부(340)에 포함된 뷰파인더를 들여다 볼 수 있다. 출력부(340)는 뷰파인더 외에 오디오 신호를 출력하는 스피커(미도시) 등을 더 포함할 수도 있으며, 사용자 단말 제어 목록 등을 생성하고 이를 출력하는 OSD 처리부(미도시)를 포함할 수도 있다.
영상 획득부(330)가 AF 기능을 수행하여 초점을 맞추는 경우, 뷰파인더에는 AF 기능을 수행하기 위한 포인트들이 표시될 수 있다. AF 기능은 주로 뷰파인더의 중앙부분에 초점이 맞도록 조절하지만, 복수의 AF포인트들을 이용하여 초점을 맞추는 기능도 수행할 수 있다.
3차원 정보 생성부(350)는 발명의 실시 예에 따라 3차원 정보를 생성한다. 3차원 정보는 피사체들 간의 디스패리티 컨트라스트, 및/또는 피사체가 일정한 광각 범위 이내에 존재하는지를 표시하여 영상의 3차원 입체감 정도를 나타내는 정보로 출력부(340)를 통해 보이는 피사체까지의 거리를 이용하여 구해진다.
3차원 정보 생성부(350)는 포커싱이 맞추어진 피사체까지의 거리를 구한다. 이하, 포커싱이 맞추어진 피사체를 제1 피사체라 부르고, 영상에 잡힌 피사체 중 제1 피사체를 제외한 피사체를 제2 피사체라 부르기로 한다.
발명의 실시 예에서, 3차원 정보 생성부(350)는 제1 피사체까지의 거리를 구하기 위해 적외선이나 초음파 중 하나를 제1 피사체에 방출하고, 제1 피사체로부터 반사된 파를 이용하여 제1 피사체까지의 거리를 구할 수 있다.
영상 획득부(330)가 적외선 AF 기능을 수행하여 초점을 맞추는 경우, 3차원 정보 생성부(350)는 포커싱이 맞추어진 제1 피사체에 적외선을 방출하고, 제1 피사체로부터 반사된 적외선을 이용하여 제1 피사체까지의 거리를 구할 수도 있다.
3차원 정보 생성부(350)는 영상에 대한 깊이 정보를 구한다. 3차원 정보 생성부(350)는 영상에 대한 깊이 정보를 구하기 위해 3D Depth sensor를 이용하거나 스테레오 매칭(stereo matching) 기법을 이용하여 뎁쓰 맵(depth map)을 생성할 수 있다. 뎁쓰 맵은 뎁쓰 이미지(depth image)라고도 불린다.
3D Depth sensor를 이용하는 방식은 IR이나 레이저 등을 영상에 잡힌 피사체에 방출하고, 피사체로부터 돌아오는 시간을 측정하여 피사체까지의 거리를 구하는 방식이다. 스테레오 매칭 기법은 좌안용 영상과 우안용 영상의 벌어진 정도를 이용해서 영상에 잡힌 피사체까지의 거리를 측정하는 방식이다.
3차원 정보 생성부(350)는 뎁쓰 맵을 구성하는 픽셀의 명도를 이용하여 영상에 잡힌 제2 피사체를 식별할 수 있다. 발명의 실시 예로, 3차원 정보 생성부(350)는 뎁쓰 맵을 세그멘테이션하여 제2피사체를 식별하고, 제2 피사체에 대응하는 뎁쓰 맵의 픽셀 명도를 이용하여 제2 피사체까지의 거리를 구할 수 있다. 다른 실시 예로, 3차원 정보 생성부(350)는 뎁쓰 맵의 기 지정된 지점에 있는 픽셀들의 명도를 이용하여 제2 피사체까지의 거리를 구할 수도 있다.
3차원 정보 생성부(350)는 뎁쓰 맵을 생성하는 대신, AF 포인트를 이용하여 제2 피사체까지의 거리를 구할 수도 있다. 영상 획득부(330)가 적외선을 이용한 AF 기능을 수행하는 경우, 출력부(340)에 포함된 뷰파인더에는 복수의 AF 포인트들이 표시될 수 있다. 3차원 정보 생성부(350)는 뷰파인더에 표시된 복수의 AF포인트들이 가리키는 제2 피사체에 적외선을 방출하고, 제2 피사체로부터 반사된 적외선을 이용하여 AF 포인트가 가리키는 피사체까지의 실제 거리를 구할 수 있다. 이 경우, 3D Depth sensor를 이용하거나 스테레오 매칭 기법을 이용하는 것보다 적은 연산량을 이용하여 제2 피사체까지의 거리를 구할 수 있다.
3차원 정보 생성부(350)는 제1 피사체까지의 거리와 제2 피사체까지의 거리를 이용하여 3차원 정보를 생성한다. 3차원 정보 생성부(350)는 제1 피사체까지의 거리와 제2 피사체까지의 거리를 이용하여 제1 피사체와 제2 피사체 사이의 거리를 구한다. 3차원 정보 생성부(350)는 제1 피사체와 제2 피사체 사이의 거리 차이, 즉, 제1 피사체와 제2 피사체의 디스패리티 컨트라스트가, 제1 기준 범위 이내인 정도를 나타내는 확률을 구할 수 있다. 이하, 제1 피사체와 제2 피사체의 디스패리티 컨트라스트가 소정 기준 범위 이내인 정도를 나타내는 확률을 제1 확률이라 부르기로 한다.
3차원 정보 생성부(350)는 제1 피사체까지의 거리와 제2 피사체까지의 거리를 이용하여, 제1 피사체 및 제2 피사체 모두 제2 기준 거리의 범위 이내에 위치하는지를 나타내는 확률을 구할 수 있다. 이하, 영상에 잡힌 모든 피사체, 즉, 제 1피사체 및 제2 피사체까지의 거리가 모두 제2 기준 거리 범위 이내에 위치하는지를 나타내는 확률을 제2 확률이라 부르기로 한다.
3차원 정보 생성부(350)는 제1 확률 및 제2 확률 중 하나 이상을 이용하여 3차원 정보를 생성할 수 있다. 3차원 정보 생성부(350)는 제1 확률 및 제2 확률 중 하나 이상에 소정의 가중치(가중치는 양의 실수)를 부여하고, 가중치가 부여된 확률을 이용하여 3차원 정보를 생성할 수도 있다.
이 경우, 3차원 정보 생성부(350)에 의해 생성된 3차원 정보는 일 실시 예로 아래 수학식 1과 같이 구해질 수 있다.
Figure pat00001
여기서, A는 3차원 정보를 수치로 나타낸 값이고, P는 제1 확률, B는 제2 확률을 나타낸다. 또한 α와 β는 각각 가중치를 나타낸다.
3차원 정보 생성부(350)는 생성된 3차원 정보를 출력부(340)로 보낸다. 출력부(340)는 영상 획득부(330)로부터 받은 영상과 함께 3차원 정보를 출력할 수 있다. 출력부(340)는 영상 위에, 3차원 정보를 표시하는 그래프를 오버레이하여 출력할 수 있다. 또는 출력부(340)는 AF 포인트 색상을 원래 색상과 다른 색상으로 하여 영상의 입체감 정도를 표시할 수 있다. 예컨대, AF 포인트 색상이 원래 초록색인 경우, 출력부(340)는 3차원 정보가 일정한 기준 값(threshold)을 넘지 못하는 경우, 즉, 영상의 3차원 입체감 정도가 좋지 않은 경우, AF 포인트 색상을 빨강색으로 표시하여 사용자에게 3차원 입체감 정도를 인지시킬 수 있다.
또는 출력부(340)는 영상의 3차원 입체감 정도가 좋지 않은 경우, 일정한 오디오 신호를 출력하여 영상의 입체감 정도를 사용자에게 이를 인지시킬 수도 있다.
사람마다 3차원 입체감을 인지하는 정도는 다를 수 있다. 따라서, 발명의 실시 예에서, 사용자는 유저 인터페이스(320)를 이용하여 제1 확률을 구하기 위한 제1 기준 범위를 직접 설정할 수 있다. 또한, 사용자는 유저 인터페이스(320)를 이용하여 제2 확률을 구하기 위한 제2 기준 범위를 직접 설정할 수도 있다. 또한 사용자는 유저 인터페이스(320)를 이용하여, 제1 확률 및 제2 확률을 함께 이용하여 구해진 3차원 정보 값이 기준 값(threshold)을 넘는지를 판단하기 위한 기준 값을 직접 설정할 수도 있다.
이와 같이 발명의 실시 예에 의하면, 영상 처리 장치(300)는 피사체까지의 거리 및 피사체간 거리를 이용하여 영상의 입체감 정도를 표시하는 3차원 정보를 생성할 수 있다. 또한 발명의 실시 예에 의하면, 영상 처리 장치(300)는 3차원 정보를 뷰파인더 위에 출력하거나 오디오 신호 등으로 출력하여 사용자에게 3차원 입체감 정도를 인지시킬 수 있다.
도 4는 발명의 실시 예에 따라, 뷰파인더에 표시된 AF 포인트를 이용하여 영상 처리 장치(300)가 피사체까지의 거리를 구하는 것을 설명하기 위한 도면이다.
도 4를 참조하면, 뷰파인더에는 영상(400)이 도시되어 있고, 영상(400)에는 복수의 AF 포인트들(410, 420)들이 표시되어 있다. 사용자는 뷰파인더의 중앙부분에 위치한 AF 포인트(410)를 이용하여 제1 피사체에 초점을 맞출 수 있다.
영상 처리 장치(300)가 적외선을 이용한 AF 기능을 수행하는 경우, 영상 처리 장치(300)는 영상(400) 위에 표시된 복수의 AF 포인트들(410, 420)을 이용하여 제1 피사체까지의 거리 및 제2 피사체까지의 거리를 구할 수 있다.
이를 위해 영상 처리 장치(300)는 뷰파인더에 표시된 복수의 AF 포인트들(410, 420)이 가리키는 지점에 적외선을 방출하고, 반사된 적외선을 이용하여 AF 포인트가 가리키는 지점까지의 거리를 구할 수 있다.
영상 처리 장치(300)는 제1 피사체까지의 거리 및 제2 피사체까지의 거리를 이용하여 3차원 정보를 생성할 수 있다.
도 5는 발명의 실시 예에 따라, 도 3의 영상 처리 장치(300)가 뎁쓰 맵을 이용하여 피사체까지의 거리를 구하는 것을 설명하기 위한 도면이다.
도 5를 참조하면, 영상 처리 장치(300)는 영상에 대한 깊이 정보를 구하기 위해 3D Depth sensor를 이용하거나 스테레오 매칭 기법을 이용하여 뎁쓰 맵을 생성할 수 있다. 뎁쓰 맵은 명도를 이용하여 거리 정보를 표현하는 영상으로, 피사체의 원근에 따라 0에서 255 사이의 그레이 레벨로 표현될 수 있다. 뎁쓰 맵은 피사체가 사용자 방향으로 돌출될수록 하얀색으로 표시되고, 사용자에게 멀리 있을 수록 검은색으로 표시된다.
3차원 정보 생성부(350)는 뎁쓰 맵을 구성하는 픽셀의 명도를 이용하여 영상에 잡힌 피사체들을 식별할 수 있다. 도 5의 (a)와 도 5의 (b)는 두 명의 사람, 즉, 두 피사체가 포함된 영상에 대해 각각 생성된 뎁쓰 맵을 도시한다.
도 5의 (a)와 도 5의 (b) 모두 두 개의 피사체가 배경과는 다른 명도를 가지고 있음을 알 수 있다. 3차원 정보 생성부(350)는 뎁쓰 맵의 픽셀 명도를 이용하여 두 개의 피사체를 식별할 수 있다. 또한, 3차원 정보 생성부(350)는 식별된 피사체의 픽셀 명도를 이용하여 피사체까지의 실제 거리를 구할 수 있다.
도 5의 (a)에는 두 피사체의 명도가 다르게 표시되어 있고, 도 5의 (b)에는 두 피사체의 명도가 동일하게 표시되어 있음을 알 수 있다. 이는 도 5의 (b)의 뎁쓰 맵에 포함된 두 피사체 간에는 거리 차이가 없고, 도 5의 (a)의 뎁쓰 맵에 포함된 두 피사체 간에는 소정 거리만큼 차이가 있음을 나타낸다.
3차원 정보 생성부(350)는 두 피사체들 중, 포커싱이 맞추어진 피사체를 식별하고, 포커싱이 맞추어진 피사체까지의 거리와, 나머지 피사체까지의 거리를 이용하여 3차원 정보를 생성할 수 있다.
도 6은 발명의 실시 예에 따라 영상에 출력된 3차원 정보를 도시한 도면이다.
발명의 실시 예로, 영상 처리 장치(300)는 3차원 정보를 이용하여 그래프(620)를 생성하고 이를 출력부(304)에 표시할 수 있다. 도 6의 그래프(620)는 빗금으로 표시된 부분의 비율이 영상의 3차원 입체감 정도를 나타낼 수 있다. 즉, 3차원 정보가 최대 값을 갖는 경우 그래프(620) 전체가 빗금으로 표시되게 된다.
발명의 실시 예로, 영상 처리 장치(300)는 영상의 3차원 입체감 정도를 오디오 신호로 출력할 수도 있다. 즉, 3차원 정보의 값이 소정 기준치를 넘지 못하는 경우, 즉, 영상의 3차원 입체감 정도가 낮은 경우, 영상 처리 장치(300)는 기 정해진 오디오 신호를 출력할 수 있다.
발명의 실시 예로, 영상 처리 장치(300)는 3차원 정보 값이 소정 기준치를 넘지 못하는 경우, AF 포인트 지점의 색상을 원래 색상과 다른 색상으로 출력할 수도 있다.
발명의 실시 예로, 영상 처리 장치(300)는 포커싱이 맞추어진 지점을 표시하기 위한 정보를 더 출력할 수도 있다. 도 6에서 포커싱이 맞추어진 지점을 표시하기 위한 정보로 화살표(610)가 도시되어 있다. 사용자는 화살표(610)를 이용하여, 포커싱이 맞추어진 지점을 인지하고, 그 지점의 아래에 있는 영상은 앞으로 돌출되고, 그 지점의 위에 있는 영상은 뒤로 들어가는 입체감을 갖게 됨을 인지할 수 있다.
이와 같이, 사용자는 포커싱이 맞추어진 지점을 표시하는 정보 및/또는 3차원 정보를 이용하여, 현재 획득된 영상의 입체감 정도를 파악하고, 피사체간 거리 또는 카메라로부터 피사체까지의 거리를 재 조절함으로써 원하는 정도의 입체감을 갖는 영상이 생성되도록 할 수 있다.
도 7은 발명의 실시 예에 따른 영상 처리 방법을 도시한 순서도이다. 도 7을 참조하면 영상 처리 장치(300)는 영상을 획득한다(단계 710). 영상 처리 장치(300)가 획득한 영상은 포커싱이 제1 피사체에 맞추어져 있다고 가정한다.
영상 처리 장치(300)는 제1 피사체까지의 거리 및 영상에 대한 깊이 정보를 구하고, 이를 이용하여 3차원 정보를 생성한다(단계 720). 영상 처리 장치(300)는 생성된 3차원 정보를 뷰파인더에 출력하거나 스피커로 출력한다(단계 730).
도 8은 도 7의 단계 720에 따른 영상 처리 방법의 일 실시 예를 도시한 순서도이다. 도 8을 참조하면 영상 처리 장치(300)는 포커싱이 맞추어진 제1 피사체까지의 거리를 구한다(단계 810). 영상 처리 장치(300)는 적외선이나 초음파를 제1 피사체에 방출하고, 제1 피사체로부터 반사된 파를 이용하여 제1 피사체까지의 거리를 구할 수 있다.
영상 처리 장치(300)는 영상에 잡힌 제2 피사체까지의 거리를 구한다(단계 820). 영상 처리 장치(300)가 적외선 AF 방식을 이용하여 초점을 조절하는 경우, 영상 처리 장치(300)는 적외선 AF 방식을 이용하여, 뷰파인더에 표시된 AF 포인트가 가리키는 제2 피사체까지의 거리를 구할 수 있다.
또는 영상 처리 장치(300)는 영상에 대한 뎁쓰 맵을 생성하고, 뎁쓰 맵을 이용하여 제2 피사체까지의 거리를 식별할 수 있다.
영상 처리 장치(300)는 제1 피사체까지의 거리 및 제2 피사체까지의 거리를 이용하여 3차원 정보를 생성한다(단계 830).
도 9는 도 8의 단계 830에 따른 영상 처리 방법의 일 실시 예를 도시한 순서도이다. 영상 처리 장치(300)는 제1 피사체와 제2 피사체 사이의 거리를 제1 기준 범위와 비교하여 제1 확률을 구한다(단계 910).
영상 처리 장치(300)는 제1 피사체까지의 거리 및 제2 피사체까지의 거리를 제2 기준 범위와 비교하여 제2 확률을 구한다(단계 920).
영상 처리 장치(300)는 제1 확률과 제2 확률에 가중치를 부여한다(단계 930). 여기서 가중치는 양의 실수가 될 수 있다. 영상 처리 장치(300)는 가중치가 부여된 제1 확률과 제2 확률을 더하여 3차원 정보를 생성한다(단계 940).
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (29)

  1. 영상을 획득하는 단계;
    상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 단계; 및
    상기 3차원 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  2. 제1 항에 있어서, 상기 영상은 제1 피사체에 포커싱이 맞추어져 있고,
    상기 3차원 정보를 생성하는 단계는
    상기 제1 피사체까지의 거리를 구하는 단계;
    상기 영상에 대한 깊이 정보를 구하는 단계; 및
    상기 제1 피사체까지의 거리 및 상기 깊이 정보를 이용하여 상기 3차원 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  3. 제2 항에 있어서, 상기 제1 피사체까지의 거리를 구하는 단계는 적외선이나 초음파 중 하나를 상기 제1 피사체에 방출하고, 상기 제1 피사체로부터 반사된 파를 이용하여 상기 제1 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  4. 제2 항에 있어서, 상기 영상에는 제2 피사체를 가리키는 AF포인트가 표시되고,
    상기 깊이 정보를 구하는 단계는 상기 AF 포인트가 가리키는 상기 제2 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  5. 제4 항에 있어서, 상기 제2 피사체까지의 거리를 구하는 단계는 적외선이나 초음파 중 하나를 상기 제2 피사체에 방출하고, 상기 제2피사체로부터 반사된 파를 이용하여 상기 제2 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  6. 제2 항에 있어서, 상기 깊이 정보를 구하는 단계는
    상기 영상에 대한 뎁쓰 맵을 생성하는 단계; 및
    상기 뎁쓰 맵을 이용하여, 상기 영상에 잡힌 제2 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  7. 제6 항에 있어서, 상기 제2 피사체까지의 거리를 구하는 단계는 상기 뎁쓰 맵을 구성하는 픽셀의 명도를 이용하여 상기 제2 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  8. 제4 항 또는 제6 항에 있어서, 상기 제1 피사체까지의 거리 및 상기 깊이 정보를 이용하여 상기 3차원 정보를 생성하는 단계는
    상기 제1 피사체와 상기 제2 피사체 사이의 거리가 제1 기준 범위 이내인 정도를 나타내는 제1 확률 및 상기 제1 피사체까지의 거리와 상기 제2 피사체까지의 거리가 제2 기준 범위 이내인 정도를 나타내는 제2확률 중 하나 이상을 구하는 단계;
    상기 구해진 하나 이상의 확률에 가중치를 부여하는 단계; 및
    상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  9. 제8 항에 있어서, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률을 표시하는 그래프를 상기 3차원 정보로 생성하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  10. 제8 항에 있어서, 상기 영상에는 상기 제1 피사체에 포커싱이 맞추어짐을 표시하는 정보가 제1 색상으로 표시되고,
    상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 상기 제1 색상과 다른 제2 색상으로 상기 포커싱이 맞추어짐을 표시하는 정보를 상기 3차원 정보로 생성하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  11. 제8 항에 있어서, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 단계는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 이를 알리는 오디오 신호를 상기 3차원 정보로 생성하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  12. 제8 항에 있어서, 포커싱이 맞추어진 상기 제1 피사체를 중심으로 상기 제1 피사체의 위 및 아래 방향으로 화살표를 표시하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  13. 제8 항에 있어서, 상기 제1 기준 범위를 사용자로부터 설정받는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  14. 제8 항에 있어서, 상기 제2 기준 범위를 사용자로부터 설정받는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  15. 영상을 획득하는 영상 획득부;
    상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 3차원 정보 생성부; 및
    상기 3차원 정보를 출력하는 출력부를 포함하는 것을 특징으로 하는 영상 처리 장치.
  16. 제15 항에 있어서, 상기 영상은 제1 피사체에 포커싱이 맞추어져 있고,
    상기 3차원 정보 생성부는 상기 제1 피사체까지의 거리를 구하고, 상기 영상에 대한 깊이 정보를 구하고, 상기 제1 피사체까지의 거리 및 상기 깊이 정보를 이용하여 상기 3차원 정보를 생성하는 것을 특징으로 하는 영상 처리 장치.
  17. 제16 항에 있어서, 상기 3차원 정보 생성부는 적외선이나 초음파 중 하나를 상기 제1 피사체에 방출하고, 상기 제1 피사체로부터 반사된 파를 이용하여 상기 제1 피사체까지의 거리를 구하는 것을 특징으로 하는 영상 처리 장치.
  18. 제16 항에 있어서, 상기 영상에는 제2 피사체를 가리키는 AF포인트가 표시되고,
    상기 3차원 정보 생성부는 상기 깊이 정보를 구하기 위해 상기 AF 포인트가 가리키는 상기 제2 피사체까지의 거리를 구하는 것을 특징으로 하는 영상 처리 장치.
  19. 제18 항에 있어서, 상기 3차원 정보 생성부는 상기 제2 피사체까지의 거리를 구하기 위해 적외선이나 초음파 중 하나를 상기 제2 피사체에 방출하고, 상기 제2피사체로부터 반사된 파를 이용하여 상기 제2 피사체까지의 거리를 구하는 것을 특징으로 하는 영상 처리 장치.
  20. 제16 항에 있어서, 상기 3차원 정보 생성부는 상기 깊이 정보를 구하기 위해 상기 영상에 대한 뎁쓰 맵을 생성하고, 상기 뎁쓰 맵을 이용하여, 상기 영상에 잡힌 제2 피사체까지의 거리를 구하는 것을 특징으로 하는 영상 처리 장치.
  21. 제20 항에 있어서, 상기 3차원 정보 생성부는 상기 뎁쓰 맵을 구성하는 픽셀의 명도를 이용하여 상기 제2 피사체까지의 거리를 구하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  22. 제18 항 또는 제20 항에 있어서, 상기 3차원 정보 생성부는 상기 제1 피사체와 상기 제2 피사체 사이의 거리가 제1 기준 범위 이내인 정도를 나타내는 제1 확률 및 상기 제1 피사체까지의 거리와 상기 제2 피사체까지의 거리가 제2 기준 범위 이내인 정도를 나타내는 제2확률 중 하나 이상을 구하고, 상기 구해진 하나 이상의 확률에 가중치를 부여하고, 상기 가중치가 부여된 확률을 이용하여 상기 3차원 정보를 생성하는 것을 특징으로 하는 영상 처리 장치.
  23. 제22 항에 있어서, 상기 3차원 정보 생성부는 상기 가중치가 부여된 확률을 표시하는 그래프를 상기 3차원 정보로 생성하는 것을 특징으로 하는 영상 처리 장치.
  24. 제22 항에 있어서, 상기 영상에는 상기 제1 피사체에 포커싱이 맞추어짐을 표시하는 정보가 제1 색상으로 표시되고,
    상기 3차원 정보 생성부는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 상기 제1 색상과 다른 제2 색상으로 상기 포커싱이 맞추어짐을 표시하는 정보를 상기 3차원 정보로 생성하는 것을 특징으로 하는 영상 처리 장치.
  25. 제22 항에 있어서, 상기 3차원 정보 생성부는 상기 가중치가 부여된 확률이 기준치를 넘지 않는 경우, 이를 알리는 오디오 신호를 상기 3차원 정보로 생성하는 것을 특징으로 하는 영상 처리 장치.
  26. 제22 항에 있어서, 상기 출력부는 상기 포커싱이 맞추어진 상기 제1 피사체를 중심으로 상기 제1 피사체의 위 및 아래 방향으로 표시된 화살표를 출력하는 것을 특징으로 하는 영상 처리 장치.
  27. 제22 항에 있어서, 유저 인터페이스를 더 포함하고, 상기 유저 인터페이스는 상기 제1 기준 범위를 사용자로부터 설정받는 것을 특징으로 하는 영상 처리 장치.
  28. 제22 항에 있어서, 유저 인터페이스를 더 포함하고, 상기 유저 인터페이스는 상기 제2 기준 범위를 사용자로부터 설정받는 것을 특징으로 하는 영상 처리 장치.
  29. 영상을 획득하는 단계;
    상기 영상의 입체감 정도를 나타내는 3차원 정보를 생성하는 단계; 및
    상기 3차원 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법을 실행하기 위한 프로그램을 저장한 컴퓨터로 판독 가능한 기록 매체.
KR1020100075981A 2010-08-06 2010-08-06 영상 처리 방법 및 장치 KR101690256B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100075981A KR101690256B1 (ko) 2010-08-06 2010-08-06 영상 처리 방법 및 장치
US13/104,101 US9282317B2 (en) 2010-08-06 2011-05-10 Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100075981A KR101690256B1 (ko) 2010-08-06 2010-08-06 영상 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20120013769A true KR20120013769A (ko) 2012-02-15
KR101690256B1 KR101690256B1 (ko) 2016-12-27

Family

ID=45555857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100075981A KR101690256B1 (ko) 2010-08-06 2010-08-06 영상 처리 방법 및 장치

Country Status (2)

Country Link
US (1) US9282317B2 (ko)
KR (1) KR101690256B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10560683B2 (en) 2016-04-08 2020-02-11 Maxx Media Group, LLC System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
WO2018187743A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC Producing three-dimensional images using a virtual 3d model
US10735711B2 (en) * 2017-05-05 2020-08-04 Motorola Mobility Llc Creating a three-dimensional image via a wide-angle camera sensor
DE102022207014A1 (de) 2022-07-08 2024-01-11 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Kamera-Assistenzsystem

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0153214B1 (ko) * 1993-08-26 1998-11-16 모리시타 요이찌 입체화상촬상 및 표시장치
KR20090037247A (ko) * 2007-10-11 2009-04-15 최명렬 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법및 변환 장치와 이를 위한 기록매체
KR100938195B1 (ko) * 2008-07-28 2010-01-21 재단법인대구경북과학기술원 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100322249B1 (ko) * 1994-06-10 2002-06-20 이중구 멀티자동초점조절기능을가지는카메라및그제어방법
JP2001142166A (ja) * 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
US7636088B2 (en) * 2003-04-17 2009-12-22 Sharp Kabushiki Kaisha 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
JP4692770B2 (ja) * 2006-12-27 2011-06-01 富士フイルム株式会社 複眼デジタルカメラ
JP4637942B2 (ja) * 2008-09-30 2011-02-23 富士フイルム株式会社 3次元表示装置および方法並びにプログラム
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
JP2011035592A (ja) * 2009-07-31 2011-02-17 Nintendo Co Ltd 表示制御プログラムおよび情報処理システム
KR101691833B1 (ko) * 2010-11-04 2017-01-09 엘지전자 주식회사 이동 단말기 및 이것의 영상 촬영 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0153214B1 (ko) * 1993-08-26 1998-11-16 모리시타 요이찌 입체화상촬상 및 표시장치
KR20090037247A (ko) * 2007-10-11 2009-04-15 최명렬 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법및 변환 장치와 이를 위한 기록매체
KR100938195B1 (ko) * 2008-07-28 2010-01-21 재단법인대구경북과학기술원 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법

Also Published As

Publication number Publication date
US20120033043A1 (en) 2012-02-09
US9282317B2 (en) 2016-03-08
KR101690256B1 (ko) 2016-12-27

Similar Documents

Publication Publication Date Title
US8885922B2 (en) Image processing apparatus, image processing method, and program
JP2017022694A (ja) ユーザのデバイスに明視野ベースの画像を表示するための方法および装置ならびに対応するコンピュータプログラム製品
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
WO2014064870A1 (ja) 画像処理装置および画像処理方法
JPWO2011114683A1 (ja) 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
KR20040030081A (ko) 3d 화상 회의 시스템
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
CN114339194A (zh) 投影显示方法、装置、投影设备及计算机可读存储介质
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
CN102739958A (zh) 图像处理装置、图像处理方法和程序
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
KR101690256B1 (ko) 영상 처리 방법 및 장치
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
CN107155102A (zh) 3d自动对焦显示方法及其系统
JP5889022B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
CN110087059B (zh) 一种针对真实三维场景的交互式自由立体显示方法
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
JP2011217229A (ja) 撮像装置および表示方法
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
US20160065941A1 (en) Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program
KR102151250B1 (ko) 객체 좌표를 도출하는 장치 및 방법
KR102535136B1 (ko) 영상정합장치 및 방법
US20240137481A1 (en) Method And Apparatus For Generating Stereoscopic Display Contents

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191128

Year of fee payment: 4