KR100601958B1 - 3차원 객체 인식을 위한 양안차 추정 방법 - Google Patents
3차원 객체 인식을 위한 양안차 추정 방법 Download PDFInfo
- Publication number
- KR100601958B1 KR100601958B1 KR1020040055089A KR20040055089A KR100601958B1 KR 100601958 B1 KR100601958 B1 KR 100601958B1 KR 1020040055089 A KR1020040055089 A KR 1020040055089A KR 20040055089 A KR20040055089 A KR 20040055089A KR 100601958 B1 KR100601958 B1 KR 100601958B1
- Authority
- KR
- South Korea
- Prior art keywords
- binocular
- map
- image
- pixel
- difference
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
양안차 추정 방법 | 계산시간(초) | 전체 에러율(%) |
시뮬레이티드 어닐링 | 10000 | 12.23 |
정규 상관 | 16 | 15.12 |
그래프 컷 | 134 | 5.63 |
계층적 그래프 컷+일정한 평활화 계수 | 12.01 | 7.12 |
계층적 그래프 컷+적응적 평활화 계수 | 12.03 | 5.46 |
Claims (15)
- 스테레오 이미지로부터 양안차를 추정하는 방법에 있어서,상기 스테레오 이미지의 해상도를 각각 달리하여 복수 레벨의 이미지를 구하는 단계;상기 복수 레벨의 이미지에 대해 평활화 에너지 계수를 결정하고, 결정된 평활화 에너지 계수를 이용하여 상기 해상도가 최하위인 레벨의 이미지에 대해 양안차 맵을 구하는 단계;상위 레벨의 이미지에 대해 상기 최하위레벨의 이미지와의 해상도 차를 반영하여 상기 양안차 맵으로부터 상기 상위 레벨의 이미지에 대해 거친 양안차 맵을 추정하는 단계;상기 거친 양안차 맵을 이용하여 상기 상위 레벨의 이미지에 대한 미세한 양안차 맵을 구하는 단계; 및상기 상위 레벨의 이미지가 최상위 레벨의 해상도를 갖는 이미지이면 상기 미세한 양안차 맵을 상기 스테레오 이미지에 대한 최종 양안차 맵으로 출력하는 단계를 포함함을 특징으로하는 양안차 추정 방법.
- 제1항에 있어서, 상기 복수 레벨의 해상도는상기 스테레오 이미지의 해상도에 대해 1/2n,(단, n은 자연수)의 비율로 구 하는 것을 특징으로하는 양안차 추정 방법.
- 제2항에 있어서, 상기 거친 양안차 맵은상기 상위레벨보다 1계층 하위인 레벨의 이미지의 각 픽셀에 대응하는 상위레벨의 픽셀들의 양안차가 상기 하위레벨 이미지의 해당 픽셀이 갖는 양안차의 2배가 되도록 구해지는 것을 특징으로하는 양안차 추정 방법.
- 제1항 내지 제3항중 어느 한 항에 있어서, 상기 양안차 맵은상기 스테레오 이미지에 대해 측정한 데이터 에너지와 소정 평활화 에너지 계수를 이용하여 측정한 평활화 에너지의 합을 최소화하도록 구하고, 상기 평활화 에너지 계수는 각 레벨의 해상도에 따른 텍스쳐 양에 의해 결정됨을 특징으로하는 양안차 추정 방법.
- 제4항에 있어서, 상기 평활화 에너지 계수는검증 양안차 맵과 k번째(k는 자연수) 평활화 에너지 계수를 기반으로하여 얻어진 양안차 맵간의 평활화 정도를 측정하는 함수에 따라 k번째 평활화 계수로부터 (k+1)번째 평활화 에너지 계수가 결정되도록 반복(iteration)하여 결정하는 것을 특징으로하는 양안차 추정 방법.
- 제7항에 있어서, 상기 평활화 정도를 측정하는 함수는상기 k번째 평활화 에너지 계수를 기반으로하여 얻어진 양안차 맵의 에지 정보를 이용하여 결정하는 것을 특징으로하는 양안차 추정 방법.
- 제1항에 있어서, 상기 미세한 양안차 맵은상기 거친 양안차 맵으로부터 얻은 이웃하는 두 픽셀 A, B의 양안차 A0, B0가 동일하면, 상기 두 픽셀을 정점으로하고, 상기 두 정점에 각각 연결되는 소스와 싱크를 구비하며, 상기 두 정점, 소스 및 싱크가 소정 웨이트를 갖는 에지들로 연결되도록 그래프가 형성될 때, 상기 소스로부터 싱크로 향하는 에지들의 웨이트의 합이 최소가 되도록 컷하여 상기 소스에 연결되는 픽셀의 레이블은 그대로 유지하고, 상기 싱크에 연결되는 픽셀의 레이블은 상기 소스에 해당하는 레이블로 변환하는 것을 특징으로하는 양안차 추정 방법.
- 제9항에 있어서,상기 소스와 두 정점간 에지들의 각 웨이트는각 픽셀이 소스에 해당하는 양안차를 가질 때의 데이터 에너지와 각 픽셀의 이웃 픽셀들이 소정 조건을 만족할 때 상기 각 픽셀과 해당 이웃 픽셀들간의 평활화 에너지의 합으로 표현되고,상기 두 정점과 싱크간 에지들의 각 웨이트는상기 각 픽셀이 초기 양안차를 가질 때의 데이터 에너지와 상기 각 픽셀의 이웃 픽셀들이 소정 조건을 만족할 때 상기 각 픽셀과 해당 이웃 픽셀들간의 평활화 에너지의 합으로 표현되며,상기 두 정점간 에지의 웨이트는상기 두 픽셀중 어느 하나가 상기 소스에 해당하는 양안차를 가질 때 상기 두 픽셀간의 평활화 에너지로 표현되는 것을 특징으로하는 양안차 추정 방법.
- 제10항에 있어서, 상기 조건은상기 이웃 픽셀들의 각 양안차가 [최대 양안차-1, 최대 양안차+1]의 범위내에 있지않고, 상기 그래프에 대응하는 정점을 갖지않은 것을 특징으로하는 양안차 추정 방법.
- 제9항에 있어서, 상기 미세한 양안차 맵은상기 거친 양안차 맵으로부터 얻은 이웃하는 두 픽셀 A, B의 양안차 A0, B0가 동일하지않으면, 상기 두 픽셀을 제1 및 제2정점으로하고, 상기 제1 및 제2정점에 각각 연결되는 소스와 싱크를 구비하며, 상기 제1 및 제2정점 사이에 상기 상위레벨 이미지의 픽셀에 대응되지않은 제3정점을 더 구비하여 상기 세 정점, 소스 및 싱크가 소정 웨이트를 갖는 에지들로 연결되도록 그래프가 형성될 때, 상기 소스로부터 싱크로 향하는 에지들의 웨이트의 합이 최소가 되도록 컷하여 상기 소스에 연결되는 픽셀의 레이블은 그대로 유지하고, 상기 싱크에 연결되는 픽셀의 레이블은 상기 소스에 해당하는 레이블로 변환하는 것을 특징으로하는 양안차 추정 방법.
- 제12항에 있어서,상기 소스와 제1 및 제2정점간 에지들의 각 웨이트는각 픽셀이 소스에 해당하는 양안차를 가질 때의 데이터 에너지와 각 픽셀의 이웃 픽셀들이 소정 조건을 만족할 때 상기 각 픽셀과 해당 이웃 픽셀들간의 평활화 에너지의 합으로 표현되고,상기 제1 및 제2정점과 싱크간 에지들의 각 웨이트는상기 각 픽셀이 초기 양안차를 가질 때의 데이터 에너지와 상기 각 픽셀의 이웃 픽셀들이 소정 조건을 만족할 때 상기 각 픽셀과 해당 이웃 픽셀들간의 평활화 에너지의 합으로 표현되며,상기 제1정점 또는 제2정점과 상기 제3정점간 에지의 웨이트는상기 제1정점 또는 제2정점에 해당하는 픽셀이 상기 소스에 해당하는 양안차를 가질 때 상기 두 픽셀간의 평활화 에너지로 표현되고,상기 제3정점과 상기 싱크간 에지의 웨이트는상기 두 픽셀이 초기 양안치를 가질 때 상기 두 픽셀간의 평활화 에너지로 표현되는 것을 특징으로하는 양안차 추정 방법.
- 제13항에 있어서,상기 조건은상기 이웃 픽셀들의 각 양안차가 [최대 양안차-1, 최대 양안차+1]의 범위내에 있지않고, 상기 그래프에 대응하는 정점을 갖지않은 것을 특징으로하는 양안차 추정 방법.
- 스테레오 이미지로부터 양안차를 추정하는 방법에 있어서,상기 스테레오 이미지의 해상도를 각각 달리하여 복수 레벨의 이미지를 구하는 단계;상기 복수 레벨의 이미지에 대해 평활화 에너지 계수를 결정하고, 결정된 평활화 에너지 계수를 이용하여 상기 해상도가 최하위인 레벨의 이미지에 대해 양안차 맵을 구하는 단계;상위 레벨의 이미지에 대해 상기 최하위 레벨의 이미지와의 상기 해상도 차를 이용하여 상기 양안차 맵으로부터 상기 상위 레벨의 이미지에 대해 거친 양안차 맵을 추정하는 단계;상기 거친 양안차 맵을 이용하여 상기 상위 레벨의 이미지에 대한 미세한 양안차 맵을 구하는 단계; 및상기 상위 레벨의 이미지가 최상위 레벨의 해상도를 갖는 이미지이면 상기 미세한 양안차 맵을 상기 스테레오 이미지에 대한 최종 양안차 맵으로 출력하는 단계를 포함하는 양안차 추정 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040055089A KR100601958B1 (ko) | 2004-07-15 | 2004-07-15 | 3차원 객체 인식을 위한 양안차 추정 방법 |
US11/168,346 US7711181B2 (en) | 2004-07-15 | 2005-06-29 | Method of estimating disparity for 3D object recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040055089A KR100601958B1 (ko) | 2004-07-15 | 2004-07-15 | 3차원 객체 인식을 위한 양안차 추정 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060006189A KR20060006189A (ko) | 2006-01-19 |
KR100601958B1 true KR100601958B1 (ko) | 2006-07-14 |
Family
ID=35599504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040055089A KR100601958B1 (ko) | 2004-07-15 | 2004-07-15 | 3차원 객체 인식을 위한 양안차 추정 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7711181B2 (ko) |
KR (1) | KR100601958B1 (ko) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2868168B1 (fr) * | 2004-03-26 | 2006-09-15 | Cnes Epic | Appariement fin d'images stereoscopiques et instrument dedie avec un faible coefficient stereoscopique |
KR100813100B1 (ko) | 2006-06-29 | 2008-03-17 | 성균관대학교산학협력단 | 실시간 확장 가능한 스테레오 매칭 시스템 및 방법 |
KR100899422B1 (ko) * | 2007-08-06 | 2009-05-27 | 삼성모바일디스플레이주식회사 | 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법 |
KR100902343B1 (ko) * | 2007-11-08 | 2009-06-12 | 한국전자통신연구원 | 로봇 영상 시스템 및 검출 방법 |
KR100930286B1 (ko) * | 2007-12-24 | 2009-12-09 | 연세대학교 산학협력단 | 변이 추정 시의 비용 함수 연산 방법 및 가려진 영역 처리방법 |
KR101040121B1 (ko) * | 2008-12-22 | 2011-06-09 | 한국전자통신연구원 | 거리 측정 방법 및 스테레오 매칭 시스템 |
US8577130B2 (en) * | 2009-03-16 | 2013-11-05 | Siemens Medical Solutions Usa, Inc. | Hierarchical deformable model for image segmentation |
US8508580B2 (en) | 2009-07-31 | 2013-08-13 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene |
US8436893B2 (en) | 2009-07-31 | 2013-05-07 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US8345958B2 (en) * | 2009-12-31 | 2013-01-01 | Industrial Technology Research Institute | Method and system for developing new-view image |
US9111342B2 (en) * | 2010-07-07 | 2015-08-18 | Electronics And Telecommunications Research Institute | Method of time-efficient stereo matching |
US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
TR201010436A2 (tr) * | 2010-12-14 | 2012-07-23 | Vestel Elektron�K Sanay� Ve T�Caret A.�. | Aykırılık aralığının tespiti için bir yöntem ve cihaz. |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
ES2692520T3 (es) * | 2011-03-04 | 2018-12-04 | Lbt Innovations Limited | Método para mejorar los resultados de clasificación de un clasificador |
US9070196B2 (en) * | 2012-02-27 | 2015-06-30 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating disparity using visibility energy model |
US9275459B2 (en) | 2012-10-05 | 2016-03-01 | Qualcomm Incorporated | Method and apparatus for calibrating an imaging device |
US9280819B2 (en) | 2013-08-26 | 2016-03-08 | International Business Machines Corporation | Image segmentation techniques |
EP2916290A1 (en) | 2014-03-07 | 2015-09-09 | Thomson Licensing | Method and apparatus for disparity estimation |
PL2998927T3 (pl) * | 2014-09-22 | 2019-05-31 | Alstom Transp Tech | Sposób wykrywania złego umieszczenia i uszkodzeń powierzchni określonych elementów oraz powiązane urządzenie wykrywające |
CN106650700B (zh) * | 2016-12-30 | 2020-12-01 | 上海联影医疗科技股份有限公司 | 模体、测量系统矩阵的方法及装置 |
US11589031B2 (en) * | 2018-09-26 | 2023-02-21 | Google Llc | Active stereo depth prediction based on coarse matching |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5719954A (en) | 1994-06-07 | 1998-02-17 | Matsushita Electric Industrial Co., Ltd. | Stereo matching method and disparity measuring method |
US5727078A (en) | 1993-01-19 | 1998-03-10 | Thomson-Csf | Process for estimating disparity between the monoscopic images making up a sterescopic image |
US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
US6351572B1 (en) | 1997-07-29 | 2002-02-26 | U.S. Philips Corporation | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
KR20020095752A (ko) * | 2001-06-15 | 2002-12-28 | 한국전자통신연구원 | 스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원영상 표시 방법 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
GB0125774D0 (en) * | 2001-10-26 | 2001-12-19 | Cableform Ltd | Method and apparatus for image matching |
-
2004
- 2004-07-15 KR KR1020040055089A patent/KR100601958B1/ko active IP Right Grant
-
2005
- 2005-06-29 US US11/168,346 patent/US7711181B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5727078A (en) | 1993-01-19 | 1998-03-10 | Thomson-Csf | Process for estimating disparity between the monoscopic images making up a sterescopic image |
US5719954A (en) | 1994-06-07 | 1998-02-17 | Matsushita Electric Industrial Co., Ltd. | Stereo matching method and disparity measuring method |
US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
US6351572B1 (en) | 1997-07-29 | 2002-02-26 | U.S. Philips Corporation | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
KR20020095752A (ko) * | 2001-06-15 | 2002-12-28 | 한국전자통신연구원 | 스테레오 영상 시차 지도 융합 방법 및 그를 이용한 3차원영상 표시 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20060013509A1 (en) | 2006-01-19 |
US7711181B2 (en) | 2010-05-04 |
KR20060006189A (ko) | 2006-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100601958B1 (ko) | 3차원 객체 인식을 위한 양안차 추정 방법 | |
Santra et al. | Learning a patch quality comparator for single image dehazing | |
US7379583B2 (en) | Color segmentation-based stereo 3D reconstruction system and process employing overlapping images of a scene captured from viewpoints forming either a line or a grid | |
US6393142B1 (en) | Method and apparatus for adaptive stripe based patch matching for depth estimation | |
US11120556B2 (en) | Iterative method for salient foreground detection and multi-object segmentation | |
US6990233B2 (en) | Apparatus and method for extracting object based on feature matching between segmented regions in images | |
US6301385B1 (en) | Method and apparatus for segmenting images prior to coding | |
US8059915B2 (en) | Apparatus for and method of robust motion estimation using line averages | |
US7046850B2 (en) | Image matching | |
EP1400924B1 (en) | Pseudo three dimensional image generating apparatus | |
EP1588327B1 (en) | Full depth map acquisition | |
Koschan et al. | Color stereo vision using hierarchical block matching and active color illumination | |
US6496184B1 (en) | Method for inferring scenes from test images and training data using probability propagation in a markov network | |
US20090279738A1 (en) | Apparatus for image recognition | |
US8014588B2 (en) | System and method for three-dimensional estimation based on image data | |
JP2001195591A (ja) | 画像中の空を検出する方法 | |
US20060104535A1 (en) | Method and apparatus for removing false edges from a segmented image | |
Chiba et al. | A tracker for broken and closely-spaced lines | |
Koschan et al. | Dense depth maps by active color illumination and image pyramids | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
WO2008063616A2 (en) | Apparatus for and method of robust motion estimation using line averages | |
Koch | Surface segmentation and modeling of 3D polygonal objects from stereoscopic image pairs | |
Lefèvre et al. | Multiresolution color image segmentation applied to background extraction in outdoor images | |
Schmalz et al. | A graph-based approach for robust single-shot structured light | |
Pine et al. | Estimation 2d illuminant direction and shadow segmentation in natural video sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130624 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140619 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150624 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20160617 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20170619 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20180620 Year of fee payment: 13 |