KR100937882B1 - 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치 - Google Patents

영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치 Download PDF

Info

Publication number
KR100937882B1
KR100937882B1 KR1020037000756A KR20037000756A KR100937882B1 KR 100937882 B1 KR100937882 B1 KR 100937882B1 KR 1020037000756 A KR1020037000756 A KR 1020037000756A KR 20037000756 A KR20037000756 A KR 20037000756A KR 100937882 B1 KR100937882 B1 KR 100937882B1
Authority
KR
South Korea
Prior art keywords
segment
image
motion
motion vector
series
Prior art date
Application number
KR1020037000756A
Other languages
English (en)
Other versions
KR20030025276A (ko
Inventor
페라고티안나
런터제라르드에이
치아치마스시모
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20030025276A publication Critical patent/KR20030025276A/ko
Application granted granted Critical
Publication of KR100937882B1 publication Critical patent/KR100937882B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/100764D tomography; Time-sequential 3D tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 이전 분할 결과들 및 모션 추정에 기초하여 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법에 관한 것이다. 제 2 영상(106)의 제 2 세그먼트(108)는 제 1 영상(100)의 제 1 세그먼트(102)에 기초하여 결정되고, 제 1 세그먼트(102)와 제 2 세그먼트(108)는 하나의 오브젝트(104)에 대응한다. 본 방법은 제 2 세그먼트(108)로의 제 1 세그먼트(102)의 변환을 정의하는 모션 모델을 계산하기 위해 제 1 영상(100) 및 제 2 영상(106)의 픽셀들의 값들을 비교하는 계산 단계를 포함한다. 이런 모션 모델의 예는 단지 전이만을 허용한다. 전이는 하나의 모션 벡터(110)로 기술될 수 있다.
모션 벡터 필드, 분할 유닛, 모션 추정기, 입력 커넥터

Description

영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치{Segmentation unit for and method of determining segments in a series of images and image processing apparatus}
본 발명은 제 2 영상의 제 2 세그먼트 결정 방법에 관한 것으로, 상기 결정은 제 1 영상의 제 1 세그먼트에 기초하고, 상기 제 1 세그먼트 및 제 2 세그먼트는 오브젝트에 대응한다.
또한, 본 발명은 제 2 영상의 제 2 세그먼트 결정 분할 유닛(segmentation unit)에 관한 것으로, 상기 결정은 제 1 영상의 제 1 세그먼트에 기초하고, 상기 제 1 세그먼트 및 제 2 세그먼트는 오브젝트에 대응한다.
또한, 본 발명은 영상 처리 장치에 관한 것으로, 이 영상 처리 장치는,
- 제 2 영상의 제 2 세그먼트를 결정하기 위한 분할 유닛으로서, 상기 결정은 제 1 영상의 제 1 세그먼트에 기초하고, 상기 제 1 세그먼트 및 제 2 세그먼트는 오브젝트에 대응하는, 상기 제 2 영상의 제 2 세그먼트 결정 분할 유닛, 및
- 상기 제 1 세그먼트 및 제 2 세그먼트를 분석하도록 설계된 분석기를 포함한다.
서두에 기술된 유형의 분할 유닛은 이지 비젼(Easy Vision)이라 지칭되는 필립스사의 의료용 워크스테이션으로부터 공지되어 있다. 이 워크스테이션은 사용자가 복수의 영상 처리 임무들을 수행할 수 있게 하는 다양한 어필리케이션들을 포함한다. 영상 분할은 다수의 영상 처리 임무들에서 필수 단계이다. 이들 어플리케이션들 중 일부는 이런 유형의 분할 유닛을 사용한다. 하기에, 이 용도가 실시예를 통해 설명될 것이다. 특정 유형의 이지 비젼 어플리케이션은 MR(자기 공명) 심장 영상들의 분석을 가능하게 한다. 이 분석의 목적은 열 사이클의 위상들 동안 환자의 심장의 용적을 결정하는 것이다. MR 시스템에서, 인간 흉부의 영상들의 시리즈들이 취득되고, 부가 처리를 위해 워크스테이션으로 보내진다. 이들 영상들 모두는 심실을 포함하는 흉부의 단편을 나타낸다. 즉, 각 영상은 심실 이외에도 환자의 신체의 다양한 다른 부분들을 보여준다. 심근의 수축 때문에, 심실의 형상은 다양한 영상들에서 서로 다르다. 분석을 수행하기 위해서, 모든 영상들에서 심실이 분할되어야만 한다. 달리 말해서, 심실에 대응하는 픽셀들이 마스킹되어야만 한다. 분할을 수행하기 위한 절차는 다음과 같다. 사용자는 제 1 영상에 도시된 바와 같은 심실에 대응하는 그 시리즈의 제 1 영상 상에 윤곽선을 그린다. 그후, 이 윤곽선이 전파, 즉, 제 2 영상에 복사된다. 사용자는 제 2 영상에 도시된 바와 같은 심실의 형상에 일치하는 윤곽선을 생성하기 위해, 제 2 영상내에서 이 복사된 윤곽선의 형상을 손으로 조정할 수 있다. 이 후자의 윤곽선은 그후, 후속 영상에 전파된다. 이 윤곽선들을 조정하기 위한 보다 교묘한 기술도 사용할 수 있다. 이 경우에도, 윤곽선은 후속 영상에 복사되지만, 윤곽선의 변형은 자동 윤곽선 검출 유닛에 의해 제어된다. 이 자동 윤곽선 검출 유닛은 복사된 윤곽선의 이웃의 제 2 영상의 가장자리들을 조사한다. 새로운 윤곽이 검출된 가장자리들 상에 덮여진다. 비록, 이 절차가 만족스러운 결과들을 초래할 수 있지만, 이는 가장자리들이 검출하기 곤란한 경우에는 실패하게 되는 경향을 가진다.
본 발명의 제 1 목적은 영상들의 시리즈들에서의 세그먼트들의 상대적으로 강한 분할을 가능하게 하는 서두에 기술된 종류의 방법을 제공하는 것이다.
본 발명의 제 2 목적은 영상들의 시리즈들에서의 세그먼트들의 상대적으로 강한 분할을 실행하도록 설계된 서두에 기술된 종류의 분할 유닛을 제공하는 것이다.
본 발명의 제 3 목적은 영상들의 시리즈들에서의 세그먼트들의 상대적으로 강한 분할을 수행하도록 설계된 서두에 기술된 유형의 분할 유닛을 포함하는 영상 처리 장치를 제공하는 것이다.
본 발명의 제 1 목적은 제 1 영상과 제 2 영상의 픽셀들의 값들을 비교함으로써, 제 1 세그먼트의 제 2 세그먼트로의 변환을 정의하는 세그먼트 모션 모델을 계산하는 계산 단계를 포함하는 방법에 의해 달성된다. 세그먼트 모션 모델은 세그먼트가 그 형상 및/또는 위치를 변경하는 방식을 정의한다. 세그먼트 모션 모델은 예로서, 전이, 크기변화, 전단(shear), 회전 및 이들의 임의의 조합을 기술하는 6 파라미터들을 가지는 선형 아핀(linear affine) 모델일 수 있다. 단순한 세그먼트 모션 모델은 예로서, 단지 전이만을 허용한다. 전이는 단 하나의 벡터, 즉 하나의 모션 벡터로 기술될 수 있다.
본 발명에 따른 방법과, 종래 기술에 따른 방법 사이의 주된 차이점은 제 2 세그먼트의 분할을 달성하기 위해 부가 정보가 고려된다는 것이다.
- 종래 기술에 따른 방법은 단지 제 2 영상의 픽셀들의 값들만이 제 2 영상의 제 2 세그먼트의 윤곽선을 발견하기 위해 사용된다. 제 2 영상의 제 2 윤곽선을 검출하기 위해, 제 1 윤곽선의 위치, 즉, 제 1 세그먼트의 경계부 이외에, 제 1 영상의 어떠한 정보도 고려되지 않는다. 본 발명에 따른 방법에서, 양 영상들의 픽셀 값들이 세그먼트 모션 벡터를 계산하기 위해 사용된다.
- 종래 기술에 따른 방법에서는 단지 제 1 윤곽선의 사본의, 즉, 제 2 영상로의 제 1 윤곽선의 전파 이후에, 주변에 위치된 제 2 영상의 픽셀들만이 고려된다. 본 발명에 따른 방법에서는 윤곽선 내측의 픽셀들, 즉, 세그먼트의 다른 픽셀들도 세그먼트 모션 벡터를 계산하기 위해 사용된다.
이 부가 정보는 상대적으로 강한 분할을 초래한다. 상술된 종래 기술의 어플리케이션에서, 오브젝트의 형상은 시간에 따라 변화한다. 그러나, 오브젝트의 형상이 변화하지 않지만, 이미징 장비에 관한 그 위치를 변경하는 것도 가능하다. 또한, 본 발명에 따른 방법은 그 형상이 변화하지 않고 단지 그 위치만이 변화하는 오브젝트들의 분할을 필요로 하는 어플리케이션들에도 적용될 수 있다.
본 발명에 따른 방법의 실시예는 하기의 단계들, 즉
- 각각이 제 1 영상의 픽셀들의 제 1 블록으로부터 제 2 영상의 픽셀들의 제 2 블록으로의 전이를 기술하는 복수의 모션 벡터들을 포함하는, 제 1 영상과 제 2 영상에 기초하여 모션 벡터 필드를 계산하는 제 1 단계와,
- 모션 벡터 필드의 모션 벡터들에 기초하여, 세그먼트 모션 벡터를 계산하는 제 2 단계를 포함한다.
제 1 단계를 위해, 표준 모션 추정기가 매우 신속하고 정확하게 모션 벡터 필드를 계산하도록 적용될 수 있다. 예로서, G. de Haan 등의 "3-D 순환 검색 블록 정합을 이용한 참운동 추정(Proceedings IEEE International Conference on Circuits and Systems for Video Technology, 1994, vol. 3, pp.249-256)"에 기술된 바와 같은 모션 추정기. 또한, 모션 추정기는 불규칙 형상의 탬플릿들과의 정합에 기초할 수도 있다. 제 2 단계에서, 제 1 세그먼트의 내측에 있는 모션 벡터들, 예로서, 세그먼트의 경계부에 의해 둘러싸여져 있는 모션 벡터들이 제 1 세그먼트의 전이를 기술하는 모션 벡터를 발견하기 위해 그후 분석된다. 제 1 세그먼트의 제 2 세그먼트의 위치로의 변환은 오브젝트의 위치의 변화, 즉, 전이에 대응한다. 변환을 기술하는 세그먼트 모션 벡터는 제 1 세그먼트와 실질적으로 대응하는 모션 벡터 필드의 일부에 배치된 모션 벡터들의 평균값 또는 최빈값(modal value)을 취함으로써 결정될 수 있다. 최빈값을 계산하기 위해서, 모션 벡터들을 가지는 이차원 막대그래프가 사용된다.
본 발명에 따른 방법의 실시예는 모션 벡터 필드의 모션 벡터들 사이를 구별하기 위한 필터 단계를 포함한다. 모션 벡터들의 신뢰도 수준들은 모션 벡터들을 필터하기 위한 가중 팩터들로서 사용될 수 있다. 선택적으로, 아웃라이어들(outliers)이 무시된다. 아웃라이어들은 그 값이 사전 선택된 또는 사전 계산된 값으로부터 사전 결정된 임계값 보다 크게 다른 모션 벡터들이다. 특히, 폐색 영역들에서, 다수의 오류 모션 벡터들이 있을 수 있다. 그러나, 양호한 품질의 모션 추정기에 의해 생성된 모션 벡터 필드내에서, 세그먼트에 할당된 모션 벡 터들의 값들의 대부분은 정확한 것으로 가정하는 것이 정당하다.
본 발명에 따른 방법의 일 실시예에서, 적어도 두개의 세그먼트 모션 벡터들이 제 2 단계에서 계산된다. 상이한 위치들에 그 원점을 가지는 다수의 세그먼트 모션 벡터들로, 예로서, 세그먼트의 회전을 기술하는 것이 가능하다. 본 실시예의 장점은 전이뿐만 아니라 오브젝트의 회전도 추적될 수 있다는 것이다.
본 발명에 따른 방법의 일 실시예는 모션 벡터 필드의 모션 벡터들에 기초하여 제 2 세그먼트의 형상을 조정하기 위한 제 3 단계를 포함한다. 영상 평면에 평행한 평면내의 오브젝트의 회전 또는 전이 이외에도, 다른 운동들이 가능하다. 그 결과는 아핀 변환으로 그를 기술하는 것이 불가능한 오브젝트의 투영의 변화이다. 종래 기술의 설명에, 오브젝트의 형상이 변화하여, 세그먼트의 형상의 변화를 초래, 즉, 오브젝트가 그 형상을 변화시키는 사유가 요약되어 있다. 그 영향은 세그먼트들이 서로 폐색되는 것일 수 있다. 본 실시예의 장점은 제 1 세그먼트의 제 2로의 변환의 결정과, 제 2 세그먼트의 형상의 적응을 조합한다는 것이다.
본 발명의 제 2 목적은 제 1 영상과 제 2 영상의 픽셀들의 값들을 비교함으로써, 제 1 세그먼트의 제 2 세그먼트로의 변환을 정의하는 세그먼트 모션 모델을 계산하도록 설계된 추정기를 포함하는 분할 유닛에서 달성된다.
본 발명의 제 3 목적은 제 1 영상과 제 2 영상의 픽셀들의 값들을 비교함으로써, 제 1 세그먼트로부터 제 2 세그먼트로의 변환을 정의하는 세그먼트 모션 모델을 계산하도록 설계된 추정기를 포함하는 영상 처리 장치에서 달성된다.
본 발명에 따른 방법, 분할 유닛 및 영상 처리 장치의 이들 및 다른 양태들 은 첨부 도면을 참조로 하기에 설명된 구현들 및 실시예들을 참조함으로써, 명백히 이해될 것이다.
도 1은 두 세그먼트들과 세그먼트 모션 벡터들 사이의 관계를 개략적으로 도시하는 도면.
도 2는 모션 벡터 필드와 세그먼트 모션 벡터 사이의 관계를 개략적으로 도시하는 도면.
도 3은 제 1 세그먼트로부터 제 2 세그먼트로의 변환이 두 세그먼트 모션 벡터들에 의해 기술될 수 있다는 것을 개략적으로 도시하는 도면.
도 4a는 분할 유닛의 실시예를 개략적으로 도시하는 도면.
도 4b는 모션 벡터 필드의 복수의 모션 벡터들을 사용함으로써 세그먼트 모션 벡터가 결정되는 분할 유닛의 실시예를 개략적으로 도시하는 도면.
도 4c는 형상 어댑터를 포함하는 분할 유닛의 실시예를 개략적으로 도시하는 도면.
도 5는 분할 유닛을 포함하는 영상 처리 장치의 실시예를 개략적으로 도시하는 도면.
도 1은 두 세그먼트들(102, 108)과, 세그먼트 모션 벡터(110) 사이의 관계를 개략적으로 도시한다. 오브젝트(104)는 2회 이미징되어 제 1 영상(100)과 제 2 영상(106)을 형성한다. 양 영상들은 오브젝트(104)의 투영을 포함하지만, 오브젝트(104)는 제 1 영상(100)과 제 2 영상(106) 취득의 타임 슬롯들 사이에서 이동되었다. 제 1 영상(100)에서, 오브젝트(104)와 대응하는 제 1 영상(100)의 부분이 제 1 세그먼트(102)에 의해 마스킹된다. 제 2 영상(106)에서, 오브젝트(104)와 대응하는 제 2 영상(106)의 부분이 제 2 세그먼트(108)에 의해 마스킹된다. 제 1 세그먼트(102)는 사용자에 의해 수행된 분할의 결과이거나, 분할 유닛, 예로서, 400에 의해 수행된 자동 분할의 결과일 수 있다. 제 2 영상(106)내의 제 2 세그먼트(108)의 위치는 제 1 영상(100)내의 제 1 세그먼트(102)의 위치와, 세그먼트 모션 벡터(110)에 의해 정의되고, 제 2 세그먼트(108)는 제 1 세그먼트(102)의 마스크를 제 2 영상(106)내로 복사하고, 이 마스크를 세그먼트 모션 벡터(110)의 거리 및 방향으로 전이시킴으로써, 형성될 수 있다. 세그먼트 모션 벡터(110)는 제 1 영상(100)과 제 2 영상(106)의 픽셀 값들을 비교함으로써 계산될 수 있다. 비교는 전용 에러 함수의 최소화 또는 전용 정합 함수의 최대화의 방법, 예로서, 양 영상들의 픽셀 값들의 교차 상관을 의미한다. 예로서, 제 1 세그먼트(102)의 픽셀들을 대부분 포함하는 제 1 영상(100)의 일부는 제 2 영상(106)의 픽셀들과 콘볼루트될(convoluted) 수 있다. 픽셀 값들은 예로서, 휘도나 색상을 나타낼 수 있다. 제 1 영상(100)과 제 2 영상(106)은 영상들의 시리즈들 중 두 개의 연속적인 영상들일 수 있다. 또한, 제 1 영상(100)과 제 2 영상(106)이 동일 시리즈에 속하지만, 이들이 불연속적일 수 있다. 즉, 예로서, 제 1 영상(100)에 뒤따르고, 제 2 영상에 선행하는 제 3 영상이 존재할 수 있다.
도 2는 모션 벡터 필드(200)와, 세그먼트 모션 벡터(110) 사이의 관계를 개략적으로 도시한다. 도 2는 제 1 영상(100)이 복수의 픽셀들(212 내지 220)의 블록들로 분할되고, 제 2 영상이 복수의 픽셀들(222 내지 230)의 블록들로 분할되는 것을 도시한다. 이런 픽셀들의 블록은 하나의 픽셀로부터 예로서 64*64 픽셀들의 범위의 다수의 픽셀들을 포함할 수 있다. 수평 및 수직 방향의 이런 블록의 픽셀들의 수는 같지 않을 수 있다. 각 픽셀들(212 내지 220)의 블록에 대하여, 모션 벡터(202 내지 210)가 계산된다. 이런 모션 벡터(202 내지 210)는 제 2 영상(106)내에서, 대응 정보가 발견될 수 있도록, 픽셀들(212 내지 220)의 대응 블록이 이동되어야만 하는 방향 및 거리를 정의한다. 표준 모션 추정기가 적용되어 모션 벡터 필드(200)를 계산할 수 있다. 예로서, G. de Haan 등의 "3-D 순환 검색 블록 정합을 이용한 참운동 추정(Proceedings IEEE International Conference on Circuits and Systems for Video Technology, 1994, vol. 3, pp.249-256)"에 기술된 바와 같은 모션 추정기. 도 2의 모션 벡터 필드의 대부분의 모션 벡터들은 예로서, 202 내지 206 처럼 작고 임의적인 방향을 가지고 있다. 그러나, 실질적으로 제 1 세그먼트(102)에 대응하는 모션 벡터 필드(200)의 일부(232)에 위치하는 모션 벡터들(208, 210)은 매우 일정하다. 이들 후자의 모션 벡터들(208, 210)의 평균 또는 최빈값(modal value)을 취함으로써, 세그먼트 모션 벡터(110)가 결정될 수 있다.
도 3은 제 1 영상(300)의 제 1 세그먼트(302)로부터 제 2 영상(306)의 제 2 세그먼트(308)로의 변환이 두 세그먼트 모션 벡터들(310, 312)에 의해 기술될 수 있다는 것을 개략적으로 도시한다. 도 3에서, 이미징된 오브젝트는 변형불가이면 서, 3 자유도들(영상(300)의 평행한 평면내에서의 회전, 수평 방향으로의 전이, 수직 방향으로의 전이)을 가지는 오브젝트로서 모델링된다. 두 세그먼트 모션 벡터들(310, 312) 각각의 원점은 제 1 세그먼트(302)의 지점(316, 314)과 각각 대응한다. 이들 지점들(316, 314)은 제 2 세그먼트(308)의 지점들(320, 318)로 각각 전이된다. 제 1 세그먼트(302)의 모든 다른 지점들은 제 2 세그먼트(308)의 지점들로 유일무이하게 맵핑되며, 그 이유는, 이 세그먼트들이 변형불가한 오브젝트에 대응하기 때문이다. 도 3에 도시된 것 보다 복잡한 변환들이 가능하다. 이 개념은 하나의 오브젝트에 대응하는 모든 모션 벡터들(310, 312)이 오브젝트의 이동을 기술하는 모션 모델에 기반한다.
도 4a는 제 1 영상(100)과 제 2 영상(106)의 픽셀들의 값들을 비교함으로써, 제 2 세그먼트(108)로의 제 1 세그먼트(102)의 변환을 정의하는 세그먼트 모션 벡터(110)를 계산하도록 설계된 추정기(405)를 포함하는 분할 유닛(400)의 실시예를 개략적으로 도시한다. 이 분할 유닛(400)의 입력은 입력 커넥터들(410 내지 414)에서 제공된다.
- 이진 마스크, 예로서, 입력 커넥터(410)에서 이진 값들의 이차원 어레이로서의 제 1 세그먼트(102);
- 입력 커넥터(412)에서 픽셀 값들의 이차원 어레이로서의 제 2 영상(106) 및
- 입력 커넥터(414)에서 픽셀값들의 이차원 어레이로서의 제 1 영상.
분할 유닛(400)은 출력 커넥터(416)에서 그 출력, 즉, 제 2 세그먼트(108)를 이진 마스크로서 제공한다. 이 제 2 세그먼트(108)는 전용 정합 함수의 최대화 방법, 즉, 양 영상들의 픽셀 값들의 교차 상환에 의해 결정된다. 예로서, 제 1 세그먼트(102)의 픽셀들 대부분을 포함하는 제 1 영상(100)의 일부는 제 2 영상(106)의 픽셀들과 콘볼루트된다.
도 4b는 세그먼트 모션 벡터(110)가 모션 벡터 필드(200)의 복수의 모션 벡터들(202 내지 210)의 사용에 의해 결정되는 분할 유닛(401)을 개략적으로 도시한다. 분할 유닛(401)의 입력 및 출력은 도 4a에 기술된 바와 같은 분할 유닛(400)의 입력 및 출력과 비견할만 하다. 분할 유닛은 하기의 것들을 포함한다.
- 제 1 영상(100) 및 제 2 영상(106)에 기초하여 모션 벡터 필드(200)를 계산하도록 설계된 모션 추정기(402). 모션 벡터 필드(200)는 복수의 모션 벡터들(202 내지 210)을 포함하고, 각 모션 벡터(202 내지 210)는 제 1 영상(100)의 픽셀들(212 내지 220)의 제 1 블록으로부터 제 2 영상(106)의 픽셀들(222 내지 230)의 제 2 블록으로의 전이를 기술한다. 이 모션 추정기(402)는 적어도 두개의 영상들에 기초하여 모션 벡터 필드(200)를 계산할 수 있다.
- 모션 벡터 필드(200)의 모션 벡터들(202 내지 210)에 기초하여, 제 1 세그먼트(102)의 변환에 대응하는 세그먼트 모션 벡터(110)를 계산하도록 설계된 추정기(404). 변환을 기술하는 모션 벡터(110)는 제 1 세그먼트(102)와 실질적으로 대응하는 모션 벡터 필드(232)의 일부에 위치된 모션 벡터들(208, 210)의 평균값 또는 최빈값을 취함으로써 결정될 수 있다. 이 결정에 의해, 모션 벡터 필드(200)의 모션 벡터들(202 내지 210)에 할당된 가중 펙터들을 이용할 수 있다. 가중 팩터들은 모션 추정기(402)에 의해 제공되는 바와 같은 모션 벡터들(202 내지 210)의 신뢰도 수준들에 기초하거나, 및/또는 픽셀들(212 내지 220)의 대응 블록들의 제 1 세그먼트의 경계부까지의 거리에 기초할 수 있다. 예로서, 특정 모션 벡터의 픽셀들의 블록이 세그먼트의 경계부에 또는 그에 근접하게 위치되는 경우에, 이때, 특정 모션 벡터가 오류일 가능성이 크다. 이 경우에 가중 팩터는 낮아야만 한다.
- 아웃라이어들(outliers)을 제거하도록 설계된, 추정기(404)의 일부가 되는 선택적인 필터(406). 아웃라이어들은 그 값들이 사전 선택된 또는 사전 계산된 값으로부터 사전 결정된 임계값 보다 크게 다른 모션 벡터들이다.
도 4c는 형상 어댑터(408)를 포함하는 분할 유닛(403)의 실시예를 개략적으로 도시한다. 본 실시예는 도 4b에 기술된 바와 같은 분할 유닛(401)과 거의 같다. 주된 차이점은 이 분할 유닛(403)은 제 2 세그먼트(108)의 형상을 적응시킬 수 있다는 것이다. 도 4b에 기술된 바와 같은 분할 유닛(401)은 제 1 세그먼트(102)의 형상과 같은 형상을 가지는 제 2 세그먼트(108)를 출력으로서 제공한다. 하기의 경우에, 제 2 세그먼트(108)의 형상이 적응될 수 있다.
- 제 1 세그먼트(102)의 경계부와 실질적으로 대응하는 모션 벡터 필드의 일부에 위치된 모션 벡터 필드(200)로부터의 모션 벡터들이 제 1 세그먼트(102)와 실질적으로 대응하는 모션 벡터 필드의 부분(232)에 위치된 모션 벡터들(208, 210)과 상이한 경우에, 이때, 이들 "경계부 모션 벡터들"은 오브젝트에 관련되어 있지 않은 것으로 가정될 수 있다.
- 제 1 세그먼트(102)의 직접 주변과 실질적으로 대응하는 모션 벡터 필드의 일부에 위치된 모션 벡터 필드(200)로부터의 모션 벡터들이 제 1 세그먼트(102)와 실질적으로 대응하는 모션 벡터 필드의 부분(232)에 위치된 모션 벡터들(208, 210)과 매우 유사한 경우, 이때, 이들 "주변 모션 벡터들"도 오브젝트와 관련되어 있는 것으로 가정될 수 있다.
형상의 적응은 상술한 모션 벡터들, 즉, "경계부 모션 벡터들" 및 "주변 모션 벡터들"에 대응하는 픽셀들의 블록들에 기초한다.
도 5는 영상 처리 장치(500)의 실시예를 개략적으로 도시하며, 이 영상 처리 장치는 하기의 것들을 포함한다.
- 도 4c에 기술된 바와 같은 분할 유닛(403),
- 분할 유닛(403)에 의해 분할된 영상의 부분들을 분석하도록 설계된 분석기(502), 및
- 분석 결과들을 가시화하기 위한 디스플레이 디바이스(504).
영상들의 시리즈들이 영상 처리 장치(500)의 입력 커넥터(506)에 제공된다. 사용자는 관심 영역, 즉, 그 시리즈의 제 1 영상내의 제 1 세그먼트를 수동으로 분할하기 위해 사용자 인터페이스(508)를 경유하여 영상 처리 장치(500)와 대화할 수 있다. 분할 유닛(403)은 영상들의 시리즈들의 첫 번째 두 영상들과, 이 제 1 세그먼트에 기초하여 제 2 세그먼트를 계산할 수 있다. 그후, 분할 유닛(403)은 하기의 것들 중 어느 하나에 기초하여 제 3 세그먼트를 계산할 수 있다.
- 제 1 세그먼트와, 그 시리즈의 제 1 및 제 3 영상, 또는
- 제 2 세그먼트와, 그 시리즈의 제 2 및 제 3 영상
따라서, 그 시리즈의 다른 영상들의 후속 세그먼트들이 계산될 수 있다. 영상들과 함께 분할 유닛(403)의 출력은 분석기(502)에 교환된다. 분석기는 분할 유닛(403)에 의해 분할된 바와 같은 세그먼트들에 대응하는 오브젝트의 3-차원 특성들을 추정하도록 설계된다. 분석기의 출력은 디스플레이 디바이스(504)상에 디스플레이된다.
상술한 실시예들은 본 발명을 제한하는 것이 아니라 예시하는 것이며, 본 기술 분야의 숙련자들은 첨부된 청구항의 범주로부터 벗어나지 않고 대안적인 실시예들을 설계할 수 있다는 것을 인지하여야만 한다. 청구항에서, 괄호내에 기재된 소정의 참조 부호들은 청구항을 한정하는 것으로서 이해되어서는 안된다. 단어 "포함하는"은 청구항에 나열되지 않은 구성요소들 또는 단계들의 존재를 배제하지 않는다. 구성요소들에 선행하는 단어 "하나(a)" 또는 "하나(an)"는 이런 소자들이 복수개 존재하는 경우를 배제하지 않는다. 본 발명은 몇 개의 별개의 구성요소들을 포함하는 하드웨어에 의해, 그리고, 적절히 프로그램된 컴퓨터에 의해 구현될 수 있다. 다수의 수단들을 열거하는 단일 청구항에서, 이들 수단들 중 다수가 하나의 하드웨어 및 동일 품목의 하드웨어에 의해 구현될 수 있다.

Claims (16)

  1. 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법으로서, 상기 시리즈들의 제 1 영상(100)의 제 1 세그먼트(102)에 기초하여, 상기 시리즈들의 제 2 영상(106)의 제 2 세그먼트(108)를 결정하는 단계를 포함하고, 상기 제 1 세그먼트(102) 및 상기 제 2 세그먼트(108)는 오브젝트(104)에 대응하는, 상기 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법에 있어서,
    상기 제 1 영상(100)과 상기 제 2 영상(106)의 픽셀들의 값들을 비교함으로써, 상기 제 2 세그먼트(108)로의 상기 제 1 세그먼트(102)의 변환을 규정하는 세그먼트 모션 모델(segment motion model)을 계산하는 계산 단계를 포함하고,
    상기 계산 단계는,
    상기 제 1 영상(100) 및 상기 제 2 영상(106)에 기초하여 복수의 모션 벡터들(202 내지 210)을 포함하는 모션 벡터 필드(200)를 계산하는 제 1 하위 단계로서, 각각의 모션 벡터(202 내지 210)는 상기 제 1 영상(100)의 픽셀들(212 내지 220)의 제 1 블록으로부터 상기 제 2 영상(106)의 픽셀들(222 내지 230)의 제 2 블록으로의 전이를 기술하는, 상기 제 1 하위 단계,
    상기 제 1 영상내의 상기 제 1 세그먼트의 위치와 함께, 상기 제 2 영상내의 상기 제 2 세그먼트의 위치를 규정하는 세그먼트 모션 벡터(110)를 계산하는 제 2 하위 단계로서, 상기 세그먼트 모션 벡터(110)의 계산은 상기 제 1 세그먼트(102) 내에 있는 상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210)에 기초하는, 상기 제 2 하위 단계, 및
    상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210)에 기초하여 상기 제 2 세그먼트(108)의 형상을 조정하는 제 3 하위 단계를 포함하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법.
  2. 제 1 항에 있어서,
    상기 제 2 하위 단계는 상기 모션 벡터들의 신뢰도 수준들을 가중 팩터들로서 이용하여 상기 모션 벡터들을 필터링함으로써 상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210) 사이를 구별하는 필터 단계를 포함하는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법.
  3. 제 1 항에 있어서,
    상기 세그먼트 모션 벡터(110)는 상기 제 1 세그먼트(102)와 실질적으로 대응하는 상기 모션 벡터 필드(200)의 일부(232)에 위치된 모션 벡터들(208, 210)의 최빈값(modal value)에 대응하는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법.
  4. 제 1 항에 있어서,
    상기 세그먼트 모션 벡터(110)는 상기 제 1 세그먼트(102)와 실질적으로 대응하는 상기 모션 벡터 필드(200)의 일부(232)에 위치된 상기 모션 벡터들(208, 210)의 평균값에 대응하는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법.
  5. 제 1 항에 있어서,
    상기 제 2 단계에서 적어도 2개의 세그먼트 모션 벡터들(310, 312)이 계산되는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 방법.
  6. 삭제
  7. 삭제
  8. 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛(400)으로서, 상기 시리즈들의 제 2 영상(106)의 제 2 세그먼트(108)를 결정하는 수단을 포함하고, 상기 결정은 상기 시리즈들의 제 1 영상(100)의 제 1 세그먼트(102)에 기초하고, 상기 제 1 세그먼트(102) 및 상기 제 2 세그먼트(108)는 오브젝트(104)에 대응하는, 상기 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛(400)에 있어서,
    상기 제 1 영상(100)과 상기 제 2 영상(106)의 픽셀들의 값들을 비교함으로써, 상기 제 2 세그먼트(108)로의 상기 제 1 세그먼트(102)의 변환을 규정하는 세그먼트 모션 모델을 계산하도록 설계된 추정기(405),
    상기 제 1 영상(100) 및 상기 제 2 영상(106)에 기초하여 복수의 모션 벡터들(202 내지 210)을 포함하는 모션 벡터 필드(200)를 계산하도록 설계된 모션 추정기(402)로서, 각각의 모션 벡터(202 내지 210)는 상기 제 1 영상(100)의 픽셀들(212 내지 220)의 제 1 블록으로부터 상기 제 2 영상(106)의 픽셀들(222 내지 230)의 제 2 블록으로의 전이를 기술하는, 상기 모션 추정기(402),
    상기 제 1 영상내의 상기 제 1 세그먼트의 위치와 함께, 상기 제 2 영상내의 상기 제 2 세그먼트의 위치를 규정하는 세그먼트 모션 벡터(110)를 계산하도록 설계된 추정기(404)로서, 상기 세그먼트 모션 벡터(110)의 계산은 상기 제 1 세그먼트(102) 내에 있는 상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210)에 기초하는, 상기 추정기(404), 및
    상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210)에 기초하여, 상기 제 2 세그먼트(108)의 형상을 조정하도록 구성된 형상 조정기(408)를 포함하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛.
  9. 제 8 항에 있어서,
    상기 추정기는 상기 모션 벡터들의 신뢰도 수준들을 가중 팩터들로서 이용하여 상기 모션 벡터들을 필터링함으로써 상기 모션 벡터 필드(200)의 상기 모션 벡터들(202 내지 210) 사이를 구별하는 필터(406)를 포함하는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛.
  10. 제 8 항에 있어서,
    상기 추정기(404)는 상기 제 1 세그먼트(102)와 실질적으로 대응하는 상기 모션 벡터 필드(200)의 일부(232)에 위치된 모션 벡터들(208, 210)의 최빈값에 대응하는 상기 세그먼트 모션 벡터(110)를 계산하도록 설계되는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛.
  11. 제 8 항에 있어서,
    상기 추정기(404)는 상기 제 1 세그먼트(102)와 실질적으로 대응하는 상기 모션 벡터 필드(200)의 일부(232)에 위치된 상기 모션 벡터들(208, 210)의 평균값에 대응하는 상기 세그먼트 모션 벡터(110)를 계산하도록 설계되는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛.
  12. 제 8 항에 있어서,
    상기 추정기(404)는 적어도 2개의 세그먼트 모션 벡터들(310, 312)을 계산하도록 설계되는 것을 특징으로 하는, 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛.
  13. 제 8 항 내지 제 12 항 중 어느 한 항에 청구된 분할 유닛을 포함하는 영상 처리 장치(500).
  14. 삭제
  15. 삭제
  16. 삭제
KR1020037000756A 2001-05-17 2002-05-16 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치 KR100937882B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP01201868 2001-05-17
EP01201868.5 2001-05-17
PCT/IB2002/001730 WO2002093488A2 (en) 2001-05-17 2002-05-16 Segmentation unit for and method of determining a second segment and image processing apparatus

Publications (2)

Publication Number Publication Date
KR20030025276A KR20030025276A (ko) 2003-03-28
KR100937882B1 true KR100937882B1 (ko) 2010-01-21

Family

ID=8180332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037000756A KR100937882B1 (ko) 2001-05-17 2002-05-16 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치

Country Status (6)

Country Link
US (1) US7120277B2 (ko)
EP (1) EP1402477A2 (ko)
JP (1) JP2004525472A (ko)
KR (1) KR100937882B1 (ko)
CN (1) CN100530238C (ko)
WO (1) WO2002093488A2 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1308892C (zh) * 2002-02-06 2007-04-04 皇家飞利浦电子股份有限公司 用于分割的装置和方法
EP1579311A2 (en) * 2002-12-20 2005-09-28 Koninklijke Philips Electronics N.V. Segment-based motion estimation
GB0307883D0 (en) * 2003-04-04 2003-05-14 Inst Of Cancer Res The A method and apparatus for imaging
JP4991697B2 (ja) * 2005-04-01 2012-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ データセットにおいて構造体を分割する方法、システム及びコンピュータプログラム
US20090220173A1 (en) * 2005-10-12 2009-09-03 Active Optics Pty Limited Image processing method and system
US8018999B2 (en) * 2005-12-05 2011-09-13 Arcsoft, Inc. Algorithm description on non-motion blur image generation project
US20080063064A1 (en) * 2006-09-13 2008-03-13 Macinnis Alexander Method and System for Motion Compensated Temporal Filtering Using IIR Filtering
US7865030B2 (en) * 2006-09-13 2011-01-04 Broadcom Corporation Method and system for motion compensated temporal filtering using both FIR and IIR filtering
EP2249702A4 (en) * 2008-03-04 2012-01-25 Tomotherapy Inc METHOD AND SYSTEM FOR ENHANCED IMAGE SEGMENTATION
KR101595257B1 (ko) * 2009-04-28 2016-02-18 삼성전자주식회사 디지털 영상 처리 장치 및 방법과 이를 위한 기록매체
US20100303301A1 (en) * 2009-06-01 2010-12-02 Gregory Micheal Lamoureux Inter-Frame Motion Detection
WO2010148250A2 (en) * 2009-06-17 2010-12-23 Tomotherapy Incorporated System and method of applying anatomically-constrained deformation
US8594199B2 (en) * 2010-03-08 2013-11-26 Qualcomm Incorporated Apparatus and method for motion vector filtering based on local image segmentation and lattice maps
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
TWI469088B (zh) 2010-12-31 2015-01-11 Ind Tech Res Inst 前景深度地圖產生模組及其方法
US8693547B2 (en) * 2011-04-06 2014-04-08 Google Inc. Apparatus and method for coding using motion vector segmentation
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
EP2792149A4 (en) * 2011-12-12 2016-04-27 Intel Corp SCENE SEGMENTATION BY USING PREVIOUS IMAGING MOVEMENTS
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
KR101908388B1 (ko) * 2012-07-19 2018-10-17 삼성전자 주식회사 폐색 영역 복원 장치, 폐색 영역을 복원하는 비디오 디코딩 장치 및 폐색 영역 복원 방법
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
CN107469240B (zh) 2013-02-26 2020-04-21 安科锐公司 多叶准直器和用于准直治疗放射束的系统
DE102014201313A1 (de) * 2014-01-24 2015-07-30 Myestro Interactive Gmbh Verfahren zur Erkennung einer Bewegungsbahn mindestens eines bewegten Objektes innerhalb eines Erfassungsbereiches, Verfahren zur Gestikerkennung unter Einsatz eines derartigen Erkennungsverfahrens sowie Vorrichtung zur Durchführung eines derartigen Erkennungsverfahrens
RU2557484C1 (ru) * 2014-03-27 2015-07-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Тамбовский государственный технический университет" ФГБОУ ВПО ТГТУ Способ сегментации изображения

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991428A (en) * 1996-09-12 1999-11-23 Kabushiki Kaisha Toshiba Moving object detection apparatus and method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3851655T2 (de) * 1987-06-09 1995-02-09 Sony Corp Verarbeitung des Bewegungsvektors in Fernsehbildern.
EP0595895B1 (en) * 1991-07-23 1997-12-29 BRITISH TELECOMMUNICATIONS public limited company Method and device for frame interpolation of a moving image
JP2738325B2 (ja) * 1995-01-24 1998-04-08 日本電気株式会社 動き補償フレーム間予測装置
EP1120971B1 (en) * 1996-05-17 2003-09-03 Matsushita Electric Industrial Co., Ltd. Video coding method for coding shape and texture signals using different modes
US6525765B1 (en) * 1997-04-07 2003-02-25 Pandora International, Inc. Image processing
GB9623573D0 (en) * 1996-11-13 1997-01-08 Philips Electronics Nv Image segmentation
US6809758B1 (en) * 1999-12-29 2004-10-26 Eastman Kodak Company Automated stabilization method for digital image sequences
US7006683B2 (en) * 2001-02-22 2006-02-28 Mitsubishi Electric Research Labs., Inc. Modeling shape, motion, and flexion of non-rigid 3D objects in a sequence of images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5991428A (en) * 1996-09-12 1999-11-23 Kabushiki Kaisha Toshiba Moving object detection apparatus and method

Also Published As

Publication number Publication date
WO2002093488A2 (en) 2002-11-21
EP1402477A2 (en) 2004-03-31
CN1488123A (zh) 2004-04-07
US20030035583A1 (en) 2003-02-20
JP2004525472A (ja) 2004-08-19
CN100530238C (zh) 2009-08-19
US7120277B2 (en) 2006-10-10
KR20030025276A (ko) 2003-03-28
WO2002093488A3 (en) 2003-11-27

Similar Documents

Publication Publication Date Title
KR100937882B1 (ko) 영상들의 시리즈들에서의 세그먼트들을 결정하는 분할 유닛 및 방법과 영상 처리 장치
CA2279797C (en) A method for temporal interpolation of an image sequence using object-based image analysis
US6480615B1 (en) Motion estimation within a sequence of data frames using optical flow with adaptive gradients
US6400831B2 (en) Semantic video object segmentation and tracking
JP5312942B2 (ja) 移動物体境界の抽出
US6266443B1 (en) Object boundary detection using a constrained viterbi search
US8363902B2 (en) Moving object detection method and moving object detection apparatus
EP0388187B1 (en) Method and apparatus for detecting motion of moving picture
US20110002509A1 (en) Moving object detection method and moving object detection apparatus
Weiss et al. Perceptually organized EM: A framework for motion segmentation that combines information about form and motion
CN110599522B (zh) 一种视频序列中动态目标检测剔除方法
JP2000306108A (ja) オプティカルフロー推定方法
Naeem et al. Real-time object detection and tracking
US11423561B2 (en) Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs
EP2953093A1 (en) Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing
Loutas et al. Occlusion resistant object tracking
JP3607717B2 (ja) 映像切り出し方法
Altunbasak et al. Simultaneous motion-disparity estimation and segmentation from stereo
Panagiotakis et al. Recognition and tracking of the members of a moving human body
JP2004533073A (ja) 特徴点選択
US10861166B2 (en) Image restoration method
Hatzitheodorou et al. Stereo matching using optic flow
Weissenfeld et al. Robust rigid head motion estimation based on differential evolution
KR19990032058A (ko) 2차원 병진 움직임 벡터와 선형 회기법을 이용한 전역 움직임존재 유무 판정 방법
Zinßer et al. High-speed feature point tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130115

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140110

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160106

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170110

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180105

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee