KR102262930B1 - 상대 좌표 추출 장치 및 방법 - Google Patents

상대 좌표 추출 장치 및 방법 Download PDF

Info

Publication number
KR102262930B1
KR102262930B1 KR1020200166081A KR20200166081A KR102262930B1 KR 102262930 B1 KR102262930 B1 KR 102262930B1 KR 1020200166081 A KR1020200166081 A KR 1020200166081A KR 20200166081 A KR20200166081 A KR 20200166081A KR 102262930 B1 KR102262930 B1 KR 102262930B1
Authority
KR
South Korea
Prior art keywords
image data
coordinates
event
unit
time point
Prior art date
Application number
KR1020200166081A
Other languages
English (en)
Inventor
이시운
최우식
김태규
김재호
강태학
이대경
강지석
Original Assignee
주식회사 딥노이드
한국공항공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드, 한국공항공사 filed Critical 주식회사 딥노이드
Priority to KR1020200166081A priority Critical patent/KR102262930B1/ko
Application granted granted Critical
Publication of KR102262930B1 publication Critical patent/KR102262930B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06K9/4671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T5/007
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

추출 장치가 제공된다. 상기 추출 장치는 물체가 포함된 영상 데이터를 획득하는 획득 유니트; 상기 영상 데이터의 확대 축소 이벤트가 발생되면, 상기 이벤트로 인해 변화된 상기 물체의 상대 좌표를 추출하는 추출 유니트;를 포함할 수 있다.

Description

상대 좌표 추출 장치 및 방법{Apparatus and method for extracting relative coordinates}
본 발명은 각종 영상 데이터에서 특정 물체의 상대 좌표를 추출하는 장치 및 방법에 관한 것이다.
기존의 물체 추적 알고리즘의 경우, 영상에서의 지속적 확대, 축소, 이동에 대한 정확도가 떨어진다. 특히, 다양한 방향과 다양한 배율이 존재하는 X-ray 영상에서의 정확도는 매우 떨어진다.
예를 들어, 검문 기술에 마련되고 가방 내부를 투사하여 특정 디스플레이에 표시되는 X-ray 영상은 사용자에 의해 자유롭게 확대되거나 축소될 수 있다.
이때, X-ray 영상을 분석해서 특이 물체를 자동으로 탐지하는 별도의 탐지 수단이 마련될 수 있다. 해당 탐지 수단에서 파악된 결과는 사용자에 의해 자유롭게 확대되거나 축소되는 원본 영상의 배율 및 표적에 맞게 다른 디스플레이에 표시되는 것이 바람직하다. 이를 위해서는 특정 디스플레이에서 자유롭게 확대되거나 축소되는 물체의 상대 좌표가 파악될 필요가 있다.
한국등록특허공보 제1199764호에는 표적 마커와의 상대적인 좌표를 산출하는 의료 영상 장치가 나타나 있다.
한국등록특허공보 제1199764호
본 발명은 각종 영상에서 발생하는 확대, 축소, 이동 이벤트와 상관없이 항상 특정 물체의 상대적 좌표를 정확하게 추출할 수 있는 추출 장치 및 방법을 제공하기 위한 것이다.
본 발명의 추출 장치는 물체가 포함된 영상 데이터를 획득하는 획득 유니트; 상기 영상 데이터의 확대 축소 이벤트가 발생되면, 상기 이벤트로 인해 변화된 상기 물체의 상대 좌표를 추출하는 추출 유니트;를 포함할 수 있다.
본 발명의 추출 방법은 타겟 물체의 제1 이미지와 현재 영상 프레임의 제2 이미지를 획득하는 단계; 상기 제1 이미지와 상기 제2 이미지를 그레이 스케일로 변환하는 단계; 상기 제1 이미지와 상기 제2 이미지를 리사이즈(resize)시키는 단계; SIFT(Scale Invariant Feature Transform)을 적용해서 상기 제1 이미지와 상기 제2 이미지의 고유 특징과 상기 고유 특징의 좌표를 추출하는 단계; 상기 좌표를 기반으로 상기 제1 이미지와 상기 제2 이미지의 상관 관계 또는 포함 관계를 확인하는 단계; 상기 제1 이미지의 고유 특징과 상기 제2 이미지의 고유 특징을 비교하여 서로 매칭되는 고유 특징의 좌표를 추출하는 단계; 서로 매칭되는 좌표를 비교하여 상기 고유 특징에 대하여 일치율 또는 상관 관계를 산출하는 단계;를 포함할 수 있다.
본 발명에 따르면 지속적으로 확대, 축소, 이동되는 각종 영상에 포함된 특정 물체의 상대 좌표가 정확하게 추출할 수 있다.
본 발명에 따르면, 사용자에 의해 발생되는 영상의 확대, 축소, 이동에 상관없이 해당 영상에 포함된 특정 물체가 상대 좌표를 이용해서 정규화될 수 있다.
정규화된 특정 물체 이미지는 설정 기능을 갖는 인공 지능 요소에 투입될 수 있으며, 해당 인공 지능 요소에 의해 분석되거나 설정 기능이 부가된 상태로 출력될 수 있다.
본 발명에 따르면, 인공 지능 요소로부터 출력된 특정 물체 이미지는 상대 좌표를 이용해서, 현재 출력 중인 원본 이미지의 배율에 맞춰 변환되고 원본 이미지와 함께 표시될 수 있다.
사용자는 원본 이미지를 확대, 축소, 이동시키면 원본 이미지와 함께 확대 등이 되는 새로운 이미지를 추가로 제공받을 수 있다. 해당 이미지는 인공 지능 요소에 의해 기설정된 특이 물체가 구분되어 표시되는 등의 부가 기능이 부가된 상태일 수 있다. 자유롭게 확대 등이 되는 원본 이미지로부터 분리된 새로운 이미지는 분리된 이후의 원본 이미지의 배율 변화를 추종하기 어렵다. 하지만, 본 발명에 따르면, 원본 이미지의 배율 변화를 추종할 수 있는 새로운 이미지가 사용자에게 제공될 수 있다.
본 발명의 추출 장치는 가방 속의 내용물을 투사하는 검색 시스템, 원본 이미지에 각종 부가 효과를 부가하는 이미지 처리 시스템 등의 다양한 분야에 적용될 수 있다.
본 발명은 확대 축소, 이동이 자유롭게 보장되는 원본 이미지로부터 복사된 복사 이미지에 대해 다양한 처리를 가할 수 있는 환경을 제공할 수 있다. 또한, 다양하게 처리된 복사 이미지를 원본 이미지의 확대, 축소, 이동에 맞춰 원본 이미지와 동일한 배율로 표시할 수 있는 장점을 갖는다.
도 1은 본 발명의 추출 장치를 나타낸 개략도이다.
도 2는 추출부의 동작을 나타낸 개략도이다.
도 3은 추출부의 다른 동작을 나타낸 개략도이다.
도 4는 본 발명의 추출 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.
도 1은 본 발명의 추출 장치를 나타낸 개략도이다.
도 1에 도시된 추출 장치는 획득 유니트(110), 추출 유니트(130)를 포함할 수 있다.
획득 유니트(110)는 타겟 물체가 포함된 영상 데이터를 획득할 수 있다.
일 예로, 가방(80)의 내용물(90)을 투사하는 X-ray 검사기가 마련될 수 있다. 검사기에는 물체를 촬영하는 촬영 수단(10)이 마련될 수 있다. 촬영 수단(10)이 검사하고자 하는 타겟 물체는 가방(80) 또는 가방(80) 속에 수납된 내용물(90)일 수 있다.
촬영 수단(10)은 같은 검사 시스템에 편입된 원본 표시 수단(30)에 검사 영상을 제공할 수 있다.
획득 유니트(110)는 촬영 수단(10) 또는 원본 표시 수단(30)으로부터 영상 데이터를 획득할 수 있다. 이때, 획득 유니트(110)는 촬영 수단(10)으로부터 원본 표시 수단(30)에 제공되는 검사 영상을 복사(copy)해서 가져올 수 있다. 기본적으로, 본 발명의 추출 장치는 원본 영상(원본 이미지, 원본 데이터) o인 검사 영상을 건드리지 않는 것을 원칙으로 할 수 있다.
추출 유니트(130)는 영상 데이터의 확대 축소 이벤트가 발생되면, 이벤트로 인해 변화된 물체의 상대 좌표를 추출할 수 있다.
획득 유니트(110)에서 획득되는 영상 데이터는 원본 표시 수단(30)에 표시되는 검사 영상의 복사본 c임을 다시 한번 환기한다.
만약, 사용자가 각종 입력 장치를 이용해서 원본 표시 수단(30)에 표시되는 원본 영상을 2배로 확대하면, 원본 영상 o의 복사본 c에 해당하는 영상 데이터 역시 2배로 확대될 수 있다.
복사본에 해당하는 영상 데이터를 이용하면, 원본 영상을 훼손하지 않으면서 물체가 포함된 영상에 대한 다양한 작업이 적용될 수 있다. 일 예로, 이미지 처리 수단을 이용하면, 영상에 포함된 특정 물체에 특수 이미지 효과가 부여될 수 있다. 판독부(135)를 이용하면, 영상에 포함된 특이 물체가 추출되거나, 영상에 포함된 물체의 정체가 자동으로 판독될 수 있다.
이때, 이미지 처리 수단, 판독부(135) 등이 정상적으로 동작하기 위해서는 입력 데이터가 정규화될 필요가 있다. 그런데, 사용자에 의해 원본 영상이 자유롭게 확대, 축소, 이동되는 확대 축소 이벤트가 발생되면, 복사본인 영상 데이터에도 해당 이벤트가 그대로 적용될 수 있다. 따라서, 동일한 물체가 다양한 크기를 갖는 경우 판독 작업 등에 많은 부하가 인가되거나, 판독 모델을 형성하는 머신 러닝 기간이 대폭 증가할 수 있다. 이러한 문제를 해소하기 위해, 확대 축소 이벤트의 여부에 상관없이 영상 데이터의 물체를 설정 배율로 자동 변환하는 수단이 마련되는 것이 좋다. 이에 따르면, 판독부(135) 등은 설정 배율의 물체에 대해서만 대비하면 충분하다.
영상 데이터의 물체를 설정 배율로 자동 변환하기 위한 사전 단계로, 영상 데이터에 포함된 물체의 상대 좌표가 추출될 필요가 있다.
추출 유니트(130)는 제1 시점에서 영상 데이터에 포함된 특정 물체의 특징점(91) 좌표와 제2 시점에서 영상 데이터에 포함된 특정 물체의 특징점(91) 좌표 간의 차이를 이용해서 상대 좌표를 추출할 수 있다.
영상 데이터는 동영상일 수 있다. 제1 시점에 획득된 영상 데이터와 제2 시점에 획득된 영상 데이터는 위치, 배율 등이 서로 다를 수 있다. 일 예로, 제2 시점은 현재 시점이고, 제1 시점은 제2 시점보다 수초의 과거 시점일 수 있다. 또는, 제1 시점은 영상 데이터가 설정 배율, 예를 들어 1배율일 때의 시점일 수 있다.
추출 유니트(130)는 제1 시점의 영상 데이터에 포함된 특정 물체의 특징점(91)을 추출하고, 제1 시점 특징점(91)의 좌표를 추출해서 저장할 수 있다.
추출 유니트(130)는 제2 시점의 영상 데이터에 포함된 특정 물체의 특징점(91)을 추출하고, 제2 시점 특징점(91)의 좌표를 추출할 수 있다. 그리고, 추출 유니트(130)는 기저장된 제1 시점 특징점(91)의 좌표를 제2 시점 특징점(91)의 좌표를 비교해서 상대 좌표를 추출할 수 있다. 상대 좌표는 제1 시점 특징점(91)의 좌표를 기준으로 하는 제2 시점 특징점(91)의 좌표일 수 있다. 또는, 상대 좌표는 제2 시점 특징점(91)의 좌표를 기준으로 하는 제1 시점 특징점(91)의 좌표일 수 있다.
다른 관점에서 살펴보면, 추출 유니트(130)는 설정 배율의 영상 데이터에 포함된 특정 물체의 특징점(91) 좌표와 현재 시점의 확대 배율(플러스 배율 및 마이너스 배율 포함)에서 영상 데이터에 포함된 특정 물체의 특징점(91) 좌표 간의 차이를 이용해서 상대 좌표를 추출할 수 있다. 설정 배율의 영상 데이터는 제1 시점에 획득된 것일 수 있다.
추출 유니트(130)에는 추출부(131), 제1 변환부(133), 판독부(135), 제2 변환부(137), 표시부(139)가 마련될 수 있다.
도 2는 추출부(131)의 동작을 나타낸 개략도이다. 도 3은 추출부(131)의 다른 동작을 나타낸 개략도이다.
추출부(131)는 설정 배율의 영상 데이터에 포함된 물체의 기본 특징점(91)과 기본 좌표를 추출할 수 있다.
추출부(131)는 현재 시점의 이벤트 배율에서 영상 데이터에 포함된 물체의 이벤트 특징점(91)과 이벤트 좌표를 추출할 수 있다.
추출부(131)는 서로 상관 관계를 갖거나 포함 관계를 갖는 기본 특징점(91)과 이벤트 특징점(91)을 탐색할 수 있다.
추출부(131)는 탐색을 통해 서로 매칭되는 기본 특징점(91)의 기본 좌표와 이벤트 특징점(91)의 이벤트 좌표를 이용해서 상대 좌표를 추출할 수 있다.
도 2에서 제1 영상 데이터 i1은 설정 배율의 영상 데이터 또는 제1 시점의 영상 데이터에 해당될 수 있다.
도 2에서 제2 영상 데이터 i2는 현재 시점의 이벤트 배율을 갖는 영상 데이터 또는 제2 시점의 영상 데이터에 해당될 수 있다.
추출부(131)는 SIFT(Scale Invariant Feature Transform) 알고리즘 등을 적용하여 도 2의 제1 영상 데이터 i1과 제2 영상 데이터 i2에서 고유 특징과 해당 고유 특징의 좌표(특징점(91) 좌표)를 추출할 수 있다.
SIFT 알고리즘을 통해 추출된 각 고유 특징과 좌표는 (kp, (x, y))의 형식을 가질 수 있다.
추출부(131)는 추출된 좌표를 기반으로 제1 영상 데이터 i1 및 제2 영상 데이터 i2의 상관 관계와 포함 관계를 도 3과 같이 확인할 수 있다.
추출부(131)는 제1 영상 데이터 i1 및 제2 영상 데이터 i2의 특징 kp를 비교하고 서로 매칭되는 특징들의 좌표를 추출할 수 있다.
추출부(131)는 서로 매칭되는 좌표들을 비교하고, 해당 고유 특징들에 대하여 일치율(상관 관계)을 산출할 수 있다.
추출부(131)는 상관 관계가 설정값 이상이면, 포함 관계를 통해 상대 좌표를 출력할 수 있다. 추출부(131)는 상관 관계가 설정값을 만족하지 못하면, 상대 좌표를 미출력할 수 있다.
도 3은 특징점(91) 좌표를 이용해 파악된 포함 관계를 나타낼 수 있다. 도 3의 b는 제1 영상 데이터 i1에 제2 영상 데이터 i2가 포함되는 상태를 나타낼 수 있다. 도 3의 b 박스는 제2 영상 데이터의 크기를 나타내거나, 제1 영상 데이터 i1에 대한 제2 영상 데이터의 상대적 좌표 플롯(plot)을 나타낼 수 있다.
정리하면, 획득 유니트(110)에서 물체를 촬영하는 촬영 수단(10)에서 생성되고 원본 표시 수단(30)에 표시되는 원본 데이터(원본 영상)가 복사되면, 추출 유니트(130)는 원본 데이터의 복사본에 해당하는 영상 데이터를 이용해서 상대 좌표를 추출할 수 있다.
제1 변환부(133)는 제3 시점에서 추출된 상대 좌표를 이용해서 물체를 설정 규격으로 제1 변환할 수 있다
제1 변환부(133)는 상대 좌표를 이용해서 제3 시점의 이벤트 배율이 적용된 물체를 설정 규격(설정 배율)으로 제1 변환할 수 있다. 다시 말해, 제1 변환을 통해 다양한 이벤트 배율이 적용된 물체는 모두 설정 배율로 규격화, 정규화될 수 있다.
판독부(135)는 설정 규격의 물체를 판독할 수 있다. 일 예로, X-ray 검사기의 경우, 판독부(135)는 설정 규격의 물체가 통과 불가능한 특이 물체에 해당되는지 판독할 수 있다. 이를 위해 판독부(135)는 머신 러닝된 모델을 탑재할 수 있다.
제2 변환부(137)는 제3 시점보다 늦은 제2 시점에서 추출된 상대 좌표를 이용해서 설정 규격의 물체를 제4 시점의 이벤트 배율에 맞춰 제2 변환할 수 있다.
표시부(139)는 제2 변환된 물체를 표시할 수 있다. 표시부(139)는 원본 표시 수단(30)과 마찬가지로 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode) 등의 각종 디스플레이를 포함할 수 있다. 표시부(139)는 원본 표시 수단(30)과 함께 사용자에 의해 모니터링되는 모니터링 시스템(50)을 형성할 수 있다.
표시부(139)에는 원본 영상이 표시되지 않을 수 있다. 표시부(139)에는 원본 영상의 복사본인 영상 데이터의 표시되며, 판독부(135)에 의해 판독된 판독 결과가 함께 표시될 수 있다. 표시부(139)에 표시되는 영상 데이터의 배율은 원본 표시 수단(30)에 표시되는 원본 영상의 배율과 동일한 것이 좋다.
다시 말해, 제3 시점에 사용자가 원본 영상을 1.3배로 확대하고, 아주 짧은 시간이 경과된 제4 시점에 사용자가 원본 영상을 2배로 확대할 수 있다. 이 경우, 표시부(139)에도 제3 시점에 1.3배 확대된 영상 데이터가 표시되고, 제4 시점에 2배 확대된 영상 데이터가 표시되는 것이 좋다.
제3 시점의 이벤트 배율이 적용된 영상 데이터가 추출부(131)에 입력되고 제1 변환부(133), 판독부(135)를 거치는 짧은 시간 동안, 사용자는 이벤트 배율을 변경할 수 있다. 이 경우, 사용자가 제4 시점에 새롭게 변경된 배율에 맞춰 표시부(139)에 영상 데이터가 출력될 필요가 있다. 다시 말해, 제3 시점에 맞춰 획득된 상대 좌표를 역이용하면 사용자의 확대 축소 이벤트에 실시간으로 대응하지 못할 수 있다.
본 실시예에 따르면, 제2 변환부(137)는 추출부(131)로부터 제4 시점에 추출된 상대 좌표를 입수해서, 설정 규격의 물체를 제4 시점의 이벤트 배율에 맞춰 제2 변환할 수 있다. 그 결과, 제4 시점에 표시 수단에 표시되는 이벤트 배율과 동일한 배율로 제2 변환된 영상 데이터가 표시부(139)에 표시될 수 있다.
판독부(135)는 판독 결과를 물체 상에 마킹할 수 있다. 일 예로, 판독부(135)는 사전에 규정된 특이 물체가 판독되면, 특이 물체로 추정되는 영상 데이터의 물체 테두리를 붉은 색으로 표시하는 마킹을 수행할 수 있다. 이때, 붉은 색으로 표시된 물체 테두리가 마킹에 해당될 수 있다.
제2 변환부(137)는 물체 및 물체 상에 마킹된 마커를 물체와 함께 제2 변환할 수 있다. 제2 변환된 마커는 표시부(139)를 통해 표시되며, 사용자는 표시부(139)의 표시된 마커를 쉽게 인지할 수 있다. 마커의 표시로 인해 물체의 원래 이미지가 일부 훼손될 수 있으나, 동일한 배율의 물체가 원본 표시 수단(30)에 표시되고 있는 상태이므로 별다른 문제가 없다.
도 4는 본 발명의 추출 방법을 나타낸 흐름도이다. 도 4에 도시된 추출 방법은 도 1의 추출 장치에 의해 수행될 수 있다.
타겟 물체의 제1 이미지(제1 영상 데이터)와 현재 영상 프레임의 제2 이미지(제2 영상 데이터)를 획득하는 단계(S 510)가 수행될 수 있다. 획득 유니트(110)에 의해 수행될 수 있다.
제1 이미지와 상기 제2 이미지를 그레이 스케일로 변환하는 단계(S 520)가 수행될 수 있다.
제1 이미지와 제2 이미지를 리사이즈(resize)시키는 단계(S 530)가 수행될 수 있다. 그레이 스케일 변환 단계(S 520) 및 리사이즈시키는 단계(S 530)는 추출부(131)에 의해 수행될 수 있다. 위 두 단계를 통해 상대 좌표를 산출하는 연산 부하가 경감될 수 있다.
SIFT(Scale Invariant Feature Transform) 알고리즘을 적용해서 제1 이미지와 제2 이미지의 고유 특징 및 고유 특징의 좌표를 추출하는 단계(S 540)가 수행될 수 있다. 본 단계(S 540)는 추출부(131)에 의해 수행될 수 있다.
좌표를 기반으로 제1 이미지와 제2 이미지의 상관 관계 또는 포함 관계를 확인하는 단계(S 550)가 수행될 수 있다. 추출부(131)에 의해 수행될 수 있다.
제1 이미지의 고유 특징과 상기 제2 이미지의 고유 특징을 비교하여 서로 매칭되는 고유 특징의 좌표를 추출하는 단계(S 560). 본 단계는 추출부(131)에 의해 수행될 수 있다.
서로 매칭되는 좌표를 비교하여 상기 고유 특징에 대하여 일치율 또는 상관 관계를 산출하는 단계(S 570)가 수행될 수 있다. 본 단계는 추출부(131)에 의해 수행될 수 있다.
제1 이미지와 제2 이미지 간의 상관 관계가 설정값을 만족하면, 서로 대응되는 특징점(91) 좌표에 대한 상대 좌표를 출력하는 단계(S 580)가 수행될 수 있다. 상기 제1 이미지와 제2 이미지 간의 상관 관계가 없다면, 상대 좌표는 출력되지 않아도 무방하다. 해당 동작은 추출부(131)에 의해 수행될 수 있다.
도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 5의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 추출 장치, 추출 유니트(130) 등) 일 수 있다.
도 5의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
10...촬영 수단 30...원본 표시 수단
50...모니터링 시스템 80...가방
90...내용물 91...특징점
110...획득 유니트 130...추출 유니트
131...추출부 133...제1 변환부
135...판독부 137...제2 변환부
139...표시부

Claims (7)

  1. 물체가 포함된 영상 데이터를 획득하는 획득 유니트;
    상기 영상 데이터의 확대 축소 이벤트가 발생되면, 상기 이벤트로 인해 변화된 상기 물체의 상대 좌표를 추출하는 추출 유니트;를 포함하고,
    상기 획득 유니트는 상기 물체를 촬영하는 촬영 수단에서 생성되고 원본 표시 수단에 표시되는 원본 데이터를 복사하고,
    상기 추출 유니트는 상기 원본 데이터의 복사본에 해당하는 상기 영상 데이터를 이용해서 상기 상대 좌표를 추출하며,
    제1 변환부, 판독부, 제2 변환부, 표시부가 마련되고,
    상기 제1 변환부는 제3 시점에서 추출된 상대 좌표를 이용해서 상기 제3 시점의 이벤트 배율이 적용된 물체를 설정 규격으로 제1 변환하며,
    상기 판독부는 상기 설정 규격의 상기 물체를 판독하고,
    상기 제2 변환부는 제3 시점보다 늦은 제4 시점에서 추출된 상대 좌표를 이용해서 상기 설정 규격의 상기 물체를 상기 제4 시점의 이벤트 배율에 맞춰 제2 변환하며,
    상기 표시부는 상기 제2 변환된 상기 물체를 표시하는 추출 장치.
  2. 제1항에 있어서,
    상기 추출 유니트는 제1 시점에서 상기 영상 데이터에 포함된 특정 물체의 특징점 좌표와 제2 시점에서 상기 영상 데이터에 포함된 상기 특정 물체의 특징점 좌표 간의 차이를 이용해서 상기 상대 좌표를 추출하는 추출 장치.
  3. 제1항에 있어서,
    상기 추출 유니트는 설정 배율의 상기 영상 데이터에 포함된 특정 물체의 특징점 좌표와 현재 시점의 확대 배율에서 상기 영상 데이터에 포함된 상기 특정 물체의 특징점 좌표 간의 차이를 이용해서 상기 상대 좌표를 추출하는 추출 장치.
  4. 제1항에 있어서,
    상기 추출 유니트는 설정 배율의 상기 영상 데이터에 포함된 물체의 기본 특징점과 기본 좌표를 추출하고,
    상기 추출 유니트는 현재 시점의 이벤트 배율에서 상기 영상 데이터에 포함된 물체의 이벤트 특징점과 이벤트 좌표를 추출하며,
    상기 추출 유니트는 서로 상관 관계를 갖거나 포함 관계를 갖는 기본 특징점과 이벤트 특징점을 탐색하고,
    상기 추출 유니트는 상기 탐색을 통해 서로 매칭되는 기본 특징점의 기본 좌표와 이벤트 특징점의 이벤트 좌표를 이용해서 상기 상대 좌표를 추출하는 추출 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 판독부는 상기 판독 결과를 상기 물체 상에 마킹하고,
    상기 제2 변환부는 상기 물체 및 상기 물체 상에 마킹된 마커를 상기 물체와 함께 제2 변환하며,
    상기 표시부는 상기 제2 변환된 상기 마커 및 상기 물체를 표시하는 추출 장치.
  7. 추출 장치에 의해 수행되는 추출 방법에 있어서,
    물체를 촬영하는 촬영 수단에서 생성되고 원본 표시 수단에 표시되는 원본 데이터를 복사하는 단계;
    상기 원본 데이터의 복사본에 해당하는 영상 데이터를 이용해서 상기 물체의 상대 좌표를 추출하는 단계;
    제3 시점에서 추출된 상대 좌표를 이용해서 상기 제3 시점의 이벤트 배율이 적용된 물체를 설정 규격으로 제1 변환하는 단계;
    상기 설정 규격의 상기 물체를 판독하는 단계;
    상기 제3 시점보다 늦은 제4 시점에서 추출된 상대 좌표를 이용해서 상기 설정 규격의 상기 물체를 상기 제4 시점의 이벤트 배율에 맞춰 제2 변환하는 단계;
    상기 제2 변환된 상기 물체를 표시하는 단계;
    를 포함하는 추출 방법.
KR1020200166081A 2020-12-01 2020-12-01 상대 좌표 추출 장치 및 방법 KR102262930B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200166081A KR102262930B1 (ko) 2020-12-01 2020-12-01 상대 좌표 추출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200166081A KR102262930B1 (ko) 2020-12-01 2020-12-01 상대 좌표 추출 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102262930B1 true KR102262930B1 (ko) 2021-06-09

Family

ID=76415219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200166081A KR102262930B1 (ko) 2020-12-01 2020-12-01 상대 좌표 추출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102262930B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241329A (ja) * 2004-02-25 2005-09-08 Fujitsu Ten Ltd 検査方法、及び検査装置
JP2006139697A (ja) * 2004-11-15 2006-06-01 Fuji Photo Film Co Ltd 画像処理装置及び画像処理方法
KR20080029080A (ko) * 2006-09-28 2008-04-03 부천산업진흥재단 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
JP2012518238A (ja) * 2009-02-18 2012-08-09 エーナイン・ドット・コム インコーポレイテッド 画像マッチングのための方法およびシステム
KR101199764B1 (ko) 2011-02-23 2012-11-09 가천대학교 산학협력단 상대적 좌표 추출 장치와 이를 이용한 의료 영상 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241329A (ja) * 2004-02-25 2005-09-08 Fujitsu Ten Ltd 検査方法、及び検査装置
JP2006139697A (ja) * 2004-11-15 2006-06-01 Fuji Photo Film Co Ltd 画像処理装置及び画像処理方法
KR20080029080A (ko) * 2006-09-28 2008-04-03 부천산업진흥재단 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
JP2012518238A (ja) * 2009-02-18 2012-08-09 エーナイン・ドット・コム インコーポレイテッド 画像マッチングのための方法およびシステム
KR101199764B1 (ko) 2011-02-23 2012-11-09 가천대학교 산학협력단 상대적 좌표 추출 장치와 이를 이용한 의료 영상 장치

Similar Documents

Publication Publication Date Title
CN104811660B (zh) 控制装置及控制方法
AU2014274232B2 (en) Smart prosthesis for facilitating artificial vision using scene abstraction
CN109993086B (zh) 人脸检测方法、装置、系统及终端设备
KR20200040665A (ko) 컨볼루션 신경망을 이용하여 poi 변화를 검출하기 위한 시스템 및 방법
WO2015074521A1 (en) Devices and methods for positioning based on image detection
US9996947B2 (en) Monitoring apparatus and monitoring method
US20180150967A1 (en) Entity visualization method
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
US9165220B2 (en) Image object recognition based on a feature vector with context information
JPWO2017163384A1 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
WO2019062818A1 (zh) 用于识别电气设备的状态的方法和装置
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
KR20110014450A (ko) 얼굴 인식률 개선 장치 및 방법
CN110909638A (zh) 一种基于arm平台的人脸识别方法及系统
US11989928B2 (en) Image processing system
KR102262930B1 (ko) 상대 좌표 추출 장치 및 방법
KR20220015056A (ko) 3d 환경 모델을 이용하여 피사체의 실제 크기를 측정 가능한 cctv 관제 시스템
KR20190115161A (ko) 3차원 객체 생성 장치
Jmaa et al. Arabic sign language recognition based on HOG descriptor
KR102221152B1 (ko) 객체 자세 기반 연출 효과 제공 장치 및 방법, 그리고 이를 위한 컴퓨터 프로그램이 기록된 기록매체
JP2001236508A (ja) 顕著性算出装置及び方法
US20230096044A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2020071717A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009025856A (ja) 帳票識別プログラム及び帳票識別装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant