KR102297217B1 - Method and apparatus for identifying object and object location equality between images - Google Patents

Method and apparatus for identifying object and object location equality between images Download PDF

Info

Publication number
KR102297217B1
KR102297217B1 KR1020180157485A KR20180157485A KR102297217B1 KR 102297217 B1 KR102297217 B1 KR 102297217B1 KR 1020180157485 A KR1020180157485 A KR 1020180157485A KR 20180157485 A KR20180157485 A KR 20180157485A KR 102297217 B1 KR102297217 B1 KR 102297217B1
Authority
KR
South Korea
Prior art keywords
images
identity
identifying
feature points
region
Prior art date
Application number
KR1020180157485A
Other languages
Korean (ko)
Other versions
KR20200069911A (en
Inventor
유석봉
한미경
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180157485A priority Critical patent/KR102297217B1/en
Publication of KR20200069911A publication Critical patent/KR20200069911A/en
Application granted granted Critical
Publication of KR102297217B1 publication Critical patent/KR102297217B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6215
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치가 개시된다. 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법은, 크라우드 소싱 기반으로 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함한다.A method and apparatus are disclosed for identifying the identity of an object and an object position between images. A method for identifying the identity of an object and an object position between images includes collecting a plurality of images based on crowdsourcing, separating the collected images into an object region and a background region, respectively, and separating the plurality of images into the object region and identifying the identity of an object by matching feature points extracted from the obtained images with each other, and identifying the identity of an object position by matching feature points extracted from images separated by the background area.

Description

영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치{METHOD AND APPARATUS FOR IDENTIFYING OBJECT AND OBJECT LOCATION EQUALITY BETWEEN IMAGES}METHOD AND APPARATUS FOR IDENTIFYING OBJECT AND OBJECT LOCATION EQUALITY BETWEEN IMAGES

본 발명은 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치에 관한 것으로, 더욱 상세하게는 영상들 간에 객체의 동일성 뿐만 아니라 객체의 위치 동일성을 판단함으로써, 관심 객체의 변화 상태를 정확히 식별하는 기술에 관한 것이다.The present invention relates to a method and apparatus for identifying the identity of an object and an object position between images, and more particularly, by determining the identity of the object as well as the identity of the object between images, the change state of the object of interest can be accurately determined It's about identifying skills.

영상 분석 기술이 발달함에 따라 카메라로 촬영된 각종 영상들을 분석하여 관심 객체를 비롯한 주변 환경 변화를 관찰하고자 하는 연구가 활발히 진행되고 있다. 특히, 안전하고 자동화된 스마트 시티를 구축하기 위해서는 도로나 주택가 등에 설치된 각종 CCTV 영상들을 분석하여 도시 내 도로 환경이나 주거 환경 변화를 신속하게 파악하고 대처하는 것이 필수적이다.With the development of image analysis technology, research is being actively conducted to analyze various images captured by a camera to observe changes in the surrounding environment including the object of interest. In particular, in order to build a safe and automated smart city, it is essential to analyze various CCTV images installed on roads or residential areas to quickly identify and respond to changes in the road environment or residential environment in the city.

이처럼, 다수의 카메라로부터 획득된 이미지를 분석하여 이미지에 포함된 여러 객체들의 변화를 추적하는 종래 기술들 중 하나는, 관심 객체가 움직이는 속도를 추정하고, 추정한 속도를 기반으로 객체가 될 수 있는 후보를 최소화한다. 이후, 최소화된 후보들을 대상으로 객체의 포즈와 특징점을 분석함으로써 객체의 동일성을 식별한다.As such, one of the prior art techniques for tracking changes in various objects included in images by analyzing images obtained from multiple cameras is to estimate the moving speed of an object of interest, and based on the estimated speed, it is possible to become an object. minimize candidates. Thereafter, the identity of the object is identified by analyzing the pose and feature points of the object with respect to the minimized candidates.

또 다른 종래 기술은, 카메라 뷰에 관계없이 관심 객체의 동일성 유무를 인식하기 위하여, 객체의 상대적 방향성에 기초하여 최적의 카메라 셋팅을 결정하고, 결정된 카메라 셋팅으로 촬영된 영상에 대한 특징점 추출을 통해 객체를 분류함으로써 객체의 동일성을 식별한다.Another prior art, in order to recognize the presence or absence of the same object of interest regardless of the camera view, determines the optimal camera setting based on the relative directionality of the object, and the object through feature point extraction for the image taken with the determined camera setting Identify the identity of objects by classifying them.

그런데, 기존의 종래기술들은 객체의 동일성 유무 판단에 집중하고, 객체가 실제로 어디에 위치하고 있는지 객체의 절대 위치의 동일성 유무를 고려하지 않기 때문에 불법 주차, 팟홀(pothole), 로드킬 등과 같은 동적 환경 변화를 용이하기 파악하는 데 어려움이 있다.However, the existing prior art concentrates on determining whether the object is identical, and does not consider whether the object is actually located where the absolute position of the object is identical. It's easy to figure out.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems, to provide a method for identifying the identity of an object and an object position between images.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치를 제공하는 데 있다.Another object of the present invention to solve the above problems is to provide an apparatus for identifying the identity of an object and an object position between images.

상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템을 제공하는 데 있다.Another object of the present invention to solve the above problems is to provide a road environment management system using crowdsourcing-based images.

상기 목적을 달성하기 위한 본 발명은, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법을 제공한다.The present invention for achieving the above object provides a method for identifying the identity of an object and an object position between images.

영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법은, 크라우드 소싱 기반으로 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.A method for identifying the identity of an object and an object position between images includes collecting a plurality of images based on crowdsourcing, separating the collected images into an object region and a background region, respectively, and separating the plurality of images into the object region The method may include identifying the identity of an object by matching feature points extracted from the obtained images with each other, and identifying the identity of an object location by matching feature points extracted from images separated by the background area with each other.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함할 수 있다.The separating into the object region and the background region may include classifying the plurality of images into one or more groups based on location information on the plurality of collected images, and dividing each of the plurality of images classified into the same group into an object region and Separation into a background region may be included.

상기 복수의 영상에 대한 위치 정보는, 상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보일 수 있다.The location information for the plurality of images may be GPS information obtained at the time of capturing an image by an imaging device that has captured each of the plurality of images.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 복수의 영상 각각에서 객체를 추출하는 단계 및 추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함할 수 있다.The separating into the object region and the background region may include extracting an object from each of the plurality of images and generating a region separation mask for each of the plurality of images by using the extracted object.

상기 영역 분리 마스크를 생성하는 단계 이후에, 생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함할 수 있다.After generating the region separation mask, the method may further include multiplying the generated region separation mask by the plurality of images in units of pixels.

상기 객체의 동일성을 식별하는 단계는, 매칭되는 특징점의 개수를 산출하는 단계 및 산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object may include calculating the number of matching feature points and identifying the identity of the object based on the calculated number of feature points.

상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는, 상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함할 수 있다.The identifying of object identity based on the number of feature points may include determining that there is object identity when the number of feature points is greater than a preset threshold value.

상기 객체 위치의 동일성을 식별하는 단계는, 상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object location includes: classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; identifying the identity of the object location with respect to each other.

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치를 제공한다.Another aspect of the present invention for achieving the above object provides an apparatus for identifying the identity of an object and an object position between images.

영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치는, 적어도 하나의 프로세서(processor) 및 상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(isntructions)을 저장하는 메모리(memory)를 포함할 수 있다.An apparatus for identifying the identity of an object and an object position between images includes at least one processor and a memory for storing instructions instructing the at least one processor to perform at least one step. ) may be included.

상기 적어도 하나의 단계는, 크라우드 소싱 기반으로 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The at least one step may include: collecting a plurality of images based on crowdsourcing; separating the plurality of collected images into an object region and a background region, respectively; matching feature points extracted from the images separated into the object region with each other and identifying the identity of the object and identifying the identity of the object position by matching feature points extracted from the images separated by the background area.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함할 수 있다.The separating into the object region and the background region may include classifying the plurality of images into one or more groups based on location information on the plurality of collected images, and dividing each of the plurality of images classified into the same group into an object region and Separation into a background region may be included.

상기 복수의 영상에 대한 위치 정보는, 상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보일 수 있다.The location information for the plurality of images may be GPS information obtained at the time of capturing an image by an imaging device that has captured each of the plurality of images.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 복수의 영상 각각에서 객체를 추출하는 단계 및 추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함할 수 있다.The separating into the object region and the background region may include extracting an object from each of the plurality of images and generating a region separation mask for each of the plurality of images by using the extracted object.

상기 영역 분리 마스크를 생성하는 단계 이후에, 생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함할 수 있다.After generating the region separation mask, the method may further include multiplying the generated region separation mask by the plurality of images in units of pixels.

상기 객체의 동일성을 식별하는 단계는, 매칭되는 특징점의 개수를 산출하는 단계 및 산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object may include calculating the number of matching feature points and identifying the identity of the object based on the calculated number of feature points.

상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는, 상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함할 수 있다.The identifying of object identity based on the number of feature points may include determining that there is object identity when the number of feature points is greater than a preset threshold value.

상기 객체 위치의 동일성을 식별하는 단계는, 상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object location includes: classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; and identifying the identity of the object location with respect to each other.

상기 목적을 달성하기 위한 본 발명의 다른 측면은, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템을 제공한다.Another aspect of the present invention for achieving the above object provides a road environment management system using crowd-sourcing-based images.

크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템은, 하나 이상의 사용자 단말로부터 촬영된 복수의 영상과 상기 하나 이상의 사용자 단말에 대한 위치 정보를 수신하고, 수신된 상기 복수의 영상과 상기 위치 정보를 영상 식별 장치로 전송하여 분석 결과를 수신하는 도로 관제 서버 및 상기 도로 관제 서버로부터 수신한 복수의 영상을 학습하고, 학습한 데이터 및 상기 위치 정보를 이용하여 상기 복수의 영상에 포함된 객체와 객체 위치의 동일성 식별을 수행한 상기 분석 결과를 상기 도로 관제 서버로 전송하는 영상 식별 장치를 포함할 수 있다.A road environment management system using crowdsourcing-based images receives a plurality of images photographed from one or more user terminals and location information about the one or more user terminals, and identifies the plurality of images and the location information received from an image The plurality of images received from the road control server and the road control server are transmitted to the device to receive the analysis result, and the object included in the plurality of images and the position of the object are identical by using the learned data and the location information. and an image identification device that transmits the analysis result performed identification to the road control server.

상기 도로 관제 서버는, 상기 분석 결과를 기초로 실시간 도로 환경 상태를 모니터링할 수 있다.The road control server may monitor a real-time road environment condition based on the analysis result.

상기 영상 식별 장치는, 적어도 하나의 프로세서(processor) 및 상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(isntructions)을 저장하는 메모리(memory)를 포함할 수 있다.The image identification apparatus may include at least one processor and a memory for storing instructions instructing the at least one processor to perform at least one step.

상기 적어도 하나의 단계는, 상기 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The at least one step may include: collecting the plurality of images; separating the plurality of collected images into an object region and a background region, respectively; The method may include identifying the identity and identifying the identity of the object position by matching feature points extracted from the images separated by the background region with each other.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함할 수 있다.The separating into the object region and the background region may include: classifying the plurality of images into one or more groups based on the location information; and separating each of the plurality of images classified into the same group into an object region and a background region may include.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 복수의 영상 각각에서 객체를 추출하는 단계 및 추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함할 수 있다.The separating into the object region and the background region may include extracting an object from each of the plurality of images and generating a region separation mask for each of the plurality of images by using the extracted object.

상기와 같은 본 발명에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치를 이용할 경우에는 영상 내에서 객체와 객체 위치를 동시에 파악함에 따라 동일한 객체가 동일한 위치에 있는지를 정확하게 분석할 수 있다.When using the method and apparatus for identifying the identity of an object and an object position between images according to the present invention as described above, it is possible to accurately analyze whether the same object is in the same position as the object and the object position are simultaneously identified in the image. can

또한, 크라우드 소싱 기반으로 도로 환경을 관리할 수 있기 때문에 시민참여를 유도하고, 주민 불편과 각종 사고를 예방하는 장점이 있다.In addition, since the road environment can be managed based on crowdsourcing, it has the advantage of inducing citizen participation and preventing residents' inconvenience and various accidents.

도 1은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 영상들 간에 특징점 매칭 방법을 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법에 대한 대표 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치에 대한 구성도이다.
도 5는 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치가 적용될 수 있는 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법에 따른 효과를 설명하기 위한 예시도이다.
1 is a conceptual diagram for explaining a method for identifying an object and an object position identical between images according to an embodiment of the present invention.
2 is an exemplary diagram for explaining a method for matching feature points between images according to an embodiment of the present invention.
3 is a representative flowchart of a method for identifying the identity of an object and an object position between images according to an embodiment of the present invention.
4 is a block diagram of an apparatus for identifying an object and a position of an object between images according to an embodiment of the present invention.
5 is a conceptual diagram for explaining a road environment management system using crowd-sourcing-based images to which a method and apparatus for identifying an object and an object position are identical between images according to an embodiment of the present invention.
6 is an exemplary diagram for explaining an effect of a method for identifying an object and a position of an object between images according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a method for identifying an object and an object position identical between images according to an embodiment of the present invention.

먼저, 본 발명의 일 실시예에서는 크라우드 소싱 기반으로 수집된 복수의 영상들 중에서 동일성 식별을 위한 제1 영상(10)과 제2 영상(20)을 선정할 수 있다. 이때, 크라우드 소싱 기반으로 영상을 수집할 경우 같은 장소에서 촬영한 영상이라도 다수의 촬영자로부터 수집되므로, 서로 다른 각도에서 동일한 객체를 촬영할 수 있다. 따라서, 도 1에서는 설명의 편의를 위해 하나의 장소에서 특정 차량의 후방 측면을 촬영한 영상을 제1 영상(10)으로, 제1 영상(10)과 동일한 장소 및 차량에 대하여 후방을 촬영한 영상을 제2 영상(20)으로 도시하였다.First, in an embodiment of the present invention, the first image 10 and the second image 20 for identity identification may be selected from among a plurality of images collected based on crowdsourcing. In this case, when images are collected based on crowdsourcing, even images shot in the same place are collected from multiple photographers, so the same object can be photographed from different angles. Therefore, in FIG. 1 , for convenience of explanation, an image obtained by photographing the rear side of a specific vehicle at one location is the first image 10 , and an image obtained by photographing the rear of the vehicle and the same location as the first image 10 . is illustrated as the second image 20 .

다음으로, 제1 영상(10)과 제2 영상(20) 각각에서 객체 영역과 배경 영역을 분리하기 위하여 제1 영상(10)과 제2 영상(20)에 대한 영역 분리 마스크를 생성할 수 있다(S100). 제1 영상(10)과 제2 영상(20)에서 식별하고자 하는 관심 객체를 검출하고 검출된 관심 객체를 이용하여 영역 분리 마스크를 생성할 수 있다. 여기서 객체 검출을 위해 객체에 대한 바운딩 박스(bounding box)의 크기와 위치 학습, 분류(classification) 학습 등이 수행될 수 있다.Next, region separation masks for the first image 10 and the second image 20 may be generated to separate the object region and the background region from each of the first image 10 and the second image 20 . (S100). An object of interest to be identified may be detected from the first image 10 and the second image 20 , and a region separation mask may be generated using the detected object of interest. Here, for object detection, learning of the size and location of a bounding box for an object, and learning of classification may be performed.

이때, 영역 분리 마스크는 관심 객체로 검출된 영역에 대해서는 흰색으로 픽셀값을 설정하고, 관심 객체 이외의 영역에 대해서는 검은색으로 픽셀값을 설정하여 생성될 수 있다. 도면 기호 10a를 참조하면, 제1 영상(10)에 대한 영역 분리 마스크를 확인할 수 있고, 도면 기호 20a를 참조하면, 제2 영상(20)에 대한 영역 분리 마스크를 확인할 수 있다.In this case, the region separation mask may be generated by setting the pixel value to white for the region detected as the object of interest and setting the pixel value to black for the region other than the object of interest. Referring to reference numeral 10a, a region separation mask for the first image 10 may be identified, and referring to reference numeral 20a, a region separation mask for the second image 20 may be identified.

영역 분리 마스크가 생성되면, 제1 영상(10)과 제2 영상(20) 각각에 대한 영역 분리 마스크를 이용하여 제1 영상(10)과 제2 영상(20)을 객체와 배경으로 분리할 수 있다(S110). 구체적으로, 제1 영상(10)에 대한 영역 분리 마스크(10a)를 제1 영상(10)에 픽셀 단위로 곱하여 제1 영상(10)을 객체(10b)와 배경(10c)으로 분리할 수 있다. 또한, 제2 영상(20)에 대한 영역 분리 마스크(20a)를 제2 영상(20)에 픽셀 단위로 곱하여 제2 영상(20)을 객체(20b)와 배경(20c)으로 분리할 수 있다.When the region separation mask is generated, the first image 10 and the second image 20 can be separated into an object and a background using region separation masks for each of the first image 10 and the second image 20 . There is (S110). Specifically, the first image 10 may be divided into an object 10b and a background 10c by multiplying the first image 10 by the region separation mask 10a of the first image 10 in units of pixels. . In addition, the second image 20 may be divided into an object 20b and a background 20c by multiplying the second image 20 by the region separation mask 20a of the second image 20 in units of pixels.

객체와 배경을 분리하면, 제1 영상(10)에 대한 객체(10b)와 제2 영상(20)에 대한 객체(20b)를 서로 비교 대상으로 하여 객체의 동일성 판단을 위한 과정을 수행할 수 있고, 제1 영상(10)에 대한 배경(10c)과 제2 영상에 대한 배경(20c)을 서로 비교 대상으로 하여 객체 위치의 동일성 판단을 위한 과정을 수행할 수 있다.When the object and the background are separated, the object 10b for the first image 10 and the object 20b for the second image 20 are compared with each other to perform a process for determining the identity of the object, , a process for determining the identity of an object position may be performed by comparing the background 10c of the first image 10 and the background 20c of the second image with each other.

객체의 동일성 판단을 위해서는, 제1 영상(10)에 대한 객체(10b)와 제2 영상(20)에 대한 객체(20b) 각각에 대하여 특징점(또는 특징 블록)을 추출하고(S120), 제1 영상(10)에 대한 객체(10b)에서 추출한 특징점과 제2 영상(20)에 대한 객체(20b)에서 추출한 특징점을 서로 매칭할 수 있다(S122). In order to determine the identity of an object, a feature point (or feature block) is extracted for each of the object 10b for the first image 10 and the object 20b for the second image 20 ( S120 ), and the first The feature points extracted from the object 10b for the image 10 and the feature points extracted from the object 20b for the second image 20 may be matched with each other ( S122 ).

또한, 객체 위치의 동일성 판단을 위해서, 제1 영상(10)에 대한 배경(10c)와 제2 영상(20)에 대한 배경(20c) 각각에 대하여 특징점을 추출하고(S121), 제1 영상(10)에 대한 객체(10c)에서 추출한 특징점과 제2 영상(20)에 대한 객체(20c)에서 추출한 특징점을 서로 매칭할 수 있다(S123).In addition, in order to determine the identity of the object position, a feature point is extracted from each of the background 10c of the first image 10 and the background 20c of the second image 20 ( S121 ), and the first image ( The feature points extracted from the object 10c for 10) and the feature points extracted from the object 20c for the second image 20 may be matched with each other ( S123 ).

단계 S120 또는 단계 S121에 따른 특징점을 추출하는 방법으로는 SIFT, MSER 등과 같은 특징점 추출 기법을 활용하여 객체의 기하 변화에 강이한 특징점을 추출할 수 있다.As a method of extracting a feature point according to step S120 or step S121, a feature point strong against a geometric change of an object may be extracted by using a feature point extraction technique such as SIFT or MSER.

단계 S122 또는 단계 S123에 따른 특징점 매칭 결과로는 서로 대응되는 특징점의 위치와 개수가 산출될 수 있다. 이때, 특징점이 서로 대응되는 경우로는, 비교되는 두개의 특징점에 따른 픽셀 차분값의 절대치를 모두 더한 값(Sum of Absolute Difference, SAD 연산값)이 임계값보다 작은 경우나, 두 개의 특징점이 서로 동일한 픽셀값으로 구성되는 경우일 수 있다.As a result of matching feature points in step S122 or step S123, positions and numbers of feature points corresponding to each other may be calculated. In this case, when the feature points correspond to each other, the sum of the absolute values of the pixel differences according to the two feature points to be compared (Sum of Absolute Difference, SAD operation value) is smaller than the threshold value, or when the two feature points are mutually exclusive It may be a case of being configured with the same pixel value.

단계 S120 및 단계 S121에 따른 객체와 배경의 특징점 매칭 결과에 기초하여, 객체와 객체 위치의 동일성을 판단할 수 있다(S124). Based on the result of matching the feature points between the object and the background according to steps S120 and S121, it is possible to determine the identity of the object and the position of the object (S124).

도 2는 본 발명의 일 실시예에 따른 영상들 간에 특징점 매칭 방법을 설명하기 위한 예시도이다.2 is an exemplary diagram for explaining a method for matching feature points between images according to an embodiment of the present invention.

도 2를 참조하면, 동일한 객체를 다른 장소에서 촬영한 두개의 영상(30, 40)에 대하여 객체 상호간 특징점 매칭을 수행한 결과를 확인할 수 있다.Referring to FIG. 2 , a result of performing feature point matching between objects on two images 30 and 40 obtained by photographing the same object at different places can be confirmed.

구체적으로, 도 2의 좌측에 도시된 영상(30)에 포함된 객체에서는 모두 5개의 특징점이 추출된 것을 확인할 수 있고, 추출된 5개의 특징점 중에서 3개의 특징점이 우측에 위치한 영상(40)에 포함된 객체로부터 추출된 3개의 특징점과 대응된 것을 확인할 수 있다.Specifically, it can be confirmed that all five feature points are extracted from the object included in the image 30 shown on the left side of FIG. 2 , and three feature points among the five extracted feature points are included in the image 40 located on the right side. It can be confirmed that the three feature points extracted from the obtained object correspond to each other.

도 2에서와 같이 본 발명의 일 실시예에 따르면, 두 영상의 객체에서 추출된 특징점들 중에서, 두 영상 간 서로 대응되는 특징점의 개수를 기반으로 객체의 동일성을 판단할 수 있다. 예를 들어, 두 영상에 각각 포함된 객체에서 추출된 특징점들 중에서 서로 대응되는 특징점의 개수가 미리 설정된 임계값 이상(또는 초과)인 경우 두 객체가 서로 동일한 것으로 판단할 수 있다. As shown in FIG. 2 , according to an embodiment of the present invention, the identity of the object may be determined based on the number of feature points corresponding to each other between the two images among the feature points extracted from the objects of the two images. For example, when the number of feature points corresponding to each other among feature points extracted from objects included in each of the two images is equal to or greater than a preset threshold, it may be determined that the two objects are identical to each other.

객체의 동일성 판단과 마찬가지로, 두 영상의 배경에서 각각 추출된 특징점들 중에서 서로 대응되는 특징점의 개수가 미리 설정된 임계값 이상(또는 초과)인 경우 객체의 위치가 서로 동일한 것으로 판단할 수 있다. 왜냐하면, 배경에 대한 특징점이 서로 대응된다는 의미는 두 개의 영상이 서로 동일하거나 유사한 장소에서 촬영된 영상이라는 의미일 수 있으므로, 객체의 위치가 서로 동일 또는 유사한 것으로 판단될 수 있다.Similar to the determination of object identity, when the number of feature points corresponding to each other among the feature points extracted from the backgrounds of two images is equal to or greater than a preset threshold, it can be determined that the positions of the objects are the same. This is because, because the feature points on the background correspond to each other, it may mean that two images are images taken at the same or similar places, so that the positions of the objects may be determined to be the same or similar to each other.

구체적인 예시로서, 객체에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이상(또는 초과)이고, 배경에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이상(또는 초과)이면, 동일한 객체가 동일한 위치에 있는 것으로 판단할 수 있다.As a specific example, among the feature points extracted from the object, the number of corresponding feature points between the two images is equal to or greater than (or exceeding) the threshold, and the number of corresponding feature points between the two images among the feature points extracted from the background is equal to or greater than the threshold (or exceeding), it can be determined that the same object is in the same location.

또한, 객체에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이하(또는 미만)이고, 배경에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이상(또는 초과)이면, 서로 다른 객체가 동일한 위치에 있는 것으로 판단할 수 있다.Also, among the feature points extracted from the object, the number of corresponding feature points between the two images is less than (or less than) the threshold, and the number of corresponding feature points between the two images among the feature points extracted from the background is greater than (or greater than) the threshold , it may be determined that different objects are located at the same location.

또한, 객체에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이상(또는 초과)이고, 배경에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이하(또는 미만)이면, 동일한 객체가 서로 다른 위치에 있는 것으로 판단할 수 있다.Also, among the feature points extracted from the object, the number of corresponding feature points between the two images is equal to or greater than the threshold value (or more than), and the number of corresponding feature points between the two images among the feature points extracted from the background is less than (or less than) the threshold value , it may be determined that the same object is located at different locations.

또한, 객체에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이하(또는 미만)이고, 배경에서 추출된 특징점들 중에서 두 영상 간 대응되는 특징점의 개수가 임계값 이하(또는 미만)이면, 서로 다른 객체가 서로 다른 위치에 있는 것으로 판단할 수 있다.Also, among the feature points extracted from the object, the number of corresponding feature points between two images is less than (or less than) the threshold, and the number of corresponding feature points between the two images among the feature points extracted from the background is less than (or less than) the threshold. , it may be determined that different objects are located at different positions.

도 3은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법에 대한 대표 흐름도이다.3 is a representative flowchart of a method for identifying the identity of an object and an object position between images according to an embodiment of the present invention.

도 3을 참조하면, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법은, 크라우드 소싱 기반으로 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.Referring to FIG. 3 , a method for identifying the identity of an object and an object position between images includes collecting a plurality of images based on crowdsourcing, and separating the plurality of images into an object region and a background region, respectively. , identifying the identity of an object by matching feature points extracted from the images separated by the object region with each other, and identifying the identity of an object location by matching feature points extracted from images separated by the background region with each other. can

상기 객체 영역과 배경 영역으로 분리하는 단계는, 수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함할 수 있다. The separating into the object region and the background region may include classifying the plurality of images into one or more groups based on location information on the plurality of collected images, and dividing each of the plurality of images classified into the same group into an object region and Separation into a background region may be included.

상기 복수의 영상에 대한 위치 정보는, 상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보일 수 있다. The location information for the plurality of images may be GPS information obtained at the time of capturing an image by an imaging device that has captured each of the plurality of images.

크라우드 소싱 기반으로 수집된 영상은 다양한 사용자가 다양한 장소에서 촬영한 영상이기 때문에 수집된 영상 전체를 분석하는 데에는 많은 연산 부하가 생길 수 있다. 이때, 영상이 촬영된 위치 정보가 동일하거나 유사한 영상들은 서로 유사한 장소에서 촬영되었기 때문에 영상 상호간 관련성이 높은 경향을 가진다. 따라서, 본 발명의 일 실시예에 따르면, 수집된 영상이 촬영된 위치가 동일하거나 유사한 영상들은 같은 그룹으로 클러스터링하고, 동일(또는 유사)한 위치에서 촬영된 영상들 상호간에 객체와 객체 위치의 동일성을 식별하는 방식으로 연산 부하를 줄이면서도 영상 분석의 정확도를 유지할 수 있다.Since the images collected based on crowdsourcing are images taken by various users in various places, a large computational load may occur in analyzing the entire collected image. In this case, since the images having the same or similar location information at which the images were captured were captured at locations similar to each other, the images have a high correlation with each other. Accordingly, according to an embodiment of the present invention, images having the same or similar locations at which the collected images were captured are clustered into the same group, and the object and object location are identical between images captured at the same (or similar) location. It is possible to maintain the accuracy of image analysis while reducing the computational load by identifying

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 복수의 영상 각각에서 객체를 추출하는 단계 및 추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함할 수 있다.The separating into the object region and the background region may include extracting an object from each of the plurality of images and generating a region separation mask for each of the plurality of images by using the extracted object.

상기 영역 분리 마스크를 생성하는 단계 이후에, 생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함할 수 있다.After generating the region separation mask, the method may further include multiplying the generated region separation mask by the plurality of images in units of pixels.

상기 객체의 동일성을 식별하는 단계는, 매칭되는 특징점의 개수를 산출하는 단계 및 산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object may include calculating the number of matching feature points and identifying the identity of the object based on the calculated number of feature points.

상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는, 상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함할 수 있다.The identifying of object identity based on the number of feature points may include determining that there is object identity when the number of feature points is greater than a preset threshold value.

상기 객체 위치의 동일성을 식별하는 단계는, 상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다. 즉, 본 발명의 일 실시예에 따르면, 객체의 동일성이 있는 영상들을 동일한 그룹으로 클러스터링하고, 동일한 객체가 포함된 영상을 대상으로 배경 영역 사이의 특징점 매칭을 수행함으로써, 불필요한 연산 부하를 줄일 수 있다.The step of identifying the identity of the object location includes: classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; and identifying the identity of the object location with respect to each other. That is, according to an embodiment of the present invention, unnecessary computational load can be reduced by clustering images having the same object into the same group and performing feature point matching between background regions on an image including the same object. .

도 4는 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치에 대한 구성도이다.4 is a block diagram of an apparatus for identifying an object and a position of an object between images according to an embodiment of the present invention.

도 4를 참조하면, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치는, 적어도 하나의 프로세서(processor) 및 상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(isntructions)을 저장하는 메모리(memory)를 포함할 수 있다.Referring to FIG. 4 , the apparatus for identifying the identity of an object and an object position between images includes at least one processor and instructions for instructing the at least one processor to perform at least one step. It may include a memory (memory) for storing the.

상기 적어도 하나의 단계는, 크라우드 소싱 기반으로 복수의 영상을 수집하는 단계, 수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계, 상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계 및 상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The at least one step may include: collecting a plurality of images based on crowdsourcing; separating the plurality of collected images into an object region and a background region, respectively; matching feature points extracted from the images separated into the object region with each other and identifying the identity of the object and identifying the identity of the object position by matching feature points extracted from the images separated by the background area.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함할 수 있다.The separating into the object region and the background region may include classifying the plurality of images into one or more groups based on location information on the plurality of collected images, and dividing each of the plurality of images classified into the same group into an object region and Separation into a background region may be included.

상기 복수의 영상에 대한 위치 정보는, 상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보일 수 있다.The location information for the plurality of images may be GPS information obtained at the time of capturing an image by an imaging device that has captured each of the plurality of images.

상기 객체 영역과 배경 영역으로 분리하는 단계는, 상기 복수의 영상 각각에서 객체를 추출하는 단계 및 추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함할 수 있다.The separating into the object region and the background region may include extracting an object from each of the plurality of images and generating a region separation mask for each of the plurality of images by using the extracted object.

상기 영역 분리 마스크를 생성하는 단계 이후에, 생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함할 수 있다.After generating the region separation mask, the method may further include multiplying the generated region separation mask with the plurality of images in units of pixels.

상기 객체의 동일성을 식별하는 단계는, 매칭되는 특징점의 개수를 산출하는 단계 및 산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object may include calculating the number of matching feature points and identifying the identity of the object based on the calculated number of feature points.

상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는, 상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함할 수 있다.The identifying of object identity based on the number of feature points may include determining that there is object identity when the number of feature points is greater than a preset threshold value.

상기 객체 위치의 동일성을 식별하는 단계는, 상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계 및 동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함할 수 있다.The step of identifying the identity of the object location includes: classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; identifying the identity of the object location with respect to each other.

도 5는 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치가 적용될 수 있는 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템을 설명하기 위한 개념도이다.5 is a conceptual diagram for explaining a road environment management system using crowd-sourcing-based images to which a method and apparatus for identifying an object and an object position are identical between images according to an embodiment of the present invention.

도 5를 참조하면, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템은, 하나 이상의 사용자 단말(55, 56)로부터 촬영된 복수의 영상과 상기 하나 이상의 사용자 단말(55, 56)에 대한 위치 정보를 수신하고, 수신된 상기 복수의 영상과 상기 위치 정보를 영상 식별 장치(60)에 전송하여 분석 결과를 수신하는 도로 관제 서버(50) 및 상기 도로 관제 서버로부터 수신한 복수의 영상을 학습하고, 학습한 데이터 및 상기 위치 정보를 이용하여 상기 복수의 영상에 포함된 객체와 객체 위치의 동일성 식별을 수행한 상기 분석 결과를 상기 도로 관제 서버로 전송하는 영상 식별 장치(60)를 포함할 수 있다.Referring to FIG. 5 , the road environment management system using crowdsourcing-based images collects a plurality of images captured from one or more user terminals 55 and 56 and location information on the one or more user terminals 55 and 56 . Receive and transmit the received plurality of images and the location information to the image identification device 60 to learn and learn the plurality of images received from the road control server 50 and the road control server to receive the analysis result and an image identification device 60 for transmitting the analysis result obtained by performing identification of the object and the position of the object included in the plurality of images to the road control server using one data and the location information.

사용자 단말(55, 56)은 일반 대중이나 시민들이 사용하는 각종 카메라, 스마트폰 등과 같이 영상을 촬영하거나 저장하고, 위치 정보를 수집하며, 센서 정보(예를 들어 진동 정보)를 수집하는 각종 장치일 수 있다. 더욱 상세하게 사용자 단말(55, 56)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.The user terminals 55 and 56 are various devices that shoot or store images, collect location information, and collect sensor information (eg, vibration information), such as various cameras and smartphones used by the general public or citizens. can In more detail, for example, the user terminals 55 and 56, which can communicate, a desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, Mobile phone, smart watch, smart glass, e-book reader, PMP (portable multimedia player), portable game console, navigation device, digital camera, DMB (digital multimedia broadcasting) player, digital audio recorder, digital audio player, digital video recorder, digital video player, PDA (Personal Digital Assistant), etc. can

이러한 사용자 단말(55, 56)을 통해 여러 사용자에 의해 수집된 영상들, 촬영 당시 사용자 단말의 위치 정보, 진동 정보는 도로 관제 서버(50)로 전송될 수 있다. 예를 들어, 사용자 단말(55, 56)은 도로 환경 정보(예를 들어 불법 주차 신고, 팟홀 상태, 로드킬 상태, 도로 장애물 등)에 관한 영상, 신고 메시지, 센서 정보 등을 도로 관제 서버(50)로 전송할 수 있다.Images collected by multiple users through the user terminals 55 and 56, location information of the user terminal at the time of shooting, and vibration information may be transmitted to the road control server 50 . For example, the user terminals 55 and 56 transmit images, report messages, sensor information, etc. related to road environment information (eg, illegal parking report, pothole status, road kill status, road obstacle, etc.) to the road control server 50 ) can be transmitted.

도로 관제 서버(50)는, 영상 식별 장치(60)로부터 수신한 분석 결과를 기초로 실시간 도로 환경 상태를 모니터링할 수 있다. 구체적으로, 도로 관제 서버(50)는 다수의 사용자 단말(55, 56)로부터 전달받은 영상을 영상 식별 장치(60)와 연동하여 분석하고, 분석 결과에 기초하여 실시간 도로 환경을 모니터링하고, 모니터링한 실시간 도로 환경 정보 제공 서비스, 신고받은 도로 환경 정보에 대한 대응 조치 상태 제공 서비스를 비롯하여 다양한 서비스를 유무선 네트워크를 통해 사용자 단말에 제공할 수 있다. 예를 들어, 도로 관제 서버(50)는 불법 주차 구역을 설정하고, 설정된 불법 주차 구역에 대하여 영상 식별 장치(60)와 연계한 영상 분석을 통해 불법 주차 구역에 대한 주차 상태를 파악하고, 불법 주차에 대한 대응 조치 상태를 사용자 단말에 제공할 수 있다.The road control server 50 may monitor the road environment state in real time based on the analysis result received from the image identification device 60 . Specifically, the road control server 50 analyzes the images received from the plurality of user terminals 55 and 56 in conjunction with the image identification device 60, monitors the real-time road environment based on the analysis result, and monitors the Various services, including a real-time road environment information provision service and a response action status provision service for the reported road environment information, may be provided to the user terminal through a wired/wireless network. For example, the road control server 50 sets an illegal parking area, and identifies the parking state of the illegal parking area through image analysis in connection with the image identification device 60 for the set illegal parking area, and A corresponding action state may be provided to the user terminal.

영상 식별 장치(60)는, 도 4에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치가 내장된 장치로서, 도로 관제 서버(50)로부터 전달받은 각종 제보 영상들을 빅 데이터로서 수집하고, 수집된 영상들을 학습하여 객체의 동일성, 객체 위치의 동일성을 판단할 수 있고, 판단 결과에 따라 불법 주차 상태, 로드킬 상태, 팟홀 상태를 결정할 수 있다. 다만, 또 다른 실시예로 영상 식별 장치(60)가 객체의 동일성, 객체 위치의 동일성을 판단한 분석 결과를 도로 관제 서버(50)로 전송하면, 도로 관제 서버(50)가 수신받은 분석 결과를 기초로 불법 주차 상태, 로드킬 상태, 팟홀 상태 등을 결정할 수도 있다. The image identification device 60 is a device with a built-in device for identifying the identity of an object and an object position between the images according to FIG. 4 , and collects various tipped images received from the road control server 50 as big data, and , by learning the collected images, it is possible to determine the identity of the object and the identity of the object position, and the illegal parking state, the road kill state, and the pothole state can be determined according to the determination result. However, in another embodiment, when the image identification device 60 transmits the analysis result of determining the identity of the object and the identity of the object position to the road control server 50, the road control server 50 based on the received analysis result It can also determine illegal parking status, road kill status, pothole status, etc.

영상 식별 장치(60)는, 도로 관제 서버(50)를 통해 수집된 영상들을 학습 데이터로 이용하여, 객체 식별 학습, 객체의 위치 식별 학습, 객체와 배경을 비롯한 각종 영역으로 영상을 분할하는 학습, 진동 정보에 대한 학습 등을 수행할 수 있다. 그 밖에도 영상 식별 장치(60)는 도 1 내지 도 4에서 설명한 방법이나 장치에 따른 구성요소, 동작을 포함하는 것으로 해석될 수 있으며, 중복 설명을 방지하기 위해 자세한 설명은 생략한다.The image identification device 60 uses the images collected through the road control server 50 as learning data, learning object identification learning, learning to identify the location of an object, learning to divide the image into various areas including objects and backgrounds, Learning about vibration information may be performed. In addition, the image identification apparatus 60 may be interpreted as including components and operations according to the method or apparatus described with reference to FIGS. 1 to 4 , and detailed descriptions will be omitted to prevent duplicate description.

한편, 도 5에는 도시하지 않았으나, 사용자 단말(55, 56)로부터 영상, 위치 정보, 진동 정보를 수집하는 별도의 데이터 수집 서버가 있을 수 있고, 데이터 수집 서버에서 수집된 데이터들은 RTSP(Real-time Streaming Protocol) API(Application Programming Interface), REST(Representational State Transfer) API 등과 같은 송수신 인터페이스를 통해 도로 관제 서버(50)로 전달될 수도 있다. Meanwhile, although not shown in FIG. 5 , there may be a separate data collection server that collects images, location information, and vibration information from the user terminals 55 and 56 , and the data collected from the data collection server is RTSP (real-time). Streaming Protocol) may be transmitted to the road control server 50 through a transmission/reception interface such as an API (Application Programming Interface), REST (Representational State Transfer) API, and the like.

도 6은 본 발명의 일 실시예에 따른 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법에 따른 효과를 설명하기 위한 예시도이다.6 is an exemplary diagram for explaining the effect of the method for identifying the object and the object location are identical between images according to an embodiment of the present invention.

도 1 내지 도 5에서 설명한 방법, 장치, 시스템을 이용하면 도로 환경 관리를 더욱 정확하고 용이하게 수행할 수 있다.The road environment management can be more accurately and easily performed by using the method, apparatus, and system described with reference to FIGS. 1 to 5 .

구체적으로, 다수의 사용자로부터 제보받은 영상들 중에서 불법 주차 구역에 해당하는 위치 정보를 갖는 영상들을 선별하고, 선별된 영상들 사이의 객체 동일성과 객체 위치의 동일성이 판단될 수 있다. 여기서 객체 동일성과 객체 위치의 동일성이 있는 영상들이 확인되면, 해당하는 객체에 따른 차량은 동일성이 인정된 영상들이 촬영된 시간 간격에서 불법 주차를 한 것으로 결정할 수 있다.Specifically, images having location information corresponding to an illegal parking area may be selected from among the images reported by a plurality of users, and object identity and object location identity between the selected images may be determined. Here, when images having the object identity and object location identity are identified, the vehicle according to the corresponding object may determine that the vehicle parked illegally in a time interval in which images for which identity is recognized are taken.

특히, 본 발명의 일 실시예에 따르면, 객체의 동일성 뿐만 아니라 객체 위치의 동일성을 판단하기 때문에, 도 6과 같이 동일한 위치의 동일 차량을 서로 다른 각도에서 촬영한 영상인지 또는 동일 차량을 다른 장소에서 촬영한 영상인지 등을 확인하여 불법 주차 여부를 정확하게 결정할 수 있다.In particular, according to an embodiment of the present invention, since the identity of the object as well as the identity of the object is determined, as shown in FIG. 6 , whether the image is taken of the same vehicle in the same location from different angles or the same vehicle is used in different places It is possible to accurately determine whether parking is illegal by checking whether it is a recorded video or not.

여기서는 불법 주차에 대한 판단 과정을 예로 들어 설명하였으나, 도로 환경에 영향을 줄 수 있는 팟홀, 로드킬, 도로 장애물 등을 파악하고 신속히 대처하는데 활용될 수 있다. Here, the process of determining illegal parking has been described as an example, but it can be used to identify and quickly respond to potholes, road kills, and road obstacles that may affect the road environment.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or apparatus may be implemented by combining all or part of the configuration or function, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

Claims (20)

영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법으로,
크라우드 소싱 기반으로 복수의 영상을 수집하는 단계;
수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계;
상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계; 및
상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함하고,
상기 객체의 동일성을 식별하는 단계는,
매칭되는 특징점의 개수를 산출하는 단계; 및
산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함하고,
상기 매칭되는 특징점의 개수를 산출하는 단계는,
비교되는 특징점에 따른 픽셀 차분값의 절대치를 모두 더한 값(Sum of Absolute Difference; SAD 연산값)이 사용자가 미리 설정한 임계값보다 작은 경우 또는 특징점이 서로 동일한 픽셀값으로 구성되는 경우 매칭되는 특징점으로 판정하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
As a method for identifying the identity of an object and an object position between images,
collecting a plurality of images based on crowdsourcing;
separating the plurality of collected images into an object area and a background area, respectively;
identifying the identity of an object by matching feature points extracted from the images separated into the object region; and
identifying the identity of the object position by matching feature points extracted from the images separated by the background region with each other;
Identifying the identity of the object comprises:
calculating the number of matching feature points; and
Comprising the step of identifying the identity of the object based on the number of calculated feature points,
Calculating the number of matching feature points comprises:
When the sum of the absolute values of the pixel differences according to the compared feature points (Sum of Absolute Difference; SAD operation value) is less than the threshold value set in advance by the user, or when the feature points are composed of the same pixel values, a matching feature point A method for identifying identity of an object and object position between images comprising determining.
청구항 1에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계; 및
동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 1,
The step of separating the object area and the background area comprises:
classifying the plurality of images into one or more groups based on the collected location information on the plurality of images; and
A method for identifying the identity of an object and an object position between images, comprising dividing each of a plurality of images classified into the same group into an object region and a background region.
청구항 2에서,
상기 복수의 영상에 대한 위치 정보는,
상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보인, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 2,
The location information for the plurality of images,
A method for identifying the identity of an object and an object position between images, which is GPS information obtained at the time of capturing an image by an image capturing device that has captured each of the plurality of images.
청구항 1에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
상기 복수의 영상 각각에서 객체를 추출하는 단계; 및
추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 1,
The step of separating the object area and the background area comprises:
extracting an object from each of the plurality of images; and
and generating a region separation mask for each of the plurality of images by using the extracted object.
청구항 4에서,
상기 영역 분리 마스크를 생성하는 단계 이후에,
생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 4,
After generating the region isolation mask,
The method for identifying the identity of an object and an object position between images, further comprising multiplying the generated region separation mask with the plurality of images on a pixel-by-pixel basis.
삭제delete 청구항 1에서,
상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는,
상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 1,
The step of identifying the identity of the object based on the number of the feature points,
and determining that the object is identical when the number of the feature points is greater than a preset threshold.
청구항 1에서,
상기 객체 위치의 동일성을 식별하는 단계는,
상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계; 및
동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법.
In claim 1,
Identifying the identity of the object location comprises:
classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; and
A method for identifying the identity of an object and an object position between images, comprising: identifying the identity of an object position with respect to images classified as the background region among a plurality of images classified into the same group.
영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치로,
적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(isntructions)을 저장하는 메모리(memory)를 포함하고,
상기 적어도 하나의 단계는,
크라우드 소싱 기반으로 복수의 영상을 수집하는 단계;
수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계;
상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계; 및
상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함하고,
상기 객체의 동일성을 식별하는 단계는,
매칭되는 특징점의 개수를 산출하는 단계; 및
산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함하고,
상기 매칭되는 특징점의 개수를 산출하는 단계는,
비교되는 특징점에 따른 픽셀 차분값의 절대치를 모두 더한 값(Sum of Absolute Difference; SAD 연산값)이 사용자가 미리 설정한 임계값보다 작은 경우 또는 특징점이 서로 동일한 픽셀값으로 구성되는 경우 매칭되는 특징점으로 판정하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
A device for identifying the identity of an object and an object position between images,
at least one processor; and
a memory for storing instructions instructing the at least one processor to perform at least one step;
The at least one step is
collecting a plurality of images based on crowdsourcing;
separating the plurality of collected images into an object area and a background area, respectively;
identifying the identity of an object by matching feature points extracted from the images separated into the object region; and
identifying the identity of the object position by matching feature points extracted from the images separated by the background region with each other;
Identifying the identity of the object comprises:
calculating the number of matching feature points; and
Comprising the step of identifying the identity of the object based on the number of calculated feature points,
Calculating the number of matching feature points comprises:
When the sum of the absolute values of the pixel differences according to the compared feature points (Sum of Absolute Difference; SAD operation value) is less than the threshold value set in advance by the user, or when the feature points are composed of the same pixel values, a matching feature point An apparatus for identifying identity of an object and object position between images, comprising determining.
청구항 9에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
수집된 복수의 영상에 대한 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계; 및
동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 9,
The step of separating the object area and the background area comprises:
classifying the plurality of images into one or more groups based on the collected location information on the plurality of images; and
An apparatus for identifying the identity of an object and an object position between images, comprising dividing each of a plurality of images classified into the same group into an object region and a background region.
청구항 10에서,
상기 복수의 영상에 대한 위치 정보는,
상기 복수의 영상 각각에 대하여 촬영한 촬상 장치에서 영상 촬영 시점에 획득되는 GPS 정보인, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 10,
The location information for the plurality of images,
An apparatus for identifying the identity of an object and an object position between images, which is GPS information obtained at the time of capturing an image in an image capturing device that has captured each of the plurality of images.
청구항 9에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
상기 복수의 영상 각각에서 객체를 추출하는 단계; 및
추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 9,
The step of separating the object area and the background area comprises:
extracting an object from each of the plurality of images; and
and generating a region separation mask for each of the plurality of images by using the extracted object.
청구항 12에서,
상기 영역 분리 마스크를 생성하는 단계 이후에,
생성된 영역 분리 마스크를 픽셀 단위로 상기 복수의 영상과 곱하는 단계를 더 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 12,
After generating the region isolation mask,
The apparatus for identifying the identity of an object and an object position between images, further comprising multiplying the generated region separation mask by the plurality of images in units of pixels.
삭제delete 청구항 9에서,
상기 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계는,
상기 특징점의 개수가 미리 설정된 임계값보다 크면 객체의 동일성이 있는 것으로 결정하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 9,
The step of identifying the identity of the object based on the number of the feature points,
and determining that the object is identical when the number of the feature points is greater than a preset threshold.
청구항 9에서,
상기 객체 위치의 동일성을 식별하는 단계는,
상기 복수의 영상을 상기 객체의 동일성을 식별한 결과에 따라 하나 이상의 그룹으로 분류하는 단계; 및
동일한 그룹으로 분류된 복수의 영상 중에서 상기 배경 영역으로 분류된 영상들에 대하여 객체 위치의 동일성을 식별하는 단계를 포함하는, 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 장치.
In claim 9,
Identifying the identity of the object location comprises:
classifying the plurality of images into one or more groups according to a result of identifying the identity of the object; and
An apparatus for identifying the identity of an object and an object position between images, comprising: identifying the identity of an object position with respect to the images classified as the background region from among a plurality of images classified into the same group.
크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템으로,
하나 이상의 사용자 단말로부터 촬영된 복수의 영상과 상기 하나 이상의 사용자 단말에 대한 위치 정보를 수신하고, 수신된 상기 복수의 영상과 상기 위치 정보를 영상 식별 장치로 전송하여 분석 결과를 수신하는 도로 관제 서버; 및
상기 도로 관제 서버로부터 수신한 복수의 영상을 학습하고, 학습한 데이터 및 상기 위치 정보를 이용하여 상기 복수의 영상에 포함된 객체와 객체 위치의 동일성 식별을 수행한 상기 분석 결과를 상기 도로 관제 서버로 전송하는 영상 식별 장치를 포함하고,
상기 도로 관제 서버는, 상기 분석 결과를 기초로 실시간 도로 환경 상태를 모니터링하고,
상기 영상 식별 장치는,
적어도 하나의 프로세서(processor); 및
상기 적어도 하나의 프로세서가 적어도 하나의 단계를 수행하도록 지시하는 명령어들(isntructions)을 저장하는 메모리(memory)를 포함하고,
상기 적어도 하나의 단계는,
상기 복수의 영상을 수집하는 단계;
수집된 복수의 영상을 각각 객체 영역과 배경 영역으로 분리하는 단계;
상기 객체 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체의 동일성을 식별하는 단계; 및
상기 배경 영역으로 분리된 영상들에서 추출한 특징점들을 서로 매칭하여 객체 위치의 동일성을 식별하는 단계를 포함하고,
상기 객체의 동일성을 식별하는 단계는,
매칭되는 특징점의 개수를 산출하는 단계; 및
산출된 특징점의 개수에 기반하여 객체의 동일성을 식별하는 단계를 포함하고,
상기 매칭되는 특징점의 개수를 산출하는 단계는,
비교되는 특징점에 따른 픽셀 차분값의 절대치를 모두 더한 값(Sum of Absolute Difference; SAD 연산값)이 사용자가 미리 설정한 임계값보다 작은 경우 또는 특징점이 서로 동일한 픽셀값으로 구성되는 경우 매칭되는 특징점으로 판정하는 단계를 포함하는, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템.
A road environment management system using crowdsourcing-based images,
a road control server that receives a plurality of images taken from one or more user terminals and location information on the one or more user terminals, and transmits the received plurality of images and the location information to an image identification device to receive an analysis result; and
It learns a plurality of images received from the road control server, and uses the learned data and the location information to transmit the analysis result of identifying the object included in the plurality of images and the location of the object to the road control server. Including a video identification device for transmitting,
The road control server monitors a real-time road environment condition based on the analysis result,
The image identification device,
at least one processor; and
a memory for storing instructions instructing the at least one processor to perform at least one step;
The at least one step is
collecting the plurality of images;
separating the plurality of collected images into an object area and a background area, respectively;
identifying the identity of an object by matching feature points extracted from the images separated into the object region; and
identifying the identity of the object position by matching feature points extracted from the images separated by the background region with each other;
Identifying the identity of the object comprises:
calculating the number of matching feature points; and
Comprising the step of identifying the identity of the object based on the number of calculated feature points,
Calculating the number of matching feature points comprises:
When the sum of the absolute values of the pixel differences according to the compared feature points (Sum of Absolute Difference; SAD operation value) is less than the threshold value set in advance by the user, or when the feature points are composed of the same pixel values, a matching feature point A road environment management system using crowd-sourced images, comprising the step of determining.
삭제delete 청구항 17에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
상기 위치 정보를 기반으로 상기 복수의 영상을 하나 이상의 그룹으로 분류하는 단계; 및
동일한 그룹으로 분류된 복수의 영상 각각을 객체 영역과 배경 영역으로 분리하는 단계를 포함하는, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템.
In claim 17,
The step of separating the object area and the background area comprises:
classifying the plurality of images into one or more groups based on the location information; and
A road environment management system using crowd-sourcing-based images, comprising dividing each of a plurality of images classified into the same group into an object region and a background region.
청구항 17에서,
상기 객체 영역과 배경 영역으로 분리하는 단계는,
상기 복수의 영상 각각에서 객체를 추출하는 단계; 및
추출된 객체를 이용하여 상기 복수의 영상 각각에 대한 영역 분리 마스크를 생성하는 단계를 포함하는, 크라우드 소싱 기반의 영상들을 이용한 도로 환경 관리 시스템.
In claim 17,
The step of separating the object area and the background area comprises:
extracting an object from each of the plurality of images; and
A road environment management system using crowd-sourcing-based images, comprising generating a region separation mask for each of the plurality of images by using the extracted object.
KR1020180157485A 2018-12-07 2018-12-07 Method and apparatus for identifying object and object location equality between images KR102297217B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180157485A KR102297217B1 (en) 2018-12-07 2018-12-07 Method and apparatus for identifying object and object location equality between images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180157485A KR102297217B1 (en) 2018-12-07 2018-12-07 Method and apparatus for identifying object and object location equality between images

Publications (2)

Publication Number Publication Date
KR20200069911A KR20200069911A (en) 2020-06-17
KR102297217B1 true KR102297217B1 (en) 2021-09-03

Family

ID=71405850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180157485A KR102297217B1 (en) 2018-12-07 2018-12-07 Method and apparatus for identifying object and object location equality between images

Country Status (1)

Country Link
KR (1) KR102297217B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102356907B1 (en) * 2021-06-17 2022-02-08 주식회사 인피닉 method to input metadata for AI machine learning, and computer program recorded on record-medium for executing method therefor
KR102343049B1 (en) * 2021-06-17 2021-12-24 주식회사 인피닉 creation method of metadata of image for learning of artificial Intelligence, and computer program recorded on record-medium for executing method thereof
KR102633699B1 (en) * 2021-07-14 2024-02-05 서울시립대학교 산학협력단 Apparatus for guiding the road by voice for the transportation vulnerable by linking CCTV and smartphones
KR20230117974A (en) * 2022-02-03 2023-08-10 충남대학교산학협력단 Illegal parking monitoring system
WO2024090942A1 (en) * 2022-10-24 2024-05-02 삼성전자 주식회사 Method and electronic device for training neural network model by augmenting images representing objects captured by multiple cameras

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076074A (en) * 2013-10-11 2015-04-20 株式会社東芝 Parking vehicle detection device, vehicle management system, control method and control program
JP2016018463A (en) * 2014-07-10 2016-02-01 株式会社日立製作所 State change management system and state change management method
JP2016095701A (en) * 2014-11-14 2016-05-26 ソニー株式会社 Image processor, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015076074A (en) * 2013-10-11 2015-04-20 株式会社東芝 Parking vehicle detection device, vehicle management system, control method and control program
JP2016018463A (en) * 2014-07-10 2016-02-01 株式会社日立製作所 State change management system and state change management method
JP2016095701A (en) * 2014-11-14 2016-05-26 ソニー株式会社 Image processor, image processing method, and program

Also Published As

Publication number Publication date
KR20200069911A (en) 2020-06-17

Similar Documents

Publication Publication Date Title
KR102297217B1 (en) Method and apparatus for identifying object and object location equality between images
CN109272530B (en) Target tracking method and device for space-based monitoring scene
WO2019218824A1 (en) Method for acquiring motion track and device thereof, storage medium, and terminal
CN107305627B (en) Vehicle video monitoring method, server and system
CN116018616A (en) Maintaining a fixed size of a target object in a frame
CN110825765B (en) Face recognition method and device
Walia et al. Recent advances on multicue object tracking: a survey
CN108073890A (en) Action recognition in video sequence
WO2014081726A1 (en) Method and system for metadata extraction from master-slave cameras tracking system
CN106559645B (en) Monitoring method, system and device based on camera
US8761498B1 (en) Face and license plate detection in street level images with 3-D road width features estimated from laser data
CN109905641B (en) Target monitoring method, device, equipment and system
CN113378616A (en) Video analysis method, video analysis management method and related equipment
KR102022971B1 (en) Method for object of image and apparatus for the same
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
CN111881740A (en) Face recognition method, face recognition device, electronic equipment and medium
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
CN111191481B (en) Vehicle identification method and system
KR101509593B1 (en) Image classification method and apparatus for preset tour camera
CN113014876A (en) Video monitoring method and device, electronic equipment and readable storage medium
CN114913470B (en) Event detection method and device
CN116958795A (en) Method and device for identifying flip image, electronic equipment and storage medium
CN112257666B (en) Target image content aggregation method, device, equipment and readable storage medium
KR20190001873A (en) Apparatus for searching object and method thereof
KR20140134505A (en) Method for tracking image object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right