KR102311236B1 - 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 - Google Patents
딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 Download PDFInfo
- Publication number
- KR102311236B1 KR102311236B1 KR1020210043007A KR20210043007A KR102311236B1 KR 102311236 B1 KR102311236 B1 KR 102311236B1 KR 1020210043007 A KR1020210043007 A KR 1020210043007A KR 20210043007 A KR20210043007 A KR 20210043007A KR 102311236 B1 KR102311236 B1 KR 102311236B1
- Authority
- KR
- South Korea
- Prior art keywords
- generating
- information
- bounding box
- unit
- size information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 title abstract description 6
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 238000000691 measurement method Methods 0.000 claims description 8
- 238000009795 derivation Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/64—Devices characterised by the determination of the time taken to traverse a fixed distance
- G01P3/68—Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 개시된다. 본 발명의 일 측면에 따르면, 제1 수신부가 카메라로부터 실시간으로 촬영된 이미지를 수신하는 단계, 제1 바운딩 박스 생성부가 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 단계, 사물 정보 생성부가 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 단계, 이동 데이터 생성부가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성하는 단계, 및 속도 산출부가 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출하는 단계를 포함하는 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 제공된다.
Description
본 발명은 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템에 관한 것이다.
일반적인 속도 측정 방식은 움직이는 물체에 초음파 등을 조사해 반사파의 진동수를 측정함으로써 이루어지며, 이 같은 방식은 스피드건과 같은 별도의 측정 장비가 필요하다는 단점이 있다.
한편, 현재 스마트폰 등의 지능형 모바일 단말이 개발되어 널리 보급되고 있으며, 이를 가진 개인은 해당 단말에 애플리케이션을 다운로드 받음으로써 자신이 원하는 다양한 기능을 손쉽게 사용할 수 있다.
따라서 별도의 측정 장비가 없더라도, 스마트폰 등을 통해 누구든지 손쉽게 확인하고자 하는 물체의 속도를 측정할 수 있는 방법 내지 그러한 시스템의 개발이 필요하다.
본 발명은 촬영된 이미지 상의 사물을 인지 및 추적하여 해당 사물의 속도를 보다 손쉽고 빠르게 측정 가능한 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 제공하는 것이다.
본 발명의 일 측면에 따르면, 제1 수신부가 카메라로부터 실시간으로 촬영된 이미지를 수신하는 단계, 제1 바운딩 박스 생성부가 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 단계, 사물 정보 생성부가 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 단계, 이동 데이터 생성부가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성하는 단계, 및 속도 산출부가 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출하는 단계를 포함하는 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 제공된다.
제1 바운딩 박스를 생성하는 단계 이후에, 제1 소실점 도출부가 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계, 제1 좌표 공간 생성부가 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 단계, 및 제1 좌표값 도출부가 좌표 공간 내에 제1 시점에서의 사물의 제1 좌표값을 도출하는 단계가 더 포함될 수 있다.
이동 데이터를 생성하는 단계는, 제2 좌표값 도출부가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 사물의 좌표 공간에서의 제2 좌표값을 도출하는 단계, 단위 거리 산출부가 크기 정보에 따라 좌표 공간의 단위 좌표 당 단위 거리를 산출하는 단계, 및 이동 데이터 산출부가 단위 거리, 제1 좌표값 및 제2 좌표값에 따라 이동 데이터를 산출하는 단계를 포함할 수 있다.
사물 정보를 생성하는 단계는, 종류 정보 생성부가 제1 바운딩 박스를 데이터 베이스에 저장된 사물 이미지와 비교하여 종류 정보를 생성하는 단계, 및 크기 정보 생성부가 종류 정보를 갖는 사물 이미지의 크기 정보에 따라 사물의 크기 정보를 생성하는 단계를 포함할 수 있다.
사물 정보를 생성하는 단계는, 제1 저장부가 크기 정보 및 종류 정보를 포함하는 제1 바운딩 박스를 데이터 베이스에 사물 이미지로 저장하는 단계를 더 포함할 수 있다.
제1 바운딩 박스를 생성하는 단계 이후에, 제2 저장부가 제1 바운딩 박스를 데이터 베이스에 저장하는 단계가 더 포함되고, 이동 데이터를 생성하는 단계는, 제2 바운딩 박스 생성부가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 제2 바운딩 박스를 생성하는 단계, 및 사물 추적부가 제2 바운딩 박스와 제1 바운딩 박스를 비교하여 사물을 추적하는 단계를 포함할 수 있다.
사물은 제1 사물 및 제2 사물을 포함하고, 사물 정보를 생성하는 단계는, 제1 사물의 사물 정보가 미생성되는 경우, 제1 추정 생성부가 제2 사물의 크기 정보에 따라 제1 사물의 크기 정보를 추정하여 생성하는 단계를 포함할 수 있다.
제1 바운딩 박스를 생성하는 단계 이후에, 제2 소실점 도출부가 제1 사물 및 제2 사물 중 적어도 어느 하나의 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계, 및 제2 좌표 공간 생성부가 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 단계가 더 포함되고, 크기 정보를 추정하여 생성하는 단계는, 제1 추정 생성부가 제2 사물의 크기 정보 및 제1 사물과 제2 사물의 좌표 공간 내의 좌표값에 따라 제1 사물의 크기 정보를 생성할 수 있다.
사물 정보를 생성하는 단계는, 사물 정보 생성부가 제1 바운딩 박스를 데이터 베이스에 저장된 사물 이미지와 비교하여 사물 정보를 생성하고, 사물 정보를 생성하는 단계는, 제3 저장부가 제1 사물의 크기 정보를 포함하는 제1 바운딩 박스를 데이터 베이스에 사물 이미지로 저장하는 단계를 더 포함할 수 있다.
사물 정보를 생성하는 단계는, 사물 정보가 미생성되는 경우, 제2 수신부가 위치 정보 시스템의 서버로부터 주변물의 크기 정보를 수신하는 단계, 및 제2 추정 생성부가 주변물의 크기 정보에 따라 사물의 크기 정보를 추정하여 생성하는 단계를 포함할 수 있다.
본 발명에 따르면, 촬영된 이미지 상의 사물을 인지 및 추적하여 해당 사물의 속도를 보다 손쉽고 빠르게 측정하는 것이 가능하다.
도 1 및 도 8은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 도면.
도 2 및 도 9는 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제1 세부 도면.
도 3 및 도 10은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제2 세부 도면.
도 4 및 도 11은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제3 세부 도면.
도 5 및 도 12는 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제4 세부 도면.
도 6 및 도 13은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제5 세부 도면.
도 7은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 구현된 실시 예시도.
도 2 및 도 9는 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제1 세부 도면.
도 3 및 도 10은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제2 세부 도면.
도 4 및 도 11은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제3 세부 도면.
도 5 및 도 12는 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제4 세부 도면.
도 6 및 도 13은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템을 나타낸 제5 세부 도면.
도 7은 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 구현된 실시 예시도.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템(100)을 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
먼저, 본 발명의 일 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법에 대해 설명한다.
본 실시예에 따르면, 도 1에 도시된 바에 따라, 제1 수신부(110)가 카메라(10)로부터 실시간으로 촬영된 이미지를 수신하는 단계(S110), 제1 바운딩 박스 생성부(120)가 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 단계(S120), 사물 정보 생성부(170)가 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 단계(S170), 이동 데이터 생성부(180)가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성하는 단계(S180), 및 속도 산출부(190)가 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출하는 단계(S190)를 포함하는 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 제공된다.
이와 같은 본 실시예에 따르면, 카메라(10)에 의해 실시간으로 촬영된 이미지 상의 사물을 탐지, 인식 및 추적하여 해당 사물의 속도를 보다 손쉽고 빠르게 측정할 수 있다.
이하 도 1 내지 도 6을 참조하여 본 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법의 각 단계에 대하여 설명하도록 한다.
단계110에서는 제1 수신부(110)가 카메라(10)로부터 실시간으로 촬영된 이미지를 수신할 수 있다.
여기서 카메라(10)는 스마트폰 등의 단말에 구비된 것일 수 있으며, 제1 수신부(110)는 본 발명이 수행되는 애플리케이션이 단말 상으로 구동된 상태에서 카메라(10)에 의한 촬영이 이루어짐에 따라 해당 이미지를 카메라(10)로부터 실시간으로 수신할 수 있다.
단계120에서는 제1 바운딩 박스 생성부(120)가 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성할 수 있다.
여기서 바운딩 박스(bounding box)의 경계는 인식된 사물의 이미지를 모두 포함하는 최소의 경계로서 보다 구체적으로는 입체의 박스 형상을 이룰 수 있고, 바운딩 박스는 그 경계 내에 상기 사물의 이미지 데이터를 포함하는 분석용 데이터로 이해될 수 있다.
또한 이 때 3차원의 바운딩 박스를 생성하는 것은 기존의 2차원의 바운딩 박스를 생성하는 것과 대비하여 해당 물체의 이동 방향을 보다 정확하게 산출 가능하므로 속도 측정의 정확도 향상에 큰 도움을 줄 수 있다.
바운딩 박스 내에 포함되는 사물의 이미지만을 추출하여 분석하게 됨에 따라 이러한 바운딩 박스 처리 없이 이미지 전체를 대상으로 하는 것과 대비하여 분석에 소요되는 시간을 보다 단축시킬 수 있다.
단계170에서는 사물 정보 생성부(170)가 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성할 수 있다.
이를 보다 구체적으로 살펴보면, 사물 정보를 생성하는 단계(S170)는, 도 3에 도시된 바와 같이, 종류 정보 생성부(171)가 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 종류 정보를 생성하는 단계(S171), 및 크기 정보 생성부(172)가 종류 정보를 갖는 사물 이미지의 크기 정보에 따라 사물의 크기 정보를 생성하는 단계(S172)를 포함할 수 있다.
이 때 사물 이미지는 종류 및 크기 정보를 포함하고, 제1 바운딩 박스를 데이터 베이스(20)에 저장된 복수의 사물 이미지와 비교하여 매칭 확률이 높은 사물 이미지가 나타내는 사물을 제1 바운딩 박스 내 사물로 판단할 수 있다.
따라서 매칭된 사물 이미지의 종류 및 크기 정보에 따라 제1 바운딩 박스의 종류 및 크기 정보를 생성할 수 있게 된다.
예를 들어 제1 바운딩 박스 내 사물과 매칭되는 데이터 베이스(20)에 저장된 사물 이미지가 A사의 B모델 자동차라면, 사물의 종류 정보는 B모델 자동차로 특정되고 그 크기 정보는 해당 사물 이미지가 갖는 B모델 자동차의 제원 중 크기 데이터가 될 수 있다.
또한 사물 정보를 생성하는 단계(S170)는, 도 3에 도시된 바와 같이, 제1 저장부(173)가 크기 정보 및 종류 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 단계(S173)를 더 포함할 수 있다.
사물 정보 생성부(170)는 딥러닝(Deep-learning) 사물 탐지 및 인식 모델 개선을 통해 그 사물 탐지 및 인식의 정확도가 보다 향상될 수 있으며, 위 경우 종류 및 크기 정보를 포함하는 제1 바운딩 박스, 즉 신규 데이터를 데이터 베이스(20)에 저장해 학습 데이터로써 활용할 수 있다.
단계180에서는 이동 데이터 생성부(180)가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성할 수 있다.
다시 말해 제2 시점에서의 이미지 내 사물을 탐지 및 인식하여 제1 시점 대비 변위가 발생한 사물을 추적할 수 있으며, 이 때 크기 정보를 이용하여 사물의 이동 데이터를 생성할 수 있게 된다.
보다 구체적으로 도 2에 도시된 바에 따라, 제1 바운딩 박스를 생성하는 단계(S120) 이후에, 제1 소실점 도출부(131)가 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계(S131), 제1 좌표 공간 생성부(132)가 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 단계(S132), 및 제1 좌표값 도출부(133)가 좌표 공간 내에 제1 시점에서의 사물의 제1 좌표값을 도출하는 단계(S133)가 더 포함될 수 있다.
또한 이동 데이터를 생성하는 단계(S180)는, 도 2에 도시된 바와 같이, 제2 좌표값 도출부(181)가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 사물의 좌표 공간에서의 제2 좌표값을 도출하는 단계(S181), 단위 거리 산출부(182)가 크기 정보에 따라 좌표 공간의 단위 좌표 당 단위 거리를 산출하는 단계(S182), 및 이동 데이터 산출부(183)가 단위 거리, 제1 좌표값 및 제2 좌표값에 따라 이동 데이터를 산출하는 단계(S183)를 포함할 수 있다.
즉, 이동 데이터의 생성은 사물의 크기 정보에 따라 생성되되, 더 구체적으로는 단위 거리, 제1 좌표값 및 제2 좌표값에 의해 산출될 수 있다.
제1 좌표값 및 제2 좌표값의 생성을 위해 제1 바운딩 박스의 입체 형상에 따라 소실점(消失點)을 도출한 후 해당 소실점을 기준으로 이미지 내에 3차원의 좌표 공간을 형성할 수 있다.
제1 좌표값 및 제2 좌표값 간 실제 거리를 계산하기 위한 단위 좌표 당 실제 거리, 즉 단위 거리를 사물의 크기 정보를 기준한 비율로써 산출할 수 있다.
이에 따라 제1 좌표값과 제2 좌표값 간의 거리를 계산하여 사물의 이동 데이터를 산출할 수 있게 된다.
한편, 도 4에 도시된 바에 따라, 제1 바운딩 박스를 생성하는 단계(S120) 이후에, 제2 저장부(140)가 제1 바운딩 박스를 데이터 베이스(20)에 저장하는 단계(S140)가 더 포함되고, 이동 데이터를 생성하는 단계(S180)는, 제2 바운딩 박스 생성부(184)가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 제2 바운딩 박스를 생성하는 단계(S184), 및 사물 추적부(185)가 제2 바운딩 박스와 제1 바운딩 박스를 비교하여 사물을 추적하는 단계(S185)를 포함할 수 있다.
즉 제2 바운딩 박스를 데이터 베이스(20)에 저장된 제1 바운딩 박스와 비교함으로써 제2 시점에서의 사물의 위치 이동을 추적할 수 있다.
이에 따라 제2 시점에서의 사물을 인식 시에 제1 시점에서의 과정을 반복하지 않고 제1 시점에서의 제1 바운딩 박스를 대상 비교를 위한 데이터로 활용함으로써 사물 추적을 위한 처리 속도를 보다 높일 수 있다.
사물은 제1 사물 및 제2 사물을 포함하고, 사물 정보를 생성하는 단계(S170)는, 도 5에 도시된 바와 같이, 제1 사물의 사물 정보가 미생성되는 경우, 제1 추정 생성부(174)가 제2 사물의 크기 정보에 따라 제1 사물의 크기 정보를 추정하여 생성하는 단계(S174)를 포함할 수 있다.
사물 정보가 미생성되는 경우를 보다 구체적으로 살펴보면, 제1 바운딩 박스를 데이터 베이스(20)에 저장된 복수의 사물 이미지와 비교한 결과 가장 높은 매칭 확률이 기설정 기준 이하인 경우 사물 정보가 미생성될 수 있다.
이 경우 제1 사물의 크기 정보를 생성하기 위해 사물 정보가 기생성된 제2 사물의 크기 정보를 추정 기준으로 이용할 수 있다.
보다 구체적으로 도 5에 도시된 바에 따라, 제1 바운딩 박스를 생성하는 단계(S120) 이후에, 제2 소실점 도출부(151)가 제1 사물 및 제2 사물 중 적어도 어느 하나의 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계(S151), 및 제2 좌표 공간 생성부(152)가 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 단계(S152)가 더 포함되고, 크기 정보를 추정하여 생성하는 단계(S174)는, 제1 추정 생성부(174)가 제2 사물의 크기 정보 및 제1 사물과 제2 사물의 좌표 공간 내의 좌표값에 따라 제1 사물의 크기 정보를 생성할 수 있다.
다시 말해 제2 사물의 크기 정보를 이용해 제1 사물의 크기 정보를 추정하기 위하여 이미지 내에 좌표 공간을 도입하며, 양 사물의 좌표값 및 제2 사물의 크기 정보를 이용해 제1 사물의 크기 정보를 비율적으로 생성할 수 있게 된다.
도 5에 도시된 바에 따라, 사물 정보를 생성하는 단계(S170)는, 사물 정보 생성부(170)가 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 사물 정보를 생성하고, 사물 정보를 생성하는 단계(S170)는, 제3 저장부(175)가 제1 사물의 크기 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 단계(S173)를 더 포함할 수 있다.
사물 정보 생성부(170)는 머신 러닝 통해 그 사물 탐지 및 인식의 정확도가 보다 향상될 수 있으며, 위 경우 크기 정보를 포함하는 제1 바운딩 박스라는 신규 데이터를 데이터 베이스(20)에 저장하여 학습을 위한 데이터로 활용할 수 있다.
한편, 사물 정보를 생성하는 단계(S170)는, 도 6에 도시된 바와 같이, 사물 정보가 미생성되는 경우, 제2 수신부(176)가 위치 정보 시스템 서버(30)로부터 주변물의 크기 정보를 수신하는 단계(S176), 및 제2 추정 생성부(177)가 주변물의 크기 정보에 따라 사물의 크기 정보를 추정하여 생성하는 단계(S177)를 포함할 수 있다.
여기서 제1 바운딩 박스를 데이터 베이스(20)에 저장된 복수의 사물 이미지와 비교 결과 가장 높은 매칭 확률이 기설정 기준 이하인 경우 사물 정보가 미생성될 수 있다.
이 경우 사물의 크기 정보를 생성하기 위해 주변물의 크기 정보를 추정의 기준으로 이용할 수 있다.
위치 정보 시스템은 스마트폰 등의 단말의 위치, 방향, 기울기 등의 GPS 정보를 수신하여 해당 위치에서의 주변 건물 등을 포함하는 주변물 정보를 다시 단말로 전송할 수 있다.
이 때 주변물은 건물, 도로, 조형물 등을 포함할 수 있고, 이에 따라 주변물의 크기 정보는 건물의 크기, 도로의 길이 내지 폭, 조형물의 높이 등을 포함할 수 있다.
보다 구체적으로 제1 바운딩 박스를 생성하는 단계(S120) 이후에, 제3 소실점 도출부가 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계, 및 제3 좌표 공간 생성부가 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 단계가 더 포함되고, 크기 정보를 추정하여 생성하는 단계는, 제3 추정 생성부가 주변물의 크기 정보 및 사물의 좌표 공간 내의 좌표값에 따라 사물의 크기 정보를 생성할 수 있다.
이 때 사물 정보를 생성하는 단계(S170)는, 사물 정보 생성부(170)가 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 사물 정보를 생성하고, 사물 정보를 생성하는 단계(S170)는, 제4 저장부가 사물의 크기 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 단계를 더 포함할 수 있다.
단계190에서는 속도 산출부(190)가 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출할 수 있다.
보다 구체적으로 사물의 속도는 이동 데이터를 제1 시점과 제2 시점 간 시간차로 나눈 것으로 표현될 수 있다.
도 7은 본 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법이 구현된 실시 예시를 나타낸 도면으로서, 이하 도 7(a) 내지 도 7(e)을 설명한다.
도 7(a)는 제1 수신부(110)가 카메라(10)로부터 실시간으로 촬영된 이미지를 수신하는 단계(S110)가 구현된 화면이다.
도 7(b)는 제1 바운딩 박스 생성부(120)가 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 단계(S120)가 구현된 화면이다.
도 7(c)는 사물 정보 생성부(170)가 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 단계(S170)가 구현된 화면이다.
도 7(d)는 이동 데이터 생성부(180)가 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성하는 단계(S180)가 구현된 화면이다.
도 7(e)는 속도 산출부(190)가 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출하는 단계(S190)가 구현된 화면이다.
다음으로, 본 발명의 다른 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 시스템(100)에 대해 설명한다.
본 발명의 일 측면에 따르면, 도 7에 도시된 바에 따라, 카메라(10)로부터 실시간으로 촬영된 이미지를 수신하는 제1 수신부(110), 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 제1 바운딩 박스 생성부(120), 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 사물 정보 생성부(170), 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성하는 이동 데이터 생성부(180), 및 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출하는 속도 산출부(190)를 포함하는 딥러닝 사물 인지 및 추적을 통한 속도 측정 시스템(100)이 제공된다.
이와 같은 본 실시예에 따르면, 이미지 상 문자의 인식을 통해 변환된 텍스트 데이터를 이용하여 이미지에 나타난 장소의 위치 및 해당 이미지의 촬영 위치를 정확, 신속하게 파악할 수 있게 된다.
이하 도 7 내지 도 12를 참조하여 본 실시예에 따른 딥러닝 사물 인지 및 추적을 통한 속도 측정 시스템(100)의 각 구성에 대하여 설명하도록 한다.
제1 수신부(110)는 카메라(10)로부터 실시간으로 촬영된 이미지를 수신할 수 있다.
제1 바운딩 박스 생성부(120)는 제1 시점에서의 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성할 수 있다.
사물 정보 생성부(170)는 제1 바운딩 박스를 분석하여 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성할 수 있다.
보다 구체적으로 사물 정보 생성부(170)는, 도 9에 도시된 바와 같이, 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 종류 정보를 생성하는 종류 정보 생성부(171), 및 종류 정보를 갖는 사물 이미지의 크기 정보에 따라 사물의 크기 정보를 생성하는 크기 정보 생성부(172)를 포함할 수 있다.
또한 사물 정보 생성부(170)는, 도 9에 도시된 바와 같이, 크기 정보 및 종류 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 제1 저장부(173)를 더 포함할 수 있다.
이동 데이터 생성부(180)는 제2 시점에서의 이미지에 포함된 사물을 탐지 및 추적하여 크기 정보에 따라 이동 데이터를 생성할 수 있다.
보다 구체적으로 살펴보자면, 도 8에 도시된 바에 따라, 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 제1 소실점 도출부(131), 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 제1 좌표 공간 생성부(132), 및 좌표 공간 내에 제1 시점에서의 사물의 제1 좌표값을 도출하는 제1 좌표값 도출부(133)가 더 포함될 수 있다.
이 때 이동 데이터 생성부(180)는, 도 8에 도시된 바와 같이, 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 사물의 좌표 공간에서의 제2 좌표값을 도출하는 제2 좌표값 도출부(181), 크기 정보에 따라 좌표 공간의 단위 좌표 당 단위 거리를 산출하는 단위 거리 산출부(182), 및 단위 거리, 제1 좌표값 및 제2 좌표값에 따라 이동 데이터를 산출하는 이동 데이터 산출부(183)를 포함할 수 있다.
한편, 도 10에 도시된 바에 따라, 제1 바운딩 박스를 데이터 베이스(20)에 저장하는 제2 저장부(140)가 더 포함되고, 이동 데이터 생성부(180)는, 제2 시점에서의 이미지에 포함된 사물을 탐지 및 인식하여 제2 바운딩 박스를 생성하는 제2 바운딩 박스 생성부(184), 및 제2 바운딩 박스와 제1 바운딩 박스를 비교하여 사물을 추적하는 사물 추적부(185)를 포함할 수 있다.
사물은 제1 사물 및 제2 사물을 포함하고, 사물 정보 생성부(170)는, 도 11에 도시된 바와 같이, 제1 사물의 사물 정보가 미생성되는 경우 제2 사물의 크기 정보에 따라 제1 사물의 크기 정보를 추정하여 생성하는 제1 추정 생성부(174)를 포함할 수 있다.
보다 구체적으로, 도 11에 도시된 바에 따라, 제1 사물 및 제2 사물 중 적어도 어느 하나의 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 제2 소실점 도출부(151), 및 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 제2 좌표 공간 생성부(152)가 더 포함되고, 제1 추정 생성부(174)는 제2 사물의 크기 정보 및 제1 사물과 제2 사물의 좌표 공간 내의 좌표값에 따라 제1 사물의 크기 정보를 생성할 수 있다.
도 11에 도시된 바에 따라, 사물 정보 생성부(170)는 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 사물 정보를 생성하고, 사물 정보 생성부(170)는, 제1 사물의 크기 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 제3 저장부(175)를 더 포함할 수 있다.
한편, 사물 정보를 생성하는 단계(S170)는, 도 12에 도시된 바와 같이, 사물 정보가 미생성되는 경우 위치 정보 시스템 서버(30)로부터 주변물의 크기 정보를 수신하는 제2 수신부(176), 및 주변물의 크기 정보에 따라 사물의 크기 정보를 추정하여 생성하는 제2 추정 생성부(177)를 포함할 수 있다.
보다 구체적으로 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 제3 소실점 도출부, 및 소실점을 기준으로 이미지 내에 좌표 공간을 생성하는 제3 좌표 공간 생성부가 더 포함되고, 제3 추정 생성부는 주변물의 크기 정보 및 사물의 좌표 공간 내의 좌표값에 따라 사물의 크기 정보를 생성할 수 있다.
이 때 사물 정보 생성부(170)는 제1 바운딩 박스를 데이터 베이스(20)에 저장된 사물 이미지와 비교하여 사물 정보를 생성하고, 사물 정보 생성부(170)는, 사물의 크기 정보를 포함하는 제1 바운딩 박스를 데이터 베이스(20)에 사물 이미지로 저장하는 제4 저장부(140)를 더 포함할 수 있다.
속도 산출부(190)는 이동 데이터 및 제1 시점과 제2 시점 간 시간차에 따라 사물의 속도를 산출할 수 있다.
상술한 내용에 대한 보다 구체적인 내용들은 전술한 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법의 그것을 따를 수 있다.
한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다. 또한 전술된 실시예의 프로세스는 장치의 구성 요소 관점에서 용이하게 파악될 수 있다.
또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.
10: 카메라
20: 데이터 베이스
30: 위치 정보 시스템 서버
100: 딥러닝 사물 인지 및 추적을 통한 속도 측정 시스템
110: 제1 수신부
120: 제1 바운딩 박스 생성부
131: 제1 소실점 도출부
132: 제1 좌표 공간 생성부
133: 제1 좌표값 도출부
140: 제2 저장부
151: 제2 소실점 도출부
152: 제2 좌표 공간 생성부
170: 사물 정보 생성부
171: 종류 정보 생성부
172: 크기 정부 생성부
173: 제1 저장부
174: 제1 추정 생성부
175: 제3 저장부
176: 제2 수신부
177: 제2 추정 생성부
180: 이동 데이터 생성부
181: 제2 좌표값 도출부
182: 단위 거리 산출부
183: 이동 데이터 산출부
184: 제2 바운딩 박스 생성부
185: 사물 추적부
190: 속도 산출부
20: 데이터 베이스
30: 위치 정보 시스템 서버
100: 딥러닝 사물 인지 및 추적을 통한 속도 측정 시스템
110: 제1 수신부
120: 제1 바운딩 박스 생성부
131: 제1 소실점 도출부
132: 제1 좌표 공간 생성부
133: 제1 좌표값 도출부
140: 제2 저장부
151: 제2 소실점 도출부
152: 제2 좌표 공간 생성부
170: 사물 정보 생성부
171: 종류 정보 생성부
172: 크기 정부 생성부
173: 제1 저장부
174: 제1 추정 생성부
175: 제3 저장부
176: 제2 수신부
177: 제2 추정 생성부
180: 이동 데이터 생성부
181: 제2 좌표값 도출부
182: 단위 거리 산출부
183: 이동 데이터 산출부
184: 제2 바운딩 박스 생성부
185: 사물 추적부
190: 속도 산출부
Claims (10)
- 제1 수신부가 카메라로부터 실시간으로 촬영된 이미지를 수신하는 단계;
제1 바운딩 박스 생성부가 제1 시점에서의 상기 이미지에 포함된 사물을 입체적으로 탐지 및 인식하여 제1 바운딩 박스를 생성하는 단계;
사물 정보 생성부가 상기 제1 바운딩 박스를 분석하여 상기 사물의 종류 및 크기 정보를 포함하는 사물 정보를 생성하는 단계;
이동 데이터 생성부가 제2 시점에서의 상기 이미지에 포함된 상기 사물을 탐지 및 추적하여 상기 크기 정보에 따라 이동 데이터를 생성하는 단계; 및
속도 산출부가 상기 이동 데이터 및 상기 제1 시점과 상기 제2 시점 간 시간차에 따라 상기 사물의 속도를 산출하는 단계를 포함하고,
상기 제1 바운딩 박스를 생성하는 단계 이후에,
제1 소실점 도출부가 상기 제1 시점에서 기인식된 상기 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계;
제1 좌표 공간 생성부가 상기 소실점을 기준으로 상기 이미지 내에 좌표 공간을 생성하는 단계; 및
제1 좌표값 도출부가 상기 좌표 공간 내에 상기 제1 시점에서의 상기 사물의 제1 좌표값을 도출하는 단계를 더 포함하는 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 삭제
- 제1항에 있어서,
상기 이동 데이터를 생성하는 단계는,
제2 좌표값 도출부가 상기 제2 시점에서의 상기 이미지에 포함된 상기 사물을 탐지 및 인식하여 상기 사물의 상기 좌표 공간에서의 제2 좌표값을 도출하는 단계;
단위 거리 산출부가 상기 크기 정보에 따라 상기 좌표 공간의 단위 좌표 당 단위 거리를 산출하는 단계; 및
이동 데이터 산출부가 상기 단위 거리, 상기 제1 좌표값 및 상기 제2 좌표값에 따라 상기 이동 데이터를 산출하는 단계를 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제1항에 있어서,
상기 사물 정보를 생성하는 단계는,
종류 정보 생성부가 상기 제1 바운딩 박스를 데이터 베이스에 저장된 사물 이미지와 비교하여 상기 종류 정보를 생성하는 단계; 및
크기 정보 생성부가 상기 종류 정보를 갖는 상기 사물 이미지의 상기 크기 정보에 따라 상기 사물의 상기 크기 정보를 생성하는 단계를 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제4항에 있어서,
상기 사물 정보를 생성하는 단계는,
제1 저장부가 상기 크기 정보 및 상기 종류 정보를 포함하는 상기 제1 바운딩 박스를 상기 데이터 베이스에 상기 사물 이미지로 저장하는 단계를 더 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제1항에 있어서,
상기 제1 바운딩 박스를 생성하는 단계 이후에,
제2 저장부가 상기 제1 바운딩 박스를 데이터 베이스에 저장하는 단계를 더 포함하고,
상기 이동 데이터를 생성하는 단계는,
제2 바운딩 박스 생성부가 상기 제2 시점에서의 상기 이미지에 포함된 상기 사물을 탐지 및 인식하여 제2 바운딩 박스를 생성하는 단계; 및
사물 추적부가 상기 제2 바운딩 박스와 상기 제1 바운딩 박스를 비교하여 상기 사물을 추적하는 단계를 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제1항에 있어서,
상기 사물은 제1 사물 및 제2 사물을 포함하고,
상기 사물 정보를 생성하는 단계는,
상기 제1 사물의 상기 사물 정보가 미생성되는 경우, 제1 추정 생성부가 제2 사물의 상기 크기 정보에 따라 상기 제1 사물의 상기 크기 정보를 추정하여 생성하는 단계를 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제7항에 있어서,
상기 제1 바운딩 박스를 생성하는 단계 이후에,
제2 소실점 도출부가 상기 제1 사물 및 상기 제2 사물 중 적어도 어느 하나의 상기 제1 바운딩 박스의 입체 형상에 따라 소실점을 도출하는 단계; 및
제2 좌표 공간 생성부가 상기 소실점을 기준으로 상기 이미지 내에 좌표 공간을 생성하는 단계를 더 포함하고,
상기 크기 정보를 추정하여 생성하는 단계는,
상기 제1 추정 생성부가 상기 제2 사물의 상기 크기 정보 및 상기 제1 사물과 상기 제2 사물의 상기 좌표 공간 내의 좌표값에 따라 상기 제1 사물의 상기 크기 정보를 생성하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제7항에 있어서,
상기 사물 정보를 생성하는 단계는,
상기 사물 정보 생성부가 상기 제1 바운딩 박스를 데이터 베이스에 저장된 사물 이미지와 비교하여 상기 사물 정보를 생성하고,
상기 사물 정보를 생성하는 단계는,
제3 저장부가 상기 제1 사물의 상기 크기 정보를 포함하는 상기 제1 바운딩 박스를 상기 데이터 베이스에 상기 사물 이미지로 저장하는 단계를 더 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
- 제1항에 있어서,
상기 사물 정보를 생성하는 단계는,
상기 사물 정보가 미생성되는 경우, 제2 수신부가 위치 정보 시스템의 서버로부터 주변물의 크기 정보를 수신하는 단계; 및
제2 추정 생성부가 상기 주변물의 크기 정보에 따라 상기 사물의 상기 크기 정보를 추정하여 생성하는 단계를 포함하는, 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210043007A KR102311236B1 (ko) | 2021-04-01 | 2021-04-01 | 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210043007A KR102311236B1 (ko) | 2021-04-01 | 2021-04-01 | 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102311236B1 true KR102311236B1 (ko) | 2021-10-13 |
Family
ID=78150714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210043007A KR102311236B1 (ko) | 2021-04-01 | 2021-04-01 | 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102311236B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230173814A (ko) | 2022-06-20 | 2023-12-27 | 유에프엠시스템즈 주식회사 | 소실점을 이용한 3d 바운딩 박스 생성 방법 및 교통신호 제어를 위한 객체 감응형 차량 흐름 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101376516B1 (ko) | 2013-03-27 | 2014-03-20 | 현대로템 주식회사 | 철도차량의 속도측정방법 |
KR20170088692A (ko) * | 2016-01-25 | 2017-08-02 | 렉스젠(주) | 영상을 이용한 차량속도 산출장치 및 그 방법 |
KR102010823B1 (ko) * | 2017-02-27 | 2019-08-14 | 주식회사 에스원 | 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치 |
KR20190115501A (ko) * | 2018-03-14 | 2019-10-14 | 광주과학기술원 | 차량 인식 시스템 |
KR20210017525A (ko) * | 2019-08-08 | 2021-02-17 | 삼성전자주식회사 | 거리 추정 장치 및 이의 동작 방법 |
-
2021
- 2021-04-01 KR KR1020210043007A patent/KR102311236B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101376516B1 (ko) | 2013-03-27 | 2014-03-20 | 현대로템 주식회사 | 철도차량의 속도측정방법 |
KR20170088692A (ko) * | 2016-01-25 | 2017-08-02 | 렉스젠(주) | 영상을 이용한 차량속도 산출장치 및 그 방법 |
KR102010823B1 (ko) * | 2017-02-27 | 2019-08-14 | 주식회사 에스원 | 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치 |
KR20190115501A (ko) * | 2018-03-14 | 2019-10-14 | 광주과학기술원 | 차량 인식 시스템 |
KR20210017525A (ko) * | 2019-08-08 | 2021-02-17 | 삼성전자주식회사 | 거리 추정 장치 및 이의 동작 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230173814A (ko) | 2022-06-20 | 2023-12-27 | 유에프엠시스템즈 주식회사 | 소실점을 이용한 3d 바운딩 박스 생성 방법 및 교통신호 제어를 위한 객체 감응형 차량 흐름 제어 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
US11003956B2 (en) | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression | |
US11205276B2 (en) | Object tracking method, object tracking device, electronic device and storage medium | |
KR101725478B1 (ko) | 3d 점군 인식 기반의 증강 현실 출력 방법과 이를 수행하기 위한 장치 및 시스템 | |
Toulminet et al. | Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis | |
Nedevschi et al. | Stereo-based pedestrian detection for collision-avoidance applications | |
US10204423B2 (en) | Visual odometry using object priors | |
CN104123529B (zh) | 人手检测方法及系统 | |
CN111523610B (zh) | 一种样本高效标注的物品识别方法 | |
CN112435338B (zh) | 电子地图的兴趣点的位置获取方法、装置及电子设备 | |
EP2779025A2 (en) | Method and system for detecting road edge | |
KR101854048B1 (ko) | 스테레오 매칭 깊이맵의 신뢰도 측정 방법 및 장치 | |
KR20210090384A (ko) | 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치 | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
US9396396B2 (en) | Feature value extraction apparatus and place estimation apparatus | |
US9317968B2 (en) | System and method for multiple hypotheses testing for surface orientation during 3D point cloud extraction from 2D imagery | |
JP2015002547A (ja) | 画像処理装置、プログラム、および画像処理方法 | |
KR101460313B1 (ko) | 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법 | |
CN111723724A (zh) | 一种路面障碍物识别方法和相关装置 | |
KR20200036079A (ko) | 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법 | |
KR102311236B1 (ko) | 딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템 | |
KR20150127503A (ko) | 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체 | |
Oskouie et al. | A data quality-driven framework for asset condition assessment using LiDAR and image data | |
KR102270009B1 (ko) | 다채널 영상 인공지능 알고리즘 기반 이동 물체 탐지 및 거리 추정 방법 | |
Hofmann et al. | Object Detection, Classification and Localization by Infrastructural Stereo Cameras. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |