KR102187831B1 - Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램 - Google Patents

Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR102187831B1
KR102187831B1 KR1020190135672A KR20190135672A KR102187831B1 KR 102187831 B1 KR102187831 B1 KR 102187831B1 KR 1020190135672 A KR1020190135672 A KR 1020190135672A KR 20190135672 A KR20190135672 A KR 20190135672A KR 102187831 B1 KR102187831 B1 KR 102187831B1
Authority
KR
South Korea
Prior art keywords
cctv
pedestrian
information
server
image
Prior art date
Application number
KR1020190135672A
Other languages
English (en)
Inventor
곽찬우
최정명
지현규
Original Assignee
곽찬우
최정명
지현규
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 곽찬우, 최정명, 지현규 filed Critical 곽찬우
Priority to KR1020190135672A priority Critical patent/KR102187831B1/ko
Application granted granted Critical
Publication of KR102187831B1 publication Critical patent/KR102187831B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

CCTV, 서버 및 사용자 단말을 포함하는 CCTV를 이용한 혼잡도 판단 시스템이 제공된다. 상기 CCTV를 이용한 혼잡도 판단 시스템의 제어 방법은, 제1 CCTV가, 영상을 촬영하는 단계; 상기 제1 CCTV가 상기 촬영된 영상 중 배경 및 보행자를 분류하는 단계; 상기 제1 CCTV가, 상기 배경에 포함된 상기 보행자에 대한 정보를 바탕으로, 상기 영상에 대응되는 장소의 혼잡도 정보를 획득하는 단계; 상기 제1 CCTV가, 상기 영상 및 혼잡도 정보를 상기 서버로 전송하는 단계; 및 상기 서버가, 상기 사용자 단말의 위치 정보를 바탕으로 상기 사용자 단말에 대응되는 위치의 혼잡도 정보를 상기 사용자 단말로 전송하는 단계; 를 포함한다.

Description

CCTV를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램{CONTROL METHOD, DEVICE AND PROGRAM OF CONGESTION JUDGMENT SYSTEM USING CCTV}
본 발명은 CCTV를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램에 관한 것이다.
자동차 도로에 설치된 CCTV를 바탕으로 교통 상황을 판단하거나, 교통량을 예상하여 적체 구간을 알려주는 기술들은 종래부터 존재해 왔다. 자동차 도로에서의 혼잡도를 측정하는 기술은 일반 보행자가 다니는 도로에서의 혼잡도 측정에는 적용되기 어려운 것이 현실이다.
이는, 자동차 도로는 이동 방향에 대한 규칙성을 가지며, 자동차 도로에 설치된 CCTV는 일정 간격마다 설치되어 있으나, 일반 보행자 도로는 보행자의 이동 방향 및 동선이 제각각이고, 설치되는 CCTV의 위치 또한 제각각인 것에 기인한다.
관련하여, 특허문헌 제11-1176947호는 CCTV를 이용한 인파 정보 제공 시스템을 개시하고 있으나, 단순히 촬영된 영상에서의 사람 수를 계산하여 인파 정보를 획득하는 방법이 개시되어 있을 뿐, CCTV가 촬영할 수 없는 장소에 대한 인파 정보까지 제시하고 있지는 못하고 있는 것이 현실이다.
등록특허 제10-1176947호(2012.08.30)
본 발명이 해결하고자 하는 과제는 CCTV를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 CCTV, 서버 및 사용자 단말을 포함하는 CCTV를 이용한 혼잡도 판단 시스템의 제어 방법은, 제1 CCTV가, 영상을 촬영하는 단계; 상기 제1 CCTV가 상기 촬영된 영상 중 배경 및 보행자를 분류하는 단계; 상기 제1 CCTV가, 상기 배경에 포함된 상기 보행자에 대한 정보를 바탕으로, 상기 영상에 대응되는 장소의 혼잡도 정보를 획득하는 단계; 상기 제1 CCTV가, 상기 영상 및 혼잡도 정보를 상기 서버로 전송하는 단계; 및 상기 서버가, 상기 사용자 단말의 위치 정보를 바탕으로 상기 사용자 단말에 대응되는 위치의 혼잡도 정보를 상기 사용자 단말로 전송하는 단계; 를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상술한 본 발명의 실시예에 따라, CCTV를 이용한 혼잡도 정보를 획득하여 보행자 편의성을 증대시킬 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 혼잡도 정도를 측정하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 배경을 획득하기 위한 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 보행자를 식별하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 보행자의 이동속도 및 이동 방향을 획득하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 공백 영역에서의 혼잡도 정보를 획득하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 보행자 판단 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 학습데이터를 획득하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 오브젝트 정보를 획득하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 공백 영역을 설명하기 위한 예시도이다.
도 11은 본 발명의 일 실시예에 따른 장치의 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 시스템도이다.
도 1에 도시된 바와 같이, 혼잡도 판단 시스템은 CCTV(10), 서버(20) 및 사용자 단말(30)을 포함한다.
CCTV(10)는 혼잡도 정보를 획득하기 위한 영상을 촬영하기 위한 구성이다. 본 발명의 다양한 실시예에 따라, CCTV는 제1 CCTV(10-1), 제2 CCTV(10-2) 및 그외 복수의 CCTV를 포함할 수 있다. 한편, 본 발명에 따른 CCTV는 고정형 CCTV 뿐만 아니라 이동식 CCTV를 포함할 수 있으며, 나아가, CCTV에 국한되지 않고, 카메라 기능을 포함하는 복수의 전자 장치에 적용될 수 있음은 물론이다.
서버(20)는 CCTV(10)로부터 정보를 전달받고, 사용자 단말(30)로 혼잡도 정보를 전송하기 위한 구성이다. 서버(20)의 다양한 동작들에 대하여는 후술하는 실시예를 통해 구체적으로 설명한다.
사용자 단말(30)는 서버(20)와 통신하기 위한 구성이다. 본 발명에 따른 전자 장치(200)는 스마트 폰으로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player) 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 혼잡도 정도를 측정하는 방법을 설명하기 위한 흐름도이다.
단계 S110에서, 제1 CCTV(10-1)는 영상을 촬영할 수 있다. 구체적으로, 제1 CCTV(10-1)는 본연의 목적인 감시 목적으로 특정 위치를 촬영할 수 있다. 이때, 제1 CCTV(10-1)는 기 설정된 주기(예를 들어, 10분, 5분, 1분 등)에 따라 촬영되는 영상을 캡쳐한 영상 이미지를 획득할 수 있다.
단계 S120에서, 제1 CCTV(10-1)는 촬영된 영상 중 배경 및 보행자를 분류할 수 있다. 배경 및 보행자를 분류하는 구체적인 방법은 후술한다.
단계 S130에서, 제1 CCTV(10-1)는, 배경에 포함된 보행자에 대한 정보를 바탕으로, 영상에 대응되는 장소의 혼잡도 정보를 획득할 수 있다.
일 실시예로, 제1 CCTV(10-1)는 배경에 포함된 보행자의 숫자를 기준으로 혼잡도 정보를 획득하거나, 배경에 포함된 보행자의 부피를 기준으로 혼잡도 정보를 획득할 수 있다.
또 다른 실시예로, 제1 CCTV(10-1)는배경에 포함된 보행자의 움직임을 기준으로 혼잡도 정보를 획득할 수 있다. 예를 들어, 제1 CCTV(10-1)는 복수의 보행자의 평균 이동 속도가 기 설정된 속도 이상인 경우, 혼잡도 정보를 낮게 설정할 수 있다. 또 다른 예로, 제1 CCTV(10-1)는 복수의 보행자의 평균 이동 속도가 기 설정된 속도 범위 내인 경우, 혼잡도 정보를 높게 설정할 수 있다. 또 다른 예로, 제1 CCTV(10-1)는 복수의 보행자들의 평균 이동 속도가 기 설정된 속도 이하인 경우, 혼잡도 정보를 낮게 설정하나, 복수의 보행자들의 평균 이동 속도가 기 설정된 속도 이하이나 새로운 보행자가 계속 발견되면, 혼잡도 정보를 높게 획득할 수 있다.
단계 S140에서, 제1 CCTV(10-1)는, 영상 및 혼잡도 정보를 서버(20)로 전송할 수 있다.
단계 S150에서, 서버(20)는, 사용자 단말(30)의 위치 정보를 바탕으로 사용자 단말(30)에 대응되는 위치의 혼잡도 정보를 사용자 단말(30)로 전송할 수 있다.
도 3은 본 발명의 일 실시예에 따른 배경을 획득하기 위한 방법을 설명하기 위한 흐름도이다.
단계 S210에서, 제1 CCTV(10-1)는 촬영한 복수의 영상을 획득할 수 있다. 이때, 획득되는 복수의 영상은 기 설정된 기간동안 획득되는 영상일 수 있다. 기 설정된 기간은 예를 들어 1일일 수 있다.
단계 S220에서, 제1 CCTV(10-1)는 복수의 영상 중 서로 다른 두개의 영상에 대한 복수의 영상 세트를 획득할 수 있다.
예를 들어, 복수의 영상이 3개인 경우, 제1 CCTV(10-1)는 3개의 영상 세트를 획득하고, 4개인 경우 6개의 영상 세트를 획득하고, 5개인 경우, 10개의 영상 세트를 획득하고, n개인 경우, nC2개의 영상 세트를 획득할 수 있다.
다만, 이는 일 실시예에 불과하고, 제1 CCTV(10-1)는 복수의 영상 중 영상이 촬영된 시간이 기 설정된 간격만큼 차이가 나는 두개의 영상을 영상 세트로 획득할 수 있다. 이는, 영상 세트에 포함된 영상이 촬영된 시간이 비슷한 경우, 후술하는 바와 같이, 동일 영역이 배경이 아니라, 장시간 멈춰있는 보행자일 수도 있음을 방지하기 위함이다.
단계 S230에서, 제1 CCTV(10-1)는 획득된 복수의 영상 세트 각각을 분석하여 복수의 영상 세트 각각에 포함된 두 개의 영상에 대한 복수의 동일 영역 및 복수의 차이 영역 각각을 획득할 수 있다.
즉, 제1 CCTV(10-1)가 고정형 CCTV인 경우, 제1 CCTV(10-1)는 항상 동일한 장소(배경)를 촬영하고 있으므로, 제1 CCTV(10-1)는 두개의 영상 중 동일한 영역을 배경으로, 차이나는 영역을 보행자로 판단할 수 있다.
단계 S240에서, 제1 CCTV(10-1)는 획득된 복수의 동일 영역을 바탕으로 배경을 획득할 수 있다.
일 실시예로, 제1 CCTV(10-1)는 특정 영상에서 획득된 동일 영역과 다른 영상에서 획득된 동일 영역을 합성함으로써, 제1 CCTV(10-1)가 촬영하는 장소의 배경을 획득할 수 있다.
이때, 특정 영상에서 획득된 동일 영역은, 특정 영상에서 동일 영역이 아닌 부분(즉, 보행자로 판단된 부분)에 대한 배경이 가장 적은 영상으로 획득함으로써, 배경 합성에 소요되는 계산량을 줄일 수 있다.
다만, 배경은 상술한 방법뿐 아니라 다양한 방법을 통해 획득될 수 있음은 물론이다.
일 실시예로, 제1 CCTV(10-1)는 기 설정된 시간동안 제1 CCTV(10-1)에 의해 촬영된 영상에서 움직임이 감지되지 않는 경우, 기 설정된 시간동안 촬영된 영상에 대한 이미지를 배경으로 획득할 수 있다.
도 4는 본 발명의 일 실시예에 따른 보행자를 식별하는 방법을 설명하기 위한 흐름도이다.
단계 S310에서, 제1 CCTV(10-1)는 촬영된 영상과 획득된 배경을 바탕으로 동일 영역 및 차이 영역을 획득할 수 있다.
단계 S320에서 제1 CCTV(10-1)는 획득된 차이 영역을 분석하여 보행자를 획득할 수 있다.
즉, 동일 영역이 배경을 획득하기 위해 사용된다면, 차이 영역은 보행자를 획득하기 위해 사용될 수 있다. 제1 CCTV(10-1)는 차이 영역 자체를 보행자로 판단할 수도 있으나, 차이영역이 일반적인 사람의 실루엣과 유사한지에 대한 유사도 판단을 통해 차이 영역이 보행자인지 아닌지 여부를 판단할 수 있음은 물론이다.
단계 S330에서, 제1 CCTV(10-1)는 획득된 보행자의 얼굴 분석, 획득된 보행자가 착용한 의류 분석, 보행자가 탑승중인 이동 장치 분석 중 적어도 하나의 분석을 바탕으로 보행자에 대한 식별부호를 보행자와 매칭할 수 있다.
일 실시예로, 제1 CCTV(10-1)는 보행자의 얼굴을 촬영하고, 촬영된 얼굴의 특징점을 추출하여 보행자를 식별할 수 있다. 다만, 보행자의 얼굴을 촬영하여 저장하는 것은 개인 정보 침해의 문제가 발생할 수 있으므로, 제1 CCTV(10-1)는 보행자의 얼굴로부터 추출된 특징점을 입력값으로 암호화 함수에 임력한 출력값을 바탕으로 보행자를 식별할 수 있다.
또 다른 실시예로, 제1 CCTV(10-1)는 보행자가 착용한 옷 또는 신발에 대한 영상을 분석하여 옷 또는 신발에 대한 정보를 획득할 수 있다. 예를 들어, 제1 CCTV(10-1)는 제1 보행자가 A사의 a모델의 신발을 신고 있고, 제2 보행자가 B사의 b모델의 신발을 신고 있는 경우, 제1 보행자 및 제2 보행자를 구분하여 식별할 수 있다.
또 다른 실시예로, 제1 CCTV(10-1)는 보행자가 이동 장치에 탑승중인 경우, 이동 장치에 대한 정보를 바탕으로 보행자를 식별할 수 있다. 즉, 이 경우, 제1 CCTV(10-1)는 보행자를 식별하는 것이 아니라 이동 장치를 식별하는 것이지만, 보행자가 이동 장치를 탑승하고 있으므로, 이동 장치의 식별을 보행자의 식별로 간주할 수 있다.
구체적으로, 보행자가 차량에 탑승하고 있는 경우, 제1 CCTV(10-1)는 차량 번호를 식별할 수 있다. 또 다른 실시예로, 보행자가 공유 전동 킥보드에 탑승하고 있는 경우, 제1 CCTV(10-1)는 공유 전동 킥보드를 관리하는 외부 서버로에 현재 시간 및 위치 정보를 전송하고, 외부 서버로부터 현재 시간 및 위치 정보에 대응되는 공유 전동 킥보드에 대한 일련번호를 획득하는 방식으로 보행자를 식별할 수 있다.
상술한 다양한 방법을 통해 식별된 보행자에 대한 정보는 후술하는 바와 같이 공백 영역에서의 보행자의 이동을 판단하기 위한 데이터로 사용될 수 있다.
도 5는 본 발명의 일 실시예에 따른 보행자의 이동속도 및 이동 방향을 획득하는 방법을 설명하기 위한 흐름도이다.
단계 S410에서, 제1 CCTV(10-1)는, 제1 CCTV(10-1)에 촬영되어 제1 식별부호가 매칭된 제1 보행자의 움직임을 바탕으로, 제1 보행자의 평균 이동 속도 및 이동 방향에 대한 정보를 획득할 수 있다.
단계 S420에서, 제1 CCTV(10-1)는, 제1 식별 부호 및 제1 보행자의 평균 이동 속도 및 이동 방향에 대한 정보를 서버(20)로 전송할 수 있다.
도 6은 본 발명의 일 실시예에 따른 공백 영역에서의 혼잡도 정보를 획득하는 방법을 설명하기 위한 흐름도이다.
단계 S510에서, 서버(20)는, 제1 보행자의 이동 방향에 대한 정보를 바탕으로 제1 CCTV(10-1) 와 인접한 제2 CCTV(10-2)에 대한 정보를 획득할 수 있다.
구체적으로, 서버(20)는 제1 보행자의 이동 방향에 위치한 복수개의 CCTV 중, 제1 CCTV(10-1)와 가장 가까운 CCTV를 제2 CCTV로 결정할 수 있다. 다만, 이에 한정되는 것은 아니며, 서버(20)는 제1 CCTV(10-1)주변의 도로 정보를 외부 서버로부터 획득하고, 제1 CCTV(10-1)가 위치한 도로와 연결된 가장 가까운 도로에 위치하는 CCTV를 제2 CCTV로 결정할 수 있음은 물론이다.
단계 S520에서, 서버(20)는, 제1 CCTV(10-1) 가 촬영 가능한 제1 촬영 영역 및 제2 CCTV(10-2) 가 촬영 가능한 제2 촬영 영역을 획득할 수 있다.
단계 S530에서, 서버(20)는, 제1 촬영 영역의 위치 정보 및 제2 촬영 영역의 위치 정보를 바탕으로, 제1 촬영 영역 및 제2 촬영 영역 사이의 공백 영역을 획득할 수 있다.
구체적으로, 도 10에 도시된 바와 같이, 제1 CCTV(10-1)은 사거리의 우측 하단에 위치하여 사거리의 우측 하단부터 좌측 상단까지의 제1 촬영 영역(40-1)을 촬영하고, 제2 CCTV(10-2)은 또 다른 사거리의 우측 상단에 위치하여 사거리의 우측 상단부터 좌측 하단까지의 제2 촬영 영역(40-2)을 촬영할 수 있다.
이 경우, 제1 CCTV(10-1) 및 제2 CCTV(10-2)사이의 도로는 공백 영역(40-3)으로 CCTV가 촬영하지 못하는 영역이다. 서버(10)는 제1 CCTV(10-1) 및 제2 CCTV(10-2)로부터 획득되는 정보에 기초하여 공백 영역(40-3)에서의 혼잡도 정보를 분석할 수 있다.
단계 S540에서, 서버(20)는, 제1 보행자의 평균 이동 속도 및 공백 영역에 대한 정보를 입력 데이터로 인공지능 모델에 입력하여 공백 영역 내에서의 제1 보행자의 위치를 제1 예측할 수 있다.
단계 S550에서, 서버(20)는, 제1 보행자의 위치를 바탕으로, 공백 영역 내에서의 혼잡도 정보를 획득할 수 있다.
일 실시예로, 도 10의 경우에, 서버(10)는 제1 CCTV(10-1)에 촬영되어 제1 촬영 영역(40-1) 우측으로 이동한 적어도 하나의 보행자에 대한 정보 및 제2 촬영 영역(40-2)좌측에서 나타나 제2 CCTV(10-2)에 촬영되는 적어도 하나의 보행자에 대한 정보를 획득하여 제1 촬영 영역(40-1)에서 제2 촬영 영역(40-2)로 이동한 보행자의 수를 측정할 수 있다. 제2 촬영 영역(40-2)에서 제1 촬영 영역(40-1)로 이동한 보행자의 수 또한 같은 방법으로 판단할 수 있다.
서버(10)는 상술한 방법을 통해 획득된 정보를 바탕으로 공백 영역(40-3)에 위치하는 보행자의 수를 획득하고, 이를 바탕으로 혼잡도 정보를 획득할 수 있다.
단계 S560에서, 서버(20)는, 사용자 단말(30)이 공백 영역 내인 경우, 사용자 단말(30)로 공백 영역 내에서의 혼잡도 정보를 전송할 수 있다.
구체적으로, 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
한편, 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.
개시된 일 실시예에 따르면, 서버(20)는 사용자의 다양한 사용자 정보를 판매자 단말(10)로부터 수집하여, 딥러닝에 활용되는 가중치를 설정하는데 사용할 수 있다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.) 예를 들어, 캐릭터를 학습시키기 위한 인공 지능 모델은 상술한 다양한 사용자 정보에 기초하여 캐릭터를 보완하는 정보를 수집할 수 있으며, 이에 기초하여 각각의 가중치를 재설정할 수 있다.
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다.
합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 층(Fully Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다.
합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층에서는 총 20개의 28×28 크기의 맵이 생성된다.
서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다.
딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.
심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.
심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.
상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 이하에서 설명되는 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.
도 7은 본 발명의 일 실시예에 따른 보행자 판단 방법을 설명하기 위한 흐름도이다.
단계 S610에서, 제2 CCTV(10-2)는, 공백 영역으로부터 진입하는 보행자를 판단할 수 있다.
단계 S620에서, 제2 CCTV(10-2)는, 획득된 보행자의 얼굴 분석, 획득된 보행자가 착용한 의류 분석, 보행자가 탑승중인 이동 장치 분석 중 적어도 하나의 분석을 바탕으로 보행자에 대한 식별부호를 획득할 수 있다.
단계 S630에서, 제2 CCTV(10-2)는, 획득된 식별부호가 제1 식별부호와 동일한 경우, 공백 영역으로부터 진입하는 보행자를 제1 CCTV(10-1)는 촬영한 제1 보행자로 판단하고, 제1 보행자가 제2 CCTV(10-2)의 촬영 영역에 진입하였음을 서버(20)로 전송할 수 있다.
즉, 서버(20)는 단순히 공백 영역(40-3)에서의 보행자의 수를 획득하는 것 뿐만 아니라, 어떤 보행자가 공백 영역(40-3)을 통과하였는지 여부 또한 판단할 수 있다.
도 8은 본 발명의 일 실시예에 따른 학습데이터를 획득하는 방법을 설명하기 위한 흐름도이다.
단계 S710에서, 서버(20)는 제1 CCTV(10-1)로부터 획득한 제1 보행자에 대한 정보, 제2 CCTV(10-2)로부터 획득한 제1 보행자의 정보 및 예측된 제1 보행자의 위치에 대한 정보를 바탕으로, 제1 보행자의 공백 영역에서의 이동 과정을 재예측할 수 있다.
일 실시예로, 제1 보행자에 대한 정보는 제1 식별부호, 제1 보행자의 평균 이동 속도, 제1 보행자가 제1 CCTV(10-1)에서 사라진 시간 정보 및 제2 CCTV(10-2)에 나타난 시간 정보를 포함할 수 있다.
단계 S720에서, 서버(20)는 제1 예측된 제1 보행자의 위치에 대한 정보 및 재예측된 제1 보행자의 공백 영역에서의 이동 과정에 대한 정보를 인공지능 모델을 학습시키기 위한 학습데이터로 획득할 수 있다.
즉, 서버(20)는 복수의 보행자들 각각에 대한 공백 영역(40-3) 통과 데이터를 수집함으로써, 더 정확하게 공백 영역에서의 혼잡도 정보를 계산할 수 있는 효과가 있다.
도 9는 본 발명의 일 실시예에 따른 오브젝트 정보를 획득하는 방법을 설명하기 위한 흐름도이다.
단계 S810에서, 제1 CCTV(10-1)는, 제1 보행자의 형상을 바탕으로 폐곡선의 외곽 라인 이미지를 획득할 수 있다.
구체적으로, 제1 CCTV(10-1)는 보행자라고 판단된 영역을 아웃라인을 따서(또는 트레이싱 하여) 독립된 보행자 이미지를 획득할 수 있다. 이때 아웃라인은 폐곡선일 수 있다.
단계 S820에서, 제1 CCTV(10-1)는, 폐곡선의 외곽 라인 이미지의 내부에서 외부로 이동하는 오브젝트에 대한 정보를 획득할 수 있다.
제1 CCTV(10-1)는 해당 오브젝트가 보행자가 떨어트린 오브젝트로 판단할 수 있다.
단계 S830에서, 제1 CCTV(10-1)는, 오브젝트가 폐곡선 외부로 이탈하면, 오브젝트의 이동 방향을 판단할 수 있다.
단계 S840에서, 제1 CCTV(10-1)는, 오브젝트의 이동 방향이 지면 방향인 경우, 오브젝트에 대한 이미지를 서버(20)로 전송할 수 있다.
즉, 제1 CCTV(10-1)는 폐곡선 외부로 이탈한 오브젝트가 지면 방향으로 향하는 경우, 보행자가 쓰레기를 투척하거나 혹은 물건을 분실한 것으로 판단할 수 있다.
단계 S850에서, 서버(20)는, 수신한 이미지를 분석하여 오브젝트에 대한 정보를 획득할 수 있다.
구체적으로, 서버(20)는 오브젝트에 대한 영상 분석을 통해 오브젝트가 분실물인지 쓰레기인지 여부를 판단할 수 있다. 이 경우, 서버(20)는 오브젝트가 사람들이 자주 분실하는 스마트폰, 지갑, 이어폰 등에 대한 형상과 유사한지 여부를 판단하여 오브젝트가 분실물인지 판단하고, 분실물이 아니라고 판단한 경우, 오브젝트가 쓰레기라고 판단할 수 있다.
즉, 본 발명에 따른 시스템은 장소의 혼잡도 여부를 판단할 수 있을 뿐만 아니라, 쓰레기 불법 투기 또는 분실물 판단과 같은 서비스를 수행할 수도 있다.
일 실시예로, 오브젝트를 투척한 보행자가 사용자 단말(30)에 대응되는 보행자인 경우, 서버(20)는 사용자 단말(30)로부터 위치 정보를 수신하여 오브젝트를 투척한 보행자가 사용자 단말(30)을 소지하고 있는 것으로 판단하고, 오브젝트가 분실물로 판단되면, 서버(20)는 사용자 단말(30)에 대응되는 사용자에게 분실물을 분실한 장소 및 시간 정보를 제공할 수 있다.
도 11은 본 발명의 일 실시예에 따른 장치의 구성도이다.
프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 8과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.
한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: CCTV
20: 서버
30: 사용자 단말

Claims (13)

  1. CCTV, 서버 및 사용자 단말을 포함하는 CCTV를 이용한 혼잡도 판단 시스템의 제어 방법에 있어서,
    제1 CCTV가, 영상을 촬영하는 단계;
    상기 제1 CCTV가 상기 촬영된 영상 중 배경 및 보행자를 분류하는 단계;
    상기 제1 CCTV가, 상기 배경에 포함된 상기 보행자에 대한 정보를 바탕으로, 상기 영상에 대응되는 장소의 혼잡도 정보를 획득하는 단계;
    상기 제1 CCTV가, 상기 영상 및 혼잡도 정보를 상기 서버로 전송하는 단계; 및
    상기 서버가, 상기 사용자 단말의 위치 정보를 바탕으로 상기 사용자 단말에 대응되는 위치의 혼잡도 정보를 상기 사용자 단말로 전송하는 단계; 를 포함하고,
    상기 배경 및 보행자를 분류하는 단계는,
    상기 제1 CCTV가 촬영한 복수의 영상을 획득하는 단계;
    상기 복수의 영상 중 촬영 시간이 기 설정된 시간 간격만큼 차이나는 서로 다른 두개의 영상에 대한 복수의 영상 세트를 획득하는 단계;
    상기 획득된 복수의 영상 세트 각각을 분석하여 상기 복수의 영상 세트 각각에 포함된 두개의 영상에 대한 복수의 동일 영역 및 복수의 차이 영역 각각을 획득하는 단계;
    상기 획득된 복수의 동일 영역을 바탕으로 배경을 획득하는 단계; 를 포함하고,
    상기 배경 및 보행자를 분류하는 단계는,
    상기 촬영된 영상과 상기 획득된 배경을 바탕으로 동일 영역 및 차이 영역을 획득하는 단계;
    상기 획득된 차이 영역을 분석하여 상기 보행자를 획득하는 단계; 및
    상기 획득된 보행자의 얼굴 분석, 상기 획득된 보행자가 착용한 의류 분석, 상기 보행자가 탑승중인 이동 장치 분석 중 적어도 하나의 분석을 바탕으로 상기 보행자에 대한 식별부호를 상기 보행자와 매칭하는 단계; 를 포함하며,
    상기 식별부호가 상기 얼굴 분석에 의해 획득되는 경우,
    상기 제1 CCTV가, 상기 보행자의 얼굴을 촬영하는 단계;
    상기 제1 CCTV가, 상기 촬영된 얼굴의 특징점을 추출하는 단계; 및
    상기 제1 CCTV가, 상기 특징점을 입력값으로 암호화 함수에 입력한 출력값을 바탕으로 상기 보행자에 대한 식별부호를 획득하는 단계; 를 포함하고,
    상기 식별부호가, 상기 보행자가 탑승중인 이동 장치 분석에 의해 획득되며, 상기 이동 장치는 공유 전동 킥보드인 경우,
    상기 제1 CCTV가, 상기 공유 전동 킥보드를 관리하는 외부 서버로 현재 시간 및 위치 정보를 전송하는 단계;
    상기 외부 서버가, 상기 현재 시간 및 상기 위치 정보에 대응되는 공유 전동 킥보드에 대한 일련번호를 획득하여 상기 제1 CCTV로 전송하는 단계; 및
    상기 제1 CCTV가, 상기 일련번호를 상기 보행자에 대한 식별부호로 획득하는 단계;를 포함하고,
    상기 제어 방법은,
    상기 제1 CCTV가, 상기 제1 CCTV에 촬영되어 제1 식별 부호가 매칭된 제1 보행자의 움직임을 바탕으로, 상기 제1 보행자의 평균 이동 속도 및 이동 방향에 대한 정보를 획득하는 단계;
    상기 제1 CCTV가, 상기 제1 식별 부호 및 상기 제1 보행자의 평균 이동 속도 및 이동 방향에 대한 정보를 상기 서버로 전송하는 단계; 를 포함하고,
    상기 제어 방법은,
    상기 서버가, 상기 제1 보행자의 이동 방향에 대한 정보를 바탕으로 상기 제1 CCTV 와 인접한 제2 CCTV에 대한 정보를 획득하는 단계;
    상기 서버가, 상기 제1 CCTV 가 촬영 가능한 제1 촬영 영역 및 상기 제2 CCTV 가 촬영 가능한 제2 촬영 영역을 획득하는 단계;
    상기 서버가, 상기 제1 촬영 영역의 위치 정보 및 상기 제2 촬영 영역의 위치 정보를 바탕으로, 상기 제1 촬영 영역 및 상기 제2 촬영 영역 사이의 공백 영역을 획득하는 단계;
    상기 서버가, 상기 제1 보행자의 평균 이동 속도 및 상기 공백 영역에 대한 정보를 입력 데이터로 인공지능 모델에 입력하여 상기 공백 영역 내에서의 상기 제1 보행자의 위치를 제1 예측하는 단계;
    상기 서버가, 상기 제1 보행자의 위치를 바탕으로, 상기 공백 영역 내에서의 혼잡도 정보를 획득하는 단계; 및
    상기 서버가, 상기 사용자 단말이 상기 공백 영역 내인 경우, 상기 사용자 단말로 상기 공백 영역 내에서의 혼잡도 정보를 전송하는 단계;를 포함하고,
    상기 제어 방법은,
    상기 제2 CCTV가, 상기 공백 영역으로부터 진입하는 보행자를 판단하는 단계;
    상기 제2 CCTV가, 상기 획득된 보행자의 얼굴 분석, 상기 획득된 보행자가 착용한 의류 분석, 상기 보행자가 탑승중인 이동 장치 분석 중 적어도 하나의 분석을 바탕으로 상기 보행자에 대한 식별부호를 획득하는 단계;
    상기 제2 CCTV가, 상기 획득된 식별부호가 상기 제1 식별부호와 동일한 경우, 상기 공백 영역으로부터 진입하는 보행자를 상기 제1 CCTV가 촬영한 제1 보행자로 판단하고, 상기 제1 보행자가 상기 제2 CCTV의 촬영 영역에 진입하였음을 상기 서버로 전송하는 단계; 를 포함하고,
    상기 제어 방법은,
    상기 서버가, 상기 제1 CCTV로부터 획득한 제1 보행자에 대한 정보, 상기 제2 CCTV로부터 획득한 제1 보행자의 정보 및 상기 예측된 제1 보행자의 위치에 대한 정보를 바탕으로, 상기 제1 보행자의 공백 영역에서의 이동 과정을 재예측하는 단계; 및
    상기 서버가, 상기 제1 예측된 제1 보행자의 위치에 대한 정보 및 상기 재예측된 상기 제1 보행자의 공백 영역에서의 이동 과정에 대한 정보를 상기 인공지능 모델을 학습시키기 위한 학습데이터로 획득하는 단계; 를 포함하고,
    상기 제어 방법은,
    상기 제1 CCTV가, 상기 제1 보행자의 형상을 바탕으로 폐곡선의 외곽 라인 이미지를 획득하는 단계;
    상기 제1 CCTV가, 상기 폐곡선의 외곽 라인 이미지의 내부에서 외부로 이동하는 오브젝트에 대한 정보를 획득하는 단계;
    상기 제1 CCTV가, 상기 오브젝트가 상기 폐곡선 외부로 이탈하면, 상기 오브젝트의 이동 방향을 판단하는 단계;
    상기 제1 CCTV가, 상기 오브젝트의 이동 방향이 지면 방향인 경우, 상기 오브젝트에 대한 이미지를 상기 서버로 전송하는 단계;
    상기 서버가, 상기 수신한 이미지를 분석하여 상기 오브젝트에 대한 정보를 획득하는 단계;
    상기 서버가, 상기 오브젝트에 대한 정보를 바탕으로, 상기 오브젝트가 분실물인지 여부를 판단하는 단계; 및
    상기 서버가, 상기 오브젝트가 분실물로 판단된 경우, 상기 사용자 단말로, 상기 오브젝트를 분실한 장소 및 시간에 대한 정보를 제공하는 단계;를 포함하는 제어 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    제1항의 방법을 수행하는, 장치.
  13. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
KR1020190135672A 2019-10-29 2019-10-29 Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램 KR102187831B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190135672A KR102187831B1 (ko) 2019-10-29 2019-10-29 Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190135672A KR102187831B1 (ko) 2019-10-29 2019-10-29 Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램

Publications (1)

Publication Number Publication Date
KR102187831B1 true KR102187831B1 (ko) 2020-12-07

Family

ID=73791217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190135672A KR102187831B1 (ko) 2019-10-29 2019-10-29 Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램

Country Status (1)

Country Link
KR (1) KR102187831B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102535934B1 (ko) * 2022-12-19 2023-05-26 주식회사 지란지교데이터 밀집도 예측 시스템 및 방법
KR102584708B1 (ko) * 2022-12-13 2023-10-05 주식회사 인텔리빅스 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법
WO2023212151A1 (en) * 2022-04-27 2023-11-02 Armored Things, Inc. Simulation-driven localization and tracking of people

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086591A (ja) * 2004-09-14 2006-03-30 Canon Inc 移動体追跡システム、撮影装置及び撮影方法
KR101176947B1 (ko) 2011-12-08 2012-08-30 동국대학교 경주캠퍼스 산학협력단 Cctv를 이용한 인파정보 제공시스템
KR20150100141A (ko) * 2014-02-24 2015-09-02 주식회사 케이티 행동패턴 분석 장치 및 방법
KR20170058827A (ko) * 2015-11-19 2017-05-29 (주)오션네트웍스 인체의 형상 내지 동태 분석을 이용한 보안 감시장치, 보안 감시방법 및 쓰레기 투기 감시장치
JP6414066B2 (ja) * 2013-08-27 2018-10-31 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP6474919B2 (ja) * 2016-01-12 2019-02-27 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086591A (ja) * 2004-09-14 2006-03-30 Canon Inc 移動体追跡システム、撮影装置及び撮影方法
KR101176947B1 (ko) 2011-12-08 2012-08-30 동국대학교 경주캠퍼스 산학협력단 Cctv를 이용한 인파정보 제공시스템
JP6414066B2 (ja) * 2013-08-27 2018-10-31 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
KR20150100141A (ko) * 2014-02-24 2015-09-02 주식회사 케이티 행동패턴 분석 장치 및 방법
KR20170058827A (ko) * 2015-11-19 2017-05-29 (주)오션네트웍스 인체의 형상 내지 동태 분석을 이용한 보안 감시장치, 보안 감시방법 및 쓰레기 투기 감시장치
JP6474919B2 (ja) * 2016-01-12 2019-02-27 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023212151A1 (en) * 2022-04-27 2023-11-02 Armored Things, Inc. Simulation-driven localization and tracking of people
KR102584708B1 (ko) * 2022-12-13 2023-10-05 주식회사 인텔리빅스 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법
KR102535934B1 (ko) * 2022-12-19 2023-05-26 주식회사 지란지교데이터 밀집도 예측 시스템 및 방법

Similar Documents

Publication Publication Date Title
Majid et al. Attention based CNN model for fire detection and localization in real-world images
Arietta et al. City forensics: Using visual elements to predict non-visual city attributes
KR102187831B1 (ko) Cctv를 이용한 혼잡도 판단 시스템의 제어 방법, 장치 및 프로그램
KR102517513B1 (ko) 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
KR20190029083A (ko) 신경망 학습 방법 및 이를 적용한 장치
CN113435432B (zh) 视频异常检测模型训练方法、视频异常检测方法和装置
KR20210062256A (ko) 행동 시퀀스 기반으로 이상행동 여부를 판단하는 방법, 프로그램 및 시스템
CN113361549A (zh) 一种模型更新方法以及相关装置
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
Almazroey et al. Abnormal events and behavior detection in crowd scenes based on deep learning and neighborhood component analysis feature selection
CN114972182A (zh) 一种物体检测方法及其装置
Miao et al. Abnormal behavior learning based on edge computing toward a crowd monitoring system
Jebur et al. Abnormal Behavior Detection in Video Surveillance Using Inception-v3 Transfer Learning Approaches
Khan et al. Suspicious Activities Recognition in Video Sequences Using DarkNet-NasNet Optimal Deep Features.
Fayad et al. Elderly Fall Detection: A Lightweight Kinect Based Deep Learning Approach
CN115775322A (zh) 图像分类方法、装置、计算机设备和存储介质
Zhao Deep Learning in Video Anomaly Detection and Its Applications
Ateş Pothole detection in asphalt images using convolutional neural networks
Sinha et al. Ensemble based feature extraction and deep learning classification model with depth vision
AlShehri et al. Detecting Threats from Live Videos using Deep Learning Algorithms.
Begampure et al. Enhanced video analysis framework for action detection using deep learning.
Correia et al. Violence detection in video game metadata using ConvLSTM
Sharma Towards the development of a cost-effective Image-Sensing-Smart-Parking Systems (ISenSmaP)
CN116798109A (zh) 一种动作类型的识别方法及装置
CN113592910A (zh) 一种跨相机追踪方法及装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant