KR102335045B1 - 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치 - Google Patents

깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치 Download PDF

Info

Publication number
KR102335045B1
KR102335045B1 KR1020140135266A KR20140135266A KR102335045B1 KR 102335045 B1 KR102335045 B1 KR 102335045B1 KR 1020140135266 A KR1020140135266 A KR 1020140135266A KR 20140135266 A KR20140135266 A KR 20140135266A KR 102335045 B1 KR102335045 B1 KR 102335045B1
Authority
KR
South Korea
Prior art keywords
depth camera
objects
human object
shape
human
Prior art date
Application number
KR1020140135266A
Other languages
English (en)
Other versions
KR20160041441A (ko
Inventor
김병민
권재철
박상민
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020140135266A priority Critical patent/KR102335045B1/ko
Priority to US14/876,912 priority patent/US10089535B2/en
Publication of KR20160041441A publication Critical patent/KR20160041441A/ko
Application granted granted Critical
Publication of KR102335045B1 publication Critical patent/KR102335045B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)

Abstract

사람 객체를 판별하는 방법은 깊이 카메라에 의해 촬영된 영상을 수신하는 단계, 상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 단계, 상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 단계, 상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하는 단계 및 상기 산출된 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하는 단계를 포함한다.

Description

깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치{METHOD FOR DETECTING HUMAN-OBJECT USING DEPTH CAMERA AND DEVICE}
본 발명은 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치에 관한 것이다.
백화점이나 면세점 등의 대규모 쇼핑몰 또는 유명한 관광지에는 하루에 적게는 수백에서 많게는 수만 명에 이르는 사람들이 방문한다. 이러한 곳에서는 방문 고객을 분석한 정보가 매우 유용하게 활용될 수 있다. 예를 들면, 방문 고객의 수, 성별, 연령대에 따른 분포 등 고객 유형에 대한 정보는 마케팅에 활용될 수 있고, 일 평균 방문객 수, 요일 별 방문객 수, 시간대, 계절별 또는 특정 시기에 따른 방문객 수의 변화 등에 관한 정보는 혼잡 예측 또는 매장 및 시설 운영의 효율성 향상에 크게 도움이 된다. 이러한 고객 분석 정보의 활용은 결과적으로 매출 증대나 비용 절감으로 이어지기 때문에, 최근 특정 지역의 출입자 검출 및 출입자 계수에 대한 수요가 증가하고 있다.
출입자를 검출 또는 출입자를 계수하는 방법은 적외선 센서를 이용하는 방법, 비디오 카메라를 이용한 방법 등의 다양한 방법이 존재한다. 출입문의 좌우 측에 적외선 센서를 설치하여 사람의 출입을 인식하는 방법은 간단하고 흔한 방법이지만, 동시에 여러 명이 적외선 센서의 감지 선을 지나가거나 센서가 다른 물체에 가려지는 등의 상황에서 제대로 계수가 되지 않는 문제점이 있다. 또한, 단순 계수 기능 이외에 고객 정보 획득과 추가적인 정보 분석이 불가능하다. 비디오 카메라를 이용하여 촬영된 영상을 분석하여 사람을 검출하고, 계수하는 방법은 단순 계수 이외에도 고객의 얼굴 영상을 촬영함으로써 이를 분석하여 연령대나 성별 등의 추가적인 정보도 획득이 가능하지만, 다수의 사람이 지나가는 경우 사람을 검출하고, 계수하는데 어려움이 있을 수 있다.
깊이 카메라는 카메라에서 영상의 각 화소에 대응되는 지점까지의 거리 값을 가지는 깊이 영상을 촬영하는 카메라로서, TOF(time of flight), 구조광(structured light) 등 거리 측정 센서의 방식에 따라 다양한 종류가 있다. 깊이 카메라는 일정한 해상도로 카메라 앞의 장면을 연속적으로 촬영하는 장치라는 점에서 일반적인 비디오 카메라와 유사하지만, 각 화소(pixel)가 가지는 값이 밝기나 색상이 아니라 카메라 평면으로 사영(projection)되는 공간 객체와 카메라까지의 거리에 대한 정보를 가진다는 점에서 차이가 있다.
이와 관련하여 특허공개공보 제 2014-0007092 호는 깊이 카메라 정보를 이용한 색상 영상 시퀀스에 대한 움직임 추정 영역 설정 방법 및 그 설정 시스템에 관한 것으로, 깊이 카메라를 통해서 획득한 깊이 영상을 블록 단위로 분할하여 분할한 블록들을 배경 영역, 객체 내부 영역 등으로 영상을 가공/판단하고, 영역 판단 결과에 따라 블록들이 객체 내부 영역 또는 경계 영역일 경우 움직임 추정 영역을 설정하는 영역을 설정하고, 설정된 움직임 추정 영역을 이용하여 움직임 벡터를 설정하는 구성을 개시하고 있다.
깊이 카메라를 이용하여 효과적으로 사람을 검출하는 방법 및 장치를 제공하고자 한다. 깊이 카메라로부터 객체까지의 거리를 산출하고, 산출된 거리 및 깊이 카메라의 설치 각에 기초하여, 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 정확하게 판별하는 방법 및 장치를 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 사람 객체를 판별하는 방법은 깊이 카메라에 의해 촬영된 영상을 수신하는 단계, 상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 단계, 상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 단계, 상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하는 단계 및 상기 산출된 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하는 단계를 포함한다.
또한, 본 발명의 다른 실시예에 따른 사람 객체를 판별하는 장치는 깊이 카메라에 의해 촬영된 영상을 수신하는 영상 수신부, 상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 좌표 변환부, 상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 객체 인식부 및 상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하고, 상기 산출된 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하는 객체 검출부를 포함한다.
또한, 본 발명의 다른 실시예에 따른 사람 객체를 판별하는 컴퓨팅 장치는 메모리 및 상기 메모리와 인터페이싱하도록 정렬된 프로세싱 유닛을 포함하고, 상기 프로세싱 유닛은 깊이 카메라에 의해 촬영된 영상을 수신하고, 상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하고, 상기 촬영된 영상으로부터 하나 이상의 객체를 인식하고, 상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하고, 상기 산출된 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하도록 구성된다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 깊이 카메라를 이용하여 사람 객체를 판별함으로써, 여러 사람이 지나가는 경우에도 사람 객체를 정확히 판별할 수 있다. 출입자의 얼굴을 촬영하여 부가적인 정보를 획득하기 위한 경우, 카메라의 각도를 바닥면과 수평에 가깝도록 설치하게 되는데, 이러한 경우에도 깊이 카메라를 이용하여 사람 객체를 판별함으로써 가려짐 효과를 최소화할 수 있다.
깊이 카메라로부터 객체까지의 거리를 산출하고, 산출된 거리 및 깊이 카메라의 설치 각에 기초하여 서로 다른 기준을 적용하여 사람 객체를 정확하게 판별하는 방법 및 장치를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 깊이 카메라 기반 사람 객체 판별 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 사람 객체 판별 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 방법을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 제 1 형상 및 제 2 형상을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 깊이 카메라로부터의 거리 및 깊이 카메라의 설치 각에 기초하여, 가변하는 사람 형상을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 깊이 카메라에 기반하여 사람 객체를 판별하는 방법을 나타낸 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단하는 방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 깊이 카메라 기반 사람 객체 판별 시스템(1)의 구성도이다. 도 1을 참조하면, 깊이 카메라 기반 사람 객체 판별 시스템(1)은 사람 객체 판별 장치(100), 깊이 카메라(110) 및 네트워크(120)를 포함할 수 있다. 다만, 이러한 도 1의 깊이 카메라 기반 사람 객체 판별 시스템(1)은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니다. 예를 들어, 사람 객체 판별 장치(100) 및 깊이 카메라(110)는 네트워크(120)를 통하지 않고 직접 연결될 수도 있다.
사람 객체 판별 장치(100)는 깊이 카메라(110)에 의해 촬영된 영상을 수신할 수 있다. 사람 객체 판별 장치(100)는 깊이 카메라(110)와 일대일 또는 일대 다로 연결될 수 있다. 예를 들면, 따로 떨어져 있는 출입구가 10개인 백화점의 경우, 10대의 깊이 카메라(110)가 각 출입구마다 설치되고, 카메라 2대를 처리할 수 있는 사람 객체 판별 장치(100) 5대가 깊이 카메라(100)와 네트워크(120)를 통해 서로 연결되어 있을 수 있다.
사람 객체 판별 장치(100)는 깊이 카메라(110)의 설치 각 및 설치 위치를 이용하여, 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하고, 촬영된 영상으로부터 하나 이상의 객체를 인식하고, 실제 공간 좌표계에 기초하여, 깊이 카메라로부터 하나 이상의 객체까지의 거리를 산출하여 산출된 거리 및 깊이 카메라의 설치 각에 기초하여, 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별할 수 있다.
사람 객체 판별 장치(100)는 판별된 사람 객체의 기존 경로가 존재하는지 판단하고, 사람 객체의 경로가 기존 경로에 추가 가능한지 판단하고, 기존 경로의 종료 여부를 판별하고, 기존 경로가 종료된 경우, 사람 객체의 시작 지점과 끝 지점을 파악하여 사람 객체의 미리 설정된 구역에의 출입 여부를 판단할 수 있다.
깊이 카메라(110)는 촬영한 영상을 사람 객체 판별 장치(100)로 전송할 수 있다. 깊이 카메라(110)는 촬영한 영상을 사람 객체 판별 장치(100)로 전송하기 위한 인터페이스로 무선 네트워크 장치를 포함할 수 있다.
깊이 카메라(110)는 카메라 앞의 일정한 화각 이내의 일정한 거리에 대해서 각 화소에 대응하는 지점까지의 거리를 측정할 수 있는 깊이 센서를 포함하고 있을 수 있다.
네트워크(120)는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(120)의 일 예에는 인터넷(Internet), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, LTE(Long Term Evolution), WiFi(Wireless Fidelity), WiMAX(World Interoperability for Microwave Access), WiGig(Wireless Gigabit) 등이 포함되나 이에 한정되지는 않는다.
도 2는 본 발명의 일 실시예에 따른 사람 객체 판별 장치의 블록도이다. 도 2를 참조하면, 사람 객체 판별 장치(100)는 영상 수신부(210), 좌표 변환부(220), 객체 인식부(230), 객체 검출부(240) 및 객체 추적부(250)를 포함할 수 있다.
영상 수신부(210)는 깊이 카메라에 의해 촬영된 영상을 수신할 수 있다. 또한, 영상 수신부(210)는 깊이 카메라에 의해 촬영된 영상을 네트워크(120)를 통해 또는 깊이 카메라와 연결된 유선 케이블을 통해 실시간으로 수신할 수 있다.
좌표 변환부(220)는 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 깊이 카메라에 의해 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환할 수 있다.
잠시 도 3을 참조하면, 도 3은 본 발명의 일 실시예에 따른 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 방법을 나타낸 도면이다.
사람 객체 판별 장치는 카메라의 설치 위치와 설치 각 등의 카메라의 외부 매개 변수를 사용자의 입력을 통해 설정할 수 있다. 사람 객체 판별 장치는 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환할 수 있다. 카메라 기준 좌표계는, 카메라가 원점이고, 카메라의 좌우 방향이 X축이고, 상하 방향이 Y축일 수 있다. 실제 공간 좌표계는 바닥에서 천장으로 향하는 방향이 Y축(310)이고, 사람의 진행방향이 Z축(320) 그리고 이 두 축에 직교하는 방향이 X축(330)일 수 있다. 카메라 좌표와 실 공간 좌표의 X축이 동일하고, 카메라의 위치를 실제 공간 좌표계의 원점으로 가정한 경우, 카메라 기준 좌표계의 X축만이 카메라의 유일한 외부 매개 변수로 설정될 수 있다.
다시 도 2를 참조하면, 깊이 카메라의 설치 각은 실제 공간 좌표계의 X축, Y축 및 Z축에 대하여, 설치된 카메라의 X축, Y축, Z축이 회전한 정도를 나타내는 좌표 값일 수 있다. 예를 들면, 객체가 이동하는 직선 방향의 라인 상에 위치하는 지점들의 상기 실제 공간 좌표의 바닥에서 천장으로 향하는 축 값에 기초한 것일 수 있다.
좌표 변환부(220)는 실제 공간 좌표계의 X축, Y축 및 Z축에 대하여, 설치된 카메라의 X축, Y축, Z축이 회전한 정도 즉, 깊이 카메라의 설치 각 및 깊이 카메라의 실제 공간상의 위치를 이용하여 깊이 카메라에 의해 촬영된 영상을 카메라 기준 좌표계에서 길제 공간 좌표계로 변환할 수 있다. 예를 들면, 깊이 카메라가 3축에 대하여 회전한 정도, 즉, 깊이 카메라를 설치한 후 카메라 기준 좌표 값과 실제 공간 좌표계 상의 카메라 위치의 좌표와의 차를 통해 실제 공간 좌표계를 구할 수 있다.
좌표 변환부(220)는 카메라의 설치 위치와 설치 각 등의 카메라의 외부 매개 변수를 사용자의 입력을 통해 설정할 수 있다.
깊이 카메라에 의해 촬영된 영상의 각 화소는 깊이 카메라로부터 대상 객체까지의 거리값을 나타낼 수 있다. 또한, 깊이 카메라에 의해 촬영된 영상의 각 화소는 깊이 카메라를 기준으로 한 3차원 공간의 점들로 표현할 수 있다. 이러한 3차원 공간은 깊이 카메라를 기준으로 하여 설정된 것이기 때문에, 실제 객체를 검출하고 객체의 이동방향을 추정하는데 적합하지 않을 수 있다. 따라서, 깊이 카메라에 의해 촬영된 영상은 좌표 변환부(220)에 의해 카메라 기준 좌표계에서 실제 공간 좌표계로 변환될 수 있다. 이와 관련된 구체적인 내용은 도 3을 참조하여 후술하기로 한다.
객체 인식부(230)는 깊이 카메라에 의해 촬영된 영상으로부터 하나 이상의 객체를 인식할 수 있다. 예를 들면, 객체 인식부(230)는 객체가 없는 환경에서 촬영된 일정 한 수의 영상에 대하여, 각 화소의 평균값을 배경 모델로 설정하고, 깊이 카메라를 통해 촬영된 영상의 특정 화소 값과 배경 모델에 해당하는 화소의 평균값의 유사도가 기준치 이상인 경우, 촬영된 영상의 해당 화소를 배경 화소로 판단할 수 있다. 객체 인식부(230)는 배경 화소로 판단된 부분을 제거하여 전경 화소만 남기고, 전경 화소에서 하나 이상의 객체를 분할할 수 있다. 또한, 객체 인식부(230)는 노이즈 제거 등의 전처리를 할 수 있다.
객체 인식부(230)는 K-평균(MEANS) 알고리즘을 이용하여 상기 하나 이상의 객체를 분할할 수 있다. 예를 들면, K 값을 변화시켜 가며 K 의 수에 따른 가중치와 클러스터(cluster)의 군집도에 따른 가중치로 합산된 결과에 기초하여 동일한 군으로 분류되는 좌표들을 하나의 객체로 분류시킬 수 있다.
객체 검출부(240)는 실제 공간 좌표계에 기초하여, 깊이 카메라로부터 하나 이상의 객체까지의 거리를 산출하고, 산출된 거리 및 깊이 카메라의 설치 각에 기초하여, 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별할 수 있다.
예를 들면, 객체 검출부(240)는 제 1 형상과의 유사도 및 제 2 형상과의 유사도를 고려하여 사람 객체를 판별하되, 제 1 형상과의 유사도 및 제 2 형상과의 유사도는 깊이 카메라로부터의 거리 및 깊이 카메라의 설치 각에 기초하여, 사람 객체를 판별하는데 기여도를 달리하도록 설정될 수 있다. 예를 들어, 상기 제 1 형상은 사람의 머리 형상에 기초한 것일 수 있고, 상기 제 2 형상은 사람의 상반신 형상에 기초한 것일 수 있다.
객체 검출부(240)는 사람 형상과의 유사도를 고려하여 사람 객체를 판별하되, 사람 형상은 깊이 카메라로부터의 거리 및 깊이 카메라의 설치 각에 기초하여 가변하도록 설정될 수 있다. 이와 관련된 구체적인 내용은 도 4 및 도 5를 참조하여 후술하기로 한다.
객체 추적부(250)는 객체 검출부(240)에 의해 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단할 수 있다. 객체 추적부(250)는 사람 객체의 기존 경로가 존재하는지 판단하고, 사람 객체의 경로가 기존 경로에 추가 가능한지 판단하고, 기존 경로의 종료 여부를 판별하여 기존 경로가 종료된 경우, 사람 객체의 시작 지점과 끝 지점을 파악하여 사람 객체의 출입 여부를 결정할 수 있다.
예를 들면, 객체 추적부(250)는 사람 객체의 기존 경로가 존재하는지 판단하여 기존에 추적중인 경로가 없는 경우, 즉 화면 상에 새로운 사람이 처음 등장한 경우, 새로운 경로를 생성할 수 있다. 사람 객체의 기존 경로가 존재하는 경우, 객체 추적부(250)는 사람 객체의 경로의 마지막 지점에 해당하는 특징 정보와 입력된 특징 정보를 매칭하여 기존 경로에 추가 가능한지 판단할 수 있다. 기존 경로의 연속으로 볼 수 없는 경우, 즉 화면상에 하나 이상의 사람이 존재하면서 새로운 사람이 등장한 경우, 객체 추적부(250)는 새로운 경로를 생성할 수 있다. 객체 추적부(250)는 영상의 매 프레임마다 기존 경로의 종료 여부를 판별하여 기존 경로가 종료된 경우, 사람 객체의 시작 지점과 끝 지점을 파악하여 사람 객체가 특정 라인을 지나면 해당 사람 객체가 출입한 것으로 판단할 수 있다.
도 4는 본 발명의 일 실시예에 따른 제 1 형상 및 제 2 형상을 나타낸 도면이다. 사람 객체 판별 장치는 실제 공간 좌표계에 기초하여, 깊이 카메라로부터 하나 이상의 객체까지의 거리를 산출하여 산출된 거리 및 깊이 카메라의 설치 각에 따라, 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별할 수 있다.
상기 서로 다른 기준은 제 1 형상(410)과의 유사도 및 제 2 형상(420)과의 유사도가 고려될 수 있다. 도 4를 참조하면, 제 1 형상(410)은 사람의 머리 형상에 기초한 것이고, 제 2 형상(420)은 사람의 상반신 형상에 기초한 것일 수 있다.
제 1 형상(410)과의 유사도 및 제 2 형상(420)과의 유사도는 깊이 카메라로부터의 거리 및 깊이 카메라의 설치 각에 따라, 사람 객체를 판별하는데 기여도를 달리하도록 설정될 수 있다. 예를 들면, 사람 객체가 깊이 카메라와 가까운 거리에 있는 경우, 사람 객체의 머리 부분이 촬영될 확률이 높기 때문에, 사람 객체를 판별하는데 제 1 형상(410)의 기여도를 제 2 형상(420)의 기여도보다 높게 설정할 수 있다. 또한, 사람 객체가 깊이 카메라와 먼 거리에 있는 경우, 사람 객체의 머리 부분보다 상반신 전체가 촬영될 확률이 높기 때문에, 사람 객체를 판별하는데 제 2 형상(420)의 기여도를 제 1 형상(410)의 기여도보다 높게 설정할 수 있다.
또한, 깊이 카메라의 설치 각에 따라, 사람 객체를 판별하는데 기여도를 달리하도록 설정될 수 있다. 예를 들면, 깊이 카메라의 설치 각이 작은 경우, 객체와 깊이 카메라 사이의 거리가 가깝더라도 제 1 형상(410)보다 제 2 형상(420)의 기여도가 더 클 수 있다. 또한, 깊이 카메라의 설치 각이 큰 경우, 객체와 깊이 카메라의 거리가 멀더라도 제 2 형상(420)보다 제 1 형상(410)의 기여도가 더 클 수 있다.
제 1 형상(410)과의 유사도 및 제 2 형상(420)과의 유사도는 상기 카메라로부터의 거리 및 상기 깊이 카메라의 설치 각을 종합적으로 고려하여 사람 객체를 판별하는데 기여도를 달리하도록 설정될 수 있다.
따라서, 본 발명의 일 실시예에 의하면, 깊이 카메라가 설치되는 각도를 환경에 맞게 자유롭게 할 수 있고, 설치 각이 변화 함에 따라, 제 1 형상(410) 과의 유사도 및 제 2 형상(420) 과의 유사도의 기여도를 달리하여, 객체 판별 정확도를 유지할 수 있다.
도 5는 본 발명의 일 실시예에 따른 깊이 카메라로부터의 거리 및 깊이 카메라의 설치 각에 기초하여 가변하는 사람 형상을 나타낸 도면이다. 구체적으로, 도 5는 깊이 카메라로부터 다른 거리에 위치한 각각의 객체(510)가 사람 객체인지 판별하는데 고려되는 각각의 사람 형상(520)을 나타낸다.
사람 객체 판별 장치는 사람 형상과의 유사도를 고려하여 사람 객체를 판별하되, 사람 형상은 깊이 카메라로부터의 거리 및 설치 각에 기초하여 가변하도록 설정될 수 있다. 예를 들면, 사람 객체 판별 장치는 깊이 카메라로부터 다른 거리에 위치한 각각의 객체(510) 중 깊이 카메라로부터 가장 가까운 거리에 있는 객체(530)가 사람 객체인지 판별하기 위하여, 촬영된 객체(530)와 사람 머리 형상과 유사한 형상(540)을 비교할 수 있다.
또한, 사람 객체 판별 장치는 깊이 카메라로부터 다른 거리에 위치한 각각의 객체(510) 중 깊이 카메라가 향하는 방향의 정중앙에 있는 객체(550)가 사람 객체인지 판별하기 위하여, 촬영된 객체(550)와 사람의 머리 아래 어깨가 약간 보이는 형상(560)을 비교할 수 있다.
또한, 사람 객체 판별 장치는 깊이 카메라로부터 다른 거리에 위치한 각각의 객체(510) 중 깊이 카메라로부터 가장 먼 거리에 있는 객체(570)가 사람 객체인지 판별하기 위하여, 촬영된 객체(570)와 사람의 완전한 상반신 형상과 유사한 형상(580)을 비교할 수 있다.
또한, 도 5에 구체적으로 도시하지는 않았지만, 깊이 카메라의 설치 각에 따라, 사람 형상은 가변하도록 설정될 수 있다. 예를 들면, 객체가 같은 거리에 존재하더라도, 깊이 카메라의 설치각(590)이 작은 경우, 객체의 상반신이 촬영될 확률이 높으므로 사람의 완전한 상반신 형상과 유사한 형상(580)과 비교하여 객체가 사람 객체인지 판별할 수 있고, 깊이 카메라의 설치각(590)이 큰 경우, 객체의 머리가 촬영될 확률이 높으므로 사람 머리 형상과 유사한 형상(540)을 비교하여 객체가 사람 객체인지 판별할 수 있다.
사람 형상은 상기 카메라로부터의 거리 및 상기 깊이 카메라의 설치 각을 종합적으로 고려하여 가변하도록 설정될 수 있다. 예를 들면, 객체가 영상에서 보여지는 각도(600)는 카메라로부터의 거리 및 깊이 카메라의 설치 각에 의해 변하므로, 객체가 영상에서 보여지는 각도(600)에 의해 객체가 사람인지 판별하는 사람 형상이 가변하도록 설정될 수 있다.
사람 객체 판별 장치는 깊이 카메라의 설치 각이 고정된 경우, 깊이 카메라와 객체간의 총 길이를 복수의 구간으로 나누고, 촬영된 객체와 비교하는 사람 형상을 각 구간별로 다르게 설정 할 수 있다. 또한, 사람 객체 판별 장치는 촬영된 객체와 비교하는 사람 형상이 깊이 카메라로부터의 거리에 따라, 사람 머리 형상과 유사한 형상(540)부터 사람의 완전한 상반신 형상(580)까지 아날로그(analog)하게 가변하도록 설정할 수도 있다. 또한, 깊이 카메라의 설치 각이 고정되지 않은 경우, 사람 객체 판별 장치는 객체가 위치한 구간 및 깊이 카메라의 설치 각을 종합적으로 고려하여, 사람 형상을 다르게 설정 할 수도 있다.
도 6은 본 발명의 일 실시예에 따른 깊이 카메라에 기반하여 사람 객체를 판별하는 방법을 나타낸 흐름도이다. 도 6을 참조하면, 단계 S610에서 사람 객체 판별 장치는 깊이 카메라에 의해 촬영된 영상을 수신할 수 있다. 단계 S620에서 사람 객체 판별 장치는 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환할 수 있다. 단계 S630에서 사람 객체 판별 장치는 촬영된 영상으로부터 하나 이상의 객체를 인식할 수 있다. 단계 S640에서 사람 객체 판별 장치는 실제 공간 좌표계에 기초하여, 깊이 카메라로부터 하나 이상의 객체까지의 거리를 산출할 수 있다. 단계 S650에서 사람 객체 판별 장치는 산출된 거리 및 깊이 카메라의 설치 각에 기초하여, 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별할 수 있다.
상술한 설명에서, 단계 S610 내지 S650은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 7은 본 발명의 일 실시예에 따른 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단하는 방법을 나타낸 흐름도이다. 도 7을 참조하면, 단계 S710에서 사람 객체 판별 장치는 사람 객체의 기존 경로가 존재하는지 판단할 수 있다. 사람 객체의 기존 경로가 존재하지 않는 경우, 단계 S720에서 사람 객체 판별 장치는 새로운 경로를 생성할 수 있다. 사람 객체의 기존 경로가 존재하는 경우, 단계 S730에서 사람 객체 판별 장치는 사람 객체의 경로가 기존 경로에 추가 가능한지 판단할 수 있다. 기존 경로에 추가가 불가능한 경우, 단계 S740에서 사람 객체 판별 장치는 새로운 경로를 생성할 수 있다. 기존 경로에 추가 가능한 경우, 단계 S750에서 사람 객체 판별 장치는 기존 경로의 종료 여부를 판별할 수 있다. 단계 S760에서 사람 객체 판별 장치는 기존 경로가 종료된 경우, 사람 객체의 시작 지점과 끝 지점을 파악하여 사람 객체의 출입 여부를 결정할 수 있다.
상술한 설명에서, 단계 S710 내지 S760은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 6 및 도 7을 통해 설명된 깊이 카메라 기반 사람 객체를 판별하는 방법 및 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단하는 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 깊이 카메라 기반 사람 객체 판별 시스템
100: 사람 객체 판별 장치
110: 깊이 카메라
120: 네트워크
200: 사람 객체 판별 장치
410: 제 1 형상
420: 제 2 형상

Claims (17)

  1. 사람 객체를 판별하는 방법에 있어서
    깊이 카메라에 의해 촬영된 영상을 수신하는 단계;
    상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 단계;
    상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 단계;
    상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하는 단계; 및
    상기 산출된 거리에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하는 단계
    를 포함하고,
    상기 서로 다른 기준은 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리에 기초한 상기 하나 이상의 객체와 제 1 형상과의 유사도 및 상기 하나 이상의 객체와 제 2 형상과의 유사도를 포함하는, 사람 객체의 판별 방법.
  2. 제 1 항에 있어서,
    상기 제 1 형상과의 유사도 및 상기 제 2 형상과의 유사도는 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 사람 객체를 판별하는데 기여도를 달리하도록 설정된 것인, 사람 객체의 판별 방법.
  3. 제 1 항에 있어서,
    상기 제 1 형상은 사람의 머리 형상에 기초한 것인, 사람 객체의 판별 방법.
  4. 제 1 항에 있어서,
    상기 제 2 형상은 사람의 상반신 형상에 기초한 것인, 사람 객체의 판별 방법.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 단계는
    객체가 없는 환경에서 촬영된 영상에 기초하여 배경 화소를 판단하는 단계;
    상기 배경 화소를 제거하여 전경 화소만 남기는 단계;
    상기 전경 화소에서 하나 이상의 객체를 분할하는 단계를 포함하는 것인, 사람 객체의 판별 방법.
  7. 제 6 항에 있어서,
    상기 전경 화소에서 객체를 분할하는 단계는,
    K-평균(MEANS) 알고리즘을 이용하여 상기 하나 이상의 객체를 분할하는 것인, 사람 객체의 판별 방법.
  8. 제 1 항에 있어서,
    상기 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단하는 단계를 더 포함하는, 사람 객체의 판별 방법.
  9. 제 8 항에 있어서,
    상기 출입 여부를 판단하는 단계는
    상기 사람 객체의 기존 경로가 존재하는지 판단하는 단계;
    상기 사람 객체의 경로가 상기 기존 경로에 추가 가능한지 판단하는 단계;
    상기 기존 경로의 종료 여부를 판별하는 단계;
    상기 기존 경로가 종료된 경우, 상기 사람 객체의 시작 지점과 끝 지점을 파악하여 상기 사람 객체의 출입 여부를 결정하는 단계;
    를 포함하는 것인, 사람 객체의 판별 방법.
  10. 사람 객체를 판별하는 장치에 있어서,
    깊이 카메라에 의해 촬영된 영상을 수신하는 영상 수신부;
    상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하는 좌표 변환부;
    상기 촬영된 영상으로부터 하나 이상의 객체를 인식하는 객체 인식부; 및
    상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하고, 상기 산출된 거리에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하는 객체 검출부;
    를 포함하고,
    상기 서로 다른 기준은 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리에 기초한 상기 하나 이상의 객체와 제 1 형상과의 유사도 및 상기 하나 이상의 객체와 제 2 형상과의 유사도를 포함하는, 사람 객체 판별 장치.
  11. 제 10 항에 있어서,
    상기 제 1 형상과의 유사도 및 상기 제 2 형상과의 유사도는 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리 및 상기 깊이 카메라의 설치 각에 기초하여, 상기 사람 객체를 판별하는데 기여도를 달리하도록 설정된 것인, 사람 객체 판별 장치.
  12. 제 10 항에 있어서,
    상기 제 1 형상은 사람의 머리 형상에 기초한 것인, 사람 객체 판별 장치.
  13. 제 10 항에 있어서,
    상기 제 2 형상은 사람의 상반신 형상에 기초한 것인, 사람 객체 판별 장치.
  14. 삭제
  15. 제 10 항에 있어서,
    상기 판별된 사람 객체의 미리 설정된 구역에의 출입 여부를 판단하는 객체 추적부
    를 더 포함하는, 사람 객체 판별 장치.
  16. 제 15 항에 있어서,
    상기 객체 추적부는,
    상기 사람 객체의 기존 경로가 존재하는지 판단하고,
    상기 사람 객체의 경로가 상기 기존 경로에 추가 가능한지 판단하고,
    상기 기존 경로의 종료 여부를 판별하고,
    상기 기존 경로가 종료된 경우, 상기 사람 객체의 시작 지점과 끝 지점을 파악하여 상기 사람 객체의 출입 여부를 결정하는 것인, 사람 객체 판별 장치.
  17. 사람 객체를 판별하는 컴퓨팅 장치에 있어서,
    메모리;

    상기 메모리와 인터페이싱하도록 정렬된 프로세싱 유닛을 포함하고,
    상기 프로세싱 유닛은,
    깊이 카메라에 의해 촬영된 영상을 수신하고,
    상기 깊이 카메라의 설치 각 및 설치 위치를 이용하여, 상기 촬영된 영상을 카메라 기준 좌표계에서 실제 공간 좌표계로 변환하고,
    상기 촬영된 영상으로부터 하나 이상의 객체를 인식하고,
    상기 실제 공간 좌표계에 기초하여, 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리를 산출하고,
    상기 산출된 거리에 기초하여, 상기 하나 이상의 객체에 대해 서로 다른 기준을 적용하여 사람 객체를 판별하도록 구성되고,
    상기 서로 다른 기준은 상기 깊이 카메라로부터 상기 하나 이상의 객체까지의 거리에 기초한 상기 하나 이상의 객체와 제 1 형상과의 유사도 및 상기 하나 이상의 객체와 제 2 형상과의 유사도를 포함하는, 컴퓨팅 장치.
KR1020140135266A 2014-10-07 2014-10-07 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치 KR102335045B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140135266A KR102335045B1 (ko) 2014-10-07 2014-10-07 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치
US14/876,912 US10089535B2 (en) 2014-10-07 2015-10-07 Depth camera based detection of human subjects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140135266A KR102335045B1 (ko) 2014-10-07 2014-10-07 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160041441A KR20160041441A (ko) 2016-04-18
KR102335045B1 true KR102335045B1 (ko) 2021-12-03

Family

ID=55633021

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140135266A KR102335045B1 (ko) 2014-10-07 2014-10-07 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10089535B2 (ko)
KR (1) KR102335045B1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431876B (zh) 2015-12-16 2021-03-12 日本电气株式会社 设置辅助设备、设置辅助方法和程序记录介质
KR101788269B1 (ko) * 2016-04-22 2017-10-19 주식회사 에스원 이상 상황을 감지하는 장치 및 방법
JP2018090653A (ja) * 2016-11-30 2018-06-14 理想科学工業株式会社 水性インクジェットインク
CN107223258A (zh) * 2017-03-31 2017-09-29 中控智慧科技股份有限公司 图像采集方法和设备
JP2019015553A (ja) * 2017-07-05 2019-01-31 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および個体撮像装置
US20200005832A1 (en) * 2018-06-28 2020-01-02 Getac Technology Corporation Method for calculating position coordinates and electronic device
SG11201811455RA (en) 2018-11-09 2020-06-29 Beijing Didi Infinity Technology & Development Co Ltd System and method for detecting in-vehicle conflicts
DE102019102051B4 (de) 2019-01-28 2022-07-07 Mühlbauer Gmbh & Co. Kg Verfahren und system zur überwachung eines raumbereichs in einer personenschleuse
CN111292372B (zh) * 2020-02-24 2020-11-27 当家移动绿色互联网技术集团有限公司 目标物体定位方法、装置、存储介质以及电子设备
CN111540058B (zh) * 2020-04-24 2023-12-01 湖南翰坤实业有限公司 一种基于vr一体式头盔技术的建筑安全体验方法及系统
CN112070052A (zh) * 2020-09-16 2020-12-11 青岛维感科技有限公司 一种间距监测方法、装置、系统及存储介质
KR102299250B1 (ko) * 2021-01-13 2021-09-08 한전케이디엔주식회사 복합 영상 데이터를 이용한 입출력 인원 계수 장치 및 방법
KR102660089B1 (ko) 2021-10-26 2024-04-23 한국전자기술연구원 객체 깊이 추정 방법 및 장치, 이를 이용한 이동 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169906A1 (en) * 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US20140254880A1 (en) * 2013-03-06 2014-09-11 Venugopal Srinivasan Methods, apparatus and articles of manufacture to monitor environments

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030018487A (ko) 2001-08-29 2003-03-06 주식회사 하나엘 영상을 이용한 출입 이동 물체 계수 방법 및 장치
KR100519782B1 (ko) 2004-03-04 2005-10-07 삼성전자주식회사 스테레오 카메라를 이용한 사람 검출 방법 및 장치
US8284254B2 (en) * 2005-08-11 2012-10-09 Sightlogix, Inc. Methods and apparatus for a wide area coordinated surveillance system
KR101259835B1 (ko) * 2009-06-15 2013-05-02 한국전자통신연구원 깊이 정보를 생성하기 위한 장치 및 방법
KR101171281B1 (ko) 2010-08-17 2012-08-06 주식회사 유니온커뮤니티 방문자 계수 시스템 및 방법
KR101816170B1 (ko) * 2010-12-22 2018-01-09 한국전자통신연구원 3차원 깊이 정보 획득 장치 및 그 방법
KR101758058B1 (ko) * 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
JP5776637B2 (ja) 2012-06-26 2015-09-09 住友電装株式会社 基板用コネクタ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030169906A1 (en) * 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US20140254880A1 (en) * 2013-03-06 2014-09-11 Venugopal Srinivasan Methods, apparatus and articles of manufacture to monitor environments

Also Published As

Publication number Publication date
US20160098603A1 (en) 2016-04-07
KR20160041441A (ko) 2016-04-18
US10089535B2 (en) 2018-10-02

Similar Documents

Publication Publication Date Title
KR102335045B1 (ko) 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
US9367733B2 (en) Method and apparatus for detecting people by a surveillance system
WO2018133641A1 (en) A locating method and system
US10867166B2 (en) Image processing apparatus, image processing system, and image processing method
EP3010229B1 (en) Video surveillance system, video surveillance device
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
EP2851880A1 (en) Method, system and storage medium for controlling a video capture device, in particular of a door station
KR101608889B1 (ko) 대기열 모니터링 장치 및 방법
US20170076171A1 (en) Foreground extracting method and apparatus
AU2018379393A1 (en) Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
KR102550673B1 (ko) 방문객 출입 통계 분석 방법 및 장치
KR20170006356A (ko) 이차원 영상 기반 고객 분석 방법 및 장치
KR20160119597A (ko) 복수의 깊이 카메라를 통한 사람 검출, 추적 방법 및 장치
KR102250712B1 (ko) 전자 장치 및 제어 방법
JP2016045742A (ja) 情報処理装置およびプログラム
JP2018186397A (ja) 情報処理装置、映像監視システム、情報処理方法及びプログラム
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
WO2019116518A1 (ja) 物体検出装置及び物体検出方法
KR101908005B1 (ko) 지능형 카메라 시스템 및 이의 운용 방법
JP7357649B2 (ja) 識別を容易にするための方法および装置
JP7218416B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2010250571A (ja) 人物計数装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant