KR20210038849A - 데이터 처리 방법들, 장치들 및 저장 매체들 - Google Patents

데이터 처리 방법들, 장치들 및 저장 매체들 Download PDF

Info

Publication number
KR20210038849A
KR20210038849A KR1020207037816A KR20207037816A KR20210038849A KR 20210038849 A KR20210038849 A KR 20210038849A KR 1020207037816 A KR1020207037816 A KR 1020207037816A KR 20207037816 A KR20207037816 A KR 20207037816A KR 20210038849 A KR20210038849 A KR 20210038849A
Authority
KR
South Korea
Prior art keywords
human body
area
result
association
region
Prior art date
Application number
KR1020207037816A
Other languages
English (en)
Inventor
쉐청 왕
링펑 판
천 천
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210038849A publication Critical patent/KR20210038849A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06K9/00221
    • G06K9/00342
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • G06Q10/047Optimisation of routes or paths, e.g. travelling salesman problem
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Abstract

본 개시내용의 예들은 데이터 처리 방법들, 장치들 및 저장 매체들을 개시한다. 데이터 처리 방법은: 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하는 단계; 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 단계; 및 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계를 포함한다.

Description

데이터 처리 방법들, 장치들 및 저장 매체들
관련 출원의 상호 참조
본 개시내용은 2019년 9월 29일자로 출원된 중국 특허 출원 제201910932122.7호의 우선권을 주장하며, 그 전체 내용은 본 명세서에 참고로 포함된다.
기술분야
본 개시내용은 컴퓨터 비전 기술 분야에 관한 것으로, 특히 데이터 처리 방법, 장치 및 저장 매체에 관한 것이다.
대형 쇼핑몰들 및 슈퍼마켓들과 같은 쇼핑 장소들에는 많은 상이한 타입들의 상점들이 있다. 상점들의 레이아웃은 고객의 쇼핑 경험, 상점 진입률(store entry rates) 및 판매에 영향을 미칠 것이다. 따라서, 상점들 사이의 연관성(association)을 결정하고 상점 레이아웃을 수행하는 방법은 쇼핑 장소에 매우 중요하다.
본 개시내용의 예들은 데이터 처리 방법에 대한 기술적 해결책을 제공한다.
제1 양태에서, 본 개시내용의 예들은 데이터 처리 방법을 제공하고, 이 데이터 처리 방법은: 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하는 단계; 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 단계; 및 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계를 포함한다.
가능한 구현에서, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계는: 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하는 단계; 및 하나 이상의 타겟 사람의 수, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계를 포함한다.
가능한 구현에서, 이 방법은: 제1 영역과 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 단말 디바이스가 제1 인터페이스 상에 제1 영역과 제2 영역 사이의 연관 정도를 디스플레이하게 하는 단계를 추가로 포함한다.
가능한 구현에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하는 단계 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및 단말 디바이스에 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 제시하거나, 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하는 단계 - M은 N보다 작은 양의 정수임 - 를 추가로 포함한다.
가능한 구현에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하는 단계 - N은 양의 정수임 - ; 및 단말 디바이스에 영역 배열 분석 결과를 제시하거나, 영역 배열 분석 결과를 전송하는 단계를 추가로 포함한다.
가능한 구현에서, 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 단계는: 복수의 비디오 이미지들에 포함된 제1 영역의 복수의 제1 이미지들을 획득하는 단계; 복수의 제1 이미지들 각각에 대해, 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하는 단계, 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하는 단계; 및 제1 영역의 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 제1 영역에 대한 고객 카운팅 결과를 획득하는 단계를 포함한다.
가능한 구현에서, 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하는 단계는: 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 단계; 및/또는 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하지 않는 것에 응답하여, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 단계를 포함한다.
가능한 구현에서, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 단계는: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하는 단계; 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하는 단계; 및/또는 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하는 단계를 포함한다.
가능한 구현에서, 이 방법은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하는 단계; 연관 데이터베이스(association database) 내의 인간 신체 식별자에 대응하는 보행자 식별자를 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하는 단계 - 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 보행자 식별자 사이의 연관 관계를 저장하도록 구성됨 - 를 추가로 포함한다.
가능한 구현에서, 이 방법은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 인간 신체 템플릿 데이터베이스에 추가하는 단계를 추가로 포함한다.
가능한 구현에서, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 단계는: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하는 단계; 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 얼굴 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하는 단계; 및/또는 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하는 단계를 포함한다.
가능한 구현에서, 이 방법은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 인간 얼굴 템플릿 데이터베이스에 추가하는 단계를 추가로 포함한다.
가능한 구현에서, 이 방법은: 단말 디바이스에 의해 전송된 질의 요청(query request)을 수신하는 단계 - 질의 요청은 질의 조건을 포함함 - 를 추가로 포함하고; 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계는: 질의 조건에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 단계를 포함한다.
제2 양태에서, 본 개시내용의 예들은 단말 디바이스에 적용되는 데이터 처리 방법을 제공하며, 이 방법은: 타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신하는 단계; 및 제1 영역과 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이하는 단계를 포함하고; 제1 영역과 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정된다.
가능한 구현에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하는 단계 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하는 단계 - M은 N보다 작은 양의 정수임 - 를 추가로 포함한다.
가능한 구현에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하는 단계; 및 영역 배열 분석 결과를 디스플레이하는 단계를 추가로 포함한다.
가능한 구현에서, 이 방법은: 질의 조건을 획득하는 단계; 질의 조건에 기초하여 질의 요청을 전송하는 단계; 및 질의 조건에 기초하여 결정된 제1 영역과 제2 영역 사이의 연관 정도를 수신하는 단계를 추가로 포함한다.
제3 양태에서, 본 개시내용의 예들은 데이터 처리 장치를 제공하며, 이 장치는: 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하도록 구성되는 획득 모듈; 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하도록 구성되는 카운팅 모듈; 및 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 구성되는 처리 모듈을 포함한다.
가능한 구현에서, 처리 모듈은: 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하고; 하나 이상의 타겟 사람의 수, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 구성된다.
가능한 구현에서, 처리 모듈은: 제1 영역과 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 단말 디바이스가 제1 인터페이스 상에 제1 영역과 제2 영역 사이의 연관 정도를 디스플레이하게 하도록 추가로 구성된다.
가능한 구현에서, 처리 모듈은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하고 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 단말 디바이스에 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 제시하거나, 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하도록 추가로 구성되고, M은 N보다 작은 양의 정수이다.
가능한 구현에서, 처리 모듈은: 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하고 - N은 양의 정수임 - ; 단말 디바이스에 영역 배열 분석 결과를 제시하거나, 영역 배열 분석 결과를 전송하도록 추가로 구성된다.
가능한 구현에서, 카운팅 모듈은: 복수의 비디오 이미지들에 포함된 제1 영역의 복수의 제1 이미지들을 획득하고; 복수의 제1 이미지들 각각에 대해, 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하고; 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하고; 제1 영역의 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 제1 영역에 대한 고객 카운팅 결과를 획득하도록 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하고; 및/또는 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하지 않는 것에 응답하여, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하도록 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하고; 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하고; 및/또는 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하도록 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하고; 연관 데이터베이스 - 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 보행자 식별자 사이의 연관 관계를 저장하도록 구성됨 - 내의 인간 신체 식별자에 대응하는 보행자 식별자를 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하도록 추가로 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 인간 신체 템플릿 데이터베이스에 추가하도록 추가로 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하고; 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 얼굴 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하고; 및/또는 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하도록 추가로 구성된다.
가능한 구현에서, 카운팅 모듈은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 인간 얼굴 템플릿 데이터베이스에 추가하도록 추가로 구성된다.
가능한 구현에서, 이 장치는: 단말 디바이스에 의해 전송된 질의 요청을 수신하도록 구성되는 수신 모듈 - 질의 요청은 질의 조건을 포함함 - 을 추가로 포함하고; 처리 모듈은: 질의 조건에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 추가로 구성된다.
제4 양태에서, 본 개시내용의 예들은 단말 디바이스에 적용되는 데이터 처리 장치를 제공하며, 이 장치는: 타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신하도록 구성되는 통신 모듈; 및 제1 영역과 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이하도록 구성되는 디스플레이 모듈을 포함하고; 제1 영역과 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정된다.
가능한 구현에서, 통신 모듈은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하고 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하도록 추가로 구성되고, M은 N보다 작은 양의 정수이다.
가능한 구현에서, 통신 모듈은 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하도록 추가로 구성되고; 디스플레이 모듈은 영역 배열 분석 결과를 디스플레이하도록 추가로 구성된다.
가능한 구현에서, 이 장치는: 질의 조건을 획득하도록 구성되는 입력 모듈을 추가로 포함하고; 통신 모듈은, 질의 조건에 기초하여 질의 요청을 전송하고; 질의 조건에 기초하여 결정된 제1 영역과 제2 영역 사이의 연관 정도를 수신하도록 구성된다.
제5 양태에서, 본 개시내용의 예들은 데이터 처리 장치를 제공하며, 이 장치는: 메모리, 프로세서, 및 메모리에 저장되고 프로세서 상에서 실행가능한 컴퓨터 프로그램을 포함하고; 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 제1 양태 또는 제2 양태에 따른 데이터 처리 방법의 단계들이 구현된다.
제6 양태에서, 본 개시내용의 예들은 컴퓨터 프로그램을 저장하는 컴퓨터 저장 매체를 제공하며, 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 프로세서는 제1 양태 또는 제2 양태에 따른 데이터 처리 방법의 단계들을 수행하게 된다.
제7 양태에서, 본 개시내용의 예들은 컴퓨터 프로그램을 제공하며, 컴퓨터 프로그램은 컴퓨터로 하여금 제1 양태 또는 제2 양태에 따른 데이터 처리 방법을 수행하게 한다.
본 개시내용에서 제공되는 기술적 해결책에서는, 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하고; 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하고; 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정한다. 이러한 방식으로, 본 개시내용에서는, 타겟 장소 내의 2개의 영역 사이의 연관 정도를 수동으로 결정하는 것과 비교하여, 미리 결정된 시간 범위 내의 영역들 사이의 연관 정도를 신속하게 결정할 수 있어, 시간 및 노동 비용을 절감할 수 있다. 또한, 고객들의 수를 수동으로 관찰함으로써 영역들 사이의 연관 정도를 결정함에 있어서 비교적 큰 오류가 존재하기 때문에, 본 개시내용에서는, 비디오 이미지들을 분석함으로써 영역들 사이의 연관 정도가 결정되어, 결정된 연관 정도의 정확도를 향상시킨다.
도 1은 본 개시내용의 예들에 의해 제공되는 데이터 처리 방법의 제1 개략적인 흐름도이다.
도 2는 본 개시내용의 예들에 의해 제공되는 데이터 처리 방법의 제2 개략적인 흐름도이다.
도 3은 본 개시내용의 예들에 의해 제공되는 영역들 사이의 연관 정도를 결정하는 프로세스의 개략적인 흐름도이다.
도 4는 본 개시내용의 예들에 의해 제공되는 데이터 처리 장치의 구조의 제1 개략도이다.
도 5는 본 개시내용의 예들에 의해 제공되는 데이터 처리 장치의 구조의 제2 개략도이다.
도 6은 본 개시내용의 예들에 의해 제공되는 데이터 처리 장치의 하드웨어 구조의 개략도이다.
본 기술분야의 통상의 기술자가 본 개시내용의 실시예들에 의해 제공되는 기술적 해결책들을 더 잘 이해하게 하기 위해, 본 개시내용의 실시예들에서의 기술적 해결책들이 본 개시내용의 실시예들에서의 첨부 도면들을 참조하여 아래에서 명확하게 설명될 것이다. 명백하게, 설명된 실시예들은 본 개시내용의 일부 실시예들일 뿐이고, 모든 실시예들이 아니다.
본 개시내용의 설명 실시예들 및 청구항들과 위의 도면들에서의 용어들 "제1", "제2", 및 "제3" 등은 유사한 객체들을 구별하기 위해 사용되고, 특정 순서 또는 시퀀스를 설명하기 위해 사용되지 않는다. 더욱이, "포함하는(comprising/including)" 및 "갖는(having)"이라는 용어들 및 이들의 임의의 변형은 비배타적 포함(non-exclusive inclusion), 예를 들어, 일련의 단계들 또는 유닛들의 포함을 커버하도록 의도된다. 방법, 시스템, 제품 또는 디바이스는 명시적으로 열거된 단계들 또는 유닛들로 제한되지 않으며, 명시적으로 열거되지 않은 또는 프로세스, 방법, 제품 또는 디바이스에 고유한 다른 단계들 또는 유닛들을 포함할 수 있다.
본 개시내용의 예들은 고정 디바이스들 및/또는 이동 디바이스들을 포함하지만 이에 제한되지 않는 다양한 전자 디바이스들에 적용될 수 있는 데이터 처리 방법을 제공한다. 예를 들어, 고정 디바이스들은 개인용 컴퓨터(Personal Computer, PC) 또는 서버 등을 포함하지만, 이에 제한되지 않는다. 이동 디바이스들은 모바일폰, 태블릿 컴퓨터 또는 웨어러블 디바이스를 포함하지만, 이에 제한되지 않는다. 도 1에 도시된 바와 같이, 방법은 단계들 101-103을 포함한다.
단계 101에서, 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득한다.
본 개시내용의 예들에서, 타겟 장소는 쇼핑몰 또는 슈퍼마켓을 포함하지만 이에 제한되지 않고, 임의의 다른 타입의 공중 장소들을 포함할 수 있다.
본 개시내용의 예들에서, 미리 결정된 시간 범위는 하루, 일주일 등과 같은 시작 시간 및 종료 시간을 포함한다. 미리 결정된 시간 범위는 실제 요건들에 기초하여 결정될 수 있고, 이는 본 개시내용의 예들에서 제한되지 않는다. 종료 시간은 현재 시간 이후일 수 없다는 점에 유의해야 한다.
본 개시내용의 예들에서, 비디오 이미지들은 타겟 장소의 각각의 영역에 설치된 이미지 취득 디바이스(예컨대, 카메라 또는 이미지 캡처 머신)에 의해 캡처된다.
본 개시내용의 예들에서, 비디오 이미지들은 다수의 방식들로 획득될 수 있다. 예를 들어, 이미지 취득 디바이스에 의해 송신된 비디오 이미지들이 수신될 수 있거나, 또는 다른 디바이스들에 의해 송신된 비디오 이미지들이 통신기에 의해 수신될 수 있고, 다른 디바이스들에 의해 송신된 비디오 이미지들은 이미지 취득 디바이스에 의해 캡처될 수 있다.
단계 102에서, 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득한다.
본 개시내용의 예들에서, 타겟 장소는 복수의 영역들을 포함할 수 있고, 제1 영역과 제2 영역은 타겟 장소에 포함되는 복수의 영역들 중 임의의 2개일 수 있다.
본 개시내용의 일부 대안적인 구현들에서, 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 것은: 복수의 비디오 이미지들에 포함된 제1 영역의 복수의 제1 이미지들을 획득하는 것; 복수의 제1 이미지들 각각에 대해, 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하는 것, 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하는 것; 및 제1 영역의 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 제1 영역에 대한 고객 카운팅 결과를 획득하는 것을 포함한다.
본 예들에서는, 이미지에 대해 보행자 검출을 수행하여 그 이미지 내의 적어도 하나의 보행자 경계 박스를 획득할 수 있고; 각각의 보행자 경계 박스에 대해, 보행자 경계 박스에 기초하여 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하고; 인간 얼굴 추적 결과 또는 인간 신체 추적 결과 중 적어도 하나에 기초하여 보행자 식별 결과를 획득한다.
이러한 방식으로, 본 개시내용에서는, 육안을 통해 실제 보행자들(걷는 사람들)을 수동으로 관찰함으로써 고객 카운팅하는 것과 비교하여, 취득된 보행자 이미지들에 대해 인간 신체 식별 및/또는 인간 얼굴 식별을 수행함으로써 고객 카운팅이 완료되고, 많은 수의 이미지들이 비교적 짧은 시간 내에 처리될 수 있어, 통계 효율을 개선하고 인간 자원들을 절약할 수 있다.
본 예들에서는, 이미지에 대해 임의의 인간 얼굴 식별 기술에 의한 이미지 식별 처리를 행하여 그 이미지에 대한 인간 얼굴 특징 식별 결과를 획득할 수 있다. 본 개시내용의 예들은 인간 얼굴 식별 기술을 구체적으로 정의하지 않는다.
본 예들에서는, 이미지에 대해 임의의 인간 신체 식별 기술에 의한 이미지 식별 처리를 행하여 그 이미지에 대한 인간 신체 특징 식별 결과를 획득할 수 있다. 본 개시내용의 예들은 인간 신체 식별 기술을 구체적으로 정의하지 않는다.
본 개시내용의 일부 대안적인 예들에서, 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하는 것은: 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 것; 및/또는 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하지 않는 것에 응답하여, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 것을 포함한다. 인간 얼굴 이미지 정보는 인간 얼굴 이미지 및/또는 인간 얼굴 이미지의 특징 정보를 포함한다. 인간 신체 이미지 정보는 인간 신체 이미지 및/또는 인간 신체 이미지의 특징 정보를 포함한다.
일부 대안적인 예들에서, 미리 결정된 조건은: 인간 신체 이미지의 품질이 미리 결정된 품질 요건을 만족하는 것을 포함할 수 있으며, 예를 들어, 미리 결정된 품질 요건은 미리 결정된 선명도 요건을 만족하는 인간 얼굴 선명도, 미리 결정된 크기 요건을 만족하는 인간 얼굴 크기, 미리 결정된 각도 요건을 만족하는 인간 얼굴 각도, 미리 결정된 신뢰도 요건을 만족하는 인간 얼굴 검출 신뢰도(즉, 신뢰 정도), 미리 결정된 신뢰도 요건을 만족하는 인간 신체 검출 신뢰도, 또는 미리 결정된 인간 얼굴 무결성 요건을 만족하는 인간 얼굴 무결성 중 임의의 하나 이상을 포함한다.
이러한 방식으로, 보행자 식별을 수행할 때, 인간 신체 식별 결과가 먼저 분석된다. 인간 신체 식별 결과가 식별될 수 없다면, 인간 얼굴 식별 결과가 분석된다. 인간 신체 식별은 인간 얼굴 식별보다 더 쉽고 더 짧은 시간 소비를 가지며, 인간 신체 식별과 인간 얼굴 식별을 조합함으로써 보행자 식별 결과가 획득되기 때문에, 인간 얼굴 각도 또는 가림과 같은 요인들로 인한 오식별(misidentification)을 피할 수 있고, 식별 효율을 향상시킬 수 있어, 고객 카운팅 효율을 향상시킬 수 있다.
본 개시내용의 일부 대안적인 예들에서, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 것은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하는 것; 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 매칭되는 인간 신체 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하는 것; 및/또는 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하는 것을 포함한다.
일부 예들에서, 이미지의 인간 신체 특징과 인간 신체 템플릿 데이터베이스에 저장된 적어도 하나의 인간 신체 템플릿 내에 포함된 참조 인간 신체 특징 사이의 유사도가 결정될 수 있고, 유사도가 미리 결정된 임계값 이상인지에 기초하여 이미지와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지가 결정된다. 그러나, 본 개시내용의 예들은 이에 제한되지 않는다. 예를 들어, 인간 신체 템플릿 데이터베이스가 인간 신체 템플릿을 포함하고, 인간 신체 템플릿 내에 포함된 참조 인간 신체 특징과 이미지의 인간 신체 특징 사이의 유사도가 미리 결정된 임계값 이상이면, 이미지와 매칭되는 인간 신체 템플릿은 인간 신체 템플릿 데이터베이스에 존재한다고 결정될 수 있다. 반대로, 인간 신체 템플릿 데이터베이스 내의 인간 신체 템플릿들 각각에 대해, 인간 신체 템플릿 내에 포함된 참조 인간 신체 특징과 이미지의 인간 신체 특징 사이의 유사도가 미리 결정된 임계값 미만이면, 이미지와 매칭되는 인간 신체 템플릿은 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정될 수 있다.
본 예들에서는, 복수의 인간 신체 템플릿들이 인간 신체 템플릿 데이터베이스에 저장될 수 있고, 각각의 인간 신체 템플릿은 대응하는 참조 인간 신체 특징 및 대응하는 보행자 식별자를 포함한다. 보행자 식별자는 참조 인간 특징(또는 인간 신체 템플릿)에 대응하는 보행자를 나타내기 위해 사용될 수 있다. 일 예에서, 인간 신체 템플릿 데이터베이스 내의 각각의 인간 신체 템플릿에 대해 보행자 식별자가 구성될 수 있고, 보행자 식별자는 일련 번호일 수 있고, 일련 번호는 인간 신체 템플릿 데이터베이스 내의 대응하는 인간 신체 템플릿을 고유하게 식별할 수 있다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 매칭되는 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하는 단계; 및 연관 데이터베이스 내의 인간 신체 식별자에 대응하는 보행자 식별자를 매칭되는 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하는 단계를 추가로 포함한다. 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 인간 식별자(즉, 보행자 식별자) 사이의 연관 관계를 저장하기 위해 사용된다.
이러한 방식으로, 인간 신체 템플릿에 대응하는 보행자 식별자는 연관 데이터베이스에 저장된 연관 관계를 사용함으로써 보충될 수 있고, 따라서 보행자의 분석 및 세밀한 구별(refinement)이 개선될 수 있다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 인간 신체 템플릿 데이터베이스에 추가하는 단계를 추가로 포함한다.
본 예들에서는, 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는 경우, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 추가될 수 있다. 일 예에서, 인간 신체 이미지 정보에 대응하는 인간 신체 특징은 인간 신체 템플릿으로서 취해질 수 있고, 인간 신체 템플릿은 인간 신체 템플릿 데이터베이스에 추가될 수 있고, 추가된 인간 신체 템플릿에 새로운 보행자 식별자가 할당될 수 있다.
이러한 방식으로, 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는 경우, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 추가되고, 따라서 데이터가 인간 신체 템플릿 데이터베이스에 보충될 수 있다. 고객이 다시 액세스할 때, 후속 질의가 용이하게 된다.
본 개시내용의 일부 대안적인 예들에서, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하는 것은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하는 것; 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 매칭되는 인간 얼굴 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하는 것; 및/또는 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하는 것을 포함한다.
일부 예들에서, 이미지의 인간 얼굴 특징과 인간 얼굴 템플릿 데이터베이스에 저장된 적어도 하나의 인간 얼굴 템플릿 내에 포함된 참조 인간 얼굴 특징 사이의 유사도가 결정될 수 있고, 유사도가 미리 결정된 임계값 이상인지에 기초하여 이미지와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지가 결정된다. 그러나, 본 개시내용의 예들은 이에 제한되지 않는다. 예를 들어, 인간 얼굴 템플릿 데이터베이스가 인간 얼굴 템플릿을 포함하고, 인간 얼굴 템플릿 내에 포함된 참조 인간 얼굴 특징과 이미지의 인간 얼굴 특징 사이의 유사도가 미리 결정된 임계값 이상이면, 이미지와 매칭되는 인간 얼굴 템플릿은 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정될 수 있다. 반대로, 인간 얼굴 템플릿 데이터베이스 내의 인간 얼굴 템플릿들 각각에 대해, 인간 얼굴 템플릿 내에 포함된 참조 인간 얼굴 특징과 이미지의 인간 얼굴 특징 사이의 유사도가 미리 결정된 임계값 미만이면, 이미지와 매칭되는 인간 얼굴 템플릿은 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정될 수 있다.
본 예들에서, 다수의 인간 얼굴 템플릿들이 인간 얼굴 템플릿 데이터베이스에 저장될 수 있다. 각각의 인간 얼굴 템플릿은 대응하는 참조 인간 얼굴 특징 및 대응하는 보행자 식별자를 포함한다. 보행자 식별자는 참조 인간 얼굴 특징(또는 인간 얼굴 템플릿)에 대응하는 보행자를 나타내기 위해 사용될 수 있다. 일 예에서, 인간 얼굴 템플릿 데이터베이스 내의 각각의 인간 얼굴 템플릿에 대해 보행자 식별자가 구성될 수 있다. 보행자 식별자는 일련 번호일 수 있으며, 이는 인간 얼굴 템플릿 데이터베이스 내의 대응하는 인간 얼굴 템플릿을 고유하게 식별할 수 있다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 인간 얼굴 템플릿 데이터베이스에 추가하는 단계를 추가로 포함한다.
본 예들에서는, 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는 경우, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 추가될 수 있다. 일 예에서, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 특징은 인간 얼굴 템플릿으로서 취해질 수 있고, 인간 얼굴 템플릿은 인간 얼굴 템플릿 데이터베이스에 추가될 수 있고, 추가된 인간 얼굴 템플릿에 새로운 보행자 식별자가 할당될 수 있다.
이러한 방식으로, 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는 경우, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 추가되고, 따라서 데이터가 인간 얼굴 템플릿 데이터베이스에 보충될 수 있다. 고객이 다시 액세스할 때, 후속 질의가 용이하게 된다.
단계 103에서, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정한다.
본 개시내용의 일부 대안적인 예들에서, 제1 영역과 제2 영역 사이의 연관 정도는 다음의 공식으로 결정될 수 있다:
Figure pct00001
본 개시내용의 일부 대안적인 예들에서, 제1 영역과 제2 영역 사이의 연관 정도는 다음의 공식으로 결정될 수 있다:
Figure pct00002
본 개시내용의 예들은 연관 정도의 계산 공식을 강제적으로(mandatorily) 정의하지는 않는다. 제1 영역과 제2 영역 사이의 연관 정도를 결정할 때, 소수점(decimal point) 이후 몇 자리가 예약될 수 있다는 점에 유의해야 한다. 소수점 이후 특정 자리와 관련하여, 구성 또는 조정은 정밀도 요건들에 따라 수행될 수 있다.
이러한 방식으로, 본 개시내용에서는, 사용자들에 의해 영역들 사이의 연관 정도를 수동으로 기록 또는 추론하는 것과 비교하여, 보행자들을 자동으로 식별하여 고객 카운팅 결과들을 결정함으로써, 고객 카운팅 결과들에 기초하여 연관 정도가 결정한다. 그것은 편리하고, 사람들의 시간 및 노력을 절약하고, 사용자들이 연관 정도에 대한 분석 결과에 기초하여 타겟화된 작업 및 서비스를 수행하는 것을 용이하게 하여, 고객 경험 및 판매 전환율(sale conversion rate)을 개선시킨다.
본 개시내용의 일부 대안적인 예들에서, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 것은: 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하는 것; 및 하나 이상의 타겟 사람의 수, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 것을 포함한다.
일부 대안적인 예들에서, 제1 영역과 제2 영역 사이의 연관 정도는 타겟 인원들의 수를 제1 영역에 대한 고객 카운팅 결과에서의 고객들의 수로 나눔으로써 획득되는 몫과 같다. 다른 대안적인 예들에서, 제1 영역과 제2 영역 사이의 연관 정도는 타겟 인원들의 수를 제2 영역에 대한 고객 카운팅 결과에서의 고객들의 수로 나눔으로써 획득되는 몫과 같다.
이러한 방식으로, 고객 카운팅 결과들을 통해 타겟 장소 내의 각각의 영역 사이의 연관 정도를 결정하는 것이 편리하다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은 제1 영역과 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 단말 디바이스가 제1 인터페이스 상에 제1 영역과 제2 영역 사이의 연관 정도를 디스플레이하게 하는 단계를 추가로 포함한다.
이러한 방식으로, 제1 영역과 제2 영역 사이의 연관 정도는 단말 디바이스에 제시간에 피드백될 수 있어, 사용자가 제1 영역과 제2 영역 사이의 연관 정도를 제시간에 알 수 있게 한다. 영역들 사이의 연관 정도에 대한 결과에 기초하여, 상점 내의 상품들의 타입들이 증가될 수 있고, 판매를 위한 상품들이 또한 상이한 영역들 사이의 연관 정도에 대한 결과에 따라 개인화되어, 상인에게 고객수 및 판매 수익을 추가시킬 수 있다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하는 단계 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 제시하거나, 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하는 단계 - M은 N보다 작은 양의 정수임 - 를 추가로 포함한다.
일부 예들에서, 타겟 장소가 쇼핑몰인 것을 예로 들면, 쇼핑몰 내의 각각의 상점은 타겟 장소 내에 포함된 영역들이고, 쇼핑몰 내의 각각의 상점 사이의 연관 정도들이 결정되고, 연관 정도들이 순위화된다. 이러한 방식으로, 하나의 상점과 다른 상점들 사이의 연관 정도들을 결정하여 그 상점과 상위 연관(top association)을 갖는 하나 이상의 상점을 획득할 수 있다. 물론, 상위 연관을 갖는 상점들의 몇몇 쌍들이 또한 연관 정도들을 통해 선택될 수 있다.
이러한 방식으로, 각각의 영역 쌍 사이의 연관 정도를 결정함으로써, 상위 연관 정도를 갖는 2개의 영역이 결정될 수 있다. 연관 정도들의 순위화 결과들을 단말 디바이스에 전송함으로써, 사용자가 영역들 사이의 연관 정도를 제시간에 알고, 그 후에 연관 정도에 대한 분석 결과에 기초하여 타겟화된 작업 및 서비스를 수행하는 것이 편리하며, 따라서 고객 경험 및 판매 전환율을 개선시킨다.
일부 예들에서, 쇼핑몰들의 경우, 영역들 사이의 연관 정도는 외견상으로 관련되지 않은 두 상인을 연관시키기 위해 사용된다. 연관 정도에 대한 결과에 기초하여 쇼핑몰의 입구와 출구의 위치들 및 쇼핑몰 내 상점의 레이아웃을 변경하여, 쇼핑몰의 고객수 및 상점의 판매를 향상시킬 수 있다.
예를 들어, 마케팅 담당자(marketer)들의 경우, 영역들 사이의 연관 정도에 대한 결과를 사용하여 외견상으로 관련되지 않은 두 상인에 대한 공동 마케팅을 수행함으로써, 1+1>2의 효과를 만든다.
예를 들어, 상인들의 경우, 영역들 사이의 연관 정도에 대한 결과에 기초하여, 상점 내의 상품들의 타입들이 증가될 수 있고, 판매를 위한 상품들이 또한 상이한 영역들 사이의 연관 정도에 대한 결과에 따라 개인화되어, 상인에게 고객수 및 판매 수익을 추가시킬 수 있다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하는 단계 - N은 양의 정수임 - ; 및 단말 디바이스에 영역 배열 분석 결과를 제시하거나, 영역 배열 분석 결과를 전송하는 단계를 추가로 포함한다.
영역 배열 분석 결과는 다음 정보 중 적어도 하나를 포함한다: 현재 영역 연관 정도 요약(예를 들어, 어느 영역들이 더 높은 연관 정도를 갖는지, 어느 영역들이 더 낮은 연관 정도를 갖는지, 등등); 또는 레이아웃 규정들(예를 들어, 어느 타입들의 영역들이 함께 더 적절하거나 부적절하게 배열되는지); 또는 레이아웃 개선 추천(예를 들어, 어느 영역들의 위치들이 조정되는지).
이러한 방식으로, 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 제공함으로써 사용자가 연관 배열 분석 결과를 참조하여 타겟화된 작업 및 서비스를 수행하는 것을 용이하게 하여, 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 단말 디바이스에 의해 전송된 질의 요청을 수신하는 단계를 추가로 포함하고, 질의 요청은 질의 조건을 포함한다. 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 것은: 질의 조건에 기초하여, 제1 영역과 제2 영역 사이의 연관 정도를 결정하는 것을 포함한다. 질의 조건은 제1 영역과 적어도 하나의 제2 영역의 분할 정보(dividing information)를 포함하고, 질의 조건은 미리 결정된 시간 범위 정보를 추가로 포함할 수 있다.
이러한 방식으로, 사용자에 의해 입력된 질의 조건과 매칭되는 연관 정도가 단말 디바이스에 제시간에 피드백될 수 있어, 사용자가 제1 영역과 제2 영역 사이의 연관 정도를 제시간에 알 수 있게 한다.
제1 및 제2 영역들은 동일한 타겟 장소 내에 위치한다. 예를 들어, 제1 영역과 제2 영역은 동일한 쇼핑몰에 위치한다. 예를 들어, 제1 영역과 제2 영역은 쇼핑몰의 동일한 층에 위치한다. 제1 영역은 사용자의 타겟 영역이고, 제2 영역은 타겟 영역을 제외한 사용자에 의해 설정된 다른 영역이다. 대안적으로, 제1 영역과 제2 영역은 동일한 상점의 상이한 영역들이고, 영역들의 분할은 사용자의 필요들에 따라 설정될 수 있으며, 이는 본 개시내용의 예들에서 제한되지 않는다.
일 예에서, 쇼핑몰에는 2개의 층이 있고, 제1 층은 p개의 상점을 포함하고, 제2 층은 q개의 상점을 포함하며; p개의 상점은 F1, F2, ..., Fp로 표시되고; q개의 상점은 S1, S2, ..., Sq로 표시된다. 상점 F1이 위치하는 영역은 제1 영역으로서 결정되고, 상점 F2가 위치하는 영역은 제2 영역으로서 결정되고, 상점 F3이 위치하는 영역은 제2 영역으로서 결정되고, 상점 F0이 위치하는 영역은 제2 영역으로서 결정되며, 즉, 상점 F1에 대한 각자의 상점들 F2, F3, F0 사이의 연관 정도들이 결정될 필요가 있다. 상점 S1이 위치하는 영역은 제1 영역으로서 결정되고, 상점 S5가 위치하는 영역은 제2 영역으로서 결정되며, 즉, 상점 S1에 대한 상점 S5 사이의 연관 정도가 결정될 필요가 있다.
일부 예들에서, 위의 방법은 서버에 의해 수행될 수 있다. 서버는 클라우드 서버 및/또는 프론트-엔드 서버일 수 있다. 예를 들어, 위의 방법은 프론트-엔드 서버(예컨대, 비디오 통합형 머신) 및 클라우드 서버에 의해 구현된다. 프론트-엔드 서버는 제1 이미지에 대해 인간 얼굴 추적 및 인간 신체 추적을 수행하여 인간 얼굴 추적 결과 및 인간 신체 추적 결과를 획득하고; 인간 얼굴 이미지 및/또는 인간 신체 이미지의 품질에 기초하여 보행자 식별을 수행할 이미지 정보를 결정하고; 그 다음에, 결정된 이미지 정보를 클라우드 서버에 전송한다. 프론트-엔드 서버에 의해 전송된 이미지 정보를 수신한 후, 클라우드 서버는 수신된 이미지 정보에 기초하여 대응하는 데이터베이스를 질의하고, 보행자 식별 결과를 획득하고, 대응하는 처리 결과를 단말 디바이스에 전송하는데, 본 개시내용의 예들은 이에 제한되지 않는다.
본 개시내용의 예들은 단말 디바이스에 적용되는 데이터 처리 방법을 추가로 제공한다. 도 2에 도시된 바와 같이, 이 방법은 단계들 201-202를 포함한다.
단계 201에서, 타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신한다.
제1 영역과 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정된다.
단계 202에서, 제1 영역과 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이한다.
이러한 방식으로, 제1 영역과 제2 영역 사이의 연관 정도를 단말 디바이스에 제공할 수 있으며, 이는 사용자가 영역들 사이의 연관 정도에 따라 타겟화된 작업 및 서비스를 수행하는 데 도움이 되어, 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 질의 조건을 획득하는 단계; 질의 조건에 기초하여 질의 요청을 전송하는 단계; 및 질의 조건에 기초하여 결정된 제1 영역과 제2 영역 사이의 연관 정도를 수신하는 단계를 추가로 포함한다. 질의 조건은 제1 영역과 제2 영역의 분할 정보뿐만 아니라, 미리 결정된 시간 범위 정보를 포함할 수 있다.
이러한 방식으로, 질의 조건을 만족하는 연관 정도를 단말 디바이스에 제공할 수 있으며, 이는 사용자가 영역들 사이의 연관 정도에 따라 타겟화된 작업 및 서비스를 수행하는 데 도움이 되어, 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하는 단계 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하는 단계 - M은 N보다 작은 양의 정수임 - 를 추가로 포함한다.
이러한 방식으로, 연관 정도들에 대한 순위화 결과를 단말 디바이스에 피드백함으로써, 사용자가 영역들 사이의 연관 정도를 제시간에 알고, 그 후에 사용자가 연관 정도에 대한 분석 결과에 따라 타겟화된 작업 및 서비스를 수행할 수 있게 하는 것이 편리하며, 따라서 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 일부 대안적인 예들에서, 이 방법은 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하는 단계, 및 영역 배열 분석 결과를 디스플레이하는 단계를 추가로 포함한다.
이러한 방식으로, 영역 배열 분석 결과를 단말 디바이스에 피드백할 수 있고, 사용자들이 연관 배열 분석 결과를 참조하여 타겟화된 작업 및 서비스를 수행하는 것이 편리할 수 있어, 고객 경험 및 판매 전환율을 개선시킨다.
도 3은 영역들 사이의 연관 정도를 결정하는 프로세스에 대한 개략적인 흐름도를 도시한다. 도 3에 도시된 바와 같이, 이 프로세스는: 분석 주기(analysis period)를 선택하는 것, 분석 영역을 선택하는 것, 연관 정도를 계산하는 것, 및 연관 정도에 대한 결과를 분석하는 것을 포함한다.
일부 예들에서, 분석 주기를 선택하는 것은: 연관 정도를 계산하기 위한 시간 범위(즉, 위의 미리 결정된 시간 범위)를 선택하는 것을 포함한다. 최소 시간 길이는 1일이거나, 또는 당일 이전의 임의의 기간(period of time)이 선택된다.
일부 예들에서, 분석 영역을 선택하는 것은: 연관 정도를 계산하기를 원하는 영역들을 선택하고, 그 영역들을 분할하고 정의하는 것을 포함한다.
예를 들어, 상점 A를 방문/액세스하는 것은 상점 A에 들어가서 X분을 초과하여 상점 A에 있는 것을 지칭한다. 쇼핑몰의 대형 스크린을 방문/액세스하는 것은 대형 스크린 앞에서 결정된 범위 내에서 Y초를 초과하여 대형 스크린을 마주보는 것을 지칭한다. 이러한 방식으로, 육안으로 대략적으로 결정되는 영역에 비해 영역 분할의 정확도가 개선될 수 있다.
일부 예들에서, 연관 정도를 계산하는 것은: 다음의 공식들로 연관 정도를 계산하는 것을 포함한다:
시간 범위가 1일인 경우,
Figure pct00003
; 및
시간 범위가 1일을 초과하는 경우,
Figure pct00004
.
일부 예들에서, 위의 연관 정도는 소수점 이후 두 자리(예컨대, 85.38%)를 예약할 수 있다.
일부 예들에서, 연관 정도에 대한 결과를 분석하는 것은: 모든 영역들 사이의 연관 정도들을 계산한 후에, 지정된 영역에 대해, 다른 영역들과 그 지정된 영역의 연관 정도 결과를 내림차순으로 순위화하는 것; 및 높은 연관 정도를 갖는 두 영역을 분석하여 추가의 분석 및 레이아웃을 수행하는 것을 포함한다.
도 3에 도시된 연관 정도를 결정하는 프로세스는 대안적인 상세한 구현이지만 이에 제한되지 않는다는 것을 이해해야 한다.
도 3에 도시된 연관 정도를 결정하는 프로세스는 본 개시내용의 실시예들을 예시하기 위한 것일 뿐이고, 도 3에 도시된 예에 기초하여 본 기술분야의 통상의 기술자에 의해 다양한 자명한 변경들 및/또는 대체들이 이루어질 수 있고, 획득된 기술적 해결책은 본 개시내용의 실시예들의 개시된 범위에 여전히 속한다는 것을 또한 이해해야 한다.
위의 데이터 처리 방법에 대응하여, 본 개시내용의 예들은 데이터 처리 장치를 제공한다. 도 4에 도시된 바와 같이, 이 장치는, 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하도록 구성되는 획득 모듈(41); 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하도록 구성되는 카운팅 모듈(42); 및 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 구성되는 처리 모듈(43)을 포함한다.
일부 예들에서, 처리 모듈(43)은: 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하고; 하나 이상의 타겟 사람의 수, 제1 영역에 대한 고객 카운팅 결과 및 제2 영역에 대한 고객 카운팅 결과에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 구성된다.
일부 예들에서, 처리 모듈(43)은: 제1 영역과 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 단말 디바이스가 제1 인터페이스 상에 제1 영역과 제2 영역 사이의 연관 정도를 디스플레이하게 하도록 추가로 구성된다.
일부 예들에서, 처리 모듈(43)은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하고 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 단말 디바이스에 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 제시하거나, 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하도록 추가로 구성되고, M은 N보다 작은 양의 정수이다.
일부 예들에서, 처리 모듈(43)은: 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하고 - N은 양의 정수임 - ; 단말 디바이스에 영역 배열 분석 결과를 제시하거나, 영역 배열 분석 결과를 전송하도록 추가로 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 복수의 비디오 이미지들에 포함된 제1 영역의 복수의 제1 이미지들을 획득하고; 복수의 제1 이미지들 각각에 대해, 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하고, 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 제1 이미지에 대한 보행자 식별 결과를 획득하고; 제1 영역의 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 제1 영역에 대한 고객 카운팅 결과를 획득하도록 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 보행자 식별 결과를 획득하고; 및/또는 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하지 않는 것에 응답하여, 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 보행자 식별 결과를 획득하도록 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하고; 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하고; 및/또는 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하도록 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하고; 연관 데이터베이스 - 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 보행자 식별자 사이의 연관 관계를 저장하도록 구성됨 - 내의 인간 신체 식별자에 대응하는 보행자 식별자를 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하도록 추가로 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 인간 신체 템플릿 데이터베이스에 추가하도록 추가로 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하고; 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 인간 얼굴 템플릿에 대응하는 보행자 식별자를 보행자 식별 결과로서 사용하고; 및/또는 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 보행자 식별 결과로서 사용하도록 추가로 구성된다.
일부 예들에서, 카운팅 모듈(42)은: 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 인간 얼굴 템플릿 데이터베이스에 추가하도록 추가로 구성된다.
일부 예들에서, 이 장치는: 단말 디바이스에 의해 전송된 질의 요청을 수신하도록 구성되는 수신 모듈(44) - 질의 요청은 질의 조건을 포함함 - 을 추가로 포함하고; 처리 모듈(43)은: 질의 조건에 기초하여 제1 영역과 제2 영역 사이의 연관 정도를 결정하도록 추가로 구성된다.
도 4에 도시된 데이터 처리 장치 내의 각각의 처리 모듈의 구현 기능은 전술한 데이터 처리 방법의 관련 설명을 참조하여 이해될 수 있다는 것이 본 기술분야의 통상의 기술자들에 의해 이해되어야 한다. 도 4에 도시된 데이터 처리 장치 내의 각각의 처리 유닛의 기능들은 프로세서 상에서 실행되는 프로그램에 의해 구현될 수 있고, 또한 특정 논리 회로에 의해 구현될 수 있다는 것이 본 기술분야의 통상의 기술자들에 의해 이해되어야 한다.
실제로, 획득 모듈(41), 카운팅 모듈(42), 처리 모듈(43) 및 수신 모듈(44)의 특정 구조들은 모두 통신 모듈과 조합된 프로세서에 대응할 수 있다. 프로세서의 특정 구조는 중앙 처리 유닛(CPU, Central Processing Unit), 마이크로프로세서(MCU, Micro Controller Unit), 디지털 신호 프로세서(DSP, Digital Signal Processing), 또는 프로그램가능 로직 디바이스(PLC, Programmable Logic Controller)와 같은, 처리 기능을 갖는 전자 컴포넌트 또는 전자 컴포넌트들의 세트일 수 있다. 프로세서는 실행가능 코드를 포함하고, 실행가능 코드는 저장 매체에 저장되고, 프로세서는 버스와 같은 통신 인터페이스를 통해 저장 매체에 결합될 수 있고, 각각의 유닛의 특정 대응하는 기능이 실행될 때, 실행가능 코드는 저장 매체로부터 판독되어 실행된다. 실행가능 코드를 저장하기 위한 저장 매체의 일부는 바람직하게는 비일시적 저장 매체이다.
본 개시내용의 예들에 의해 제공되는 데이터 처리 장치는 영역들 사이의 연관 정도들을 결정할 수 있고, 이는 사용자가 영역들 사이의 연관 정도들에 따라 타겟화된 작업 및 서비스를 수행하는 데 도움이 되어, 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 예들은 데이터 처리 장치를 추가로 제공하고, 이 장치는 메모리, 프로세서, 및 메모리에 저장되고 프로세서 상에서 실행가능한 컴퓨터 프로그램을 포함하며, 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 서버에 적용되는 전술한 기술적 해결책들 중 어느 하나에 의해 제공되는 데이터 처리 방법이 구현된다.
위의 데이터 처리 방법에 대응하여, 본 개시내용의 예들은 데이터 처리 장치를 추가로 제공한다. 도 5에 도시된 바와 같이, 이 장치는, 타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신하도록 구성되는 통신 모듈(51); 및 제1 영역과 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이하도록 구성되는 디스플레이 모듈(52)을 포함하고; 제1 영역과 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정된다.
일부 예들에서, 통신 모듈(51)은: 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하고 - N개의 영역 쌍은 제1 영역과 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하도록 추가로 구성되고, M은 N보다 작은 양의 정수이다.
일부 예들에서, 통신 모듈(51)은 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하도록 추가로 구성되고; 디스플레이 모듈(52)은 영역 배열 분석 결과를 디스플레이하도록 추가로 구성된다.
일부 예들에서, 이 장치는 질의 조건을 획득하도록 구성되는 입력 모듈(53)을 추가로 포함하고; 통신 모듈(51)은, 질의 조건에 기초하여 질의 요청을 전송하고; 질의 조건에 기초하여 결정된 제1 영역과 제2 영역 사이의 연관 정도를 수신하도록 구성된다.
도 5에 도시된 데이터 처리 장치 내의 각각의 처리 모듈의 구현 기능은 전술한 데이터 처리 방법의 관련 설명을 참조하여 이해될 수 있다는 것이 본 기술분야의 통상의 기술자들에 의해 이해되어야 한다. 도 5에 도시된 데이터 처리 장치 내의 각각의 처리 유닛의 기능들은 프로세서 상에서 실행되는 프로그램에 의해 구현될 수 있고, 또한 특정 논리 회로에 의해 구현될 수 있다는 것이 본 기술분야의 통상의 기술자들에 의해 이해되어야 한다.
실제로, 통신 모듈(51), 디스플레이 모듈(52) 및 입력 모듈(53)의 특정 구조들은 모두 통신 모듈과 조합하여 프로세서에 대응할 수 있다. 프로세서의 특정 구조는 CPU, MCU, DSP, 또는 PLC와 같은 처리 기능을 갖는 전자 컴포넌트 또는 전자 컴포넌트들의 세트일 수 있다. 프로세서는 실행가능 코드를 포함하고, 실행가능 코드는 저장 매체에 저장되고, 프로세서는 버스와 같은 통신 인터페이스를 통해 저장 매체에 결합될 수 있고, 각각의 유닛의 특정 대응하는 기능이 실행될 때, 실행가능 코드는 저장 매체로부터 판독되어 실행된다. 실행가능 코드를 저장하기 위한 저장 매체의 일부는 바람직하게는 비일시적 저장 매체이다.
본 개시내용의 예들에 의해 제공되는 데이터 처리 장치는 질의 조건을 만족하는 영역들 사이의 연관 정도들을 출력할 수 있고, 이는 사용자가 연관 정도들에 대한 순위화 결과에 따라 타겟화된 작업 및 서비스를 수행하는 데 도움이 되어, 고객 경험 및 판매 전환율을 개선시킨다.
본 개시내용의 예들은 데이터 처리 장치를 추가로 제공한다. 도 6은 본 개시내용의 예들에 의해 제공되는 데이터 처리 장치의 하드웨어 구조의 개략도이다. 도 6에 도시된 바와 같이, 이 장치는 메모리(62), 프로세서(61), 및 메모리(62)에 저장되고 프로세서(61) 상에서 실행가능한 컴퓨터 프로그램을 포함하며, 컴퓨터 프로그램이 프로세서(61)에 의해 실행될 때, 서버 또는 단말 디바이스와 같은 전자 디바이스에 적용되는 전술한 기술적 해결책들 중 어느 하나에 의해 제공되는 데이터 처리 방법이 구현된다.
데이터 처리 장치 내의 다양한 컴포넌트들은 버스 시스템(63)에 의해 함께 결합될 수 있다는 것이 이해된다. 버스 시스템(63)은 이들 컴포넌트들 사이의 접속 통신을 구현하는데 사용된다는 것을 알 것이다. 버스 시스템(63)은 데이터 버스 외에 전력 버스, 제어 버스, 및 상태 신호 버스를 포함한다. 그러나, 설명의 명료성을 위해, 도 6에서는 다양한 버스들이 버스 시스템(63)으로 표시된다.
본 개시내용의 예들은 컴퓨터 실행가능 명령어들을 저장하는 컴퓨터 저장 매체를 추가로 제공한다. 컴퓨터 실행가능 명령어들은 전술한 예들에서 설명되는 데이터 처리 방법으로 구성된다. 즉, 컴퓨터 실행가능 명령어들이 프로세서에 의해 실행된 후에, 서버 또는 단말 디바이스와 같은 전자 디바이스에 적용되는 전술한 기술적 해결책들 중 어느 하나에 의해 제공되는 데이터 처리 방법이 구현될 수 있다.
본 개시내용의 예들의 컴퓨터 저장 매체에서의 각각의 프로그램의 기능들은 전술한 예들에서 설명되는 데이터 처리 방법의 관련 설명을 참조하여 이해될 수 있다는 것이 본 기술분야의 통상의 기술자들에 의해 이해되어야 한다.
본 개시내용의 예들은 컴퓨터 프로그램을 추가로 제공한다. 컴퓨터 프로그램은 컴퓨터로 하여금 서버 또는 단말 디바이스와 같은 전자 디바이스에 적용되는 전술한 데이터 처리 방법들 중 어느 하나를 수행하게 한다.
본 개시내용의 예들에 개시되는 방법들은 프로세서에 적용되거나 프로세서에 의해 구현될 수 있다. 프로세서는 신호들을 처리하는 능력을 갖는 집적 회로 칩일 수 있다. 구현 프로세스에서, 위의 방법들의 각각의 단계는 프로세서 내의 하드웨어의 집적된 로직 회로 또는 소프트웨어의 형태로 된 명령어에 의해 완료될 수 있다. 프로세서는 범용 프로세서, DSP, 또는 다른 프로그램가능 로직 디바이스, 이산 게이트 또는 트랜지스터 로직 디바이스, 이산 하드웨어 컴포넌트 등일 수 있다. 프로세서는 본 개시내용의 예들에 개시되는 방법들, 단계들 및 논리 블록 다이어그램들을 구현 또는 실행할 수 있다. 범용 프로세서는 마이크로프로세서 또는 임의의 종래의 프로세서 등일 수 있다. 본 개시내용의 예들에 개시되는 방법들의 단계들을 참조하여, 실행이 하드웨어 디코딩 프로세서 또는 디코딩 프로세서의 하드웨어와 소프트웨어 모듈들의 조합에 의해 완료되는 것이 직접 구현될 수 있다. 소프트웨어 모듈은 저장 매체에 위치할 수 있고, 저장 매체는 메모리에 위치하며, 프로세서는 메모리에서 정보를 판독하고, 그것의 하드웨어와 함께 전술한 방법들의 단계들을 완료한다.
본 개시내용에 의해 제공되는 몇몇 예들에서, 개시된 장치들 및 방법들은 다른 방식들로 구현될 수 있다는 것을 이해해야 한다. 위에서 설명된 장치 예들은 단지 개략적이고, 예를 들어, 유닛들의 분할은 단지 논리적 기능 분할이고, 실제 구현에서는 다른 분할 방식이 있을 수 있으며, 예를 들어, 복수의 유닛들 또는 컴포넌트들이 조합될 수 있거나, 다른 시스템에 통합될 수 있거나, 일부 특징들이 무시되거나 수행되지 않을 수 있다. 더욱이, 도시되거나 논의된 컴포넌트들 사이의 결합, 또는 직접 결합, 또는 통신 접속은 일부 인터페이스들을 통해 이루어질 수 있다. 디바이스들 또는 유닛들의 간접 결합 또는 통신 접속은 전기적, 기계적, 또는 다른 형태들일 수 있다.
별개의 컴포넌트들로서 설명된 유닛들은 물리적으로 별개일 수 있거나 그렇지 않을 수 있으며, 유닛들로서 디스플레이된 컴포넌트들은 물리적 유닛들일 수 있거나 그렇지 않을 수 있다. 유닛들로서 디스플레이된 컴포넌트들은 한 곳에 위치할 수 있거나 복수의 네트워크 유닛들에 분산될 수 있다. 유닛들의 일부 또는 전부는 본 개시내용의 예들의 목적을 달성하기 위해 실제 필요에 따라 선택될 수 있다.
또한, 본 개시내용의 예들에서의 모든 기능 유닛들이 하나의 처리 유닛으로 통합될 수 있거나, 또는 각각의 기능 유닛이 하나의 유닛으로서 개별적으로 역할을 하거나, 또는 2개 이상의 기능 유닛이 하나의 유닛으로 통합될 수 있다. 통합된 유닛들은 하드웨어의 형태로 또는 하드웨어 및 소프트웨어 기능 유닛들의 형태로 구현될 수 있다.
본 기술분야의 통상의 기술자들은 전술한 방법 예들의 단계들 중 일부 또는 전부가 관련 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 전술한 프로그램은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 프로그램이 실행될 때, 전술한 방법 예들의 단계들이 실행된다. 전술한 저장 매체는, 이동식 저장 디바이스, 판독 전용 메모리(ROM, Read-Only Memory), 랜덤 액세스 메모리(RAM, Random Access Memory), 자기 디스크, 또는 광 디스크와 같은, 프로그램 코드들을 저장할 수 있는 다양한 매체를 포함한다.
대안적으로, 본 개시내용의 통합된 유닛이 소프트웨어 기능 모듈의 형태로 구현되고 독립적인 제품으로서 판매 또는 사용되는 경우, 통합된 유닛은 컴퓨터 판독가능 저장 매체에 또한 저장될 수 있다. 이러한 이해에 기초하여, 본 개시내용의 예들에 의해 제공되는 기술적 해결책들은 본질적으로 소프트웨어 제품의 형태로 구현될 수 있거나 종래 기술에 기여하는 기술적 해결책들의 부분은 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 컴퓨터 디바이스(개인용 컴퓨터, 서버, 또는 네트워크 디바이스 등일 수 있음)로 하여금 본 개시내용의 다양한 예들에서 설명되는 방법들의 전부 또는 일부를 수행하게 하는 명령어들을 포함한다. 전술한 저장 매체는, 이동식 저장 디바이스, ROM, RAM, 자기 디스크, 또는 광 디스크와 같은, 프로그램 코드들을 저장할 수 있는 다양한 매체를 포함한다.
전술한 설명은 본 개시내용의 특정 실시예에 불과하고, 본 개시내용의 보호 범위는 이에 제한되지 않으며, 본 개시내용에 개시된 기술적 범위 내에서 본 기술분야의 통상의 기술자에 의해 용이하게 생각할 수 있는 임의의 변형 또는 대체가 본 개시내용의 보호 범위에 속해야 한다. 따라서, 본 개시내용의 보호 범위는 청구항들의 보호 범위에 기초해야 한다.

Claims (37)

  1. 데이터 처리 방법으로서,
    미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하는 단계;
    상기 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 상기 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 상기 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 단계; 및
    상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서, 상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하는 단계는:
    상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하는 단계; 및
    상기 하나 이상의 타겟 사람의 수, 상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하는 단계
    를 포함하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 상기 단말 디바이스가 제1 인터페이스 상에 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 디스플레이하게 하는 단계를 추가로 포함하는, 방법.
  4. 제1항 또는 제2항에 있어서,
    상기 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하는 단계 - 상기 N개의 영역 쌍은 상기 제1 영역과 상기 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및
    단말 디바이스에 상기 순위화 결과에서 상위-M의 연관 정도들(top-M degrees of associations)을 갖는 M개의 영역 쌍을 제시하거나, 상기 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하는 단계 - M은 N보다 작은 양의 정수임 -
    를 추가로 포함하는, 방법.
  5. 제1항 또는 제2항에 있어서,
    상기 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 상기 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하는 단계 - 상기 N은 양의 정수임 - ; 및
    단말 디바이스에 상기 영역 배열 분석 결과를 제시하거나, 상기 영역 배열 분석 결과를 전송하는 단계
    를 추가로 포함하는, 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 상기 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 상기 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하는 단계는:
    상기 복수의 비디오 이미지들에 포함된 상기 제1 영역의 복수의 제1 이미지들을 획득하는 단계;
    상기 복수의 제1 이미지들 각각에 대해,
    상기 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 상기 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하는 단계;
    상기 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 상기 제1 이미지에 대한 보행자 식별 결과를 획득하는 단계; 및
    상기 제1 영역의 상기 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 상기 제1 영역에 대한 고객 카운팅 결과를 획득하는 단계
    를 포함하는, 방법.
  7. 제6항에 있어서, 상기 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 상기 제1 이미지에 대한 보행자 식별 결과를 획득하는 단계는:
    상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하는 단계; 및/또는
    상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 상기 미리 결정된 조건을 만족하지 않는 것에 응답하여, 상기 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하는 단계
    를 포함하는, 방법.
  8. 제7항에 있어서, 상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하는 단계는:
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하는 단계;
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 신체 템플릿에 대응하는 보행자 식별자를 상기 보행자 식별 결과로서 사용하는 단계; 및/또는
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 상기 보행자 식별 결과로서 사용하는 단계
    를 포함하는, 방법.
  9. 제8항에 있어서,
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하는 단계;
    연관 데이터베이스(association database) 내의 상기 인간 신체 식별자에 대응하는 보행자 식별자를 상기 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하는 단계 - 상기 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 보행자 식별자 사이의 연관 관계를 저장하도록 구성됨 -
    를 추가로 포함하는, 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 상기 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 상기 인간 신체 템플릿 데이터베이스에 추가하는 단계를 추가로 포함하는, 방법.
  11. 제7항 내지 제10항 중 어느 한 항에 있어서, 상기 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하는 단계는:
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하는 단계;
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 얼굴 템플릿에 대응하는 보행자 식별자를 상기 보행자 식별 결과로서 사용하는 단계; 및/또는
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 상기 보행자 식별 결과로서 사용하는 단계
    를 포함하는, 방법.
  12. 제11항에 있어서,
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 상기 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 상기 인간 얼굴 템플릿 데이터베이스에 추가하는 단계를 추가로 포함하는, 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    단말 디바이스에 의해 전송된 질의 요청(query request)을 수신하는 단계 - 상기 질의 요청은 질의 조건을 포함함 - 를 추가로 포함하고;
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하는 단계는:
    상기 질의 조건에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하는 단계를 포함하는, 방법.
  14. 단말 디바이스에 적용되는 데이터 처리 방법으로서,
    타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신하는 단계; 및
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이하는 단계
    를 포함하고;
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 상기 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정되는, 방법.
  15. 제14항에 있어서,
    상기 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하는 단계 - 상기 N개의 영역 쌍은 상기 제1 영역과 상기 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및
    상기 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하는 단계 - M은 N보다 작은 양의 정수임 -
    를 추가로 포함하는, 방법.
  16. 제14항에 있어서,
    상기 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하는 단계; 및
    상기 영역 배열 분석 결과를 디스플레이하는 단계
    를 추가로 포함하는, 방법.
  17. 제14항 내지 제16항 중 어느 한 항에 있어서,
    질의 조건을 획득하는 단계;
    상기 질의 조건에 기초하여 질의 요청을 전송하는 단계; 및
    상기 질의 조건에 기초하여 결정된 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 수신하는 단계
    를 추가로 포함하는, 방법.
  18. 데이터 처리 장치로서,
    미리 결정된 시간 범위 내의 타겟 장소의 복수의 비디오 이미지들을 획득하도록 구성되는 획득 모듈;
    상기 복수의 비디오 이미지들에 대해 보행자 식별 처리를 수행하여, 식별 결과에 기초하여, 상기 타겟 장소 내의 제1 영역에 대한 고객 카운팅 결과 및 상기 타겟 장소 내의 제2 영역에 대한 고객 카운팅 결과를 획득하도록 구성되는 카운팅 모듈; 및
    상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하도록 구성되는 처리 모듈
    을 포함하는, 장치.
  19. 제18항에 있어서, 상기 처리 모듈은:
    상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 둘 다에 있는 하나 이상의 타겟 사람을 결정하고;
    상기 하나 이상의 타겟 사람의 수, 상기 제1 영역에 대한 고객 카운팅 결과 및 상기 제2 영역에 대한 고객 카운팅 결과에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하도록 구성되는, 장치.
  20. 제18항 또는 제19항에 있어서, 상기 처리 모듈은:
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 단말 디바이스에 전송하여, 상기 단말 디바이스가 제1 인터페이스 상에 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 디스플레이하게 하도록 추가로 구성되는, 장치.
  21. 제18항 또는 제19항에 있어서, 상기 처리 모듈은:
    상기 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들을 순위화하여 순위화 결과를 획득하고 - 상기 N개의 영역 쌍은 상기 제1 영역과 상기 제2 영역에 의해 형성된 영역 쌍을 포함함 - ;
    단말 디바이스에 상기 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 제시하거나, 상기 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 전송하도록 추가로 구성되고, M은 N보다 작은 양의 정수인, 장치.
  22. 제18항 또는 제19항에 있어서, 상기 처리 모듈은:
    상기 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를, 상기 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 기초하여 획득하고 - 상기 N은 양의 정수임 - ;
    단말 디바이스에 상기 영역 배열 분석 결과를 제시하거나, 상기 영역 배열 분석 결과를 전송하도록 추가로 구성되는, 장치.
  23. 제18항 내지 제22항 중 어느 한 항에 있어서, 상기 카운팅 모듈은:
    상기 복수의 비디오 이미지들에 포함된 상기 제1 영역의 복수의 제1 이미지들을 획득하고;
    상기 복수의 제1 이미지들 각각에 대해,
    상기 제1 이미지에 대해 인간 얼굴 추적 및/또는 인간 신체 추적을 수행하여 상기 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과를 획득하고;
    상기 제1 이미지에 대한 인간 얼굴 추적 결과 및/또는 인간 신체 추적 결과에 기초하여 상기 제1 이미지에 대한 보행자 식별 결과를 획득하고;
    상기 제1 영역의 상기 복수의 제1 이미지들 각각에 대한 보행자 식별 결과에 기초하여 상기 제1 영역에 대한 고객 카운팅 결과를 획득하도록 구성되는, 장치.
  24. 제23항에 있어서, 상기 카운팅 모듈은:
    상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 미리 결정된 조건을 만족하는 것에 응답하여, 상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하고; 및/또는
    상기 인간 신체 추적 결과에 대응하는 인간 신체 이미지가 상기 미리 결정된 조건을 만족하지 않는 것에 응답하여, 상기 인간 얼굴 추적 결과에 대응하는 인간 얼굴 이미지 정보에 기초하여 상기 보행자 식별 결과를 획득하도록 구성되는, 장치.
  25. 제24항에 있어서, 상기 카운팅 모듈은:
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 인간 신체 템플릿 데이터베이스에 존재하는지를 결정하고;
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 신체 템플릿에 대응하는 보행자 식별자를 상기 보행자 식별 결과로서 사용하고; 및/또는
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 상기 보행자 식별 결과로서 사용하도록 구성되는, 장치.
  26. 제25항에 있어서, 상기 카운팅 모듈은:
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 신체 템플릿에 대응하는 인간 신체 식별자를 결정하고;
    연관 데이터베이스 - 상기 연관 데이터베이스는 미리 결정된 인간 신체 식별자와 미리 결정된 보행자 식별자 사이의 연관 관계를 저장하도록 구성됨 - 내의 상기 인간 신체 식별자에 대응하는 보행자 식별자를 상기 인간 신체 템플릿에 대응하는 보행자 식별자로서 사용하도록 추가로 구성되는, 장치.
  27. 제25항 또는 제26항에 있어서, 상기 카운팅 모듈은:
    상기 인간 신체 이미지 정보와 매칭되는 인간 신체 템플릿이 상기 인간 신체 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 상기 인간 신체 이미지 정보에 대응하는 인간 신체 템플릿을 상기 인간 신체 템플릿 데이터베이스에 추가하도록 추가로 구성되는, 장치.
  28. 제24항 내지 제27항 중 어느 한 항에 있어서, 상기 카운팅 모듈은:
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 인간 얼굴 템플릿 데이터베이스에 존재하는지를 결정하고;
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재한다고 결정하는 것에 응답하여, 상기 인간 얼굴 템플릿에 대응하는 보행자 식별자를 상기 보행자 식별 결과로서 사용하고; 및/또는
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 새롭게 추가된 보행자 식별자를 상기 보행자 식별 결과로서 사용하도록 추가로 구성되는, 장치.
  29. 제28항에 있어서, 상기 카운팅 모듈은:
    상기 인간 얼굴 이미지 정보와 매칭되는 인간 얼굴 템플릿이 상기 인간 얼굴 템플릿 데이터베이스에 존재하지 않는다고 결정하는 것에 응답하여, 상기 인간 얼굴 이미지 정보에 대응하는 인간 얼굴 템플릿을 상기 인간 얼굴 템플릿 데이터베이스에 추가하도록 추가로 구성되는, 장치.
  30. 제18항 내지 제29항 중 어느 한 항에 있어서,
    단말 디바이스에 의해 전송된 질의 요청을 수신하도록 구성되는 수신 모듈 - 상기 질의 요청은 질의 조건을 포함함 - 을 추가로 포함하고;
    상기 처리 모듈은:
    상기 질의 조건에 기초하여 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 결정하도록 추가로 구성되는, 장치.
  31. 단말 디바이스에 적용되는 데이터 처리 장치로서,
    타겟 장소 내의 제1 영역과 제2 영역 둘 다 사이의 연관 정도를 수신하도록 구성되는 통신 모듈; 및
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 제1 인터페이스 상에 디스플레이하도록 구성되는 디스플레이 모듈
    을 포함하고;
    상기 제1 영역과 상기 제2 영역 사이의 연관 정도는 미리 결정된 시간 범위 내의 상기 타겟 장소의 복수의 비디오 이미지들에 기초하여 결정되는, 장치.
  32. 제31항에 있어서, 상기 통신 모듈은:
    상기 타겟 장소 내의 복수의 영역들에 의해 형성된 N개의 영역 쌍 사이의 연관 정도들에 대한 순위화 결과를 수신하고 - 상기 N개의 영역 쌍은 상기 제1 영역과 상기 제2 영역에 의해 형성된 영역 쌍을 포함함 - ; 및
    상기 순위화 결과에서 상위-M의 연관 정도들을 갖는 M개의 영역 쌍을 디스플레이하도록 추가로 구성되고, M은 N보다 작은 양의 정수인, 장치.
  33. 제32항에 있어서, 상기 통신 모듈은 상기 타겟 장소 내의 복수의 영역들에 대한 영역 배열 분석 결과를 수신하도록 추가로 구성되고;
    상기 디스플레이 모듈은 상기 영역 배열 분석 결과를 디스플레이하도록 추가로 구성되는, 장치.
  34. 제31항 내지 제33항 중 어느 한 항에 있어서,
    질의 조건을 획득하도록 구성되는 입력 모듈을 추가로 포함하고;
    상기 통신 모듈은, 상기 질의 조건에 기초하여 질의 요청을 전송하고; 상기 질의 조건에 기초하여 결정된 상기 제1 영역과 상기 제2 영역 사이의 연관 정도를 수신하도록 구성되는, 장치.
  35. 데이터 처리 장치로서,
    메모리, 프로세서, 및 상기 메모리에 저장되고 상기 프로세서 상에서 실행가능한 컴퓨터 프로그램을 포함하고;
    상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때, 제1항 내지 제13항 또는 제14항 내지 제17항 중 어느 한 항에 따른 데이터 처리 방법이 구현되는, 데이터 처리 장치.
  36. 컴퓨터 프로그램을 저장하는 컴퓨터 저장 매체로서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 상기 프로세서는 제1항 내지 제13항 또는 제14항 내지 제17항 중 어느 한 항에 따른 데이터 처리 방법을 수행하게 되는, 컴퓨터 저장 매체.
  37. 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 제1항 내지 제13항 또는 제14항 내지 제17항 중 어느 한 항에 따른 데이터 처리 방법을 수행하게 하는, 컴퓨터 프로그램.
KR1020207037816A 2019-09-29 2020-06-29 데이터 처리 방법들, 장치들 및 저장 매체들 KR20210038849A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910932122.7A CN112580397A (zh) 2019-09-29 2019-09-29 数据处理方法、装置及存储介质
CN201910932122.7 2019-09-29
PCT/CN2020/098970 WO2021057149A1 (zh) 2019-09-29 2020-06-29 数据处理方法、装置及存储介质

Publications (1)

Publication Number Publication Date
KR20210038849A true KR20210038849A (ko) 2021-04-08

Family

ID=75111101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207037816A KR20210038849A (ko) 2019-09-29 2020-06-29 데이터 처리 방법들, 장치들 및 저장 매체들

Country Status (6)

Country Link
KR (1) KR20210038849A (ko)
CN (1) CN112580397A (ko)
PH (1) PH12020552052A1 (ko)
SG (1) SG11202011040XA (ko)
TW (1) TWI745101B (ko)
WO (1) WO2021057149A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113478485A (zh) * 2021-07-06 2021-10-08 上海商汤智能科技有限公司 机器人及其控制方法、装置、电子设备、存储介质
CN114863364B (zh) * 2022-05-20 2023-03-07 碧桂园生活服务集团股份有限公司 一种基于智能视频监控的安防检测方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620088B2 (en) * 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
CN105608419B (zh) * 2015-12-15 2019-06-04 上海微桥电子科技有限公司 一种客流视频侦测分析系统
CN106650695A (zh) * 2016-12-30 2017-05-10 苏州万店掌网络科技有限公司 一种基于视频分析技术的跟踪统计人流量的系统
CN107169801A (zh) * 2017-05-22 2017-09-15 上海汇纳信息科技股份有限公司 店铺关联关系获取方法、系统、存储介质以及移动终端
KR20190007681A (ko) * 2017-07-13 2019-01-23 삼성에스디에스 주식회사 매장 분석 장치 및 방법
CN107644218B (zh) * 2017-09-29 2018-12-28 广州市冠腾通讯科技有限公司 基于图像采集功能实现人流密集区域行为分析判断的工作方法
CN107832890A (zh) * 2017-11-15 2018-03-23 浙江大华技术股份有限公司 一种拥堵预测方法和装置
CN108038176B (zh) * 2017-12-07 2020-09-29 浙江大华技术股份有限公司 一种路人库的建立方法、装置、电子设备及介质
CN109447114B (zh) * 2018-09-25 2020-11-06 北京酷云互动科技有限公司 场所之间关联度的评估方法和评估系统

Also Published As

Publication number Publication date
CN112580397A (zh) 2021-03-30
TW202113683A (zh) 2021-04-01
WO2021057149A1 (zh) 2021-04-01
TWI745101B (zh) 2021-11-01
SG11202011040XA (en) 2021-04-29
PH12020552052A1 (en) 2021-05-31

Similar Documents

Publication Publication Date Title
US11334917B2 (en) Method and apparatus for delivering advertisements
US10672041B2 (en) In-store field-of-view merchandising and analytics
JP6185186B2 (ja) コードスキャン結果情報を提供するための方法及びシステム
US11335098B2 (en) Data processing methods, apparatuses and storage media
JP5639191B2 (ja) 標準製品ユニットのための属性集約
US20130243332A1 (en) Method and System for Estimating an Object of Interest
TWI754456B (zh) 區域部署方法、裝置及電腦可讀取記錄媒體
AU2023201848A1 (en) Data processing method, device and system
KR20210038849A (ko) 데이터 처리 방법들, 장치들 및 저장 매체들
CN110225141B (zh) 内容推送方法、装置及电子设备
CN112561636A (zh) 一种推荐方法、装置、终端设备及介质
WO2020114011A1 (zh) 商品路线导航方法、装置、电子设备及存储介质
CN116091128A (zh) 基于分布式系统的广告智能推送方法、装置、设备及介质
CN113724454B (zh) 移动设备的互动方法、移动设备、装置及存储介质
JP7041760B2 (ja) データ処理方法、機器および記憶媒体
CN110675207A (zh) 图像展示组合推荐方法、装置及设备
JP7452622B2 (ja) 提示制御装置、システム、方法及びプログラム
JP2017191500A (ja) 携帯端末に対して地点情報を提供する装置、方法、およびプログラム
CN110675434A (zh) 一种动线生成方法、装置、设备及系统
US20180040031A1 (en) Facilitating detection of bid data misuse
US20210201384A1 (en) Region arrangement methods, apparatuses and storage media
CN111435513B (zh) 内容处理方法、装置及系统
WO2022259450A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
JP2018180610A (ja) 情報処理装置、情報配信方法、及び情報配信プログラム
JP2022150027A (ja) 情報提示システム、情報提示方法、及び情報提示プログラム

Legal Events

Date Code Title Description
WITB Written withdrawal of application