KR20210088437A - 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체 - Google Patents

이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체 Download PDF

Info

Publication number
KR20210088437A
KR20210088437A KR1020207015753A KR20207015753A KR20210088437A KR 20210088437 A KR20210088437 A KR 20210088437A KR 1020207015753 A KR1020207015753 A KR 1020207015753A KR 20207015753 A KR20207015753 A KR 20207015753A KR 20210088437 A KR20210088437 A KR 20210088437A
Authority
KR
South Korea
Prior art keywords
target
image
interference
image frame
change
Prior art date
Application number
KR1020207015753A
Other languages
English (en)
Other versions
KR102421605B1 (ko
Inventor
진이 우
하이유 자오
Original Assignee
센스타임 인터내셔널 피티이. 리미티드.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 센스타임 인터내셔널 피티이. 리미티드. filed Critical 센스타임 인터내셔널 피티이. 리미티드.
Publication of KR20210088437A publication Critical patent/KR20210088437A/ko
Application granted granted Critical
Publication of KR102421605B1 publication Critical patent/KR102421605B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6202
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

본 발명은 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체를 개시하였고, 상기 이미지 인식 방법은, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하는 단계; 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하는 단계; 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하는 단계; 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하는 단계; 및 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 기반하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계를 포함한다.

Description

이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체
관련 출원의 상호 참조
본 출원은 2019년12월31일에 싱가포르 특허청에 제출한 출원번호가 10201913955V이고, 발명의 명칭이 "이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체"인 싱가포르 특허 출원의 우선권을 주장하며, 상기 싱가포르 특허출원의 전부 내용은 본 출원에 참조로 인용된다.
본 발명은 인공 지능 분야에 관한 것으로서, 특히 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체에 관한 것이다.
근래에 들어 인공 지능 기술이 보급되고 발전함에 따라, 컴퓨터 또는 카메라에 의해 실행되는 이미지 인식은 갈수록 많은 시나리오에 응용된다. 예를 들어, 현재의 비디오 모니터 및 이미지 인식 시스템에서는, 카메라를 사용하여 물건과 주변 인물 사이의 놓고 잡는 관계를 인식하는 것과 같은, 타겟 대상과 주변의 복수 개의 간섭 대상 사이의 관련 관계를 인식한다.
본 발명은 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체를 제공한다.
본 발명의 기술방안은 아래와 같이 구현된다.
본 발명의 실시예는 이미지 인식 방법을 제공하며, 상기 이미지 인식 방법은,
검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하는 단계;
상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하는 단계 - 상기 적어도 하나의 매칭될 이미지 프레임은 상기 검출 영역 상측에 위치한 이미지 수집 기기에 의해 상기 검출 영역의 적어도 하나의 이미지를 수집하여 획득되며, 상기 사이드 뷰 이미지 프레임은 상기 검출 영역 측면에 위치한 이미지 수집 기기에 의해 상기 검출 영역의 이미지를 수집하여 획득됨 - ;
상기 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하는 단계 - 상기 관련 이미지 프레임은 상기 변화 대상과 가장 높은 관련도를 갖는 간섭 부위를 포함함 - ;
상기 사이드 뷰 이미지 프레임 세트로부터, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하는 단계 - 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 상기 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함함 - ; 및
상기 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 상기 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계를 포함한다.
본 발명의 실시예는 이미지 인식 장치를 제공하며, 상기 이미지 인식 장치는,
검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하기 위한 제1 결정 유닛;
검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하기 위한 제1 획득 유닛 - 적어도 하나의 매칭될 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 검출 영역의 적어도 하나의 이미지를 수집함으로써 획득되고, 사이드 뷰 이미지 프레임은 검출 영역 측면에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득됨 ;
적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하기 위한 제2 결정 유닛 - 상기 관련 이미지 프레임은 상기 변화 대상과 가장 높은 관련도를 갖는 간섭 부위를 포함함 - ;
사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하기 위한 제2 획득 유닛 - 상기 宅상기 관련 이미지 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 상기 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함함 - ; 및
관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하기 위한 제3 결정 유닛을 포함한다.
본 발명의 실시예는 이미지 인식 장치를 제공하며, 상기 이미지 인식 장치는, 프로세서, 메모리 및 통신 버스를 포함하며, 상기 메모리는 상기 통신 버스를 통해 상기 프로세서와 통신하며, 상기 메모리는 상기 프로세서에 의해 실행 가능한 하나 또는 복수 개의 프로그램을 저장하며, 상기 하나 또는 복수 개의 프로그램이 실행될 때, 상기 프로세서는 상기 임의의 이미지 인식 방법을 실행한다.
본 발명의 실시예는 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 판독 가능한 저장 매체는 하나 또는 복수 개의 프로그램을 저장하고, 상기 임의의 이미지 인식 방법을 구현하기 위해 상기 하나 또는 복수 개의 프로그램은 하나 또는 복수 개의 프로세서에 의해 실행된다.
도 1은 본 발명의 실시예에서 제공한 이미지 인식 시나리오 모식도이다.
도 2는 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도 1이다.
도 3은 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도 2이다.
도 4는 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도 3이다.
도 5는 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도 4이다.
도 6은 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도 5이다.
도 7은 본 발명의 실시예에서 제공한 이미지 인식 장치의 구조 모식도 1이다.
도 8은 본 발명의 실시예에서 제공한 이미지 인식 장치의 구조 모식도 2이다.
현재의 비디오 모니터링 및 이미지 인식 시스템에서, 기존의 카메라가 타겟 대상 및 주변의 복수의 간섭 대상의 관련 관계를 인식할 때, 예를 들어, 물체 및 주변 사람이 놓고 잡는 관계를 인식할 때, 수집된 이미지에 많은 주요 정보가 부족하므로, 타겟 대상에 변화가 발생할 경우, 타겟 대상에 변화를 발생시킨 간섭 대상과 정확하게 관련시킬 수 없고, 수집된 간섭 대상의 정보가 불완전하여, 일부 간섭 대상의 정보에 따라 특정 타겟 간섭 대상 등 문제를 매칭시킬 수 없으므로, 최종적으로 타겟 대상과 관련도가 가장 높은 타겟 간섭 대상을 정확하게 인식하지 못하는 결과를 초래한다.
본 발명의 실시예는 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 이미지 인식 방법은, 검출 영역의 적어도 한 세트의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하는 단계; 검출 영역의 적어도 한 세트의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하는 단계 - 적어도 하나의 매칭될 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 수집 검출 영역의 적어도 하나의 이미지를 수집함으로써 획득되고, 사이드 뷰 이미지 프레임은 검출 영역 측면에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득됨 - ; 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하는 단계 - 관련 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위를 포함함 - ; 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하는 단계 - 사이드 뷰 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함함 - ; 및 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 기반하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계를 포함한다.
상기 방법의 구현 방안을 사용하면, 조감도에서 변화 대상과 관련도가 가장 높은 간섭 부위를 얻을 수 있으며, 조감도에서의 위치 정보와 실제 위치 정보가 비례하므로, 조감도에서 얻은 변화 대상과 간섭 부위의 위치 관계 비율은 사이드 뷰 각도보다 더 정확하며; 나아가, 관련 이미지 프레임을 대응하는 사이드 뷰 이미지 프레임과 결합함으로써, 변화 대상에서 변화 대상과 관련도가 가장 높은 간섭 부위를 결정(관련 이미지 프레임에 기반하여 결정함)하는 것을 구현하여, 변화 대상과 관련도가 가장 높은 간섭 부위에서 타겟 간섭 대상을 결정(대응하는 사이드 뷰 이미지 프레임에 기반하여 결정함)하는 것을 구현함으로써, 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하여, 타겟 대상의 변화를 간섭 대상과 관련시키는 정확도를 향상시킨다.
아래에, 본 발명의 실시예의 도면을 결합하여 본 발명의 실시예의 기술방안에 대해 명확하고 완전하게 설명할 것이다.
본 발명의 실시예는 이미지 인식 시나리오를 제공하며, 도 1에 도시된 바와 같이, 도 1은 본 발명의 실시예에서 제공한 이미지 인식 시나리오 모식도이며, 검출 영역(500) 상측에 위치한 이미지 수집 기기(100)를 포함하며, 실제 응용에서 일반적으로 검출 영역에 대해 수직 각도로 이미지 수집을 수행하며; 검출 영역(500) 측면에 위치한 이미지 수집 기기(200_1) 및 이미지 수집 기기(200_2)는, 실제 응용에서 일반적으로 검출 영역에 대해 평행 각도로 이미지 수집을 수행하며; 여기서, 이미지 수집 기기(100), 이미지 수집 기기(200_1) 및 이미지 수집 기기(200_2)는 각각의 방위 및 각도에 따라 검출 영역(500)에 대해 지속적으로 검출을 수행한다. 검출 영역(500)에는 적어도 한 그룹의 타겟 대상(300_1) 내지 타겟 대상(300_n)이 배치되고, 여기서, 각 그룹의 타겟 대상(300_1……300_n)은 적어도 하나의 서브 대상을 적층함으로써 형성된다. 검출 영역(500) 주변은 적어도 하나의 간섭 대상(400_1) 내지 간섭 대상(400_n)을 포함하고, 여기서, 간섭 대상(400_1) 내지 간섭 대상(400_n)은 이미지 수집 기기(100), 이미지 수집 기기(200_1) 및 이미지 수집 기기(200_2) 수집 범위 내에 위치한다. 본 발명의 실시예에서 제공한 이미지 인식 시나리오에서, 이미지 수집 기기는 웹캡 또는 카메라 등일 수 있으며, 간섭 대상은 사람일 수 있으며, 타겟 대상은 적층 가능한 아이템일 수 있으며, 사람(400_1) 내지 사람(400_n) 중 하나가 검출 영역(500)으로부터 아이템을 잡거나 놓을 때, 카메라(100)는 상기 사람의 손이 검출 영역(500)에 들어가는 상측 수직 앵글 이미지를 캡처할 수 있으며, 카메라(200_1) 및 카메라(200_2)는 대응하는 시각에 사람(400_1) 내지 사람(400_n)의 상이한 측면 앵글 이미지를 캡처할 수 있다.
본 발명의 실시예에서, 이미지 수집 기기(100)는 일반적으로 검출 영역(500) 상측에 배치되고, 예를 들어, 검출 영역 중심점의 바로 상측 또는 바로 상측 근처에 배치되며, 수집 범위는 적어도 전체 검출 영역을 커버하며; 이미지 수집 기기(200_1)와 이미지 수집 기기(200_2)는 검출 영역의 측면에 위치하고, 검출 영역의 서로 대립되는 양측에 배치되며, 배치 높이는 검출 영역 내의 타겟 대상과 일치하며, 수집 범위는 전체 검출 영역 및 검출 영역 주변의 간섭 대상을 커버한다.
일부 실시예에서, 검출 영역이 책상 상측의 하나의 사각형 영역인 경우, 이미지 수집 기기(100)는 사각형 영역 중심점의 바로 상측에 배치될 수 있으며, 배치 높이는 구체적인 이미지 수집 기기의 앵글에 따라 조정하여, 수집 범위가 전체 검출 영역의 사각형 영역을 커버할 수 있도록 확보하며; 이미지 수집 기기(200_1)와 이미지 수집 기기(200_2)는 검출 영역의 서로 대립되는 양측에 각각 배치되고, 배치 높이는 검출 영역의 타겟 대상(300_1) 내지 타겟 대상(300_n)과 일치하며, 검출 영역 사이의 거리는 구체적인 이미지 수집 기기의 앵글에 따라 조정하여, 수집 번위가 전체 검출 영역 및 검출 영역 주변의 간섭 대상을 커버할 수 있도록 확보한다.
설명해야 할 것은, 실제 사용에서, 이미지 수집 기기(200_1)와 이미지 수집 기기(200_2) 외에도, 필요에 따라 더 많은 검출 영역 측면에 위치한 이미지 수집 기기를 더 배치할 수 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
도 2는 본 발명의 실시예에서 제공한 이미지 인식 방법의 하나의 선택적인 흐름 모식도이며, 도 2에 도시된 단계를 결합하여 설명을 진행한다.
단계 S101에 있어서, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정한다.
본 발명의 실시예에서 제공한 이미지 인식 방법은 모니터링된 물체에 변화를 발생시키는 타겟 물체 또는 사람을 복수의 물체 또는 사람으로부터 인식하는데 적용된다. 예시적으로, 본 발명의 실시예에서 제공한 이미지 인식 방법은 자동 부기 소매 시스템, 스마트 아이템 모니터링 등 시나리오에 적용된다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상 중의 각 그룹의 타겟 대상은 적어도 하나의 서브 대상에 의해 적층됨으로써 형성된다.
일부 실시예에서, 적어도 한 그룹의 타겟 대상은 적층된 몇 더미의 책자일 수 있고, 각 더미의 책자는 한 그룹의 타겟 대상이며, 적층된 동전일 수도 있으며, 각 더미의 동전은 한 그룹의 타겟 대상이다.
본 발명의 실시예에서, 검출 영역 상측에 적어도 한 그룹의 타겟 대상에 포함된 서브 대상을 지속적으로 모니터링하도록 이미지 수집 기기를 배치할 수 있으며, 적어도 한 그룹의 타겟 대상에 포함된 서브 대상에 변화가 발생한 것을 검출하거나, 검출 영역에 새로운 한 그룹의 타겟 대상이 나타난 것을 검출하거나, 검출 영역의 임의의 한 그룹의 원래 타겟 대상이 사라진 것을 검출할 경우, 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정한다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상에 포함된 서브 대상을 지속적으로 모니터링하도록, 검출 영역 측면에 이미지 수집 기기를 평행 각도로 배치하며, 임의의 한 그룹의 타겟 대상에 포함된 서브 대상의 개수 또는 외관에 변화가 발생할 때, 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정한다.
설명해야 할 것은, 본 발명의 실시예에서, 사이드 뷰 각도로 모니터링할 때 타겟 대상이 서로 가려지는 문제가 존재하므로, 모니터링의 정확성을 확보하기 위해, 검출 영역의 측면에 적어도 두 개의 이미지 수집 기기를 배치하여 검출 영역에 존재하는 적어도 한 그룹의 타겟 대상의 개수 또는 외관에 대해 모니터링을 수행할 수 있다.
본 발명의 실시예에서, 전체 검출 영역을 이미지 수집 기기의 검출 프레임에 넣을 수 있어, 검출 프레임 중의 적어도 한 그룹의 타겟 대상의 개수에 변화가 없을 때, 검출 영역의 이미지 특징 통계는 연속적인 수집 시점에서 하나의 부드러운 곡선으로 나타날 수 있으며, 검출 프레임에 적어도 한 그룹의 타겟 대상의 개수에 변화가 발생할 때, 예시적으로, 총 세트수가 증가하거나 감소함에 따라, 적어도 한 그룹의 타겟 대상의 이미지 특징에 대응하는 곡선이 급변하여, 적어도 한 그룹의 타겟 대상의 이미지 내용에 변화가 발생하였음을 나타냄으로써, 적어도 한 그룹의 타겟 대상의 이미지 특징 곡선을 통해 검출 영역의 적어도 한 그룹의 타겟 대상에 변화가 발생하였는지 여부를 인식한다.
본 발명의 실시예에서, 검출의 정확성을 확보하기 위해, 적어도 한 그룹의 타겟 대상에 발생하는 변화가 기설정 프레임수를 안정적으로 초과한 후, 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정할 수 있다.
일부 실시예에서, 검출 영역에 추가된 적어도 한 그룹의 새로운 타겟 대상이 안정적으로 존재하는 것이5 프레임을 초과하거나, 적어도 한 그룹의 감소된 타겟 대상이 안정적으로 사라진 것이 20 프레임을 초과한 것을 검출하면, 적어도 한 그룹의 타겟 대상의 개수에 변화가 발생한 것으로 결정한다.
일부 실시예에서, 세 더미의 적층된 책자를 적어도 한 그룹의 타겟 대상으로 하고, 여기서, 각 더미의 책자는 한 그룹의 타겟 대상에 대응하며, 상기 더미에서 한 더미의 책자는 20 권의 책을 포함하며, 사이드 뷰 카메라를 검출 영역 측면 평행 각도에 위치한 이미지 수집 기기로 사용하여, 좌우 양측 각도로부터 검출 영역에 대해 지속적인 이미지 수집을 각각 수행함으로써, 20 권의 책을 포함한 책 더미로부터 5 권의 책을 가져갈 때, 사이드 뷰 카메라는 세 더미의 적층된 책자에서 20 권의 책을 포함한 한 더미 책자의 개수가 감소되었음을 검출하며, 감소된 5 권의 책이 검출 영역으로부터 사라진것이 20 프레임을 초과하면, 적어도 한 그룹의 타겟 대상 중의 적어도 하나의 서브 대상의 개수에 변화가 발생한 것으로 결정한다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상에서 상태에 변화가 발생한 적어도 하나의 서브 대상을, 변화 대상으로 결정한다.
일부 실시예에서, 조감도 카메라는 검출 영역 상측에 위치한 이미지 수집 기기이며, 조감도 카메라가 검출 영역의 새로운 위치에 한 그룹의 타겟 대상이 추가된 것을 검출하면, 추가된 한 그룹의 타겟 대상을 변화 대상으로 사용할 것이며; 조감도 카메라가 검출 영역에서 한 그룹의 원래 타겟 대상이 사라진 것을 검출하면, 사라진 타겟 대상을 변화 대상으로 사용할 것이다.
일부 실시예에서, 사이드 뷰 카메라는 검출 영역 측면에 위치한 이미지 수집 기기이며, 사이드 뷰 카메라가 기존의 한 그룹의 타겟 대상에서 서브 대상의 개수가 20 개 추가된 것을 검출할 경우, 추가된 20 개의 서브 대상을 변화 대상으로 사용하며; 사이드 뷰 카메라가 기존의 한 그룹의 타겟 대상에서 서브 대상의 개수가 20 개 감소된 것을 검출할 경우, 감소된 20 개의 서브 대상을 변화 대상으로 사용한다.
단계 S102에 있어서, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하며, 적어도 하나의 매칭될 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 검출 영역의 적어도 하나의 이미지를 수집함으로써 획득되고, 사이드 뷰 이미지 프레임은 검출 영역 측면에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득된다.
본 발명의 실시예에서, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생할 때, 이미지 수집 기기를 통해 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득한다.
본 발명의 실시예에서, 이미지 수집 기기는 검출 영역 및 검출 영역 주변의 간섭 대상에 대해 지속적인 이미지 수집을 수행하기 위한 것이고, 본 발명의 실시예에서의 이미지 수집 기기는 웹캡일 수 있고, 카메라일 수도 있거나, 다른 이미지 수집 기능이 구비된 기기일 수도 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상이 조감도에 제시된 이미지를 지속적으로 모니터링 하도록, 검출 영역 상측에 이미지 수집 기기를 배치하며; 적어도 한 그룹의 타겟 대상이 사이드 뷰 각도에 제시된 이미지를 지속적으로 모니터링하도록, 검출 영역 측면에 이미지 수집 기기를 배치한다. 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생할 때, 검출 영역 상측에 위치한 이미지 수집 기기를 통해 상태 변화 시점을 획득하기 전의 제1 기설정 시간 내에 수집된 이미지 프레임을 획득하여, 적어도 하나의 매칭될 이미지 프레임으로 사용하는 동시에, 검출 영역 측면에 위치한 이미지 수집 기기를 통해, 적어도 하나의 매칭될 이미지 프레임과 동기적으로 수집된 이미지 프레임을 획득하여, 사이드 뷰 이미지 프레임 세트로 사용한다.
일부 실시예에서, 검출 영역 상측에 조감도 카메라를 배치하여 이미지 수집 기기로 사용하고, 검출 영역 측면에 사이드 뷰 카메라를 배치하여 이미지 수집 기기로 사용하여, 적어도 한 그룹의 타겟 대상의 개수가 시점 B에 있을 때 변화가 발생하고, 제1 기설정 시간은 2 초이며; 조감도 카메라가 시각 B-2와 시각 B 사이에서 수집한 이미지 프레임을 획득하여, 적어도 하나의 매칭될 이미지 프레임으로 사용하며; 사이드 뷰 카메라가 시각 B-2와 시각 B 사이에서 수집한 이미지 프레임을, 사이드 뷰 이미지 프레임 세트로 사용한다.
이해할 수 있는 것은, 본 발명의 실시예에서, 검출 영역의 적어도 한 그룹의 타겟 대상의 개수에 변화가 발생할 때, 조감도로부터 적어도 한 그룹의 타겟 대상이 간섭되어 변화가 발생한 이미지를 캡처할 수 있어, 사이드 뷰 각도에서 타겟 대상이 서로 가려지는의 문제를 예방하는 동시에, 사이드 뷰 각도에서 타겟 대상의 근처의 적어도 하나의 간섭 대상의 전체 측면 이미지를 캡처할 수 있으므로, 조감도에서 간섭 대상의 전체 이미지를 완전히 캡처하지 못하는 문제를 예방한다.
단계 S103에 있어서, 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하며; 관련 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위를 포함한다.
본 발명의 실시예에서, 변화 대상을 결정한 후, 적어도 하나의 매칭될 이미지 프레임으로부터, 변화 대상과 관련도가 가장 높은 관련 이미지 프레임을 결정한다.
본 발명의 실시예에서, 도 2에 기반하여, 적어도 하나의 매칭될 이미지 프레임으로부터, 변화 대상과 관련도가 가장 높은 관련 이미지 프레임을 결정하며, 도 3에 도시된 바와 같으며, 단계 S1031 - 단계 S1034를 포함하며, 다음과 같다.
단계 S1031에 있어서, 적어도 하나의 매칭될 이미지 프레임의 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식하고, 적어도 하나의 간섭 부위는 적어도 하나의 간섭 대상이 적어도 하나의 매칭될 이미지 프레임에 나타난 부위이다.
본 발명의 실시예에서, 적어도 하나의 매칭될 이미지 프레임을 얻은 후, 각 매칭될 이미지 프레임에 대해 간섭 부위의 인식을 수행하여, 각 매칭될 이미지 프레임에서의 간섭 부위를 인식함으로써, 적어도 하나의 간섭 부위를 얻는다.
본 발명의 실시예에서, 이미지 인식 알고리즘을 사용하여 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식할 수 있고, 다른 방법을 사용할 수도 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
본 발명의 실시예에서, 하나의 간섭 부위는 하나의 간섭 대상이 타겟 대상에 대해 간섭를 수행함으로써 타겟 대상의 상태에 변화를 발생시키는 부위이며, 적어도 하나의 매칭될 이미지 프레임에 나타나는 있는 부위이다.
본 발명의 실시예에서, 간섭 대상의 일부가 이미지 수집 기기의 검출 영역에 진입할 때, 변화 대상과의 접촉 여부에 관계 없이, 매칭될 이미지 프레임에서 간섭 대상의 일부 이미지를 모두 캡처할 수 있으며, 캡처된 적어도 하나의 간섭 대상 중의 일부 이미지를, 적어도 하나의 간섭 부위로 사용한다.
일부 실시예에서, 조감도 카메라는 검출 영역 상측에 위치한 이미지 수집 기기로서, 간섭 대상이 사람일 때, 조감도 카메라를 통해 손이 검출 영역에 들어가는 이미지를 캡처할 수 있으며, 적어도 하나의 매칭될 이미지 프레임에서 캡처된 적어도 하나의 손 이미지를 적어도 하나의 간섭 부위로 사용한다.
단계 S1032에 있어서, 변화 대상을 인식된 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻는다.
본 발명의 실시예에서, 적어도 하나의 간섭 부위를 인식한 후, 변화 대상을 인식된 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻는다.
설명해야 할 것은, 본 발명의 실시예에서, 매칭될 각 이미지 프레임으로부터 상기 매칭될 이미지 프레임에 포함된 간섭 부위를 인식해야 하므로, 적어도 하나의 간섭 부위에 중복된 간섭 부위를 포함할 가능성이 있어, 변화 대상을 적어도 하나의 간섭 부위에 하나씩 조합할 때, 변화 대상을 각 간섭 부위에 한 번만 조합하도록 확보하여야 한다.
단계 S1033에 있어서, 적어도 하나의 변화 대상과 간섭 부위의 조합에서 관련도가 가장 높은 조합을 결정하며; 여기서, 관련도가 가장 높은 조합에서의 간섭 부위는 타겟 간섭 부위이며, 다시 말해서, 타겟 간섭 부위는 각 간섭 부위에서 변화 대상과 관련도가 가장 높은 간섭 부위이다.
본 발명의 실시예에서, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 단계는 단계 S201 - 단계 S202를 통해 구현되며, 다음과 같다.
단계 S201에 있어서, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득한다.
본 발명의 실시예에서, 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서, 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득한다.
본 발명의 실시예에서, 사이드 뷰 각도에서, 간섭 부위와 변화 대상 사이의 거리는 이의 실제 거리에 비례하지 않으므로, 사이드 뷰 각도에 의해 획득된 간섭 부위와 변화 대상 사이의 거리에 따라 실제 거리를 계산할 수 없다. 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 조감도로부터 각 변화 대상과 간섭 부위의 조합에서 변화 대상과 간섭 부위 사이의 거리를 획득함으로써, 적어도 한 그룹의 변화 대상과 간섭 부위 사이의 거리를 얻는다.
단계 S202에 있어서, 거리로부터 최소 거리를 결정한다.
본 발명의 실시예에서, 적어도 한 그룹의 변화 대상과 간섭 부위 사이의 거리로부터 최소값을 찾아내어, 최소 거리로 사용한다.
본 발명의 일부 실시예에서, 적어도 한 그룹의 변화 대상과 간섭 부위 사이의 거리로부터 최소 거리를 결정하는 방법은 단계 S2021 - 단계 S2022를 더 포함할 수 있으며, 다음과 같다.
단계 S2021에 있어서, 거리를 역으로 계산하여, 적어도 한 그룹의 변화 대상과 간섭 부위 사이의 거리에서 각 거리의 계산 결과를 얻는다.
본 발명의 실시예에서, 거리에 대해 역계산을 수행하는 방법은 거리와 음의 상관 관계를 갖는 임의의 공식을 사용하여 계산함으로써, 대응하는 계산 결과를 얻을 수 있다.
본 발명의 실시예에서, 거리와 음의 상관 관계를 갖는 함수는 모두 계산에 사용될 수 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
일부 실시예에서, 각 조합의 변화 대상과 간섭 부위 사이의 거리는 d이고,
Figure pct00001
또는
Figure pct00002
계산을 통해 거리 역계산의 계산 결과를 얻을 수 있다.
본 발명의 실시예에서, 거리에 대해 역계산을 수행하는 방법은 다른 방법일 수도 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
단계 S2022에 있어서, 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를 최소 거리로 결정한다.
본 발명의 실시예에서, 거리 역계산 결과를 얻은 후, 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를, 최소 거리로 사용한다.
이해할 수 있는 것은, 거리 역계산의 최대 계산 결과에 대응하는 간섭 부위는, 변화 대상에 가장 근접한 간섭 부위이다.
단계 S203에 있어서, 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 사용한다.
본 발명의 실시예에서, 최소 거리에 대응하는 간섭 부위는 적어도 하나의 간섭 부위에서 변화 대상에 가장 근접한 간섭 부위이고, 상기 간섭 부위는 변화 대상과 관련성이 발생할 가능성이 가장 크므로, 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 사용한다.
일부 실시예에서, 검출 영역에 적층된 책자를 한 더미 추가할 경우, 조감도 카메라를 통해 적어도 한 그룹의 매칭될 이미지 프레임을 획득하여, 적어도 한 그룹의 매칭될 이미지 프레임에서 검출 영역에 들어가는 적어도 하나의 손 이미지를 캡처한다. 추가된 책자와 적어도 하나의 손 이미지를 하나씩 조합하여, 각 조합에서 추가된 책자에서 손 이미지까지의 거리를 계산한 후, 최소 거리에 대응하는 추가된 책자와 손 이미지의 조합을, 관련도가 가장 높은 조합으로 사용한다.
이해할 수 있는 것은, 본 발명의 실시예에서, 관련도가 가장 높은 조합에서의 간섭 부위는 변화 대상과 접촉할 가능성이 가장 높은 간섭 부위이다. 조감도에서 얻은 거리는 실제 거리에 비례하므로, 사이드 뷰 각도를 통해 획득된 간섭 부위 및 변화 대상 사이의 거리는 비례하지 않아, 사이드 뷰 각도를 통한 간섭 부위와 변화 대상을 부정확하게 관련시키는 문제를 해결함으로써, 변화 대상과 간섭 부위를 관련시키는 정확도를 향상시켜, 변화 대상과 타겟 간섭 대상을 관련시키는 정확도를 향상시킨다.
본 발명의 일부 실시예에서, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 단계는 단계 S301 - 단계 S302를 더 포함할 수 있으며, 다음과 같다.
단계 S301에 있어서, 인식된 각 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득한다.
본 발명의 실시예에서, 인식된 각 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득하는 단계는 단계 S3011 - 단계 S3014를 포함할 수 있으며, 다음과 같다.
단계 S3011에 있어서, 타겟 대상의 상태에 변화가 발생할 때의 트리거 시점을 획득한다.
본 발명의 실시예에서, 타겟 대상의 상태에 변화가 발생할 때의 시점을 기록 및 획득하여, 트리거 시점으로 사용한다.
단계 S3012에 있어서, 트리거 시점 전의 제2 기설정 시간 내에 수집된 적어도 하나의 이동 궤적 이미지 프레임을 획득하며, 적어도 하나의 이동 궤적 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 획득된다.
본 발명의 실시예에서, 트리거 시점을 얻은 후, 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 트리거 시점에서 제2 기설정 시간 내에 수집된 적어도 하나의 이미지 프레임을 획득하여, 적어도 하나의 이동 궤적 이미지 프레임으로 사용한다.
일부 실시예에서, 간섭 부위는 손 이미지이고, 제2 기설정 시간은 5 초이며, 5 초 내에 조감도 카메라로 수집된 10 프레임의 이미지 프레임을 획득하며, 각 프레임 이미지는 상이한 위치에 있는 적어도 하나의 손 이미지를 모두 포함하고, 10 프레임의 이미지 프레임을 적어도 하나의 이동 궤적 이미지 프레임으로 사용한다.
설명해야 할 것은, 본 발명의 실시예에서, 더욱 정확한 간섭 부위의 이동 궤적을 위해, 제2 기설정 시간은 일반적으로 제1 기설정 시간보다 더 긴 시간대로 설정되므로, 트리거 시점 전의 제2 기설정 시간 내에 수집된 적어도 하나의 이동 궤적 이미지 프레임은 일반적으로 제1 기설정 시간 내에 수집된 적어도 하나의 매칭될 이미지 프레임을 포함한다.
단계 S3013에 있어서, 인식된 각 간섭 부위가 적어도 하나의 이동 궤적 이미지 프레임에서의 대응하는 위치 정보를 획득한다.
본 발명의 실시예에서, 적어도 하나의 이동 궤적 이미지 프레임은 상이한 위치에 있는 각 간섭 부위의 이미지를 포함하고, 동일한 간섭 부위에 대해, 적어도 하나의 이동 궤적 이미지 프레임에서 상기 간섭 부위가 각 이동 궤적 이미지 프레임에서의 각각 대응하는 위치 정보를 획득한다.
본 발명의 실시예에서, 각 간섭 부위에 대해, 각 간섭 부위가 각 이동 궤적 이미지 프레임에서의 각각 대응하는 위치 정보를 결정한다.
일부 실시예에서, 간섭 부위가 손 이미지일 때, 상기 손 이미지가 10 프레임의 이동 궤적 이미지 프레임의 각 프레임 이미지에 위치한 상이한 위치를 획득하여, 상기 손의 이미지에 대응하는 위치 정보로 사용한다.
단계 S3014에 있어서, 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스에 따라, 위치 정보를 벡터화 연결하여, 인식된 각 간섭 부위의 실제 이동 궤적을 얻는다.
본 발명의 실시예에서, 동일한 간섭 부위에 대해, 상기 간섭 부위에 대응하는 위치 정보를 결정한 후, 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스에 따라, 시간 시퀀스의 시작점으로부터 종점까지의 순서대로, 상기 간섭 부위에 대응하는 위치 정보를 순차적으로 연결하여, 상기 간섭 부위에 대응하는 하나의 벡터 궤적을 얻음으로써, 상기 간섭 부위의 실제 이동 궤적으로 사용한다.
본 발명의 실시예에서, 인식된 각 간섭 부위에 대해, 인식된 각 간섭 부위의 실제 이동 궤적을 결정한다.
일부 실시예에서, 한쪽 손 이미지에 대응하는 위치 정보를 획득한 후, 10 프레임의 이동 궤적 이미지 프레임의 상이한 수집 시간에 따라, 제1 프레임 이동 궤적 이미지 프레임에서 상기 손 이미지에 대응하는 위치로부터 시작하여, 상기 손 이미지가 다음 이동 궤적 이미지 프레임에서 대응하는 위치로 순차적으로 연결하여, 최종적으로 상기 손 이미지에 대응하는 실제 이동 궤적을 얻는다.
단계 S302에 있어서, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서, 각 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적을 획득하며, 하나의 조합에서 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적은 상기 조합에서의 간섭 부위와 변화 대상을 연결하는 궤적이다.
본 발명의 실시예에서, 하나의 변화 대상과 간섭 부위의 조합에 대해, 상기 조합의 간섭 부위로부터 변화 대상까지 연결하여, 얻은 벡터 궤적을 상기 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적으로 사용한다.
단계 S303에 있어서, 각 실제 이동 궤적과 각 시뮬레이션 이동 궤적 사이의 유사도를 비교한다.
본 발명의 실시예에서, 하나의 변화 대상과 간섭 부위의 조합에 대해, 상기 조합에 포함된 간섭 부위의 실제 이동 궤적을, 상기 조합에 대응하는 시뮬레이션 이동 궤적과 유사도를 비교한다.
본 발명의 실시예에서, 두 개의 벡터 궤적 사이의 유사도를 배교하는 방법은 선행기술이며, 본 발명의 실시예는 더이상 반복하지 않는다.
단계 S304에 있어서, 하나의 실제 이동 궤적과 유사도가 가장 높은 시뮬레이션 이동 궤적에 대응하는 변화 대상과 간섭 부위의 조합을 관련도가 가장 높은 조합으로 결정한다.
본 발명의 실시예에서, 시뮬레이션 이동 궤적과 유사도가 가장 높은 실제 이동 궤적은, 변화 대상을 향해 이동하고 변화 대상과 접촉할 가능성이 가장 높은 이동 궤적이므로, 하나의 실제 이동 궤적과 유사도가 가장 높은 시뮬레이션 이동 궤적에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 결정한다.
설명해야 할 것은, 단계 S201 - 단계 S203과 단계 S301 - 단계 S303은 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 선택적인 두 가지 방법이며, 구체적인 응용은 실제 상황에 따라 하나 또는 두 가지를 동시에 선택할 수 있으며, 본 발명의 실시예는 이를 한정하지 않는다.
단계 S1034에 있어서, 관련도가 가장 높은 조합에서의 간섭 부위가 위치한 매칭될 이미지 프레임을, 관련 이미지 프레임으로 사용한다. 다시 말해서, 관련 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위를 포함하며, 즉 타겟 간섭 부위를 포함한다.
본 발명의 실시예에서, 관련도가 가장 높은 조합을 결정한 후, 관련도가 가장 높은 조합에서 간섭 부위가 위치한 매칭될 이미지 프레임을, 관련 이미지 프레임으로 사용한다. 다시 말해서, 관련 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위의 정보를 포함한다.
본 발명의 실시예에서 제공한 이미지 인식 방법은, 단계 S103 이후, 도 2 및 도 3에 나타낸 바와 같이, 다음의 단계를 더 포함한다.
단계 S104에 있어서, 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하고, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함한다.
본 발명의 실시예에서, 관련 이미지 프레임을 얻은 후, 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임과 동기적으로 수집된 사이드 뷰 이미지 프레임을 획득한다.
본 발명의 실시예에서, 검출 영역 상측에 위치한 이미지 수집 기기 및 검출 영역 측면에 위치한 이미지 수집 기기는 검출 영역에 대해 동기적으로 수집되므로, 검출 영역 상측에 위치한 이미지 수집 기기가 관련 이미지 프레임을 수집할 때, 검출 영역 측면에 위치한 이미지 수집 기기도 동일한 시나리오의 사이드 뷰 이미지 프레임을 동기적으로 수집할 수 있다.
본 발명의 실시예에서, 사이드 뷰 이미지 프레임은 변화 대상과 관련된 적어도 하나의 간섭 대상의 완전한 측면 이미지를 캡처할 수 있다.
일부 실시예에서, 적어도 하나의 사람이 검출 영역의 책을 잡고 놓는 동작에 대해 검출을 수행할 때, 조감도 카메라를 통해, 책자 개수가 변할 때 검출 영역에 진입하여 변화 대상과 관련도가 가장 높은 손 이미지를 결정함으로써, 상기 손 이미지가 위치한 이미지 프레임을 관련 이미지 프레임으로 사용하며; 관련 이미지 프레임과 동기적으로 수집된 사이드 뷰 카메라 중의 사이드 뷰 이미지 프레임을 획득하며, 여기서, 사이드 뷰 이미지 프레임은 적어도 하나의 사람의 측면 이미지를 포함하며, 상기 적어도 하나의 사람의 측면 이미지는 적어도 하나의 사람의 측면 얼굴 이미지, 적어도 하나의 사람의 측면 인체 이미지, 및 적어도 하나의 사람의 측면 손 이미지를 포함하며, 적어도 하나의 사람의 측면 이미지에서, 각 사람의 측면 얼굴 이미지, 측면 인체 이미지 및 사람의 측면 손 이미지는 서로 관련된다.
이해할 수 있는 것은, 본 발명의 실시예에서, 관련 이미지 프레임에 포함된 간섭 부위 이미지는 조감도에 의해 수집된 이미지로서, 조감도에서 얼굴 정보와 같은 간섭 대상의 키 식별자 정보를 수집하기 어려우므로, 조감도에서의 간섭 부위 이미지에만 의존하여 변화 대상을 간섭 대상의 식별자 정보와 직접 관련시킬 수 없다. 따라서, 먼저 조감도에서의 간섭 부위 이미지와 간섭 대상의 측면 전체 이미지를 관련시키기 위한 동기화된 사이드 뷰 이미지 프레임을 획득할 필요가 있다.
단계 S105에 있어서, 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정한다.
본 발명의 실시예에서, 이미지 인식 장치가 사이드 뷰 이미지 프레임을 얻은 후, 이미지 인식 장치는 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 대해 이미지 융합을 수행하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하기 위해, 동기화된 상이한 각도로부터 획득된 간섭 부위와 간섭 대상의 이미지 정보를 함께 융합하여, 변화 대상을 타겟 간섭 대상에 관련시키는 이미지 인식 과정을 완료한다.
본 발명의 실시예에서, 도 3에 기반하여, 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계는 도 4에 도시된 바와 같으며, 단계 S1051 - 단계 S1053을 포함하며, 다음과 같다.
단계 S1051에 있어서, 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 대해 이미지 융합을 수행하여, 타겟 간섭 부위의 사이드 뷰 이미지를 얻으며, 타겟 간섭 부위의 사이드 뷰 이미지는 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에서의 타겟 간섭 부위의 이미지이다.
본 발명의 실시예에서, 관련 이미지 프레임 및 사이드 뷰 이미지 프레임은 상이한 각도로부터 검출 영역에 대해 동기적으로 수집하여 얻은 이미지 프레임이므로, 이미지 융합을 이용하여, 동일한 물체가 조감도 및 사이드 뷰 각도에서 얻은 이미지 정보를 서로 관련시켜, 조감도에서의 타겟 간섭 부위가 사이드 뷰 이미지 프레임에서 대응하는 측면 각도의 이미지를 얻어, 타겟 간섭 부위의 사이드 뷰 이미지로 사용할 수 있다.
일부 실시예에서, 간섭 부위는 손 이미지이고, 간섭 대상은 사람이며, 조감도의 관련 이미지 프레임에 포함된 타겟 간섭 부위는 손 이미지 A1이고, 사이드 뷰 사람 이미지 프레임은 측면 손 이미지 A1’, 측면 손 이미지 B1’ 및 측면 손 이미지 C1’을 포함한다. 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 대해 이미지 융합을 수행하여, 조감도에서 얻은 손 이미지 정보와 사이드 뷰 각도에서 얻은 손 이미지 정보에 대해 이미지 융합을 수행한 후, 측면 손 이미지 A1’과 조감도의 손 이미지 A1은 동일한 한쪽 손이라는 정보를 얻음으로써, 측면 손 이미지 A1’을 타겟 간섭 부위의 사이드 뷰 이미지로 사용한다.
단계 S1052에 있어서, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 타겟 간섭 부위의 사이드 뷰 이미지에 관련된 타겟 간섭 대상의 사이드 뷰 이미지를 얻으며, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상의 사이드 뷰 이미지를 포함한다.
본 발명의 실시예에서, 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상의 완전한 측면 이미지를 포함하고, 타겟 간섭 부위의 사이드 뷰 이미지는 그 중 하나의 간섭 대상의 측면 부분 이미지이고, 다시 말해서, 타겟 간섭 부위의 사이드 뷰 이미지는 대응하는 간섭 대상의 사이드 뷰 이미지 중의 일부분이며, 간섭 대상의 사이드 뷰 이미지 중의 다른 부분과 서로 관련된다. 사이드 뷰 이미지 프레임에 기반하여, 타겟 간섭 부위의 사이드 뷰 이미지와 관련된 간섭 대상의 사이드 뷰 이미지를, 타겟 간섭 대상의 사이드 뷰 이미지로 사용한다.
일부 실시예에서, 타겟 간섭 부위의 사이드 뷰 이미지는 측면 손 이미지 A1’이고, 사이드 뷰 이미지 프레임은 사람 측면 이미지 A’, 사람 측면 이미지 B’ 및 사람 측면 이미지 C’를 포함한다. 사람 측면 이미지 A’는 측면 인체 이미지 A2’ 및 측면 얼굴 이미지 A3’을 더 포함하며, 사이드 뷰 이미지 프레임에서, 측면 각도의 손 이미지 A1’과 측면 인체 이미지 A2’가 서로 연결되므로, A1’을 A2’와 관련시키고, 측면 인체 이미지 A2’를 또한 측면 얼굴 이미지 A3’과 서로 연결한 후, 측면 각도의 손 이미지 A1’을 추가로 측면 얼굴 이미지 A3’과 관련시킴으로써, 측면 얼굴 이미지 A3’을 타겟 간섭 대상의 사이드 뷰 이미지로 사용한다.
이해할 수 있는 것은, 타겟 간섭 부위가 위치한 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 대해 다각도 이미지 융합을 수행한 후, 조감도에서 타겟 간섭 부위와 사이드 뷰 각도에서의 타겟 간섭 대상의 사이드 뷰 이미지 관련 관계를 얻음으로써, 타겟 간섭 대상의 사이드 뷰 이미지에 포함된 정보에 따라 타겟 간섭 대상에 대해 신원 인식을 추가로 수행할 수 있어, 조감도에서 간섭 대상의 식별자 정보를 수집할 수 없고, 조감도에서의 간섭 부위 이미지를 간섭 대상의 식별자 정보와 직접 관련시킬 수 없는 문제를 해결한다.
단계 S1053에 있어서, 타겟 간섭 대상의 사이드 뷰 이미지에 따라, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계에서, 타겟 간섭 대상의 신원 정보를 결정한다.
본 발명의 실시예에서, 하나의 간섭 대상에 대해, 상기 간섭 대상의 이미지와 상기 간섭 대상의 신원 정보의 대응 관계를 미리 저장하여, 상기 간섭 대상 이미지를 통해 상기 간섭 대상의 신원 정보에 유일하게 대응할 수 있다.
일부 실시예에서, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계는 각 사람의 정면 얼굴 이미지와 상기 사람의 신원 ID의 대응 관계일 수 있으며, 예시적으로, 정면 얼굴 이미지 A는 사람 A에 대응하고, 정면 얼굴 이미지 B는 사람 B에 대응하며, 정면 얼굴 이미지 C는 사람 C에 대응한다. 타겟 간섭 대상의 사이드 뷰 이미지 즉 사이드 뷰 앵글에서의 얼굴 이미지 A3’에 따라, A3’에 대응하는 정면 얼굴 이미지 A와 매칭시킨 후, 미리 저장된 각 사람의 정면 얼굴 이미지와 상기 사람의 신원 ID의 대응 관계를 통해, 사이드 뷰 앵글에서의 얼굴 이미지 A3’을 정면 얼굴 이미지 A에 대응하는 사람 A와 관련시켜, 사람 A를 타겟 간섭 대상으로 사용한다.
이해할 수 있는 것은, 본 발명의 실시예에서, 조감도로부터 변화대상과 관련된 정확도가 더 높은 타겟 간섭 부위 정보를 획득할 수 있으며, 이미지 융합을 통해, 조감도에서의 타겟 간섭 부위 정보를 사이드 뷰 각도에서의 간섭 대상의 완전한 정보와 결합시킴으로써, 조감도에서의 타겟 간섭 부위 정보를 사이드 뷰 각도에서의 타겟 간섭 대상의 정보와 관련시키는 것을 구현하고, 더 나아가, 타겟 간섭 대상의 정보를 미리 저장된 간섭 대상의 식별자 정보와 관련시킴으로써, 타겟 간섭 대상의 인식 정확도를 향상시킨다.
본 발명의 실시예에서, 단계 S105 이후, 단계 S106 - 단계 S107을 더 포함하며, 다음과 같다.
단계 S106에 있어서, 사이드 뷰 이미지 프레임으로부터 변화 대상의 측면 이미지를 획득한다.
단계 S107에 있어서, 변화 대상의 측면 이미지에 따라, 변화 대상의 대상 값을 획득하며, 대상 값은 변화 대상을 구성하는 적어도 하나의 서브 변화 대상 값의 합이며, 변화 대상의 측면 이미지는 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지를 포함하고, 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지는 상이한 값을 나타낸다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상은 적어도 하나의 서브 대상에 의해 적층되어 형성되고, 변화 대상은 적어도 한 그룹의 타겟 대상 중의 일부분이므로, 검출 영역 측면의 이미지 수집 기기를 통해, 변화 대상의 사이드 뷰 각도에서의 이미지를 획득하고, 변화 대상의 상이한 사이드 뷰 각도에서의 이미지에 따라, 변화 대상의 대상 값을 획득한다.
본 발명의 실시예에서, 변화 대상은 적어도 하나의 서브 변화 대상을 포함하며, 여기서, 서브 변화 대상의 사이드 뷰 각도에서의 이미지는 상이한 색상, 무늬 또는 인식 가능한 패턴 또는 문자를 포함할 수 있으며, 각 상이한 색상, 무늬 또는 인식 가능한 패턴 또는 문자는 상이한 값 정보를 나타낼 수 있다.
본 발명의 실시예에서, 변화 대상의 대상 값은 변화 대상의 각 서브 변화 대상의 사이드 뷰 각도에서의 이미지가 나타내는 값의 합이다.
단계 S108에 있어서, 타겟 간섭 대상을 대상 값에 관련시킨다,
따라서 타겟 간섭 대상의 획득 또는 지불에 대응하는 대상 값의 정보를 얻는다.
일부 실시예에서, 빨간 책 한 권의 값은 10 위안이고, 녹색 책 한 권의 값은 20 위안이며, 사이드 뷰 앵글의 카메라를 통해 어느 더미의 적층되어 배치된 책자의 높이가 낮아지고, 개수가 감소된 것이 검출되고, 사이드 뷰 카메라를 통해 감소된 책자의 측면 이미지를 획득하여, 책자의 측면 색상을 통해 10 권의 빨간 책 및 5 권의 녹색 책이 감소된 것을 발견하여, 감소된 책자의 대상 값은 200 위안인 것을 얻은 후, 단계 S101 - 단계 S105에 따라 타겟 간섭 대상이 사람 A인 것을 얻으며, 타겟 간섭 대상을 대상 값과 관련시켜, 사람 A가 값이 200위안인 책자를 가져간 것에 대한 정보를 얻는다.
이해할 수 있는 것은, 사이드 뷰 앵글에서의 카메라를 통해 적어도 하나의 변화 대상의 대상 값을 획득하고 타겟 사람과 관련시킴으로써, 타겟 사람이 적어도 하나의 변화 대상에 대해 동작을 수행하는 정보를 추가로 보충한다.
본 발명의 일부 실시예에서, 변화 대상과 관련된 타겟 간섭 대상을 인식하고, 타겟 간섭 대상을 대상 값과 관련시키는 구현 방법은 도 5에 도시된 바와 같으며, 단계 S601 - 단계 S616을 포함하며, 다음과 같다.
단계 S601에 있어서, 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 검출 영역에 한 그룹의 새로운 타겟 대상이 나타난 것을 모니터링하거나, 검출 영역의 임의의 한 그룹의 원래 타겟 대상이 사라진 것을 검출할 경우, 적어도 한 그룹의 타겟 대상으로부터, 변화 대상을 결정한다.
단계 S602에 있어서, 현재 시점 전의 제1 기설정 시간 내에 수집된 적어도 하나의 매칭될 이미지 프레임 및 사이드 뷰 이미지 프레임 세트를 획득한다.
단계 S603에 있어서, 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식한다.
단계 S604에 있어서, 변화 대상을 인식된 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻는다.
단계 S605에 있어서, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득한다.
단계 S606에 있어서, 거리를 역으로 계산하여, 거리에서 각 거리의 계산 결과를 얻는다.
단계 S607에 있어서, 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를 최소 거리로 결정한다.
단계 S608에 있어서, 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 사용한다.
단계 S609에 있어서, 관련도가 가장 높은 조합에서의 간섭 부위가 위치한 매칭될 이미지 프레임을, 관련 이미지 프레임으로 사용한다.
단계 S610에 있어서, 관련도가 가장 높은 조합에서의 간섭 부위를, 타겟 간섭 부위로 결정한다.
단계 S611에 있어서, 관련 이미지 프레임과 사이드 뷰 이미지 프레임을 이미지 융합하여, 타겟 간섭 부위의 사이드 뷰 이미지를 얻고, 타겟 간섭 부위의 사이드 뷰 이미지는 사이드 뷰 이미지 프레임에서의 타겟 간섭 부위의 이미지이다.
단계 S612에 있어서, 사이드 뷰 이미지 프레임에 기반하여, 타겟 간섭 부위의 사이드 뷰 이미지와 관련된 타겟 간섭 대상의 사이드 뷰 이미지를 얻고, 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상의 사이드 뷰 이미지를 포함한다.
단계 S613에 있어서, 타겟 간섭 대상의 사이드 뷰 이미지에 기반하여, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계에서, 타겟 간섭 대상을 결정한다.
단계 S614에 있어서, 사이드 뷰 이미지 프레임으로부터 변화 대상의 측면 이미지(즉 사이드 뷰 각도에서의 이미지)를 획득한다.
단계 S615에 있어서, 변화 대상의 측면 이미지에 따라, 변화 대상의 대상 값을 획득한다.
단계 S616에 있어서, 타겟 간섭 대상을 대상 값과 관련시켜, 변화 대상과 관련된 타겟 간섭 대상을 인식하고, 타겟 간섭 대상을 대상 값에 관련시키는 과정을 완료한다.
설명해야 할 것은, 본 발명의 실시예에서 제공한 이미지 인식 방법에서, 변화 대상과 관련된 타겟 간섭 대상을 인식한 후, 검출 영역의 적어도 한 그룹의 타겟 대상에 대해 계속하여 모니터링을 수행하며, 적어도 한 그룹의 타겟 대상의 개수에 다시 변화가 발생할 때, 여전히 동일한 처리 방법으로 타겟 간섭 대상을 인식할 것이다.
본 발명의 실시예는 또한 이미지 인식 방법을 제공하며, 지능형 모니터링 칩을 투입 또는 회수하는 시나리오에 적용하며, 도 1의 이미지 인식 시나리오 모식도에 기반하여, 본 발명의 실시예에서의 적어도 한 그룹의 타겟 대상은 도 1의 타겟 대상(300_1) 내지 타겟 대상(300_n)에 대응하는 적어도 한 그룹의 칩일 수 있으며; 적어도 하나의 간섭 대상은 적어도 하나의 게임에 참여한 플레이어일 수 있고, 물론 도 1의 간섭 대상(400_1) 내지 간섭 대상(400_n)에 대응하는 딜러일 수도 있으며; 검출 영역 상측에 위치한 이미지 수집 기기는 도 1의 이미지 수집 기기(100)에 대응하는 조감도 카메라일 수 있고; 검출 영역 측면에 위치한 이미지 수집 기기는 도 1의 이미지 수집 기기(200_1)와 이미지 수집 기기(200_2)에 대응하는 사이드 뷰 카메라일 수 있다. 본 발명의 실시예에서 제공한 이미지 인식 방법은 도 6에 도시된 바와 같고, 단계 S701 - 단계 S721을 포함하며, 다음과 같다.
단계 S701에 있어서, 검출 영역에서 기존의 한 그룹의 칩 위에 다른 한 그룹의 칩이 적층된 것을 검출하면, 사이드 뷰 카메라를 통해 검출 영역의 적어도 한 그룹의 칩의 개수에 변화가 발생한 것을 검출한다.
본 발명의 실시예에서, 적어도 한 그룹의 타겟 대상은 적어도 하나의 칩이다.
본 발명의 실시예에서, 검출 영역에서 기본의 한 그룹의 칩 위에 다른 한 그룹의 칩을 적층하면, 사이드 뷰 카메라를 통해, 검출 영역에서 기존의 한 그룹의 칩에 포함된 칩 개수가 추가된 것을 발견함으로써, 검출 영역의 적어도 하나의 칩의 상태에 변화가 발생한 것으로 결정한다.
단계 S702에 있어서, 검출 영역의 적어도 하나의 칩으로부터, 새로 추가된 칩을 결정한다.
본 발명의 실시예에서, 변화 대상은 새로 추가된 칩이다.
단계 S703에 있어서, 조감도 카메라로부터, 현재 시점 이전의 2 초 내에 수집된 3 프레임의 이미지 프레임을 획득하여, 적어도 하나의 매칭될 이미지 프레임으로 사용하고; 사이드 뷰 카메라가 대응 시간대에 수집한 이미지 프레임을 획득하여, 사이드 뷰 이미지 프레임 세트로 사용한다.
본 발명의 실시예에서, 제1 기설정 시간은 2 초이다.
단계 S704에 있어서, 각 매칭될 이미지 프레임으로부터, 적어도 하나의 손 이미지를 인식한다.
본 발명의 실시예에서, 적어도 하나의 간섭 부위는 적어도 하나의 손 이미지이다.
이해할 수 있는 것은, 본 발명의 실시예에서, 검출 영역에서 기존의 칩 위에 다른 한 그룹의 칩을 적층하면, 손은 검출 영역으로 필연적으로 들어가며, 조감도 카메라를 통해, 적어도 하나의 칩 개수 변화 시점 이전의 적어도 하나의 매칭될 이미지 프레임을 캡처하여, 적어도 하나의 매칭될 이미지 프레임으로부터 적어도 하나의 손 이미지를 인식할 수 있으며, 여기서, 적어도 하나의 손 이미지는 칩을 적층하는 손 이미지를 포함하며, 다른 손 이미지를 더 포함할 수 있다. 따라서, 적어도 하나의 손 이미지로부터 칩을 적층하는 손을 결정하는 것이 필요하다.
단계 S705에 있어서, 조감도 카메라에 새로 추가된 칩 이미지와 적어도 하나의 손 이미지를 하나씩 조합하여, 적어도 한 그룹의 새로 추가된 칩 이미지와 손 이미지의 조합을 얻는다.
본 발명의 실시예에서, 새로 추가된 칩 이미지와 적어도 하나의 손 이미지를 하나씩 조합하여, 새로 추가된 칩 이미지와 적어도 하나의 손 이미지에서의 손 이미지가 한번 만 조합되도록 확보함으로써, 적어도 하나의 새로 추가된 칩 이미지와 손 이미지의 조합을 얻는다.
단계 S706에 있어서, 적어도 한 그룹의 칩의 개수에 변화가 발생하는 시점을 트리거 시점으로 기록하여, 조감도 카메라에 의해 트리거 시점 이전의 4 초 내에 수집된 6 프레임의 이미지 프레임을 획득하여, 적어도 하나의 이동 궤적 이미지 프레임으로 사용한다.
본 발명의 실시예에서, 제2 기설정 시간은 4 초이다.
단계 S707에 있어서, 인식된 각 손 이미지에 대해, 각 손 이미지가 적어도 하나의 이동 궤적 이미지 프레임의 각 이동 궤적 이미지 프레임에서의 대응하는 위치 정보를 획득한다.
본 발명의 실시예에서, 하나의 손 이미지에 대해, 6 프레임의 이동 궤적 이미지 프레임에서 상기 손 이미지에 대응하는 6 프레임의 상이한 위치 정보를 획득할 수 있고; 인식된 각 손 이미지에 대해, 동일한 방법을 사용할 수 있으며, 인식된 각 손 이미지가 적어도 하나의 이동 궤적 이미지 프레임의 각 이동 궤적 이미지 프레임에서 각각 대응하는 위치 정보를 획득한다.
단계 S708에 있어서, 적어도 하나의 이동 궤적 이미지 프레임의 시간 순서를 수집하는 것에 따라, 각 손 이미지에 대응하는 위치 정보를 순차적으로 연결하고, 연결하여 얻은 벡터 궤적을 각 손 이미지의 실제 이동 궤적으로 사용한다.
본 발명의 실시예에서, 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스는 적어도 하나의 이동 궤적 이미지 프레임의 시간 순서이다.
단계 S709에 있어서, 적어도 한 그룹의 새로 추가된 칩 이미지와 손 이미지의 조합에서, 각 조합에서의 손 이미지에서 새로 추가된 칩 이미지까지의 경로를, 각 조합에서서의 손 이미지에서 새로 추가된 칩 이미지까지의 시뮬레이션 이동 궤적으로 사용한다.
단계 S710에 있어서, 각 새로 추가된 칩 이미지 및 손 이미지의 조합에 대해, 각 조합의 시뮬레이션 이동 궤적과 손 이미지의 실제 이동 궤적 사이의 유사도를 비교한다.
본 발명의 실시예에서, 적어도 하나의 새로 추가된 칩 이미지 및 손 이미지의 조합에서의 각 조합에 대해, 동일한 방법을 채택하여 처리할 수 있으며, 각 실제 이동 궤적과 각 시뮬레이션 이동 궤적 사이의 유사도를 비교한다.
단계 S711에 있어서, 하나의 실제 이동 궤적과 유사도가 가장 높은 조합을 관련도가 가장 높은 조합으로 결정한다.
단계 S712에 있어서, 관련도가 가장 높은 조합에 대응하는 매칭될 이미지 프레임을, 관련 이미지 프레임으로 사용한다.
단계 S713에 있어서, 관련도가 가장 높은 조합에서의 손 이미지를, 타겟 손 이미지로 결정한다.
단계 S714에 있어서, 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하며, 사이드 뷰 이미지 프레임은 새로 추가된 칩이미지와 관련된 사람(하나의 플레이어 또는 딜러)의 측면 이미지를 포함한다.
본 발명의 실시예에서의 측면 이미지는 조감도에서의 이미지를 대상으로하여 나타낸 바이며, 즉 사이드 뷰 앵글에서의 이미지이다.
본 발명의 실시예에서, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 사이드 뷰 카메라에 의해 수집된 관련 이미지 프레임과 동기화된 이미지 프레임이다.
단계 S715에 있어서, 관련 이미지 프레임과 사이드 뷰 이미지 프레임을 이미지 융합하여, 타겟 손 이미지가 사이드 뷰 이미지 프레임에서의 대응하는 타겟 손의 측면 이미지를 얻는다.
본 발명의 실시예에서, 타겟 간섭 부위의 사이드 뷰 이미지는 타겟 손의 측면 이미지이다.
본 발명의 실시예에서, 관련 이미지 프레임과 사이드 뷰 이미지 프레임을 이미지 융합하여, 관련 이미지 프레임 조감도에서의 손 이미지와 사이드 뷰 이미지 프레임에서의 사이드 뷰 각도에서의 손 이미지에 대해 이미지 정보의 관련을 수행하면, 조감도에서의 타겟 손 이미지가 사이드 뷰 이미지 프레임에서의 대응하는 이미지를 얻으며, 즉 타겟 손의 측면 이미지를 얻는다.
단계 S716에 있어서, 사이드 뷰 이미지 프레임에 기반하여, 타겟 손의 측면 이미지와 관련된 타겟 플레이어의 측면 인체 이미지(즉 사이드 뷰 각도에서의 인체 이미지)를 얻는다.
본 발명의 실시예에서, 사이드 뷰 이미지 프레임은 적어도 하나의 사람(플레이어 및 딜러)의 인체의 측면 이미지를 포함하므로, 적어도 하나의 측면 손 이미지, 적어도 하나의 사람의 측면 얼굴 이미지 및 적어도 하나의 사람의 측면 인체 이미지를 포함하며, 여기서, 동일한 사람의 측면 손 이미지, 측면 얼굴 이미지 및 측면 인체 이미지는 상호 관련된 하나의 전체 이미지이다. 사이드 뷰 이미지 프레임에 기반하여, 타겟 손의 측면 이미지가 어느 사람의 측면 손 이미지인지를 찾음으로써, 타겟 손의 측면 이미지와 관련된 타겟 사람의 측면 인체 이미지를 얻는다.
단계 S717에 있어서, 사이드 뷰 이미지 프레임에 기반하여, 타겟 사람의 측면 인체 이미지와 관련된 타겟 사람의 얼굴 이미지를 얻는다.
본 발명의 실시예에서, 타겟 간섭 대상의 사이드 뷰 이미지는 타겟 사람의 측면 얼굴 이미지이다.
본 발명의 실시예에서, 타겟 사람의 측면 인체 이미지를 얻은 후, 계속하여 사이드 뷰 이미지 프레임에서의 측면 인체 이미지와 얼굴 이미지의 관련 관계에 기반하여, 타겟 사람의 측면 인체 이미지를 타겟 사람 얼굴 이미지와 관련시킨다.
단계 S718에 있어서, 타겟 사람 얼굴 이미지에 따라, 미리 저장된 각 사람의 정면 얼굴 이미지와 상기 플레이어 신원 정보의 대응 관계에서, 타겟 사람의 신원 정보를 결정한다.
본 발명의 실시예에서, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계는 미리 저장된 각 사람의 정면 얼굴 이미지와 상기 플레이어 신원 정보의 대응 관계이다.
이해할 수 있는 것은, 타겟 손 이미지를 사이드 뷰 각도에서의 타겟 손의 측면 이미지에 관련 시키는 것을 통해, 사이드 뷰 이미지 프레임 중 손, 인체 및 얼굴의 관련 관계에 따라, 타겟 손의 측면 이미지를 타겟 사람의 측면 인체 이미지와 관련시키고, 더 나아가, 타겟 플레이어의 측면 인체 이미지를 타겟 사람 얼굴 이미지와 관련시킴으로써, 최종적으로 타겟 사람 얼굴 이미지와 미리 저장된 적어도 하나의 사람의 정면 얼굴 이미지를 매칭함으로써, 조감도에서 획득된 변화 대상과 관련된 타겟 손 이미지와 정면으로 수집된 타겟 플레이어의 정면 얼굴 이미지를 관련시는 것을 구현하여, 변화 대상이 속하는 타겟 사람의 신원 인식을 완료한다.
단계 S719에 있어서, 사이드 뷰 이미지 프레임으로부터 새로 추가된 칩의 측면 이미지를 획득한다.
단계 S720에 있어서, 새로 추가된 칩의 측면 이미지에 따라, 새로 추가된 칩의 대상 값을 획득한다.
본 발명의 실시예에서, 새로 추가된 칩은 적어도 하나의 색상 및 무늬가 상이한 칩을 포함하고, 칩의 각 상이한 색상 및 무늬는 상이한 칩 값을 의미하며, 새로 추가된 칩의 측면 이미지에 따라, 새로 추가된 칩의 대상 값을 획득할 수 있다.
단계 S721에 있어서, 타겟 사람을 대상 값과 관련시켜, 타겟 사람이 대상 값의 칩을 투입하는 정보를 얻는다.
이해할 수 있는 것은, 본 발명의 실시예에서, 사이드 뷰 카메라를 통해 검출 영역에서 기존의 한 그룹의 칩 위에 적층된 새로운 칩의 상황을 모니터링할 수 있어, 조감도 카메라를 통해 칩 배치 상황을 효과적으로 모니터링할 수 없는 것을 예방하는 동시에, 조감도 카메라에서의 손이 칩까지의 이동 궤적을 통해 타겟 손 이미지를 결정함으로써, 사이드 뷰 카메라를 통해 획득된 손이 새로 추가된 칩으로의 이동 궤적의 왜곡하여, 새로 추가된 칩을 타겟 손 이미지와 관련시키는 관련이 부정확하게 되는 것을 예방하며, 더 나아가, 사이드 뷰 카메라를 통해 플레이어의 인체 측면 이미지를 획득하여, 조감도에서의 타겟 손 이미지와 사이드 뷰 각도에서의 플레이어 인체 측면 이미지를 정보 융합하고, 타겟 손 이미지와 타겟 사람의 얼굴 이미지 사이의 관련을 확립하여, 타겟 사람의 얼굴 이미지를 미리 저장된 적어도 하나의 사람의 정면 얼굴 이미지와 관련시킴으로써, 조감도에서의 변화 대상과 관련된 타겟 손 이미지를 플레이어의 정면 얼굴 이미지에 관련시키는 것을 구현하여, 최종적으로 인식 변화 대상이 속하는 사람의 신원 정보의 정확도를 향상시킨다.
본 발명의 실시예는 이미지 인식 방법에 대응하는 이미지 인식 장치를 제공하며; 도 7은 본 발명의 실시예에서 제공한 이미지 인식 장치의 구조 모식도 1이며, 도 7에 도시된 바와 같이, 상기 이미지 인식 장치(4)는 제1 결정 유닛(400), 제1 획득 유닛(401), 제2 결정 유닛(402), 제2 획득 유닛(403) 및 제3 결정 유닛(404)을 포함하며; 여기서,
상기 제1 결정 유닛(400)은, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하기 위한 것이며;
상기 제1 획득 유닛(401)은, 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하기 위한 것이며, 적어도 하나의 매칭될 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득되고, 사이드 뷰 이미지 프레임은 검출 영역 측면에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득되며;
상기 제2 결정 유닛(402)은, 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하기 위한 것이며, 상기 관련 이미지 프레임은 상기 변화 대상과 가장 높은 관련도를 갖는 간섭 부위를 포함하며;
상기 제2 획득 유닛(403)은, 사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하기 위한 것이며, 사이드 뷰 이미지 프레임은 상기 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함하며;
상기 제3 결정 유닛(404)은, 관련 이미지 프레임과 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하기 위한 것이다.
일부 실시예에서, 상기 이미지 인식 장치(4)는 제3 획득 유닛, 제4 획득 유닛 및 제1 관련 유닛을 더 포함하고, 여기서,
상기 제3 획득 유닛은, 상기 사이드 뷰 이미지 프레임으로부터 상기 변화 대상의 측면 이미지를 획득하기 위한 것이며;
상기 제4 획득 유닛은, 상기 변화 대상의 측면 이미지에 따라, 상기 변화 대상의 대상 값을 획득하기 위한 것이며, 상기 대상 값은 상기 변화 대상을 구성하는 적어도 하나의 서브 변화 대상 값의 합이고, 상기 변화 대상의 측면 이미지는 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지를 포함하고, 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지는 상이한 값을 나타내며;
상기 제1 관련 유닛은, 상기 타겟 간섭 대상과 상기 대상 값을 관련시키기 위한 것이다.
일부 실시예에서, 상기 제2 결정 유닛(402)은 인식 유닛, 조합 유닛, 제1 결정 서브 유닛 및 제2 결정 서브 유닛을 포함하며,
상기 인식 유닛은, 상기 적어도 하나의 매칭될 이미지 프레임의 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식하기 위한 것이며, 상기 적어도 하나의 간섭 부위는 상기 적어도 하나의 간섭 대상이 하나의 매칭될 이미지 프레임에 나타난 부위이며;
상기 조합 유닛은, 상기 변화 대상을 인식된 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻기 위한 것이며;
상기 제1 결정 서브 유닛은, 상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하기 위한 것이며, 여기서, 상기 관련도가 가장 높은 조합에서의 간섭 부위는 타겟 간섭 부위이며;
상기 제2 결정 서브 유닛은, 또한 상기 관련도가 가장 높은 조합에서의 간섭 부위가 위치한 매칭될 이미지 프레임을, 상기 관련 이미지 프레임으로 사용하기 위한 것이다.
일부 실시예에서, 상기 제3 결정 유닛(404)은 융합 유닛, 제2 관련 유닛 및 제3 결정 서브 유닛을 포함하며, 여기서,
상기 융합 유닛은, 상기 관련 이미지 프레임과 상기 사이드 뷰 이미지 프레임에 대해 이미지 융합을 수행하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지를 얻기 위한 것이며, 상기 타겟 간섭 부위의 사이드 뷰 이미지는 상기 사이드 뷰 이미지 프레임에서의 상기 타겟 간섭 부위의 이미지이며;
상기 제2 관련 유닛은, 상기 사이드 뷰 이미지 프레임에 기반하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지와 관련된 타겟 간섭 대상의 사이드 뷰 이미지를 얻기 위한 것이며, 상기 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상 중 각각의 사이드 뷰 이미지를 포함하며;
상기 제3 결정 서브 유닛은, 상기 타겟 간섭 대상의 사이드 뷰 이미지에 따라, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계에서, 상기 타겟 간섭 대상의 신원 정보를 결정하기 위한 것이다.
일부 실시예에서, 상기 제1 결정 서브 유닛은,
상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득하기 위한 제5 획득 유닛;
상기 거리로부터 최소 거리를 결정하기 위한 제4 결정 서브 유닛;
상기 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 상기 관련도가 가장 높은 조합으로 사용하기 위한 제5 결정 서브 유닛을 더 포함한다.
일부 실시예에서, 상기 제4 결정 서브 유닛은,
상기 거리에 대해 역계산을 수행하여, 상기 거리에서 각 거리의 계산 결과를 얻고;
상기 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를 상기 최소 거리로 결정하기 위한 것이다.
일부 실시예에서, 상기 제1 결정 서브 유닛은 제6 획득 유닛, 제7 획득 유닛, 비교 유닛 및 제6 결정 서브 유닛을 더 포함하며, 여기서,
상기 제6 획득 유닛은, 인식된 각 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득하기 위한 것이며;
상기 제7 획득 유닛은, 상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서, 각 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적을 획득하기 위한 것이며, 하나의 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적은 상기 조합에서의 간섭 부위와 변화 대상을 연결하는 궤적이며;
상기 비교 유닛은, 각 실제 이동 궤적과 각 시뮬레이션 이동 궤적 사이의 유사도를 비교하기 위한 것이며;
상기 제6 결정 서브 유닛은, 하나의 실제 이동 궤적과 유사도가 가장 높은 시뮬레이션 이동 궤적에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 결정하기 위한 것이다.
일부 실시예에서, 상기 제6 획득 유닛은 제8 획득 유닛, 제9 획득 유닛, 제10 획득 유닛 및 연결 유닛을 포함하며, 여기서,
상기 제8 획득 유닛은, 상기 타겟 대상의 상태에 변화가 발생할 때의 트리거 시점을 획득하기 위한 것이며;
상기 제9 획득 유닛은, 상기 트리거 시점 전의 제2 기설정 시간 내에 수집된 적어도 하나의 이동 궤적 이미지 프레임을 획득하기 위한 것이며, 상기 적어도 하나의 이동 궤적 이미지 프레임은 상기 검출 영역 상측에 위치한 이미지 수집 기기에 의해 획득되며;
상기 제10 획득 유닛은, 상기 적어도 하나의 이동 궤적 이미지 프레임에서의 인식된 각 간섭 부위의 대응하는 위치 정보를 획득하기 위한 것이며;
상기 연결 유닛은, 상기 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스에 따라, 상기 위치 정보를 벡터화 연결하여, 인식된 각 간섭 부위의 실제 이동 궤적을 얻기 위한 것이다.
일부 실시예에서, 상기 이미지 인식 장치(4)는 제1 모니터링 유닛을 더 포함하며, 여기서,
상기 제1 모니터링 유닛은, 상기 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 상기 검출 영역에 한 그룹의 새로운 타겟 대상이 나타난 것을 모니터링하거나, 상기 검출 영역의 임의의 적어도 한 그룹의 원래 타겟 대상이 사라진 것을 검출할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하기 위한 것이다.
일부 실시예에서, 상기 적어도 한 그룹의 타겟 대상은 적어도 하나의 서브 대상을 적층함으로써 형성된 적어도 한 그룹의 타겟 대상이고, 상기 이미지 인식 장치(4)는 제2 모니터링 유닛을 더 포함하며, 여기서,
상기 제2 모니터링 유닛은, 상기 검출 영역 측면에 위치한 이미지 수집 기기를 통해, 상기 적어도 한 그룹의 타겟 대상 중의 임의의 한 그룹의 타겟 대상에 포함된 서브 대상의 개수 또는 외관에 변화가 발생한 것을 모니터링할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하기 위한 것이다.
설명해야 할 것은, 실제 응용에서, 상기 제1 결정 유닛(400), 제1 획득 유닛(401), 제2 결정 유닛(402), 제2 획득 유닛(403) 및 제3 결정 유닛(404)은 이미지 인식 장치(2)에 위치한 프로세서(54)에 의해 구현되며, 구체적으로 중앙처리장치(Central Processing Unit, CPU), 마이크로 프로세서 (Microprocessor Unit, MPU), 디지털 신호 처리(Digital Signal Processing, DSP) 프로세서 또는 현장 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 등으로 구현된다.
본 발명의 실시예는 이미지 인식 방법에 대응하는 이미지 인식 장치를 제공하며; 도 8은 본 발명의 실시예에서 제공한 이미지 인식 장치의 구조 모식도 2이며, 도 8에 도시된 바와 같이, 상기 이미지 인식 장치(5)는, 프로세서(54), 메모리(55) 및 통신 버스(56)를 포함하며, 메모리(55)는 통신 버스(56)를 통해 프로세서(54)와 통신하며, 메모리(55)는 프로세서(54)에서 실행 가능한 하나 또는 복수 개의 프로그램을 저장하며, 하나 또는 복수 개의 프로그램이 실행될 때, 프로세서(54)를 통해 전술한 실시예의 임의의 이미지 인식 방법을 실행한다.
이해할 수 있는 것은, 본 발명의 실시예에서, 이미지 인식 장치는 조감도로부터 정확도가 더 높은 타겟 간섭 부위 정보를 획득할 수 있으며, 이미지 융합을 통해, 조감도에서의 타겟 간섭 부위의 정보를 사이드 뷰 각도에서의 간섭 대상의 완전한 측면 정보와 결합시킴으로써, 조감도에서의 타겟 간섭 부위 정보를 사이드 뷰 각도에서의 타겟 간섭 대상의 측면 정보와 관련시키는 것을 구현하고, 더 나아가, 미리 저장된 간섭 대상의 이미지 정보와 관련시킴으로써, 타겟 간섭 대상의 인식 정확도를 향상시킨다.
본 발명의 실시예는 하나 또는 복수 개의 프로그램이 저장된 컴퓨터 판독 가능한 저장 매체를 제공하였고, 하나 또는 복수 개의 프로그램이 하나 또는 복수 개의 프로세서(54)에 의해 실행될 때, 본 발명의 실시예의 이미지 인식 방법을 구현한다.
당업자는 본 발명의 실시예는 방법, 시스템 또는 컴퓨터 프로그램 제품으로 제공될 수 있음을 알아야 한다. 따라서, 본 발명은 하드웨어 실시예, 소프트웨어 실시예, 또는 소프트웨어 및 하드웨어 측면을 결합한 실시예의 형태를 채택할 수 있다. 또한, 본 발명은 컴퓨터 사용 가능한 프로그램 코드를 포함하는 하나 또는 복수 개의 컴퓨터 사용 가능한 매체(자기 디스크 메모리 및 광학 메모리 등을 포함하지만 이에 한정되지 않음) 상에서 실시되는 컴퓨터 프로그램 제품의 형태를 채택할 수 있다.
본 발명은 본 발명의 실시예의 방법, 기기(시스템), 및 컴퓨터 프로그램 제품에 따른 흐름도 및 블록도 중 적어도 하나를 참조하여 설명된다. 이해해야 할 것은, 컴퓨터 프로그램 명령어에 의해 흐름도의 각 흐름 및 블록도의 각 블록 중 적어도 하나, 및 흐름도의 흐름 및 블록도의 블록 중 적어도 하나의 결합을 구현할 수 있다. 이러한 컴퓨터 프로그램 명령어를 범용 컴퓨터, 전용 컴퓨터, 임베디드 처리기 또는 다른 프로그래머블 데이터 처리 기기의 프로세서에 제공하여 하나의 기계를 생성할 수 있으므로, 컴퓨터 또는 다른 프로그래머블 데이터 처리 기기의 프로세서를 통해 수행된 명령어로 하여금 흐름도의 하나의 흐름 또는 복수 개의 흐름 및 블록도의 하나의 블록 또는 복수 개의 블록 중 적어도 하나의 기능을 구현하기 위한 장치를 생성하도록 한다.
이러한 컴퓨터 프로그램 명령어는 컴퓨터나 다른 프로그래머블 데이터 처리 기기를 특정 방식으로 동작하도록 유도할 수 있는 컴퓨터 판독 가능 메모리에 저장될 수 있어, 상기 컴퓨터 판독 가능 메모리에 저장된 명령 내의 명령어를 통해 명령어 장치를 포함한 제조품을 생성하도록 하며, 상기 명령어 장치는 흐름도에서 하나의 흐름 또는 복수 개의 흐름 및 블록도의 하나의 블록 또는 복수 개의 블록 중 지정된 기능을 구현한다.
이러한 컴퓨터 프로그램 명령어는 컴퓨터 또는 다른 프로그래머블 데이터 처리 기기에 로딩되어, 컴퓨터 구현의 처리를 구현하기 위해, 컴퓨터 또는 다른 프로그래머블 기기 상에서 일련의 동작을 수행하므로, 컴퓨터 또는 다른 프로그래머블 기기 상에서 수행되는 명령어는 흐름도의 하나의 흐름 또는 복수 개의 흐름 및 블록도의 하나의 블록 중 적어도 하나에서 지정된 기능을 구현하기 위한 단계를 제공한다.
상술한 설명은, 본 발명의 바람직한 실시예일 뿐이지, 본 발명의 보호범위를 한정하려는 것은 아니다.

Claims (23)

  1. 이미지 인식 방법으로서,
    검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하는 단계;
    상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하는 단계 - 상기 적어도 하나의 매칭될 이미지 프레임은 상기 검출 영역 상측에 위치한 이미지 수집 기기에 의해 상기 검출 영역의 적어도 하나의 이미지를 수집하여 획득되며, 상기 사이드 뷰 이미지 프레임은 상기 검출 영역 측면에 위치한 이미지 수집 기기에 의해 상기 검출 영역의 이미지를 수집하여 획득됨 - ;
    상기 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하는 단계 - 상기 관련 이미지 프레임은 상기 변화 대상과 가장 높은 관련도를 갖는 간섭 부위를 포함함 - ;
    상기 사이드 뷰 이미지 프레임 세트로부터, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하는 단계 - 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 상기 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함함 - ; 및
    상기 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 상기 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  2. 제1항에 있어서,
    상기 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 상기 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정한 후에, 상기 이미지 인식 방법은,
    상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임으로부터 상기 변화 대상의 측면 이미지를 획득하는 단계;
    상기 변화 대상의 측면 이미지에 따라, 상기 변화 대상의 대상 값을 획득하는 단계 - 상기 대상 값은 상기 변화 대상을 구성하는 적어도 하나의 서브 변화 대상 값의 합이고, 상기 변화 대상의 측면 이미지는 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지를 포함하고, 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지는 상이한 값을 나타냄 - ; 및
    상기 타겟 간섭 대상과 상기 대상 값을 관련시키는 단계를 더 포함하는 것을 특징으로 하는 이미지 인식 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하는 단계는,
    상기 적어도 하나의 매칭될 이미지 프레임의 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식하는 단계 - 상기 적어도 하나의 간섭 부위는 상기 적어도 하나의 간섭 대상이 하나의 매칭될 이미지 프레임에 나타난 부위임 - ;
    상기 변화 대상을 인식된 적어도 하나의 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻는 단계;
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 단계 - 상기 관련도가 가장 높은 조합에서의 간섭 부위는 타겟 간섭 부위임 - ; 및
    상기 관련도가 가장 높은 조합에서의 간섭 부위가 위치한 매칭될 이미지 프레임을, 상기 관련 이미지 프레임으로 사용하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  4. 제3항에 있어서,
    상기 관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 상기 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하는 단계는,
    상기 관련 이미지 프레임을 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임과 이미지 융합하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지를 얻는 단계 - 상기 타겟 간섭 부위의 사이드 뷰 이미지는 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 위치한 상기 타겟 간섭 부위의 이미지임 - ;
    상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지와 관련된 타겟 간섭 대상의 사이드 뷰 이미지를 얻는 단계 - 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상의 사이드 뷰 이미지를 포함함 - ; 및
    상기 타겟 간섭 대상의 사이드 뷰 이미지에 따라, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계에서, 상기 타겟 간섭 대상의 신원 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  5. 제3항에 있어서,
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 단계는,
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득하는 단계;
    상기 거리로부터 최소 거리를 결정하는 단계; 및
    상기 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 상기 관련도가 가장 높은 조합으로 사용하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  6. 제5항에 있어서,
    상기 거리로부터 최소 거리를 결정하는 단계는,
    상기 거리에 대해 역계산을 수행하여, 상기 거리에서 각 거리의 계산 결과를 얻는 단계; 및
    상기 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를 상기 최소 거리로 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  7. 제3항에 있어서,
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하는 단계는,
    인식된 상기 적어도 하나의 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득하는 단계;
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서, 각 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적을 획득하는 단계 - 하나의 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적은 상기 조합에서의 간섭 부위와 변화 대상을 연결하는 궤적임 - ;
    각 실제 이동 궤적과 각 시뮬레이션 이동 궤적 사이의 유사도를 비교하는 단계; 및
    하나의 실제 이동 궤적과 유사도가 가장 높은 시뮬레이션 이동 궤적에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  8. 제7항에 있어서,
    인식된 상기 적어도 하나의 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득하는 단계는,
    상기 타겟 대상의 상태에 변화가 발생할 때의 트리거 시점을 획득하는 단계;
    상기 트리거 시점 전의 제2 기설정 시간 내에 수집된 적어도 하나의 이동 궤적 이미지 프레임을 획득하는 단계 - 상기 적어도 하나의 이동 궤적 이미지 프레임은 상기 검출 영역 상측에 위치한 이미지 수집 기기에 의해 획득됨 - ;
    상기 적어도 하나의 이동 궤적 이미지 프레임에서의 인식된 각 간섭 부위의 대응하는 위치 정보를 획득하는 단계; 및
    상기 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스에 따라, 상기 위치 정보를 벡터화 연결하여, 인식된 적어도 하나의 간섭 부위의 실제 이동 궤적을 얻는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  9. 제1항에 있어서,
    상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화 단계는,
    상기 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 상기 검출 영역에 한 그룹의 새로운 타겟 대상이 나타난 것을 모니터링하거나, 상기 검출 영역의 임의의 적어도 한 그룹의 원래 타겟 대상이 사라진 것을 검출할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  10. 제1항에 있어서,
    상기 적어도 한 그룹의 타겟 대상은 적어도 하나의 서브 대상을 적층함으로써 형성되고,
    상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화 단계는,
    상기 검출 영역 측면에 위치한 이미지 수집 기기를 통해, 상기 적어도 한 그룹의 타겟 대상 중의 임의의 한 그룹의 타겟 대상에 포함된 서브 대상의 개수 또는 외관에 변화가 발생한 것을 모니터링할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 인식 방법.
  11. 이미지 인식 장치로서,
    검출 영역의 적어도 한 그룹의 타겟 대상의 상태 변화에 따라, 변화 대상을 결정하기 위한 제1 결정 유닛;
    검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생하기 전의 제1 기설정 시간 내에 수집된 사이드 뷰 이미지 프레임으로 구성된 사이드 뷰 이미지 프레임 세트 및 적어도 하나의 매칭될 이미지 프레임을 획득하기 위한 제1 획득 유닛 - 적어도 하나의 매칭될 이미지 프레임은 검출 영역 상측에 위치한 이미지 수집 기기에 의해 검출 영역의 적어도 하나의 이미지를 수집함으로써 획득되고, 사이드 뷰 이미지 프레임은 검출 영역 측면에 위치한 이미지 수집 기기에 의해 검출 영역의 이미지를 수집함으로써 획득됨 - ;
    적어도 하나의 매칭될 이미지 프레임으로부터, 관련 이미지 프레임을 결정하기 위한 제2 결정 유닛 - 상기 관련 이미지 프레임은 상기 변화 대상과 가장 높은 관련도를 갖는 간섭 부위를 포함함 - ;
    사이드 뷰 이미지 프레임 세트로부터, 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임을 획득하기 위한 제2 획득 유닛 - 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 상기 변화 대상과 관련도가 가장 높은 간섭 부위 및 적어도 하나의 간섭 대상을 포함함 - ; 및
    관련 이미지 프레임과 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 적어도 하나의 간섭 대상으로부터 변화 대상과 관련도가 가장 높은 타겟 간섭 대상을 결정하기 위한 제3 결정 유닛을 포함하는 것을 특징으로 하는 이미지 인식 장치.
  12. 제11항에 있어서,
    상기 이미지 인식 장치는 제3 획득 유닛, 제4 획득 유닛 및 제1 관련 유닛을 더 포함하며,
    상기 제3 획득 유닛은, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임으로부터 상기 변화 대상의 측면 이미지를 획득하기 위한 것이며;
    상기 제4 획득 유닛은, 상기 변화 대상의 측면 이미지에 따라, 상기 변화 대상의 대상 값을 획득하기 위한 것이며 - 상기 대상 값은 상기 변화 대상을 구성하는 적어도 하나의 서브 변화 대상 값의 합이고, 상기 변화 대상의 측면 이미지는 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지를 포함하고, 상기 적어도 하나의 서브 변화 대상 중 각각의 측면 이미지는 상이한 값을 나타냄 - ;
    상기 제1 관련 유닛은, 상기 타겟 간섭 대상과 상기 대상 값을 관련시키기 위한 것임을 특징으로 하는 이미지 인식 장치.
  13. 제11항 또는 제12항에 있어서,
    상기 제2 결정 유닛은 인식 유닛, 조합유닛, 제1 결정 서브 유닛 및 제2 결정 서브 유닛을 포함하며,
    상기 인식 유닛은, 상기 적어도 하나의 매칭될 이미지 프레임의 각 매칭될 이미지 프레임으로부터 적어도 하나의 간섭 부위를 인식하기 위한 것이고 - 상기 적어도 하나의 간섭 부위는 상기 적어도 하나의 간섭 대상이 하나의 매칭될 이미지 프레임에 나타난 부위임 - ;
    상기 조합 유닛은, 상기 변화 대상을 인식된 적어도 하나의 간섭 부위와 하나씩 조합하여, 적어도 한 그룹의 변화 대상과 간섭 부위의 조합을 얻기 위한 것이며;
    상기 제1 결정 서브 유닛은, 상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합으로부터 관련도가 가장 높은 조합을 결정하기 위한 것이며 - 상기 관련도가 가장 높은 조합에서의 간섭 부위는 타겟 간섭 부위임 - ;
    상기 제2 결정 서브 유닛은, 상기 관련도가 가장 높은 조합에서의 간섭 부위가 위치한 매칭될 이미지 프레임을, 상기 관련 이미지 프레임으로 사용하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  14. 제13항에 있어서,
    상기 제3 결정 유닛은 융합 유닛, 제2 관련 유닛 및 제3 결정 서브 유닛을 포함하며,
    상기 융합 유닛은, 상기 관련 이미지 프레임을 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임과 이미지 융합하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지를 얻기 위한 것이며 - 상기 타겟 간섭 부위의 사이드 뷰 이미지는 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 위치한 상기 타겟 간섭 부위의 이미지임 - ;
    상기 제2 관련 유닛은, 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임에 기반하여, 상기 타겟 간섭 부위의 사이드 뷰 이미지와 관련된 타겟 간섭 대상의 사이드 뷰 이미지를 얻기 위한 것이며 - 상기 관련 이미지 프레임에 대응하는 사이드 뷰 이미지 프레임은 적어도 하나의 간섭 대상의 사이드 뷰 이미지를 포함함 - ;
    상기 제3 결정 서브 유닛은, 상기 타겟 간섭 대상의 사이드 뷰 이미지에 따라, 미리 저장된 간섭 대상의 이미지와 간섭 대상의 신원 정보의 대응 관계에서, 상기 타겟 간섭 대상의 신원 정보를 결정하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  15. 제13항에 있어서,
    상기 제1 결정 서브 유닛은,
    상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서 각 조합의 변화 대상과 간섭 부위 사이의 거리를 획득하기 위한 제5 획득 유닛;
    상기 거리로부터 최소 거리를 결정하기 위한 제4 결정 서브 유닛; 및
    상기 최소 거리에 대응하는 변화 대상과 간섭 부위의 조합을, 상기 관련도가 가장 높은 조합으로 사용하기 위한 제5 결정 서브 유닛을 포함하는 것을 특징으로 하는 이미지 인식 장치.
  16. 제15항에 있어서,
    제4 결정 서브 유닛은,
    상기 거리에 대해 역계산을 수행하여, 상기 거리에서 각 거리의 계산 결과를 얻고;
    상기 계산 결과로부터 최대 계산 결과를 결정하여, 최대 계산 결과에 대응하는 거리를 상기 최소 거리로 결정하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  17. 제13항에 있어서,
    상기 제1 결정 서브 유닛은 제6 획득 유닛, 제7 획득 유닛, 비교 유닛 및 제6 결정 서브 유닛을 포함하며,
    상기 제6 획득 유닛은, 인식된 상기 적어도 하나의 간섭 부위에서 각 간섭 부위의 실제 이동 궤적을 획득하기 위한 것이며;
    상기 제7 획득 유닛은, 상기 적어도 한 그룹의 변화 대상과 간섭 부위의 조합에서, 각 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적을 획득하기 위한 것이며 - 하나의 조합에서의 간섭 부위로부터 변화 대상으로의 시뮬레이션 이동 궤적은 상기 조합에서의 간섭 부위와 변화 대상을 연결하는 궤적임 - ;
    상기 비교 유닛은, 각 실제 이동 궤적과 각 시뮬레이션 이동 궤적 사이의 유사도를 비교하기 위한 것이며;
    상기 제6 결정 서브 유닛은, 하나의 실제 이동 궤적과 유사도가 가장 높은 시뮬레이션 이동 궤적에 대응하는 변화 대상과 간섭 부위의 조합을, 관련도가 가장 높은 조합으로 결정하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  18. 제17항에 있어서,
    상기 제6 획득 유닛은 제8 획득 유닛, 제9 획득 유닛, 제10 획득 유닛 및 연결 유닛을 포함하며,
    상기 제8 획득 유닛은, 상기 타겟 대상의 상태에 변화가 발생할 때의 트리거 시점을 획득하기 위한 것이며;
    상기 제9 획득 유닛은, 상기 트리거 시점 전의 제2 기설정 시간 내에 수집된 적어도 하나의 이동 궤적 이미지 프레임을 획득하기 위한 것이며 - 상기 적어도 하나의 이동 궤적 이미지 프레임은 상기 검출 영역 상측에 위치한 이미지 수집 기기에 의해 획득됨 - ;
    상기 제10 획득 유닛은, 상기 적어도 하나의 이동 궤적 이미지 프레임에서의 인식된 각 간섭 부위의 대응하는 위치 정보를 획득하기 위한 것이며;
    상기 연결 유닛은, 상기 적어도 하나의 이동 궤적 이미지 프레임의 시간 시퀀스에 따라, 상기 위치 정보를 벡터화 연결하여, 인식된 상기 적어도 하나의 간섭 부위의 실제 이동 궤적을 얻기 위한 것임을 특징으로 하는 이미지 인식 장치.
  19. 제11항에 있어서,
    상기 이미지 인식 장치는 제1 모니터링 유닛을 더 포함하며,
    상기 제1 모니터링 유닛은, 상기 검출 영역 상측에 위치한 이미지 수집 기기를 통해, 상기 검출 영역에 한 그룹의 새로운 타겟 대상이 나타난 것을 모니터링하거나, 상기 검출 영역의 임의의 적어도 한 그룹의 원래 타겟 대상이 사라진 것을 검출할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  20. 제11항에 있어서,
    상기 적어도 한 그룹의 타겟 대상은 적어도 하나의 서브 대상을 적층함으로써 형성된 적어도 한 그룹의 타겟 대상이고, 상기 이미지 인식 장치는 제2 모니터링 유닛을 더 포함하며,
    상기 제2 모니터링 유닛은, 상기 검출 영역 측면에 위치한 이미지 수집 기기를 통해, 상기 적어도 한 그룹의 타겟 대상 중의 임의의 한 그룹의 타겟 대상에 포함된 서브 대상의 개수 또는 외관에 변화가 발생한 것을 모니터링할 경우, 상기 검출 영역의 적어도 한 그룹의 타겟 대상의 상태에 변화가 발생한 것으로 결정하기 위한 것임을 특징으로 하는 이미지 인식 장치.
  21. 이미지 인식 장치로서,
    상기 이미지 인식 장치는, 프로세서, 메모리 및 통신 버스를 포함하며, 상기 메모리는 상기 통신 버스를 통해 상기 프로세서와 통신하며, 상기 메모리는 상기 프로세서에 의해 실행 가능한 하나 또는 복수 개의 프로그램을 저장하며, 상기 하나 또는 복수 개의 프로그램이 실행될 때, 상기 프로세서는 제1항 내지 제10항 중 어느 한 항에 따른 방법을 실행하는 것을 특징으로 하는 이미지 인식 장치.
  22. 컴퓨터 판독 가능한 저장 매체로서,
    상기 컴퓨터 판독 가능한 저장 매체는 하나 또는 복수 개의 프로그램을 저장하고, 상기 하나 또는 복수 개의 프로그램은 하나 또는 복수 개의 프로세서에 의해 실행되어 제1항 내지 제10항 중 어느 한 항에 따른 이미지 인식 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
  23. 컴퓨터 프로그램 제품으로서,
    컴퓨터 실행 가능한 명령어를 포함하며, 상기 컴퓨터 실행 가능한 명령어가 기기의 프로세서에서 실행될 경우, 상기 프로세서는 제1항 내지 제10항 중 어느 한 항에 따른 이미지 인식 방법의 단계를 실행하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
KR1020207015753A 2019-12-31 2020-04-17 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체 KR102421605B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201913955V 2019-12-31
SG10201913955VA SG10201913955VA (en) 2019-12-31 2019-12-31 Image recognition method and apparatus, and computer-readable storage medium
PCT/IB2020/053639 WO2021136980A1 (en) 2019-12-31 2020-04-17 Image recognition method and apparatus, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
KR20210088437A true KR20210088437A (ko) 2021-07-14
KR102421605B1 KR102421605B1 (ko) 2022-07-15

Family

ID=76687149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207015753A KR102421605B1 (ko) 2019-12-31 2020-04-17 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체

Country Status (6)

Country Link
US (1) US11263762B2 (ko)
JP (1) JP7053856B2 (ko)
KR (1) KR102421605B1 (ko)
AU (1) AU2020294160B2 (ko)
SG (1) SG10201913955VA (ko)
WO (1) WO2021136980A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544740A (zh) * 2020-12-31 2021-10-22 商汤国际私人有限公司 识别操作事件的方法和装置
CN113487596A (zh) * 2021-07-26 2021-10-08 盛景智能科技(嘉兴)有限公司 工作强度确定方法、装置及电子设备
CN113642448B (zh) * 2021-08-09 2024-01-26 中国人民解放军海军航空大学航空作战勤务学院 一种空中平台对海/地面机动目标的图像识别方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
KR20110107692A (ko) * 2010-03-25 2011-10-04 동서대학교산학협력단 공간 멀티 인터랙션 기반 3차원 입체 인터랙티브 비전 시스템 및 그 방법
KR20170133441A (ko) * 2015-07-16 2017-12-05 구글 엘엘씨 비디오로부터의 영상 생성
US20190205933A1 (en) * 2018-01-03 2019-07-04 Grabango Co. Marketing and couponing in a retail environment using computer vision

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2004248872A1 (en) 2003-06-26 2004-12-29 Tangam Gaming Technology Inc. System, apparatus and method for automatically tracking a table game
US7901285B2 (en) * 2004-05-07 2011-03-08 Image Fidelity, LLC Automated game monitoring
US20070111773A1 (en) * 2005-11-15 2007-05-17 Tangam Technologies Inc. Automated tracking of playing cards
US9189918B1 (en) * 2011-05-17 2015-11-17 Bally Gaming, Inc. Camera for player authentication and monitoring of wagering game tables
US20140092241A1 (en) * 2012-10-01 2014-04-03 Miami University Device and method for scanning of books and other items for order and inventory control
JP6155149B2 (ja) * 2013-06-07 2017-06-28 株式会社Windy 薬剤ピッキング検査等に適したピッキング薬剤特定システム
US20160203499A1 (en) * 2013-09-06 2016-07-14 Nec Corporation Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP2015191518A (ja) * 2014-03-28 2015-11-02 株式会社ニコン 電子機器
US9858718B2 (en) * 2015-01-27 2018-01-02 Microsoft Technology Licensing, Llc Dynamically adaptable virtual lists
US10062005B2 (en) * 2015-03-17 2018-08-28 Teledyne Scientific & Imaging, Llc Multi-scale correspondence point matching using constellation of image chips
DE102016108969A1 (de) * 2016-05-13 2017-11-16 Dallmeier Electronic Gmbh & Co. Kg System und Verfahren zur Erfassung und Analyse von Videodaten betreffend den Spielverlauf auf einem Glückspieltisch in Kasinos
JP6195331B1 (ja) * 2017-04-28 2017-09-13 株式会社 テクノミライ デジタルスマートセキュリティシステム、方法及びプログラム
US11049373B2 (en) * 2017-08-25 2021-06-29 Nec Corporation Storefront device, storefront management method, and program
US10460468B2 (en) 2017-12-15 2019-10-29 Motorola Mobility Llc User pose and item correlation
JP7250443B2 (ja) 2018-06-19 2023-04-03 東芝テック株式会社 画像処理装置
US11069070B2 (en) 2018-07-16 2021-07-20 Accel Robotics Corporation Self-cleaning autonomous store
US10282852B1 (en) 2018-07-16 2019-05-07 Accel Robotics Corporation Autonomous store tracking system
CN110266926B (zh) 2019-06-28 2021-08-17 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端以及存储介质
CN110347772A (zh) 2019-07-16 2019-10-18 北京百度网讯科技有限公司 物品状态检测方法、装置及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
KR20110107692A (ko) * 2010-03-25 2011-10-04 동서대학교산학협력단 공간 멀티 인터랙션 기반 3차원 입체 인터랙티브 비전 시스템 및 그 방법
KR20170133441A (ko) * 2015-07-16 2017-12-05 구글 엘엘씨 비디오로부터의 영상 생성
US20190205933A1 (en) * 2018-01-03 2019-07-04 Grabango Co. Marketing and couponing in a retail environment using computer vision

Also Published As

Publication number Publication date
JP7053856B2 (ja) 2022-04-12
AU2020294160A1 (en) 2021-07-29
US11263762B2 (en) 2022-03-01
JP2022518982A (ja) 2022-03-18
KR102421605B1 (ko) 2022-07-15
SG10201913955VA (en) 2021-07-29
US20210201506A1 (en) 2021-07-01
AU2020294160B2 (en) 2021-11-18
WO2021136980A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
KR102421605B1 (ko) 이미지 인식 방법 및 장치, 컴퓨터 판독 가능한 저장 매체
CN109446942B (zh) 目标跟踪方法、装置和系统
Shao et al. Crowdhuman: A benchmark for detecting human in a crowd
CN102945366B (zh) 一种人脸识别的方法及装置
JP6148480B2 (ja) 画像処理装置、画像処理方法
CN107506684A (zh) 步态识别方法及装置
JP6254836B2 (ja) 画像検索装置、画像検索装置の制御方法およびプログラム
CN110418114A (zh) 一种对象跟踪方法、装置、电子设备及存储介质
CN111815674B (zh) 一种目标跟踪方法、装置以及计算机可读存储装置
CN106570478A (zh) 视觉跟踪中的目标丢失判断方法和装置
CN111209870A (zh) 一种双目活体摄像头快速配准方法及其系统和装置
CN109376686A (zh) 一种多维度人脸数据采集方案、采集系统及采集方法
CN109074757A (zh) 一种建立地图的方法、终端和计算机可读存储介质
CN108614987A (zh) 数据处理的方法、装置和机器人
JP2011242873A (ja) 登録装置、登録方法及びコンピュータプログラム
CN109146913B (zh) 一种人脸跟踪方法及装置
CN114155488A (zh) 获取客流数据的方法、装置、电子设备以及存储介质
JP2019096062A (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
CN109492585B (zh) 一种活体检测方法和电子设备
JP2003178304A (ja) 顔画像検索装置、顔画像検索方法、およびその方法をコンピュータに実行させるプログラム
JP7383435B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112543935A (zh) 一种图像识别方法及装置、计算机可读存储介质
CN108305273B (zh) 一种对象检测方法、装置及存储介质
CN108263096A (zh) 丝印检测方法、装置、终端设备及存储介质
WO2023209809A1 (ja) 情報処理装置、情報処理方法、情報処理システム及び記録媒体

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant