KR20220098310A - 관련 대상 검출 방법 및 장치 - Google Patents
관련 대상 검출 방법 및 장치 Download PDFInfo
- Publication number
- KR20220098310A KR20220098310A KR1020217019168A KR20217019168A KR20220098310A KR 20220098310 A KR20220098310 A KR 20220098310A KR 1020217019168 A KR1020217019168 A KR 1020217019168A KR 20217019168 A KR20217019168 A KR 20217019168A KR 20220098310 A KR20220098310 A KR 20220098310A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- matching
- detection
- group
- matching target
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 263
- 230000000007 visual effect Effects 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000012545 processing Methods 0.000 claims description 40
- 230000004927 fusion Effects 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 230000036544 posture Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F3/00—Board games; Raffle games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F17/00—Coin-freed apparatus for hiring articles; Coin-freed facilities or services
- G07F17/32—Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Biodiversity & Conservation Biology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
도 1은 본 발명의 몇몇의 실시 형태에 관한 관련 대상 검출 방법의 플로우 차트이다.
도 2는 본 발명의 몇몇의 실시 형태에 관한 매칭 대상 그룹을 검출하는 방법의 플로우 차트이다.
도 3은 본 발명의 몇몇의 실시 형태에 관한 시각 정보 추출 방법의 플로우 차트이다.
도 4는 본 발명의 몇몇의 실시 형태에 관한 검출 네트워크의 구성을 나타내는 모식도이다.
도 5는 본 발명의 몇몇의 실시 형태에 관한 관련 대상 검출 방법의 원리 모식도이다.
도 6은 본 발명의 몇몇의 실시 형태에 관한 관련 검출 네트워크의 모식도이다.
도 7은 본 발명의 몇몇의 실시 형태에 관한 매칭 대상 그룹 중의 목표 대상이 관련되어 있는지 여부를 확정하는 방법의 플로우 차트이다.
도 8은 본 발명의 몇몇의 실시 형태에 관한 관련 대상의 검출 결과의 시각적 출력의 모식도이다.
도 9는 본 발명의 몇몇의 실시 형태에 관한 검출 관련 대상의 뉴럴 네트워크 트레이닝 플로우 모식도이다.
도 10은 본 발명의 몇몇의 실시 형태에 관한 관련 대상 검출 장치의 구성 블록도이다.
도 11은 본 발명의 몇몇의 실시 형태에 관한 관련 대상 검출 장치의 검출 모듈의 구성 블록도이다.
도 12는 본 발명의 몇몇의 실시 형태에 관한 관련 대상 검출 장치의 확정 모듈의 구성 블록도이다.
도 13은 본 발명의 관련 대상 검출 방법의 구현에 적합한 컴퓨터 시스템의 구성도이다.
Claims (20)
- 관련 대상 검출 방법으로서,
검출 대기 이미지 내에서 적어도 두 개의 목표 대상을 포함하는 매칭 대상 그룹을 적어도 하나 검출하여 얻는 것;
각 상기 매칭 대상 그룹 중의 각 상기 목표 대상의 시각 정보 및 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 공간 정보를 취득하는 것; 및
각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 시각 정보 및 상기 공간 정보에 기반하여, 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항에 있어서,
검출 대기 이미지 내에서 매칭 대상 그룹을 적어도 하나 검출하여 얻는 것은,
상기 검출 대기 이미지 내에서 각 상기 목표 대상 및 각 상기 목표 대상의 대상 타입을 검출하여 얻는 것; 및
상기 각 대상 타입에 대해, 상기 대상 타입 중의 각 목표 대상을 각각 기타 상기 대상 타입 중의 각 상기 목표 대상과 결합시켜 상기 매칭 대상 그룹을 적어도 하나 얻는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항에 있어서,
각 상기 매칭 대상 그룹 중의 각 상기 목표 대상의 시각 정보를 취득하는 것은,
상기 매칭 대상 그룹 중의 각 목표 대상에 대해 시각 특징 추출을 실행하여 상기 목표 대상의 시각 정보를 얻는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항에 있어서,
각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 공간 정보를 취득하는 것은,
상기 검출 대기 이미지 내에서 각 상기 목표 대상의 검출 프레임을 검출하여 얻는 것; 및
각 상기 매칭 대상 그룹에 대해, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 검출 프레임의 위치 정보에 기반하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 공간 정보를 생성하는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제4항에 있어서,
각 상기 매칭 대상 그룹에 대해, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 검출 프레임의 위치 정보에 기반하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 공간 정보를 생성하는 것은,
상기 매칭 대상 그룹 중의 각 목표 대상의 검출 프레임을 커버하는 상기 매칭 대상 그룹의 보조 바운딩 프레임을 생성하는 것;
상기 보조 바운딩 프레임 및 각 목표 대상의 검출 프레임에 기반하여, 상기 매칭 대상 그룹 중의 각 목표 대상의 위치 특징 정보를 각각 확정하는 것; 및
같은 매칭 대상 그룹 중의 각 목표 대상의 상기 위치 특징 정보를 융합하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 공간 정보를 얻는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제5항에 있어서,
상기 보조 바운딩 프레임은 상기 매칭 대상 그룹 중의 각 목표 대상을 커버하는 바운딩 프레임 중의 최소 면적을 가지는 바운딩 프레임인
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항 내지 제6항 중 어느 한 항에 있어서,
각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 시각 정보 및 상기 공간 정보에 기반하여, 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하는 것은,
각 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 시각 정보 및 상기 공간 정보에 대해 융합 처리를 실행하여, 각 매칭 대상 그룹의 융합 특징을 얻는 것; 및
각 매칭 대상 그룹의 융합 특징에 대해 관련성 분류 처리를 실행하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제7항에 있어서,
각 매칭 대상 그룹의 융합 특징에 대해 관련성 분류 처리를 실행하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하는 것은,
각 매칭 대상 그룹의 융합 특징에 대해 관련성 분류 처리를 실행하여, 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상들 사이의 관련도 스코어를 얻는 것;
같은 목표 대상이 속해 있는 복수의 매칭 대상 그룹에 대해, 상기 관련도 스코어가 가장 높은 매칭 대상 그룹을 목표 매칭 대상 그룹으로 확정하는 것; 및
상기 목표 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상을 관련 목표 대상으로 확정하는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항에 있어서,
상기 목표 대상이 인체 부위일 경우, 상기 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하는 것은,
같은 상기 매칭 대상 그룹 중의 각 인체 부위가 하나의 인체에 속하는지 여부를 확정하는 것을 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 제1항에 있어서,
샘플 이미지 세트를 취득하는 것 - 상기 샘플 이미지 세트는 적어도 하나의 샘플 이미지를 포함하고, 각 상기 샘플 이미지는 적어도 하나의 샘플 매칭 대상 그룹 및 상기 샘플 매칭 대상 그룹에 대응하는 라벨 정보를 포함하며, 각 상기 샘플 매칭 대상 그룹은 적어도 두 개의 샘플 목표 대상을 포함하고, 상기 라벨 정보는 상기 샘플 매칭 대상 그룹 중의 각 샘플 목표 대상의 관련 결과를 나타냄 -;
트레이닝 대기의 관련 검출 네트워크를 이용하여 상기 샘플 이미지에 대해 처리를 실행하고, 상기 샘플 이미지 내에서 상기 샘플 매칭 대상 그룹을 검출하여 얻는 것;
트레이닝 대기의 대상 검출 네트워크를 이용하여 상기 샘플 이미지에 대해 처리를 실행하여, 각 상기 샘플 매칭 대상 그룹 중의 각 상기 샘플 목표 대상의 시각 정보를 얻고, 트레이닝 대기의 상기 관련 검출 네트워크를 이용하여 상기 샘플 이미지에 대해 처리를 실행하여, 각 상기 샘플 매칭 대상 그룹 중의 상기 적어도 두 개의 샘플 목표 대상의 공간 정보를 얻는 것;
트레이닝 대기의 상기 관련 검출 네트워크를 이용하여 각 상기 샘플 매칭 대상 그룹 중의 상기 적어도 두 개의 샘플 목표 대상의 상기 시각 정보 및 상기 공간 정보에 기반하여, 각 상기 샘플 매칭 대상 그룹의 관련성 검출 결과를 얻는 것; 및
각 상기 샘플 매칭 대상 그룹의 상기 관련성 검출 결과와 대응하는 라벨 정보 사이의 오차를 확정하고, 상기 오차가 수렴될 때까지, 상기 오차에 기반하여 상기 관련 검출 네트워크 및 상기 대상 검출 네트워크 중의 적어도 하나의 네트워크 파라미터를 조정하는 것을 더 포함하는
것을 특징으로 하는, 관련 대상 검출 방법. - 관련 대상 검출 장치로서,
검출 대기 이미지 내에서 적어도 두 개의 목표 대상을 포함하는 매칭 대상 그룹을 적어도 하나 검출하여 얻기 위한 검출 모듈;
각 상기 매칭 대상 그룹 중의 각 상기 목표 대상의 시각 정보 및 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 공간 정보를 취득하기 위한 취득 모듈; 및
각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 시각 정보 및 상기 공간 정보에 기반하여, 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하기 위한 확정 모듈을 구비하는
것을 특징으로 하는, 관련 대상 검출 장치. - 제11항에 있어서,
상기 검출 모듈은,
상기 검출 대기 이미지 내에서 각 상기 목표 대상 및 각 상기 목표 대상의 대상 타입을 검출하여 얻기 위한 검출 서브 모듈; 및
상기 각 대상 타입에 대해, 상기 대상 타입 중의 각 목표 대상을 각각 기타 상기 대상 타입 중의 각 상기 목표 대상과 결합시켜 상기 매칭 대상 그룹을 적어도 하나 얻기 위한 조합 서브 모듈을 구비하는
것을 특징으로 하는, 관련 대상 검출 장치. - 제11항에 있어서,
상기 취득 모듈은 또한,
상기 매칭 대상 그룹 중의 각 목표 대상에 대해 시각 특징 추출을 실행하여 상기 목표 대상의 시각 정보를 얻는
것을 특징으로 하는, 관련 대상 검출 장치. - 제11항에 있어서,
상기 취득 모듈은 또한,
상기 검출 대기 이미지 내에서 각 상기 목표 대상의 검출 프레임을 검출하여 얻고,
각 상기 매칭 대상 그룹에 대해, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 검출 프레임의 위치 정보에 기반하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 공간 정보를 생성하는
것을 특징으로 하는, 관련 대상 검출 장치. - 제14항에 있어서,
상기 취득 모듈은 또한,
상기 매칭 대상 그룹 중의 각 목표 대상의 검출 프레임을 커버하는 상기 매칭 대상 그룹의 보조 바운딩 프레임을 생성하고,
상기 보조 바운딩 프레임 및 각 목표 대상의 검출 프레임에 기반하여, 상기 매칭 대상 그룹 중의 각 목표 대상의 위치 특징 정보를 각각 확정하며,
같은 매칭 대상 그룹 중의 각 목표 대상의 상기 위치 특징 정보를 융합하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 공간 정보를 얻는
것을 특징으로 하는, 관련 대상 검출 장치. - 제11항 내지 제15항 중 어느 한 항에 있어서,
상기 확정 모듈은,
각 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상의 상기 시각 정보 및 상기 공간 정보에 대해 융합 처리를 실행하여, 각 매칭 대상 그룹의 융합 특징을 얻기 위한 융합 서브 모듈; 및
각 매칭 대상 그룹의 융합 특징에 대해 관련성 분류 처리를 실행하여, 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상이 관련되어 있는지 여부를 확정하기 위한 확정 서브 모듈을 구비하는
것을 특징으로 하는, 관련 대상 검출 장치. - 제16항에 있어서,
상기 확정 서브 모듈은 또한,
각 매칭 대상 그룹의 융합 특징에 대해 관련성 분류 처리를 실행하여, 각 상기 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상들 사이의 관련도 스코어를 얻고,
같은 목표 대상이 속해 있는 복수의 매칭 대상 그룹에 대해, 상기 관련도 스코어가 가장 높은 매칭 대상 그룹을 목표 매칭 대상 그룹으로 확정하며,
상기 목표 매칭 대상 그룹 중의 상기 적어도 두 개의 목표 대상을 관련 목표 대상으로 확정하는
것을 특징으로 하는, 관련 대상 검출 장치. - 전자 디바이스로서,
프로세서; 및
상기 프로세서와 통신 가능하게 접속되고, 상기 프로세서에 의해 액세스 가능한 컴퓨터 명령이 기억되어 있는 메모리를 구비하고,
상기 컴퓨터 명령이 상기 프로세서에 의해 액세스될 때에, 상기 프로세서가 제1항 내지 제10항 중 어느 한 항에 기재된 방법을 실행하도록 하는
것을 특징으로 하는, 전자 디바이스. - 컴퓨터 판독 가능 명령이 기억되어 있는 기록 매체로서,
상기 컴퓨터 판독 가능 명령은 컴퓨터가 제1항 내지 제10항 중 어느 한 항에 기재된 방법을 실행하도록 하는
것을 특징으로 하는, 기록 매체. - 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램으로서,
상기 컴퓨터 판독 가능 코드가 전자 디바이스에 의해 실행될 때에, 상기 전자 디바이스의 프로세서가 제1항 내지 제10항 중 어느 한 항에 기재된 방법을 구현하도록 하는
것을 특징으로 하는, 컴퓨터 프로그램.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10202013169Q | 2020-12-29 | ||
SG10202013169Q | 2020-12-29 | ||
PCT/IB2021/053488 WO2022144601A1 (en) | 2020-12-29 | 2021-04-28 | Method and apparatus for detecting associated objects |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220098310A true KR20220098310A (ko) | 2022-07-12 |
KR102580281B1 KR102580281B1 (ko) | 2023-09-18 |
Family
ID=78092818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217019168A KR102580281B1 (ko) | 2020-12-29 | 2021-04-28 | 관련 대상 검출 방법 및 장치 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220207261A1 (ko) |
JP (1) | JP2023512359A (ko) |
KR (1) | KR102580281B1 (ko) |
CN (1) | CN113544701B (ko) |
AU (1) | AU2021203870A1 (ko) |
PH (1) | PH12021551379A1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114283449A (zh) * | 2021-12-22 | 2022-04-05 | 北京市商汤科技开发有限公司 | 安全状态检测方法和装置 |
CN114973334A (zh) * | 2022-07-29 | 2022-08-30 | 浙江大华技术股份有限公司 | 人体部件关联方法、装置、电子装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200136034A (ko) * | 2018-09-10 | 2020-12-04 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 이미지 처리 방법, 장치, 단말 기기, 서버 및 시스템 |
KR20200137129A (ko) * | 2019-05-29 | 2020-12-09 | 에스케이텔레콤 주식회사 | 관계형 질의를 이용한 객체 검출방법 및 그 장치 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080263592A1 (en) * | 2007-04-18 | 2008-10-23 | Fuji Xerox Co., Ltd. | System for video control by direct manipulation of object trails |
WO2012014590A1 (ja) * | 2010-07-28 | 2012-02-02 | パイオニア株式会社 | 映像処理装置及び方法 |
JP5865784B2 (ja) * | 2012-06-05 | 2016-02-17 | 日立アプライアンス株式会社 | 空気調和機 |
JP2015176253A (ja) * | 2014-03-13 | 2015-10-05 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP6364101B1 (ja) * | 2017-01-31 | 2018-07-25 | 森ビル株式会社 | 空中監視装置、空中監視方法及びプログラム |
US10740617B2 (en) * | 2017-12-19 | 2020-08-11 | Intel Corporation | Protection and recovery of identities in surveillance camera environments |
CN108710885B (zh) * | 2018-03-29 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 目标对象的检测方法和装置 |
CN110163889A (zh) * | 2018-10-15 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、目标跟踪装置、目标跟踪设备 |
JP7192582B2 (ja) * | 2019-03-11 | 2022-12-20 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
CN110533685B (zh) * | 2019-08-30 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 对象跟踪方法和装置、存储介质及电子装置 |
CN110705478A (zh) * | 2019-09-30 | 2020-01-17 | 腾讯科技(深圳)有限公司 | 人脸跟踪方法、装置、设备及存储介质 |
CN110717476A (zh) * | 2019-10-22 | 2020-01-21 | 上海眼控科技股份有限公司 | 图像处理方法、装置、计算机设备和计算机可读存储介质 |
CN111091091A (zh) * | 2019-12-16 | 2020-05-01 | 北京迈格威科技有限公司 | 目标对象重识别特征的提取方法、装置、设备及存储介质 |
CN111178261B (zh) * | 2019-12-30 | 2023-05-16 | 武汉恩智电子科技有限公司 | 一种基于视频编码技术的人脸检测加速方法 |
CN111754368A (zh) * | 2020-01-17 | 2020-10-09 | 天津师范大学 | 一种高校教学评估方法及基于边缘智能的高校教学评估系统 |
CN111275002A (zh) * | 2020-02-18 | 2020-06-12 | 上海商汤临港智能科技有限公司 | 一种图像处理方法、装置及电子设备 |
US10846857B1 (en) * | 2020-04-20 | 2020-11-24 | Safe Tek, LLC | Systems and methods for enhanced real-time image analysis with a dimensional convolution concept net |
CN111709974B (zh) * | 2020-06-22 | 2022-08-02 | 苏宁云计算有限公司 | 基于rgb-d图像的人体跟踪方法及装置 |
US20230222844A1 (en) * | 2020-12-26 | 2023-07-13 | Xi'an Creation Keji Co., Ltd. | Parking lot management and control method based on object activity prediction, and electronic device |
-
2021
- 2021-04-28 KR KR1020217019168A patent/KR102580281B1/ko active IP Right Grant
- 2021-04-28 JP JP2021536266A patent/JP2023512359A/ja not_active Ceased
- 2021-04-28 PH PH1/2021/551379A patent/PH12021551379A1/en unknown
- 2021-04-28 AU AU2021203870A patent/AU2021203870A1/en not_active Abandoned
- 2021-04-28 CN CN202180001429.0A patent/CN113544701B/zh active Active
- 2021-06-11 US US17/345,469 patent/US20220207261A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200136034A (ko) * | 2018-09-10 | 2020-12-04 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 이미지 처리 방법, 장치, 단말 기기, 서버 및 시스템 |
KR20200137129A (ko) * | 2019-05-29 | 2020-12-09 | 에스케이텔레콤 주식회사 | 관계형 질의를 이용한 객체 검출방법 및 그 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP2023512359A (ja) | 2023-03-27 |
AU2021203870A1 (en) | 2022-07-14 |
US20220207261A1 (en) | 2022-06-30 |
CN113544701B (zh) | 2024-06-14 |
KR102580281B1 (ko) | 2023-09-18 |
PH12021551379A1 (en) | 2023-01-09 |
CN113544701A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229353B (zh) | 人体图像的分类方法和装置、电子设备、存储介质、程序 | |
CN108229282A (zh) | 关键点检测方法、装置、存储介质及电子设备 | |
CN112329663B (zh) | 一种基于人脸图像序列的微表情时刻检测方法及装置 | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
CN108229300B (zh) | 视频分类方法、装置、计算机可读存储介质和电子设备 | |
CN111080670A (zh) | 图像提取方法、装置、设备及存储介质 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
KR102580281B1 (ko) | 관련 대상 검출 방법 및 장치 | |
CN112907569A (zh) | 头部图像区域的分割方法、装置、电子设备和存储介质 | |
CN113744316A (zh) | 一种基于深度神经网络的多目标跟踪方法 | |
Zhang et al. | A light dual-task neural network for haze removal | |
CN111784658B (zh) | 一种用于人脸图像的质量分析方法和系统 | |
CN114549867B (zh) | 闸机逃票检测方法、装置、计算机设备及存储介质 | |
CN111723688A (zh) | 人体动作识别结果的评价方法、装置和电子设备 | |
CN118469850A (zh) | 图像的处理方法及其装置 | |
CN112348112A (zh) | 图像识别模型的训练方法、训练装置及终端设备 | |
CN112183359A (zh) | 视频中的暴力内容检测方法、装置及设备 | |
CN111784660A (zh) | 一种用于人脸图像的正脸程度的分析方法和系统 | |
CN113628148B (zh) | 红外图像降噪方法和装置 | |
CN114694209A (zh) | 视频处理方法、装置、电子设备及计算机存储介质 | |
CN115345927A (zh) | 展品导览方法及相关装置、移动终端和存储介质 | |
Guesdon et al. | Multitask metamodel for keypoint visibility prediction in human pose estimation | |
WO2022144601A1 (en) | Method and apparatus for detecting associated objects | |
CN113573009A (zh) | 视频处理方法、装置、计算机设备以及存储介质 | |
CN116433939B (zh) | 样本图像生成方法、训练方法、识别方法以及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20210621 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210621 Comment text: Request for Examination of Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221009 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230628 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230914 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230914 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |