KR102547998B1 - 동작 인식 방법 및 장치 - Google Patents
동작 인식 방법 및 장치 Download PDFInfo
- Publication number
- KR102547998B1 KR102547998B1 KR1020200180473A KR20200180473A KR102547998B1 KR 102547998 B1 KR102547998 B1 KR 102547998B1 KR 1020200180473 A KR1020200180473 A KR 1020200180473A KR 20200180473 A KR20200180473 A KR 20200180473A KR 102547998 B1 KR102547998 B1 KR 102547998B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- channel
- motion
- key frame
- keyframe
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000003287 optical effect Effects 0.000 claims abstract description 9
- 230000009471 action Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Molecular Biology (AREA)
- Social Psychology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
동작 인식 방법 및 장치가 개시된다. 일 실시예에 따른 동작 인식 방법은, 대상의 동작이 촬영된 이미지를 획득하는 단계와, 상기 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 단계와, 상기 키프레임에 기초하여 상기 동작을 식별하는 단계를 포함한다.
Description
본 개시는 동작 인식 방법 및 장치에 관한 것이다.
동작 인식 기술은 입력 영상으로부터 영상 내 사람의 동작을 인식하는 기술로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligence robot) 등 다양한 분야에 적용될 수 있다. 특히 최근에는 저비용의 거리 센서(range sensor) 및 효율적인 3차원 자세 추정(3D pose estimation)기술의 등장으로 동작인식은 기존의 한계를 극복하고 다양한 산업분야에 적용이 가능할 정도로 발전을 거듭하고 있다.
관련 선행기술로, 한국 공개특허공보 제10-2016-0098560호(발명의 명칭: 동작 분석 장치 및 방법)가 있다.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.
아래 실시예들은 영상 내 복잡하며 빠른 속도를 가지는 동작을 높은 처리 속도로 인식할 수 있는 기술을 제공한다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 실시예에 따른 동작 인식 방법은, 대상의 동작이 촬영된 이미지를 획득하는 단계와, 상기 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 단계와, 상기 키프레임에 기초하여 상기 동작을 식별하는 단계를 포함한다.
상기 이미지는, 상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지일 수 있다.
상기 추출하는 단계는, 상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하는 단계와, 상기 모션 벡터들의 평균 크기에 기초하여 제1 키프레임 및 제2 키프레임을 추출하는 단계와, 상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 상기 키프레임을 생성하는 단계를 포함할 수 있다.
상기 제1 키프레임 및 제2 키프레임을 추출하는 단계는, 상기 평균 크기가 가장 큰 프레임을 상기 제1 키프레임으로 추출하는 단계와, 상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 상기 제2 키프레임을 추출하는 단계를 포함할 수 있다.
상기 식별하는 단계는, 상기 키프레임을 컨벌루션 뉴럴 네트워크(convolutional neural network)에 입력하는 단계를 포함할 수 있다.
상기 이미지는, 레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고, 상기 키프레임은, 레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지일 수 있다.
일 실시예에 따른 대상의 동작을 검출하는 뉴럴 네트워크의 학습 방법은, 상기 동작이 촬영된 이미지를 획득하는 단계와, 상기 이미지의 모든 프레임에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 단계와, 상기 키프레임에 기초하여 상기 뉴럴 네트워크의 파라미터를 업데이트하는 단계를 포함한다.
상기 이미지는, 상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지일 수 있다.
상기 추출하는 단계는, 상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하는 단계와, 상기 모션 벡터들의 평균 크기에 기초하여 제1 키프레임 및 제2 키프레임을 추출하는 단계와, 상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 상기 키프레임을 생성하는 단계를 포함할 수 있다.
상기 제1 키프레임 및 제2 키프레임을 추출하는 단계는, 상기 평균 크기가 가장 큰 프레임을 상기 제1 키프레임으로 추출하는 단계와, 상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 상기 제2 키프레임을 추출하는 단계를 포함할 수 있다.
상기 뉴럴 네트워크는, 컨벌루션 뉴럴 네트워크(convolutional neural network)이고, 상기 업데이트하는 단계는, 상기 컨벌루션 뉴럴 네트워크의 웨이트(weights) 및 바이어스(bias)를 업데이트하는 단계를 포함할 수 있다.
상기 이미지는, 레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고, 상기 키프레임은, 레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지일 수 있다.
일 실시예에 따른 동작 인식 장치는, 인스트럭션들을 포함하는 메모리와, 상기 인스트럭션들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서에 의해 상기 인스트럭션들이 실행될 때, 상기 프로세서는, 대상의 동작이 촬영된 이미지를 획득하고, 상기 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하고, 상기 키프레임에 기초하여 상기 동작을 검출한다.
상기 이미지는, 상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지일 수 있다.
상기 프로세서는, 상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하고, 상기 모션 벡터들의 평균 크기에 기초하여 제1 키프레임 및 제2 키프레임을 추출하고, 상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 상기 키프레임을 생성할 수 있다.
상기 프로세서는, 상기 평균 크기가 가장 큰 프레임을 상기 제1 키프레임으로 추출하고, 상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 상기 제2 키프레임을 추출할 수 있다.
상기 프로세서는, 상기 키프레임을 컨벌루션 뉴럴 네트워크(convolutional neural network)에 입력할 수 있다.
상기 이미지는, 레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고, 상기 키프레임은, 레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지일 수 있다.
도 1은 일 실시예에 따른 동작 인식 시스템을 나타낸다.
도 2는 동작 이미지 촬영 환경의 일 예를 나타낸다.
도 3은 동작 인식을 위한 뉴럴 네트워크 구조의 일 예를 나타낸다.
도 4는 일 실시예에 다른 동작 인식 방법의 흐름도이다.
도 5는 일 실시예에 따른 동작 인식을 위한 뉴럴 네트워크의 학습 방법의 흐름도이다.
도 2는 동작 이미지 촬영 환경의 일 예를 나타낸다.
도 3은 동작 인식을 위한 뉴럴 네트워크 구조의 일 예를 나타낸다.
도 4는 일 실시예에 다른 동작 인식 방법의 흐름도이다.
도 5는 일 실시예에 따른 동작 인식을 위한 뉴럴 네트워크의 학습 방법의 흐름도이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 동작 인식 시스템을 나타낸다.
동작 인식 시스템(10)은 동작 인식 장치(100) 및 촬영 장치(200)를 포함한다. 동작 인식 시스템(10)은 사람의 일상 동작과 비교하여 상대적으로 빠른 속도를 가지며 복잡한 동작을 높은 처리 속도로 인식할 수 있다. 동작 인식 시스템(10)은 태권도 동작을 높은 성능으로 식별할 수 있으므로, 태권도 승급 심사 등에 활용될 수 있다.
동작 인식 장치(100)는 촬영 장치(200)에 의해 촬영된 이미지에 기초하여 이미지 내 대상의 동작을 인식할 수 있다. 동작 인식 장치(100)는 프로세서(130) 및 메모리(150)를 포함할 수 있다.
메모리(150)는 프로세서(130)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서의 동작 및/또는 프로세서의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
메모리(150)는 휘발성 메모리 장치 또는 불휘발성 메모리 장치로 구현될 수 있다. 휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있고, 불휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시 메모리(flash memory), MRAM(Magnetic RAM), CBRAM(Conductive Bridging RAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), RRAM(Resistive RAM)으로 구현될 수 있다.
프로세서(130)는 메모리(150)에 저장된 데이터를 처리할 수 있다. 프로세서(130)는 메모리(150)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(250)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
프로세서(130)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.
프로세서(130)는 중앙 처리 장치(central processing unit), 그래픽 처리 장치(graphics processing unit), 신경망 처리 장치(neural processing unit), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
동작 인식 장치(100)의 동작들은 프로세서(130)에 의해 수행되는 것으로 이해되어야 한다.
촬영 장치(200)는 대상의 동작을 촬영할 수 있다. 촬영 장치(200)는 단위 동작들을 별도의 이미지로 촬영할 수 있다. 예를 들어, 촬영 장치(200)는 태권도 품새에 포함된 각 단위 동작을 별도의 이미지로 촬영할 수 있다. 다른 예로, 촬영 치(200)에 의해 연속적으로 촬영된 이미지를 프로세서(130)가 단위 동작 별로 분할할 수 있다.
촬영 장치(200)는 대상의 동작을 서로 다른 복수의 방향에서 촬영할 수 있다. 촬영 장치(200)는 동작을 정면 및 측면 두가지 방향에서 촬영할 수 있다. 예를 들어, 촬영 장치(200)는 대상의 동작이 어느 방향으로 수행되더라도, 동작을 촬영할 수 있도록 구현될 수 있다.
촬영 장치(200)는 RGB-D 이미지를 촬영할 수 있다. 즉, 촬영 장치(200)를 통해 촬영된 이미지는 레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함할 수 있다. 촬영된 이미지는 RGB이미지 및 깊이 이미지(depth image)의 형태로 데이터베이스(미도시)에 저장될 수 있다.
프로세서(130)는 대상의 동작이 촬영된 이미지를 획득할 수 있다. 프로세서(130)는 서로 다른 방향에서 촬영된 이미지를 획득할 수 있다. 예를 들어, 프로세서(130)는 정면 및 측면 각각에서 대상의 동작이 촬영된 두 개의 이미지를 획득할 수 있다.
프로세서(130)는 동일한 단위 동작이 서로 다른 방향에서 촬영된 복수의 이미지를 하나의 이미지로 변환할 수 있다. 프로세서(130)는 시간적으로 하나의 이미지 뒤에 다른 이미지를 이어 하나의 이미지로 변환할 수 있다. 예를 들어, 프로세서(130)는 정면 및 측면 각각에서 대상의 동작이 촬영된 두 개의 이미지를 하나의 이미지로 변화할 수 있다.
프로세서(130)는 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출할 수 있다. 프로세서(130)는 하나의 이미지에 대해 두 개의 키프레임을 추출하여, 두 키프레임을 각각 채널로 가지는 키프레임을 생성할 수 있다.
프로세서(130)는 이미지에 포함된 연속된 프레임들 사이의 모션 벡터들을 계산할 수 있다. 프로세서(130)는 모션 벡터들의 평균 크기가 가장 큰 프레임을 제1 키프레임으로 추출할 수 있다. 즉, 프로세서(130)는 모션 벡터들의 평균 크기에 기초하여 동작의 변화가 가장 큰 프레임을 제1 키프레임으로 추출할 수 있다.
프로세서(130)는 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 제2 키프레임으로 추출할 수 있다. 제2 키프레임은 단위 동작의 최종 모습을 포함하는 프레임일 수 있다. 즉, 프로세서(130)는 모션 벡터들의 평균 크기에 기초하여 동작이 멈추는 단위 동작의 최종 모습을 제2 키프레임으로 추출할 수 있다.
프로세서(130)는 제1 키프레임 및 제2 키프레임에 기초하여 8채널 이미지인 키프레임을 생성할 수 있다. 예를 들어, 키프레임은 제1 키프레임 및 제2 키프레임의 레드 채널, 그린 채널, 블루 채널 및 깊이 채널 정보를 모두 포함하는 이미지일 수 있다.
프로세서(130)는 키프레임을 컨벌루션 뉴럴 네트워크(convolutional neural network)에 입력하여 이미지에 대응하는 동작을 식별할 수 있다. 컨벌루션 뉴럴 네트워크는 키프레임에 기초하여 이미지에 대응되는 동작을 분류할 수 있다. 예를 들어, 컨벌루션 뉴럴 네트워크는 이미지에 대응되는 동작을 앞차기, 옆차기 또는 돌려차기 등으로 분류할 수 있다.
컨벌루션 뉴럴 네트워크는 다양한 동작이 촬영된 이미지에 기초하여 생성된 데이터셋을 통해 학습될 수 있다. 예를 들어, 데이터셋은 모든 태권도 동작에 대해 촬영된 이미지에서 키프레임을 추출하고, 각 키프레임에 대응하는 동작을 라벨링하여 생성할 수 있다.
컨벌루션 뉴럴 네트워크의 파라미터는 데이터셋에 포함된 키프레임에 대한 출력 및 라벨링된 동작에 기초하여 업데이트될 수 있다. 예를 들어, 컨벌루션 뉴럴 네트워크의 파라미터는 웨이트(weights) 및/또는 바이어스(bias)일 수 있다.
도 2는 동작 이미지 촬영 환경의 일 예를 나타낸다.
촬영 장치(200)는 서로 다른 복수의 방향에서 대상의 동작을 촬영할 수 있다. 예를 들어, 촬영 장치(200)는 단위 동작을 정면 및 측면에서 촬영할 수 있다.
정면에서 대상의 동작을 촬영하기 위해, 대상이 정면 시작 위치(230)에서 촬영 장치(200) 방향으로 동작을 수행하도록 할 수 있다. 측면에서 대상의 동작을 촬영하기 위해, 대상이 측면 시작 위치(210)에서 촬영 장치(200)의 측면 방향으로 동작을 수행하도록 할 수 있다.
도 2에서는, 하나의 촬영 장치(200)를 통해 단위 동작의 정면 및 측면 이미지를 촬영하는 예를 도시한다. 이 경우, 대상은 동일한 동작을 서로 다른 방향으로 두 번 수행해야할 수 있다. 다만, 이에 한정되는 것은 아니고, 촬영 장치(200)를 복수 개 설치하여 대상이 한 번 동작을 수행하는 동안 서로 다른 방향에서 촬영된 복수의 이미지를 획득할 수 있다.
도 3은 동작 인식을 위한 뉴럴 네트워크 구조의 일 예를 나타낸다.
동작 인식을 위한 컨벌루션 네트워크는 제1 컨벌루션 레이어 내지 제4 컨벌루션 레이어(Conv1~Conv4)를 포함할 수 있다.
제1 컨벌루션 레이어(Conv1)는 5Х5Х16 크기이고, 제2 컨벌루션 레이어(Conv2)는 3Х3Х32 크기이고, 제3 컨벌루션 레이어(Conv3)는 3Х3Х64 크기이고, 제4 컨벌루션 레이어(Conv2)는 3Х3Х32 크기일 수 있다. 제1 컨벌루션 레이어 내지 제4 컨벌루션 레이어(Conv1~Conv4)는 활성 함수로 Relu를 이용하며, 맥스 풀링이 수행될 수 있다. 제4 컨벌루션 레이어(Conv4)에 대해 플래트닝(flattening)이 수행될 수 있으며, 플래튼 레이어(flatten layer)가 차례로 제1 풀리 커넥티드 네트워크(FC1) 및 제2 풀리 커넥티드 네트워크(FC2) 및 소프트 맥스(Softmax)를 통과하여 결과가 출력될 수 있다.
도 4는 일 실시예에 다른 동작 인식 방법의 흐름도이다.
동작 인식 방법은 대상의 동작을 촬영한 이미지를 획득하는 동작(410)을 포함할 수 있다. 대상의 동작을 서로 다른 복수의 방향에서 촬영될 수 있으며, 각각의 방향에서 촬영된 복수의 이미지는 하나의 이미지로 변환될 수 있다. 이미지은 단위 동작을 촬영한 이미지일 수 있다. 이미지는 레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함할 수 있다.
동작 인식 방법은 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 동작(420)을 포함할 수 있다. 키프레임은 동작의 변화가 가장 큰 시점의 제1 키프레임 및 동작의 최종 모습 시점의 제2 키프레임을 포함할 수 있다. 제1 키프레임 및 제2 키프레임은 연속된 프레임들 사이에 계산된 모션 벡터들의 평균 크기에 기초하여 이 추출될 수 있다. 키프레임의 제1 키프레임 및 제2 키프레임의 레드 채널, 그린 채널, 블루 채널 및 깊이 채널 정보를 모두 포함하는 8채널 이미지일 수 있다.
동작 인식 방법은 키프레임에 기초하여 대상의 동작을 식별하는 동작(430)을 포함할 수 있다. 키프레임은 컨벌루션 뉴럴 네트워크에 입력되고, 컨벌루션 뉴럴 네트워크에서 동작 분류 결과가 출력될 수 있다.
도 1 내지 도 3을 참조하여 설명한 동작 인식 장치(100)의 동작들은 도 4에 도시된 동작들에 그대로 적용되므로 보다 상세한 설명은 생략하도록 한다
도 5는 일 실시예에 따른 동작 인식을 위한 뉴럴 네트워크의 학습 방법의 흐름도이다.
동작 인식을 위한 뉴럴 네트워크는 다양한 동작이 촬영된 이미지에 기초하여 생성된 데이터셋을 통해 학습될 수 있다. 데이터 셋은 다양한 동작이 촬영한 이미지에 기초하여 추출된 키프레임을 포함할 수 있다. 즉, 학습 방법에 포함되는 동작(510 및 520) 은 도4에 도시된 동작 인식 방법의 동작 (410 및 420)이 복수의 동작들에 대해 수행되고 추가로, 각 키프레임에 대응하는 동작(ground truth)이 라벨링되는 것으로 이해될 수 있다.
학습 방법은 데이터 셋에 포함된 키프레임에 기초하여 뉴럴 네트워크의 파라미터를 업데이트하는 동작(530)을 포함할 수 있다. 즉, 뉴럴 네트워크의 웨이트 및/또는 바이어스는 키프레임에 대한 뉴럴 네트워크의 출력 및 라벨링된 동작에 기초하여 업데이트될 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (19)
- 대상의 동작이 촬영된 이미지를 획득하는 단계;
상기 이미지에 포함된 프레임들에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 단계; 및
상기 키프레임에 기초하여 상기 동작을 식별하는 단계
를 포함하고,
상기 추출하는 단계는,
상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하는 단계;
상기 모션 벡터들의 평균 크기에 기초하여 제1 키프레임 및 제2 키프레임을 추출하는 단계; 및
상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 상기 키프레임을 생성하는 단계
를 포함하고,
상기 제1 키프레임 및 제2 키프레임을 추출하는 단계는,
상기 평균 크기가 가장 큰 프레임을 상기 제1 키프레임으로 추출하는 단계; 및
상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 상기 제2 키프레임으로 추출하는 단계
를 포함하는, 동작 인식 방법.
- 제1항에 있어서,
상기 이미지는,
상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지인, 동작 인식 방법.
- 삭제
- 삭제
- 제1항에 있어서,
상기 식별하는 단계는,
상기 키프레임을 컨벌루션 뉴럴 네트워크(convolutional neural network)에 입력하는 단계
를 포함하는, 동작 인식 방법.
- 제1항에 있어서,
상기 이미지는,
레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고,
상기 키프레임은,
레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지인, 동작 인식 방법.
- 대상의 동작을 검출하는 뉴럴 네트워크의 학습 방법에 있어서,
상기 동작이 촬영된 이미지를 획득하는 단계;
상기 이미지의 모든 프레임에 대해 광학 흐름(optical flow) 연산을 수행하여 키프레임을 추출하는 단계; 및
상기 키프레임에 기초하여 상기 뉴럴 네트워크의 파라미터를 업데이트하는 단계
를 포함하고,
상기 추출하는 단계는,
상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하는 단계;
상기 모션 벡터들의 평균 크기에 기초하여 제1 키프레임 및 제2 키프레임을 추출하는 단계; 및
상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 상기 키프레임을 생성하는 단계
를 포함하고,
상기 제1 키프레임 및 제2 키프레임을 추출하는 단계는,
상기 평균 크기가 가장 큰 프레임을 상기 제1 키프레임으로 추출하는 단계; 및
상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 상기 제2 키프레임으로 추출하는 단계
를 포함하는, 학습 방법.
- 제7항에 있어서,
상기 이미지는,
상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지인, 학습 방법.
- 삭제
- 삭제
- 제7항에 있어서,
상기 뉴럴 네트워크는, 컨벌루션 뉴럴 네트워크(convolutional neural network)이고,
상기 업데이트하는 단계는,
상기 컨벌루션 뉴럴 네트워크의 웨이트(weights) 및 바이어스(bias)를 업데이트하는 단계
를 포함하는, 학습 방법.
- 제7항에 있어서,
상기 이미지는,
레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고,
상기 키프레임은,
레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지인, 학습 방법.
- 하드웨어와 결합되어 제1항, 제2항, 제5항 내지 제8항, 및 제12항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
- 인스트럭션들을 포함하는 메모리; 및
상기 인스트럭션들을 실행하기 위한 프로세서
를 포함하고,
상기 프로세서에 의해 상기 인스트럭션들이 실행될 때, 상기 프로세서는,
대상의 동작이 촬영된 이미지를 획득하고,
상기 이미지에 포함되는 연속된 프레임들 사이의 모션 벡터들을 계산하고,
상기 모션 벡터들의 평균 크기가 가장 큰 프레임을 제1 키프레임으로 추출하고,
상기 제1 키프레임 이후 프레임들 중 상기 평균 크기가 가장 작은 프레임을 제2 키프레임으로 추출하고,
상기 제1 키프레임 및 상기 제2 키프레임 각각을 채널로 가지는 키프레임을 생성하고,
상기 키프레임에 기초하여 상기 동작을 검출하는, 동작 인식 장치.
- 제14항에 있어서,
상기 이미지는,
상기 동작을 서로 다른 방향에서 촬영한 복수의 이미지를 하나의 이미지로 변환한 이미지인, 동작 인식 장치.
- 삭제
- 삭제
- 제14항에 있어서,
상기 프로세서는,
상기 키프레임을 컨벌루션 뉴럴 네트워크(convolutional neural network)에 입력하는, 동작 인식 장치.
- 제14항에 있어서,
상기 이미지는,
레드 채널(red channel), 그린 채널(green channel), 블루 채널(blue channel) 및 깊이 채널(depth channel)을 포함하는 이미지이고,
상기 키프레임은,
레드 채널, 그린 채널, 블루 채널 및 깊이 채널을 각각 두 채널씩 포함하는 이미지인, 동작 인식 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200180473A KR102547998B1 (ko) | 2020-12-22 | 2020-12-22 | 동작 인식 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200180473A KR102547998B1 (ko) | 2020-12-22 | 2020-12-22 | 동작 인식 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220089861A KR20220089861A (ko) | 2022-06-29 |
KR102547998B1 true KR102547998B1 (ko) | 2023-06-27 |
Family
ID=82270377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200180473A KR102547998B1 (ko) | 2020-12-22 | 2020-12-22 | 동작 인식 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102547998B1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200218974A1 (en) * | 2017-08-22 | 2020-07-09 | Kinetyx Sciences Inc. | Method and system for activity classification |
JP2020135177A (ja) * | 2019-02-15 | 2020-08-31 | 株式会社 ディー・エヌ・エー | 動画を解析するためのプログラム、装置、及び方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102353637B1 (ko) * | 2019-03-17 | 2022-01-21 | 이상국 | 골프 동작 분석 방법 및 장치 |
-
2020
- 2020-12-22 KR KR1020200180473A patent/KR102547998B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200218974A1 (en) * | 2017-08-22 | 2020-07-09 | Kinetyx Sciences Inc. | Method and system for activity classification |
JP2020135177A (ja) * | 2019-02-15 | 2020-08-31 | 株式会社 ディー・エヌ・エー | 動画を解析するためのプログラム、装置、及び方法 |
Non-Patent Citations (1)
Title |
---|
한국 공개특허공보 제10-2020-0115729호(2020.10.08.) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20220089861A (ko) | 2022-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Refineface: Refinement neural network for high performance face detection | |
KR102108854B1 (ko) | 딥러닝 네트워크 모델에 의한 실시간 객체 검출 방법 및 장치 | |
US10860837B2 (en) | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition | |
US9542621B2 (en) | Spatial pyramid pooling networks for image processing | |
KR102160224B1 (ko) | 약한 지도학습 객체 검출기에 기반한 의미론적 객체 영역 분할 방법 및 시스템 | |
KR102070956B1 (ko) | 영상 처리 장치 및 방법 | |
Yuan et al. | Polyphonicformer: Unified query learning for depth-aware video panoptic segmentation | |
Xu et al. | Pose for everything: Towards category-agnostic pose estimation | |
US20160224864A1 (en) | Object detecting method and apparatus based on frame image and motion vector | |
Sharif et al. | Intelligent human action recognition: A framework of optimal features selection based on Euclidean distance and strong correlation | |
JP2019003396A (ja) | 目的物体検出装置、該方法およびプログラム | |
CN115861675A (zh) | 对象分类方法和设备 | |
KR20230069607A (ko) | 셀프 어텐션 기반의 영상 인식 방법 및 장치 | |
KR102127855B1 (ko) | 검출 반복성을 최대화 하는 특징점 선별방법 | |
Naik Bukht et al. | A Novel Human Interaction Framework Using Quadratic Discriminant Analysis with HMM. | |
Zhu et al. | Portrait instance segmentation for mobile devices | |
Kumar et al. | Weakly supervised deep network for spatiotemporal localization and detection of human actions in wild conditions | |
KR102547998B1 (ko) | 동작 인식 방법 및 장치 | |
Elqursh et al. | Online motion segmentation using dynamic label propagation | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
CN108875498B (zh) | 用于行人重识别的方法、装置及计算机存储介质 | |
KR20230157841A (ko) | 이미지 기반 지식 그래프 증강 및 임베딩 방법과 그 시스템 | |
Kavouras et al. | Skeleton extraction of dance sequences from 3D points using convolutional neural networks based on a new developed C3D visualization interface | |
KR20220052620A (ko) | 객체 추적 방법 및 이를 수행하는 장치 | |
Zhao et al. | A siamese network-based approach for vehicle pose estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |