KR101758693B1 - 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 - Google Patents
물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 Download PDFInfo
- Publication number
- KR101758693B1 KR101758693B1 KR1020150176637A KR20150176637A KR101758693B1 KR 101758693 B1 KR101758693 B1 KR 101758693B1 KR 1020150176637 A KR1020150176637 A KR 1020150176637A KR 20150176637 A KR20150176637 A KR 20150176637A KR 101758693 B1 KR101758693 B1 KR 101758693B1
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- input image
- main surface
- user
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000006399 behavior Effects 0.000 claims description 345
- 239000013598 vector Substances 0.000 claims description 104
- 239000000284 extract Substances 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012847 principal component analysis method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G06K9/00335—
-
- G06K9/00624—
-
- G06K9/6202—
-
- G06K9/6218—
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
본 발명에 따른 행동 인식 장치는 입력 영상에서 적어도 하나 이상의 주요 면을 추출하는 주요 면 추출부; 상기 추출한 주요 면의 의미를 인식하고, 상기 인식한 주요 면의 의미에 따라 상기 추출한 주요 면 별로 발생 가능한 행동 목록을 설정하는 행동 목록 설정부; 및 상기 입력 영상에서 사용자의 행동이 발생한 위치에 대응하는 상기 주요 면을 선택하고, 상기 선택한 주요 면의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 행동 인식부;를 포함할 수 있다.
Description
도 2는 주요 면 추출부(200)의 세부 블록도이다.
도 3의 a 내지 d는 주요 면 추출부(200)의 동작을 설명하기 위한 참고도이다.
도 4는 행동 목록 설정부(300)의 세부 블록도이다.
도 5는 물체-행동 관계 그래프 모델을 나타내는 참고도이다.
도 6은 행동 인식부(400)의 세부 블록도이다.
도 7은 본 발명의 일 실시예에 따른 행동 인식 장치의 블록도이다.
도 8은 행동 인식부(3000)의 세부 블록도이다.
도 9는 본 발명의 일 실시예에 따른 행동 인식 방법의 흐름도이다.
도 10은 주요 면 추출 단계(S200)의 세부 흐름도이다.
도 11은 행동 목록 설정 단계(S300)의 세부 흐름도이다.
도 12는 행동 인식 단계(S400)의 세부 흐름도이다.
도 13은 본 발명의 일 실시예에 따른 행동 인식 방법의 흐름도이다.
도 14는 행동 인식 단계(S3000)의 세부 흐름도이다.
200 : 주요 면 추출부
300 : 행동 목록 설정부
400 : 행동 인식부
Claims (20)
- 행동 인식 장치에 있어서,
깊이 정보를 포함하는 3차원 입력 영상에서 적어도 하나 이상의 주요 면을 추출하는 주요 면 추출부;
상기 추출한 주요 면의 의미를 인식하고, 상기 인식한 주요 면의 의미에 따라 상기 추출한 주요 면 별로 발생 가능한 행동 목록을 설정하는 행동 목록 설정부; 및
상기 3차원 입력 영상에서 사용자의 행동이 발생한 위치에 대응하는 상기 주요 면을 선택하고, 상기 선택한 주요 면의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 행동 인식부;를 포함하며,
상기 주요 면 추출부는 상기 3차원 입력 영상에 포함된 각 점들에 대하여 소정의 거리 내에 인접하는 점들을 하나의 집합으로 하여 지역적 면을 설정하고, 상기 지역적 면에서의 적어도 하나 이상의 주요 노멀 벡터를 추출하고, 상기 3차원 입력 영상에서 상기 추출한 주요 노멀 벡터에 대응하는 각 영역을 상기 주요 면으로 추출하는 것을 특징으로 하는 행동 인식 장치. - 제1항에 있어서,
상기 주요 면 추출부는 상기 추출된 주요 면들 중에서 상기 주요 노멀 벡터의 각도에 따라 일부를 선별하는 것을 특징으로 하는 행동 인식 장치. - 제2항에 있어서,
상기 주요 면 추출부는,
상기 3차원 입력 영상에서 지역적 노멀 벡터를 산출하고, 상기 산출한 지역적 노멀 벡터 중에서 상기 주요 노멀 벡터를 결정하는 주요 노멀 벡터 추출부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제3항에 있어서,
상기 주요 노멀 벡터 추출부는 상기 3차원 입력 영상의 지역적 면에서의 노멀 벡터를 상기 지역적 노멀 벡터로 산출하고, 상기 산출한 지역적 노멀 벡터들을 클러스터링하고, 상기 클러스터링한 벡터들 중에서 상기 주요 노멀 벡터를 결정하는 것을 특징으로 하는 행동 인식 장치. - 제2항에 있어서, 상기 주요 면 추출부는,
상기 3차원 입력 영상에서 상기 주요 노멀 벡터를 가지는 화소들을 수집하고, 상기 수집한 화소들을 클러스터링하여 상기 주요 노멀 벡터에 대응하는 상기 주요 면을 추출하는 면 추출부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제1항에 있어서,
상기 행동 목록 설정부는 상기 3차원 입력 영상 내에 존재하는 객체의 위치 정보와 상기 객체의 의미 정보를 포함하는 객체 인식 정보를 입력받고, 상기 주요 면의 위치에 대응하는 상기 객체의 의미 정보에 따라 상기 주요 면의 의미를 인식하는 주요 면 인식부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제1항에 있어서,
상기 행동 목록 설정부는 물체와 행동 간의 관계를 미리 정의한 물체-행동 관계 모델에서 상기 주요 면의 의미에 대응하는 상기 물체를 검색하고, 상기 검색한 물체와 관계된 행동을 상기 물체-행동 관계 모델에서 추출하여, 상기 추출한 행동에 따라 상기 주요 면의 상기 행동 목록을 설정하는 목록 설정부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제7항에 있어서,
상기 물체-행동 관계 모델은 적어도 하나 이상의 상기 물체에 대하여, 각 상기 물체 별로 상기 물체와 관계된 적어도 하나 이상의 상기 행동을 미리 정의한 모델인 것을 특징으로 하는 행동 인식 장치. - 제1항에 있어서,
상기 3차원 입력 영상 또는 별도의 2차원 입력 영상에서 객체를 검출하고 인식하는 객체 인식부를 더 포함하며,
상기 객체 인식부는 상기 검출한 객체의 상기 3차원 입력 영상 내에서의 위치 정보를 설정하고, 상기 인식한 객체의 의미 정보를 설정하는 것을 특징으로 하는 행동 인식 장치. - 삭제
- 제1항에 있어서, 상기 행동 인식부는,
상기 3차원 입력 영상에서 상기 사용자의 행동이 발생한 위치를 검출하는 행동 위치 검출부;
상기 사용자의 행동이 발생한 위치에 대응하는 상기 주요 면을 선택하는 주요 면 선택부; 및
상기 선택한 주요 면의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 사용자 행동 인식부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제11항에 있어서,
상기 주요 면 선택부는 상기 주요 면 추출부에서 추출된 상기 주요 면들 중에서, 상기 사용자의 행동이 발생한 위치와 소정의 거리 이내에 위치하는 상기 주요 면을 선택하는 것을 특징으로 하는 행동 인식 장치. - 제11항에 있어서,
상기 사용자 행동 인식부는 상기 3차원 입력 영상에서 상기 사용자의 동작 또는 자세를 인식하여 적어도 하나 이상의 후보 행동을 결정하고, 상기 결정한 후보 행동 중에서 상기 행동 목록에 포함된 행동과 대응하는 상기 후보 행동을 선정하여, 상기 사용자의 행동으로 인식하는 것을 특징으로 하는 행동 인식 장치. - 행동 인식 장치에 있어서,
깊이 정보를 포함하는 3차원 입력 영상에서 적어도 하나 이상의 주요 면을 추출하는 주요 면 추출부;
상기 3차원 입력 영상 또는 별도의 2차원 입력 영상에서 적어도 하나 이상의 객체를 검출하고 인식하는 객체 인식부;
상기 인식한 객체에 관하여 발생 가능한 행동 목록을 설정하는 행동 목록 설정부; 및
상기 3차원 입력 영상에서 사용자의 행동이 발생한 위치에 대응하는 상기 객체를 선택하고, 상기 선택한 객체의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 행동 인식부;를 포함하며,
상기 주요 면 추출부는 상기 3차원 입력 영상에 포함된 각 점들에 대하여 소정의 거리 내에 인접하는 점들을 하나의 집합으로 하여 지역적 면을 설정하고, 상기 지역적 면에서의 적어도 하나 이상의 주요 노멀 벡터를 추출하고, 상기 3차원 입력 영상에서 상기 추출한 주요 노멀 벡터에 대응하는 각 영역을 상기 주요 면으로 추출하는 것을 특징으로 하는 행동 인식 장치. - 제14항에 있어서,
상기 행동 목록 설정부는 물체와 행동 간의 관계를 미리 정의한 물체-행동 관계 모델에서 상기 인식한 객체에 대응하는 상기 물체를 검색하고, 상기 검색한 물체와 관계된 행동을 상기 물체-행동 관계 모델에서 추출하여, 상기 추출한 행동에 따라 상기 객체의 상기 행동 목록을 설정하는 것을 특징으로 하는 행동 인식 장치. - 제14항에 있어서,
상기 행동 인식부는,
상기 3차원 입력 영상에서 상기 사용자의 행동이 발생한 위치를 검출하는 행동 위치 검출부;
상기 사용자의 행동이 발생한 위치에 대응하는 상기 객체를 선택하는 객체 선택부; 및
상기 선택한 객체의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 사용자 행동 인식부를 포함하는 것을 특징으로 하는 행동 인식 장치. - 제16항에 있어서,
상기 객체 선택부는 상기 3차원 입력 영상의 상기 객체들 중에서, 상기 사용자의 행동이 발생한 위치와 소정의 거리 이내에 위치하는 상기 객체를 선택하는 것을 특징으로 하는 행동 인식 장치. - 제16항에 있어서,
상기 사용자 행동 인식부는 상기 3차원 입력 영상에서 상기 사용자의 동작 또는 자세를 인식하여 적어도 하나 이상의 후보 행동을 결정하고, 상기 결정한 후보 행동 중에서 상기 행동 목록에 포함된 행동과 대응하는 상기 후보 행동을 선정하여, 상기 사용자의 행동으로 인식하는 것을 특징으로 하는 행동 인식 장치. - 행동 인식 방법에 있어서,
깊이 정보를 포함하는 3차원 입력 영상에서 적어도 하나 이상의 주요 면을 추출하는 주요 면 추출 단계;
상기 추출한 주요 면의 의미를 인식하고, 상기 인식한 주요 면의 의미에 따라 상기 추출한 주요 면 별로 발생 가능한 행동 목록을 설정하는 행동 목록 설정 단계; 및
상기 3차원 입력 영상에서 사용자의 행동이 발생한 위치에 대응하는 상기 주요 면을 선택하고, 상기 선택한 주요 면의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 행동 인식 단계;를 포함하며,
상기 주요 면 추출 단계는 상기 3차원 입력 영상에 포함된 각 점들에 대하여 소정의 거리 내에 인접하는 점들을 하나의 집합으로 하여 지역적 면을 설정하고, 상기 지역적 면에서의 적어도 하나 이상의 주요 노멀 벡터를 추출하고, 상기 3차원 입력 영상에서 상기 추출한 주요 노멀 벡터에 대응하는 각 영역을 상기 주요 면으로 추출하는 것을 특징으로 하는 행동 인식 방법. - 행동 인식 방법에 있어서,
깊이 정보를 포함하는 3차원 입력 영상에서 적어도 하나 이상의 주요 면을 추출하는 주요 면 단계;
상기 3차원 입력 영상 또는 별도의 2차원 입력 영상에서 적어도 하나 이상의 객체를 검출하고 인식하는 객체 인식 단계;
상기 인식한 객체에 관하여 발생 가능한 행동 목록을 설정하는 행동 목록 설정 단계; 및
상기 3차원 입력 영상에서 사용자의 행동이 발생한 위치에 대응하는 상기 객체를 선택하고, 상기 선택한 객체의 상기 행동 목록에 기초하여 상기 사용자의 행동을 인식하는 행동 인식 단계;를 포함하며,
상기 주요 면 추출 단계는 상기 3차원 입력 영상에 포함된 각 점들에 대하여 소정의 거리 내에 인접하는 점들을 하나의 집합으로 하여 지역적 면을 설정하고, 상기 지역적 면에서의 적어도 하나 이상의 주요 노멀 벡터를 추출하고, 상기 3차원 입력 영상에서 상기 추출한 주요 노멀 벡터에 대응하는 각 영역을 상기 주요 면으로 추출하는 것을 특징으로 하는 행동 인식 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150176637A KR101758693B1 (ko) | 2015-12-11 | 2015-12-11 | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 |
PCT/KR2016/000730 WO2017099292A1 (ko) | 2015-12-11 | 2016-01-22 | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150176637A KR101758693B1 (ko) | 2015-12-11 | 2015-12-11 | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170070298A KR20170070298A (ko) | 2017-06-22 |
KR101758693B1 true KR101758693B1 (ko) | 2017-07-19 |
Family
ID=59013311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150176637A KR101758693B1 (ko) | 2015-12-11 | 2015-12-11 | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101758693B1 (ko) |
WO (1) | WO2017099292A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230093857A (ko) | 2021-12-20 | 2023-06-27 | 한양대학교 산학협력단 | 도구 정보를 활용하는 행동 인식 방법 및 장치 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102174656B1 (ko) * | 2019-03-26 | 2020-11-05 | 연세대학교 산학협력단 | 비디오 액션 인식 및 액션 영역 탐지 장치 및 방법 |
KR102174658B1 (ko) * | 2019-03-27 | 2020-11-05 | 연세대학교 산학협력단 | 비디오 행동 인식 및 행동 구간 탐지 장치 및 방법 |
KR102715993B1 (ko) * | 2019-11-26 | 2024-10-11 | 주식회사 케이티 | 사용자의 행동을 인식하는 서버, 방법 및 컴퓨터 프로그램 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101512048B1 (ko) * | 2014-04-14 | 2015-04-15 | 한국과학기술원 | 희소 표현 기반의 행동 인식 방법 및 그 장치 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2118864B1 (en) * | 2007-02-08 | 2014-07-30 | Behavioral Recognition Systems, Inc. | Behavioral recognition system |
KR101023951B1 (ko) * | 2009-03-17 | 2011-03-28 | 한국과학기술원 | 행동인식 시스템 및 방법 |
BR112014032832A2 (pt) * | 2012-06-29 | 2017-06-27 | Behavioral Recognition Sys Inc | aprendizagem não supervisionada de anomalias de função para um sistema de vigilância por vídeo |
KR102217253B1 (ko) * | 2014-02-24 | 2021-02-17 | 주식회사 케이티 | 행동패턴 분석 장치 및 방법 |
-
2015
- 2015-12-11 KR KR1020150176637A patent/KR101758693B1/ko active IP Right Grant
-
2016
- 2016-01-22 WO PCT/KR2016/000730 patent/WO2017099292A1/ko active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101512048B1 (ko) * | 2014-04-14 | 2015-04-15 | 한국과학기술원 | 희소 표현 기반의 행동 인식 방법 및 그 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230093857A (ko) | 2021-12-20 | 2023-06-27 | 한양대학교 산학협력단 | 도구 정보를 활용하는 행동 인식 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2017099292A1 (ko) | 2017-06-15 |
KR20170070298A (ko) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7308112B2 (en) | Sign based human-machine interaction | |
Lin et al. | Shape-based human detection and segmentation via hierarchical part-template matching | |
Bregonzio et al. | Recognising action as clouds of space-time interest points | |
EP2544149A1 (en) | Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program | |
Suau et al. | Real-time head and hand tracking based on 2.5 D data | |
CN104123529B (zh) | 人手检测方法及系统 | |
Zhang et al. | Efficient pedestrian detection via rectangular features based on a statistical shape model | |
KR101279561B1 (ko) | 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법 | |
Rahman et al. | Recognising human actions by analysing negative spaces | |
KR101758693B1 (ko) | 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치 | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
Itkarkar et al. | A survey of 2D and 3D imaging used in hand gesture recognition for human-computer interaction (HCI) | |
Yao et al. | A robust pedestrian detection approach based on shapelet feature and Haar detector ensembles | |
KR101337423B1 (ko) | 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법 | |
JP7409499B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Chai et al. | Robust hand gesture analysis and application in gallery browsing | |
WO2017170875A1 (ja) | 画像認識装置、及び画像認識プログラム | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
CN109978829B (zh) | 一种待检测对象的检测方法及其系统 | |
JP2015049702A (ja) | 対象認識装置、対象認識方法、およびプログラム | |
KR101685138B1 (ko) | 실공간 사용자 인터페이스 장치 및 그 방법 | |
JP7485040B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP4449483B2 (ja) | 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム | |
Rosten | High performance rigid body tracking | |
JP6717769B2 (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20151211 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20161216 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170627 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170711 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170711 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20200811 Start annual number: 4 End annual number: 4 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20220422 |