KR20200051529A - 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 - Google Patents
단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 Download PDFInfo
- Publication number
- KR20200051529A KR20200051529A KR1020197038411A KR20197038411A KR20200051529A KR 20200051529 A KR20200051529 A KR 20200051529A KR 1020197038411 A KR1020197038411 A KR 1020197038411A KR 20197038411 A KR20197038411 A KR 20197038411A KR 20200051529 A KR20200051529 A KR 20200051529A
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- person
- monocular camera
- key items
- skeletal
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 230000006399 behavior Effects 0.000 claims description 45
- 239000013598 vector Substances 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims 1
- 230000036544 posture Effects 0.000 description 39
- 210000003128 head Anatomy 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G06K9/00369—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G06K9/00355—
-
- G06K9/00389—
-
- G06K9/00791—
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G06K2209/055—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 단안 카메라를 이용한 거동 인식을 위한 방법 및 장치에 관한 것으로서, 특히 부분적으로 자동화되어 주행하는 자동차의 차량 카메라에서 사용될 수 있다.
단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한 이 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력.
단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한 이 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력.
Description
본 발명은 단안 카메라를 이용한 거동 인식을 위한 방법 및 장치에 관한 것으로서, 특히 부분적으로 자동화되어 주행하는 자동차의 차량 카메라에서 사용될 수 있다.
거동을 감지하는 최신 기술은 예를 들어 3D 카메라 키넥트(Kinect)이다. 알려진 대부분의 방법 또는 시스템에는 거동을 인식할 수 있도록 하는 3D 정보(예컨대 키넥트)가 필요하다.
출원 공개 "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields"(Cao 외 공저, https :// arxiv . org /pdf/1611.08050.pdf, 2017년 9월 11일 일 공개)는 여러 사람의 자세를 2D으로 추정하여 한 화면에 표시하는 방법을 보여준다. 여기서는 어느 한 사람에 속하는 신체 부분이 골격의 형태로 결합되어 있다.
따라서 내골격의 연결 요소를 통해 만들어지는 핵심 항목(key points)의 목록이 만들어진다.
DE 10 2014 207 802 B3은 도로교통에서 교통 참여자가 취하는 동작을 선행적으로 인식하기 위한 방법과 시스템을 보여준다. 여기서는 최소한 한 대의 카메라에 의해 화소로 구조화된 교통 참여자(예를 들어 보행자)의 영상이 촬영되어, 그에 따른 영상 데이터가 만들어진다. 여러 화소로 이루어진 영상 데이터는 각각 셀로 그룹화되는 바, 이때 그 영상에는 여러 셀이 있다. 어느 한 셀 내의 영상 데이터를 이용하여 각각 중점이 결정된다. 각 화소에 대해, 여러 셀의 중점에 대한 각 거리가 결정되는 바, 이때 각 화소와 중점의 좌표를 이용하여 화소에 할당된 특징 벡터가 형성된다. 이 특징 벡터는 최소한 하나의 기준 벡터 클러스터와 비교되며, 이 비교를 바탕으로 하여 교통 참여자가 취하는 전형적인 동작의 자세를 교통 참여자에게 할당한다. 이 방법은 어떤 교통 참여자의 자세에 의해 그가 의도하는 동작을 실행하기 전에 이미 그의 의도(예를 들어 횡단보도를 건너려는 의도)를 인식할 수 있다는 것을 출발점으로 삼는다. 그러면 이러한 자세 인식을 기반으로 하여 그러한 동작이 실행되기 전에 이미 선행적으로 조치를 취할 수 있는 바, 예를 들어 운전자에게 및/또는 측정 기술에 의해 파악된 교통 참여자에서 청각적 및/또는 시각적 경고를 발령할 수 있으며/있거나 예를 들어 제동 시스템이나 조향 시스템과 같은 차량 시스템을 제어할 수 있다.
자세는 예를 들어 교통 참여자나 보행자의 골격 형태나 또는 단순화된 도형 형태를 띨 수 있다. 다른 한편으로 그 자세는 그 교통 참여자의 예상되는 동작에 할당될 수 있는 바, 이 자세에 의해 어떤 교통 상황이 평가되고 어떤 위험을 피하게 하며, 경우에 따라 추가적인 제어 조치가 완전 자동 방식으로나 또는 부분적인 자동 방식으로 개시되도록 할 수 있다. 예를 들어 사람들이 달리기 시작할 때 가장 흔히 취하는, 약간 구부린 자세는 그 자세가 "앞에서"라는 방향으로 파악되면, 즉 그 사람이 차량 방향으로 움직이는 경우 도로교통에서 어떤 위험으로 분류될 수 있다.
이러한 출발점의 단점은 특징 벡터의 형성에 비용이 많이 든다는 점이다.
현재의 기술 수준을 고려하여 해결해야 할 문제는 차량에 설치된 단안 카메라의 영상을 기반으로 한 어떤 개선된 거동 인식인 바, 이러한 카메라에 차량의 기능을 제어하는 장치를 장착할 수 있다.
본 발명의 측면은 예를 들어 다음과 같다:
거동 또는 자세 인식의 목표는 특히 사람의 정적 자세(거동)을 평가하는 것이다. 그러므로 예컨대 어떤 사람이 왼팔이나 오른팔을 들어올리고 있는지 또는 양팔을 벌리고 있는지를 인식할 수 있다.
이러한 문제는 본 발명의 독립된 청구항에 따른 방법과 장치에 의해 해결된다.
유용한 다른 구현 형태는 종속된 청구항의 대상이다.
본 발명에서 제시한 해결 방안의 출발점은 골격 형태의 표시를 기반으로 하여 여러 거동을 설명하고 그 거동에 분류자가 접근할 수 있도록 한 다음, 사람을 촬영한 영상에서 이 거동을 인식하는 것에 근거를 두고 있다.
카메라 영상에 사상된 사람에 대한 골격 형태의 표시는 특히 도식적으로 지정된 객체의 일부에, 예를 들어 신체의 일부에 근거를 두고 있다.
단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한, 본 발명에 따른 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력.
핵심 항목의 감지 후 및 핵심 항목과 골격의 결합 후 결합된 신체의 일부에 대한 목록이 예를 들어 표의 형태로 제시된다. 이러한 목록은 완전할 수 있지만, 불완전(절반 정도 가려진 사람)할 수도 있다. 신체 일부가 없을 수도 있다.
골격 형태의 표시는 각 신체 일부의 위치와 지향 방향을 반영하는 바, 예를 들어 서로 결합된 핵심 항목 및 그 위치를 목록 형태로 제시하며 반영한다.
따라서 어떤 한 사람의 여러 핵심 항목은 어떤 견고한 표시로 변환된다.
이를 위해 여러 신체 부위가 특히 그룹으로 분류된다((예를 들어 팔이 있는 상체, 좌측 팔이 있는 머리, 우측 팔이 있는 머리, 순수하게 머리만). 사람이 부분적으로 감추어진다는 것을 고려할 때, 이처럼 중복하여 분류함으로써 이 방법은 상당히 안정적이 된다(자동차 뒤에 있는 사람은 상반신만, 광고탑 뒤에 있는 사람은 세로로 절반만 보인다).
특히 그룹(서로 결합된 핵심 항목)은 하나 이상의 서로 연관된 신체 부위로 이루어진다. 그룹은 사람의 부분 자세 또는 사람이 취한 거동의 일부분에 해당한다.
유용하게도 어느 한 신체 부위는 여러 그룹에 속하는 바, 예를 들어 첫 번째 부분 자세에는 머리와 왼팔이 있고 두 번째 부분 자세에는 머리와 오른팔이 있을 수 있다.
그룹 또는 부분 자세의 개수는 다양하게 설정할 수 있는 자유 매개변수이다.
핵심 항목의 코딩은 치밀하고 의미론적으로 해석할 수 있는, 예를 들어 심층 신경망을 통해 해석되는 특징 공간으로 변환되는 것이 이상적이다. 달리 표현하자만 각 그룹 또는 부분 자세에 특징 벡터를 할당할 수 있다. 특징 벡터를 예를 들어 이 그룹에 통합되어 있는 핵심 항목의 좌표에 근거를 두고 있다.
특히 그룹 또는 부분 자세의 특징 벡터는 군집화된 자세 디렉터리(자세 사전)을 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합된다.
이러한 병합에서는 예를 들어 자세 디렉터리를 통해 막대 그래프를 만들거나 자세 디렉터리의 각 클러스터 센터 사이에 있는 차이를 합산한 차이를 만들 수 있다. 자세 디렉터리 자체는 군집화 방법으로, 예를 들어 kNN 군집화, 즉 K-최근접 이웃(k nearest neighbor)을 고려한 군집화나 GMM 군집화, 즉 가우스 혼합 모델(Gaussian Mixture Model)을 이용한 군집화로 만들어질 수 있다.
특히 최종 특징 벡터(부분 자세의 특징 벡터로 구성됨)는 자세/거동을 분류하는 데 사용된다.
특히 사람의 시선 방향은 골격 형태의 표시를 기반으로 하여 평가된다.
특히 사람의 시선 방향이 단안 카메라 방향으로 향하고 있는가를 점검할 수 있다.
유용하게도 거동의 인식은 사전에 훈련을 받았던 거동 분류에 의해 이루어진다. 분류 방법으로서는 SVM(Support Vector Machines)이나 또는 심층 신경망과 같이 적절하고 일반적으로 알려진 분류 방법을 투입할 수 있다.
특히 한 사람에게 할당되어 있는 핵심 항목의 개수는 최대 20개이다.
특히 머리를 숙이고 그 시선 방향이 손으로 향한 상태로 걷는 사람은 주의력이 분산된 교통 참여자로 분류된다.
거동 인식을 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어가 이루어질 수 있다. 예컨대 차량 소유자나 자율 방식으로 주행하는 택시에 탈 손님과 통신하기 위해서는 차량 측에서 나온 피드백이 필요한 바, 이는 그 사람이 자신이 감지되었거나 이해되었다는 것을 알도록 하기 위해서이다. 이러한 방식으로 차량과 사람이 서로 상호 작용을 할 수 있다. 하지만 사람이 도로 위에서 달리거나 차량과 충돌할 위험이 있어 경고가 발령되는 경우에도 그 차량이 그 사람을 감지하여 충돌을 피한다고 차량이 그 사람에게 보내는 피드백이 유용할 수 있다.
본 발명의 또 다른 대상은 단안 카메라의 영상에서 사람의 거동을 인식하기 위한 적절한 장치이다. 이 장치는 다음을 위해 구성되어 있는 바,
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다,
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동을 나타내는 출력 신호 생성 및 출력.
이 장치에는 특히 마이크로 컨트롤러나 프로세서, 디지털 신호 프로세서(Digital Signal Processor: DSP), ASIC(주문형 집적 회로: Application Specific Integrated Circuit), FPGA(필드 프로그래머블 게이트 어레이: Field Programmable Gate Array) 등과 해당 처리 단계를 실행하기 위한 소프트웨어가 포함될 수 있다.
따라서 본 발명은 디지털 전자 회로, 컴퓨터 하드웨어, 펌웨어 또는 소프트웨어에서 구현될 수 있다.
이 장치는 특히 전방, 후방 또는 측방 카메라와 같은 단안 카메라와 함께 차량에 배치되어 작동할 수 있다.
본 발명은 단안 카메라가 장착된 차량과 본 발명에 따른 장치에 관한 것이다.
이하에서 예시 모델과 도면을 이용하여 더 상세히 설명하겠다.
거동 인식의 한 예시 모델은 두 단계로 이루어져 있다.
1. 사람의 감지
영상에 있는 사람이 먼저 감지된다. 여기에는 사람 감지기가 투입된다. 유용하게도 사람의 개별 신체 부위를 찾아 이를 어느 한 골격과 연결하는 특수 감지기가 사용된다.
도면 1은 차량 카메라가 촬영한 실제 사람에 대한 골격 형태의 표시를 예시로서 도시한 그림이다. 차량 카메라가 촬영한 영상에서 핵심 항목을 추출하였고 핵심 항목의 연결을 산출하였다. 핵심 항목이란 예를 들어 어깨, 목 기저부, 팔꿈치, 손(관절), 좌골부, 무릎, 복사뼈 관절; 입, 우안 및 좌안, 정수리이다.
핵심 항목은 직선에 의해 서로 연결되었으므로, 이 항목들은 골격 형태로 표시된다. 예를 들어 좌측 손목 관절과 팔꿈치의 핵심 항목은 "좌측 하박"과 서로 연결되고 좌측 어깨(도면에서 표시된 "핵심 항목")는 좌측 팔꿈치와 함께 "좌측 상박"에 연결되어 있다.
핵심 항목의 군집화는 "Gaussian Mixture Model"과 피셔-벡터 표시로의 신체 부위 변환을 통해 이루어질 수 있다. 이때 피셔 벡터는 각 개인의 정보만 코딩한다. 이때 중첩된 사람은 제외된다.
표를 통해 해당 사람의 여러 신체 부위가 어떤 특정 거동에 대해 적합한 동작 그룹으로 나누어진다. 이 표는 학습 과정을 통해서도 학습될 수 있다. 단순한 경우(거동이 비교적 적다는 점에서 구별됨), 그 자세를 상당히 명확하게 상이한 신체 영역에 할당할 수 있으면 그러한 표를 수동으로 만들 수 있다.
시선 방향을 머리 영역에 속하는 핵심 항목을 이용하여 평가할 수 있다. 시선 방향은 아래로 향하고 오른손 방향으로 향한다.
이에 거동 인식 장치에 의해 그 사람이 자신의 손에 있는 어떤 물체를 보고 있으며 현재 교통 상황에 주의를 기울이고 있지 않다고 인식하게 된다. 그 사람이 자신의 스마트폰을 보고 있다는 가정에서 그 거동을 "스몸비 족"(스마트폰 좀비)으로 분류한다.
거동 인식 장치를 이러한 정보를 차량의 다은 제어 장치에 전송한다. 이제 자율주행 자동차는 주행 계획을 수립할 때 이 보행자가 주의하지 않고 보행하고/하거나 그 위험 상태에 있을 경우 보행자에게 경고한다는 것을 고려할 수 있다.
2. 거동 또는 자세의 분류
골격 연결점(핵심 항목, 관절)의 좌표를 기반으로 하여 각 사람에 대해 특징 벡터를 만든다.
도 2는 거동을 분류하는 과정을 알기 쉽게 도시한 도면이다:
각 사람에 대해 기존의 방식처럼 어떤 특징 벡터만 사용하지는 않는다. 그 대신 각 사람에 대해 상이한 부분 자세를 기반으로 하는 N개의 특징 벡터를 만든다. 이러한 부분 자세 중 하나에는 머리와 좌측 팔만 포함되고, 다른 부분 자세에는 머리와 우측 팔만 포함될 수 있다. 이러한 부분 자세의 개수는 다양하게 설정할 수 있는 자유 매개변수이다.
부분 자세의 특징 벡터는 군집화된 자세 디렉터리(Pose-Dictionary)를 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합된다. 이러한 병합에서는 예를 들어 자세 디렉터리를 통해 막대 그래프를 만들거나 자세 디렉터리의 M개의 클러스터 센터 사이에 있는 차이를 합산한 차이를 만들 수 있다. 자세 디렉터리 자체는 군집화 방법으로 (예를 들어 kNN 군집화, 즉 K-최근접 이웃을 고려한 군집화 방법이나 GMM 군집화, 즉 가우스 혼합 모델을 이용한 군집화 방법으로) 만들어질 수 있다.
최종 특징 벡터(부분 자세의 특징 벡터로 구성됨)는 자세/거동을 분류하는 데 사용된다. 이를 위해 예컨대 SVMs(Support Vector Machines)나 심층 신경망과 같은 분류 방법을 임의로 이용할 수 있다.
도 2는 부분 자세의 특징 벡터가 어떻게 군집화된 자세 디렉터리(Pose-Dictionary)를 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합되는가를 예시적으로 보여준다.
좌측에서는 도 1에 표시된 골격 표시와 비교한 골격 표시를 볼 수 있다. 실선은 연관된 두 핵심 항목 사이의 연결, 즉 골격의 "뼈"를 나타낸다. 어느 한 사람의 골격 표시는 여러 개의 부분 자세 1, 2, 3, ..., N으로 나누어지는 바, 여기서 좌측 도 2의 첫 번째 세 부분 자세는 빗금 친 사각형으로 표시되어 있다. 여기서 부분 자세 1에는 예를 들어 머리의 좌측 팔이 포함되어 있다. 부분 자세 2에도 머리, 우측 및 상반신이 포함되어 있다. 부분 자세 3에는 우측 및 좌측 상박, 상반신과 대퇴부가 포함되어 있다. 각 부분 자세에 해당 특징 벡터가 할당된다. 각 특징 벡터는 자세 디렉터리의 한 (또는 각) 클러스터 센터 1, 2, 3, ?, M에 전송된다. 끝으로 자세 디렉터리는 자세 또는 거동을 분류하는 데 사용되는 최종 특징 벡터를 출력한다.
또 다른 예시 모델에서는 거동 인식장치를 통해 연속적인 영상에서 차량 주변에 있는 어떤 사람이 하박을 움직여 몸짓으로 신호를 보낸다는 것을 골격 형태의 표시로 인식한다. 이 예시에서 카메라와 거동 인식장치가 장착된 차량은 자율주행 택시이다. 이러한 거동에서는 보행자의 거동이 택시에 대한 것인가를 결정하는 것이 중요하다. 여기서도 시선 방향의 분석을 고려하는 것이 필요하다.
그렇지 않으면 보행자가 다른 보행자에게 몸짓으로 신호를 보냈음에도 그 보행자가 탑승하도록 택시가 정차하는 경우가 발생할 수 있다. 또는 그 보행자가 선행하는 자율주행 택시에서 신호를 보냈지만 이 두 택시 두 개가 정차하는 경우도 발생할 수 있다.
Claims (14)
- 단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력. - 청구항 1에 따른 방법으로서, 여기서 하나 이상의 연관된 신체 부위에서 그룹이 형성된다.
- 청구항 2에 따른 방법으로서, 여기서 어느 한 신체 부위는 여러 그룹에 속한다.
- 청구항 2 또는 3에 따른 방법에 관한 것으로서, 여기서 그룹의 개수 N이 설정된다.
- 청구항 2에서 4까지 중 하나에 따른 방법으로서, 여기서 각 그룹에 각 그룹에서 통합되어 있는 핵심 항목의 좌표에 기반을 둔 어떤 특징 벡터가 할당된다.
- 청구항 5에 따른 방법으로서, 여기서 어떤 사람의 그룹에 속하는 특징 벡터가 군집화된 자세 디렉터리를 이용하여 최종 특징 벡터로 병합된다.
- 청구항 6에 따른 방법으로서, 여기서 거동 인식은 최종 특징 벡터의 분류에 의해 이루어진다.
- 상기 청구항 중 하나에 따른 방법으로서, 여기서 골격 형태의 표시를 기반으로 하여 어떤 사람의 시선 방향에 대한 평가가 이루어진다.
- 청구항 8에 따른 방법으로서, 여기서 특히 사람의 시선 방향이 단안 카메라 방향으로 향하고 있는가를 점검한다.
- 상기 청구항 중 하나에 따른 방법으로서, 여기서 거동의 인식은 사전에 훈련을 받았던 거동 분류에 의해 이루어진다.
- 상기 청구항 중 하나에 따른 방법으로서, 여기서 한 사람에게 할당되어 있는 핵심 항목의 개수는 최대 20개이다.
- 청구항 8에서 11까지 중 하나에 따른 방법으로서, 여기서 머리를 숙이고 그 시선 방향이 손으로 향한 상태로 걷는 사람은 주의력이 분산된 교통 참여자로 분류된다.
- 단안 카메라에 의해 촬영된 사진에서 어떤 사람의 거동을 인식하기 위한 장치에 관한 것으로서, 여기서 이 장치를 다음을 하도록 구성되어 있는 바,
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다,
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동을 나타내는 출력 신호 생성 및 출력. - 단안 카메라와 청구항 13에 따른 장치가 장착된 차량.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017216000.4A DE102017216000A1 (de) | 2017-09-11 | 2017-09-11 | Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera |
DE102017216000.4 | 2017-09-11 | ||
PCT/DE2018/200085 WO2019048011A1 (de) | 2017-09-11 | 2018-09-10 | Gestensteuerung zur kommunikation mit einem autonomen fahrzeug auf basis einer einfachen 2d kamera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200051529A true KR20200051529A (ko) | 2020-05-13 |
Family
ID=63685530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197038411A KR20200051529A (ko) | 2017-09-11 | 2018-09-10 | 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11557150B2 (ko) |
EP (1) | EP3682367B1 (ko) |
JP (1) | JP7280865B2 (ko) |
KR (1) | KR20200051529A (ko) |
CN (1) | CN111033512B (ko) |
DE (2) | DE102017216000A1 (ko) |
WO (1) | WO2019048011A1 (ko) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018200814B3 (de) * | 2018-01-18 | 2019-07-18 | Audi Ag | Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug |
CN108491820B (zh) * | 2018-04-02 | 2022-04-12 | 京东方科技集团股份有限公司 | 图像中肢体表示信息的识别方法、装置及设备、存储介质 |
US11850514B2 (en) | 2018-09-07 | 2023-12-26 | Vulcan Inc. | Physical games enhanced by augmented reality |
US11670080B2 (en) | 2018-11-26 | 2023-06-06 | Vulcan, Inc. | Techniques for enhancing awareness of personnel |
CN111488773B (zh) * | 2019-01-29 | 2021-06-11 | 广州市百果园信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
WO2020163530A1 (en) | 2019-02-08 | 2020-08-13 | Vulcan Inc. | Devices to assist ecosystem development and preservation |
WO2020178876A1 (en) * | 2019-03-01 | 2020-09-10 | Nec Corporation | Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program |
US11912382B2 (en) | 2019-03-22 | 2024-02-27 | Vulcan Inc. | Underwater positioning system |
EP3953857A4 (en) * | 2019-04-12 | 2022-11-16 | INTEL Corporation | TECHNOLOGY TO AUTOMATICALLY IDENTIFY THE FRONT BODY ORIENTATION OF INDIVIDUALS IN REAL-TIME MULTICAMERA VIDEO STREAMS |
US11435845B2 (en) * | 2019-04-23 | 2022-09-06 | Amazon Technologies, Inc. | Gesture recognition based on skeletal model vectors |
US11232296B2 (en) | 2019-07-10 | 2022-01-25 | Hrl Laboratories, Llc | Action classification using deep embedded clustering |
US11320830B2 (en) | 2019-10-28 | 2022-05-03 | Deere & Company | Probabilistic decision support for obstacle detection and classification in a working area |
EP4053791A4 (en) * | 2019-10-31 | 2022-10-12 | NEC Corporation | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND NON-TRANSITORY COMPUTER READABLE MEDIA ON WHICH AN IMAGE PROCESSING PROGRAM IS STORED |
US11308800B2 (en) | 2019-12-05 | 2022-04-19 | Toyota Motor North America, Inc. | Transport impact reporting based on sound levels |
US11107355B2 (en) | 2019-12-05 | 2021-08-31 | Toyota Motor North America, Inc. | Transport dangerous driving reporting |
US10832699B1 (en) | 2019-12-05 | 2020-11-10 | Toyota Motor North America, Inc. | Impact media sharing |
DE102020200572A1 (de) * | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern |
US11587329B2 (en) * | 2019-12-27 | 2023-02-21 | Valeo Schalter Und Sensoren Gmbh | Method and apparatus for predicting intent of vulnerable road users |
GB2616114A (en) * | 2020-01-03 | 2023-08-30 | Mobileye Vision Technologies Ltd | Vehicle navigation with pedestrians and determining vehicle free space |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
US11290856B2 (en) | 2020-03-31 | 2022-03-29 | Toyota Motor North America, Inc. | Establishing connections in transports |
CN113639760A (zh) * | 2020-04-27 | 2021-11-12 | 福特全球技术公司 | 一种导航系统及导航地图的显示方法 |
CN111681283B (zh) * | 2020-05-11 | 2023-04-07 | 哈尔滨工业大学 | 一种基于单目立体视觉的应用于无线充电对位的相对位姿解算方法 |
DE102022209561A1 (de) * | 2022-09-13 | 2024-03-14 | Zf Friedrichshafen Ag | System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld, Fahrzeug und Verkehrsüberwachungssystem |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4134891B2 (ja) * | 2003-11-28 | 2008-08-20 | 株式会社デンソー | 衝突可能性判定装置 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US8660300B2 (en) * | 2008-12-12 | 2014-02-25 | Silicon Laboratories Inc. | Apparatus and method for optical gesture recognition |
US8294767B2 (en) * | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
JP5187280B2 (ja) * | 2009-06-22 | 2013-04-24 | ソニー株式会社 | 操作制御装置および操作制御方法 |
US9400548B2 (en) * | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
CN101789125B (zh) * | 2010-01-26 | 2013-10-30 | 北京航空航天大学 | 一种无标记单目视频人体骨架运动跟踪方法 |
US20120327091A1 (en) * | 2010-03-08 | 2012-12-27 | Nokia Corporation | Gestural Messages in Social Phonebook |
US9274594B2 (en) * | 2010-05-28 | 2016-03-01 | Microsoft Technology Licensing, Llc | Cloud-based personal trait profile data |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
US20110317871A1 (en) | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
WO2012046392A1 (ja) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20120150650A1 (en) * | 2010-12-08 | 2012-06-14 | Microsoft Corporation | Automatic advertisement generation based on user expressed marketing terms |
US8740702B2 (en) * | 2011-05-31 | 2014-06-03 | Microsoft Corporation | Action trigger gesturing |
US8929612B2 (en) * | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9557836B2 (en) * | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US9606647B1 (en) * | 2012-07-24 | 2017-03-28 | Palantir Technologies, Inc. | Gesture management system |
JP2014048936A (ja) * | 2012-08-31 | 2014-03-17 | Omron Corp | ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム |
US9196164B1 (en) * | 2012-09-27 | 2015-11-24 | Google Inc. | Pedestrian notifications |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
DE102013207223A1 (de) | 2013-04-22 | 2014-10-23 | Ford Global Technologies, Llc | Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern |
CN103345744B (zh) * | 2013-06-19 | 2016-01-06 | 北京航空航天大学 | 一种基于多图像的人体目标部件自动解析方法 |
US9063578B2 (en) * | 2013-07-31 | 2015-06-23 | Microsoft Technology Licensing, Llc | Ergonomic physical interaction zone cursor mapping |
JP6121302B2 (ja) * | 2013-09-30 | 2017-04-26 | Kddi株式会社 | 姿勢パラメータ推定装置、姿勢パラメータ推定システム、姿勢パラメータ推定方法、およびプログラム |
JP2015095164A (ja) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 |
JP6091407B2 (ja) * | 2013-12-18 | 2017-03-08 | 三菱電機株式会社 | ジェスチャ登録装置 |
CN103941866B (zh) * | 2014-04-08 | 2017-02-15 | 河海大学常州校区 | 一种基于Kinect深度图像的三维手势识别方法 |
DE102014207802B3 (de) | 2014-04-25 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers |
US9946354B2 (en) * | 2014-08-29 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gesture processing using a domain-specific gesture language |
US10083233B2 (en) * | 2014-09-09 | 2018-09-25 | Microsoft Technology Licensing, Llc | Video processing for motor task analysis |
JP6722400B2 (ja) * | 2015-06-24 | 2020-07-15 | スズキ株式会社 | 車両の運転支援装置 |
CN104899927A (zh) * | 2015-07-07 | 2015-09-09 | 安徽瑞宏信息科技有限公司 | 一种人体姿态重建方法 |
US10317947B2 (en) * | 2015-10-12 | 2019-06-11 | Samsung Electronics Co., Ltd. | Electronic device and method for processing gesture thereof |
US9983591B2 (en) | 2015-11-05 | 2018-05-29 | Ford Global Technologies, Llc | Autonomous driving at intersections based on perception data |
KR102658303B1 (ko) * | 2016-02-18 | 2024-04-18 | 애플 인크. | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 |
CN106250867B (zh) * | 2016-08-12 | 2017-11-14 | 南京华捷艾米软件科技有限公司 | 一种基于深度数据的人体骨骼跟踪系统的实现方法 |
US10579869B1 (en) * | 2017-07-18 | 2020-03-03 | Snap Inc. | Virtual object machine learning |
US10296102B1 (en) * | 2018-01-31 | 2019-05-21 | Piccolo Labs Inc. | Gesture and motion recognition using skeleton tracking |
-
2017
- 2017-09-11 DE DE102017216000.4A patent/DE102017216000A1/de not_active Withdrawn
-
2018
- 2018-09-10 CN CN201880051413.9A patent/CN111033512B/zh active Active
- 2018-09-10 KR KR1020197038411A patent/KR20200051529A/ko not_active Application Discontinuation
- 2018-09-10 DE DE112018001957.8T patent/DE112018001957A5/de active Pending
- 2018-09-10 EP EP18778795.7A patent/EP3682367B1/de active Active
- 2018-09-10 US US16/641,828 patent/US11557150B2/en active Active
- 2018-09-10 WO PCT/DE2018/200085 patent/WO2019048011A1/de unknown
- 2018-09-10 JP JP2020505212A patent/JP7280865B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN111033512B (zh) | 2024-03-19 |
WO2019048011A1 (de) | 2019-03-14 |
US11557150B2 (en) | 2023-01-17 |
DE112018001957A5 (de) | 2020-02-20 |
DE102017216000A1 (de) | 2019-03-14 |
EP3682367A1 (de) | 2020-07-22 |
EP3682367B1 (de) | 2022-11-09 |
JP7280865B2 (ja) | 2023-05-24 |
US20200394393A1 (en) | 2020-12-17 |
CN111033512A (zh) | 2020-04-17 |
JP2020533662A (ja) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200051529A (ko) | 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 | |
US10387725B2 (en) | System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking | |
CN109074748A (zh) | 图像处理设备、图像处理方法和可移动体 | |
CN106463065B (zh) | 驾驶员的驾驶不能状态检测装置 | |
JP4879189B2 (ja) | 安全走行支援装置 | |
JP4173901B2 (ja) | 車両周辺監視装置 | |
CN113056390A (zh) | 情境驾驶员监控系统 | |
CN110651313A (zh) | 控制装置和控制方法 | |
JP6127659B2 (ja) | 運転支援装置及び運転支援方法 | |
CN110663042B (zh) | 交通参与者朝着自动化驾驶的车辆的方向的通信流 | |
KR20180090644A (ko) | 운전자 및 차량 간의 상호 작용을 위한 장치 및 그 방법 | |
JP2009237897A (ja) | 画像認識装置 | |
Weyers et al. | Action and object interaction recognition for driver activity classification | |
Martin et al. | Real time driver body pose estimation for novel assistance systems | |
JP2021051470A (ja) | 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法 | |
Louie et al. | Towards a driver monitoring system for estimating driver situational awareness | |
CN113276822A (zh) | 驾驶员状态推断装置 | |
CN113276821A (zh) | 驾驶员状态推断装置 | |
US11807264B2 (en) | Driving assistance apparatus, driving assistance method, and medium | |
Zhou et al. | Safety driving assistance system design in intelligent vehicles | |
WO2021166791A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20210279486A1 (en) | Collision avoidance and pedestrian detection systems | |
CN113505675A (zh) | 一种行人过马路特殊姿态监测系统及方法 | |
CN112241706A (zh) | 弱势交通参与者的手势识别方法、相应的装置和程序载体 | |
JP7412514B1 (ja) | キャビンモニタリング方法及び上記キャビンモニタリング方法を実行するキャビンモニタリングシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |