KR20200051529A - 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 - Google Patents

단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 Download PDF

Info

Publication number
KR20200051529A
KR20200051529A KR1020197038411A KR20197038411A KR20200051529A KR 20200051529 A KR20200051529 A KR 20200051529A KR 1020197038411 A KR1020197038411 A KR 1020197038411A KR 20197038411 A KR20197038411 A KR 20197038411A KR 20200051529 A KR20200051529 A KR 20200051529A
Authority
KR
South Korea
Prior art keywords
behavior
person
monocular camera
key items
skeletal
Prior art date
Application number
KR1020197038411A
Other languages
English (en)
Inventor
에르빈 크라프트
니콜라이 하리히
자샤 젬러
피아 드라이자이텔
Original Assignee
콘티 테믹 마이크로일렉트로닉 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 콘티 테믹 마이크로일렉트로닉 게엠베하 filed Critical 콘티 테믹 마이크로일렉트로닉 게엠베하
Publication of KR20200051529A publication Critical patent/KR20200051529A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • G06K9/00369
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • G06K9/00355
    • G06K9/00389
    • G06K9/00791
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06K2209/055
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 단안 카메라를 이용한 거동 인식을 위한 방법 및 장치에 관한 것으로서, 특히 부분적으로 자동화되어 주행하는 자동차의 차량 카메라에서 사용될 수 있다.
단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한 이 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력.

Description

단순한 2D 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어
본 발명은 단안 카메라를 이용한 거동 인식을 위한 방법 및 장치에 관한 것으로서, 특히 부분적으로 자동화되어 주행하는 자동차의 차량 카메라에서 사용될 수 있다.
거동을 감지하는 최신 기술은 예를 들어 3D 카메라 키넥트(Kinect)이다. 알려진 대부분의 방법 또는 시스템에는 거동을 인식할 수 있도록 하는 3D 정보(예컨대 키넥트)가 필요하다.
출원 공개 "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields"(Cao 외 공저, https :// arxiv . org /pdf/1611.08050.pdf, 2017년 9월 11일 일 공개)는 여러 사람의 자세를 2D으로 추정하여 한 화면에 표시하는 방법을 보여준다. 여기서는 어느 한 사람에 속하는 신체 부분이 골격의 형태로 결합되어 있다.
따라서 내골격의 연결 요소를 통해 만들어지는 핵심 항목(key points)의 목록이 만들어진다.
DE 10 2014 207 802 B3은 도로교통에서 교통 참여자가 취하는 동작을 선행적으로 인식하기 위한 방법과 시스템을 보여준다. 여기서는 최소한 한 대의 카메라에 의해 화소로 구조화된 교통 참여자(예를 들어 보행자)의 영상이 촬영되어, 그에 따른 영상 데이터가 만들어진다. 여러 화소로 이루어진 영상 데이터는 각각 셀로 그룹화되는 바, 이때 그 영상에는 여러 셀이 있다. 어느 한 셀 내의 영상 데이터를 이용하여 각각 중점이 결정된다. 각 화소에 대해, 여러 셀의 중점에 대한 각 거리가 결정되는 바, 이때 각 화소와 중점의 좌표를 이용하여 화소에 할당된 특징 벡터가 형성된다. 이 특징 벡터는 최소한 하나의 기준 벡터 클러스터와 비교되며, 이 비교를 바탕으로 하여 교통 참여자가 취하는 전형적인 동작의 자세를 교통 참여자에게 할당한다. 이 방법은 어떤 교통 참여자의 자세에 의해 그가 의도하는 동작을 실행하기 전에 이미 그의 의도(예를 들어 횡단보도를 건너려는 의도)를 인식할 수 있다는 것을 출발점으로 삼는다. 그러면 이러한 자세 인식을 기반으로 하여 그러한 동작이 실행되기 전에 이미 선행적으로 조치를 취할 수 있는 바, 예를 들어 운전자에게 및/또는 측정 기술에 의해 파악된 교통 참여자에서 청각적 및/또는 시각적 경고를 발령할 수 있으며/있거나 예를 들어 제동 시스템이나 조향 시스템과 같은 차량 시스템을 제어할 수 있다.
자세는 예를 들어 교통 참여자나 보행자의 골격 형태나 또는 단순화된 도형 형태를 띨 수 있다. 다른 한편으로 그 자세는 그 교통 참여자의 예상되는 동작에 할당될 수 있는 바, 이 자세에 의해 어떤 교통 상황이 평가되고 어떤 위험을 피하게 하며, 경우에 따라 추가적인 제어 조치가 완전 자동 방식으로나 또는 부분적인 자동 방식으로 개시되도록 할 수 있다. 예를 들어 사람들이 달리기 시작할 때 가장 흔히 취하는, 약간 구부린 자세는 그 자세가 "앞에서"라는 방향으로 파악되면, 즉 그 사람이 차량 방향으로 움직이는 경우 도로교통에서 어떤 위험으로 분류될 수 있다.
이러한 출발점의 단점은 특징 벡터의 형성에 비용이 많이 든다는 점이다.
현재의 기술 수준을 고려하여 해결해야 할 문제는 차량에 설치된 단안 카메라의 영상을 기반으로 한 어떤 개선된 거동 인식인 바, 이러한 카메라에 차량의 기능을 제어하는 장치를 장착할 수 있다.
본 발명의 측면은 예를 들어 다음과 같다:
Figure pct00001
차량에게 지시하는 거동 인식예를 들어 교차로에 있는 경찰(오른손은 오른쪽으로 주행하라는 신호이다)
Figure pct00002
단순한 2D 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어
Figure pct00003
도로교통 참여자(예를 들어 스마트폰에 정신이 팔린 보행자)의 주의력 점검
거동 또는 자세 인식의 목표는 특히 사람의 정적 자세(거동)을 평가하는 것이다. 그러므로 예컨대 어떤 사람이 왼팔이나 오른팔을 들어올리고 있는지 또는 양팔을 벌리고 있는지를 인식할 수 있다.
이러한 문제는 본 발명의 독립된 청구항에 따른 방법과 장치에 의해 해결된다.
유용한 다른 구현 형태는 종속된 청구항의 대상이다.
본 발명에서 제시한 해결 방안의 출발점은 골격 형태의 표시를 기반으로 하여 여러 거동을 설명하고 그 거동에 분류자가 접근할 수 있도록 한 다음, 사람을 촬영한 영상에서 이 거동을 인식하는 것에 근거를 두고 있다.
카메라 영상에 사상된 사람에 대한 골격 형태의 표시는 특히 도식적으로 지정된 객체의 일부에, 예를 들어 신체의 일부에 근거를 두고 있다.
단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한, 본 발명에 따른 방법은 다음의 단계로 이루어져 있다:
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동의 출력.
핵심 항목의 감지 후 및 핵심 항목과 골격의 결합 후 결합된 신체의 일부에 대한 목록이 예를 들어 표의 형태로 제시된다. 이러한 목록은 완전할 수 있지만, 불완전(절반 정도 가려진 사람)할 수도 있다. 신체 일부가 없을 수도 있다.
골격 형태의 표시는 각 신체 일부의 위치와 지향 방향을 반영하는 바, 예를 들어 서로 결합된 핵심 항목 및 그 위치를 목록 형태로 제시하며 반영한다.
따라서 어떤 한 사람의 여러 핵심 항목은 어떤 견고한 표시로 변환된다.
이를 위해 여러 신체 부위가 특히 그룹으로 분류된다((예를 들어 팔이 있는 상체, 좌측 팔이 있는 머리, 우측 팔이 있는 머리, 순수하게 머리만). 사람이 부분적으로 감추어진다는 것을 고려할 때, 이처럼 중복하여 분류함으로써 이 방법은 상당히 안정적이 된다(자동차 뒤에 있는 사람은 상반신만, 광고탑 뒤에 있는 사람은 세로로 절반만 보인다).
특히 그룹(서로 결합된 핵심 항목)은 하나 이상의 서로 연관된 신체 부위로 이루어진다. 그룹은 사람의 부분 자세 또는 사람이 취한 거동의 일부분에 해당한다.
유용하게도 어느 한 신체 부위는 여러 그룹에 속하는 바, 예를 들어 첫 번째 부분 자세에는 머리와 왼팔이 있고 두 번째 부분 자세에는 머리와 오른팔이 있을 수 있다.
그룹 또는 부분 자세의 개수는 다양하게 설정할 수 있는 자유 매개변수이다.
핵심 항목의 코딩은 치밀하고 의미론적으로 해석할 수 있는, 예를 들어 심층 신경망을 통해 해석되는 특징 공간으로 변환되는 것이 이상적이다. 달리 표현하자만 각 그룹 또는 부분 자세에 특징 벡터를 할당할 수 있다. 특징 벡터를 예를 들어 이 그룹에 통합되어 있는 핵심 항목의 좌표에 근거를 두고 있다.
특히 그룹 또는 부분 자세의 특징 벡터는 군집화된 자세 디렉터리(자세 사전)을 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합된다.
이러한 병합에서는 예를 들어 자세 디렉터리를 통해 막대 그래프를 만들거나 자세 디렉터리의 각 클러스터 센터 사이에 있는 차이를 합산한 차이를 만들 수 있다. 자세 디렉터리 자체는 군집화 방법으로, 예를 들어 kNN 군집화, 즉 K-최근접 이웃(k nearest neighbor)을 고려한 군집화나 GMM 군집화, 즉 가우스 혼합 모델(Gaussian Mixture Model)을 이용한 군집화로 만들어질 수 있다.
특히 최종 특징 벡터(부분 자세의 특징 벡터로 구성됨)는 자세/거동을 분류하는 데 사용된다.
특히 사람의 시선 방향은 골격 형태의 표시를 기반으로 하여 평가된다.
특히 사람의 시선 방향이 단안 카메라 방향으로 향하고 있는가를 점검할 수 있다.
유용하게도 거동의 인식은 사전에 훈련을 받았던 거동 분류에 의해 이루어진다. 분류 방법으로서는 SVM(Support Vector Machines)이나 또는 심층 신경망과 같이 적절하고 일반적으로 알려진 분류 방법을 투입할 수 있다.
특히 한 사람에게 할당되어 있는 핵심 항목의 개수는 최대 20개이다.
특히 머리를 숙이고 그 시선 방향이 손으로 향한 상태로 걷는 사람은 주의력이 분산된 교통 참여자로 분류된다.
거동 인식을 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어가 이루어질 수 있다. 예컨대 차량 소유자나 자율 방식으로 주행하는 택시에 탈 손님과 통신하기 위해서는 차량 측에서 나온 피드백이 필요한 바, 이는 그 사람이 자신이 감지되었거나 이해되었다는 것을 알도록 하기 위해서이다. 이러한 방식으로 차량과 사람이 서로 상호 작용을 할 수 있다. 하지만 사람이 도로 위에서 달리거나 차량과 충돌할 위험이 있어 경고가 발령되는 경우에도 그 차량이 그 사람을 감지하여 충돌을 피한다고 차량이 그 사람에게 보내는 피드백이 유용할 수 있다.
본 발명의 또 다른 대상은 단안 카메라의 영상에서 사람의 거동을 인식하기 위한 적절한 장치이다. 이 장치는 다음을 위해 구성되어 있는 바,
a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다,
c) 골격 형태로 표시된 사람에서 거동 인식 및
d) 인식된 거동을 나타내는 출력 신호 생성 및 출력.
이 장치에는 특히 마이크로 컨트롤러나 프로세서, 디지털 신호 프로세서(Digital Signal Processor: DSP), ASIC(주문형 집적 회로: Application Specific Integrated Circuit), FPGA(필드 프로그래머블 게이트 어레이: Field Programmable Gate Array) 등과 해당 처리 단계를 실행하기 위한 소프트웨어가 포함될 수 있다.
따라서 본 발명은 디지털 전자 회로, 컴퓨터 하드웨어, 펌웨어 또는 소프트웨어에서 구현될 수 있다.
이 장치는 특히 전방, 후방 또는 측방 카메라와 같은 단안 카메라와 함께 차량에 배치되어 작동할 수 있다.
본 발명은 단안 카메라가 장착된 차량과 본 발명에 따른 장치에 관한 것이다.
이하에서 예시 모델과 도면을 이용하여 더 상세히 설명하겠다.
거동 인식의 한 예시 모델은 두 단계로 이루어져 있다.
1. 사람의 감지
영상에 있는 사람이 먼저 감지된다. 여기에는 사람 감지기가 투입된다. 유용하게도 사람의 개별 신체 부위를 찾아 이를 어느 한 골격과 연결하는 특수 감지기가 사용된다.
도면 1은 차량 카메라가 촬영한 실제 사람에 대한 골격 형태의 표시를 예시로서 도시한 그림이다. 차량 카메라가 촬영한 영상에서 핵심 항목을 추출하였고 핵심 항목의 연결을 산출하였다. 핵심 항목이란 예를 들어 어깨, 목 기저부, 팔꿈치, 손(관절), 좌골부, 무릎, 복사뼈 관절; 입, 우안 및 좌안, 정수리이다.
핵심 항목은 직선에 의해 서로 연결되었으므로, 이 항목들은 골격 형태로 표시된다. 예를 들어 좌측 손목 관절과 팔꿈치의 핵심 항목은 "좌측 하박"과 서로 연결되고 좌측 어깨(도면에서 표시된 "핵심 항목")는 좌측 팔꿈치와 함께 "좌측 상박"에 연결되어 있다.
핵심 항목의 군집화는 "Gaussian Mixture Model"과 피셔-벡터 표시로의 신체 부위 변환을 통해 이루어질 수 있다. 이때 피셔 벡터는 각 개인의 정보만 코딩한다. 이때 중첩된 사람은 제외된다.
표를 통해 해당 사람의 여러 신체 부위가 어떤 특정 거동에 대해 적합한 동작 그룹으로 나누어진다. 이 표는 학습 과정을 통해서도 학습될 수 있다. 단순한 경우(거동이 비교적 적다는 점에서 구별됨), 그 자세를 상당히 명확하게 상이한 신체 영역에 할당할 수 있으면 그러한 표를 수동으로 만들 수 있다.
시선 방향을 머리 영역에 속하는 핵심 항목을 이용하여 평가할 수 있다. 시선 방향은 아래로 향하고 오른손 방향으로 향한다.
이에 거동 인식 장치에 의해 그 사람이 자신의 손에 있는 어떤 물체를 보고 있으며 현재 교통 상황에 주의를 기울이고 있지 않다고 인식하게 된다. 그 사람이 자신의 스마트폰을 보고 있다는 가정에서 그 거동을 "스몸비 족"(스마트폰 좀비)으로 분류한다.
거동 인식 장치를 이러한 정보를 차량의 다은 제어 장치에 전송한다. 이제 자율주행 자동차는 주행 계획을 수립할 때 이 보행자가 주의하지 않고 보행하고/하거나 그 위험 상태에 있을 경우 보행자에게 경고한다는 것을 고려할 수 있다.
2. 거동 또는 자세의 분류
골격 연결점(핵심 항목, 관절)의 좌표를 기반으로 하여 각 사람에 대해 특징 벡터를 만든다.
도 2는 거동을 분류하는 과정을 알기 쉽게 도시한 도면이다:
각 사람에 대해 기존의 방식처럼 어떤 특징 벡터만 사용하지는 않는다. 그 대신 각 사람에 대해 상이한 부분 자세를 기반으로 하는 N개의 특징 벡터를 만든다. 이러한 부분 자세 중 하나에는 머리와 좌측 팔만 포함되고, 다른 부분 자세에는 머리와 우측 팔만 포함될 수 있다. 이러한 부분 자세의 개수는 다양하게 설정할 수 있는 자유 매개변수이다.
부분 자세의 특징 벡터는 군집화된 자세 디렉터리(Pose-Dictionary)를 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합된다. 이러한 병합에서는 예를 들어 자세 디렉터리를 통해 막대 그래프를 만들거나 자세 디렉터리의 M개의 클러스터 센터 사이에 있는 차이를 합산한 차이를 만들 수 있다. 자세 디렉터리 자체는 군집화 방법으로 (예를 들어 kNN 군집화, 즉 K-최근접 이웃을 고려한 군집화 방법이나 GMM 군집화, 즉 가우스 혼합 모델을 이용한 군집화 방법으로) 만들어질 수 있다.
최종 특징 벡터(부분 자세의 특징 벡터로 구성됨)는 자세/거동을 분류하는 데 사용된다. 이를 위해 예컨대 SVMs(Support Vector Machines)나 심층 신경망과 같은 분류 방법을 임의로 이용할 수 있다.
도 2는 부분 자세의 특징 벡터가 어떻게 군집화된 자세 디렉터리(Pose-Dictionary)를 이용하여 병합 방법에 의해 최종적인 특징 벡터로 통합되는가를 예시적으로 보여준다.
좌측에서는 도 1에 표시된 골격 표시와 비교한 골격 표시를 볼 수 있다. 실선은 연관된 두 핵심 항목 사이의 연결, 즉 골격의 "뼈"를 나타낸다. 어느 한 사람의 골격 표시는 여러 개의 부분 자세 1, 2, 3, ..., N으로 나누어지는 바, 여기서 좌측 도 2의 첫 번째 세 부분 자세는 빗금 친 사각형으로 표시되어 있다. 여기서 부분 자세 1에는 예를 들어 머리의 좌측 팔이 포함되어 있다. 부분 자세 2에도 머리, 우측 및 상반신이 포함되어 있다. 부분 자세 3에는 우측 및 좌측 상박, 상반신과 대퇴부가 포함되어 있다. 각 부분 자세에 해당 특징 벡터가 할당된다. 각 특징 벡터는 자세 디렉터리의 한 (또는 각) 클러스터 센터 1, 2, 3, ?, M에 전송된다. 끝으로 자세 디렉터리는 자세 또는 거동을 분류하는 데 사용되는 최종 특징 벡터를 출력한다.
또 다른 예시 모델에서는 거동 인식장치를 통해 연속적인 영상에서 차량 주변에 있는 어떤 사람이 하박을 움직여 몸짓으로 신호를 보낸다는 것을 골격 형태의 표시로 인식한다. 이 예시에서 카메라와 거동 인식장치가 장착된 차량은 자율주행 택시이다. 이러한 거동에서는 보행자의 거동이 택시에 대한 것인가를 결정하는 것이 중요하다. 여기서도 시선 방향의 분석을 고려하는 것이 필요하다.
그렇지 않으면 보행자가 다른 보행자에게 몸짓으로 신호를 보냈음에도 그 보행자가 탑승하도록 택시가 정차하는 경우가 발생할 수 있다. 또는 그 보행자가 선행하는 자율주행 택시에서 신호를 보냈지만 이 두 택시 두 개가 정차하는 경우도 발생할 수 있다.

Claims (14)

  1. 단안 카메라로 촬영한 최소한 하나의 영상에서 거동을 인식하기 위한 방법은 다음의 단계로 이루어져 있다:
    a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
    b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다.
    c) 골격 형태로 표시된 사람에서 거동 인식 및
    d) 인식된 거동의 출력.
  2. 청구항 1에 따른 방법으로서, 여기서 하나 이상의 연관된 신체 부위에서 그룹이 형성된다.
  3. 청구항 2에 따른 방법으로서, 여기서 어느 한 신체 부위는 여러 그룹에 속한다.
  4. 청구항 2 또는 3에 따른 방법에 관한 것으로서, 여기서 그룹의 개수 N이 설정된다.
  5. 청구항 2에서 4까지 중 하나에 따른 방법으로서, 여기서 각 그룹에 각 그룹에서 통합되어 있는 핵심 항목의 좌표에 기반을 둔 어떤 특징 벡터가 할당된다.
  6. 청구항 5에 따른 방법으로서, 여기서 어떤 사람의 그룹에 속하는 특징 벡터가 군집화된 자세 디렉터리를 이용하여 최종 특징 벡터로 병합된다.
  7. 청구항 6에 따른 방법으로서, 여기서 거동 인식은 최종 특징 벡터의 분류에 의해 이루어진다.
  8. 상기 청구항 중 하나에 따른 방법으로서, 여기서 골격 형태의 표시를 기반으로 하여 어떤 사람의 시선 방향에 대한 평가가 이루어진다.
  9. 청구항 8에 따른 방법으로서, 여기서 특히 사람의 시선 방향이 단안 카메라 방향으로 향하고 있는가를 점검한다.
  10. 상기 청구항 중 하나에 따른 방법으로서, 여기서 거동의 인식은 사전에 훈련을 받았던 거동 분류에 의해 이루어진다.
  11. 상기 청구항 중 하나에 따른 방법으로서, 여기서 한 사람에게 할당되어 있는 핵심 항목의 개수는 최대 20개이다.
  12. 청구항 8에서 11까지 중 하나에 따른 방법으로서, 여기서 머리를 숙이고 그 시선 방향이 손으로 향한 상태로 걷는 사람은 주의력이 분산된 교통 참여자로 분류된다.
  13. 단안 카메라에 의해 촬영된 사진에서 어떤 사람의 거동을 인식하기 위한 장치에 관한 것으로서, 여기서 이 장치를 다음을 하도록 구성되어 있는 바,
    a) 단안 카메라로 촬영한 최소한 하나의 영상에 있는 어떤 사람의 핵심 항목 감지,
    b) 핵심 항목을 신체 일부의 골격 형태 표시와 연결, 이때 골격 형태의 표시는 각 신체 일부의 상대적 위치 및 지향 방향을 반영한다,
    c) 골격 형태로 표시된 사람에서 거동 인식 및
    d) 인식된 거동을 나타내는 출력 신호 생성 및 출력.
  14. 단안 카메라와 청구항 13에 따른 장치가 장착된 차량.




KR1020197038411A 2017-09-11 2018-09-10 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어 KR20200051529A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017216000.4A DE102017216000A1 (de) 2017-09-11 2017-09-11 Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
DE102017216000.4 2017-09-11
PCT/DE2018/200085 WO2019048011A1 (de) 2017-09-11 2018-09-10 Gestensteuerung zur kommunikation mit einem autonomen fahrzeug auf basis einer einfachen 2d kamera

Publications (1)

Publication Number Publication Date
KR20200051529A true KR20200051529A (ko) 2020-05-13

Family

ID=63685530

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197038411A KR20200051529A (ko) 2017-09-11 2018-09-10 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어

Country Status (7)

Country Link
US (1) US11557150B2 (ko)
EP (1) EP3682367B1 (ko)
JP (1) JP7280865B2 (ko)
KR (1) KR20200051529A (ko)
CN (1) CN111033512B (ko)
DE (2) DE102017216000A1 (ko)
WO (1) WO2019048011A1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200814B3 (de) * 2018-01-18 2019-07-18 Audi Ag Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug
CN108491820B (zh) * 2018-04-02 2022-04-12 京东方科技集团股份有限公司 图像中肢体表示信息的识别方法、装置及设备、存储介质
US11850514B2 (en) 2018-09-07 2023-12-26 Vulcan Inc. Physical games enhanced by augmented reality
US11670080B2 (en) 2018-11-26 2023-06-06 Vulcan, Inc. Techniques for enhancing awareness of personnel
CN111488773B (zh) * 2019-01-29 2021-06-11 广州市百果园信息技术有限公司 一种动作识别方法、装置、设备及存储介质
WO2020163530A1 (en) 2019-02-08 2020-08-13 Vulcan Inc. Devices to assist ecosystem development and preservation
WO2020178876A1 (en) * 2019-03-01 2020-09-10 Nec Corporation Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program
US11912382B2 (en) 2019-03-22 2024-02-27 Vulcan Inc. Underwater positioning system
EP3953857A4 (en) * 2019-04-12 2022-11-16 INTEL Corporation TECHNOLOGY TO AUTOMATICALLY IDENTIFY THE FRONT BODY ORIENTATION OF INDIVIDUALS IN REAL-TIME MULTICAMERA VIDEO STREAMS
US11435845B2 (en) * 2019-04-23 2022-09-06 Amazon Technologies, Inc. Gesture recognition based on skeletal model vectors
US11232296B2 (en) 2019-07-10 2022-01-25 Hrl Laboratories, Llc Action classification using deep embedded clustering
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
EP4053791A4 (en) * 2019-10-31 2022-10-12 NEC Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND NON-TRANSITORY COMPUTER READABLE MEDIA ON WHICH AN IMAGE PROCESSING PROGRAM IS STORED
US11308800B2 (en) 2019-12-05 2022-04-19 Toyota Motor North America, Inc. Transport impact reporting based on sound levels
US11107355B2 (en) 2019-12-05 2021-08-31 Toyota Motor North America, Inc. Transport dangerous driving reporting
US10832699B1 (en) 2019-12-05 2020-11-10 Toyota Motor North America, Inc. Impact media sharing
DE102020200572A1 (de) * 2019-12-18 2021-06-24 Conti Temic Microelectronic Gmbh Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern
US11587329B2 (en) * 2019-12-27 2023-02-21 Valeo Schalter Und Sensoren Gmbh Method and apparatus for predicting intent of vulnerable road users
GB2616114A (en) * 2020-01-03 2023-08-30 Mobileye Vision Technologies Ltd Vehicle navigation with pedestrians and determining vehicle free space
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US11290856B2 (en) 2020-03-31 2022-03-29 Toyota Motor North America, Inc. Establishing connections in transports
CN113639760A (zh) * 2020-04-27 2021-11-12 福特全球技术公司 一种导航系统及导航地图的显示方法
CN111681283B (zh) * 2020-05-11 2023-04-07 哈尔滨工业大学 一种基于单目立体视觉的应用于无线充电对位的相对位姿解算方法
DE102022209561A1 (de) * 2022-09-13 2024-03-14 Zf Friedrichshafen Ag System zur Erkennung der vorausliegenden Fußgängerintension eines Fußgängers in einem Umfeld, Fahrzeug und Verkehrsüberwachungssystem

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4134891B2 (ja) * 2003-11-28 2008-08-20 株式会社デンソー 衝突可能性判定装置
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
JP5187280B2 (ja) * 2009-06-22 2013-04-24 ソニー株式会社 操作制御装置および操作制御方法
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
CN101789125B (zh) * 2010-01-26 2013-10-30 北京航空航天大学 一种无标记单目视频人体骨架运动跟踪方法
US20120327091A1 (en) * 2010-03-08 2012-12-27 Nokia Corporation Gestural Messages in Social Phonebook
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US20110317871A1 (en) 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US20120150650A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Automatic advertisement generation based on user expressed marketing terms
US8740702B2 (en) * 2011-05-31 2014-06-03 Microsoft Corporation Action trigger gesturing
US8929612B2 (en) * 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9557836B2 (en) * 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US9606647B1 (en) * 2012-07-24 2017-03-28 Palantir Technologies, Inc. Gesture management system
JP2014048936A (ja) * 2012-08-31 2014-03-17 Omron Corp ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9196164B1 (en) * 2012-09-27 2015-11-24 Google Inc. Pedestrian notifications
US9310895B2 (en) * 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
DE102013207223A1 (de) 2013-04-22 2014-10-23 Ford Global Technologies, Llc Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern
CN103345744B (zh) * 2013-06-19 2016-01-06 北京航空航天大学 一种基于多图像的人体目标部件自动解析方法
US9063578B2 (en) * 2013-07-31 2015-06-23 Microsoft Technology Licensing, Llc Ergonomic physical interaction zone cursor mapping
JP6121302B2 (ja) * 2013-09-30 2017-04-26 Kddi株式会社 姿勢パラメータ推定装置、姿勢パラメータ推定システム、姿勢パラメータ推定方法、およびプログラム
JP2015095164A (ja) * 2013-11-13 2015-05-18 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP6091407B2 (ja) * 2013-12-18 2017-03-08 三菱電機株式会社 ジェスチャ登録装置
CN103941866B (zh) * 2014-04-08 2017-02-15 河海大学常州校区 一种基于Kinect深度图像的三维手势识别方法
DE102014207802B3 (de) 2014-04-25 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum proaktiven Erkennen einer Aktion eines Verkehrsteilnehmers
US9946354B2 (en) * 2014-08-29 2018-04-17 Microsoft Technology Licensing, Llc Gesture processing using a domain-specific gesture language
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
JP6722400B2 (ja) * 2015-06-24 2020-07-15 スズキ株式会社 車両の運転支援装置
CN104899927A (zh) * 2015-07-07 2015-09-09 安徽瑞宏信息科技有限公司 一种人体姿态重建方法
US10317947B2 (en) * 2015-10-12 2019-06-11 Samsung Electronics Co., Ltd. Electronic device and method for processing gesture thereof
US9983591B2 (en) 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
KR102658303B1 (ko) * 2016-02-18 2024-04-18 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN106250867B (zh) * 2016-08-12 2017-11-14 南京华捷艾米软件科技有限公司 一种基于深度数据的人体骨骼跟踪系统的实现方法
US10579869B1 (en) * 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10296102B1 (en) * 2018-01-31 2019-05-21 Piccolo Labs Inc. Gesture and motion recognition using skeleton tracking

Also Published As

Publication number Publication date
CN111033512B (zh) 2024-03-19
WO2019048011A1 (de) 2019-03-14
US11557150B2 (en) 2023-01-17
DE112018001957A5 (de) 2020-02-20
DE102017216000A1 (de) 2019-03-14
EP3682367A1 (de) 2020-07-22
EP3682367B1 (de) 2022-11-09
JP7280865B2 (ja) 2023-05-24
US20200394393A1 (en) 2020-12-17
CN111033512A (zh) 2020-04-17
JP2020533662A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
KR20200051529A (ko) 단순한 2d 카메라를 기반으로 하여 자율주행 자동차와 통신하기 위한 거동 제어
US10387725B2 (en) System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking
CN109074748A (zh) 图像处理设备、图像处理方法和可移动体
CN106463065B (zh) 驾驶员的驾驶不能状态检测装置
JP4879189B2 (ja) 安全走行支援装置
JP4173901B2 (ja) 車両周辺監視装置
CN113056390A (zh) 情境驾驶员监控系统
CN110651313A (zh) 控制装置和控制方法
JP6127659B2 (ja) 運転支援装置及び運転支援方法
CN110663042B (zh) 交通参与者朝着自动化驾驶的车辆的方向的通信流
KR20180090644A (ko) 운전자 및 차량 간의 상호 작용을 위한 장치 및 그 방법
JP2009237897A (ja) 画像認識装置
Weyers et al. Action and object interaction recognition for driver activity classification
Martin et al. Real time driver body pose estimation for novel assistance systems
JP2021051470A (ja) 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
Louie et al. Towards a driver monitoring system for estimating driver situational awareness
CN113276822A (zh) 驾驶员状态推断装置
CN113276821A (zh) 驾驶员状态推断装置
US11807264B2 (en) Driving assistance apparatus, driving assistance method, and medium
Zhou et al. Safety driving assistance system design in intelligent vehicles
WO2021166791A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210279486A1 (en) Collision avoidance and pedestrian detection systems
CN113505675A (zh) 一种行人过马路特殊姿态监测系统及方法
CN112241706A (zh) 弱势交通参与者的手势识别方法、相应的装置和程序载体
JP7412514B1 (ja) キャビンモニタリング方法及び上記キャビンモニタリング方法を実行するキャビンモニタリングシステム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application