KR20200140869A - 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체 - Google Patents

모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체 Download PDF

Info

Publication number
KR20200140869A
KR20200140869A KR1020207032005A KR20207032005A KR20200140869A KR 20200140869 A KR20200140869 A KR 20200140869A KR 1020207032005 A KR1020207032005 A KR 1020207032005A KR 20207032005 A KR20207032005 A KR 20207032005A KR 20200140869 A KR20200140869 A KR 20200140869A
Authority
KR
South Korea
Prior art keywords
motion trajectory
trajectory
image
motion
feature
Prior art date
Application number
KR1020207032005A
Other languages
English (en)
Other versions
KR102343849B1 (ko
Inventor
단니 지앙
둥지에 허
Original Assignee
차이나 유니온페이 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 차이나 유니온페이 컴퍼니 리미티드 filed Critical 차이나 유니온페이 컴퍼니 리미티드
Publication of KR20200140869A publication Critical patent/KR20200140869A/ko
Application granted granted Critical
Publication of KR102343849B1 publication Critical patent/KR102343849B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체를 제공한다. 상기 방법은, 클라이언트가 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하는 단계 - 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함함 - ; 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계; 및 상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하는 단계를 포함한다.

Description

모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체
본 발명은 컴퓨터 데이터 처리 분야에 관한 것으로서, 구체적으로 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체에 관한 것이다.
기계의 자동 동작과 달리, 마우스 사용, 슬라이더 끌기 등의 인간 행동에 의해 생성되는 모션 궤적은 고유한 생물학적 특징을 가지며, 인간-기계 검증 및 위험 식별에 적용 가치가 있다.
종래 기술, 특히 인간-기계 식별 및 모듈 슬라이딩 검증 분야에서, 기존의 방법은 일반적으로 경험에 따라 인위적으로 모션 궤적의 특징 추출 규칙을 설정하거나, 모션 궤적에 대해 함수 모사 및 곡선 맞춤을 수행한다. 그러나 이러한 기술적 방안은 다음과 같은 문제점이 있다. (1)모션 궤적의 특징 추출 규칙이 인위적으로 설정되기 때문에, 특징 선택의 품질은 인간의 선행 지식에 크게 의존하고, 규칙은 시나리오와의 강한 관계로 인해 보편성이 없으며; (2)모션 궤적의 복잡한 구조적 특징으로 인해, 운동학적 변수(속도, 가속도, 변위 등)의 평균, 분산 등의 이산 통계를 채택하는 기존 방법은 궤적 특징을 일방적으로 표현하고, 표현의 어려움으로 인해 모델링 과정에서 풍부한 암시적 정보가 손실되며; (3)함수 모사 및 곡선 맞춤과 같은 방법의 효과가 불안정하며, 적절한 곡선 유형을 선택하는 방법을 정의하기 어렵고, 이상 점으로 인한 피팅 오류가 상대적으로 크기 때문이다. 더욱이, 모션 궤적은 적절한 함수로 추상화되지 않아, 쉽게 오버 피팅을 초래할 수 있다.
본 발명의 배경기술에 개시된 상기 정보는 단지 본 발명의 일반적인 배경에 대한 이해를 증진시키기 위한 것이며, 이 정보가 당업자에게 이미 알려진 선행 기술을 구성함을 인정하거나 어떠한 형태로 암시하는 것으로 간주되어서는 안된다.
종래 기술의 하나 이상의 결함을 해결하기 위해, 일 측면에 따라, 본 발명은, 클라이언트가 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하는 단계 - 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함함 - ; 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계; 및 상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하는 단계를 포함하는 모션 궤적의 특징 처리 방법을 제공한다.
상기 방법에서, 상기 사용자 행동에 의해 생성되는 모션 궤적은 마우스 모션 궤적 또는 화면 터치에 의해 생성되는 모션 궤적을 포함한다.
상기 방법에서, 상기 순서화된 포인트 세트에서 제 n 포인트는 [xn, yn, tn]으로 표현되며, 여기서 xn은 수평 좌표를 나타내며, yn은 수직 좌표를 나타내며, tn은 시간을 나타낸다.
상기 방법에서, 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는, 상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리는 단계; 및 그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하는 단계를 포함한다.
상기 방법에서, 상기 위치 요소에 따라 정해진 좌표축 영역에서 궤적 포인트를 그리며, 상기 시간 요소의 시퀀스로 상기 궤적 포인트 사이를 선으로 연결하여 상기 모션 궤적을 그린다.
상기 방법에서, 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는, 매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하는 단계를 더 포함한다.
상기 방법에서, 그려진 모션 궤적의 x 방향 속도, y 방향 속도 및 시간을 추출하고, [0, 255]의 값 범위로 매핑하고 변환하여, 이미지를 표현하기 위한 RGB 영상 채널 값을 획득한다.
상기 방법에서, 상기 모션 궤적이 통과하지 않는 모든 포인트의 RGB 영상 채널 값을 0으로 설정한다.
상기 방법은 상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함할 수 있다.
상기 방법은, 운영 환경 데이터를 획득하는 단계; 및 상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함할 수 있다.
다른 측면에 따라, 본 발명은, 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하도록 구성되는 수집 유닛 - 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함함 - ; 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하도록 구성되는 변환 유닛; 및 상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하도록 구성되는 처리 유닛을 포함하는 모션 궤적의 특징 처리 장치를 제공한다.
상기 장치에서, 상기 사용자 행동에 의해 생성되는 모션 궤적은 마우스 모션 궤적 또는 화면 터치에 의해 생성되는 모션 궤적을 포함한다.
상기 장치에서, 상기 순서화된 포인트 세트에서 제 n 포인트는 [xn, yn, tn]으로 표현되며, 여기서 xn은 수평 좌표를 나타내며, yn은 수직 좌표를 나타내며, tn은 시간을 나타낸다.
상기 장치에서, 상기 변환 유닛은 상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리며, 그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하도록 구성된다.
상기 장치에서, 상기 변환 유닛은 상기 위치 요소에 따라 정해진 좌표축 영역에서 궤적 포인트를 그리며, 상기 시간 요소의 시퀀스로 상기 궤적 포인트 사이를 선으로 연결하여 상기 모션 궤적을 그리도록 구성된다.
상기 장치에서, 상기 변환 유닛은 매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하도록 구성된다.
상기 장치에서, 상기 변환 유닛은 그려진 모션 궤적의 x 방향 속도, y 방향 속도 및 시간을 추출하고, [0, 255]의 값 범위로 매핑하고 변환하여, 이미지를 표현하기 위한 RGB 영상 채널 값을 획득하도록 구성된다.
상기 장치에서, 상기 변환 유닛은 상기 모션 궤적이 통과하지 않는 모든 포인트의 RGB 영상 채널 값을 0으로 설정하도록 더 구성된다.
상기 장치는 상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제1 식별 유닛을 더 포함한다.
상기 장치는 운영 환경 데이터를 획득하도록 구성되는 획득 유닛 및 상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제 2 식별 유닛을 더 포함한다.
또 다른 측면에 따라, 본 발명은 실행될 때 프로세서로 하여금 전술한 방법을 수행하게 하는 명령을 포함하는 컴퓨터 저장 매체를 제공한다.
본 발명에 따른 특징 처리 솔루션은 인간의 선행 지식에 의존하지 않고 강한 보편성을 갖는다. 모션 궤적을 입력용 이미지로 변환함으로써, 지터 및 변위 특징과 같은 모션 특징의 추출 규칙을 인위적으로 설계할 필요가 없어, 부적절한 특징 모델링 및 불완전한 고려와 같은 문제를 방지한다. 또한, 본 발명에 따른 이미지 기반 특징 모델링 방법은 모션 궤적의 원래 구조 정보 및 규칙으로 설명하기 어려운 기타 암시적 정보를 보류한다. 처리된 특징은 기존의 기계 학습 알고리즘 외에도, 다양한 고급 이미지 처리 및 딥 러닝 알고리즘(예: 컨볼루션 신경망, CNN)에 적용할 수 있어, 궤적 특징 모델의 적용 범위를 확장한다. 또한, 본 발명의 특징 처리 솔루션을 채택함으로써, 공격자가 인간-기계 식별 또는 검증에서 규칙을 발견하기 어렵게 되어, 위험 제어 엔진을 속이는 정상적인 인간 동작을 배치로 시뮬레이션할 수 없게 된다.
본 발명의 방법 및 장치의 다른 특징 및 이점은 본 명세서에 포함된 첨부 도면 및 후속 본 발명의 특정 원리를 설명하기 위해 첨부 도면과 함께 사용되는 특정 실시예을 통해 더 명확해지거나 설명될 수 있는 것이다.
도 1은 본 발명의 일 실시예에 따른 모션 궤적의 특징 처리 방법을 도시하며, 및
도 2는 본 발명의 일 실시예에 따른 모션 궤적의 특징 처리 장치를 도시한다.
다음 설명은 본 발명의 최상의 모드를 만들고 사용하는 방법을 당업자에게 가르치기 위해 본 발명의 특정 실시예를 설명한다. 발명 원리를 가르치기 위해, 일부 종래의 측면을 단순화하거나 생략한다. 당업자는 이러한 실시예로부터의 변형이 본 발명의 범위 내에 있다는 것을 이해해야 한다. 당업자는 아래에 설명된 특징이 다양한 방식으로 결합되어 본 발명의 다수의 변형을 형성할 수 있다는 것을 이해해야 한다. 따라서, 본 발명은 후술하는 특정 실시예에 한정되지 않고, 청구 범위 및 그 균등 물에 의해서만 제한된다.
도 1은 본 발명의 일 실시예에 따른 모션 궤적의 특징 처리 방법(1000)을 도시한다. 도 1에 도시된 바와 같이, 방법(1000)은 하기 단계를 포함한다.
단계110: 클라이언트가 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하며, 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함하며;
단계120: 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하며; 및
단계130: 상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득한다.
본 발명의 맥락에서, "사용자 행동에 의해 생성되는 모션 궤적"이라는 용어는 마우스 모션 궤적 또는 화면 터치에 의해 생성되는 모션 궤적을 포함할 수 있다.
일 실시예에서, 클라이언트에 의해 수집되는 모션 궤적 샘플은
Figure pct00001
과 같은 순서화된 포인트 세트에 의해 표현되며, 여기서 제 n 포인트는 [xn, yn, tn]이며, xn은 수평 좌표를 나타내며, yn은 수직 좌표를 나타내며, tn은 시간을 나타낸다. 여기서, 시간은 처리된 상대 값이며,
Figure pct00002
Figure pct00003
,
Figure pct00004
은 샘플링의 시간 간격이다. 궤적의 수평 및 수직 좌표의 최대치 및 최소치를 기반으로 이미지의 크기를 결정한다. 따라서, 이미지의 길이는
Figure pct00005
이며, 너비는
Figure pct00006
이며,
Figure pct00007
각 궤적 포인트을 연결한다.
상기 실시예에서, 궤적의 수평 및 수직 좌표의 최대치 및 최소치에 기초하여 이미지 경계를 결정한다. 그러나, 다른 실시예에서, 클라이언트의 해상도에 따라 이미지 경계를 결정할 수 있으며, 궤적의 좌표 값은 좌표계의 설정에 따라 달라진다. 예를 들어, 사용자의 화면 해상도가 1600*900이면, 픽셀 매트릭스의 행과 열은 4:3의 비율을 준수해야 한다. 좌표계의 원점이 화면의 중앙에 있는 경우, 모션 궤적의 좌표 경계는 X[-800, 800], Y[-450, 450]이다. 또한, 당업자는 다양한 시나리오에서 검증 정확도에 대한 요구 또는 클라이언트 하드웨어 장치의 조건의 제한에 따라 궤적의 샘플링 밀도를 적절하게 증가하거나 또는 감소할 수 있음을 쉽게 이해할 수 있을 것이다.
일 실시예에서, 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는, 상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리는 단계; 및 그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하는 단계를 포함한다. 예를 들어, 정해진 좌표축 영역에서, 모션 궤적 샘플링 세트의 포인트 좌표 위치에 따라 궤적 포인트를 그리며, 시간 순서로 그려진 포인트 사이를 선으로 연결하여 모션 궤적을 그린다. 가장 간단한 경우는 픽셀 포인트 0, 1의 매트릭스을 구성하며, 궤적이 통과하는 픽셀 포인트의 값은 1이고 그렇지 않으면 0이다.
일 실시예에서, 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는, 매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하는 단계를 더 포함한다. 예를 들어, 단순 평균화, 중앙값 필터링, 가우스 평활화 등과 같은 방법을 이용하여 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 할 수 있다. 처리 후, 각 모션 궤적은 궤적 구조적 특징과 모션 특징을 저장하는 픽셀 매트릭스로 변환되어 다양한 고급 알고리즘 모델에 적합하다.
일 실시예에서, 모션 궤적의 기초에 다른 정보를 이미지 채널의 형태로 추가한다. 궤적 포인트의 수평 및 수직 방향의 속도와 시간을 구간[0, 255]의 정수에 매핑하며, 각 차원의 정보는 하나의 이미지 채널 값을 나타낸다. 필요에 따라 단일 채널 또는 다중 채널 이미지를 설정한다. 단일 채널 이미지의 각 픽셀 포인트는 한 차원의 정보만 필요로 하는 그레이스케일 이미지이고, 3 채널 이미지는 RGB 모드이며, 즉 컬러 이미지이다.
예를 들어, RGB 채널 정보로 x 방향 속도, y 방향 속도 및 시간을 선택한다. x 방향에서 제i 포인트의 속도의 근사값은
Figure pct00008
이다.
유사하게, y 방향에서 제i 포인트의 속도의 근사값은
Figure pct00009
min-max정규화 방법을 사용하여, x 방향의 속도, y 방향의 속도 및 시간에 대한 값 범위를 구간[0, 1]에 매핑한 후, 정규화된 값에 255를 곱하여 값 범위를 [0,255]로 변환하여 각 궤적 포인트의 RGB 채널 값을 획득한다. 궤적이 통과하지 않는 포인트는 R=G=B=0으로 설정된다.
물론, 당업자는 다른 정보를 채널 정보로 사용할 수 있음을 이해할 것이다. 상기 실시예에서x 및 y 방향의 속도와 시간을 RGB 채널 정보로 한다. 다른 실시예에서, x 및 y 방향의 가속도 및 시간
Figure pct00010
,
Figure pct00011
,
Figure pct00012
, 또는 속도, 가속도 및 시간
Figure pct00013
,
Figure pct00014
,
Figure pct00015
과 같은 다른 조합을 사용하고, RGB 채널 정보로 변환하고 처리한다. 여기서, x 방향에서 제i 포인트의 가속도는
Figure pct00016
이다.
y 방향에서 제i 포인트의 가속도는
Figure pct00017
이다.
제i 포인트의 가속도는
Figure pct00018
이다.
또한, 정규화 방법은 min-max정규화 방법외에, Z-score와 같은 다른 정규화 방법을 사용할 수도 있다.
일 실시예에서, 상기 특징 처리 방법(1000)은 상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함할 수 있다. 다른 실시예에서, 상기 특징 처리 방법(1000)은, 운영 환경 데이터를 획득하는 단계; 및 상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함할 수 있다.
인간-기계 식별 및 검증 과정에서, 사용자 동작의 모션 궤적과 같은 행동 특징외에, 운영 환경 데이터도 일정한 가치를 갖는다. 운영 환경 및 기타 속성 정보를 인코딩하고 매핑하며, 카테고리 정보를 숫자 형식으로 인코딩하고 변환하여 샘플의 보조 특징으로 한다. 일 실시예에서, 속성인 운영 체제와 같은 카테고리에 각각 하나의 숫자를 할당하여, Windows7:0, Ubuntu:1,…, 그러나, 이 처리 방법은 때때로 카테고리 정보를 무의식 중에 정렬한다. 예를 들어, 전술한 예에서 Ubuntu> Windows7로 간주될 수 있다.
일 실시예에서, one-hot 인코딩 방법을 이용하여, 하나의 속성을 n 개의 카테고리 특징으로 변환하며, 여기서 n은 카테고리의 수를 나타낸다. 예를 들어 운영 체제에는 Windows 7, Ubuntu, IOS 및 Android의 4개의 카테고리가 있다고 가정하면, 해당 코드는 x1[Windows7]=1000, x2[Ubuntu]=0100, x3[IOS]=0010, x4[Android]=0001일 수 있다.
도 2는 본 발명의 일 실시예에 따른 모션 궤적의 특징 처리 장치(2000)를 도시한다. 도 2에 도시된 바와 같이, 장치(2000)는 수집 유닛(210), 변환 유닛(220) 및 처리 유닛(230)을 포함한다. 수집 유닛(210)은 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하도록 구성되며, 여기서, 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함한다. 변환 유닛(220)은 상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하도록 구성된다. 처리 유닛(230)은 상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하도록 구성된다.
일 실시예에서, 상기 변환 유닛(220)은 상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리며, 그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하도록 구성된다. 다른 실시예에서, 상기 변환 유닛(220)은 상기 위치 요소에 따라 정해진 좌표축 영역에서 궤적 포인트를 그리며, 상기 시간 요소의 시퀀스로 상기 궤적 포인트 사이를 선으로 연결하여 상기 모션 궤적을 그리도록 구성된다. 또 다른 실시예에서, 상기 변환 유닛(220)은 매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하도록 구성된다. 또 다른 실시예에서, 상기 변환 유닛(220)는 그려진 모션 궤적의 x 방향 속도, y 방향 속도 및 시간을 추출하고, [0, 255]의 값 범위로 매핑하고 변환하여, 이미지를 표현하기 위한 RGB 영상 채널 값을 획득하도록 구성된다. 또 다른 실시예에서, 상기 변환 유닛(220)은 상기 모션 궤적이 통과하지 않는 모든 포인트의 RGB 영상 채널 값을 0으로 설정하도록 더 구성된다.
일 실시예에서, 상기 장치(2000)는 상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제1 식별 유닛(미도시)을 더 포함할 수 있다. 다른 실시예에서, 상기 장치(2000)는 운영 환경 데이터를 획득하도록 구성되는 획득 유닛; 및 상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제 2 식별 유닛을 더 포함할 수 있다.
전술한 모션 궤적의 특징 처리 방법 및 장치는 인간-기계 식별 또는 검증을 적용 시나리오로 하여 상세하게 설명된다는 점에 유의해야 한다. 당업자는 전술한 방법 및 장치가 실질적인 변경 없이 다른 인간-기계 상호 작용 시나리오에 적용될 수 있다는 것을 이해해야 한다.
당업자는 본 발명의 실시예가 방법, 시스템 또는 컴퓨터 프로그램 제품으로 제공될 수 있음을 이해해야 한다. 따라서, 본 발명은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합의 형태를 채택할 있다. 더욱이, 본 발명은 컴퓨터 사용 가능 프로그램 코드를 포함하는 하나 이상의 컴퓨터 사용 가능 저장 매체(자기 디스크 저장 장치 및 광학 저장 장치를 포함하나 이에 제한되지 않음)에 실행되는 컴퓨터 프로그램 제품의 형태를 사용할 수 있다. 예를 들어, 컴퓨터 프로그램 지령을 범용 컴퓨터, 전용 컴퓨터, 임베디드 프로세서 또는 기타 편집 가능한 처리 장비의 프로세서에 제공하여, 지정된 동작을 수행하기 위한 지령 시퀀스를 생성할 수 있다.
요약하면, 본 발명에 따른 특징 처리 솔루션은 인간의 선행 지식에 의존하지 않고 강한 보편성을 갖는다. 모션 궤적을 입력용 이미지로 변환함으로써, 지터 및 변위 특징과 같은 모션 특징의 추출 규칙을 인위적으로 설계할 필요가 없어, 부적절한 특징 모델링 및 불완전한 고려와 같은 문제를 방지한다. 또한, 본 발명에 따른 이미지 기반 특징 모델링 방법은 모션 궤적의 원래 구조 정보 및 규칙으로 설명하기 어려운 기타 암시적 정보를 보류한다. 처리된 특징은 기존의 기계 학습 알고리즘 외에도, 다양한 고급 이미지 처리 및 딥 러닝 알고리즘(예: 컨볼루션 신경망, CNN)에 적용할 수 있어, 궤적 특징 모델의 적용 범위를 확장한다. 또한, 본 발명의 특징 처리 솔루션을 채택함으로써, 인간-기계 식별 또는 검증에서 공격자가 규칙을 발견하기 어렵게 되어, 위험 제어 엔진을 속이는 정상적인 인간 동작을 배치로 시뮬레이션할 수 없게 된다.
위의 예는 주로 본 발명에 따른 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체를 설명한다. 본 발명의 특정 실시예 중의 일부만을 설명하지만, 당업자는 본 발명이 그 사상 및 범위를 벗어나지 않는 전체하에 많은 다른 형태로 구현될 수 있음을 이해해야 한다. 따라서, 제시된 예 및 실시예는 예시적이고 제한적이지 않은 것으로 간주되며, 본 발명은 첨부된 청구 범위에 의해 정의된 본 발명의 사상 및 범위를 벗어나지 않는 한, 다양한 수정 및 대체를 포함할 수 있다.

Claims (21)

  1. 클라이언트가 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하는 단계 - 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함함 - ;
    상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계; 및
    상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하는 단계를 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  2. 청구항 1에 있어서,
    상기 사용자 행동에 의해 생성되는 모션 궤적은 마우스 모션 궤적 또는 화면 터치에 의해 생성되는 모션 궤적을 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  3. 청구항 1에 있어서,
    상기 순서화된 포인트 세트에서 제 n 포인트는 [xn, yn, tn]으로 표현되며, 여기서 xn은 수평 좌표를 나타내며, yn은 수직 좌표를 나타내며, tn은 시간을 나타내는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  4. 청구항 1에 있어서,
    상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는,
    상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리는 단계; 및
    그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하는 단계를 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  5. 청구항 4에 있어서,
    상기 위치 요소에 따라 정해진 좌표축 영역에서 궤적 포인트를 그리며, 상기 시간 요소의 시퀀스로 상기 궤적 포인트 사이를 선으로 연결하여 상기 모션 궤적을 그리는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  6. 청구항 4에 있어서,
    상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하는 단계는,
    매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하는 단계를 더 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  7. 청구항 4에 있어서,
    그려진 모션 궤적의 x 방향 속도, y 방향 속도 및 시간을 추출하고, [0, 255]의 값 범위로 매핑하고 변환하여, 이미지를 표현하기 위한 RGB 영상 채널 값을 획득하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  8. 청구항 7에 있어서,
    상기 모션 궤적이 통과하지 않는 모든 포인트의 RGB 영상 채널 값을 0으로 설정하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  9. 청구항 1에 있어서,
    상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  10. 청구항 1에 있어서,
    운영 환경 데이터를 획득하는 단계; 및
    상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하는 단계를 더 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 방법.
  11. 사용자 행동에 의해 생성되는 모션 궤적을 수집하여 순서화된 포인트 세트를 획득하도록 구성되는 수집 유닛 - 상기 순서화된 포인트 세트의 각 궤적 포인트가 위치 요소 및 시간 요소를 포함함 - ;
    상기 위치 요소 및 상기 시간 요소의 정보에 기초하여 상기 모션 궤적을 이미지로 변환하도록 구성되는 변환 유닛; 및
    상기 이미지에 대해 이미지 처리를 수행하여, 상기 모션 궤적에서의 하나 또는 복수의 특징 벡터를 획득하도록 구성되는 처리 유닛을 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  12. 청구항 11에 있어서,
    상기 사용자 행동에 의해 생성되는 모션 궤적은 마우스 모션 궤적 또는 화면 터치에 의해 생성되는 모션 궤적을 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  13. 청구항 11에 있어서,
    상기 순서화된 포인트 세트에서 제 n 포인트는 [xn, yn, tn]으로 표현되며, 여기서 xn은 수평 좌표를 나타내며, yn은 수직 좌표를 나타내며, tn은 시간을 나타내는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  14. 청구항 11에 있어서,
    상기 변환 유닛은,
    상기 순서화된 포인트 세트에서의 각 궤적 포인트의 위치 요소 및 시간 요소에 따라 상기 모션 궤적을 그리며; 및
    그려진 모션 궤적을 적어도 하나의 이미지 채널 값에 의해 표현되는 이미지에 매핑하도록 구성되는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  15. 청구항 14에 있어서,
    상기 변환 유닛은 상기 위치 요소에 따라 정해진 좌표축 영역에서 궤적 포인트를 그리며, 상기 시간 요소의 시퀀스로 상기 궤적 포인트 사이를 선으로 연결하여 상기 모션 궤적을 그리도록 구성되는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  16. 청구항 14에 있어서,
    상기 변환 유닛은 매핑 전에 그려진 모션 궤적을 평활화하고 강화시켜 특징 정보를 풍부하게 하도록 구성되는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  17. 청구항 14에 있어서,
    상기 변환 유닛은 그려진 모션 궤적의 x 방향 속도, y 방향 속도 및 시간을 추출하고, [0, 255]의 값 범위로 매핑하고 변환하여, 이미지를 표현하기 위한 RGB 영상 채널 값을 획득하도록 구성되는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  18. 청구항 17에 있어서,
    상기 변환 유닛은 상기 모션 궤적이 통과하지 않는 모든 포인트의 RGB 영상 채널 값을 0으로 설정하도록 더 구성되는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  19. 청구항 11에 있어서,
    상기 하나 또는 복수의 특징 벡터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제1 식별 유닛을 더 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  20. 청구항 11에 있어서,
    운영 환경 데이터를 획득하도록 구성되는 획득 유닛; 및
    상기 하나 또는 복수의 특징 벡터 및 상기 운영 환경 데이터에 따라 인간-기계 식별 또는 검증을 수행하도록 구성되는 제 2 식별 유닛을 더 포함하는
    것을 특징으로 하는 모션 궤적의 특징 처리 장치.
  21. 실행될 때 프로세서로 하여금 청구항 1 내지 청구항 10 중의 어느 한 항에 따른 방법을 수행하게 하는 명령을 포함하는
    것을 특징으로 하는 컴퓨터 저장 매체.

KR1020207032005A 2018-07-11 2019-07-03 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체 KR102343849B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810756730.2 2018-07-11
CN201810756730.2A CN110717154A (zh) 2018-07-11 2018-07-11 运动轨迹的特征处理方法、设备以及计算机存储介质
PCT/CN2019/094475 WO2020011069A1 (zh) 2018-07-11 2019-07-03 运动轨迹的特征处理方法、设备以及计算机存储介质

Publications (2)

Publication Number Publication Date
KR20200140869A true KR20200140869A (ko) 2020-12-16
KR102343849B1 KR102343849B1 (ko) 2021-12-27

Family

ID=69142026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207032005A KR102343849B1 (ko) 2018-07-11 2019-07-03 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체

Country Status (6)

Country Link
US (1) US11222431B2 (ko)
EP (1) EP3822830B1 (ko)
JP (1) JP7096904B2 (ko)
KR (1) KR102343849B1 (ko)
CN (1) CN110717154A (ko)
WO (1) WO2020011069A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960139A (zh) * 2018-07-03 2018-12-07 百度在线网络技术(北京)有限公司 人物行为识别方法、装置及存储介质
CN111862144A (zh) * 2020-07-01 2020-10-30 睿视智觉(厦门)科技有限公司 一种确定物体移动轨迹分数的方法及装置
CN112364722A (zh) * 2020-10-23 2021-02-12 岭东核电有限公司 核电作业人员监控处理方法、装置和计算机设备
CN112686941B (zh) * 2020-12-24 2023-09-19 北京英泰智科技股份有限公司 一种车辆运动轨迹合理性识别方法、装置及电子设备
CN113658225A (zh) * 2021-08-19 2021-11-16 天之翼(苏州)科技有限公司 基于航拍监控的运动对象识别方法及系统
CN115392407B (zh) * 2022-10-28 2023-03-24 中建五局第三建设有限公司 基于无监督学习的危险源预警方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100089620A (ko) * 2009-02-04 2010-08-12 허성민 문자 입력 방법 및 그 단말기
KR20160124779A (ko) * 2014-02-25 2016-10-28 칼스루헤 인스티투트 퓌어 테흐놀로기 손글씨 및 제스처 인식을 위한 방법 및 시스템

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5281957A (en) * 1984-11-14 1994-01-25 Schoolman Scientific Corp. Portable computer and head mounted display
US5298919A (en) * 1991-08-02 1994-03-29 Multipoint Technology Corporation Multi-dimensional input device
JP2009020897A (ja) * 2002-09-26 2009-01-29 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2007334467A (ja) * 2006-06-13 2007-12-27 Cyber Sign Japan Inc 手書署名認証方法
US7971543B2 (en) * 2007-03-06 2011-07-05 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable recording medium storing sewing machine operation program
WO2009028221A1 (ja) * 2007-08-31 2009-03-05 Tokyo Metropolitan Organization For Medical Research 定量的運動機能評価システム
TW201312422A (zh) 2011-09-07 2013-03-16 Pixart Imaging Inc 具軌跡偵測功能之光學觸控系統及方法
CN103093183A (zh) 2011-10-27 2013-05-08 索尼公司 分类器生成装置和方法、视频检测装置和方法及视频监控系统
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US9280281B2 (en) * 2012-09-12 2016-03-08 Insyde Software Corp. System and method for providing gesture-based user identification
CN104463084A (zh) 2013-09-24 2015-03-25 江南大学 一种基于非负矩阵分解的离线手写签名识别
JP2015135537A (ja) 2014-01-16 2015-07-27 株式会社リコー 座標検出システム、情報処理装置、座標検出方法およびプログラム
JP6464504B6 (ja) 2014-10-01 2019-03-13 Dynabook株式会社 電子機器、処理方法およびプログラム
DK3158553T3 (en) * 2015-03-31 2019-03-18 Sz Dji Technology Co Ltd Authentication systems and methods for identifying authorized participants
JP2017004298A (ja) 2015-06-11 2017-01-05 シャープ株式会社 文字入力システム、文字入力方法、及び、コンピュータプログラム
KR101585842B1 (ko) 2015-10-05 2016-01-15 주식회사 시큐브 세그먼트 블록 기반 수기서명 인증 시스템 및 방법
CN106569613A (zh) * 2016-11-14 2017-04-19 中国电子科技集团公司第二十八研究所 一种多模态人机交互系统及其控制方法
CN108121906A (zh) * 2016-11-28 2018-06-05 阿里巴巴集团控股有限公司 一种验证方法、装置以及计算设备
CN107038462B (zh) * 2017-04-14 2020-12-15 广州机智云物联网科技有限公司 设备控制操作方法及系统
CN107133511A (zh) 2017-04-28 2017-09-05 成都新橙北斗智联有限公司 一种滑动验证的验证方法及装置
CN107463878A (zh) * 2017-07-05 2017-12-12 成都数联铭品科技有限公司 基于深度学习的人体行为识别系统
CN107507286B (zh) * 2017-08-02 2020-09-29 五邑大学 一种基于人脸和手写签名的双模态生物特征签到系统
CN107679374B (zh) * 2017-08-23 2019-03-15 北京三快在线科技有限公司 一种基于滑动轨迹的人机识别方法及装置,电子设备
CN108229130B (zh) * 2018-01-30 2021-04-16 中国银联股份有限公司 一种验证方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100089620A (ko) * 2009-02-04 2010-08-12 허성민 문자 입력 방법 및 그 단말기
KR20160124779A (ko) * 2014-02-25 2016-10-28 칼스루헤 인스티투트 퓌어 테흐놀로기 손글씨 및 제스처 인식을 위한 방법 및 시스템

Also Published As

Publication number Publication date
EP3822830A4 (en) 2022-04-06
WO2020011069A1 (zh) 2020-01-16
US11222431B2 (en) 2022-01-11
US20210248760A1 (en) 2021-08-12
JP7096904B2 (ja) 2022-07-06
KR102343849B1 (ko) 2021-12-27
JP2021512432A (ja) 2021-05-13
EP3822830A1 (en) 2021-05-19
CN110717154A (zh) 2020-01-21
EP3822830B1 (en) 2023-08-30

Similar Documents

Publication Publication Date Title
KR20200140869A (ko) 모션 궤적의 특징 처리 방법, 장치 및 컴퓨터 저장 매체
EP4116867A1 (en) Vehicle tracking method and apparatus, and electronic device
US11928800B2 (en) Image coordinate system transformation method and apparatus, device, and storage medium
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
CN112507806B (zh) 智慧课堂信息交互方法、装置及电子设备
CN113378770B (zh) 手势识别方法、装置、设备、存储介质
CN111667005B (zh) 一种采用rgbd视觉传感的人体交互系统
CN111027403A (zh) 手势估计方法、装置、设备及计算机可读存储介质
CN110582783A (zh) 训练装置、图像识别装置、训练方法和程序
CN105844204B (zh) 人体行为识别方法和装置
CN112486338A (zh) 医疗信息处理方法、装置及电子设备
CN112613496A (zh) 一种行人重识别方法、装置、电子设备及存储介质
CN116823884A (zh) 多目标跟踪方法、系统、计算机设备及存储介质
CN113544735A (zh) 人认证设备、控制方法和程序
CN110753239B (zh) 视频预测方法、视频预测装置、电子设备和车辆
KR20190093726A (ko) 영상으로부터 손을 검출하는 장치, 방법 및 컴퓨터 프로그램
CN117372286B (zh) 一种基于Python的图像噪声优化方法及系统
CN115810020B (zh) 一种基于语义引导的由粗到细的遥感图像分割方法及系统
CN116051925B (zh) 训练样本采集方法、装置、设备以及存储介质
CN115131562B (zh) 三维场景分割方法、模型训练方法、装置和电子设备
CN117854155B (zh) 一种人体骨骼动作识别方法及系统
KR102637343B1 (ko) 오브젝트 추적 방법 및 장치
WO2022190435A1 (ja) 命令記述支援システム、命令記述支援方法および命令記述支援プログラム
KR20220088033A (ko) 영상 레이블링 평가 방법 및 서버
CN117218717A (zh) 一种基于时空网络的手势识别方法及系统

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant