KR102456872B1 - 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 - Google Patents
영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 Download PDFInfo
- Publication number
- KR102456872B1 KR102456872B1 KR1020210192663A KR20210192663A KR102456872B1 KR 102456872 B1 KR102456872 B1 KR 102456872B1 KR 1020210192663 A KR1020210192663 A KR 1020210192663A KR 20210192663 A KR20210192663 A KR 20210192663A KR 102456872 B1 KR102456872 B1 KR 102456872B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- sensor
- hand motion
- motion tracking
- unit
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 269
- 238000000034 method Methods 0.000 title claims abstract description 127
- 230000004927 fusion Effects 0.000 title claims abstract description 99
- 238000010168 coupling process Methods 0.000 title claims abstract description 77
- 230000008878 coupling Effects 0.000 title claims abstract description 76
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 76
- 210000001145 finger joint Anatomy 0.000 claims abstract description 13
- 239000003550 marker Substances 0.000 claims description 71
- 230000008569 process Effects 0.000 claims description 59
- 210000003811 finger Anatomy 0.000 claims description 50
- 230000036544 posture Effects 0.000 claims description 35
- 230000000007 visual effect Effects 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 210000004247 hand Anatomy 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 210000003813 thumb Anatomy 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 8
- 238000012800 visualization Methods 0.000 claims description 5
- 230000001427 coherent effect Effects 0.000 claims description 4
- 238000013480 data collection Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 210000000707 wrist Anatomy 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 39
- 230000003993 interaction Effects 0.000 description 28
- 238000010801 machine learning Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910001338 liquidmetal Inorganic materials 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 도 1에 나타낸 본 발명의 실시예에 따른 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템의 구체적인 구성을 개략적으로 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템의 관성센서의 부착위치를 나타내는 도면이다.
도 4는 도 1에 나타낸 본 발명의 실시예에 따른 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템의 실제 구현예를 개략적으로 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템의 전체적인 처리동작을 개략적으로 나타내는 개념도이다.
도 6은 본 발명의 실시예에 따른 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템에서 손동작을 추적하는 처리과정의 전체적인 구성을 개략적으로 나타내는 플로차트이다.
도 7은 본 발명의 실시예에 따른 손동작 추적 알고리즘을 적용한 손동작 추적결과를 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 손동작 추적 알고리즘의 검증실험을 위해 적용된 피실험자들의 손 모양 및 크기를 각각 나타내는 도면이다.
도 9는 도 8에 나타낸 피실험자들의 손 크기의 분포를 그래프로 나타낸 도면이다.
도 10은 도 8에 나타낸 피실험자들에 대한 손동작 추적결과의 절대평균 오차를 그래프로 나타낸 도면이다.
도 11은 도 8에 나타낸 피실험자들에 대한 손동작 추적결과의 손크기에 대하여 정규화된 오차를 그래프로 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 손동작 추적 알고리즘과 기존의 손동작 추적 알고리즘의 추적결과를 각각 비교하여 나타낸 도면이다.
12. 착용부 13. 마커부
14. 관성센서부 15. 손동작 추적부
21. 상태추정부 22. 마커탐지부
23. 센서융합부 24. 시각화부
Claims (13)
- 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템에 있어서,
사용자의 손을 촬영하기 위한 카메라를 포함하여 이루어지는 영상센서부;
사용자의 손에 착용되는 장갑을 포함하여 이루어지는 착용부;
상기 영상센서부의 카메라를 통하여 사용자의 손과 손가락의 움직임을 인식하기 위해 상기 장갑의 표면에 부착되는 다수의 시각마커를 포함하여 이루어지는 마커부;
사용자의 손과 손가락의 움직임을 인식하고 추적하기 위해 상기 장갑의 각 부분에 각각 설치되는 다수의 관성센서를 포함하여 이루어지는 관성센서부; 및
상기 영상센서부 및 상기 관성센서부를 통해 얻어지는 각각의 데이터에 근거하여 사용자의 손동작을 추적하는 처리가 수행되도록 이루어지는 손동작 추적부를 포함하여 구성되고,
상기 손동작 추적부는,
상기 관성센서부를 통해 얻어지는 정보를 통해 손가락 관절의 위치 및 각도를 추정하는 처리가 수행되도록 이루어지는 상태추정부;
상기 영상센서부를 통해 촬영된 시각마커를 탐지하여 각 마커의 위치를 측정하는 처리가 수행되도록 이루어지는 마커탐지부;
상기 상태추정부 및 상기 마커탐지부의 정보에 근거하여 최종적인 손 자세를 계산하는 처리가 수행되도록 이루어지는 센서융합부; 및
상기 센서융합부에 의해 계산된 손 자세를 렌더링하여 모니터를 포함하는 디스플레이상에 표시하는 처리가 수행되도록 이루어지는 시각화부를 포함하여 구성되며,
상기 상태추정부는,
미리 정해진 자세로 손과 손가락의 자세를 초기화하고, 손동작 추적이 시작되면 각각의 관성센서를 통해 측정되는 센서 데이터를 수집하여 가속도 정보와 각가속도 정보를 추출하며,
추출된 가속도 정보 및 각가속도 정보에 근거하여, 확장칼만필터(Extended Kalman Filter ; EKF)를 이용하여 각 센서가 부착된 관절의 위치 및 각도를 추정하는 처리가 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 제 1항에 있어서,
상기 영상센서부는,
삼각측량이 가능한 스테레오 카메라(stereo camera)를 이용하여 구성되거나,
또는, 사용자의 시야 방향과 카메라의 방향이 일치되도록 HMD(head mounted display)에 카메라를 장착하여 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 제 1항에 있어서,
상기 착용부와 상기 마커부 및 상기 관성센서부는,
사용자의 손에 착용되는 장갑의 표면에 다수의 시각마커가 부착되고 미리 정해진 위치에 관성센서가 각각 설치되어 일체로 형성되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 제 1항에 있어서,
상기 관성센서부는,
엄지와 검지 및 중지의 각 마디와 손목 부분에 각각 배치되는 다수의 관성센서를 포함하여 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 삭제
- 삭제
- 제 1항에 있어서,
상기 상태추정부는,
상기 확장칼만필터(EKF)의 오차상태변수 xs를 이하의 수학식으로 정의하고,
(여기서, G는 글로벌 좌표계, I는 IMU(inertial measurement unit) 기준좌표계, p는 위치(position), v는 속도(velocity), δθ는 3차원 자세회전변수, bg는 자이로스코프 센싱 바이어스, ba는 가속도 센싱 바이어스, λB는 스케일(scale) 추정변수(손의 크기(hand scale)), δθIB는 IMU 부착 위치와 실제 신체(body)의 회전오차를 각각 의미함)
이하의 수학식을 이용하여 상기 확장칼만필터(EKF)의 오차상태변수를 예측하는 처리가 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
(여기서, Fs는 IMU 센서상태에 해당하는 오류상태 전이행렬(error-state transition matrix), G는 입력잡음행렬(input noise matrix), 0n×m은 n×m 영행렬(zero matrix), On은 n×n 영행렬, In은 n×n 단위행렬(identity matrix), 시스템 잡음(system noise) n은 로 정의되는 노이즈 벡터의 합을 각각 의미함)
- 제 1항에 있어서,
상기 마커탐지부는,
상기 영상센서부의 스테레오 카메라로 촬영된 각각의 양안 이미지에 대하여 HSV(hue-saturation-value) 필터링 기반으로 시각마커를 탐지하고,
CPD(coherent point drift) 알고리즘을 포함하는 포인트 매칭 방식에 기반한 스테레오 매칭(stereo matching) 처리를 통해 양안 이미지 내 시각마커간 대응관계를 구하며,
그 후, 삼각측량을 통해 각각의 시각마커의 3차원 위치를 계산하는 처리가 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 제 8항에 있어서,
상기 스테레오 매칭(stereo matching) 처리는,
GMM(Gaussian mixture model)을 적용하여, 일측 이미지에서 얻은 마커정보로부터 변환 파라미터 ζ에 의한 변환(transformation)을 수행했을 때 타측 이미지의 GMM 우도함수(likelihood function)를 최대로 만드는 변환 파라미터 ζ를 찾는 처리가 수행되도록 구성되며,
상기 변환 파라미터 ζ를 찾는 처리는,
기대값 최대화(Expectation Maximization ; EM) 알고리즘을 이용하여, 우측 관측집합을 R, 좌측 관측집합을 L, 변환 파라미터를 ζ라 할 때, 이하의 수학식을 이용하여 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
(여기서, h = {1, 2, 3, 4}는 각 색상의 인덱스, NL,h는 각각의 색상 h에 대하여 좌측의 관찰된 마커 수, R은 GMM 중심으로 표현되는 모델 포인트 집합(model point set), T(rj,ζ)는 파라미터 ζ를 이용한 우측 포인트 rj의 변환, ws는 스테레오 매칭의 이상값 비율(outlier ratio)을 결정하는 파라미터, ∑s는 카메라의 픽셀 관측 노이즈(pixel observation noise)의 공분산 행렬(covariance matrix), p(rj)는 1/NR,h의 고른분포확률(even probability)로 가정되는 사전확률(prior probability)을 각각 의미함)
- 제 1항에 있어서,
상기 센서융합부는,
상기 상태추정부에서 추정된 손 자세를 통해 각각의 시각마커에 대한 관측확률을 계산하고,
상기 마커탐지부에서 CPD 기반 스테레오 매칭을 통하여 탐지된 시각마커들의 장갑상 부착위치에 근거하여, 기대값 최대화(EM) 알고리즘을 이용하여 상기 상태추정부에서 확장칼만필터(EKF)를 통해 추정된 마커 집합에 대한 대응탐색(correspondence search)을 수행하는 것에 의해 관절의 위치 및 각도의 오차를 교정하여 상기 상태추정부의 추정결과를 보정하며,
그 후, 손의 골격구조에 따라 미리 정해진 해부학적 제약조건(anatomical constraints)을 반영하여 최종적인 손 자세를 계산하는 처리가 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 제 10항에 있어서,
상기 센서융합부는,
장갑 표면이 손 크기에 비례하여 늘어나는 것으로 가정할 때, 이하의 수학식을 이용하여 확장칼만필터(EKF)의 보정과정에 적용되는 관측변수 z의 추정값을 계산하고,
(여기서, 는 변수 z의 추정값이고, 좌표계 G는 글로벌 좌표계, 좌표계 I는 관성센서(IMU) 기준좌표계, B는 손가락 마디 기준좌표계를 각각 의미하며, , 및 는 각각 좌표계 G 또는 I로부터 좌표계 I 또는 B로의 동형변환(homogenous transformation)을 나타내는 벡터 및 회전행렬을 좌표계 G를 기준으로 각각 나타낸 것이고, d(ζ)는 벡터 의 3 × 3 대각행렬(diagonal matrix)을 나타내며, 는 센서 글러브의 제작시 마커 mj의 지정위치(designated position)를 각각 나타냄)
이하의 수학식을 이용하여 관측행렬 H를 정의하고 확장칼만필터(EKF)에 적용하는 것에 의해 상기 상태추정부의 추정결과를 보정하는 처리가 수행되도록 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
(여기서, Hx는 오류상태(erroe state) x에 대한 측정방정식(measurement equation)의 야코비안(Jacobian) 이고, [ζx]는 벡터 []의 반대칭 행렬(skew-symmetric matrix)을 나타냄)
- 제 10항에 있어서,
상기 해부학적 제약조건은,
엄지손가락의 수근중수(carpometacarpal ; CMC)/MCP 관절 및 검지와 중지의 MCP/PIP 관절을 포함하여, 해부학적으로 인접한 마디(segment)가 해당하는 회전관절(pivot joint)에 연결되도록 하는 위치적 제약조건(positional constraint); 및
엄지, 검지 및 중지에 대하여 MCP 관절의 x축 회전이 없고 검지 및 중지에 대하여 PIP 관절의 x/z축 회전이 없는 것을 포함하는 회전 제약조건(rotational constraint)을 포함하여 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템.
- 청구항 1항 내지 청구항 4항, 청구항 7항 내지 청구항 12항 중 어느 한 항에 기재된 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템을 이용하여 손동작을 추적하도록 구성되는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적방법에 있어서,
미리 정해진 자세로 손과 손가락의 자세를 초기화하고, 손동작 추적이 시작되면 상기 손동작 추적시스템의 관성센서부를 통하여 측정되는 각각의 관성센서의 센서 데이터를 수집하여 가속도 정보와 각가속도 정보를 추출하는 처리가 상기 손동작 추적시스템의 손동작 추적부를 통하여 수행되는 데이터 수집단계;
상기 데이터 수집단계에서 추출된 정보에 근거하여, 확장칼만필터(EKF)를 이용하여 손의 자세 및 동작을 추정하고 예측하는 처리가 상기 손동작 추적부를 통하여 수행되는 손동작 추정단계;
상기 손동작 추적시스템의 영상추적부를 통하여 스테레오 카메라로 촬영된 영상데이터가 수신되면, 영상 내에서 각각의 시각마커의 위치를 탐지하고 스테레오 매칭을 통해 얻어지는 시각마커의 위치 데이터를 반영하여 상기 확장칼만필터(EKF)의 추정값을 보정하는 처리가 상기 손동작 추적시스템의 손동작 추적부를 통하여 수행되는 손동작 보정단계; 및
상기 손동작 보정단계에서 보정된 결과에 미리 정해진 제약조건을 반영하여 최종 결과를 출력하는 처리가 상기 손동작 추적시스템의 손동작 추적부를 통하여 수행되는 제약조건 처리단계를 포함하여 구성되는 것을 특징으로 하는 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210192663A KR102456872B1 (ko) | 2021-12-30 | 2021-12-30 | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210192663A KR102456872B1 (ko) | 2021-12-30 | 2021-12-30 | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102456872B1 true KR102456872B1 (ko) | 2022-10-21 |
Family
ID=83805563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210192663A KR102456872B1 (ko) | 2021-12-30 | 2021-12-30 | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102456872B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690123A (zh) * | 2024-02-04 | 2024-03-12 | 南京航空航天大学 | 多目视觉下基于融合特征的行人3d姿态点跟踪方法 |
CN118123847A (zh) * | 2024-05-08 | 2024-06-04 | 帕西尼感知科技(张家港)有限公司 | 一种人机协作的系统、操作控制方法及装置 |
KR102755530B1 (ko) * | 2024-04-18 | 2025-01-21 | 주식회사 웬디미디어 | 가상환경에서 실시간 행동 모사를 기반으로 하여 제품 구매를 유도하는 방법 및 시스템 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101216065B1 (ko) * | 2011-09-16 | 2012-12-27 | 한국과학기술원 | 마커 장갑의 움직임을 3차원으로 인식하는 카메라 기반 원격조정 장치로 자원 개발 로봇을 구동하는 시스템 |
KR102170638B1 (ko) | 2018-11-06 | 2020-10-27 | 한길씨앤씨 주식회사 | 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템 |
KR20200142391A (ko) * | 2019-06-12 | 2020-12-22 | (주)코어센스 | 광학식 위치 추적 시스템의 3차원 마커 좌표 추정 방법 |
KR20210026795A (ko) * | 2019-09-02 | 2021-03-10 | 경북대학교 산학협력단 | Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템 |
KR102228639B1 (ko) | 2019-08-09 | 2021-03-16 | 한국과학기술원 | 손동작 추적 장치 및 그 방법 |
-
2021
- 2021-12-30 KR KR1020210192663A patent/KR102456872B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101216065B1 (ko) * | 2011-09-16 | 2012-12-27 | 한국과학기술원 | 마커 장갑의 움직임을 3차원으로 인식하는 카메라 기반 원격조정 장치로 자원 개발 로봇을 구동하는 시스템 |
KR102170638B1 (ko) | 2018-11-06 | 2020-10-27 | 한길씨앤씨 주식회사 | 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템 |
KR20200142391A (ko) * | 2019-06-12 | 2020-12-22 | (주)코어센스 | 광학식 위치 추적 시스템의 3차원 마커 좌표 추정 방법 |
KR102228639B1 (ko) | 2019-08-09 | 2021-03-16 | 한국과학기술원 | 손동작 추적 장치 및 그 방법 |
KR20210026795A (ko) * | 2019-09-02 | 2021-03-10 | 경북대학교 산학협력단 | Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117690123A (zh) * | 2024-02-04 | 2024-03-12 | 南京航空航天大学 | 多目视觉下基于融合特征的行人3d姿态点跟踪方法 |
CN117690123B (zh) * | 2024-02-04 | 2024-06-11 | 南京航空航天大学 | 多目视觉下基于融合特征的行人3d姿态点跟踪方法 |
KR102755530B1 (ko) * | 2024-04-18 | 2025-01-21 | 주식회사 웬디미디어 | 가상환경에서 실시간 행동 모사를 기반으로 하여 제품 구매를 유도하는 방법 및 시스템 |
CN118123847A (zh) * | 2024-05-08 | 2024-06-04 | 帕西尼感知科技(张家港)有限公司 | 一种人机协作的系统、操作控制方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102456872B1 (ko) | 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법 | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
Dorfmuller-Ulhaas et al. | Finger tracking for interaction in augmented environments | |
Rambach et al. | Learning to fuse: A deep learning approach to visual-inertial camera pose estimation | |
Ribo et al. | Hybrid tracking for outdoor augmented reality applications | |
US9785249B1 (en) | Systems and methods for tracking motion and gesture of heads and eyes | |
Tao et al. | A novel sensing and data fusion system for 3-D arm motion tracking in telerehabilitation | |
CN101479082B (zh) | 机器人装置和机器人装置的控制方法 | |
US20170140552A1 (en) | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same | |
Nickels et al. | Model-based tracking of complex articulated objects | |
Dorfmüller-Ulhaas | Robust optical user motion tracking using a kalman filter | |
CN111930226A (zh) | 手势追踪方法及装置 | |
EP2933604A1 (en) | A method for localizing a robot in a localization plane | |
JP2018119833A (ja) | 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体 | |
EP3047454A1 (en) | 3d reconstruction | |
KR101896827B1 (ko) | 사용자 자세 추정 장치 및 방법 | |
Du et al. | A novel human–manipulators interface using hybrid sensors with Kalman filter and particle filter | |
JP2009258884A (ja) | ユーザインタフェイス | |
Mayol et al. | Applying active vision and slam to wearables | |
Bonnet et al. | Toward an affordable and user-friendly visual motion capture system | |
CN112712545A (zh) | 人体部分跟踪方法和人体部分跟踪系统 | |
US11170531B2 (en) | Systems and methods for calibrating imaging and spatial orientation sensors | |
CN115311353A (zh) | 一种多传感器多手柄控制器图优化紧耦合追踪方法及系统 | |
Moeslund et al. | Pose estimation of a human arm using kinematic constraints | |
Bai et al. | Kinect-based hand tracking for first-person-perspective robotic arm teleoperation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211230 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20220527 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20211230 Patent event code: PA03021R01I Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220822 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20221004 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20221017 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20221018 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |