KR102160236B1 - 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 - Google Patents
단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 Download PDFInfo
- Publication number
- KR102160236B1 KR102160236B1 KR1020187012787A KR20187012787A KR102160236B1 KR 102160236 B1 KR102160236 B1 KR 102160236B1 KR 1020187012787 A KR1020187012787 A KR 1020187012787A KR 20187012787 A KR20187012787 A KR 20187012787A KR 102160236 B1 KR102160236 B1 KR 102160236B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- virtual reality
- pointer
- single camera
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 238000010191 image analysis Methods 0.000 title claims description 76
- 230000008859 change Effects 0.000 claims description 88
- 238000006243 chemical reaction Methods 0.000 claims description 52
- 239000013598 vector Substances 0.000 claims description 33
- 238000004458 analytical method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 72
- 230000008569 process Effects 0.000 description 27
- 230000007423 decrease Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 238000000605 extraction Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 12
- 210000003813 thumb Anatomy 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000003703 image analysis method Methods 0.000 description 3
- 208000016252 change in skin color Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004141 dimensional analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000004905 finger nail Anatomy 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G06K9/00355—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G06K9/00201—
-
- G06K9/46—
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 단일 카메라 기반의 가상현실 인터페이스 구현 장치를 사용자가 사용하는 모습을 예시적으로 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 단일 카메라 기반의 가상현실 인터페이스 구현 장치를 간략하게 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 영상 해석 수단을 나타내는 블록도이고, 도 5는 3차원 영상 해석 방법을 설명하기 위한 흐름도이다.
도 6 및 도 7은 본 발명의 실시예들에 따라 파악되는 특징점들과 특징점들에 기초하여 영상 해석의 기준이 되는 인식 영역을 예시적으로 도시한 도면들이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 포인터의 3차원 좌표를 해석하기 위한 일 실시예들을 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 단일 카메라 기반의 가상현실 표시 방법을 설명하기 위해 가상현실 장치를 중심으로 상부는 현실공간(Real Space, RS), 하부는 가상 공간(Virtual Space, VS)으로 가정하여 좌표계의 변환을 도시한 것이다.
도 11은 본 발명의 일 실시예에 따른 단일 카메라 기반의 가상현실 인터페이스 구현 방법에 있어서, 포인터 좌표를 가상 포인터 좌표로 변환하는 단계를 설명하기 위한 흐름도이다.
도 12 내지 도 18은 가상 포인터 좌표의 다양한 변화에 따른 인터페이스 방법을 예시적으로 나타내는 도면들이다.
도 19 내지 도 21은 가상현실 인터페이스 구현 방법 및 장치에서 가상 포인터 좌표와 시선 포인터의 상호 작용에 따른 인터페이스 방법의 예들을 나타낸 도면들이다.
310 : 3차원 영상 해석 수단
320 : 가상 좌표 변환 수단
330 : 표시 수단
340 : 저장부
350 : 인터페이스부
Claims (20)
- 가상현실 장치에 부착된 단일 카메라에 의해 획득된 영상에 기초하여 포인터 좌표를 획득하는 단계;
상기 단일 카메라와 상기 가상현실 장치 사이의 거리 인자(factor) 및 사용자의 키 또는 연령별 평균 신장(height)과 같은 신체 사이즈 정보를 포함하는 사용자의 신체 특성에 따라 도출된 현실공간의 입력 범위를 포함하는 사용자 인자에 기초하여 상기 포인터 좌표를 가상 포인터 좌표로 변환하는 단계; 및
상기 변환된 가상 포인터 좌표를 상기 가상현실 장치에 표시하는 단계를 포함하고,
상기 가상현실 장치에 부착된 단일 카메라에 의해 획득된 영상에 기초하여 포인터 좌표를 획득하는 단계는,
상기 단일 카메라에 의해 획득된 영상을 프레임 단위로 저장하는 단계;
상기 저장된 영상에 포함된 사용자의 손모양을 구성하는 복수 개의 특징점들을 파악하여 상기 특징점들에 기초한 인식 영역을 추출하는 단계;
기 설정된 시간 구간 동안 상기 인식 영역의 특징점들로 구성된 2차원 길이 성분의 변화를 추적하는 단계; 및
상기 2차원 길이 성분의 변화에 기초하여 상기 특징점들의 3차원 좌표 변화를 해석하고, 상기 해석에 기초하여 상기 기 설정된 시간 구간 동안의 상기 특징점들의 이동 벡터를 도출함에 따라 상대적인 3차원의 상기 포인터 좌표를 획득하는 단계를 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 삭제
- 청구항 1에 있어서,
상기 포인터 좌표를 가상 포인터 좌표로 변환하는 단계는,
역투영 행렬(Inverse projection matrix) 연산을 수행하여 상기 포인터 좌표를 상기 단일 카메라의 좌표계로 변환하는 단계;
상기 거리 인자에 기초하여 상기 단일 카메라의 좌표계를 상기 가상현실 장치를 중심으로 하는 현실공간의 입력범위 좌표계로 변환하는 단계;
가상공간과 현실공간의 스케일 파라미터 및 상기 사용자 인자에 기초하여 상기 현실공간의 입력범위 좌표계를 가상 입력범위 좌표계로 변환하는 단계; 및
상기 가상 입력범위 좌표계에 대하여 깊이 방향 변환을 수행하여 상기 가상 포인터 좌표로 변환하는 단계를 포함하는 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 3에 있어서,
상기 가상 입력범위 좌표계에 대하여 깊이 방향 변환을 수행하는 단계는,
상기 가상현실 장치의 중심과 상기 현실공간의 입력범위 좌표계의 원점 사이의 깊이 방향의 거리, 및 상기 가상현실 장치와 사용자의 시선 사이의 깊이 방향의 거리에 기초하여 상기 깊이 방향 변환을 수행하는 단계를 포함하는 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 3에 있어서,
상기 거리 인자는, 상기 가상현실 장치를 착용한 사용자의 시선과 상기 단일 카메라 사이의 깊이 방향의 거리에 상응하는 제1 인자, 상기 가상현실 장치의 중심과 상기 단일 카메라 사이의 상기 깊이 방향과 실질적으로 직교하는 제1 방향의 거리에 상응하는 제2 인자, 및 상기 단일 카메라의 화각(field of view)을 고려한 현실 카메라 공간과 상기 가상현실 장치의 중심 사이의 깊이 방향의 거리에 상응하는 제3 인자를 포함하며,
상기 단일 카메라의 좌표를 상기 사용자의 시선을 중심으로 하는 현실공간의 입력범위 좌표계로 변환하는 단계는, 상기 제1 인자 및 제3 인자에 기초하여 깊이 방향의 변환을 수행하는 단계; 및 상기 제2 인자에 기초하여 상기 제1 방향의 변환을 수행하는 단계를 포함하는 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 5에 있어서,
상기 가상 입력범위 좌표계에 대하여 깊이 방향 변환을 수행하여 상기 가상 포인터 좌표로 변환하는 단계는,
상기 스케일 파라미터와 상기 제3 인자에 기초하여 깊이 방향 변환을 수행하여 상기 가상 포인터 좌표로 변환하는 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 3에 있어서,
상기 가상 포인터 좌표로 표시되는 상기 사용자의 손모양의 적어도 하나의 특징점의 2차원 좌표를 상기 가상현실 장치의 시선 포인터와 일치시키는 가이드 화면을 표시하는 단계를 포함하는 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 3에 있어서,
상기 포인터 좌표를 상기 가상 포인터 좌표로 변환하는 단계는,
사용자 식별자에 기초하여 상기 거리 인자 및 상기 사용자 인자 중 적어도 하나를 도출하는 단계를 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 3에 있어서,
상기 변환된 가상 포인터 좌표를 상기 가상현실 장치에 표시하는 단계는,
상기 변환된 가상 포인터 좌표와 상기 가상현실 장치의 선택 유닛의 좌표가 일치된 상태에서 기 설정된 포인터 동작이 수행된 경우, 상기 선택 유닛과 연계된 하부 명령을 수행하는 단계를 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 9에 있어서,
상기 변환된 이동 벡터에 기초하여 상기 손모양이 지시하는 동작을 판단하여 포인터 동작으로 간주하는 단계를 더 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 10에 있어서,
상기 선택 유닛은 사용자의 시선 포인터(Gaze pointer)에 상응하며,
상기 시선 포인터와 상기 변환된 가상 포인터 좌표가 일치된 상태에서 상기 가상 포인터 좌표가 기 설정된 시간 동안 드래그(drag)되는 동작에 상응하는 포인터 동작을 수행하는 것을 따라 가상현실의 가상공간이 이동되는, 단일 카메라 기반의 가상현실 인터페이스 구현 방법. - 청구항 1 및 청구항 3 내지 청구항 11 중 어느 한 항에 기재된 방법을 수행하는 프로그램을 기록한 컴퓨터로 독출 가능한 기록 매체.
- 가상현실 장치에 부착된 단일 카메라에 의해 획득된 영상에 기초하여 포인터 좌표를 획득하는 3차원 영상 해석 수단;
상기 단일 카메라와 상기 가상현실 장치 사이의 거리 인자(factor) 및 사용자의 키 또는 연령별 평균 신장(height)과 같은 신체 사이즈 정보를 포함하는 사용자의 신체 특성에 따라 도출된 현실공간의 입력 범위를 포함하는 사용자 인자에 기초하여 상기 포인터 좌표를 가상 포인터 좌표로 변환하는 가상 포인터 좌표 변환 수단; 및
상기 변환된 가상 포인터 좌표를 상기 가상현실 장치에 표시하는 표시 수단을 포함하고,
상기 3 차원 영상 해석 수단은,
상기 단일 카메라에 의해 획득된 영상을 프레임 단위로 저장하는 영상 획득부;
상기 저장된 영상에 포함된 사용자의 손모양을 구성하는 복수 개의 특징점들을 파악하여 상기 특징점들에 기초한 인식 영역을 추출하는 영상 추출부;
기 설정된 시간 구간 동안 상기 인식 영역의 특징점들로 구성된 2차원 길이 성분의 변화를 추적하는 영상 추적부; 및
상기 2차원 길이 성분의 변화에 기초하여 상기 특징점들의 3차원 좌표 변화를 해석하고, 상기 해석에 기초하여 상기 기 설정된 시간 구간 동안의 상기 특징점들의 이동 벡터를 도출하여 상대적인 3차원 포인터 좌표를 획득하는 영상 해석부를 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 삭제
- 청구항 13에 있어서,
상기 가상 포인터 좌표 변환 수단은,
역투영 행렬(Inverse projection matrix) 연산을 수행하여 상기 포인터 좌표를 상기 단일 카메라의 좌표계로 변환하고, 상기 거리 인자에 기초하여 상기 단일 카메라의 좌표계를 상기 사용자의 시선을 원점으로 하는 현실공간의 입력범위 좌표계로 변환하는 현실공간 좌표 변환부; 및
가상공간과 현실공간의 스케일 파라미터 및 상기 사용자 인자에 기초하여 상기 현실공간의 입력범위 좌표계를 가상 입력범위 좌표계로 변환하고, 상기 가상 현실 입력범위 좌표계에 대하여 깊이 방향 변환을 수행하여 상기 가상 포인터 좌표로 변환하는 가상공간 좌표 변환부를 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 청구항 15에 있어서,
상기 가상 포인터 좌표 변환 수단은,
상기 거리 인자 및 사용자 인자를 사용자 별 또는 가상현실 장치 별로 관리하는 저장부를 더 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 청구항 16에 있어서,
상기 저장부는,
특정 가상현실 장치의 종류 별 단일 카메라 특성, 사용자의 신체 특성에 따른 사용자 인자 데이터베이스를 관리하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 청구항 15에 있어서,
상기 변환된 이동 벡터에 기초하여 상기 손모양이 지시하는 동작을 판단하여 포인터 동작으로 간주하고 가상현실 인터페이스 동작을 수행하는 인터페이스부를 더 포함하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 청구항 18에 있어서,
상기 인터페이스부는,
상기 변환된 가상 포인터 좌표와 상기 가상현실 장치의 선택 유닛의 좌표가 일치된 상태에서 기 설정된 포인터 동작이 수행된 경우, 상기 선택 유닛과 연계된 하부 명령을 수행하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치. - 청구항 19에 있어서,
상기 선택 유닛은 사용자의 시선 포인터에 상응하는, 단일 카메라 기반의 가상현실 인터페이스 구현 장치.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2016/010273 WO2018048000A1 (ko) | 2016-09-12 | 2016-09-12 | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 |
KRPCT/KR2016/010273 | 2016-09-12 | ||
PCT/KR2017/004123 WO2018048054A1 (ko) | 2016-09-12 | 2017-04-17 | 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180053416A KR20180053416A (ko) | 2018-05-21 |
KR102160236B1 true KR102160236B1 (ko) | 2020-09-25 |
Family
ID=60920001
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167027839A KR101807241B1 (ko) | 2016-09-12 | 2016-09-12 | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 |
KR1020187012787A KR102160236B1 (ko) | 2016-09-12 | 2017-04-17 | 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167027839A KR101807241B1 (ko) | 2016-09-12 | 2016-09-12 | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10636156B2 (ko) |
KR (2) | KR101807241B1 (ko) |
WO (2) | WO2018048000A1 (ko) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6688990B2 (ja) * | 2016-04-28 | 2020-04-28 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび記録媒体 |
EP3606049B1 (en) * | 2017-03-22 | 2024-06-26 | Sony Group Corporation | Image processing device, method, and program |
US11070724B2 (en) * | 2017-03-22 | 2021-07-20 | Sony Corporation | Image processing apparatus and method |
WO2019032967A1 (en) * | 2017-08-10 | 2019-02-14 | Google Llc | HAND INTERACTION SENSITIVE TO THE CONTEXT |
CN109407824B (zh) * | 2018-08-30 | 2020-11-06 | 百度在线网络技术(北京)有限公司 | 人体模型的同步运动方法与装置 |
CN109325450A (zh) * | 2018-09-25 | 2019-02-12 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
EP3911992A4 (en) * | 2019-04-11 | 2022-03-23 | Samsung Electronics Co., Ltd. | HEAD MOUNTED DISPLAY DEVICE AND METHOD OF OPERATION THEREOF |
KR102068929B1 (ko) * | 2019-05-23 | 2020-01-21 | 박배억 | 3차원 카메라 시스템 |
CN110188664B (zh) * | 2019-05-28 | 2022-05-24 | 福州大学 | 一种基于Snake的车载激光点云矢量道路边界精细提取方法 |
US11073902B1 (en) * | 2019-12-30 | 2021-07-27 | Facebook Technologies, Llc | Using skeletal position to predict virtual boundary activation |
CN111282266B (zh) * | 2020-02-14 | 2021-08-03 | 腾讯科技(深圳)有限公司 | 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质 |
US11983326B2 (en) * | 2020-02-26 | 2024-05-14 | Magic Leap, Inc. | Hand gesture input for wearable system |
CN111368675B (zh) * | 2020-02-26 | 2023-06-20 | 深圳市瑞立视多媒体科技有限公司 | 手势深度信息的处理方法、装置、设备及存储介质 |
US12219239B2 (en) | 2020-11-18 | 2025-02-04 | Samsung Electronics Co., Ltd. | Method of controlling electronic device by recognizing movement in peripheral zone of field of view of camera, and electronic device therefor |
CN112434711B (zh) * | 2020-11-27 | 2023-10-13 | 杭州海康威视数字技术股份有限公司 | 一种数据管理方法、装置及电子设备 |
CN115643485B (zh) * | 2021-11-25 | 2023-10-24 | 荣耀终端有限公司 | 拍摄的方法和电子设备 |
US11886646B2 (en) * | 2022-04-01 | 2024-01-30 | Snap Inc. | Personalized calibration of user interfaces |
CN118433471A (zh) * | 2023-02-02 | 2024-08-02 | 华为技术有限公司 | 一种视频处理方法及相关电子设备 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
KR100800859B1 (ko) | 2004-08-27 | 2008-02-04 | 삼성전자주식회사 | Hmd 정보 단말기에서 키를 입력하는 장치 및 방법 |
US20120050480A1 (en) * | 2010-08-27 | 2012-03-01 | Nambi Seshadri | Method and system for generating three-dimensional video utilizing a monoscopic camera |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
KR20120071230A (ko) | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | 증강 현실 환경에서 손가락 끝 트래킹 방법 및 이를 위한 장치 |
KR101171239B1 (ko) * | 2011-06-01 | 2012-08-06 | 군산대학교산학협력단 | 영상처리를 이용한 비접촉 데이터 입력 및 조작 방법 |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
WO2013144807A1 (en) | 2012-03-26 | 2013-10-03 | Primesense Ltd. | Enhanced virtual touchpad and touchscreen |
KR101543287B1 (ko) * | 2013-04-23 | 2015-08-11 | 한국과학기술원 | 현실 객체의 물리적 동작-증강 현실 상호작용형 전자책 시스템 및 구현 방법 |
RU2013148582A (ru) | 2013-10-30 | 2015-05-10 | ЭлЭсАй Корпорейшн | Процессор обработки изображений, содержащий систему распознавания жестов с вычислительно-эффективным распознаванием неподвижной позы руки |
RU2014108820A (ru) * | 2014-03-06 | 2015-09-20 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев |
KR102303115B1 (ko) | 2014-06-05 | 2021-09-16 | 삼성전자 주식회사 | 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법 |
KR101687017B1 (ko) | 2014-06-25 | 2016-12-16 | 한국과학기술원 | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 |
WO2015199470A1 (ko) * | 2014-06-25 | 2015-12-30 | 한국과학기술원 | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 |
KR101865655B1 (ko) | 2014-06-26 | 2018-06-11 | 한국과학기술원 | 증강현실 상호 작용 서비스 제공 장치 및 방법 |
-
2016
- 2016-09-12 US US15/737,108 patent/US10636156B2/en active Active
- 2016-09-12 KR KR1020167027839A patent/KR101807241B1/ko active IP Right Grant
- 2016-09-12 WO PCT/KR2016/010273 patent/WO2018048000A1/ko active Application Filing
-
2017
- 2017-04-17 WO PCT/KR2017/004123 patent/WO2018048054A1/ko active Application Filing
- 2017-04-17 US US15/552,770 patent/US10664983B2/en active Active
- 2017-04-17 KR KR1020187012787A patent/KR102160236B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
WO2018048054A1 (ko) | 2018-03-15 |
US20180275764A1 (en) | 2018-09-27 |
US10636156B2 (en) | 2020-04-28 |
US10664983B2 (en) | 2020-05-26 |
KR20180053416A (ko) | 2018-05-21 |
US20180365848A1 (en) | 2018-12-20 |
WO2018048000A1 (ko) | 2018-03-15 |
KR101807241B1 (ko) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102160236B1 (ko) | 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치 | |
US11157725B2 (en) | Gesture-based casting and manipulation of virtual content in artificial-reality environments | |
US10394334B2 (en) | Gesture-based control system | |
Soutschek et al. | 3-d gesture-based scene navigation in medical imaging applications using time-of-flight cameras | |
US8897491B2 (en) | System for finger recognition and tracking | |
US20200004401A1 (en) | Gesture-based content sharing in artifical reality environments | |
US20210026455A1 (en) | Gesture recognition system and method of using same | |
WO2013180151A1 (ja) | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム | |
JP2019008351A (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
AU2012268589A1 (en) | System for finger recognition and tracking | |
CN107357428A (zh) | 基于手势识别的人机交互方法及装置、系统 | |
CN105378593A (zh) | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 | |
JP2024100835A (ja) | 拡張現実マップキュレーション | |
JP5964603B2 (ja) | データ入力装置、及び表示装置 | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
KR101525011B1 (ko) | Nui 기반의 실감형 가상공간 디스플레이 제어장치 및 제어방법 | |
JP6230666B2 (ja) | データ入力装置、データ入力方法、及びデータ入力プログラム | |
KR101861096B1 (ko) | 사용자의 손 동작을 인식하여 화면에 표시되는 정보를 제어하는 방법 및 장치 | |
Vančo et al. | Gesture identification for system navigation in 3D scene | |
CN108008811A (zh) | 一种利用非触屏方式操作终端的方法和终端 | |
Ghosh et al. | Real-time 3d markerless multiple hand detection and tracking for human computer interaction applications | |
Sharma et al. | Virtually controlling computers using hand gesture and voice commands | |
Zhou | Research and application of gaze direction algorithm based on head movement and eye movement data fusion | |
CN119002689A (zh) | 基于无介质全息技术的人机交互方法、装置、设备及介质 | |
CN118331416A (zh) | 虚拟环境的交互方法、装置、设备、介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0105 | International application |
Patent event date: 20180503 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200107 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20200720 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20200107 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20200720 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20200228 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20200918 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20200820 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20200720 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20200228 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200921 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200921 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20230622 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20240625 Start annual number: 5 End annual number: 5 |