KR20230087865A - System for controlling avatar using artificial intelligence hand position recognition - Google Patents
System for controlling avatar using artificial intelligence hand position recognition Download PDFInfo
- Publication number
- KR20230087865A KR20230087865A KR1020210176476A KR20210176476A KR20230087865A KR 20230087865 A KR20230087865 A KR 20230087865A KR 1020210176476 A KR1020210176476 A KR 1020210176476A KR 20210176476 A KR20210176476 A KR 20210176476A KR 20230087865 A KR20230087865 A KR 20230087865A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- hand
- avatar
- motion data
- motion
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims abstract description 134
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 abstract description 12
- 238000004364 calculation method Methods 0.000 abstract description 11
- 230000006403 short-term memory Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 210000004247 hand Anatomy 0.000 description 24
- 239000011248 coating agent Substances 0.000 description 11
- 239000003921 oil Substances 0.000 description 11
- 238000000576 coating method Methods 0.000 description 10
- 239000000463 material Substances 0.000 description 10
- HEMHJVSKTPXQMS-UHFFFAOYSA-M Sodium hydroxide Chemical compound [OH-].[Na+] HEMHJVSKTPXQMS-UHFFFAOYSA-M 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000003373 anti-fouling effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 239000003205 fragrance Substances 0.000 description 6
- 238000002156 mixing Methods 0.000 description 6
- OAYXUHPQHDHDDZ-UHFFFAOYSA-N 2-(2-butoxyethoxy)ethanol Chemical compound CCCCOCCOCCO OAYXUHPQHDHDDZ-UHFFFAOYSA-N 0.000 description 5
- 229910000031 sodium sesquicarbonate Inorganic materials 0.000 description 5
- 235000018341 sodium sesquicarbonate Nutrition 0.000 description 5
- WCTAGTRAWPDFQO-UHFFFAOYSA-K trisodium;hydrogen carbonate;carbonate Chemical compound [Na+].[Na+].[Na+].OC([O-])=O.[O-]C([O-])=O WCTAGTRAWPDFQO-UHFFFAOYSA-K 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000008199 coating composition Substances 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000011247 coating layer Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001954 sterilising effect Effects 0.000 description 3
- SJECZPVISLOESU-UHFFFAOYSA-N 3-trimethoxysilylpropan-1-amine Chemical compound CO[Si](OC)(OC)CCCN SJECZPVISLOESU-UHFFFAOYSA-N 0.000 description 2
- 241000125175 Angelica Species 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 235000001287 Guettarda speciosa Nutrition 0.000 description 2
- KFFQABQEJATQAT-UHFFFAOYSA-N N,N'-dibutylthiourea Chemical compound CCCCNC(=S)NCCCC KFFQABQEJATQAT-UHFFFAOYSA-N 0.000 description 2
- 239000004952 Polyamide Substances 0.000 description 2
- 239000004111 Potassium silicate Substances 0.000 description 2
- 229910052581 Si3N4 Inorganic materials 0.000 description 2
- GWEVSGVZZGPLCZ-UHFFFAOYSA-N Titan oxide Chemical compound O=[Ti]=O GWEVSGVZZGPLCZ-UHFFFAOYSA-N 0.000 description 2
- WGLPBDUCMAPZCE-UHFFFAOYSA-N Trioxochromium Chemical compound O=[Cr](=O)=O WGLPBDUCMAPZCE-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 239000007864 aqueous solution Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- CJZGTCYPCWQAJB-UHFFFAOYSA-L calcium stearate Chemical compound [Ca+2].CCCCCCCCCCCCCCCCCC([O-])=O.CCCCCCCCCCCCCCCCCC([O-])=O CJZGTCYPCWQAJB-UHFFFAOYSA-L 0.000 description 2
- 235000013539 calcium stearate Nutrition 0.000 description 2
- 239000008116 calcium stearate Substances 0.000 description 2
- 239000006229 carbon black Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 229910000423 chromium oxide Inorganic materials 0.000 description 2
- 239000010632 citronella oil Substances 0.000 description 2
- 238000002425 crystallisation Methods 0.000 description 2
- 230000008025 crystallization Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 229910002804 graphite Inorganic materials 0.000 description 2
- 239000010439 graphite Substances 0.000 description 2
- 230000017525 heat dissipation Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 150000001451 organic peroxides Chemical class 0.000 description 2
- 229920002647 polyamide Polymers 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 235000019353 potassium silicate Nutrition 0.000 description 2
- NNHHDJVEYQHLHG-UHFFFAOYSA-N potassium silicate Chemical compound [K+].[K+].[O-][Si]([O-])=O NNHHDJVEYQHLHG-UHFFFAOYSA-N 0.000 description 2
- 229910052913 potassium silicate Inorganic materials 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 2
- OGIDPMRJRNCKJF-UHFFFAOYSA-N titanium oxide Inorganic materials [Ti]=O OGIDPMRJRNCKJF-UHFFFAOYSA-N 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- OUBMGJOQLXMSNT-UHFFFAOYSA-N N-isopropyl-N'-phenyl-p-phenylenediamine Chemical compound C1=CC(NC(C)C)=CC=C1NC1=CC=CC=C1 OUBMGJOQLXMSNT-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000003963 antioxidant agent Substances 0.000 description 1
- 230000003078 antioxidant effect Effects 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000011230 binding agent Substances 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000002270 dispersing agent Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000012153 distilled water Substances 0.000 description 1
- 230000001814 effect on stress Effects 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000004296 neuralgia Diseases 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000004073 vulcanization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것으로, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있는 효과가 있다.The present invention includes an image processing module that senses a user's hand motion and generates user's hand motion data; an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and a processor that generates motion information of an avatar corresponding to motion data of the user's hand and operates the avatar based on the generated motion information of the avatar. , Since avatar control commands can be generated from still images with simple calculations without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method, it is possible to provide an avatar controller using hand position recognition. It works.
Description
본 발명은 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것이다.The present invention relates to an avatar control system using artificial intelligence hand position recognition.
최근, 증강 현실(augmented reality) 기술이 발전하면서 현실 세계와 가상 세계를 서로 융합하는 기술들이 개발되고 있다. 예를 들면, 가상 교육 시스템, 스크린 골프 시스템 및 가상 체험 시뮬레이션 시스템 등이 그 대표적인 예일 것이다.Recently, as augmented reality technology develops, technologies for converging the real world and the virtual world are being developed. For example, a virtual education system, a screen golf system, and a virtual experience simulation system will be representative examples thereof.
이들 가상 시스템은, 터치보드 등의 디스플레이장치를 이용하여 콘텐츠 영상을 출력한 상태에서, 사용자가 모션을 취하면 모션에 대응하여 해당 콘텐츠를 제어하도록 구성되어 있다.These virtual systems are configured to control the corresponding content in response to a motion when a user makes a motion in a state in which a content image is output using a display device such as a touch board.
이러한 가상 시스템은 미디어파이프(mediapipe)라는 도구를 이용하면 손이나 얼굴을 인식하도록 할 수 있다. 또한, 이러한 도구는 손가락 마디의 관절을 인식할 수 있고, 손전체를 인식할 수 있다.These virtual systems can recognize hands or faces by using a tool called mediapipe. In addition, these tools can recognize the joints of the knuckles and the whole hand.
다만, 한 장의 정지영상에서 손의 위치를 파악하는 것은 용이하지만, 손의 위치만으로 동작을 인식하기에는 한계가 있어서 LSTM 등의 인공지능 기법을 이용하여 자세 추정을 하기도 한다. However, although it is easy to grasp the position of the hand in a still image, there is a limit to recognizing motion only with the position of the hand, so posture estimation is sometimes performed using artificial intelligence techniques such as LSTM.
그러나, 초당 60프레임 이상을 화면에 보여주는 상황에서 실시간으로 자세 추정 계산을 수행하는 것은 시스템에 부하가 크다는 문제점이 있었다.However, performing pose estimation calculation in real time in a situation where more than 60 frames per second are displayed on the screen has a problem in that the load on the system is high.
전술한 문제점을 개선하기 위한 본 발명 실시예들의 목적은 기존의 LSTM(Long Short Term Memory)방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 인공지능 손위치 인식을 이용한 아바타 제어시스템을 제공하는 것이다.An object of the embodiments of the present invention to improve the above problems is an artificial intelligence hand capable of generating an avatar control command with simple calculation from a still image without performing heavy artificial intelligence calculation such as the existing LSTM (Long Short Term Memory) method To provide an avatar control system using location recognition.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 의한 인공지능 손위치 인식을 이용한 아바타 제어시스템은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 것을 특징으로 한다.In order to achieve the above object, an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention includes an image processing module that detects a user's hand motion and generates user's hand motion data; an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and a processor generating motion information of the avatar corresponding to the user's hand motion data and operating the avatar based on the generated motion information of the avatar.
상기 영상 처리 모듈은, 사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부; 상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및 상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하는 것을 특징으로 한다.The image processing module may include: an image generator for capturing a user and generating image frames divided into X-axis (left and right sides of the screen), Y-axis (upper and lower sides of the screen), and Z-axis (depth of the screen); a hand position generating unit generating coordinate values corresponding to the position of the user's hand in the image frame; and a motion data generating unit that calculates a movement direction of the coordinate values and generates preset hand motion data of the user based on the movement direction of the calculated coordinate values.
상기 모션 데이터 생성부는 사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generation unit calculates the movement direction using the coordinate values of the user's left hand, right hand, or both the left and right hands, and when only the user's left hand moves left and right, the user's motion on the X axis corresponding to the left and right movement information. When only the user's right hand is moved up and down, the user's motion data for the Z axis corresponding to the up and down movement information is generated, and when the user's left and right hands are moved up and down in a gathered state, up and down It is characterized in that the user's motion data for the Y-axis corresponding to the movement information is generated.
상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 한다.The motion data generator may determine that the user's left and right hands are in a closed state when the distance between the user's left and right hands is smaller than the size of an object representing the user's hands.
상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generating unit may generate motion data of the user indicating a stop motion when the user's left and right hands are moved to a preset area in a closed state.
본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.An avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention is able to perform avatar control commands with simple calculations in still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method. Since it can be created, it is possible to provide an avatar controller using hand position recognition.
도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블럭도이다.
도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이다.
도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이다.
도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이다.
도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.1 is a block diagram schematically showing an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.
FIG. 2 is a diagram showing the configuration of a region for motion recognition in the image generator of the image processing module of FIG. 1 .
FIG. 3 is a diagram for explaining an algorithm for determining whether a user's two hands make vowels in the motion data generation unit of the image processing module of FIG. 1 .
FIG. 4 is a diagram for defining user's hand motion data in the motion data generation unit of the image processing module of FIG. 1 .
5A to 5D are diagrams illustrating examples of generating motion data of a user's hand in the motion data generation unit of the image processing module of FIG. 1 .
6 is a flowchart illustrating the operation of an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.
상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but components should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블록도이고, 도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이며, 도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이고, 도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이며, 도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이고, 도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.1 is a block diagram schematically illustrating an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention, and FIG. 2 is a region for motion recognition in an image generator of an image processing module of FIG. 1 3 is a diagram for explaining an algorithm for determining whether the user's two hands make vowels in the motion data generation unit of the image processing module of FIG. 1, and FIG. 4 is a diagram of the image processing module of FIG. 5A to 5D are diagrams for defining motion data of a user's hand in a motion data generation unit, and FIGS. It is a flowchart showing the operation of the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 시스템이고, 이를 위하여 영상 처리 모듈(10), 아바타 동작 모듈(20) 및 프로세서(30)를 포함한다.As shown in FIG. 1, an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention is a system capable of generating an avatar control command from a still image by simple calculation, and for this purpose, an image processing module ( 10), an
도시되어 있지는 않지만, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 아바타 생성모듈과 출력 모듈을 더 포함할 수 있다.Although not shown, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention may further include an avatar creation module and an output module.
상기 아바타 생성모듈은 가상현실(Virtual Reality) 환경에서 사용자의 아바타를 생성한다. 본 명세서에서 아바타(avatar)는 실제 현실이 아닌 컴퓨터 프로그래밍에 의해 가상의 공간으로 구현된 가상현실에서 사용자의 명령에 따라 제어될 수 있는 가상의 캐릭터를 의미한다. 아바타의 생김새는 사용자의 몰입감을 향상시키고 원할한 바이오피드백을 제공하기 위해 사용자와 유사한 생김새를 갖는 인간의 형상일 수 있으나 특정 형태로 한정되지는 아니한다.The avatar generation module generates an avatar of a user in a virtual reality environment. In this specification, an avatar (avatar) means a virtual character that can be controlled according to a user's command in virtual reality implemented as a virtual space by computer programming rather than actual reality. The appearance of the avatar may be a human shape having a similar appearance to the user in order to improve the user's sense of immersion and provide smooth bio-feedback, but is not limited to a specific shape.
일 실시예에서, 사용자의 손 모션 데이터에 기초하여 아바타가 자동으로 생성될 수 있다. 예를 들어, 정지 영상에서 사용자의 손 모션 변화를 감지하여 이에 따라 아바타의 자세 또는 동작을 변화시킬 수 있다. 이와 같이 사용자의 손 모션 데이터에 따라 가상환경의 아바타의 형상이나 태도를 적절히 변화시키는 것은 가상현실에서의 실재감과 몰입감을 향상시킬 수 있다.In one embodiment, an avatar may be automatically generated based on the user's hand motion data. For example, a motion change of a user's hand may be detected in a still image, and an avatar's posture or motion may be changed accordingly. In this way, appropriately changing the shape or attitude of the avatar in the virtual environment according to the user's hand motion data can improve the sense of presence and immersion in virtual reality.
가상현실 환경에서 생성된 아바타는 후술하는 바와 같이 사용자의 손 모션 데이터에 기초하여 결정된 명령에 대응하는 동작을 수행한다. 이를 이용하여, 사용자는 실제로 동작을 수행하지 않더라도 손 모션 데이터에 대응되는 제어신호를 내보내 가상현실의 아바타가 특정한 동작을 행하도록 제어할 수 있고, 프로그램에서 제공되는 평가 프로토콜 또는 훈련 프로토콜을 수행할 수 있다.As will be described later, the avatar created in the virtual reality environment performs an operation corresponding to a command determined based on user's hand motion data. Using this, the user can control the virtual reality avatar to perform a specific motion by sending a control signal corresponding to the hand motion data even if the user does not actually perform the motion, and can perform an evaluation protocol or training protocol provided by the program. there is.
상기 출력 모듈은 아바타가 동작을 수행하는 영상을 실시간으로 출력하기 위한 TV, 모니터, HMD 등의 출력장치이다. 일 실시예에서, 상기 출력 모듈은 발광다이오드(LED), 유기발광소자(OLED), 발광중합체(LEP), 전자발광소자(EL), 전계방출소자(FED), 또는 중합체발광소자(PLED) 등이 적용된 디스플레이로 구성될 수 있다.The output module is an output device such as a TV, monitor, or HMD for outputting in real time an image of an avatar performing an action. In one embodiment, the output module is a light emitting diode (LED), an organic light emitting device (OLED), a light emitting polymer (LEP), an electroluminescent device (EL), a field emission device (FED), or a polymer light emitting device (PLED). It can be composed of a display to which this is applied.
또한, 상기 출력 모듈은 머리에 착용 가능한 형태인 HMD(Head Mounted Display) 장치로 구성될 수 있다. HMD 장치는 사용자의 머리에 착용하여 양안에 대응되는 디스플레이를 통해 화면을 감상할 수 있는 차세대 디스플레이 장치이다. 일반적으로 IMU 센서를 포함하여 회전 값을 통해 사용자의 머리 움직임을 동기화 시킬 수 있다. 이를 통해, 사용자는 증강현실(Augmented Reality) 또는 가상현실(Virtual Reality) 환경에서 종래의 모니터 장치로 시청하는 것보다 더 뛰어난 몰입감을 느낄 수 있다.In addition, the output module may be configured as a Head Mounted Display (HMD) device that can be worn on the head. The HMD device is a next-generation display device that can be worn on a user's head and view a screen through a display corresponding to both eyes. In general, the user's head movement can be synchronized through the rotation value including the IMU sensor. Through this, the user can feel a greater sense of immersion than viewing with a conventional monitor device in an augmented reality or virtual reality environment.
상기 영상 처리 모듈(10)은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 장치로서, 영상 생성부(11), 손위치 생성부(12) 및 모션 데이터 생성부(13)를 포함한다.The
상기 영상 생성부(11)는 통상의 카메라를 이용할 수 있으며, 도 2에 도시된 바와 같이, 사용자를 촬영하여 정지 영상을 기초로 영상 프레임을 생성하는 장치로, X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 장치이다.The image generating unit 11 may use a conventional camera, and as shown in FIG. 2, it is a device for generating an image frame based on a still image by photographing a user, and includes X-axis (left and right sides of the screen), Y It is a device that creates image frames divided into axes (top and bottom of the screen) and Z-axis (depth of the screen).
상기 손위치 생성부(12)는 영상 생성부(11)에 의하여 생성된 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 장치이다. 구체적으로, 상기 손위치 생성부(12)는 정지 영상으로 구성된 영상 프레임 중 사용자의 손 부분의 영상을 캡쳐하여 손의 모션에 대응한 좌표값(즉, 손의 좌표)을 생성한다. 이때, 손의 좌표는 손가락 관절, 손목 관절을 포함하고, 이에 손의 전체적인 크기 및 손가락 길이 등을 확인할 수 있도록 한다. 또한, 상기 손위치 생성부(12)에서는 손가락 끝 및 각 관절의 포인트의 이동을 추적하여 손의 움직임을 추적하여 좌표값을 생성한다.The hand position generating unit 12 is a device that generates coordinate values corresponding to the position of the user's hand among the image frames generated by the image generating unit 11 . Specifically, the hand position generating unit 12 captures an image of the user's hand from among image frames composed of still images, and generates coordinate values (ie, hand coordinates) corresponding to the motion of the hand. At this time, the coordinates of the hand include a finger joint and a wrist joint, so that the overall size of the hand and the length of the fingers can be checked. In addition, the hand position generating unit 12 generates coordinate values by tracking the movement of the hand by tracking the movement of the fingertip and each joint point.
상기 손위치 생성부(12)는, 영상 생성부(11)로부터 전달된 영상 프레임간의 연결관계를 정의하는 전처리부(미도시)와, 전처리가 이루어진 영상 프레임에서 미리 학습된 학습 정보를 기반으로 하여 손을 인식하는 손 인식부(미도시)와, 인식된 손에 대한 좌표 조정을 수행하고, 미리 학습된 학습 정보를 기반으로 하여 영상 프레임간 변위로부터 손의 이동좌표를 계산하는 이동좌표 산출부(미도시)를 포함한다.The hand position generation unit 12 is based on a pre-processing unit (not shown) defining a connection relationship between image frames transmitted from the image generation unit 11 and learning information pre-learned from pre-processed image frames. A hand recognizing unit (not shown) recognizing a hand, adjusting coordinates for the recognized hand, and calculating movement coordinates of the hand from displacement between image frames based on previously learned learning information ( not shown).
여기서, 손에 대한 인식에 있어, 먼저 손에 대한 학습을 수행하여 학습된 결과를 저장하고, 이 저장된 학습 정보로부터 손에 대한 인식이 이루어지는 것이 바람직하다. 한편, 손에 대한 인식과 함께 머리, 몸통, 팔, 다리 등의 학습 및 이의 인식도 함께 이루어지며, 이들의 인식을 통해 손의 위치를 정확하게 판단하는데 이용할 수 있다.Here, in recognizing the hand, it is preferable to first perform hand learning, store the learned result, and recognize the hand from the stored learning information. On the other hand, along with the recognition of the hand, learning and recognition of the head, torso, arms, legs, etc. are also performed, and through these recognition, it can be used to accurately determine the position of the hand.
이와 같이 구성된 손위치 생성부(12)에서, 손을 인식하고 좌표를 산출함에 있어, 움직임을 추정하는 추정기법을 이용하여 미리 예측된 위치에서 손의 존재여부를 확인하게 된다. 각 영상 프레임들에서 손의 움직임 추정기법을 통해 손을 추정하여 검색하고, 검색된 손의 이동좌표를 산출한다. 즉, 이전 영상 프레임에서 손의 움직임 벡터성분을 추출하고, 현재 영상 프레임에서 손의 움직임 벡터성분을 추출하여 움직임 추정을 실행하게 되며, 이에 다음 영상 프레임에서의 손의 위치를 추정할 수 있는 것이다. 또한 이러한 추정은 미리 학습된 학습 정보에 의해 이루어지게 된다. 만약, 추정된 위치에 손이 존재하지 않을 경우에는 추정된 위치를 중심으로 반경을 설정하여 해당 반경 내에서 손에 대한 검색이 이루어진다. 이때 팔이 검색되었다면, 인체의 구조에 기반하여 손의 위치를 더욱 손쉽게 추정하게 된다. In the hand position generating unit 12 configured as described above, in recognizing the hand and calculating the coordinates, the presence or absence of the hand is checked at a previously predicted position using an estimation technique for estimating motion. In each image frame, the hand is estimated and searched through the hand motion estimation method, and the movement coordinates of the searched hand are calculated. That is, motion estimation is performed by extracting a motion vector component of the hand from the previous image frame and a motion vector component of the hand from the current image frame, and thus the position of the hand in the next image frame can be estimated. In addition, this estimation is made by pre-learned learning information. If a hand does not exist at the estimated location, a radius is set around the estimated location, and a hand search is performed within the radius. If the arm is searched at this time, the position of the hand is more easily estimated based on the structure of the human body.
상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 장치이다.The motion data generation unit 13 calculates the movement direction of the coordinate values generated by the hand position generation unit 12, and generates preset user's hand motion data based on the movement direction of the calculated coordinate values. am.
상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 전달받아 이동 위치 등의 변화를 처리하며, 또한 이동 위치 변화로부터 이벤트(제어)를 생성하고, 전달된 손의 좌표로부터 손 형상을 인식함과 아울러 사용자의 손 모션 데이터를 생성한다.The motion data generation unit 13 receives the coordinate values generated by the hand position generation unit 12 and processes changes such as the movement position, and also generates an event (control) from the movement position change, The hand shape is recognized from the coordinates and the user's hand motion data is generated.
즉, 상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 수신하고, 프로세서(30)를 통해 이를 처리하여 대응되는 사용자의 명령(즉, 아바타 제어신호)인 사용자의 손 모션 데이터를 결정한다. 명령의 결정에 필요한 분석 알고리즘 또는 룩업 테이블 등의 관련 정보는 손위치 기반 제어 프로그램과 함께 메모리에 저장될 수 있다.That is, the motion data generating unit 13 receives the coordinate values generated by the hand position generating unit 12, processes them through the
또한, 상기 모션 데이터 생성부(13)는 프로세서(30)를 통해 아바타 제어신호에 대해 주파수 필터링을 수행한다. 고주파 노이즈를 제거하고자 하는 경우 저역 통과 필터(low-pass filter)를 이용할 수 있고, 특정 주파수 영역을 선택하고자 하는 경우 대역 통과 필터(band-pass filter)를 이용하거나, 특정 주파수 영역을 제거하고자 하는 경우 대역 저지 필터(bandstop filter)를 이용할 수 있다.Also, the motion data generator 13 performs frequency filtering on the avatar control signal through the
상기 모션 데이터 생성부(13)는 필터링된 신호의 해당 주파수에 대한 로그 값 및 분산 값을 포함하여 산출한 데이터 파워에 기초하여 특징 벡터를 추출한다. 예를 들어, 프로세서(30)는 고속 푸리에 변환(FFT)에 기초하여 신호 데이터 상의 특정 주파수의 신호 성분이 차지하는 비중을 정량적으로 분석할 수 있다.The motion data generator 13 extracts a feature vector based on data power calculated by including a log value and a variance value for a corresponding frequency of the filtered signal. For example, the
이외에도 아바타 제어신호에 신호처리 함수를 적용해 평균, 편차, RMS(Root mean square), 왜도, 첨도, DF(Dominant frequency) 등을 계산하여 특징벡터를 추출할 수 있고, 추출된 특징벡터 데이터는 대응되는 사용자의 명령을 결정하는데 이용된다.In addition, by applying a signal processing function to the avatar control signal, the feature vector can be extracted by calculating the mean, deviation, root mean square (RMS), skewness, kurtosis, and dominant frequency (DF). It is used to determine the corresponding user's command.
한편, 상기 모션 데이터 생성부(13)는 아바타 제어신호에 대한 전처리가 완료되면, 분류기 생성 모듈을 통해 복수의 분류기(classifier)를 생성할 수 있다. 프로세서(30)는 복수의 분류 알고리즘에 기초하여 분류기를 생성할 수 있다. 복수의 분류기는 사용자의 손 모션 데이터를 분류하여 상기 데이터가 특정 클래스에 해당하는지 여부를 판단한다.Meanwhile, the motion data generation unit 13 may generate a plurality of classifiers through a classifier generation module when preprocessing of the avatar control signal is completed. The
상기 모션 데이터 생성부(13)는 이에 기초하여 복수의 동작 중 실시간 사용자의 손 모션 데이터에 대응하는 동작을 선택하고 최종적으로 사용자의 명령(command)을 결정한다. 구체적으로, 프로세서(30)는 분류기에 기초하여 입력된 실시간 사용자의 손 모션 데이터에 대한 각 움직임을 확률이나 점수 등의 출력 값으로 산출할 수 있고, 프로세서(30)는 확률 또는 점수가 가장 큰 값을 갖는 동작을 선택하여 명령을 결정할 수 있다.Based on this, the motion data generating unit 13 selects an operation corresponding to the real-time user's hand motion data among a plurality of operations and finally determines a user's command. Specifically, the
실시예에 따라 다양한 형태의 명령이 사용자의 손 모션 데이터와 대응되도록 미리 저장될 수 있다. 예를 들어, 단순히 아바타를 전후좌우로 움직이는 명령에서 나아가 앉기/서기와 같은 명령이나, 발을 위아래로 들기, 무릎을 굽히거나 펴기와 같은 관절 관련 움직임도 명령으로 지정될 수 있다. 본 발명은 다양한 종류의 사용자의 손 위치 신호를 동시에 획득할 수 있고, 이를 세부적인 동작 명령들과 매칭함으로써 다양하고 자연스러운 형태의 동작을 가상현실에서 구현할 수 있다. 각 명령에 대한 사용자의 의도를 파악하고 오작동률을 줄이기 위한 신호처리 알고리즘은 전술한 바와 같다.According to embodiments, various types of commands may be stored in advance to correspond to user's hand motion data. For example, a command such as sitting/standing, or a joint-related movement such as lifting a foot up and down, bending or extending a knee, in addition to a command for simply moving an avatar in front, back, left, and right may be designated as a command. According to the present invention, various kinds of hand position signals of a user can be obtained simultaneously, and various and natural types of motions can be implemented in virtual reality by matching them with detailed motion commands. The signal processing algorithm for recognizing the user's intention for each command and reducing the malfunction rate is as described above.
다시 설명하자면, 상기 모션 데이터 생성부(13)는 도 4에 도시된 바와 같이, 사용자의 손 위치에 따른 사용자의 동작 명령을 정의하고, 사용자의 왼손(L), 오른손(R), 또는 왼손(L) 및 오른손(R)의 좌표값을 이용하여 이동 방향을 산출한다.To explain again, as shown in FIG. 4, the motion data generator 13 defines the user's operation command according to the user's hand position, and the user's left hand (L), right hand (R), or left hand ( L) and the right hand (R) coordinate values are used to calculate the movement direction.
상세하게는, 상기 모션 데이터 생성부(13)는 아래와 같이 좌표축 이동 방향을 정의한다.In detail, the motion data generating unit 13 defines the coordinate axis movement direction as follows.
X 축: 화면에서 좌우로 움직이는 방향, 오른쪽으로 가면 + X-axis : the direction of moving left and right on the screen, + when going to the right
Y 축: 화면에서 상하로 움직이는 방향, 위로 가면 + Y-axis : the direction of movement up and down on the screen, + when up
Z 축: 화면 깊이로 움직이는 방향, 스크린을 보는 사람 방향으로 나오면 + Z-axis : the direction of movement to the depth of the screen, + when it comes to the direction of the viewer
X축 방향 제어X-axis direction control
왼손을 좌우로 움직여 조정한다(왼손이 -X 위치하면 왼쪽으로 이동, +X 에 위치하면 오른쪽으로 이동)Adjust by moving your left hand left and right (if your left hand is at -X, move to the left, and if your left hand is at +X, move to the right)
Y축 방향 제어Y-axis direction control
두 손을 모은 채로 두 손을 상하로 움직여 조정한다(두 손이 +Y에 위치하면 위쪽으로 이동, -Y에 위치하면 아래로 이동).Adjust by moving your hands up and down with your hands together (move up when both hands are on +Y, move down when they are on -Y).
Z축 방향 제어Z-axis direction control
오른손을 상하로 움직여 조정한다(오른손이 +Z위치하면 화면 앞쪽으로 이동, -Z에 위치하면 화면 뒤쪽으로 이동).Adjust by moving your right hand up and down (when the right hand is positioned at +Z, it moves to the front of the screen, and when it is positioned at -Z, it moves to the back of the screen).
정지 동작stop motion
두 손을 모은 채로 stop 구역으로 이동하면 정지한다.If you move to the stop zone with your hands together, you will stop.
상기 모션 데이터 생성부(13)는 도 5a에 도시된 바와 같이, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성한다.As shown in FIG. 5A , the motion data generation unit 13 generates motion data of the user on the X axis corresponding to left and right movement information when only the user's left hand is moved left and right.
또한, 상기 모션 데이터 생성부(13)는 도 5b에 도시된 바와 같이, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성한다.Also, as shown in FIG. 5B , when only the user's right hand moves up and down, the motion data generation unit 13 generates motion data of the user on the Z axis corresponding to the up and down movement information.
또한, 상기 모션 데이터 생성부(13)는 도 5c에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성한다.In addition, as shown in FIG. 5C, when the user's left and right hands move up and down in a closed state, the motion data generation unit 13 generates motion data of the user on the Y axis corresponding to up and down movement information. generate
한편, 상기 모션 데이터 생성부(13)는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단한다. 즉, 상기 모션 데이터 생성부(13)는 도 3 및 수학식 1에서와 같이, 두 손 간의 거리(d)가 손을 표현하는 객체의 크기(2 * r)보다 작으면 두 손을 모으는 것으로 판단한다.Meanwhile, the motion data generator 13 determines that the user's left and right hands are in a closed state when the distance between the user's left and right hands is smaller than the size of the object representing the user's hands. That is, as shown in FIG. 3 and Equation 1, the motion data generator 13 determines that the two hands are brought together when the distance d between the two hands is smaller than the size (2 * r) of the object representing the hand. do.
[수학식 1][Equation 1]
d < 2* rd < 2*r
상기 모션 데이터 생성부(13)는 도 5d에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역(stop)으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성한다.As shown in FIG. 5D, the motion data generation unit 13 generates motion data of the user indicating a stop operation when the user's left and right hands are moved to a preset area (stop) in a closed state. .
상기 아바타 동작 모듈(20)은 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 장치이다. 즉, 상기 아바타 동작 모듈(20)은 아바타 생성모듈에 의하여 생성된 아바타를 프로세서(30)로부터 수신되는 제어 신호를 기초로 동작시켜 출력 모듈을 통하여 출력시키게 된다.The
상기 아바타 동작 모듈(20)은 프로세서(30)로부터 결정된 명령(command)을 수신하고, 프로세서(30)를 통해 아바타가 상기 명령에 대응되는 동작을 수행하도록 제어한다. 사용자의 동작 의도는 스테이트(state)로 변환되어 명령으로 결정된다. (예를 들어, 좌우 이동, 앞뒤 이동, 상하 이동 등)The
한편, 동일한 동작이라도 회전의 크기와 동작의 속도가 상이할 수 있는데, 명령의 스테이트 외에도 제어신호의 진폭(amplitude)에 따라 조절될 수 있다. 예를 들어, 특정한 주파수를 갖는 제어신호가 감지되었는데, 해당 주파수 및 부위의 신호가 아바타를 "앞으로 전진"시키는 명령과 매칭되어 있다면, 아바타 동작 모듈(20)은 아바타가 앞으로 전진하도록 제어한다. 이때, 제어신호의 진폭이 클수록 아바타는 빠른 속도로 전진하고 진폭이 작을수록 아바타는 천천히 전진할 수 있다.Meanwhile, the size of rotation and the speed of operation may be different even in the same operation, and may be adjusted according to the amplitude of the control signal in addition to the state of the command. For example, if a control signal having a specific frequency is sensed and the signal of the corresponding frequency and part matches the command to “move forward” the avatar, the
상기 프로세서(30)는 영상 처리 모듈(10)에 의하여 생성된 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 아바타 동작모듈을 통하여 아바타를 동작시킨다.The
상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 도 6에 도시된 바와 같이, 영상 생성부(11)에 의하여 촬영된 사용자의 영상 프레임을 손위치 생성부(12)를 통하여 캡쳐하여 손의 위치에 대응하는 좌표값을 인식한다(S10).As shown in FIG. 6, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above generates a hand position of a user's image frame captured by the image generator 11. By capturing through the unit 12, coordinate values corresponding to the position of the hand are recognized (S10).
그런 다음, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 한 손으로 판단되는 경우에는 앞뒤좌우 손 위치를 계산(S30)하여 좌우 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 좌우로 이동(S31)시키고, 앞뒤 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 앞뒤로 이동(S32)시킨다.Then, after calculating the distance between both hands through the motion data generation unit 12 (S20), if it is determined as one hand, the position of the left and right hand is calculated (S30), and if it is determined that the left and right movement is performed, the processor 30 ), the avatar is moved left and right (S31), and if it is determined that the avatar is moved forward and backward, the avatar is moved forward and backward through the processor 30 (S32).
또한, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 두손으로 판단되는 경우에는 상하 손위치 계산(S40)하여 상하 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 상하로 이동(S41)시킨다.In addition, after calculating the distance between both hands through the motion data generation unit 12 (S20), if it is determined that the two hands are the same, the position of the up and down hands is calculated (S40), and if it is determined that the movement is up and down, the avatar through the
상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템에 따르면, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.According to the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above, it is possible to perform simple AI calculations in still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method. Since avatar control commands can be generated by calculation, it is possible to provide an avatar controller using hand position recognition.
한편, 상기 영상 처리 모듈(10)의 표면에는 오염물질의 부착방지 및 제거를 효과적으로 달성할 수 있도록 오염 방지 도포용 조성물로 이루어진 오염방지도포층이 도포될 수 있다.Meanwhile, an antifouling coating layer made of an antifouling coating composition may be applied to the surface of the
상기 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 및 부틸카비톨이 1:0.01 ~ 1:2 몰비로 포함되어 있고, 소듐세스퀴카보네이트 및 부틸카비톨 총함량은 전체 수용액에 대해 1 ~10 중량%이다.The antifouling coating composition contains sodium sesquicarbonate and butyl carbitol in a molar ratio of 1:0.01 to 1:2, and the total content of sodium sesquicarbonate and butyl carbitol is 1 to 10% by weight based on the total aqueous solution. .
상기 소듐세스퀴카보네이트 및 부틸카비톨은 몰비로서 1:0.01 ~ 1:2가 바람직한 바, 몰비가 상기 범위를 벗어나는 경우에는 오염방지도포층의 도포성이 저하되거나 도포 후에 표면의 수분흡착이 증가하여 도포막이 제거되는 문제점이 있다.The molar ratio of the sodium sesquicarbonate and butyl carbitol is preferably 1:0.01 to 1:2. If the molar ratio is out of the above range, the coating property of the antifouling coating layer is lowered or the moisture adsorption on the surface increases after coating. There is a problem that the coating film is removed.
상기 소듐세스퀴카보네이트 및 부틸카비톨은 전체 조성물 수용액 중 1 ~ 10 중량%가 바람직한 바, 1 중량% 미만이면 오염방지도포층의 도포성이 저하되는 문제점이 있고, 10 중량%를 초과하면 도포막 두께의 증가로 인한 결정석출이 발생하기 쉽다.The sodium sesquicarbonate and butyl carbitol are preferably 1 to 10% by weight of the total aqueous solution of the composition. If the content is less than 1% by weight, the coating property of the antifouling coating layer is reduced, and if it exceeds 10% by weight, the coating film Crystallization is likely to occur due to an increase in thickness.
한편, 본 오염방지도포용 조성물을 영상 처리 모듈(10)의 표면 상에 도포하는 방법으로는 스프레이법에 의해 도포하는 것이 바람직하다. 또한, 상기 영상 처리 모듈(10)의 표면 상의 최종 도포막 두께는 700 ~ 2500Å이 바람직하며, 보다 바람직하게는 900 ~ 2000Å이다. 상기 도포막의 두께가 700 Å미만이면 고온 열처리의 경우에 열화되는 문제점이 있고, 2500 Å을 초과하면 도포 표면의 결정석출이 발생하기 쉬운 단점이 있다.On the other hand, as a method of applying the composition for antifouling coating on the surface of the
또한, 본 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 0.1 몰 및 부틸카비톨 0.05몰을 증류수 1000 ㎖에 첨가한 다음 교반하여 제조될 수 있다.In addition, this antifouling coating composition can be prepared by adding 0.1 mole of sodium sesquicarbonate and 0.05 mole of butyl carbitol to 1000 ml of distilled water and then stirring.
상기 구성 성분의 비율 및 도포막 두께를 상기와 같이 수치 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험결과를 통해 분석한 결과, 상기 비율에서 최적의 오염방지 도포 효과를 나타내었다.The reason why the ratio of the constituent components and the thickness of the coating film were numerically limited as described above was that the present inventors showed the optimal antifouling coating effect at the ratio as a result of analyzing the test results while repeating several failures.
상기 프로세서(30)의 표면에는 표면에 방열용 코팅제가 도포되어 프로세서(30)에서 방출되는 열이 충분히 발산되지 못하여 프로세서(30)의 표면이 과도하게 가열되는 방지하고 열을 효과적으로 방출할 수가 있다.A coating agent for heat dissipation is applied to the surface of the
이 방열용 코팅제 조성물은 규산칼륨 58중량%, 산화크롬 11중량%, 그라파이트 13중량%, 질화규소 8중량%, 수산화나트륨(NaOH) 3중량%, 산화티탄 3중량%, 폴리아마이드왁스 2중량%, 3-아미노프로필 트리메톡시실란 2중량%로 구성된다.This coating composition for heat dissipation contains 58% by weight of potassium silicate, 11% by weight of chromium oxide, 13% by weight of graphite, 8% by weight of silicon nitride, 3% by weight of sodium hydroxide (NaOH), 3% by weight of titanium oxide, 2% by weight of polyamide wax, It consists of 2% by weight of 3-aminopropyl trimethoxysilane.
규산칼륨은 바인더 수지 역할을 하고, 산화크롬은 내마모 역할을 하며, 그라파이트는 열전도성과 전기적 특성이 우수하며, 질화규소는 강도 향상 및 균열을 방지하고, 수산화나트륨은 분산제 역할을 하며, 산화티탄은 내후성을 위해서, 폴라아마이드왁스는 침강방지 역할을 하고, 3-아미노프로필 트리메톡시실란은 부착력 증강 역할을 한다.Potassium silicate acts as a binder resin, chromium oxide acts as a wear resistance, graphite has excellent thermal conductivity and electrical properties, silicon nitride improves strength and prevents cracking, sodium hydroxide acts as a dispersant, and titanium oxide acts as a weather resistance. For this purpose, polyamide wax serves as an anti-settling function, and 3-aminopropyl trimethoxysilane serves as an adhesion enhancer.
상기와 같이 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the constituent materials and components and limiting the numerical values of the mixing ratios as described above is that, as a result of the present inventors' analysis through test results while repeating several failures, the optimal effect in the constituent components and numerically limited ratios was obtained. showed up
상기 아바타 동작모듈(20)의 표면에는 살균기능 및 사용자 스트레스 완화 등에 도움이 되는 기능성 오일이 혼합된 환경용 방향제 물질이 코팅될 수 있다.The surface of the
방향제 물질과 기능성 오일의 혼합 비율은 상기 방향제 물질 95~97중량%에 상기 기능성 오일 3~5중량%가 혼합되며, 기능성 오일은 안젤리카오일(Angelica oil) 50중량%, 시트로넬라오일(Citronella oil) 50중량%로 구성된다.The mixing ratio of the fragrance material and the functional oil is 95 to 97% by weight of the fragrance material and 3 to 5% by weight of the functional oil, and the functional oil is 50% by weight of Angelica oil and Citronella oil. ) 50% by weight.
여기서 기능성 오일은 방향제 물질에 대해 3~5중량%가 혼합되는 것이 바람직하다. 기능성 오일의 혼합비율이 3중량% 미만이면, 그 효과가 미미하며, 기능성 오일의 혼합비율이 3~5중량%를 초과하면 그 효과가 크게 향상되지 않는 반면에 경제성이 떨어진다. 안젤리카오일(Angelica oil)은 스트레스 완화, 긴장완화, 살균 등에 좋은 효과가 있고, 시트로넬라오일(Citronella oil)은 심리적으로 마음을 정화하고 고양시키며 두통, 우울증, 신경통 등에 작용효과가 우수하다. 따라서, 이러한 기능성 오일이 혼합된 방향제 물질이 아바타 동작모듈(20)의 표면에 코팅됨에 따라, 아바타 동작모듈(20)의 표면을 살균 처리하고 사용자의 스트레스 등을 경감시키는 등의 효과를 얻을 수 있다.Here, the functional oil is preferably mixed in an amount of 3 to 5% by weight based on the fragrance material. If the mixing ratio of the functional oil is less than 3% by weight, the effect is insignificant, and if the mixing ratio of the functional oil exceeds 3 to 5% by weight, the effect is not greatly improved, but economical efficiency is poor. Angelica oil has a good effect on stress relief, tension relief, and sterilization, and citronella oil psychologically purifies and uplifts the mind, and has excellent effects on headaches, depression, and neuralgia. Therefore, as the fragrance material mixed with such functional oil is coated on the surface of the
환경용 방향제 물질 및 기능성 오일에 대해 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the components and limiting the numerical value of the mixing ratio for the environmental fragrance material and functional oil is that the present inventors have repeatedly failed several times and analyzed the test results to find that the above components and numerically limited ratio are optimal showed the effect of
한편, 영상 처리 모듈(10)의 하단부에는 고무재질의 진동흡수부가 더 설치 될 수 있다.Meanwhile, a rubber vibration absorbing unit may be further installed at the lower end of the
이 진동흡수부는 고무 재질로 이루어질 수 있으며, 이러한 진동흡수부의 원료 함량비는 고무 60중량%, 디부틸치오우레아 8중량%, 칼슘스테아레이트 6중량%, 카아본블랙 19중량%, 3C(N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE) 3중량%, 유기퍼옥사이드 4중량% 를 혼합한다.The vibration absorbing part may be made of a rubber material, and the raw material content of the vibration absorbing part is 60% by weight of rubber, 8% by weight of dibutylthiourea, 6% by weight of calcium stearate, 19% by weight of carbon black, 3C (N- 3% by weight of PHENYL-N'-ISOPROPYL-P-PHENYLENEDIAMINE) and 4% by weight of organic peroxide were mixed.
디부틸치오우레아는 가황촉진 향상 등을 위해 첨가되며, 칼슘스테아레이트는 연화제 역할을 위해 첨가되고, 카아본블랙은 내마모성, 열전도성 등을 증대하거나 향상시키기 위해 첨가된다.Dibutylthiourea is added to improve vulcanization acceleration, calcium stearate is added to act as a softener, and carbon black is added to increase or improve wear resistance, thermal conductivity, and the like.
3C (N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE)는 산화방지제로 첨가되며, 유기퍼옥사이드는 촉진제 등의 역할을 위해 첨가된다. 3C (N-PHENYL-N'-ISOPROPYL-P-PHENYLENEDIAMINE) is added as an antioxidant, and organic peroxide is added to act as an accelerator.
따라서 본 발명은 진동흡수부의 탄성, 인성 및 강성이 증대되므로 내구성이 향상되며, 이에 따라 진동흡수부의 수명이 증대된다.Therefore, in the present invention, since elasticity, toughness, and rigidity of the vibration absorbing part are increased, durability is improved, and thus the life of the vibration absorbing part is increased.
고무재질의 인장강도는 155Kg/㎠ 로 형성된다. The tensile strength of the rubber material is formed at 155Kg/㎠.
고무재질 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치 등을 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the components and components of the rubber material and limiting the numerical values of the mixing ratio is that, as a result of the inventor's analysis through test results while repeating several failures, the optimal effect in the constituent components and numerically limited ratios showed up
이상에서는 본 발명에 따른 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.In the above, preferred embodiments according to the present invention have been shown and described. However, the present invention is not limited to the above-described embodiments, and various modifications can be made by anyone having ordinary knowledge in the technical field to which the present invention belongs without departing from the gist of the present invention appended within the scope of the claims. .
10: 영상 처리 모듈
11: 영상 생성부
12: 손위치 생성부
13: 모션데이터 생성부
20: 아바타 동작 모듈
30: 프로세서10: image processing module 11: image generator
12: hand position generation unit 13: motion data generation unit
20: avatar motion module 30: processor
Claims (5)
외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및
상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
an image processing module that detects a user's hand motion and generates user's hand motion data;
an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and
Avatar control system using artificial intelligence hand position recognition, characterized in that it comprises a processor for generating motion information of the avatar corresponding to the user's hand motion data and operating the avatar based on the generated motion information of the avatar. .
상기 영상 처리 모듈은,
사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부;
상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및
상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 1,
The image processing module,
an image generation unit that captures a user and generates image frames divided into X-axis (left and right sides of the screen), Y-axis (top and bottom of the screen), and Z-axis (depth of the screen);
a hand position generating unit generating coordinate values corresponding to the position of the user's hand in the image frame; and
Avatar control using artificial intelligence hand position recognition, characterized in that it comprises a motion data generation unit that calculates the movement direction of the coordinate value and generates preset user's hand motion data based on the movement direction of the calculated coordinate value. system.
상기 모션 데이터 생성부는
사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되,
사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고,
사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며,
사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 2,
The motion data generator
The movement direction is calculated using the coordinate values of the user's left hand, right hand, or left and right hands,
When only the user's left hand is moved left and right, the user's motion data for the X axis corresponding to the left and right movement information is generated;
When only the user's right hand is moved up and down, the user's motion data for the Z axis corresponding to the up and down movement information is generated;
An avatar control system using artificial intelligence hand position recognition, characterized in that when the user's left and right hands move up and down in a gathered state, the user's motion data for the Y axis corresponding to the up and down movement information is generated.
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 3,
The motion data generator
Avatar control system using artificial intelligence hand position recognition, characterized in that if the distance between the user's left and right hands is smaller than the size of the object representing the user's hand, it is determined that the user's left and right hands are in a gathered state.
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 3,
The motion data generator
An avatar control system using artificial intelligence hand position recognition, characterized in that when the user's left and right hands are moved to a preset area in a gathered state, the user's motion data indicating a stop motion is generated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210176476A KR102599219B1 (en) | 2021-12-10 | 2021-12-10 | System for controlling avatar using artificial intelligence hand position recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210176476A KR102599219B1 (en) | 2021-12-10 | 2021-12-10 | System for controlling avatar using artificial intelligence hand position recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230087865A true KR20230087865A (en) | 2023-06-19 |
KR102599219B1 KR102599219B1 (en) | 2023-11-07 |
Family
ID=86988594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210176476A KR102599219B1 (en) | 2021-12-10 | 2021-12-10 | System for controlling avatar using artificial intelligence hand position recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102599219B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101189633B1 (en) | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions |
KR20140024421A (en) * | 2011-06-06 | 2014-02-28 | 마이크로소프트 코포레이션 | System for finger recognition and tracking |
KR20150044243A (en) * | 2013-10-16 | 2015-04-24 | (주)컴버스테크 | Electronic learning apparatus and method for controlling contents by hand avatar |
KR101655159B1 (en) * | 2015-02-04 | 2016-09-22 | 한국기술교육대학교 산학협력단 | System and method for realizing 3-dimensional avatar of user |
JP2019192224A (en) * | 2019-03-28 | 2019-10-31 | 株式会社 ディー・エヌ・エー | Image generation device and image generation program |
KR20200051937A (en) * | 2018-11-06 | 2020-05-14 | 한길씨앤씨 주식회사 | Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it |
-
2021
- 2021-12-10 KR KR1020210176476A patent/KR102599219B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140024421A (en) * | 2011-06-06 | 2014-02-28 | 마이크로소프트 코포레이션 | System for finger recognition and tracking |
KR101189633B1 (en) | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions |
KR20150044243A (en) * | 2013-10-16 | 2015-04-24 | (주)컴버스테크 | Electronic learning apparatus and method for controlling contents by hand avatar |
KR101655159B1 (en) * | 2015-02-04 | 2016-09-22 | 한국기술교육대학교 산학협력단 | System and method for realizing 3-dimensional avatar of user |
KR20200051937A (en) * | 2018-11-06 | 2020-05-14 | 한길씨앤씨 주식회사 | Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it |
JP2019192224A (en) * | 2019-03-28 | 2019-10-31 | 株式会社 ディー・エヌ・エー | Image generation device and image generation program |
Also Published As
Publication number | Publication date |
---|---|
KR102599219B1 (en) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210205986A1 (en) | Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose | |
US10157313B1 (en) | 3D gaze control of robot for navigation and object manipulation | |
JP6598401B2 (en) | Position / force control device, position / force control method and program | |
Natale et al. | A sensitive approach to grasping | |
CN114080583B (en) | Visual teaching and repetitive movement manipulation system | |
US9079313B2 (en) | Natural human to robot remote control | |
Eppner et al. | Grasping unknown objects by exploiting shape adaptability and environmental constraints | |
US20200346347A1 (en) | Upper limb motion support apparatus and upper limb motion support system | |
Hales et al. | Interacting with objects in the environment by gaze and hand gestures | |
JP2008000884A (en) | Evaluating visual proto-object for robot interaction | |
CN108044625B (en) | A kind of robot arm control method based on the virtual gesture fusion of more Leapmotion | |
Loconsole et al. | A new Kinect-based guidance mode for upper limb robot-aided neurorehabilitation | |
Dwivedi et al. | Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system | |
Gallina et al. | Progressive co-adaptation in human-machine interaction | |
Otaran et al. | A short description of an ankle-actuated seated vr locomotion interface | |
KR20230087865A (en) | System for controlling avatar using artificial intelligence hand position recognition | |
CN108062102A (en) | A kind of gesture control has the function of the Mobile Robot Teleoperation System Based of obstacle avoidance aiding | |
Xu et al. | A novel method for hand posture recognition based on depth information descriptor | |
KR101519589B1 (en) | Electronic learning apparatus and method for controlling contents by hand avatar | |
Romero et al. | Modeling and evaluation of human-to-robot mapping of grasps | |
US20220101477A1 (en) | Visual Interface And Communications Techniques For Use With Robots | |
Triesch et al. | Robotic gesture recognition by cue combination | |
Wameed et al. | Hand gestures robotic control based on computer vision | |
CN109934155B (en) | Depth vision-based collaborative robot gesture recognition method and device | |
Kragic et al. | Biologically motivated visual servoing and grasping for real world tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |