KR102599219B1 - System for controlling avatar using artificial intelligence hand position recognition - Google Patents

System for controlling avatar using artificial intelligence hand position recognition Download PDF

Info

Publication number
KR102599219B1
KR102599219B1 KR1020210176476A KR20210176476A KR102599219B1 KR 102599219 B1 KR102599219 B1 KR 102599219B1 KR 1020210176476 A KR1020210176476 A KR 1020210176476A KR 20210176476 A KR20210176476 A KR 20210176476A KR 102599219 B1 KR102599219 B1 KR 102599219B1
Authority
KR
South Korea
Prior art keywords
user
hand
avatar
motion data
generates
Prior art date
Application number
KR1020210176476A
Other languages
Korean (ko)
Other versions
KR20230087865A (en
Inventor
이희용
Original Assignee
주식회사 리안
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리안 filed Critical 주식회사 리안
Priority to KR1020210176476A priority Critical patent/KR102599219B1/en
Publication of KR20230087865A publication Critical patent/KR20230087865A/en
Application granted granted Critical
Publication of KR102599219B1 publication Critical patent/KR102599219B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

본 발명은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것으로, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있는 효과가 있다.The present invention includes an image processing module that detects the user's hand motion and generates the user's hand motion data; an avatar operation module that operates a pre-generated avatar according to a control signal received from the outside; and a processor that generates motion information of the avatar corresponding to the user's hand motion data and operates the avatar based on the generated motion information of the avatar. , Because avatar control commands can be generated through simple calculations from still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method, it is possible to provide an avatar controller using hand position recognition. It works.

Description

인공지능 손위치 인식을 이용한 아바타 제어시스템{SYSTEM FOR CONTROLLING AVATAR USING ARTIFICIAL INTELLIGENCE HAND POSITION RECOGNITION}Avatar control system using artificial intelligence hand position recognition {SYSTEM FOR CONTROLLING AVATAR USING ARTIFICIAL INTELLIGENCE HAND POSITION RECOGNITION}

본 발명은 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것이다.The present invention relates to an avatar control system using artificial intelligence hand position recognition.

최근, 증강 현실(augmented reality) 기술이 발전하면서 현실 세계와 가상 세계를 서로 융합하는 기술들이 개발되고 있다. 예를 들면, 가상 교육 시스템, 스크린 골프 시스템 및 가상 체험 시뮬레이션 시스템 등이 그 대표적인 예일 것이다.Recently, as augmented reality technology has developed, technologies that fuse the real world and the virtual world are being developed. For example, representative examples include a virtual education system, a screen golf system, and a virtual experience simulation system.

이들 가상 시스템은, 터치보드 등의 디스플레이장치를 이용하여 콘텐츠 영상을 출력한 상태에서, 사용자가 모션을 취하면 모션에 대응하여 해당 콘텐츠를 제어하도록 구성되어 있다.These virtual systems are configured to control the content in response to the motion when the user makes a motion while outputting a content image using a display device such as a touch board.

이러한 가상 시스템은 미디어파이프(mediapipe)라는 도구를 이용하면 손이나 얼굴을 인식하도록 할 수 있다. 또한, 이러한 도구는 손가락 마디의 관절을 인식할 수 있고, 손전체를 인식할 수 있다.These virtual systems can recognize hands or faces using a tool called mediapipe. Additionally, these tools can recognize finger joints and the entire hand.

다만, 한 장의 정지영상에서 손의 위치를 파악하는 것은 용이하지만, 손의 위치만으로 동작을 인식하기에는 한계가 있어서 LSTM 등의 인공지능 기법을 이용하여 자세 추정을 하기도 한다. However, although it is easy to determine the position of the hand from a single still image, there are limitations in recognizing motion only based on the position of the hand, so artificial intelligence techniques such as LSTM are used to estimate posture.

그러나, 초당 60프레임 이상을 화면에 보여주는 상황에서 실시간으로 자세 추정 계산을 수행하는 것은 시스템에 부하가 크다는 문제점이 있었다.However, performing posture estimation calculations in real time while displaying more than 60 frames per second on the screen had the problem of placing a large load on the system.

등록특허공보 제10-1189633호(공고일자: 2012. 10. 10)Registered Patent Publication No. 10-1189633 (Publication date: October 10, 2012)

전술한 문제점을 개선하기 위한 본 발명 실시예들의 목적은 기존의 LSTM(Long Short Term Memory)방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 인공지능 손위치 인식을 이용한 아바타 제어시스템을 제공하는 것이다.The purpose of the embodiments of the present invention to improve the above-described problems is to provide an artificial intelligence hand that can generate avatar control commands through simple calculations from still images without performing heavy artificial intelligence calculations such as the existing Long Short Term Memory (LSTM) method. It provides an avatar control system using location recognition.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 의한 인공지능 손위치 인식을 이용한 아바타 제어시스템은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 것을 특징으로 한다.In order to achieve the above object, an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention includes an image processing module that detects the user's hand motion and generates the user's hand motion data; an avatar operation module that operates a pre-generated avatar according to a control signal received from the outside; and a processor that generates motion information of an avatar corresponding to the user's hand motion data and operates the avatar based on the generated motion information of the avatar.

상기 영상 처리 모듈은, 사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부; 상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및 상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하는 것을 특징으로 한다.The image processing module includes an image generator that captures a user image and generates image frames divided into an X-axis (left and right sides of the screen), a Y-axis (top and bottom of the screen), and a Z-axis (depth of the screen); a hand position generator that generates coordinate values corresponding to the position of the user's hand in the video frame; and a motion data generator that calculates the moving direction of the coordinate values and generates preset user's hand motion data based on the calculated moving direction of the coordinate values.

상기 모션 데이터 생성부는 사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generator calculates the movement direction using the coordinate values of the user's left hand, right hand, or left and right hands, but when only the user's left hand is moved left and right, the user's motion on the Data is generated, and when only the user's right hand is moved up and down, the user's motion data on the Z axis corresponding to the up and down movement information is generated, and when the user's left and right hands are moved up and down with the user's left and right hands together, up and down It is characterized by generating user motion data on the Y axis corresponding to movement information.

상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 한다.The motion data generator is characterized in that it determines that the user's left and right hands are together if the distance between the user's left and right hands is smaller than the size of the object representing the user's hands.

상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generator is characterized in that when the user's left and right hands are brought together and moved to a preset area, the user's motion data indicating a stopping motion is generated.

본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.The avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention provides avatar control commands through simple calculations from still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method. Since it can be created, an avatar controller using hand position recognition can be provided.

도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블럭도이다.
도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이다.
도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이다.
도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이다.
도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.
Figure 1 is a block diagram schematically showing an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.
FIG. 2 is a diagram showing the configuration of an area for motion recognition in the image generating unit of the image processing module of FIG. 1.
FIG. 3 is a diagram for explaining an algorithm for determining whether the user's two hands are gathered in the motion data generation unit of the image processing module of FIG. 1.
FIG. 4 is a diagram defining user's hand motion data in the motion data generation unit of the image processing module of FIG. 1.
FIGS. 5A to 5D are diagrams illustrating examples of generating user's hand motion data in the motion data generation unit of the image processing module of FIG. 1 .
Figure 6 is a flowchart showing the operation of an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the attached drawings and examples.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention, unless specifically defined in a different sense in the present invention, should be interpreted as meanings generally understood by those skilled in the art in the technical field to which the present invention pertains, and are not overly comprehensive. It should not be interpreted in a literal or excessively reduced sense. Additionally, if the technical term used in the present invention is an incorrect technical term that does not accurately express the idea of the present invention, it should be replaced with a technical term that can be correctly understood by a person skilled in the art. In addition, general terms used in the present invention should be interpreted according to the definition in the dictionary or according to the context, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Additionally, as used in the present invention, singular expressions include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the invention, and some of the components or steps are included. It may not be possible, or it should be interpreted as including additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Additionally, terms containing ordinal numbers, such as first, second, etc., used in the present invention may be used to describe constituent elements, but the constituent elements should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first component may be named a second component without departing from the scope of the present invention, and similarly, the second component may also be named a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of the reference numerals, and duplicate descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Additionally, when describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the attached drawings are only intended to facilitate easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the attached drawings.

도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블록도이고, 도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이며, 도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이고, 도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이며, 도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이고, 도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.Figure 1 is a block diagram schematically showing an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention, and Figure 2 is a block diagram of an area for motion recognition in the image generation unit of the image processing module of Figure 1. It is a diagram showing the configuration, and FIG. 3 is a diagram for explaining an algorithm for determining whether the user's two hands are gathered in the motion data generation unit of the image processing module of FIG. 1, and FIG. 4 is a diagram of the image processing module of FIG. 1. This is a diagram defining the user's hand motion data in the motion data generator, and FIGS. 5A to 5D are diagrams showing an example of generating the user's hand motion data in the motion data generator of the image processing module of FIG. 1, and FIG. 6 is This is a flowchart showing the operation of an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 시스템이고, 이를 위하여 영상 처리 모듈(10), 아바타 동작 모듈(20) 및 프로세서(30)를 포함한다.As shown in Figure 1, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention is a system that can generate avatar control commands through simple calculations from still images, and for this purpose, an image processing module ( 10), and includes an avatar operation module 20 and a processor 30.

도시되어 있지는 않지만, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 아바타 생성모듈과 출력 모듈을 더 포함할 수 있다.Although not shown, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention may further include an avatar creation module and an output module.

상기 아바타 생성모듈은 가상현실(Virtual Reality) 환경에서 사용자의 아바타를 생성한다. 본 명세서에서 아바타(avatar)는 실제 현실이 아닌 컴퓨터 프로그래밍에 의해 가상의 공간으로 구현된 가상현실에서 사용자의 명령에 따라 제어될 수 있는 가상의 캐릭터를 의미한다. 아바타의 생김새는 사용자의 몰입감을 향상시키고 원할한 바이오피드백을 제공하기 위해 사용자와 유사한 생김새를 갖는 인간의 형상일 수 있으나 특정 형태로 한정되지는 아니한다.The avatar creation module creates a user's avatar in a virtual reality environment. In this specification, an avatar refers to a virtual character that can be controlled according to user commands in a virtual reality implemented in a virtual space through computer programming rather than in actual reality. The appearance of the avatar may be a human shape with a similar appearance to the user in order to improve the user's immersion and provide smooth biofeedback, but is not limited to a specific shape.

일 실시예에서, 사용자의 손 모션 데이터에 기초하여 아바타가 자동으로 생성될 수 있다. 예를 들어, 정지 영상에서 사용자의 손 모션 변화를 감지하여 이에 따라 아바타의 자세 또는 동작을 변화시킬 수 있다. 이와 같이 사용자의 손 모션 데이터에 따라 가상환경의 아바타의 형상이나 태도를 적절히 변화시키는 것은 가상현실에서의 실재감과 몰입감을 향상시킬 수 있다.In one embodiment, an avatar may be automatically created based on the user's hand motion data. For example, a change in the user's hand motion can be detected in a still image and the avatar's posture or movement can be changed accordingly. In this way, appropriately changing the shape or attitude of the avatar in the virtual environment according to the user's hand motion data can improve the sense of presence and immersion in virtual reality.

가상현실 환경에서 생성된 아바타는 후술하는 바와 같이 사용자의 손 모션 데이터에 기초하여 결정된 명령에 대응하는 동작을 수행한다. 이를 이용하여, 사용자는 실제로 동작을 수행하지 않더라도 손 모션 데이터에 대응되는 제어신호를 내보내 가상현실의 아바타가 특정한 동작을 행하도록 제어할 수 있고, 프로그램에서 제공되는 평가 프로토콜 또는 훈련 프로토콜을 수행할 수 있다.An avatar created in a virtual reality environment performs actions corresponding to commands determined based on the user's hand motion data, as will be described later. Using this, the user can control the virtual reality avatar to perform a specific action by sending a control signal corresponding to the hand motion data even if the user does not actually perform the action, and can perform the evaluation protocol or training protocol provided by the program. there is.

상기 출력 모듈은 아바타가 동작을 수행하는 영상을 실시간으로 출력하기 위한 TV, 모니터, HMD 등의 출력장치이다. 일 실시예에서, 상기 출력 모듈은 발광다이오드(LED), 유기발광소자(OLED), 발광중합체(LEP), 전자발광소자(EL), 전계방출소자(FED), 또는 중합체발광소자(PLED) 등이 적용된 디스플레이로 구성될 수 있다.The output module is an output device such as a TV, monitor, or HMD that outputs images of the avatar performing actions in real time. In one embodiment, the output module is a light emitting diode (LED), an organic light emitting device (OLED), a light emitting polymer (LEP), an electroluminescent device (EL), a field emission device (FED), or a polymer light emitting device (PLED). It can be configured with a display to which this is applied.

또한, 상기 출력 모듈은 머리에 착용 가능한 형태인 HMD(Head Mounted Display) 장치로 구성될 수 있다. HMD 장치는 사용자의 머리에 착용하여 양안에 대응되는 디스플레이를 통해 화면을 감상할 수 있는 차세대 디스플레이 장치이다. 일반적으로 IMU 센서를 포함하여 회전 값을 통해 사용자의 머리 움직임을 동기화 시킬 수 있다. 이를 통해, 사용자는 증강현실(Augmented Reality) 또는 가상현실(Virtual Reality) 환경에서 종래의 모니터 장치로 시청하는 것보다 더 뛰어난 몰입감을 느낄 수 있다.Additionally, the output module may be configured as a Head Mounted Display (HMD) device that can be worn on the head. HMD devices are next-generation display devices that can be worn on the user's head to view the screen through displays corresponding to both eyes. Typically, the user's head movement can be synchronized through rotation values, including IMU sensors. Through this, users can feel a greater sense of immersion than watching with a conventional monitor device in an Augmented Reality or Virtual Reality environment.

상기 영상 처리 모듈(10)은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 장치로서, 영상 생성부(11), 손위치 생성부(12) 및 모션 데이터 생성부(13)를 포함한다.The image processing module 10 is a device that detects the user's hand motion and generates the user's hand motion data, and includes an image generator 11, a hand position generator 12, and a motion data generator 13. do.

상기 영상 생성부(11)는 통상의 카메라를 이용할 수 있으며, 도 2에 도시된 바와 같이, 사용자를 촬영하여 정지 영상을 기초로 영상 프레임을 생성하는 장치로, X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 장치이다.The image generator 11 can use a normal camera, and as shown in FIG. 2, it is a device that captures a user and generates an image frame based on a still image, with X-axis (left and right sides of the screen), Y It is a device that generates video frames divided into the axis (top and bottom of the screen) and Z-axis (depth of the screen).

상기 손위치 생성부(12)는 영상 생성부(11)에 의하여 생성된 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 장치이다. 구체적으로, 상기 손위치 생성부(12)는 정지 영상으로 구성된 영상 프레임 중 사용자의 손 부분의 영상을 캡쳐하여 손의 모션에 대응한 좌표값(즉, 손의 좌표)을 생성한다. 이때, 손의 좌표는 손가락 관절, 손목 관절을 포함하고, 이에 손의 전체적인 크기 및 손가락 길이 등을 확인할 수 있도록 한다. 또한, 상기 손위치 생성부(12)에서는 손가락 끝 및 각 관절의 포인트의 이동을 추적하여 손의 움직임을 추적하여 좌표값을 생성한다.The hand position generator 12 is a device that generates coordinate values corresponding to the position of the user's hand among the image frames generated by the image generator 11. Specifically, the hand position generator 12 captures an image of the user's hand among an image frame composed of a still image and generates coordinate values (i.e., hand coordinates) corresponding to the motion of the hand. At this time, the coordinates of the hand include finger joints and wrist joints, allowing the overall size and finger length of the hand to be confirmed. In addition, the hand position generator 12 tracks the movement of the fingertips and the points of each joint to track the movement of the hand and generates coordinate values.

상기 손위치 생성부(12)는, 영상 생성부(11)로부터 전달된 영상 프레임간의 연결관계를 정의하는 전처리부(미도시)와, 전처리가 이루어진 영상 프레임에서 미리 학습된 학습 정보를 기반으로 하여 손을 인식하는 손 인식부(미도시)와, 인식된 손에 대한 좌표 조정을 수행하고, 미리 학습된 학습 정보를 기반으로 하여 영상 프레임간 변위로부터 손의 이동좌표를 계산하는 이동좌표 산출부(미도시)를 포함한다.The hand position generator 12 includes a preprocessor (not shown) that defines the connection relationship between image frames transmitted from the image generator 11, and learning information learned in advance from preprocessed image frames. A hand recognition unit (not shown) that recognizes the hand, and a movement coordinate calculation unit (not shown) that performs coordinate adjustment for the recognized hand and calculates the movement coordinates of the hand from the displacement between video frames based on pre-learned learning information. (not shown).

여기서, 손에 대한 인식에 있어, 먼저 손에 대한 학습을 수행하여 학습된 결과를 저장하고, 이 저장된 학습 정보로부터 손에 대한 인식이 이루어지는 것이 바람직하다. 한편, 손에 대한 인식과 함께 머리, 몸통, 팔, 다리 등의 학습 및 이의 인식도 함께 이루어지며, 이들의 인식을 통해 손의 위치를 정확하게 판단하는데 이용할 수 있다.Here, in recognizing the hand, it is desirable to first learn the hand, store the learned results, and then recognize the hand from this stored learning information. Meanwhile, along with the recognition of the hand, learning and recognition of the head, torso, arms, and legs are also carried out, and their recognition can be used to accurately determine the position of the hand.

이와 같이 구성된 손위치 생성부(12)에서, 손을 인식하고 좌표를 산출함에 있어, 움직임을 추정하는 추정기법을 이용하여 미리 예측된 위치에서 손의 존재여부를 확인하게 된다. 각 영상 프레임들에서 손의 움직임 추정기법을 통해 손을 추정하여 검색하고, 검색된 손의 이동좌표를 산출한다. 즉, 이전 영상 프레임에서 손의 움직임 벡터성분을 추출하고, 현재 영상 프레임에서 손의 움직임 벡터성분을 추출하여 움직임 추정을 실행하게 되며, 이에 다음 영상 프레임에서의 손의 위치를 추정할 수 있는 것이다. 또한 이러한 추정은 미리 학습된 학습 정보에 의해 이루어지게 된다. 만약, 추정된 위치에 손이 존재하지 않을 경우에는 추정된 위치를 중심으로 반경을 설정하여 해당 반경 내에서 손에 대한 검색이 이루어진다. 이때 팔이 검색되었다면, 인체의 구조에 기반하여 손의 위치를 더욱 손쉽게 추정하게 된다. In the hand position generator 12 configured as described above, when recognizing a hand and calculating coordinates, the presence or absence of the hand is confirmed at a previously predicted position using an estimation technique for estimating movement. In each video frame, the hand is estimated and searched through a hand movement estimation technique, and the movement coordinates of the searched hand are calculated. In other words, motion estimation is performed by extracting the hand motion vector component from the previous video frame and extracting the hand motion vector component from the current video frame, and thus the hand position in the next video frame can be estimated. Additionally, this estimation is made based on pre-learned learning information. If the hand does not exist at the estimated position, a radius is set around the estimated position and a search for the hand is performed within that radius. At this time, if the arm is searched, the position of the hand can be more easily estimated based on the structure of the human body.

상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 장치이다.The motion data generator 13 is a device that calculates the movement direction of the coordinate value generated by the hand position generator 12 and generates preset user's hand motion data based on the movement direction of the calculated coordinate value. am.

상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 전달받아 이동 위치 등의 변화를 처리하며, 또한 이동 위치 변화로부터 이벤트(제어)를 생성하고, 전달된 손의 좌표로부터 손 형상을 인식함과 아울러 사용자의 손 모션 데이터를 생성한다.The motion data generator 13 receives the coordinate values generated by the hand position generator 12, processes changes in movement position, etc., and also generates an event (control) from the change in movement position, and generates an event (control) of the transmitted hand. It recognizes the hand shape from coordinates and generates the user's hand motion data.

즉, 상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 수신하고, 프로세서(30)를 통해 이를 처리하여 대응되는 사용자의 명령(즉, 아바타 제어신호)인 사용자의 손 모션 데이터를 결정한다. 명령의 결정에 필요한 분석 알고리즘 또는 룩업 테이블 등의 관련 정보는 손위치 기반 제어 프로그램과 함께 메모리에 저장될 수 있다.That is, the motion data generator 13 receives the coordinate values generated by the hand position generator 12, processes them through the processor 30, and generates the user's corresponding command (i.e., avatar control signal). Determine the hand motion data. Related information such as analysis algorithms or look-up tables necessary for command decision may be stored in memory along with the hand position-based control program.

또한, 상기 모션 데이터 생성부(13)는 프로세서(30)를 통해 아바타 제어신호에 대해 주파수 필터링을 수행한다. 고주파 노이즈를 제거하고자 하는 경우 저역 통과 필터(low-pass filter)를 이용할 수 있고, 특정 주파수 영역을 선택하고자 하는 경우 대역 통과 필터(band-pass filter)를 이용하거나, 특정 주파수 영역을 제거하고자 하는 경우 대역 저지 필터(bandstop filter)를 이용할 수 있다.Additionally, the motion data generator 13 performs frequency filtering on the avatar control signal through the processor 30. If you want to remove high-frequency noise, you can use a low-pass filter, if you want to select a specific frequency area, you can use a band-pass filter, or if you want to remove a specific frequency area, you can use a low-pass filter. A bandstop filter can be used.

상기 모션 데이터 생성부(13)는 필터링된 신호의 해당 주파수에 대한 로그 값 및 분산 값을 포함하여 산출한 데이터 파워에 기초하여 특징 벡터를 추출한다. 예를 들어, 프로세서(30)는 고속 푸리에 변환(FFT)에 기초하여 신호 데이터 상의 특정 주파수의 신호 성분이 차지하는 비중을 정량적으로 분석할 수 있다.The motion data generator 13 extracts a feature vector based on the data power calculated including the logarithmic value and variance value for the corresponding frequency of the filtered signal. For example, the processor 30 can quantitatively analyze the proportion of signal components of a specific frequency in signal data based on fast Fourier transform (FFT).

이외에도 아바타 제어신호에 신호처리 함수를 적용해 평균, 편차, RMS(Root mean square), 왜도, 첨도, DF(Dominant frequency) 등을 계산하여 특징벡터를 추출할 수 있고, 추출된 특징벡터 데이터는 대응되는 사용자의 명령을 결정하는데 이용된다.In addition, by applying a signal processing function to the avatar control signal, feature vectors can be extracted by calculating mean, deviation, RMS (root mean square), skewness, kurtosis, DF (dominant frequency), etc., and the extracted feature vector data is It is used to determine the corresponding user command.

한편, 상기 모션 데이터 생성부(13)는 아바타 제어신호에 대한 전처리가 완료되면, 분류기 생성 모듈을 통해 복수의 분류기(classifier)를 생성할 수 있다. 프로세서(30)는 복수의 분류 알고리즘에 기초하여 분류기를 생성할 수 있다. 복수의 분류기는 사용자의 손 모션 데이터를 분류하여 상기 데이터가 특정 클래스에 해당하는지 여부를 판단한다.Meanwhile, when preprocessing of the avatar control signal is completed, the motion data generator 13 can generate a plurality of classifiers through a classifier generation module. The processor 30 may generate a classifier based on a plurality of classification algorithms. A plurality of classifiers classify the user's hand motion data and determine whether the data corresponds to a specific class.

상기 모션 데이터 생성부(13)는 이에 기초하여 복수의 동작 중 실시간 사용자의 손 모션 데이터에 대응하는 동작을 선택하고 최종적으로 사용자의 명령(command)을 결정한다. 구체적으로, 프로세서(30)는 분류기에 기초하여 입력된 실시간 사용자의 손 모션 데이터에 대한 각 움직임을 확률이나 점수 등의 출력 값으로 산출할 수 있고, 프로세서(30)는 확률 또는 점수가 가장 큰 값을 갖는 동작을 선택하여 명령을 결정할 수 있다.Based on this, the motion data generator 13 selects an action corresponding to the real-time user's hand motion data from among a plurality of actions and finally determines the user's command. Specifically, the processor 30 may calculate each movement of the input real-time user's hand motion data as an output value such as probability or score based on the classifier, and the processor 30 may calculate the output value such as probability or score. The command can be determined by selecting an action with .

실시예에 따라 다양한 형태의 명령이 사용자의 손 모션 데이터와 대응되도록 미리 저장될 수 있다. 예를 들어, 단순히 아바타를 전후좌우로 움직이는 명령에서 나아가 앉기/서기와 같은 명령이나, 발을 위아래로 들기, 무릎을 굽히거나 펴기와 같은 관절 관련 움직임도 명령으로 지정될 수 있다. 본 발명은 다양한 종류의 사용자의 손 위치 신호를 동시에 획득할 수 있고, 이를 세부적인 동작 명령들과 매칭함으로써 다양하고 자연스러운 형태의 동작을 가상현실에서 구현할 수 있다. 각 명령에 대한 사용자의 의도를 파악하고 오작동률을 줄이기 위한 신호처리 알고리즘은 전술한 바와 같다.Depending on the embodiment, various types of commands may be stored in advance to correspond to the user's hand motion data. For example, in addition to commands that simply move the avatar forward, backward, left, and right, commands such as sitting/standing, or joint-related movements such as lifting a foot up or down, or bending or straightening a knee, can also be specified as commands. The present invention can simultaneously acquire various types of user's hand position signals and match them with detailed operation commands to implement various natural types of movements in virtual reality. The signal processing algorithm for identifying the user's intention for each command and reducing the malfunction rate is as described above.

다시 설명하자면, 상기 모션 데이터 생성부(13)는 도 4에 도시된 바와 같이, 사용자의 손 위치에 따른 사용자의 동작 명령을 정의하고, 사용자의 왼손(L), 오른손(R), 또는 왼손(L) 및 오른손(R)의 좌표값을 이용하여 이동 방향을 산출한다.To explain again, the motion data generator 13 defines the user's operation command according to the user's hand position, as shown in FIG. 4, and uses the user's left hand (L), right hand (R), or left hand ( The direction of movement is calculated using the coordinate values of the right hand (L) and right hand (R).

상세하게는, 상기 모션 데이터 생성부(13)는 아래와 같이 좌표축 이동 방향을 정의한다.In detail, the motion data generator 13 defines the coordinate axis movement direction as follows.

X 축: 화면에서 좌우로 움직이는 방향, 오른쪽으로 가면 + X axis : Direction of moving left and right on the screen, moving to the right +

Y 축: 화면에서 상하로 움직이는 방향, 위로 가면 + Y axis : Direction of moving up and down on the screen, going up is +

Z 축: 화면 깊이로 움직이는 방향, 스크린을 보는 사람 방향으로 나오면 + Z axis : Direction of movement towards the depth of the screen, when the screen moves towards the viewer, +

X축 방향 제어X-axis direction control

왼손을 좌우로 움직여 조정한다(왼손이 -X 위치하면 왼쪽으로 이동, +X 에 위치하면 오른쪽으로 이동)Adjust by moving your left hand left and right (if your left hand is at -X, it moves left, and when it is at +X, it moves right).

Y축 방향 제어Y-axis direction control

두 손을 모은 채로 두 손을 상하로 움직여 조정한다(두 손이 +Y에 위치하면 위쪽으로 이동, -Y에 위치하면 아래로 이동).Adjust by keeping both hands together and moving them up and down (if both hands are positioned at +Y, move upward, and if both hands are positioned at -Y, move downward).

Z축 방향 제어Z-axis direction control

오른손을 상하로 움직여 조정한다(오른손이 +Z위치하면 화면 앞쪽으로 이동, -Z에 위치하면 화면 뒤쪽으로 이동).Adjust by moving your right hand up and down (if your right hand is at +Z, it moves to the front of the screen, and when it is at -Z, it moves to the back of the screen).

정지 동작stop motion

두 손을 모은 채로 stop 구역으로 이동하면 정지한다.Move to the stop zone with both hands together and it will stop.

상기 모션 데이터 생성부(13)는 도 5a에 도시된 바와 같이, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성한다.As shown in FIG. 5A, when only the user's left hand is moved left or right, the motion data generator 13 generates the user's motion data on the X-axis corresponding to the left and right movement information.

또한, 상기 모션 데이터 생성부(13)는 도 5b에 도시된 바와 같이, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성한다.Additionally, as shown in FIG. 5B, the motion data generator 13 generates the user's motion data on the Z-axis corresponding to the vertical movement information when only the user's right hand is moved up and down.

또한, 상기 모션 데이터 생성부(13)는 도 5c에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성한다.In addition, as shown in FIG. 5C, when the user's left and right hands are moved up and down, the motion data generator 13 generates the user's motion data on the Y axis corresponding to the up and down movement information. Create.

한편, 상기 모션 데이터 생성부(13)는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단한다. 즉, 상기 모션 데이터 생성부(13)는 도 3 및 수학식 1에서와 같이, 두 손 간의 거리(d)가 손을 표현하는 객체의 크기(2 * r)보다 작으면 두 손을 모으는 것으로 판단한다.Meanwhile, the motion data generator 13 determines that the user's left and right hands are together if the distance between the user's left and right hands is smaller than the size of the object representing the user's hands. That is, the motion data generator 13 determines that the two hands are brought together when the distance ( d) between the two hands is smaller than the size (2 * r) of the object representing the hand, as shown in FIG. 3 and Equation 1. do.

[수학식 1][Equation 1]

d < 2* rd < 2* r

상기 모션 데이터 생성부(13)는 도 5d에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역(stop)으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성한다.As shown in FIG. 5D, the motion data generator 13 generates user motion data indicating a stop motion when the user's left and right hands are brought together and moved to a preset area (stop). .

상기 아바타 동작 모듈(20)은 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 장치이다. 즉, 상기 아바타 동작 모듈(20)은 아바타 생성모듈에 의하여 생성된 아바타를 프로세서(30)로부터 수신되는 제어 신호를 기초로 동작시켜 출력 모듈을 통하여 출력시키게 된다.The avatar operation module 20 is a device that operates a pre-created avatar according to control signals received from the outside. That is, the avatar operation module 20 operates the avatar created by the avatar creation module based on the control signal received from the processor 30 and outputs it through the output module.

상기 아바타 동작 모듈(20)은 프로세서(30)로부터 결정된 명령(command)을 수신하고, 프로세서(30)를 통해 아바타가 상기 명령에 대응되는 동작을 수행하도록 제어한다. 사용자의 동작 의도는 스테이트(state)로 변환되어 명령으로 결정된다. (예를 들어, 좌우 이동, 앞뒤 이동, 상하 이동 등)The avatar operation module 20 receives a determined command from the processor 30 and controls the avatar to perform an operation corresponding to the command through the processor 30. The user's operational intention is converted into a state and determined as a command. (For example, moving left and right, moving forward and backward, moving up and down, etc.)

한편, 동일한 동작이라도 회전의 크기와 동작의 속도가 상이할 수 있는데, 명령의 스테이트 외에도 제어신호의 진폭(amplitude)에 따라 조절될 수 있다. 예를 들어, 특정한 주파수를 갖는 제어신호가 감지되었는데, 해당 주파수 및 부위의 신호가 아바타를 "앞으로 전진"시키는 명령과 매칭되어 있다면, 아바타 동작 모듈(20)은 아바타가 앞으로 전진하도록 제어한다. 이때, 제어신호의 진폭이 클수록 아바타는 빠른 속도로 전진하고 진폭이 작을수록 아바타는 천천히 전진할 수 있다.Meanwhile, even in the same operation, the magnitude of rotation and speed of operation may be different, and may be adjusted according to the amplitude of the control signal in addition to the state of the command. For example, if a control signal with a specific frequency is detected, and the signal of the corresponding frequency and region matches the command to “move forward” the avatar, the avatar motion module 20 controls the avatar to move forward. At this time, the larger the amplitude of the control signal, the faster the avatar can move forward, and the smaller the amplitude, the slower the avatar can move forward.

상기 프로세서(30)는 영상 처리 모듈(10)에 의하여 생성된 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 아바타 동작모듈을 통하여 아바타를 동작시킨다.The processor 30 generates avatar motion information corresponding to the user's hand motion data generated by the image processing module 10, and operates the avatar through the avatar motion module based on the generated avatar motion information. I order it.

상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 도 6에 도시된 바와 같이, 영상 생성부(11)에 의하여 촬영된 사용자의 영상 프레임을 손위치 생성부(12)를 통하여 캡쳐하여 손의 위치에 대응하는 좌표값을 인식한다(S10).The avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above generates a hand position from the user's image frame captured by the image generator 11, as shown in FIG. 6. It is captured through the unit 12 and the coordinate value corresponding to the position of the hand is recognized (S10).

그런 다음, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 한 손으로 판단되는 경우에는 앞뒤좌우 손 위치를 계산(S30)하여 좌우 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 좌우로 이동(S31)시키고, 앞뒤 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 앞뒤로 이동(S32)시킨다.Then, after calculating the distance between both hands through the motion data generator 12 (S20), if it is determined to be one hand, calculate the front, rear, left, and right hand positions (S30), and if it is determined to be moving left and right, the processor 30 ) moves the avatar left and right (S31), and if it is determined to be moving forward and backward, the avatar is moved back and forth through the processor 30 (S32).

또한, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 두손으로 판단되는 경우에는 상하 손위치 계산(S40)하여 상하 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 상하로 이동(S41)시킨다.In addition, after calculating the distance between both hands through the motion data generator 12 (S20), if it is determined that there are two hands, the up and down hand positions are calculated (S40), and if it is determined that the hand is moving up and down, the avatar is generated through the processor 30. Move up and down (S41).

상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템에 따르면, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.According to the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above, simple Since avatar control commands can be generated through calculation, an avatar controller using hand position recognition can be provided.

한편, 상기 영상 처리 모듈(10)의 표면에는 오염물질의 부착방지 및 제거를 효과적으로 달성할 수 있도록 오염 방지 도포용 조성물로 이루어진 오염방지도포층이 도포될 수 있다.Meanwhile, an anti-pollution layer made of an anti-pollution coating composition may be applied to the surface of the image processing module 10 to effectively prevent adhesion and remove contaminants.

상기 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 및 부틸카비톨이 1:0.01 ~ 1:2 몰비로 포함되어 있고, 소듐세스퀴카보네이트 및 부틸카비톨 총함량은 전체 수용액에 대해 1 ~10 중량%이다.The anti-pollution coating composition contains sodium sesquicarbonate and butyl carbitol in a molar ratio of 1:0.01 to 1:2, and the total content of sodium sesquicarbonate and butyl carbitol is 1 to 10% by weight based on the total aqueous solution. .

상기 소듐세스퀴카보네이트 및 부틸카비톨은 몰비로서 1:0.01 ~ 1:2가 바람직한 바, 몰비가 상기 범위를 벗어나는 경우에는 오염방지도포층의 도포성이 저하되거나 도포 후에 표면의 수분흡착이 증가하여 도포막이 제거되는 문제점이 있다.The molar ratio of sodium sesquicarbonate and butyl carbitol is preferably 1:0.01 to 1:2. If the molar ratio is outside the above range, the applicability of the anti-pollution layer may decrease or moisture adsorption on the surface may increase after application. There is a problem with the coating film being removed.

상기 소듐세스퀴카보네이트 및 부틸카비톨은 전체 조성물 수용액 중 1 ~ 10 중량%가 바람직한 바, 1 중량% 미만이면 오염방지도포층의 도포성이 저하되는 문제점이 있고, 10 중량%를 초과하면 도포막 두께의 증가로 인한 결정석출이 발생하기 쉽다.The sodium sesquicarbonate and butyl carbitol are preferably used in an amount of 1 to 10% by weight in the total composition aqueous solution. If the amount is less than 1% by weight, there is a problem that the applicability of the anti-fouling coating layer is reduced, and if it exceeds 10% by weight, the coating film Crystal precipitation is likely to occur due to an increase in thickness.

한편, 본 오염방지도포용 조성물을 영상 처리 모듈(10)의 표면 상에 도포하는 방법으로는 스프레이법에 의해 도포하는 것이 바람직하다. 또한, 상기 영상 처리 모듈(10)의 표면 상의 최종 도포막 두께는 700 ~ 2500Å이 바람직하며, 보다 바람직하게는 900 ~ 2000Å이다. 상기 도포막의 두께가 700 Å미만이면 고온 열처리의 경우에 열화되는 문제점이 있고, 2500 Å을 초과하면 도포 표면의 결정석출이 발생하기 쉬운 단점이 있다.Meanwhile, it is preferable to apply the anti-pollution composition on the surface of the image processing module 10 by spraying. In addition, the final coating film thickness on the surface of the image processing module 10 is preferably 700 to 2500 Å, and more preferably 900 to 2000 Å. If the thickness of the coating film is less than 700 Å, there is a problem of deterioration in the case of high temperature heat treatment, and if it exceeds 2500 Å, there is a disadvantage in that crystal precipitation on the coating surface is likely to occur.

또한, 본 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 0.1 몰 및 부틸카비톨 0.05몰을 증류수 1000 ㎖에 첨가한 다음 교반하여 제조될 수 있다.Additionally, this anti-pollution coating composition can be prepared by adding 0.1 mol of sodium sesquicarbonate and 0.05 mol of butyl carbitol to 1000 ml of distilled water and then stirring.

상기 구성 성분의 비율 및 도포막 두께를 상기와 같이 수치 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험결과를 통해 분석한 결과, 상기 비율에서 최적의 오염방지 도포 효과를 나타내었다.The reason for limiting the ratio of the components and the thickness of the coating film to the above values is that the present inventor analyzed the test results after repeated failures and found that the ratio showed the optimal anti-contamination application effect.

상기 프로세서(30)의 표면에는 표면에 방열용 코팅제가 도포되어 프로세서(30)에서 방출되는 열이 충분히 발산되지 못하여 프로세서(30)의 표면이 과도하게 가열되는 방지하고 열을 효과적으로 방출할 수가 있다.A heat dissipating coating agent is applied to the surface of the processor 30 to prevent the surface of the processor 30 from being excessively heated as heat emitted from the processor 30 cannot be sufficiently dissipated and heat can be effectively dissipated.

이 방열용 코팅제 조성물은 규산칼륨 58중량%, 산화크롬 11중량%, 그라파이트 13중량%, 질화규소 8중량%, 수산화나트륨(NaOH) 3중량%, 산화티탄 3중량%, 폴리아마이드왁스 2중량%, 3-아미노프로필 트리메톡시실란 2중량%로 구성된다.This heat dissipation coating composition contains 58% by weight of potassium silicate, 11% by weight of chromium oxide, 13% by weight of graphite, 8% by weight of silicon nitride, 3% by weight of sodium hydroxide (NaOH), 3% by weight of titanium oxide, 2% by weight of polyamide wax, It consists of 2% by weight of 3-aminopropyl trimethoxysilane.

규산칼륨은 바인더 수지 역할을 하고, 산화크롬은 내마모 역할을 하며, 그라파이트는 열전도성과 전기적 특성이 우수하며, 질화규소는 강도 향상 및 균열을 방지하고, 수산화나트륨은 분산제 역할을 하며, 산화티탄은 내후성을 위해서, 폴라아마이드왁스는 침강방지 역할을 하고, 3-아미노프로필 트리메톡시실란은 부착력 증강 역할을 한다.Potassium silicate acts as a binder resin, chromium oxide acts as wear resistance, graphite has excellent thermal conductivity and electrical properties, silicon nitride improves strength and prevents cracking, sodium hydroxide acts as a dispersant, and titanium oxide provides weather resistance. For this purpose, polyamide wax acts as an anti-settling agent, and 3-aminopropyl trimethoxysilane serves as an adhesion enhancer.

상기와 같이 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the constituent materials and components and limiting the mixing ratio as described above is that the present inventor analyzed the test results after repeated failures and found that the optimal effect was achieved with the above-mentioned constituents and numerical ratio. indicated.

상기 아바타 동작모듈(20)의 표면에는 살균기능 및 사용자 스트레스 완화 등에 도움이 되는 기능성 오일이 혼합된 환경용 방향제 물질이 코팅될 수 있다.The surface of the avatar operation module 20 may be coated with an environmental fragrance material mixed with functional oil that helps sterilize and relieve user stress.

방향제 물질과 기능성 오일의 혼합 비율은 상기 방향제 물질 95~97중량%에 상기 기능성 오일 3~5중량%가 혼합되며, 기능성 오일은 안젤리카오일(Angelica oil) 50중량%, 시트로넬라오일(Citronella oil) 50중량%로 구성된다.The mixing ratio of the fragrance material and the functional oil is 95 to 97% by weight of the fragrance material and 3 to 5% by weight of the functional oil, and the functional oil is 50% by weight of angelica oil and citronella oil. ) consists of 50% by weight.

여기서 기능성 오일은 방향제 물질에 대해 3~5중량%가 혼합되는 것이 바람직하다. 기능성 오일의 혼합비율이 3중량% 미만이면, 그 효과가 미미하며, 기능성 오일의 혼합비율이 3~5중량%를 초과하면 그 효과가 크게 향상되지 않는 반면에 경제성이 떨어진다. 안젤리카오일(Angelica oil)은 스트레스 완화, 긴장완화, 살균 등에 좋은 효과가 있고, 시트로넬라오일(Citronella oil)은 심리적으로 마음을 정화하고 고양시키며 두통, 우울증, 신경통 등에 작용효과가 우수하다. 따라서, 이러한 기능성 오일이 혼합된 방향제 물질이 아바타 동작모듈(20)의 표면에 코팅됨에 따라, 아바타 동작모듈(20)의 표면을 살균 처리하고 사용자의 스트레스 등을 경감시키는 등의 효과를 얻을 수 있다.Here, it is preferable that the functional oil is mixed in an amount of 3 to 5% by weight based on the fragrance material. If the mixing ratio of the functional oil is less than 3% by weight, the effect is minimal, and if the mixing ratio of the functional oil exceeds 3 to 5% by weight, the effect is not significantly improved and the economic feasibility is low. Angelica oil is effective in relieving stress, relieving tension, and sterilizing, while citronella oil purifies and uplifts the mind psychologically and is effective in treating headaches, depression, and neuralgia. Therefore, as the fragrance material mixed with these functional oils is coated on the surface of the avatar operation module 20, effects such as sterilizing the surface of the avatar operation module 20 and reducing the user's stress, etc. can be obtained. .

환경용 방향제 물질 및 기능성 오일에 대해 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the components and limiting the mixing ratio for environmental fragrance materials and functional oils is that the present inventor analyzed the test results after repeated failures and found that the optimal composition and numerical ratio was determined. showed the effect.

한편, 영상 처리 모듈(10)의 하단부에는 고무재질의 진동흡수부가 더 설치 될 수 있다.Meanwhile, a vibration absorbing part made of rubber may be further installed at the lower part of the image processing module 10.

이 진동흡수부는 고무 재질로 이루어질 수 있으며, 이러한 진동흡수부의 원료 함량비는 고무 60중량%, 디부틸치오우레아 8중량%, 칼슘스테아레이트 6중량%, 카아본블랙 19중량%, 3C(N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE) 3중량%, 유기퍼옥사이드 4중량% 를 혼합한다.This vibration absorbing part may be made of a rubber material, and the raw material content ratio of this vibration absorbing part is 60% by weight of rubber, 8% by weight of dibutylthiourea, 6% by weight of calcium stearate, 19% by weight of carbon black, and 3C (N- Mix 3% by weight of PHENYL-N'-ISOPROPYL-P-PHENYLENEDIAMINE) and 4% by weight of organic peroxide.

디부틸치오우레아는 가황촉진 향상 등을 위해 첨가되며, 칼슘스테아레이트는 연화제 역할을 위해 첨가되고, 카아본블랙은 내마모성, 열전도성 등을 증대하거나 향상시키기 위해 첨가된다.Dibutylthiourea is added to accelerate vulcanization, calcium stearate is added to act as a softener, and carbon black is added to increase or improve wear resistance and thermal conductivity.

3C (N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE)는 산화방지제로 첨가되며, 유기퍼옥사이드는 촉진제 등의 역할을 위해 첨가된다. 3C (N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE) is added as an antioxidant, and organic peroxide is added to act as an accelerator.

따라서 본 발명은 진동흡수부의 탄성, 인성 및 강성이 증대되므로 내구성이 향상되며, 이에 따라 진동흡수부의 수명이 증대된다.Therefore, the present invention improves durability by increasing the elasticity, toughness, and rigidity of the vibration absorbing part, and thus increases the lifespan of the vibration absorbing part.

고무재질의 인장강도는 155Kg/㎠ 로 형성된다. The tensile strength of the rubber material is 155Kg/㎠.

고무재질 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치 등을 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the rubber material and components and limiting the mixing ratio values, etc. is that the present inventor analyzed the test results after repeated failures and found that the optimal effect was achieved with the above-mentioned components and numerical ratios. indicated.

이상에서는 본 발명에 따른 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.In the above, preferred embodiments according to the present invention are shown and described. However, the present invention is not limited to the above-described embodiments, and various modifications may be made by anyone skilled in the art without departing from the gist of the present invention appended to the claims. .

10: 영상 처리 모듈 11: 영상 생성부
12: 손위치 생성부 13: 모션데이터 생성부
20: 아바타 동작 모듈 30: 프로세서
10: Image processing module 11: Image generation unit
12: Hand position generation unit 13: Motion data generation unit
20: Avatar operation module 30: Processor

Claims (5)

사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈;
외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및
상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하고;
상기 영상 처리 모듈은,
사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부; 상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및 상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하며;
상기 모션 데이터 생성부는
사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되,
사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고,
사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며,
사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
An image processing module that detects the user's hand motion and generates the user's hand motion data;
an avatar operation module that operates a pre-generated avatar according to a control signal received from the outside; and
a processor that generates motion information of an avatar corresponding to the user's hand motion data and operates the avatar based on the generated motion information of the avatar;
The image processing module is,
An image generator that captures the user and generates image frames divided into the X-axis (left and right of the screen), Y-axis (top and bottom of the screen), and Z-axis (depth of the screen); a hand position generator that generates coordinate values corresponding to the position of the user's hand in the video frame; and a motion data generator that calculates a moving direction of the coordinate value and generates preset user's hand motion data based on the calculated moving direction of the coordinate value;
The motion data generator
Calculate the direction of movement using the coordinate values of the user's left hand, right hand, or left and right hands,
When only the user's left hand is moved left or right, the user's motion data on the X-axis corresponding to the left and right movement information is generated,
When only the user's right hand is moved up and down, the user's motion data on the Z axis corresponding to the up and down movement information is generated,
An avatar control system using artificial intelligence hand position recognition, characterized in that when the user's left and right hands are moved up and down with the user's left and right hands together, the user's motion data on the Y axis corresponding to the up and down movement information is generated.
삭제delete 삭제delete 제1항에 있어서,
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to paragraph 1,
The motion data generator
An avatar control system using artificial intelligence hand position recognition, characterized in that it is determined that the user's left and right hands are together if the distance between the user's left and right hands is smaller than the size of the object representing the user's hands.
제1항에 있어서,
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to paragraph 1,
The motion data generator
An avatar control system using artificial intelligence hand position recognition, characterized in that it generates user motion data indicating a stopping motion when the user's left and right hands are brought together and moved to a preset area.
KR1020210176476A 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition KR102599219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Publications (2)

Publication Number Publication Date
KR20230087865A KR20230087865A (en) 2023-06-19
KR102599219B1 true KR102599219B1 (en) 2023-11-07

Family

ID=86988594

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Country Status (1)

Country Link
KR (1) KR102599219B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101655159B1 (en) * 2015-02-04 2016-09-22 한국기술교육대학교 산학협력단 System and method for realizing 3-dimensional avatar of user
JP2019192224A (en) 2019-03-28 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897491B2 (en) * 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
KR101189633B1 (en) 2011-08-22 2012-10-10 성균관대학교산학협력단 A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions
KR101519589B1 (en) * 2013-10-16 2015-05-12 (주)컴버스테크 Electronic learning apparatus and method for controlling contents by hand avatar
KR20200051937A (en) * 2018-11-06 2020-05-14 한길씨앤씨 주식회사 Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101655159B1 (en) * 2015-02-04 2016-09-22 한국기술교육대학교 산학협력단 System and method for realizing 3-dimensional avatar of user
JP2019192224A (en) 2019-03-28 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program

Also Published As

Publication number Publication date
KR20230087865A (en) 2023-06-19

Similar Documents

Publication Publication Date Title
Matthis et al. Humans exploit the biomechanics of bipedal gait during visually guided walking over complex terrain
US11315287B2 (en) Generating pose information for a person in a physical environment
KR102284821B1 (en) Method, system and device for navigating in a virtual reality environment
Vieilledent et al. Relationship between velocity and curvature of a human locomotor trajectory
Yin et al. FootSee: an interactive animation system.
Schönauer et al. Multimodal motion guidance: techniques for adaptive and dynamic feedback
Yeo et al. Eyecatch: Simulating visuomotor coordination for object interception
Hales et al. Interacting with objects in the environment by gaze and hand gestures
Caserman et al. Analysis of inverse kinematics solutions for full-body reconstruction in virtual reality
Essig et al. Automatic analysis of 3D gaze coordinates on scene objects using data from eye-tracking and motion-capture systems
US20120188157A1 (en) Method and apparatus for evoking perceptions of affordances in virtual environments
Choudhary et al. Real time robotic arm control using hand gestures
KR102599219B1 (en) System for controlling avatar using artificial intelligence hand position recognition
Kipshagen et al. Touch-and marker-free interaction with medical software
Alhamzawi Control mouse cursor by head movement: Development and implementation
Whitton et al. Stepping-driven locomotion interfaces
CN108062102A (en) A kind of gesture control has the function of the Mobile Robot Teleoperation System Based of obstacle avoidance aiding
KR101519589B1 (en) Electronic learning apparatus and method for controlling contents by hand avatar
Zhong et al. From continuous affective space to continuous expression space: Non-verbal behaviour recognition and generation
KR20200008227A (en) System and method for controlling gesture based light dimming effect using natural user interface
Hwang et al. Performance-based animation using constraints for virtual object manipulation
Triesch et al. Robotic gesture recognition by cue combination
Lamb et al. Behavioral dynamics and action selection in a joint action pick-and-place task
Hannig et al. Efficient bimodal haptic weight actuation
MercilinRaajini et al. MEM Based Hand Gesture Controlled Wireless Robot

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant