KR20230087865A - System for controlling avatar using artificial intelligence hand position recognition - Google Patents

System for controlling avatar using artificial intelligence hand position recognition Download PDF

Info

Publication number
KR20230087865A
KR20230087865A KR1020210176476A KR20210176476A KR20230087865A KR 20230087865 A KR20230087865 A KR 20230087865A KR 1020210176476 A KR1020210176476 A KR 1020210176476A KR 20210176476 A KR20210176476 A KR 20210176476A KR 20230087865 A KR20230087865 A KR 20230087865A
Authority
KR
South Korea
Prior art keywords
user
hand
avatar
motion data
motion
Prior art date
Application number
KR1020210176476A
Other languages
Korean (ko)
Other versions
KR102599219B1 (en
Inventor
이희용
Original Assignee
주식회사 리안
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리안 filed Critical 주식회사 리안
Priority to KR1020210176476A priority Critical patent/KR102599219B1/en
Publication of KR20230087865A publication Critical patent/KR20230087865A/en
Application granted granted Critical
Publication of KR102599219B1 publication Critical patent/KR102599219B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것으로, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있는 효과가 있다.The present invention includes an image processing module that senses a user's hand motion and generates user's hand motion data; an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and a processor that generates motion information of an avatar corresponding to motion data of the user's hand and operates the avatar based on the generated motion information of the avatar. , Since avatar control commands can be generated from still images with simple calculations without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method, it is possible to provide an avatar controller using hand position recognition. It works.

Description

인공지능 손위치 인식을 이용한 아바타 제어시스템{SYSTEM FOR CONTROLLING AVATAR USING ARTIFICIAL INTELLIGENCE HAND POSITION RECOGNITION}Avatar control system using artificial intelligence hand position recognition {SYSTEM FOR CONTROLLING AVATAR USING ARTIFICIAL INTELLIGENCE HAND POSITION RECOGNITION}

본 발명은 인공지능 손위치 인식을 이용한 아바타 제어시스템에 관한 것이다.The present invention relates to an avatar control system using artificial intelligence hand position recognition.

최근, 증강 현실(augmented reality) 기술이 발전하면서 현실 세계와 가상 세계를 서로 융합하는 기술들이 개발되고 있다. 예를 들면, 가상 교육 시스템, 스크린 골프 시스템 및 가상 체험 시뮬레이션 시스템 등이 그 대표적인 예일 것이다.Recently, as augmented reality technology develops, technologies for converging the real world and the virtual world are being developed. For example, a virtual education system, a screen golf system, and a virtual experience simulation system will be representative examples thereof.

이들 가상 시스템은, 터치보드 등의 디스플레이장치를 이용하여 콘텐츠 영상을 출력한 상태에서, 사용자가 모션을 취하면 모션에 대응하여 해당 콘텐츠를 제어하도록 구성되어 있다.These virtual systems are configured to control the corresponding content in response to a motion when a user makes a motion in a state in which a content image is output using a display device such as a touch board.

이러한 가상 시스템은 미디어파이프(mediapipe)라는 도구를 이용하면 손이나 얼굴을 인식하도록 할 수 있다. 또한, 이러한 도구는 손가락 마디의 관절을 인식할 수 있고, 손전체를 인식할 수 있다.These virtual systems can recognize hands or faces by using a tool called mediapipe. In addition, these tools can recognize the joints of the knuckles and the whole hand.

다만, 한 장의 정지영상에서 손의 위치를 파악하는 것은 용이하지만, 손의 위치만으로 동작을 인식하기에는 한계가 있어서 LSTM 등의 인공지능 기법을 이용하여 자세 추정을 하기도 한다. However, although it is easy to grasp the position of the hand in a still image, there is a limit to recognizing motion only with the position of the hand, so posture estimation is sometimes performed using artificial intelligence techniques such as LSTM.

그러나, 초당 60프레임 이상을 화면에 보여주는 상황에서 실시간으로 자세 추정 계산을 수행하는 것은 시스템에 부하가 크다는 문제점이 있었다.However, performing pose estimation calculation in real time in a situation where more than 60 frames per second are displayed on the screen has a problem in that the load on the system is high.

등록특허공보 제10-1189633호(공고일자: 2012. 10. 10)Registered Patent Publication No. 10-1189633 (Public date: 2012. 10. 10)

전술한 문제점을 개선하기 위한 본 발명 실시예들의 목적은 기존의 LSTM(Long Short Term Memory)방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 인공지능 손위치 인식을 이용한 아바타 제어시스템을 제공하는 것이다.An object of the embodiments of the present invention to improve the above problems is an artificial intelligence hand capable of generating an avatar control command with simple calculation from a still image without performing heavy artificial intelligence calculation such as the existing LSTM (Long Short Term Memory) method To provide an avatar control system using location recognition.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 의한 인공지능 손위치 인식을 이용한 아바타 제어시스템은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈; 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및 상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 것을 특징으로 한다.In order to achieve the above object, an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention includes an image processing module that detects a user's hand motion and generates user's hand motion data; an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and a processor generating motion information of the avatar corresponding to the user's hand motion data and operating the avatar based on the generated motion information of the avatar.

상기 영상 처리 모듈은, 사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부; 상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및 상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하는 것을 특징으로 한다.The image processing module may include: an image generator for capturing a user and generating image frames divided into X-axis (left and right sides of the screen), Y-axis (upper and lower sides of the screen), and Z-axis (depth of the screen); a hand position generating unit generating coordinate values corresponding to the position of the user's hand in the image frame; and a motion data generating unit that calculates a movement direction of the coordinate values and generates preset hand motion data of the user based on the movement direction of the calculated coordinate values.

상기 모션 데이터 생성부는 사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generation unit calculates the movement direction using the coordinate values of the user's left hand, right hand, or both the left and right hands, and when only the user's left hand moves left and right, the user's motion on the X axis corresponding to the left and right movement information. When only the user's right hand is moved up and down, the user's motion data for the Z axis corresponding to the up and down movement information is generated, and when the user's left and right hands are moved up and down in a gathered state, up and down It is characterized in that the user's motion data for the Y-axis corresponding to the movement information is generated.

상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 한다.The motion data generator may determine that the user's left and right hands are in a closed state when the distance between the user's left and right hands is smaller than the size of an object representing the user's hands.

상기 모션 데이터 생성부는 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 한다.The motion data generating unit may generate motion data of the user indicating a stop motion when the user's left and right hands are moved to a preset area in a closed state.

본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.An avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention is able to perform avatar control commands with simple calculations in still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method. Since it can be created, it is possible to provide an avatar controller using hand position recognition.

도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블럭도이다.
도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이다.
도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이다.
도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이다.
도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.
1 is a block diagram schematically showing an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.
FIG. 2 is a diagram showing the configuration of a region for motion recognition in the image generator of the image processing module of FIG. 1 .
FIG. 3 is a diagram for explaining an algorithm for determining whether a user's two hands make vowels in the motion data generation unit of the image processing module of FIG. 1 .
FIG. 4 is a diagram for defining user's hand motion data in the motion data generation unit of the image processing module of FIG. 1 .
5A to 5D are diagrams illustrating examples of generating motion data of a user's hand in the motion data generation unit of the image processing module of FIG. 1 .
6 is a flowchart illustrating the operation of an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but components should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템을 개략적으로 나타내는 블록도이고, 도 2는 도 1의 영상 처리 모듈의 영상 생성부에서의 동작인식을 위한 영역의 구성을 나타내는 도면이며, 도 3은 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 두 손에 대한 모음 여부를 판단하는 알고리즘을 설명하기 위한 도면이고, 도 4는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 정의하는 도면이며, 도 5a 내지 5d는 도 1의 영상 처리 모듈의 모션 데이터 생성부에서 사용자의 손 모션 데이터를 생성하는 예를 나타내는 도면이고, 도 6은 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템의 동작을 나타내는 순서도이다.1 is a block diagram schematically illustrating an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention, and FIG. 2 is a region for motion recognition in an image generator of an image processing module of FIG. 1 3 is a diagram for explaining an algorithm for determining whether the user's two hands make vowels in the motion data generation unit of the image processing module of FIG. 1, and FIG. 4 is a diagram of the image processing module of FIG. 5A to 5D are diagrams for defining motion data of a user's hand in a motion data generation unit, and FIGS. It is a flowchart showing the operation of the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있는 시스템이고, 이를 위하여 영상 처리 모듈(10), 아바타 동작 모듈(20) 및 프로세서(30)를 포함한다.As shown in FIG. 1, an avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention is a system capable of generating an avatar control command from a still image by simple calculation, and for this purpose, an image processing module ( 10), an avatar operation module 20 and a processor 30.

도시되어 있지는 않지만, 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 아바타 생성모듈과 출력 모듈을 더 포함할 수 있다.Although not shown, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention may further include an avatar creation module and an output module.

상기 아바타 생성모듈은 가상현실(Virtual Reality) 환경에서 사용자의 아바타를 생성한다. 본 명세서에서 아바타(avatar)는 실제 현실이 아닌 컴퓨터 프로그래밍에 의해 가상의 공간으로 구현된 가상현실에서 사용자의 명령에 따라 제어될 수 있는 가상의 캐릭터를 의미한다. 아바타의 생김새는 사용자의 몰입감을 향상시키고 원할한 바이오피드백을 제공하기 위해 사용자와 유사한 생김새를 갖는 인간의 형상일 수 있으나 특정 형태로 한정되지는 아니한다.The avatar generation module generates an avatar of a user in a virtual reality environment. In this specification, an avatar (avatar) means a virtual character that can be controlled according to a user's command in virtual reality implemented as a virtual space by computer programming rather than actual reality. The appearance of the avatar may be a human shape having a similar appearance to the user in order to improve the user's sense of immersion and provide smooth bio-feedback, but is not limited to a specific shape.

일 실시예에서, 사용자의 손 모션 데이터에 기초하여 아바타가 자동으로 생성될 수 있다. 예를 들어, 정지 영상에서 사용자의 손 모션 변화를 감지하여 이에 따라 아바타의 자세 또는 동작을 변화시킬 수 있다. 이와 같이 사용자의 손 모션 데이터에 따라 가상환경의 아바타의 형상이나 태도를 적절히 변화시키는 것은 가상현실에서의 실재감과 몰입감을 향상시킬 수 있다.In one embodiment, an avatar may be automatically generated based on the user's hand motion data. For example, a motion change of a user's hand may be detected in a still image, and an avatar's posture or motion may be changed accordingly. In this way, appropriately changing the shape or attitude of the avatar in the virtual environment according to the user's hand motion data can improve the sense of presence and immersion in virtual reality.

가상현실 환경에서 생성된 아바타는 후술하는 바와 같이 사용자의 손 모션 데이터에 기초하여 결정된 명령에 대응하는 동작을 수행한다. 이를 이용하여, 사용자는 실제로 동작을 수행하지 않더라도 손 모션 데이터에 대응되는 제어신호를 내보내 가상현실의 아바타가 특정한 동작을 행하도록 제어할 수 있고, 프로그램에서 제공되는 평가 프로토콜 또는 훈련 프로토콜을 수행할 수 있다.As will be described later, the avatar created in the virtual reality environment performs an operation corresponding to a command determined based on user's hand motion data. Using this, the user can control the virtual reality avatar to perform a specific motion by sending a control signal corresponding to the hand motion data even if the user does not actually perform the motion, and can perform an evaluation protocol or training protocol provided by the program. there is.

상기 출력 모듈은 아바타가 동작을 수행하는 영상을 실시간으로 출력하기 위한 TV, 모니터, HMD 등의 출력장치이다. 일 실시예에서, 상기 출력 모듈은 발광다이오드(LED), 유기발광소자(OLED), 발광중합체(LEP), 전자발광소자(EL), 전계방출소자(FED), 또는 중합체발광소자(PLED) 등이 적용된 디스플레이로 구성될 수 있다.The output module is an output device such as a TV, monitor, or HMD for outputting in real time an image of an avatar performing an action. In one embodiment, the output module is a light emitting diode (LED), an organic light emitting device (OLED), a light emitting polymer (LEP), an electroluminescent device (EL), a field emission device (FED), or a polymer light emitting device (PLED). It can be composed of a display to which this is applied.

또한, 상기 출력 모듈은 머리에 착용 가능한 형태인 HMD(Head Mounted Display) 장치로 구성될 수 있다. HMD 장치는 사용자의 머리에 착용하여 양안에 대응되는 디스플레이를 통해 화면을 감상할 수 있는 차세대 디스플레이 장치이다. 일반적으로 IMU 센서를 포함하여 회전 값을 통해 사용자의 머리 움직임을 동기화 시킬 수 있다. 이를 통해, 사용자는 증강현실(Augmented Reality) 또는 가상현실(Virtual Reality) 환경에서 종래의 모니터 장치로 시청하는 것보다 더 뛰어난 몰입감을 느낄 수 있다.In addition, the output module may be configured as a Head Mounted Display (HMD) device that can be worn on the head. The HMD device is a next-generation display device that can be worn on a user's head and view a screen through a display corresponding to both eyes. In general, the user's head movement can be synchronized through the rotation value including the IMU sensor. Through this, the user can feel a greater sense of immersion than viewing with a conventional monitor device in an augmented reality or virtual reality environment.

상기 영상 처리 모듈(10)은 사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 장치로서, 영상 생성부(11), 손위치 생성부(12) 및 모션 데이터 생성부(13)를 포함한다.The image processing module 10 is a device that detects a user's hand motion and generates user's hand motion data, and includes an image generator 11, a hand position generator 12, and a motion data generator 13. do.

상기 영상 생성부(11)는 통상의 카메라를 이용할 수 있으며, 도 2에 도시된 바와 같이, 사용자를 촬영하여 정지 영상을 기초로 영상 프레임을 생성하는 장치로, X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 장치이다.The image generating unit 11 may use a conventional camera, and as shown in FIG. 2, it is a device for generating an image frame based on a still image by photographing a user, and includes X-axis (left and right sides of the screen), Y It is a device that creates image frames divided into axes (top and bottom of the screen) and Z-axis (depth of the screen).

상기 손위치 생성부(12)는 영상 생성부(11)에 의하여 생성된 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 장치이다. 구체적으로, 상기 손위치 생성부(12)는 정지 영상으로 구성된 영상 프레임 중 사용자의 손 부분의 영상을 캡쳐하여 손의 모션에 대응한 좌표값(즉, 손의 좌표)을 생성한다. 이때, 손의 좌표는 손가락 관절, 손목 관절을 포함하고, 이에 손의 전체적인 크기 및 손가락 길이 등을 확인할 수 있도록 한다. 또한, 상기 손위치 생성부(12)에서는 손가락 끝 및 각 관절의 포인트의 이동을 추적하여 손의 움직임을 추적하여 좌표값을 생성한다.The hand position generating unit 12 is a device that generates coordinate values corresponding to the position of the user's hand among the image frames generated by the image generating unit 11 . Specifically, the hand position generating unit 12 captures an image of the user's hand from among image frames composed of still images, and generates coordinate values (ie, hand coordinates) corresponding to the motion of the hand. At this time, the coordinates of the hand include a finger joint and a wrist joint, so that the overall size of the hand and the length of the fingers can be checked. In addition, the hand position generating unit 12 generates coordinate values by tracking the movement of the hand by tracking the movement of the fingertip and each joint point.

상기 손위치 생성부(12)는, 영상 생성부(11)로부터 전달된 영상 프레임간의 연결관계를 정의하는 전처리부(미도시)와, 전처리가 이루어진 영상 프레임에서 미리 학습된 학습 정보를 기반으로 하여 손을 인식하는 손 인식부(미도시)와, 인식된 손에 대한 좌표 조정을 수행하고, 미리 학습된 학습 정보를 기반으로 하여 영상 프레임간 변위로부터 손의 이동좌표를 계산하는 이동좌표 산출부(미도시)를 포함한다.The hand position generation unit 12 is based on a pre-processing unit (not shown) defining a connection relationship between image frames transmitted from the image generation unit 11 and learning information pre-learned from pre-processed image frames. A hand recognizing unit (not shown) recognizing a hand, adjusting coordinates for the recognized hand, and calculating movement coordinates of the hand from displacement between image frames based on previously learned learning information ( not shown).

여기서, 손에 대한 인식에 있어, 먼저 손에 대한 학습을 수행하여 학습된 결과를 저장하고, 이 저장된 학습 정보로부터 손에 대한 인식이 이루어지는 것이 바람직하다. 한편, 손에 대한 인식과 함께 머리, 몸통, 팔, 다리 등의 학습 및 이의 인식도 함께 이루어지며, 이들의 인식을 통해 손의 위치를 정확하게 판단하는데 이용할 수 있다.Here, in recognizing the hand, it is preferable to first perform hand learning, store the learned result, and recognize the hand from the stored learning information. On the other hand, along with the recognition of the hand, learning and recognition of the head, torso, arms, legs, etc. are also performed, and through these recognition, it can be used to accurately determine the position of the hand.

이와 같이 구성된 손위치 생성부(12)에서, 손을 인식하고 좌표를 산출함에 있어, 움직임을 추정하는 추정기법을 이용하여 미리 예측된 위치에서 손의 존재여부를 확인하게 된다. 각 영상 프레임들에서 손의 움직임 추정기법을 통해 손을 추정하여 검색하고, 검색된 손의 이동좌표를 산출한다. 즉, 이전 영상 프레임에서 손의 움직임 벡터성분을 추출하고, 현재 영상 프레임에서 손의 움직임 벡터성분을 추출하여 움직임 추정을 실행하게 되며, 이에 다음 영상 프레임에서의 손의 위치를 추정할 수 있는 것이다. 또한 이러한 추정은 미리 학습된 학습 정보에 의해 이루어지게 된다. 만약, 추정된 위치에 손이 존재하지 않을 경우에는 추정된 위치를 중심으로 반경을 설정하여 해당 반경 내에서 손에 대한 검색이 이루어진다. 이때 팔이 검색되었다면, 인체의 구조에 기반하여 손의 위치를 더욱 손쉽게 추정하게 된다. In the hand position generating unit 12 configured as described above, in recognizing the hand and calculating the coordinates, the presence or absence of the hand is checked at a previously predicted position using an estimation technique for estimating motion. In each image frame, the hand is estimated and searched through the hand motion estimation method, and the movement coordinates of the searched hand are calculated. That is, motion estimation is performed by extracting a motion vector component of the hand from the previous image frame and a motion vector component of the hand from the current image frame, and thus the position of the hand in the next image frame can be estimated. In addition, this estimation is made by pre-learned learning information. If a hand does not exist at the estimated location, a radius is set around the estimated location, and a hand search is performed within the radius. If the arm is searched at this time, the position of the hand is more easily estimated based on the structure of the human body.

상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 장치이다.The motion data generation unit 13 calculates the movement direction of the coordinate values generated by the hand position generation unit 12, and generates preset user's hand motion data based on the movement direction of the calculated coordinate values. am.

상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 전달받아 이동 위치 등의 변화를 처리하며, 또한 이동 위치 변화로부터 이벤트(제어)를 생성하고, 전달된 손의 좌표로부터 손 형상을 인식함과 아울러 사용자의 손 모션 데이터를 생성한다.The motion data generation unit 13 receives the coordinate values generated by the hand position generation unit 12 and processes changes such as the movement position, and also generates an event (control) from the movement position change, The hand shape is recognized from the coordinates and the user's hand motion data is generated.

즉, 상기 모션 데이터 생성부(13)는 손위치 생성부(12)에서 생성된 좌표값을 수신하고, 프로세서(30)를 통해 이를 처리하여 대응되는 사용자의 명령(즉, 아바타 제어신호)인 사용자의 손 모션 데이터를 결정한다. 명령의 결정에 필요한 분석 알고리즘 또는 룩업 테이블 등의 관련 정보는 손위치 기반 제어 프로그램과 함께 메모리에 저장될 수 있다.That is, the motion data generating unit 13 receives the coordinate values generated by the hand position generating unit 12, processes them through the processor 30, and processes the coordinate values corresponding to the user's command (i.e., the avatar control signal). determine the hand motion data of Related information, such as an analysis algorithm or a lookup table, necessary for determining a command may be stored in a memory together with a hand position-based control program.

또한, 상기 모션 데이터 생성부(13)는 프로세서(30)를 통해 아바타 제어신호에 대해 주파수 필터링을 수행한다. 고주파 노이즈를 제거하고자 하는 경우 저역 통과 필터(low-pass filter)를 이용할 수 있고, 특정 주파수 영역을 선택하고자 하는 경우 대역 통과 필터(band-pass filter)를 이용하거나, 특정 주파수 영역을 제거하고자 하는 경우 대역 저지 필터(bandstop filter)를 이용할 수 있다.Also, the motion data generator 13 performs frequency filtering on the avatar control signal through the processor 30 . A low-pass filter can be used to remove high-frequency noise, a band-pass filter can be used to select a specific frequency range, or a specific frequency range can be removed. A bandstop filter may be used.

상기 모션 데이터 생성부(13)는 필터링된 신호의 해당 주파수에 대한 로그 값 및 분산 값을 포함하여 산출한 데이터 파워에 기초하여 특징 벡터를 추출한다. 예를 들어, 프로세서(30)는 고속 푸리에 변환(FFT)에 기초하여 신호 데이터 상의 특정 주파수의 신호 성분이 차지하는 비중을 정량적으로 분석할 수 있다.The motion data generator 13 extracts a feature vector based on data power calculated by including a log value and a variance value for a corresponding frequency of the filtered signal. For example, the processor 30 may quantitatively analyze the proportion occupied by a signal component of a specific frequency on signal data based on Fast Fourier Transform (FFT).

이외에도 아바타 제어신호에 신호처리 함수를 적용해 평균, 편차, RMS(Root mean square), 왜도, 첨도, DF(Dominant frequency) 등을 계산하여 특징벡터를 추출할 수 있고, 추출된 특징벡터 데이터는 대응되는 사용자의 명령을 결정하는데 이용된다.In addition, by applying a signal processing function to the avatar control signal, the feature vector can be extracted by calculating the mean, deviation, root mean square (RMS), skewness, kurtosis, and dominant frequency (DF). It is used to determine the corresponding user's command.

한편, 상기 모션 데이터 생성부(13)는 아바타 제어신호에 대한 전처리가 완료되면, 분류기 생성 모듈을 통해 복수의 분류기(classifier)를 생성할 수 있다. 프로세서(30)는 복수의 분류 알고리즘에 기초하여 분류기를 생성할 수 있다. 복수의 분류기는 사용자의 손 모션 데이터를 분류하여 상기 데이터가 특정 클래스에 해당하는지 여부를 판단한다.Meanwhile, the motion data generation unit 13 may generate a plurality of classifiers through a classifier generation module when preprocessing of the avatar control signal is completed. The processor 30 may generate a classifier based on a plurality of classification algorithms. A plurality of classifiers classify the user's hand motion data and determine whether the data corresponds to a specific class.

상기 모션 데이터 생성부(13)는 이에 기초하여 복수의 동작 중 실시간 사용자의 손 모션 데이터에 대응하는 동작을 선택하고 최종적으로 사용자의 명령(command)을 결정한다. 구체적으로, 프로세서(30)는 분류기에 기초하여 입력된 실시간 사용자의 손 모션 데이터에 대한 각 움직임을 확률이나 점수 등의 출력 값으로 산출할 수 있고, 프로세서(30)는 확률 또는 점수가 가장 큰 값을 갖는 동작을 선택하여 명령을 결정할 수 있다.Based on this, the motion data generating unit 13 selects an operation corresponding to the real-time user's hand motion data among a plurality of operations and finally determines a user's command. Specifically, the processor 30 may calculate each motion of the input real-time user's hand motion data as an output value such as probability or score based on the classifier, and the processor 30 may calculate the value having the highest probability or score. You can determine the command by selecting an action with .

실시예에 따라 다양한 형태의 명령이 사용자의 손 모션 데이터와 대응되도록 미리 저장될 수 있다. 예를 들어, 단순히 아바타를 전후좌우로 움직이는 명령에서 나아가 앉기/서기와 같은 명령이나, 발을 위아래로 들기, 무릎을 굽히거나 펴기와 같은 관절 관련 움직임도 명령으로 지정될 수 있다. 본 발명은 다양한 종류의 사용자의 손 위치 신호를 동시에 획득할 수 있고, 이를 세부적인 동작 명령들과 매칭함으로써 다양하고 자연스러운 형태의 동작을 가상현실에서 구현할 수 있다. 각 명령에 대한 사용자의 의도를 파악하고 오작동률을 줄이기 위한 신호처리 알고리즘은 전술한 바와 같다.According to embodiments, various types of commands may be stored in advance to correspond to user's hand motion data. For example, a command such as sitting/standing, or a joint-related movement such as lifting a foot up and down, bending or extending a knee, in addition to a command for simply moving an avatar in front, back, left, and right may be designated as a command. According to the present invention, various kinds of hand position signals of a user can be obtained simultaneously, and various and natural types of motions can be implemented in virtual reality by matching them with detailed motion commands. The signal processing algorithm for recognizing the user's intention for each command and reducing the malfunction rate is as described above.

다시 설명하자면, 상기 모션 데이터 생성부(13)는 도 4에 도시된 바와 같이, 사용자의 손 위치에 따른 사용자의 동작 명령을 정의하고, 사용자의 왼손(L), 오른손(R), 또는 왼손(L) 및 오른손(R)의 좌표값을 이용하여 이동 방향을 산출한다.To explain again, as shown in FIG. 4, the motion data generator 13 defines the user's operation command according to the user's hand position, and the user's left hand (L), right hand (R), or left hand ( L) and the right hand (R) coordinate values are used to calculate the movement direction.

상세하게는, 상기 모션 데이터 생성부(13)는 아래와 같이 좌표축 이동 방향을 정의한다.In detail, the motion data generating unit 13 defines the coordinate axis movement direction as follows.

X 축: 화면에서 좌우로 움직이는 방향, 오른쪽으로 가면 + X-axis : the direction of moving left and right on the screen, + when going to the right

Y 축: 화면에서 상하로 움직이는 방향, 위로 가면 + Y-axis : the direction of movement up and down on the screen, + when up

Z 축: 화면 깊이로 움직이는 방향, 스크린을 보는 사람 방향으로 나오면 + Z-axis : the direction of movement to the depth of the screen, + when it comes to the direction of the viewer

X축 방향 제어X-axis direction control

왼손을 좌우로 움직여 조정한다(왼손이 -X 위치하면 왼쪽으로 이동, +X 에 위치하면 오른쪽으로 이동)Adjust by moving your left hand left and right (if your left hand is at -X, move to the left, and if your left hand is at +X, move to the right)

Y축 방향 제어Y-axis direction control

두 손을 모은 채로 두 손을 상하로 움직여 조정한다(두 손이 +Y에 위치하면 위쪽으로 이동, -Y에 위치하면 아래로 이동).Adjust by moving your hands up and down with your hands together (move up when both hands are on +Y, move down when they are on -Y).

Z축 방향 제어Z-axis direction control

오른손을 상하로 움직여 조정한다(오른손이 +Z위치하면 화면 앞쪽으로 이동, -Z에 위치하면 화면 뒤쪽으로 이동).Adjust by moving your right hand up and down (when the right hand is positioned at +Z, it moves to the front of the screen, and when it is positioned at -Z, it moves to the back of the screen).

정지 동작stop motion

두 손을 모은 채로 stop 구역으로 이동하면 정지한다.If you move to the stop zone with your hands together, you will stop.

상기 모션 데이터 생성부(13)는 도 5a에 도시된 바와 같이, 사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성한다.As shown in FIG. 5A , the motion data generation unit 13 generates motion data of the user on the X axis corresponding to left and right movement information when only the user's left hand is moved left and right.

또한, 상기 모션 데이터 생성부(13)는 도 5b에 도시된 바와 같이, 사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성한다.Also, as shown in FIG. 5B , when only the user's right hand moves up and down, the motion data generation unit 13 generates motion data of the user on the Z axis corresponding to the up and down movement information.

또한, 상기 모션 데이터 생성부(13)는 도 5c에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성한다.In addition, as shown in FIG. 5C, when the user's left and right hands move up and down in a closed state, the motion data generation unit 13 generates motion data of the user on the Y axis corresponding to up and down movement information. generate

한편, 상기 모션 데이터 생성부(13)는 사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단한다. 즉, 상기 모션 데이터 생성부(13)는 도 3 및 수학식 1에서와 같이, 두 손 간의 거리(d)가 손을 표현하는 객체의 크기(2 * r)보다 작으면 두 손을 모으는 것으로 판단한다.Meanwhile, the motion data generator 13 determines that the user's left and right hands are in a closed state when the distance between the user's left and right hands is smaller than the size of the object representing the user's hands. That is, as shown in FIG. 3 and Equation 1, the motion data generator 13 determines that the two hands are brought together when the distance d between the two hands is smaller than the size (2 * r) of the object representing the hand. do.

[수학식 1][Equation 1]

d < 2* rd < 2*r

상기 모션 데이터 생성부(13)는 도 5d에 도시된 바와 같이, 사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역(stop)으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성한다.As shown in FIG. 5D, the motion data generation unit 13 generates motion data of the user indicating a stop operation when the user's left and right hands are moved to a preset area (stop) in a closed state. .

상기 아바타 동작 모듈(20)은 외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 장치이다. 즉, 상기 아바타 동작 모듈(20)은 아바타 생성모듈에 의하여 생성된 아바타를 프로세서(30)로부터 수신되는 제어 신호를 기초로 동작시켜 출력 모듈을 통하여 출력시키게 된다.The avatar operation module 20 is a device that operates an avatar created in advance according to a control signal received from the outside. That is, the avatar operation module 20 operates the avatar generated by the avatar generation module based on the control signal received from the processor 30 and outputs the avatar through the output module.

상기 아바타 동작 모듈(20)은 프로세서(30)로부터 결정된 명령(command)을 수신하고, 프로세서(30)를 통해 아바타가 상기 명령에 대응되는 동작을 수행하도록 제어한다. 사용자의 동작 의도는 스테이트(state)로 변환되어 명령으로 결정된다. (예를 들어, 좌우 이동, 앞뒤 이동, 상하 이동 등)The avatar operation module 20 receives a command determined by the processor 30 and controls the avatar to perform an operation corresponding to the command through the processor 30 . The user's motion intention is converted into a state and determined as a command. (e.g. left and right, back and forth, up and down, etc.)

한편, 동일한 동작이라도 회전의 크기와 동작의 속도가 상이할 수 있는데, 명령의 스테이트 외에도 제어신호의 진폭(amplitude)에 따라 조절될 수 있다. 예를 들어, 특정한 주파수를 갖는 제어신호가 감지되었는데, 해당 주파수 및 부위의 신호가 아바타를 "앞으로 전진"시키는 명령과 매칭되어 있다면, 아바타 동작 모듈(20)은 아바타가 앞으로 전진하도록 제어한다. 이때, 제어신호의 진폭이 클수록 아바타는 빠른 속도로 전진하고 진폭이 작을수록 아바타는 천천히 전진할 수 있다.Meanwhile, the size of rotation and the speed of operation may be different even in the same operation, and may be adjusted according to the amplitude of the control signal in addition to the state of the command. For example, if a control signal having a specific frequency is sensed and the signal of the corresponding frequency and part matches the command to “move forward” the avatar, the avatar operation module 20 controls the avatar to move forward. At this time, as the amplitude of the control signal increases, the avatar advances at a faster speed, and as the amplitude decreases, the avatar advances more slowly.

상기 프로세서(30)는 영상 처리 모듈(10)에 의하여 생성된 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 아바타 동작모듈을 통하여 아바타를 동작시킨다.The processor 30 generates avatar motion information corresponding to the user's hand motion data generated by the image processing module 10, and operates the avatar through the avatar motion module based on the generated motion information of the avatar. let it

상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템은, 도 6에 도시된 바와 같이, 영상 생성부(11)에 의하여 촬영된 사용자의 영상 프레임을 손위치 생성부(12)를 통하여 캡쳐하여 손의 위치에 대응하는 좌표값을 인식한다(S10).As shown in FIG. 6, the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above generates a hand position of a user's image frame captured by the image generator 11. By capturing through the unit 12, coordinate values corresponding to the position of the hand are recognized (S10).

그런 다음, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 한 손으로 판단되는 경우에는 앞뒤좌우 손 위치를 계산(S30)하여 좌우 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 좌우로 이동(S31)시키고, 앞뒤 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 앞뒤로 이동(S32)시킨다.Then, after calculating the distance between both hands through the motion data generation unit 12 (S20), if it is determined as one hand, the position of the left and right hand is calculated (S30), and if it is determined that the left and right movement is performed, the processor 30 ), the avatar is moved left and right (S31), and if it is determined that the avatar is moved forward and backward, the avatar is moved forward and backward through the processor 30 (S32).

또한, 모션데이터 생성부(12)를 통하여 양손 간의 거리 계산을 수행(S20)한 후, 두손으로 판단되는 경우에는 상하 손위치 계산(S40)하여 상하 이동으로 판단되면, 프로세서(30)를 통하여 아바타를 상하로 이동(S41)시킨다.In addition, after calculating the distance between both hands through the motion data generation unit 12 (S20), if it is determined that the two hands are the same, the position of the up and down hands is calculated (S40), and if it is determined that the movement is up and down, the avatar through the processor 30 Moves up and down (S41).

상기와 같이 구성된 본 발명의 일 실시예에 따른 인공지능 손위치 인식을 이용한 아바타 제어시스템에 따르면, 기존의 LSTM(Long Short Term Memory) 딥러닝 방식과 같은 무거운 인공지능 계산을 수행하지 않고도 정지영상에서 간단한 계산으로 아바타 제어명령을 생성할 수 있기 때문에, 손 위치 인식을 이용한 아바타 제어기를 제공할 수 있다.According to the avatar control system using artificial intelligence hand position recognition according to an embodiment of the present invention configured as described above, it is possible to perform simple AI calculations in still images without performing heavy artificial intelligence calculations such as the existing LSTM (Long Short Term Memory) deep learning method. Since avatar control commands can be generated by calculation, it is possible to provide an avatar controller using hand position recognition.

한편, 상기 영상 처리 모듈(10)의 표면에는 오염물질의 부착방지 및 제거를 효과적으로 달성할 수 있도록 오염 방지 도포용 조성물로 이루어진 오염방지도포층이 도포될 수 있다.Meanwhile, an antifouling coating layer made of an antifouling coating composition may be applied to the surface of the image processing module 10 to effectively prevent adhesion and removal of contaminants.

상기 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 및 부틸카비톨이 1:0.01 ~ 1:2 몰비로 포함되어 있고, 소듐세스퀴카보네이트 및 부틸카비톨 총함량은 전체 수용액에 대해 1 ~10 중량%이다.The antifouling coating composition contains sodium sesquicarbonate and butyl carbitol in a molar ratio of 1:0.01 to 1:2, and the total content of sodium sesquicarbonate and butyl carbitol is 1 to 10% by weight based on the total aqueous solution. .

상기 소듐세스퀴카보네이트 및 부틸카비톨은 몰비로서 1:0.01 ~ 1:2가 바람직한 바, 몰비가 상기 범위를 벗어나는 경우에는 오염방지도포층의 도포성이 저하되거나 도포 후에 표면의 수분흡착이 증가하여 도포막이 제거되는 문제점이 있다.The molar ratio of the sodium sesquicarbonate and butyl carbitol is preferably 1:0.01 to 1:2. If the molar ratio is out of the above range, the coating property of the antifouling coating layer is lowered or the moisture adsorption on the surface increases after coating. There is a problem that the coating film is removed.

상기 소듐세스퀴카보네이트 및 부틸카비톨은 전체 조성물 수용액 중 1 ~ 10 중량%가 바람직한 바, 1 중량% 미만이면 오염방지도포층의 도포성이 저하되는 문제점이 있고, 10 중량%를 초과하면 도포막 두께의 증가로 인한 결정석출이 발생하기 쉽다.The sodium sesquicarbonate and butyl carbitol are preferably 1 to 10% by weight of the total aqueous solution of the composition. If the content is less than 1% by weight, the coating property of the antifouling coating layer is reduced, and if it exceeds 10% by weight, the coating film Crystallization is likely to occur due to an increase in thickness.

한편, 본 오염방지도포용 조성물을 영상 처리 모듈(10)의 표면 상에 도포하는 방법으로는 스프레이법에 의해 도포하는 것이 바람직하다. 또한, 상기 영상 처리 모듈(10)의 표면 상의 최종 도포막 두께는 700 ~ 2500Å이 바람직하며, 보다 바람직하게는 900 ~ 2000Å이다. 상기 도포막의 두께가 700 Å미만이면 고온 열처리의 경우에 열화되는 문제점이 있고, 2500 Å을 초과하면 도포 표면의 결정석출이 발생하기 쉬운 단점이 있다.On the other hand, as a method of applying the composition for antifouling coating on the surface of the image processing module 10, it is preferable to apply it by a spray method. In addition, the final coating film thickness on the surface of the image processing module 10 is preferably 700 to 2500 Å, more preferably 900 to 2000 Å. If the thickness of the coating film is less than 700 Å, there is a problem of deterioration in the case of high-temperature heat treatment, and if it exceeds 2500 Å, there is a disadvantage in that crystallization of the coated surface is easy to occur.

또한, 본 오염 방지 도포용 조성물은 소듐세스퀴카보네이트 0.1 몰 및 부틸카비톨 0.05몰을 증류수 1000 ㎖에 첨가한 다음 교반하여 제조될 수 있다.In addition, this antifouling coating composition can be prepared by adding 0.1 mole of sodium sesquicarbonate and 0.05 mole of butyl carbitol to 1000 ml of distilled water and then stirring.

상기 구성 성분의 비율 및 도포막 두께를 상기와 같이 수치 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험결과를 통해 분석한 결과, 상기 비율에서 최적의 오염방지 도포 효과를 나타내었다.The reason why the ratio of the constituent components and the thickness of the coating film were numerically limited as described above was that the present inventors showed the optimal antifouling coating effect at the ratio as a result of analyzing the test results while repeating several failures.

상기 프로세서(30)의 표면에는 표면에 방열용 코팅제가 도포되어 프로세서(30)에서 방출되는 열이 충분히 발산되지 못하여 프로세서(30)의 표면이 과도하게 가열되는 방지하고 열을 효과적으로 방출할 수가 있다.A coating agent for heat dissipation is applied to the surface of the processor 30 to prevent the surface of the processor 30 from being excessively heated because heat emitted from the processor 30 is not sufficiently dissipated, and the heat can be effectively released.

이 방열용 코팅제 조성물은 규산칼륨 58중량%, 산화크롬 11중량%, 그라파이트 13중량%, 질화규소 8중량%, 수산화나트륨(NaOH) 3중량%, 산화티탄 3중량%, 폴리아마이드왁스 2중량%, 3-아미노프로필 트리메톡시실란 2중량%로 구성된다.This coating composition for heat dissipation contains 58% by weight of potassium silicate, 11% by weight of chromium oxide, 13% by weight of graphite, 8% by weight of silicon nitride, 3% by weight of sodium hydroxide (NaOH), 3% by weight of titanium oxide, 2% by weight of polyamide wax, It consists of 2% by weight of 3-aminopropyl trimethoxysilane.

규산칼륨은 바인더 수지 역할을 하고, 산화크롬은 내마모 역할을 하며, 그라파이트는 열전도성과 전기적 특성이 우수하며, 질화규소는 강도 향상 및 균열을 방지하고, 수산화나트륨은 분산제 역할을 하며, 산화티탄은 내후성을 위해서, 폴라아마이드왁스는 침강방지 역할을 하고, 3-아미노프로필 트리메톡시실란은 부착력 증강 역할을 한다.Potassium silicate acts as a binder resin, chromium oxide acts as a wear resistance, graphite has excellent thermal conductivity and electrical properties, silicon nitride improves strength and prevents cracking, sodium hydroxide acts as a dispersant, and titanium oxide acts as a weather resistance. For this purpose, polyamide wax serves as an anti-settling function, and 3-aminopropyl trimethoxysilane serves as an adhesion enhancer.

상기와 같이 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the constituent materials and components and limiting the numerical values of the mixing ratios as described above is that, as a result of the present inventors' analysis through test results while repeating several failures, the optimal effect in the constituent components and numerically limited ratios was obtained. showed up

상기 아바타 동작모듈(20)의 표면에는 살균기능 및 사용자 스트레스 완화 등에 도움이 되는 기능성 오일이 혼합된 환경용 방향제 물질이 코팅될 수 있다.The surface of the avatar operation module 20 may be coated with a fragrance material for the environment mixed with a functional oil that helps in sterilizing function and relieving user's stress.

방향제 물질과 기능성 오일의 혼합 비율은 상기 방향제 물질 95~97중량%에 상기 기능성 오일 3~5중량%가 혼합되며, 기능성 오일은 안젤리카오일(Angelica oil) 50중량%, 시트로넬라오일(Citronella oil) 50중량%로 구성된다.The mixing ratio of the fragrance material and the functional oil is 95 to 97% by weight of the fragrance material and 3 to 5% by weight of the functional oil, and the functional oil is 50% by weight of Angelica oil and Citronella oil. ) 50% by weight.

여기서 기능성 오일은 방향제 물질에 대해 3~5중량%가 혼합되는 것이 바람직하다. 기능성 오일의 혼합비율이 3중량% 미만이면, 그 효과가 미미하며, 기능성 오일의 혼합비율이 3~5중량%를 초과하면 그 효과가 크게 향상되지 않는 반면에 경제성이 떨어진다. 안젤리카오일(Angelica oil)은 스트레스 완화, 긴장완화, 살균 등에 좋은 효과가 있고, 시트로넬라오일(Citronella oil)은 심리적으로 마음을 정화하고 고양시키며 두통, 우울증, 신경통 등에 작용효과가 우수하다. 따라서, 이러한 기능성 오일이 혼합된 방향제 물질이 아바타 동작모듈(20)의 표면에 코팅됨에 따라, 아바타 동작모듈(20)의 표면을 살균 처리하고 사용자의 스트레스 등을 경감시키는 등의 효과를 얻을 수 있다.Here, the functional oil is preferably mixed in an amount of 3 to 5% by weight based on the fragrance material. If the mixing ratio of the functional oil is less than 3% by weight, the effect is insignificant, and if the mixing ratio of the functional oil exceeds 3 to 5% by weight, the effect is not greatly improved, but economical efficiency is poor. Angelica oil has a good effect on stress relief, tension relief, and sterilization, and citronella oil psychologically purifies and uplifts the mind, and has excellent effects on headaches, depression, and neuralgia. Therefore, as the fragrance material mixed with such functional oil is coated on the surface of the avatar operation module 20, effects such as sterilizing the surface of the avatar operation module 20 and reducing the stress of the user can be obtained. .

환경용 방향제 물질 및 기능성 오일에 대해 구성 성분을 한정하고 혼합 비율의 수치를 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the components and limiting the numerical value of the mixing ratio for the environmental fragrance material and functional oil is that the present inventors have repeatedly failed several times and analyzed the test results to find that the above components and numerically limited ratio are optimal showed the effect of

한편, 영상 처리 모듈(10)의 하단부에는 고무재질의 진동흡수부가 더 설치 될 수 있다.Meanwhile, a rubber vibration absorbing unit may be further installed at the lower end of the image processing module 10 .

이 진동흡수부는 고무 재질로 이루어질 수 있으며, 이러한 진동흡수부의 원료 함량비는 고무 60중량%, 디부틸치오우레아 8중량%, 칼슘스테아레이트 6중량%, 카아본블랙 19중량%, 3C(N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE) 3중량%, 유기퍼옥사이드 4중량% 를 혼합한다.The vibration absorbing part may be made of a rubber material, and the raw material content of the vibration absorbing part is 60% by weight of rubber, 8% by weight of dibutylthiourea, 6% by weight of calcium stearate, 19% by weight of carbon black, 3C (N- 3% by weight of PHENYL-N'-ISOPROPYL-P-PHENYLENEDIAMINE) and 4% by weight of organic peroxide were mixed.

디부틸치오우레아는 가황촉진 향상 등을 위해 첨가되며, 칼슘스테아레이트는 연화제 역할을 위해 첨가되고, 카아본블랙은 내마모성, 열전도성 등을 증대하거나 향상시키기 위해 첨가된다.Dibutylthiourea is added to improve vulcanization acceleration, calcium stearate is added to act as a softener, and carbon black is added to increase or improve wear resistance, thermal conductivity, and the like.

3C (N-PHENYL-N'-ISOPROPYL- P-PHENYLENEDIAMINE)는 산화방지제로 첨가되며, 유기퍼옥사이드는 촉진제 등의 역할을 위해 첨가된다. 3C (N-PHENYL-N'-ISOPROPYL-P-PHENYLENEDIAMINE) is added as an antioxidant, and organic peroxide is added to act as an accelerator.

따라서 본 발명은 진동흡수부의 탄성, 인성 및 강성이 증대되므로 내구성이 향상되며, 이에 따라 진동흡수부의 수명이 증대된다.Therefore, in the present invention, since elasticity, toughness, and rigidity of the vibration absorbing part are increased, durability is improved, and thus the life of the vibration absorbing part is increased.

고무재질의 인장강도는 155Kg/㎠ 로 형성된다. The tensile strength of the rubber material is formed at 155Kg/㎠.

고무재질 구성 물질 및 구성 성분을 한정하고 혼합 비율의 수치 등을 한정한 이유는, 본 발명자가 수차례 실패를 거듭하면서 시험 결과를 통해 분석한 결과, 상기 구성 성분 및 수치 한정 비율에서 최적의 효과를 나타내었다.The reason for limiting the components and components of the rubber material and limiting the numerical values of the mixing ratio is that, as a result of the inventor's analysis through test results while repeating several failures, the optimal effect in the constituent components and numerically limited ratios showed up

이상에서는 본 발명에 따른 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.In the above, preferred embodiments according to the present invention have been shown and described. However, the present invention is not limited to the above-described embodiments, and various modifications can be made by anyone having ordinary knowledge in the technical field to which the present invention belongs without departing from the gist of the present invention appended within the scope of the claims. .

10: 영상 처리 모듈 11: 영상 생성부
12: 손위치 생성부 13: 모션데이터 생성부
20: 아바타 동작 모듈 30: 프로세서
10: image processing module 11: image generator
12: hand position generation unit 13: motion data generation unit
20: avatar motion module 30: processor

Claims (5)

사용자의 손 모션을 감지하여 사용자의 손 모션 데이터를 생성하는 영상 처리 모듈;
외부로부터 수신되는 제어신호에 따라 미리 생성된 아바타를 동작시키는 아바타 동작 모듈; 및
상기 사용자의 손 모션 데이터에 대응되는 아바타의 동작 정보를 생성하고, 상기 생성된 아바타의 동작 정보를 기초로 상기 아바타를 동작시키는 프로세서를 포함하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
an image processing module that detects a user's hand motion and generates user's hand motion data;
an avatar operation module for operating an avatar created in advance according to a control signal received from the outside; and
Avatar control system using artificial intelligence hand position recognition, characterized in that it comprises a processor for generating motion information of the avatar corresponding to the user's hand motion data and operating the avatar based on the generated motion information of the avatar. .
제1항에 있어서,
상기 영상 처리 모듈은,
사용자를 촬영하여 X축(화면의 좌우), Y축(화면의 상하) 및 Z축(화면의 깊이)으로 분할된 영상 프레임을 생성하는 영상 생성부;
상기 영상 프레임 중 사용자의 손의 위치에 대응하는 좌표값을 생성하는 손위치 생성부; 및
상기 좌표값의 이동 방향을 산출하고, 상기 산출된 좌표값의 이동 방향을 기초로 미리 설정된 사용자의 손 모션 데이터를 생성하는 모션 데이터 생성부를 포함하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 1,
The image processing module,
an image generation unit that captures a user and generates image frames divided into X-axis (left and right sides of the screen), Y-axis (top and bottom of the screen), and Z-axis (depth of the screen);
a hand position generating unit generating coordinate values corresponding to the position of the user's hand in the image frame; and
Avatar control using artificial intelligence hand position recognition, characterized in that it comprises a motion data generation unit that calculates the movement direction of the coordinate value and generates preset user's hand motion data based on the movement direction of the calculated coordinate value. system.
제2항에 있어서,
상기 모션 데이터 생성부는
사용자의 왼손, 오른손, 또는 왼손 및 오른손의 좌표값을 이용하여 이동 방향을 산출하되,
사용자의 왼손만 좌우로 이동되는 경우, 좌우 이동 정보에 대응되는 X축에 대한 사용자의 모션 데이터를 생성하고,
사용자의 오른손만 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Z축에 대한 사용자의 모션 데이터를 생성하며,
사용자의 왼손 및 오른 손이 모은 상태로 상하로 이동되는 경우, 상하 이동 정보에 대응되는 Y축에 대한 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 2,
The motion data generator
The movement direction is calculated using the coordinate values of the user's left hand, right hand, or left and right hands,
When only the user's left hand is moved left and right, the user's motion data for the X axis corresponding to the left and right movement information is generated;
When only the user's right hand is moved up and down, the user's motion data for the Z axis corresponding to the up and down movement information is generated;
An avatar control system using artificial intelligence hand position recognition, characterized in that when the user's left and right hands move up and down in a gathered state, the user's motion data for the Y axis corresponding to the up and down movement information is generated.
제3항에 있어서,
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손의 거리가 사용자의 손을 표현하는 객체의 크기보다 작으면 사용자의 왼손 및 오른 손이 모은 상태인 것으로 판단하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 3,
The motion data generator
Avatar control system using artificial intelligence hand position recognition, characterized in that if the distance between the user's left and right hands is smaller than the size of the object representing the user's hand, it is determined that the user's left and right hands are in a gathered state.
제3항에 있어서,
상기 모션 데이터 생성부는
사용자의 왼손 및 오른 손이 모은 상태로 미리 설정된 영역으로 이동되는 경우, 정지 동작을 의미하는 사용자의 모션 데이터를 생성하는 것을 특징으로 하는 인공지능 손위치 인식을 이용한 아바타 제어시스템.
According to claim 3,
The motion data generator
An avatar control system using artificial intelligence hand position recognition, characterized in that when the user's left and right hands are moved to a preset area in a gathered state, the user's motion data indicating a stop motion is generated.
KR1020210176476A 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition KR102599219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Publications (2)

Publication Number Publication Date
KR20230087865A true KR20230087865A (en) 2023-06-19
KR102599219B1 KR102599219B1 (en) 2023-11-07

Family

ID=86988594

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210176476A KR102599219B1 (en) 2021-12-10 2021-12-10 System for controlling avatar using artificial intelligence hand position recognition

Country Status (1)

Country Link
KR (1) KR102599219B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101189633B1 (en) 2011-08-22 2012-10-10 성균관대학교산학협력단 A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions
KR20140024421A (en) * 2011-06-06 2014-02-28 마이크로소프트 코포레이션 System for finger recognition and tracking
KR20150044243A (en) * 2013-10-16 2015-04-24 (주)컴버스테크 Electronic learning apparatus and method for controlling contents by hand avatar
KR101655159B1 (en) * 2015-02-04 2016-09-22 한국기술교육대학교 산학협력단 System and method for realizing 3-dimensional avatar of user
JP2019192224A (en) * 2019-03-28 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program
KR20200051937A (en) * 2018-11-06 2020-05-14 한길씨앤씨 주식회사 Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140024421A (en) * 2011-06-06 2014-02-28 마이크로소프트 코포레이션 System for finger recognition and tracking
KR101189633B1 (en) 2011-08-22 2012-10-10 성균관대학교산학협력단 A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions
KR20150044243A (en) * 2013-10-16 2015-04-24 (주)컴버스테크 Electronic learning apparatus and method for controlling contents by hand avatar
KR101655159B1 (en) * 2015-02-04 2016-09-22 한국기술교육대학교 산학협력단 System and method for realizing 3-dimensional avatar of user
KR20200051937A (en) * 2018-11-06 2020-05-14 한길씨앤씨 주식회사 Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it
JP2019192224A (en) * 2019-03-28 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program

Also Published As

Publication number Publication date
KR102599219B1 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
US10157313B1 (en) 3D gaze control of robot for navigation and object manipulation
JP6598401B2 (en) Position / force control device, position / force control method and program
Natale et al. A sensitive approach to grasping
CN114080583B (en) Visual teaching and repetitive movement manipulation system
US9079313B2 (en) Natural human to robot remote control
Eppner et al. Grasping unknown objects by exploiting shape adaptability and environmental constraints
US20200346347A1 (en) Upper limb motion support apparatus and upper limb motion support system
Hales et al. Interacting with objects in the environment by gaze and hand gestures
JP2008000884A (en) Evaluating visual proto-object for robot interaction
CN108044625B (en) A kind of robot arm control method based on the virtual gesture fusion of more Leapmotion
Loconsole et al. A new Kinect-based guidance mode for upper limb robot-aided neurorehabilitation
Dwivedi et al. Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system
Gallina et al. Progressive co-adaptation in human-machine interaction
Otaran et al. A short description of an ankle-actuated seated vr locomotion interface
KR20230087865A (en) System for controlling avatar using artificial intelligence hand position recognition
CN108062102A (en) A kind of gesture control has the function of the Mobile Robot Teleoperation System Based of obstacle avoidance aiding
Xu et al. A novel method for hand posture recognition based on depth information descriptor
KR101519589B1 (en) Electronic learning apparatus and method for controlling contents by hand avatar
Romero et al. Modeling and evaluation of human-to-robot mapping of grasps
US20220101477A1 (en) Visual Interface And Communications Techniques For Use With Robots
Triesch et al. Robotic gesture recognition by cue combination
Wameed et al. Hand gestures robotic control based on computer vision
CN109934155B (en) Depth vision-based collaborative robot gesture recognition method and device
Kragic et al. Biologically motivated visual servoing and grasping for real world tasks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant