KR20230109213A - Exercise system through an image recognition-based experiential simulator robot - Google Patents

Exercise system through an image recognition-based experiential simulator robot Download PDF

Info

Publication number
KR20230109213A
KR20230109213A KR1020220004793A KR20220004793A KR20230109213A KR 20230109213 A KR20230109213 A KR 20230109213A KR 1020220004793 A KR1020220004793 A KR 1020220004793A KR 20220004793 A KR20220004793 A KR 20220004793A KR 20230109213 A KR20230109213 A KR 20230109213A
Authority
KR
South Korea
Prior art keywords
motion
parts
weight
image
exercise
Prior art date
Application number
KR1020220004793A
Other languages
Korean (ko)
Other versions
KR102626383B1 (en
KR102626383B9 (en
Inventor
주재영
Original Assignee
주재영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주재영 filed Critical 주재영
Priority to KR1020220004793A priority Critical patent/KR102626383B1/en
Publication of KR20230109213A publication Critical patent/KR20230109213A/en
Application granted granted Critical
Publication of KR102626383B1 publication Critical patent/KR102626383B1/en
Publication of KR102626383B9 publication Critical patent/KR102626383B9/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08KUse of inorganic or non-macromolecular organic substances as compounding ingredients
    • C08K3/00Use of inorganic substances as compounding ingredients
    • C08K3/34Silicon-containing compounds
    • C08K3/36Silica
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08KUse of inorganic or non-macromolecular organic substances as compounding ingredients
    • C08K5/00Use of organic ingredients
    • C08K5/54Silicon-containing compounds
    • C08K5/541Silicon-containing compounds containing oxygen
    • C08K5/5415Silicon-containing compounds containing oxygen containing at least one Si—O bond
    • C08K5/5419Silicon-containing compounds containing oxygen containing at least one Si—O bond containing at least one Si—C bond
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08KUse of inorganic or non-macromolecular organic substances as compounding ingredients
    • C08K7/00Use of ingredients characterised by shape
    • C08K7/22Expanded, porous or hollow particles
    • C08K7/24Expanded, porous or hollow particles inorganic
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08LCOMPOSITIONS OF MACROMOLECULAR COMPOUNDS
    • C08L93/00Compositions of natural resins; Compositions of derivatives thereof
    • C08L93/04Rosin
    • CCHEMISTRY; METALLURGY
    • C09DYES; PAINTS; POLISHES; NATURAL RESINS; ADHESIVES; COMPOSITIONS NOT OTHERWISE PROVIDED FOR; APPLICATIONS OF MATERIALS NOT OTHERWISE PROVIDED FOR
    • C09DCOATING COMPOSITIONS, e.g. PAINTS, VARNISHES OR LACQUERS; FILLING PASTES; CHEMICAL PAINT OR INK REMOVERS; INKS; CORRECTING FLUIDS; WOODSTAINS; PASTES OR SOLIDS FOR COLOURING OR PRINTING; USE OF MATERIALS THEREFOR
    • C09D133/00Coating compositions based on homopolymers or copolymers of compounds having one or more unsaturated aliphatic radicals, each having only one carbon-to-carbon double bond, and at least one being terminated by only one carboxyl radical, or of salts, anhydrides, esters, amides, imides, or nitriles thereof; Coating compositions based on derivatives of such polymers
    • C09D133/04Homopolymers or copolymers of esters
    • C09D133/06Homopolymers or copolymers of esters of esters containing only carbon, hydrogen and oxygen, the oxygen atom being present only as part of the carboxyl radical
    • C09D133/10Homopolymers or copolymers of methacrylic acid esters
    • C09D133/12Homopolymers or copolymers of methyl methacrylate
    • CCHEMISTRY; METALLURGY
    • C09DYES; PAINTS; POLISHES; NATURAL RESINS; ADHESIVES; COMPOSITIONS NOT OTHERWISE PROVIDED FOR; APPLICATIONS OF MATERIALS NOT OTHERWISE PROVIDED FOR
    • C09DCOATING COMPOSITIONS, e.g. PAINTS, VARNISHES OR LACQUERS; FILLING PASTES; CHEMICAL PAINT OR INK REMOVERS; INKS; CORRECTING FLUIDS; WOODSTAINS; PASTES OR SOLIDS FOR COLOURING OR PRINTING; USE OF MATERIALS THEREFOR
    • C09D183/00Coating compositions based on macromolecular compounds obtained by reactions forming in the main chain of the macromolecule a linkage containing silicon, with or without sulfur, nitrogen, oxygen, or carbon only; Coating compositions based on derivatives of such polymers
    • C09D183/16Coating compositions based on macromolecular compounds obtained by reactions forming in the main chain of the macromolecule a linkage containing silicon, with or without sulfur, nitrogen, oxygen, or carbon only; Coating compositions based on derivatives of such polymers in which all the silicon atoms are connected by linkages other than oxygen atoms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • H04N5/9203Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal using time division multiplex
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Multimedia (AREA)
  • Polymers & Plastics (AREA)
  • Medicinal Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Materials Engineering (AREA)
  • Wood Science & Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템은, 운동 동작을 포함하는 운동 영상을 출력하는 디스플레이와, 상기 디스플레이의 근방에 위치한 사용자를 촬영하여 촬영 영상을 생성하는 카메라 및, 상기 운동 동작에 따라 구동되는 로봇 팔을 구비한 시뮬레이터; 복수의 운동 영상을 저장한 데이터베이스와, 상기 운동 영상 중 어느 하나를 상기 디스플레이를 통해 출력하는 동작 출력 모듈 및, 상기 운동 영상의 운동 동작에 따라 상기 로봇 팔의 구동을 제어하는 로봇 구동 모듈과, 상기 사용자를 촬영한 촬영 영상을 입력받는 영상 입력 모듈과, 상기 촬영 영상을 기반으로 상기 사용자의 운동 동작을 분석하는 동작 분석부 및, 상기 운동 영상의 운동 동작과 상기 촬영 영상에 포함된 사용자의 운동 동작 사이의 일치율을 파악하여 상기 디스플레이에 출력하는 일치율 산출부를 포함하는 가이드 제공 모듈을 포함하는 메인 서버;를 포함하는 것을 특징으로 한다.A smart exercise system using an experiential simulator robot based on image recognition of the present invention includes a display that outputs an exercise image including an exercise motion, a camera that photographs a user located near the display and generates a photographed image, and the above A simulator having a robot arm driven according to movement; A database storing a plurality of motion images, a motion output module outputting one of the motion images through the display, and a robot driving module controlling driving of the robot arm according to motion motions of the motion images; An image input module that receives a captured image of a user, a motion analysis unit that analyzes the user's exercise motion based on the captured image, and the exercise motion of the exercise image and the user's motion included in the captured image and a main server including a guide providing module including a matching rate calculation unit that detects a matching rate between the two devices and outputs the matching rate to the display.

Description

영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템{Exercise system through an image recognition-based experiential simulator robot}Smart exercise system through an image recognition-based experiential simulator robot

본 발명은 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템에 관한 것으로서, 보다 상세히 설명하면 시뮬레이터의 디스플레이를 통해 운동 영상을 출력함과 동시에 로봇 팔을 움직이도록 하여 운동 동작을 안내하고, 사용자가 운동 영상을 보고 따라하는 영상을 촬영한 뒤, 운동 영상과 사용자의 동작을 비교 처리하여 운동에 대한 가이드라인을 제공할 수 있도록 한, 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템에 관한 것이다.The present invention relates to a smart exercise system through an experiential simulator robot based on image recognition. More specifically, an exercise image is output through a display of a simulator, and at the same time, the robot arm is moved to guide the exercise operation, and the user can It relates to a smart exercise system through an experiential simulator robot based on image recognition, which can provide guidelines for exercise by comparing and processing the exercise video and the user's motion after watching and following the exercise video. .

근래에 들어 현대인들은 다양한 만성질환에 의해 고통받고 있으며, 나아가 고령화 사회 진입에 따른 인구구조 변화 추세에 의하여 그에 따른 사회적인 요구 역시 증가되고 있다.In recent years, modern people are suffering from various chronic diseases, and social demands are also increasing due to the demographic change trend following the entry into an aging society.

따라서 현대인들은 건강관리에 대한 중요성을 이전에 비해 절감하고 있으며, 이와 같은 건강관리에 대한 패러다임은 병원을 통한 치료 중심의 관리에서 더 나아가 질병을 예방하고 건강을 유지하는, 소비자 차원의 관리로 전환되고 있는 추세이다.Therefore, modern people are reducing the importance of health management compared to before, and the paradigm for health management is shifting from treatment-oriented management through hospitals to consumer-level management that prevents diseases and maintains health. there is a trend

이에 따라 건강관리에 관한 헬스케어 시장 역시 성장하고 있는 추세이며, 헬스케어 시장은 전 세계 GDP의 18%를 차지할 정도로 그 규모가 커지고 있다. 더불어 헬스케어 데이터들은 축적된 양이 풍부해 글로벌 IT 기업들로 하여금 해당 헬스케어 데이터의 처리 및 제공 방식 등에 관한 기술 혁신에 관련하여 주목받고 있다.Accordingly, the healthcare market related to health management is also growing, and the healthcare market is growing to account for 18% of the world's GDP. In addition, the accumulated amount of healthcare data is abundant, and global IT companies are attracting attention for technological innovation related to the processing and provision of the healthcare data.

더불어 이러한 헬스케어와 관련해서는, 운동 기구를 이용한 기구 기반의 건강관리 시스템 역시 일 측을 담당한다고 할 수 있는데, 이러한 운동 기구 기반의 건강관리 시스템의 경우 사용자 맞춤형 운동 프로그램 등을 제공할 수 있도록 하여 사용자를 통한 운동 효율 향상에 그 목적을 두는 것을 특징으로 한다.In addition, in relation to such healthcare, an equipment-based health management system using exercise equipment can also be said to be in charge of one side. Characterized in that the purpose is to improve exercise efficiency through.

이에 대한 선행기술로서, 한국 등록특허 제 10-2061232호에 ‘운동 기구의 운동 데이터 기반 사용자 건강 관리 시스템’이 개시되어 있다.As a prior art for this, Korea Patent Registration No. 10-2061232 discloses a 'user health management system based on exercise data of exercise equipment'.

상기 발명은 운동 기구의 운동 데이터 기반 사용자 건강 관리 시스템에 관한 것으로서, 적어도 하나 이상의 운동 기구에 대한 복수 개의 운동 분석 요소들을 포함하는 사용자의 운동 데이터를 측정하도록 구성된 측정부; 사용자로부터 복수 개의 신체 분석 요소들을 포함하는 신체 데이터에 관한 입력을 수신하도록 구성된 입력부; 상기 복수 개의 운동 분석 요소들 및 상기 복수개의 신체 분석 요소들 중 적어도 2개 이상의 요소들 사이의 상관관계를 분석한 상관성 데이터를 생성하고, 상기 상관성 데이터에 기초하여 사용자 맞춤형 건강 정보를 출력하는 처리부; 및 상기 사용자 맞춤형 건강 정보를 표시하는 표시부를 포함한다.The present invention relates to a user health management system based on motion data of an exercise device, comprising: a measurement unit configured to measure motion data of a user including a plurality of motion analysis elements for at least one exercise device; an input unit configured to receive an input about body data including a plurality of body analysis elements from a user; a processing unit generating correlation data by analyzing a correlation between the plurality of motion analysis elements and at least two or more elements among the plurality of body analysis elements, and outputting user-customized health information based on the correlation data; and a display unit displaying the user-customized health information.

그러나 이러한 운동 데이터 분석의 경우 신체 데이터에 대한 입력을 수신할 뿐, 정확한 운동 자세 안내 및 운동 자세의 정확도 판단은 인간의 주관적인 판단에 기대고 있으며, 따라서 별도의 트레이너 없이 운동을 정확하게 수행할 수 있는 운동 시스템은 제공되고 있지 않다.However, in the case of such exercise data analysis, input for body data is only received, accurate exercise posture guidance and accuracy judgment of exercise posture rely on human subjective judgment, and therefore exercise system that can accurately perform exercise without a separate trainer is not provided.

따라서 상술한 바와 같은 문제점을 해결하기 위해, 로봇 팔을 구비한 시뮬레이터를 통해 영상 및 로봇 팔을 통해 정확한 운동 동작을 안내하고, 사용자의 동작을 촬영하여 일치율을 분석할 수 있도록 함으로써 보다 정확한 운동 방법에 대한 제공을 가능케 한, 스마트 운동 시스템을 개발할 필요성이 대두되는 실정이다.Therefore, in order to solve the above-described problems, a simulator equipped with a robot arm guides accurate motion motion through an image and a robot arm, and analyzes the matching rate by photographing the user's motion to provide a more accurate motion method. There is a need to develop a smart exercise system that enables the provision of information.

본 발명은 운동 영상 및 로봇 팔을 통해 운동을 가이드하고, 사용자가 따라한 운동 동작에 대한 일치도를 분석하여 운동 효율을 높이는 것을 주요 목적으로 한다.The main object of the present invention is to increase exercise efficiency by guiding an exercise through an exercise image and a robot arm, and analyzing a degree of agreement with respect to an exercise motion followed by a user.

본 발명의 다른 목적은, 시뮬레이터에 구비된 디스플레이의 난반사를 감소시키는 것이다.Another object of the present invention is to reduce diffuse reflection of a display provided in a simulator.

본 발명의 또 다른 목적은, 소광성을 극대화할 수 있는 첨가제를 제공하는 것이다.Another object of the present invention is to provide an additive capable of maximizing matting properties.

상기 목적을 달성하기 위하여, 본 발명의 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템은, 운동 동작을 포함하는 운동 영상을 출력하는 디스플레이와, 상기 디스플레이의 근방에 위치한 사용자를 촬영하여 촬영 영상을 생성하는 카메라 및, 상기 운동 동작에 따라 구동되는 로봇 팔을 구비한 시뮬레이터; 복수의 운동 영상을 저장한 데이터베이스와, 상기 운동 영상 중 어느 하나를 상기 디스플레이를 통해 출력하는 동작 출력 모듈 및, 상기 운동 영상의 운동 동작에 따라 상기 로봇 팔의 구동을 제어하는 로봇 구동 모듈과, 상기 사용자를 촬영한 촬영 영상을 입력받는 영상 입력 모듈과, 상기 촬영 영상을 기반으로 상기 사용자의 운동 동작을 분석하는 동작 분석부 및, 상기 운동 영상의 운동 동작과 상기 촬영 영상에 포함된 사용자의 운동 동작 사이의 일치율을 파악하여 상기 디스플레이에 출력하는 일치율 산출부를 포함하는 가이드 제공 모듈을 포함하는 메인 서버;를 포함하는 것을 특징으로 한다.In order to achieve the above object, a smart exercise system through an experiential simulator robot based on image recognition of the present invention includes a display that outputs an exercise image including an exercise motion, and a user located near the display to photograph the captured image. A simulator having a camera and a robot arm that is driven according to the movement motion; A database storing a plurality of motion images, a motion output module outputting one of the motion images through the display, and a robot driving module controlling driving of the robot arm according to motion motions of the motion images; An image input module that receives a captured image of a user, a motion analysis unit that analyzes the user's exercise motion based on the captured image, and the exercise motion of the exercise image and the user's motion included in the captured image and a main server including a guide providing module including a matching rate calculation unit that detects a matching rate between the two devices and outputs the matching rate to the display.

나아가, 상기 디스플레이의 표면에는, 티타늄디옥사이드(Titanium Dioxide)를 포함하는 반사 완화성 기능제가 코팅 처리된 것을 특징으로 한다.Furthermore, the surface of the display is characterized in that a reflection softening functional agent containing titanium dioxide (Titanium Dioxide) is coated.

더하여, 상기 반사 완화성 기능제는, 티타늄디옥사이드 나노입자(Titanium Dioxide nano powder) 5 내지 15 중량부 및, 폴리메틸아크릴레이트 10 내지 20 중량부 및 정제수 60 내지 80 중량부를 혼합하여 제 1 용액을 제조하는 단계; 상기 제 1 용액 90 내지 98 중량부와, 검 아라빅(gum Arabic) 0.5 내지 5 중량부와, 로진(rosin) 1 내지 3 중량부를 혼합하여 제 2 용액을 제조하는 단계; 상기 제 2 용액 85 내지 95 중량부 및, 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 및 포러스 실리카(porous silica)를 포함하는 소광성 강화 첨가제 1 내지 10 중량부를 혼합하여 반사 완화성 기능제를 완성하는 단계;를 통해 제조되는 것을 특징으로 한다.In addition, the antireflection function is prepared by mixing 5 to 15 parts by weight of titanium dioxide nano powder, 10 to 20 parts by weight of polymethyl acrylate, and 60 to 80 parts by weight of purified water to prepare a first solution. doing; preparing a second solution by mixing 90 to 98 parts by weight of the first solution, 0.5 to 5 parts by weight of gum Arabic, and 1 to 3 parts by weight of rosin; 85 to 95 parts by weight of the second solution and 1 to 10 parts by weight of a light-matting reinforcing additive including perfluorooctyltrethoyxysilane and porous silica are mixed to complete a reflection softening functional agent. It is characterized in that it is prepared through; the step of doing.

본 발명의 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템에 따르면,According to the smart exercise system through the experiential simulator robot based on image recognition of the present invention,

1) 운동 영상을 통해 운동 동작을 안내함과 동시에 로봇 팔을 통해 자세한 운동 동작을 사용자에게 보여주고, 사용자가 운동하는 장면을 촬영한 촬영 영상을 분석하여 사용자의 운동 동작과 운동 영상의 운동 동작 사이의 일치율을 분석하여 제공함으로써 사용자로 하여금 보다 정확한 동작으로 운동을 수행할 수 있도록 하고,1) It guides the exercise motion through the exercise video, shows the user detailed exercise motion through the robot arm at the same time, and analyzes the filmed video of the user's exercise scene to determine the difference between the user's exercise motion and the exercise motion of the exercise video. By analyzing and providing the coincidence rate, the user can perform the exercise with more accurate motion,

2) 유기폴리실라잔을 포함하는 반사 완화성 기능제를 통해 디스플레이 표면에서의 굴절율 및 반사율을 낮추고 투과율을 높이면서 외부 광원에 의한 간섭을 최소화함과 동시에 눈부심을 방지하고,2) Minimize interference by an external light source and prevent glare while lowering the refractive index and reflectance on the display surface and increasing the transmittance through a reflection softening functional agent containing organopolysilazane,

3) 소광성 강화 첨가제를 통해 포러스 실리카가 가진 다수의 기공을 기반으로 소광성을 극대화함과 동시에 은 나노 입자를 통해 입자의 치밀도를 높여 피막강도를 높이며, 나아가 퍼플루오로옥틸트레톡시실란을 통해 내마모성이 높은, 치밀한 피막을 제공할 수 있도록 한 효과가 있다.3) Through the matting property enhancing additive, the matting property is maximized based on the numerous pores of porous silica, and at the same time, the density of the particles is increased through silver nanoparticles to increase the film strength, and furthermore, perfluorooctyltrethoxysilane Through this, there is an effect of providing a dense film with high wear resistance.

도 1은 본 발명의 시스템에 대한 개략적인 구성을 나타낸 개념도.
도 2는 본 발명의 시뮬레이터의 예시도.
도 3은 메인 서버의 구성을 나타낸 블록도.
도 4는 본 발명의 시뮬레이터를 통한 자세 모방 예시를 나타낸 프로세스도.
도 5는 로봇 팔 구동을 설명하는 그래프.
도 6은 동작 분석부를 통한 운동 동작 분석 예시를 나타낸 사진.
1 is a conceptual diagram showing a schematic configuration of the system of the present invention.
2 is an exemplary diagram of a simulator of the present invention;
3 is a block diagram showing the configuration of a main server;
Figure 4 is a process diagram showing an example of posture imitation through the simulator of the present invention.
5 is a graph illustrating the operation of the robot arm.
Figure 6 is a photograph showing an example of exercise motion analysis through the motion analysis unit.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale, and like reference numbers in each drawing indicate like elements.

도 1은 본 발명의 시스템에 대한 개략적인 구성을 나타낸 개념도이며, 도 2는 본 발명의 시뮬레이터의 예시도이다.1 is a conceptual diagram showing a schematic configuration of a system of the present invention, and FIG. 2 is an exemplary view of a simulator of the present invention.

도 1 내지 도 2를 참조하여 설명하면, 본 발명의 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템은 시뮬레이터(2) 및 메인 서버(1)를 포함한 것을 특징으로 한다.Referring to FIGS. 1 and 2 , the smart exercise system through the experiential simulator robot based on image recognition of the present invention is characterized in that it includes a simulator 2 and a main server 1.

시뮬레이터(2)는 디스플레이(21), 카메라(22), 그리고 로봇 팔(23)을 구비한 것을 특징으로 하며, 이를 통해 운동 영상을 출력하고, 운동 영상의 동작에 따라 구동하는 로봇 팔(23)을 통해 운동 동작을 보다 정확하게 사용자에게 가이드하며, 운동 영상을 따라 운동을 수행하는 사용자를 촬영한 촬영 영상을 생성하는 기능을 수행한다.The simulator 2 is characterized by having a display 21, a camera 22, and a robot arm 23, through which a motion image is output and a robot arm 23 driven according to the motion of the motion image Through this, it guides the user more accurately to the exercise motion and performs a function of generating a photographed image of the user performing the exercise along with the exercise image.

따라서 시뮬레이터(2)의 일 측에는 운동 영상을 출력할 수 있는 디스플레이(21)가 구비되어 있으며, 디스플레이(21) 주변 일 측에는 운동 영상을 보고 운동 동작을 따라하는 사용자를 촬영하여 촬영 영상을 생성할 수 있도록 카메라(22)가 구비되어 있다.Therefore, a display 21 capable of outputting an exercise image is provided on one side of the simulator 2, and a photographed image can be generated by photographing a user watching an exercise image and following an exercise motion on one side around the display 21. A camera 22 is provided so that

이때 출력되는 운동 영상은 팔 부분의 운동, 나아가 전신 운동에 대한 운동 동작을 포함하는 영상일 수 있으나, 가장 바람직하게는 후술할 로봇 팔(23)이 운동 동작에 따라 구동될 수 있도록 팔을 움직이는 운동 동작을 포함한 것을 기본으로 한다.At this time, the output motion image may be an image including motion of the arm part and motion of the whole body, but most preferably, motion of moving the arm so that the robot arm 23 to be described later can be driven according to the motion. It is based on including action.

여기서 디스플레이(21)는 LCD, LED, OLED 중 어느 하나로 이루어질 수 있으며, 디스플레이(21)가 단순한 운동 영상 출력 기능만을 제공할 수도 있으나, 터치스크린으로 구현되어 입력 기능을 겸비하는 것도 가능하다.Here, the display 21 may be formed of any one of LCD, LED, and OLED, and the display 21 may provide only a simple exercise image output function, but may be implemented as a touch screen and have an input function.

더불어 시뮬레이터(2)는 일 측에 로봇 팔(23)이 구비되어 있는데, 이러한 로봇 팔(23)은 도면에서와 같이 한 개가 구비되는 것도 가능하나, 시뮬레이터(2)의 양 측에 로봇 팔(23)이 하나씩 구비되어 마치 양 팔이 구비된 것처럼 보이는 것도 가능하다. 이때 로봇 팔(23)의 경우 후술할 메인 서버(1)와 연동되어 운동 영상의 운동 동작에 따라 구동될 수 있다. 이러한 로봇 팔(23)은 적어도 하나의 링크, 링크에 형성되는 조인트, 그리고 조인트를 회전시키는 모터 등을 포함하여 다양한 방향으로 움직임이 가능한 것을 특징으로 한다.In addition, the simulator 2 is provided with a robot arm 23 on one side, such a robot arm 23 may be provided with one as shown in the drawing, but the robot arm 23 on both sides of the simulator 2 ) is provided one by one, and it is also possible to look as if both arms are provided. At this time, in the case of the robot arm 23, it can be driven according to the motion of the motion image by interlocking with the main server 1 to be described later. The robot arm 23 is characterized in that it can move in various directions, including at least one link, a joint formed on the link, and a motor that rotates the joint.

나아가 시뮬레이터(2)는 일 측에 세워놓고 이용하는 형태일 수도 있으나, 바퀴를 추가적으로 구비할 수 있어 바퀴를 통해 이동이 가능할 수 있음은 물론이다.Furthermore, the simulator 2 may be used standing on one side, but it may be additionally provided with wheels, so that it may be moved through the wheels, of course.

따라서 본 발명의 스마트 운동 시스템은 시뮬레이터(2)를 통해 사용자가 운동 영상을 디스플레이(21)로 확인하도록 함과 동시에 로봇 팔(23)의 움직임을 통해 보다 세부적인 자세에 대한 가이드를 제공하도록 한 뒤, 운동 영상 및 로봇 팔(23)의 구동에 따라서 따라서 실제로 운동을 수행하면 카메라(22)가 사용자를 촬영한 뒤 운동 영상과 실제 사용자의 운동 동작 사이의 일치율을 디스플레이(21)에 출력하도록 하여 사용자로 하여금 보다 정확한 자세로 운동을 수행하게 함으로써 운동의 효과를 높일 수 있다.Therefore, the smart exercise system of the present invention allows the user to check the exercise image on the display 21 through the simulator 2 and at the same time provides a guide for a more detailed posture through the movement of the robot arm 23 , When an exercise is actually performed according to the motion image and the driving of the robot arm 23, the camera 22 photographs the user and outputs the match rate between the motion image and the actual user's motion on the display 21 so that the user The effectiveness of the exercise can be enhanced by allowing the person to perform the exercise in a more accurate posture.

메인 서버(1)는 상술한 스마트 운동 시스템에 있어 운동 영상의 저장 및 출력을 제어함과 동시에 그에 따라 로봇 팔(23)의 구동을 제어하는 기능을 수행하고, 촬영된 촬영 영상의 분석을 통해 촬영 영상으로부터 사용자의 운동 동작을 분석하고, 운동 영상의 모범 운동 동작 및 촬영 영상의 운동 동작 사이의 일치율을 산출하는 기능을 수행한다.In the smart exercise system described above, the main server 1 controls the storage and output of motion images and at the same time controls the driving of the robot arm 23 accordingly, and takes pictures through analysis of the captured images. It analyzes the user's exercise motion from the video and calculates the matching rate between the model exercise motion of the motion image and the motion motion of the photographed image.

즉 본 발명의 스마트 운동 시스템에 있어 시뮬레이터(2)의 구동을 제어하고 입력된 데이터를 분석 처리하는 기능을 수행하는 것이라 할 수 있는데, 따라서 메인 서버(1)가 본 발명의 스마트 운동 시스템에서의 데이터 분석 및 구동 제어 등의 주체가 된다 할 수 있다.That is, in the smart exercise system of the present invention, it can be said that it controls the driving of the simulator 2 and performs the function of analyzing and processing the input data. It can be said to be the subject of analysis and driving control.

이러한 메인 서버(1)는 시뮬레이터(2)와 별도로 구비될 수도 있으나, 시뮬레이터(2)의 본체 내부에 구비되는 것도 가능하며 이러한 메인 서버(1)는 시뮬레이터(2)에 대한 컨트롤러의 역할을 수행한다고도 할 수 있다.Although this main server 1 may be provided separately from the simulator 2, it is also possible to be provided inside the main body of the simulator 2, and it is said that the main server 1 serves as a controller for the simulator 2. You can also.

이러한 메인 서버(1)는 중앙처리장치(CPU) 및 메모리와 하드디스크와 같은 저장수단을 구비한 하드웨어 기반에서 중앙처리장치에서 수행될 수 있는 프로그램, 즉 소프트웨어가 설치되어 이 소프트웨어를 실행할 수 있는데 이러한 소프트웨어에 대한 일련의 구체적 구성을 '모듈' 및 '부', '파트' 등의 구성단위로써 후술할 예정이다.Such a main server 1 is based on hardware having a central processing unit (CPU) and memory and storage means such as a hard disk, and a program that can be executed in the central processing unit, that is, software is installed and the software can be executed. A series of detailed configurations of the software will be described later as units such as 'modules', 'parts', and 'parts'.

이러한 '모듈' 또는 '부' 또는 '인터페이스' 또는 ‘파트’ 등 의 구성은 메인 서버(1)의 저장수단에 설치 및 저장된 상태에서 CPU 및 메모리를 매개로 실행되는 소프트웨어 또는 FPGA 내지 ASIC과 같은 하드웨어의 일 구성을 의미한다.Configurations such as 'modules' or 'parts' or 'interfaces' or 'parts' are software or hardware such as FPGAs or ASICs executed via CPU and memory in a state installed and stored in the storage means of the main server 1 means the work composition of

이때, '모듈' 또는 '부', '인터페이스'라는 구성은 하드웨어에 한정되는 의미는 아니고, 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.At this time, the configuration of 'module' or 'unit' or 'interface' is not limited to hardware, and may be configured to be in an addressable storage medium or configured to reproduce one or more processors.

일 예로서 '모듈' 또는 '부' 또는 '인터페이스'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.As an example, 'module' or 'part' or 'interface' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, and attributes. fields, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.

이러한 '모듈' 또는 '부' 또는 '인터페이스'에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는 '모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.Functions provided by these 'modules' or 'units' or 'interfaces' may be combined into a smaller number of components and 'units' or 'modules', or may be combined into additional components and 'units' or 'modules'. can be further separated.

더불어, 메인 서버(1)는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다.In addition, the main server 1 means all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware devices according to embodiments.

예를 들어, 서버의 일 예로서의 컴퓨팅 장치는 스마트폰, 태블릿 PC, 데스크탑, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.For example, a computing device as an example of a server may be understood as including all of smart phones, tablet PCs, desktops, laptops, and user clients and applications running on each device, but is not limited thereto.

이와 같이 본 발명의 시스템을 구성하는 각 구성요소를 기반으로, 메인 서버(1)의 구성에 대해 보다 상세히 설명하면 다음과 같다.In this way, based on each component constituting the system of the present invention, the configuration of the main server 1 will be described in more detail as follows.

도 3은 메인 서버의 구성을 나타낸 블록도이며, 도 4는 본 발명의 시뮬레이터를 통한 자세 모방 예시를 나타낸 프로세스도이다.3 is a block diagram showing the configuration of a main server, and FIG. 4 is a process diagram showing an example of posture imitation through a simulator of the present invention.

도 3 및 도 4를 참조하여 설명하면, 먼저 본 발명의 메인 서버(1)는 데이터베이스(100), 동작 출력 모듈(200), 로봇 구동 모듈(300), 영상 입력 모듈(400), 가이드 제공 모듈(500)을 포함하는 것을 특징으로 한다.3 and 4, the main server 1 of the present invention includes a database 100, a motion output module 200, a robot driving module 300, an image input module 400, and a guide providing module. It is characterized by including (500).

데이터베이스(100)는 운동 동작이 포함된 복수의 운동 영상을 저장한 것으로서, 이때 운동 영상의 경우 자세에 대한 교습이 가능하도록 전문가의 운동 동작을 포함하거나, 혹은 모범적 자세로 운동 동작을 수행하는 애니메이션을 포함하는 것일 수 있다. 즉 운동 전문가가 운동 동작을 수행하는 것을 촬영하거나 운동 동작을 수행하는 애니메이션 등이 운동 영상으로서 저장될 수 있다.The database 100 stores a plurality of exercise images including exercise motions. In this case, the exercise videos include expert exercise motions to enable teaching on posture, or animations for performing exercise motions in exemplary postures. may include That is, a photograph of an exercise expert performing an exercise motion or an animation performing an exercise motion may be stored as an exercise image.

이러한 복수의 운동 영상은 동작 이름별로 구분되어 저장될 수도 있으며, 혹은 해당 운동 영상을 통해 강화될 수 있는 신체 부위별로 구분되어 저장될 수도 있으며, 해당 운동 영상의 저장 일자별로 구분되어 저장될 수도 있으므로 데이터베이스(100)에서의 운동 동작 분류 저장 방식에는 제한을 두지 않는 것을 기본으로 한다.The plurality of exercise images may be classified and stored according to motion names, or may be classified and stored according to body parts that can be strengthened through the corresponding exercise images, or may be classified and stored according to the storage date of the exercise images. It is based on not limiting the exercise motion classification storage method in (100).

동작 출력 모듈(200)은 데이터베이스(100)에 저장된 운동 영상 중 어느 하나를 시뮬레이터(2)에 구비된 디스플레이(21)를 통해 출력하는 기능을 수행하는 것으로서, 이때 저장된 운동 영상 중 어느 하나를 랜덤하게 추출하여 디스플레이(21)로 출력할 수도 있으나, 보다 바람직하게는 시뮬레이터(2)를 이용하는 사용자로부터 복수의 운동 영상 중 어느 하나를 선택받고, 선택된 운동 영상을 디스플레이(21)를 통해 출력할 수 있다.The motion output module 200 performs a function of outputting any one of the exercise images stored in the database 100 through the display 21 provided in the simulator 2, and at this time, any one of the stored motion images is randomly selected. It may be extracted and output to the display 21, but more preferably, one of a plurality of exercise images may be selected from a user using the simulator 2, and the selected exercise image may be output through the display 21.

이를 위해서 시뮬레이터(2)의 디스플레이(21)는 바람직하게 터치스크린으로 이루어질 수 있으며, 운동 영상의 제목이나 썸네일을 리스트화하여 이를 디스플레이(21)에 출력하고, 사용자로부터 출력된 복수의 운동 영상의 썸네일이나 제목 중에서 어느 하나를 선택하도록 한 뒤, 선택된 운동 영상을 디스플레이(21)에 출력하는 방식을 통해 사용자로부터 선택된 운동 영상을 디스플레이(21)에 출력하여 사용자에게 제공할 수 있다.To this end, the display 21 of the simulator 2 may preferably be made of a touch screen, lists the titles or thumbnails of exercise images, outputs them to the display 21, and displays thumbnails of a plurality of exercise images output from the user After selecting one of the titles or titles, the selected exercise image can be output to the display 21 through a method of outputting the selected exercise image to the display 21 and provided to the user.

로봇 구동 모듈(300)은 운동 영상의 운동 동작에 따라 로봇 팔(23)의 구동을 제어하는 기능을 수행한다, 바람직하게 로봇 팔(23)은 인간의 팔을 따라할 수 있는 만큼, 운동 영상에 포함된 운동 동작이 팔을 일직선으로 곧게 뻗는 동작인 경우 로봇 팔(23) 역시 일직선으로 뻗는 동작을 취하고, 운동 영상에 포함된 운동 동작이 팔을 특정 각도로 굽히는 동작인 경우 로봇 팔(23) 역시 특정 각도로 구부러지도록 구동이 제어될 수 있다.The robot driving module 300 performs a function of controlling the driving of the robot arm 23 according to the motion of the motion image. Preferably, the robot arm 23 can follow the human arm, When the motion motion included is a motion of extending the arm in a straight line, the robot arm 23 also takes an motion of extending the arm in a straight line, and when the motion motion included in the motion image is a motion of bending the arm at a specific angle, the robot arm 23 also The drive may be controlled to bend at a specific angle.

따라서 바람직하게는 데이터베이스(100)에 저장된 운동 영상에 포함된 운동 동작에 따라 로봇 팔(23)의 구동이 차등 제어되는 것이며, 이를 위해서는 데이터베이스(100) 상에 로봇 팔(23)의 구동을 위한 데이터가 운동 영상별로 저장되는 것도 가능하다. 다시 말해 팔을 30°각도로 구부렸다가 펴는 것을 반복하는 운동 동작을 포함하는 운동 영상의 경우, 해당 운동 영상과 함께 0°각도로 구부렸다가 펴는 것을 반복하도록 로봇 팔(23)의 구동을 제어하는 것이다. 나아가 상술한 설명과 같이 로봇 팔(23)의 구동을 제어하도록 프로그래밍된 데이터가 데이터베이스(100)에 함께 저장되도록 하여 데이터베이스(100)에 저장된 데이터에 따라서 로봇 팔(23)의 구동을 제어할 수 있다.Therefore, preferably, the driving of the robot arm 23 is differentially controlled according to the motion included in the motion image stored in the database 100, and for this purpose, data for driving the robot arm 23 is stored in the database 100. It is also possible that is stored for each exercise image. In other words, in the case of a motion image including a motion motion in which the arm is repeatedly bent and extended at an angle of 30 °, the driving of the robot arm 23 is controlled to repeat bending and unfolding at an angle of 0 ° together with the motion image. . Furthermore, as described above, the data programmed to control the driving of the robot arm 23 is stored together in the database 100, so that the driving of the robot arm 23 can be controlled according to the data stored in the database 100. .

여기서 로봇 팔(23)의 경우 가장 바람직하게는 3축 체인형 로봇일 수 있다. 이러한 3축 체인형 로봇 팔은 조인트를 통해 접히거나 펴는 움직임이 가능하고, 회전 역시 가능한 만큼 운동 영상에 포함된 운동 동작을 모방하여 구동될 수 있는 것을 특징으로 한다.Here, the robot arm 23 may be most preferably a 3-axis chain type robot. This three-axis chain type robot arm is characterized in that it can be driven by imitating the motion included in the motion image as much as possible to fold or unfold through a joint and to rotate as much as possible.

이때 로봇 팔(23)을 구동시키기 위한 수학적 표현 방식인, 순기구학(Forward Kinetics)에서의 수학식을 설명하면 다음과 같다.At this time, a mathematical expression in Forward Kinetics, which is a mathematical expression method for driving the robot arm 23, is described as follows.

도 5는 로봇 팔 구동을 설명하는 그래프이다.5 is a graph illustrating driving of a robot arm.

도 5의 그래프를 기반으로 하여, 로봇 팔(23)의 구동을 설명하기 위한 수학식을 설명하면 다음과 같다.Based on the graph of FIG. 5, the equation for explaining the driving of the robot arm 23 is as follows.

먼저, 정기구학 방식을 통해 일련의 관절각이 주어졌을 때 말단장치(End-effector)의 직교 좌표상의 위치(Position)와 자세(Orientation)를 구하는 것은 다음의 방식을 통해 이루어질 수 있다. 다시 말해, 주어진 조인트 변수에 대하여 로봇 말단부의 위치/자세를 결정하는 방식은 다음과 같이 이루어질 수 있다.First, when a series of joint angles are given through the regular kinematics method, the position and orientation of the end-effector on Cartesian coordinates can be obtained through the following method. In other words, a method for determining the position/posture of the distal end of the robot with respect to a given joint variable may be performed as follows.

수학식 1, Equation 1,

수학식 2, Equation 2,

(여기서, 는 x방향의 좌표값(위치), 는 y방향의 좌표값(위치), 은 1번째 링크의 길이, 은 2번째 링크의 길이, 은 3번째 링크의 길이, 은 1번째 조인트의 각도, 은 2번째 조인트의 각도, 은 3번째 조인트의 각도를 의미한다.)(here, is the coordinate value (position) in the x direction, is the coordinate value (position) in the y direction, is the length of the first link, is the length of the second link, is the length of the third link, is the angle of the first joint, is the angle of the second joint, means the angle of the third joint.)

다음으로, 역기구학(Inverse Kinematics)를 통해 로봇 팔(23)의 말단부의 위치와 자세(Euler angle)가 주어질 경우 이에 대응하는 조인트의 회전각을 결정하는 과정은 다음과 같이 이루어질 수 있다. 여기서 역기구학 방식으로 회전각을 결정하는 것은 이론해석적 방법 및 수치해석적 방법이 모두 적용될 수 있다.Next, when the position and attitude (Euler angle) of the distal end of the robot arm 23 are given through inverse kinematics, the process of determining the rotation angle of the corresponding joint may be performed as follows. Here, both theoretical and numerical methods may be applied to determine the rotation angle by the inverse kinematics method.

이론해석적 방법(Closed form Solution)은 주어진 말단부의 위치 경로에 대하여 위치 수준에서 직접 각 구동 관절의 회전 각을 닫힌 형태(closed form)로 구하는 것을 의미하며, 주로 산업용 로봇 팔에서 사용된다. 균질변환을 이용하는 대수식 방식과 기하학적 방식을 포함한다.The closed form solution means obtaining the rotation angle of each driving joint directly at the position level for a given distal end position path in closed form, and is mainly used in industrial robot arms. It includes algebraic methods and geometric methods using homogeneous transformations.

수치해석적 방법(Numerical Solution)은 말단부의 속도 경로가 주어진 경우, 자코비안의 역행렬을 계산함으로써 수치적으로 각 구동 조인트의 속도를 구하는 것을 의미한다. 수렴 범위에 이르기 위한 반복적인 알고리즘으로 인해 이론해석적 방법에 비해 해를 구하는 시간이 길어집니다. 또한 다중해가 존재하는 경우에 모든 해를 구한다는 보장이 없습니다.The numerical solution means to obtain the velocity of each drive joint numerically by calculating the Jacobian inverse matrix given the velocity path of the distal end. Due to the iterative algorithm to reach the range of convergence, the time to find a solution is longer compared to the theoretical method. Also, there is no guarantee that all solutions will be found in the presence of multiple solutions.

따라서 바람직하게 본 발명에서는 이론해석적 방법을 통해 조인트의 회전각을 결정할 수 있으며, 여기서는 다음의 수학식이 적용될 수 있다.Therefore, preferably, in the present invention, the rotation angle of the joint may be determined through a theoretical analysis method, and the following equation may be applied here.

수학식 3, Equation 3,

수학식 4, Equation 4,

수학식 5, Equation 5,

수학식 6, Equation 6,

수학식 7, Equation 7,

수학식 8, Equation 8,

수학식 9, Equation 9,

(여기서, 는 x방향의 좌표값(위치), 는 y방향의 좌표값(위치), 은 1번째 링크의 길이, 은 2번째 링크의 길이, 은 3번째 링크의 길이, 은 1번째 조인트의 각도, 은 2번째 조인트의 각도, 은 3번째 조인트의 각도를 의미한다.)(here, is the coordinate value (position) in the x direction, is the coordinate value (position) in the y direction, is the length of the first link, is the length of the second link, is the length of the third link, is the angle of the first joint, is the angle of the second joint, means the angle of the third joint.)

따라서 이러한 순기구학, 역기구학을 통하여 운동 동작에 따라 로봇 팔(23)을 구성하는 조인트의 회전각이나 로봇 말단부의 위치/자세를 결정할 수 있으며, 언급된 방식 이외에도 종래의 로봇 팔 제어 방법이 적용될 수 있음은 물론이다.Therefore, the rotation angle of the joint constituting the robot arm 23 or the position/posture of the robot end can be determined according to the motion through forward kinematics and inverse kinematics, and conventional robot arm control methods can be applied in addition to the methods mentioned above. Of course there is.

다시 도 3 및 도 4를 참조하여 설명을 이어가면, 영상 입력 모듈(400)은 디스플레이(21)를 통해 출력된 운동 영상 및 구동된 로봇 팔(23)을 보고 운동 동작을 따라하는 사용자를 촬영한 촬영 영상을 입력받는 기능을 수행하는 것으로서, 이는 바람직하게 시뮬레이터(2)의 카메라(22)를 통해 촬영된 촬영 영상을 전송받는 것으로 구현될 수 있다.Continuing the description with reference to FIGS. 3 and 4 again, the image input module 400 views the exercise image output through the display 21 and the driven robot arm 23 and photographs a user following the exercise motion. As a function of receiving a captured image, this may be preferably implemented by receiving a captured image captured through the camera 22 of the simulator 2 .

바람직하게는 동작 출력 모듈(200) 및 로봇 구동 모듈(300)을 통해 운동 영상의 출력 및 로봇 팔(23)의 구동이 이루어지고, 운동 영상의 출력 및 로봇 팔(23)시 구동 시 카메라(22)가 촬영 영상을 생성하도록 카메라(22)의 구동을 제어함으로서 사용자의 운동 동작 실행 시 촬영 영상을 생성하고, 생성된 촬영 영상을 메인 서버(1)에 전송하도록 할 수 있다.Preferably, the motion image is output and the robot arm 23 is driven through the motion output module 200 and the robot drive module 300, and the camera 22 is output when the motion image is output and the robot arm 23 is driven. ) controls driving of the camera 22 to generate a captured image, thereby generating a captured image when the user executes an exercise motion, and transmitting the generated captured image to the main server 1.

도 6은 동작 분석부를 통한 운동 동작 분석 예시를 나타낸 사진이다.6 is a photograph showing an example of exercise motion analysis through a motion analyzer.

도 3, 4와 함께 도 6을 참조하여 설명하면, 가이드 제공 모듈(500)은 촬영 영상을 기반으로 사용자의 운동 동작을 분석하고, 운동 영상의 운동 동작과 촬영 영상의 운동 동작 사이의 일치율을 파악한 뒤 이를 디스플레이(21)에 출력하는 기능을 수행한다. 이를 위해 가이드 제공 모듈(500)은 동작 분석부(510) 및 일치율 산출부(520)를 포함할 수 있다.Referring to FIG. 6 together with FIGS. 3 and 4, the guide providing module 500 analyzes the user's exercise motion based on the captured image, and identifies the matching rate between the motion motion of the motion image and the motion motion of the captured image. Then, it performs a function of outputting it to the display 21. To this end, the guide providing module 500 may include a motion analyzer 510 and a match rate calculator 520 .

동작 분석부(510)는 입력된 촬영 영상을 분석하여 사용자의 운동 동작을 분석하는 기능을 수행한다. 이때 사용자의 운동 동작을 분석하는 것은 상술한 도 6의 구성에서와 같이 가장 바람직하게는 사용자의 팔을 이루는 각 마디의 길이와 관절의 각도를 분석하여 각 관절의 회전각도, 나아가 각각의 마디가 향한 방향 및 손 끝의 좌표를 산출하는 방식으로 파악될 수 있으며, 그 외에도 종래의 소프트웨어 프로그램을 통해 다양한 방식으로 사용자 팔의 움직임을 분석할 수 있다. 즉 어떠한 방향으로 팔을 뻗었는지, 각 마디가 어떻게 움직이고 있는지, 각각의 관절이 어떠한 방향으로 얼마나 회전되었는지를 분석하는 것이라 할 수 있다.The motion analysis unit 510 performs a function of analyzing the user's exercise motion by analyzing the input captured image. At this time, analyzing the user's motion is most preferably, as in the configuration of FIG. 6 described above, by analyzing the length of each joint and the angle of each joint constituting the user's arm, the rotation angle of each joint, and further, the direction of each joint. It can be grasped by calculating the direction and the coordinates of the tip of the hand, and in addition, the movement of the user's arm can be analyzed in various ways through a conventional software program. In other words, it can be said to analyze which direction the arm was stretched, how each joint was moving, and how much each joint was rotated in which direction.

이를 위해서는 촬영 영상에서 객체, 즉 사용자가 인식되어야 하며, 그 중에서도 분석의 대상이 되는 사용자의 팔 및 팔을 구성하는 각 마디를 인식하도록 한다. 나아가 마디와 마디 사이를 구성하는 관절을 인식하고, 팔이 향한 방향, 나아가 손끝의 좌표를 기반으로 하여 어떠한 방향으로 팔을 뻗었는지, 각 마디가 어떻게 움직이고 있는지, 각각의 관절이 어떠한 방향으로 얼마나 회전되었는지를 파악하는 것이라 할 수 있다. 이는 메인 서버(1)에 탑재된 소프트웨어를 기반으로 이루어질 수 있다.To this end, an object, that is, a user, must be recognized in the photographed image, and among them, the user's arm and each node constituting the arm, which is the subject of analysis, must be recognized. Furthermore, it recognizes the joints that make up the nodes, and based on the direction the arm is facing and the coordinates of the fingertips, in which direction the arm is extended, how each node is moving, and how each joint is rotated in which direction. It can be said to figure out what happened. This may be done based on software loaded on the main server 1 .

일치율 산출부(520)는 운동 영상의 운동 동작과 촬영 영상의 운동 동작 사이의 일치율을 파악하여 디스플레이(21)에 출력하는 기능을 수행한다. 다시 설명하자면, 동작 분석부(510)를 통해 분석된 사용자의 운동 동작과, 촬영 영상의 운동 동작 사이의 일치율을 파악하는 것이다.The coincidence rate calculating unit 520 performs a function of detecting the coincidence rate between the motion motion of the exercise image and the motion motion of the photographed image and outputting it to the display 21 . In other words, the rate of agreement between the user's motion analyzed through the motion analysis unit 510 and the motion motion of the photographed image is determined.

이때 촬영 영상에 포함된 전문가, 혹은 애니메이션 캐릭터의 운동 동작과 동작 분석부(510)를 통해 분석된 사용자의 운동 동작을 비교할 수도 있으나, 보다 간편하게는 로봇 팔(23)의 운동 동작과 사용자의 운동 동작을 비교하여 그를 기반으로 일치율을 파악할 수 있다.At this time, it is possible to compare the motion motion of the expert or animation character included in the captured image with the motion motion of the user analyzed through the motion analysis unit 510, but more conveniently, the motion motion of the robot arm 23 and the motion motion of the user. Based on the comparison, the concordance rate can be determined.

로봇 팔(23)의 경우 구동에 있어 조인트의 회전각이나 말단의 좌표를 기반으로 보다 상세한 분석이 이루어질 수 있기 때문에, 로봇 팔(23)의 운동 동작과 사용자의 운동 동작에 대한 분석 결과를 비교 처리하여 수치화된 일치율을 파악하는 것이 보다 간편한 비교를 수행할 수 있다.In the case of the robot arm 23, since more detailed analysis can be performed based on the rotation angle of the joint or the coordinates of the end in driving, the result of analysis of the motion motion of the robot arm 23 and the motion motion of the user is compared and processed. It is possible to perform a simpler comparison by identifying the digitized concordance rate.

즉 각각의 조인트/관절의 회전각, 나아가 말단의 좌표 등을 비교 처리하여 동작의 일치율을 비교하는 것이며, 이때 일치율은 바람직하게 100%를 만점으로 하여 수치화된 점수로 나타날 수 있다. 즉 일치율이 80%, 90%, 100% 등으로 나타날 수 있는 것이며, 로봇 팔(23)의 운동 동작, 다시 말해 운동 영상의 운동 동작과 사용자의 운동 동작이 완벽하게 일치할수록 100%에 가까운 일치율을 나타낼 수 있다.That is, the rotation angle of each joint/joint, furthermore, the coordinates of the extremity are compared and processed to compare the motion agreement rate. In this case, the agreement rate may be expressed as a digitized score, preferably with 100% being the perfect score. That is, the matching rate may be 80%, 90%, 100%, etc., and the motor motion of the robot arm 23, that is, the motor motion of the motion image and the user's motor motion perfectly match, the closer to 100% the coincidence rate can indicate

따라서 이와 같이 산출된 일치율을 디스플레이(21)에 출력 처리하여, 사용자가 제공된 운동 영상과 비교했을 때 얼마나 정확하게 운동을 수행하고 있는지를 파악하도록 함과 동시에, 일치율이 기 설정된 기준치(예를 들어 85%) 이상을 나타낼 경우에만 다른 운동 영상을 출력하도록 하여, 사용자로 하여금 정확한 동작으로 운동을 수행할 수 있도록 하는 가이드를 제공할 수 있다.Therefore, the match rate calculated in this way is output to the display 21 to determine how accurately the user is performing the exercise when compared with the provided exercise image, and at the same time, the match rate is a preset reference value (for example, 85%). ), it is possible to provide a guide that allows the user to perform an exercise with an accurate motion by outputting another exercise image only when an abnormality is indicated.

그러므로 본 발명의 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템에 따르면, 운동 영상을 통해 운동 동작을 안내함과 동시에 로봇 팔(23)을 통해 자세한 운동 동작을 사용자에게 보여주고, 사용자가 운동하는 장면을 촬영한 촬영 영상을 분석하여 사용자의 운동 동작과 운동 영상의 운동 동작 사이의 일치율을 분석하여 제공함으로써 사용자로 하여금 보다 정확한 동작으로 운동을 수행할 수 있도록 하는 효과를 제공한다.Therefore, according to the smart exercise system through the experiential simulator robot based on image recognition of the present invention, the exercise motion is guided through the exercise image and at the same time, the detailed exercise motion is shown to the user through the robot arm 23, and the user can exercise. It provides an effect that allows the user to perform the exercise with more accurate motion by analyzing and providing the coincidence rate between the user's exercise motion and the exercise motion of the exercise video by analyzing the captured image of the scene.

여기서 사용자의 운동 수행 시마다 촬영 영상을 입력받아 저장하게 되는데, 이러한 촬영 영상은 누적에 따라 용량이 클 수 있어 본 발명의 시스템에 별도로 구비될 수 있는 저장부의 저장 공간을 많이 차지한다는 문제점이 있다.Here, a captured image is received and stored whenever the user performs an exercise, and the captured image may have a large capacity according to accumulation, so that it occupies a large amount of storage space in a storage unit that may be separately provided in the system of the present invention.

이러한 단점을 해결하기 위하여 본 발명의 영상 입력 모듈(400)은 생촬영 영상으로부터 복수의 프레임(frame)을 생성한 후 프레임을 복수 개로 추출하여 메인 프레임으로 설정하고, 메인 프레임을 시계열적으로 편집하여 촬영 영상의 용량을 압축 처리하는 영상 압축 처리부(410) 및, 압축 처리된 촬영 영상을 저장 처리하는 영상 저장부(420)를 포함할 수 있다. In order to solve these disadvantages, the video input module 400 of the present invention generates a plurality of frames from a live video, extracts a plurality of frames, sets them as main frames, and edits the main frames time-sequentially. It may include an image compression processing unit 410 that compresses the capacity of the captured image and an image storage unit 420 that stores and processes the compressed captured image.

영상 압축 처리부(410)는 카메라(22)를 매개로 입력된 촬영 영상으로부터 복수의 프레임(frame)을 생성한 후 프레임을 복수 개 추출하여 메인 프레임을 생성하고, 생성된 메인 프레임을 다시 시계열 순으로 편집하여 용량이 압축된 촬영 영상을 생성할 수 있다. 이를 위해 영상 압축 처리부(410)는 재설정 수행 판단 파트(411)와, 프레임 생성 처리 파트(412) 및, 섹터 생성 파트(413)와, 메인 프레임 추출 파트(414)를 포함한다.The image compression processing unit 410 generates a plurality of frames from a captured image input through the camera 22, extracts a plurality of frames to generate a main frame, and then sequentially sequentially converts the generated main frames into time series. It is possible to generate a captured image whose capacity is compressed by editing. To this end, the image compression processing unit 410 includes a reset execution determination part 411, a frame generation process part 412, a sector generation part 413, and a main frame extraction part 414.

재설정 수행 판단 파트(411)는 입력된 촬영 영상의의 용량을 미리 설정된 기준값과 비교하여 촬영 영상 용량의 재설정 여부를 판단하는 것으로서, 촬영 영상의 용량이 본 발명의 시스템 관리자에 의해 미리 설정된 기준값을 초과하면 촬영 영상 용량의 재설정을 수행하는 것으로 판단하고, 기준값 이하이면 재설정을 수행하지 않는 것으로 판단한다. 더불어 저장된 촬영 영상의 누적 용량이 기준값을 초과함에 따라 촬영 영상 용량의 재설정을 수행하도록 하는 것도 가능하다.The reset execution determination part 411 compares the capacity of the input captured image with a preset reference value to determine whether to reset the captured image capacity, and the capacity of the captured image exceeds the reference value preset by the system administrator of the present invention. , it is determined that the captured image capacity is reset, and if it is less than or equal to the reference value, it is determined that the reset is not performed. In addition, it is also possible to reset the capacity of the captured image when the cumulative capacity of the stored captured image exceeds a reference value.

이때 촬영 영상 용량을 재설정하는 것으로 판단하면 후술할 프레임 생성 처리 파트(412)와 섹터 생성 파트(413), 메인 프레임 추출 파트(414)를 통해 촬영 영상의 용량을 재설정하기 위한 과정을 거친다.At this time, if it is determined that the captured image capacity is to be reset, a process for resetting the captured image capacity is performed through a frame generation processing part 412, a sector generation part 413, and a main frame extraction part 414, which will be described later.

프레임 생성 처리 파트(412)는 촬영 영상 용량의 재설정을 수행하는 것으로 판단된 경우 촬영 영상을 일정 시간 간격마다 분할하여 복수의 프레임을 생성하는 것으로서, 이때 1/10초 또는 1/100초 간격마다 촬영 영상을 분할하여 프레임을 생성할 수 있으며, 프레임을 생성하는 시간 간격은 본 발명의 시스템에서 임의로 설정하거나 시스템 관리자가 미리 설정할 수 있다.When it is determined that the capacity of the captured image is to be reset, the frame generation processing part 412 generates a plurality of frames by dividing the captured image at regular time intervals. Frames can be generated by dividing an image, and a time interval for generating frames can be arbitrarily set in the system of the present invention or set in advance by a system manager.

섹터 생성 파트(413)는 복수의 프레임을 그룹핑하여 복수 개의 섹터를 생성하는 것으로서, 예를 들어 촬영 영상으로부터 1000개의 프레임을 생성했다고 가정할 때 프레임을 10개씩 그룹핑하여 총 10개의 섹터로 분할 생성할 수 있다.The sector creation part 413 creates a plurality of sectors by grouping a plurality of frames. For example, assuming that 1000 frames are generated from a captured image, the frames are grouped by 10 to create a total of 10 sectors. can

메인 프레임 추출 파트(414)는 섹터별로 적어도 하나의 프레임을 추출하여 메인 프레임으로 설정하는 것으로서, 상술한 예시를 다시 보면 하나의 섹터 당 10개의 프레임이 포함되어있다고 가정할 때 10개 프레임 중 적어도 어느 하나를 메인 프레임으로 임의로 선정하여 추출할 수 있다. 이와 같이 각 섹터 당 메인 프레임 하나가 선정되면, 총 10개의 섹터를 포함하는 3차원 영상으로부터 10개의 메인 프레임을 추출할 수 있다. The main frame extraction part 414 extracts at least one frame for each sector and sets it as a main frame. Looking back at the above example, assuming that each sector includes 10 frames, at least one of the 10 frames is selected. One can be arbitrarily selected and extracted as the main frame. In this way, if one main frame is selected for each sector, 10 main frames can be extracted from a 3D image including a total of 10 sectors.

따라서 영상 압축 처리부(410)는 메인 프레임 추출 파트(414)에서 추출된 메인 프레임을 재편집함으로써 촬영 영상을 다시 생성하는 방법을 통해 기존의 촬영 영상보다 압축되고 용량이 적은 촬영 영상을 제작할 수 있다.Accordingly, the image compression processing unit 410 may re-edit the main frame extracted in the main frame extraction part 414 to regenerate the captured image, thereby producing a captured image that is more compressed than the existing captured image and has a smaller capacity.

이와 같이 용량이 압축된 촬영 영상은 영상 저장부(420)에 저장되도록 하여, 저장 공간을 보다 효율적으로 관리할 수 있게 된다.As such, the captured image having a compressed capacity is stored in the image storage unit 420, so that the storage space can be managed more efficiently.

옥외 또는 실내, 바람직하게는 운동 센터 내부와 같은 실내에 설치되는 시뮬레이터(2)에 있어, 실내에 구비된 별도의 조명과 같은 광원으로부터 발생한 빛이 디스플레이(21) 표면에서 반사되는 경우 빛반사에 의해 운동 영상이 사용자에게 쉽게 식별되기 어려우며 사용자로 하여금 눈부심을 느낄 수 있다.In the simulator 2 installed outdoors or indoors, preferably indoors such as inside an exercise center, when light generated from a light source such as a separate light provided indoors is reflected on the surface of the display 21, it is caused by light reflection. Motion images are difficult to be easily identified by users and may cause users to feel glare.

이를 방지하기 위해 시뮬레이터(2)의 디스플레이(21) 표면에는 반사 완화성 기능제가 코팅 처리될 수 있다. 반사 완화성 기능제는 빛반사 방지의 기능이 있는 유기폴리실라잔(Organopolysilazane)을 유효 성분으로 포함함으로써 외부 광원에 대한 빛반사를 방지하는 기능을 수행한다.To prevent this, a surface of the display 21 of the simulator 2 may be coated with an antireflection function agent. The antireflection functional agent performs a function of preventing light reflection of an external light source by including organopolysilazane having a function of preventing light reflection as an active ingredient.

여기서 반사 완화성 기능제에 포함된 유기폴리실라잔은 투명성이 높음과 동시에 코팅면에 소수성, 내수성, 세정성, 방오성을 부여하는 기능을 수행한다. 나아가 열처리에 의한 경화 시 유기폴리실라잔이 실리카로 전환되면서 실리카 피막 내부에 다수의 기공을 형성하고, 피막 내부에 형성된 기공이 굴절율 및 반사율을 낮추고 투과율을 증가시킴으로써 외부 광원에 대한 빛반사를 방지하면서도 고투명도를 보장할 수 있다.Here, the organopolysilazane included in the antireflection functional agent has high transparency and at the same time performs a function of imparting hydrophobicity, water resistance, detergency, and antifouling properties to the coated surface. Furthermore, when curing by heat treatment, organopolysilazane is converted into silica to form a number of pores inside the silica film, and the pores formed inside the film lower the refractive index and reflectance and increase the transmittance to prevent reflection of light from an external light source. High transparency can be guaranteed.

나아가 반사 완화성 기능제는 유기폴리실라잔 이외에도 추가적인 조성을 더 포함할 수 있는데, 이러한 반사 완화성 기능제는 제 1 용액을 제조하는 단계, 제 2 용액을 제조하는 단계, 반사 완화성 기능제를 완성하는 단계를 통해 제조될 수 있다.Furthermore, the reflection moderating functional agent may further include an additional composition in addition to the organopolysilazane, and the reflection moderating functional agent is prepared by preparing a first solution, preparing a second solution, and completing the reflection moderating functional agent. It can be manufactured through the steps of

제 1 용액을 제조하는 단계Preparing the first solution

가장 먼저, 유기폴리실라잔(Organo polysilazane) 5 내지 15 중량부 및, 폴리메틸메타크릴레이트(Polymethyl methacrylate) 10 내지 20 중량부 및 정제수 60 내지 80 중량부를 혼합하여 제 1 용액을 제조한다.First, a first solution is prepared by mixing 5 to 15 parts by weight of organo polysilazane, 10 to 20 parts by weight of polymethyl methacrylate, and 60 to 80 parts by weight of purified water.

유기폴리실라잔은 상술한 바와 같이 코팅면에 소수성, 내수성, 세정성, 방오성을 부여함과 동시에 굴절율 및 반사율을 낮추고 투과율을 증가시키는 기능을 수행하며, 정제수를 용매로 하여 용해된다.As described above, organopolysilazane imparts hydrophobicity, water resistance, detergency, and antifouling properties to the coating surface, lowers refractive index and reflectance, and increases transmittance, and is dissolved in purified water as a solvent.

나아가 첨가되는 폴리메틸메타크릴레이트는 투명도가 뛰어나고 굴절률이 높고 화학반응에 강한 접착제로서, 내부식성이 뛰어나다는 특성을 갖는다. 반사 완화성 첨가제에 첨가됨에 따라 디스플레이(21) 표면에 대한 접착성을 높이며 고투명성의 코팅막 생성에 기여한다.Furthermore, the added polymethyl methacrylate is an adhesive with excellent transparency, high refractive index, and strong chemical reaction, and has excellent corrosion resistance. As it is added to the antireflection additive, it increases adhesion to the surface of the display 21 and contributes to the creation of a highly transparent coating film.

제 2 용액을 제조하는 단계Preparing the second solution

이어서, 제 1 용액 90 내지 98 중량부와, 검 아라빅(gum Arabic) 0.5 내지 5 중량부와, 로진(rosin) 1 내지 3 중량부를 혼합하여 제 2 용액을 제조한다.Subsequently, a second solution is prepared by mixing 90 to 98 parts by weight of the first solution, 0.5 to 5 parts by weight of gum Arabic, and 1 to 3 parts by weight of rosin.

검 아라빅은 아카시아속(Acacia)의 수목에서 분비되는 액체를 말려 만든 고무이며, 정제수에 용이하게 용해되는 물질로서 점착성 및 점도를 증가시키고 유화안정성을 증진시키는 기능을 수행한다. 따라서 반사 완화성 기능제의 점착성을 보조함과 동시에 다양한 성분들의 혼합에 있어 유화안정성을 높이기 위해 첨가된다. 이러한 검 아라빅은 연한 담황색을 나타내나 투명한 성질을 가지므로, 코팅제의 투명성을 저해시키지 않는 특성을 갖는다.Gum arabic is a rubber made by drying liquid secreted from trees of the genus Acacia, and as a substance easily soluble in purified water, it increases tackiness and viscosity and improves emulsion stability. Therefore, it is added to enhance the emulsion stability in mixing various components while assisting the adhesiveness of the antireflection functional agent. Such gum arabic exhibits a pale yellow color but has a transparent property, so it has a property that does not impair the transparency of the coating agent.

로진은 송진을 증류하여 얻는 천연 수지로 아비에트산를 주성분으로, 네오아비에트산·레포피마르산·하이드로아비에트산·피마르산·덱스톤산 등 수지산을 함유한 것을 의미한다. 담황색 또는 갈색이며 투명하고 유리 광택이 있으며 높은 수준의 점착력을 나타낸다. 반사 완화성 기능제에 첨가 시 점착력을 높임과 동시에 형성되는 코팅막에 유리 광택을 부여한다.Rosin is a natural resin obtained by distilling rosin, which contains abietic acid as a main component and resin acids such as neoabietic acid, lepopimaric acid, hydroabietic acid, pimaric acid, and dextonic acid. It is pale yellow or brown, transparent, has a glassy luster, and exhibits a high degree of adhesion. When added to the antireflection functional agent, it increases the adhesive strength and imparts a glassy luster to the coating film formed at the same time.

반사 완화성 기능제를 완성하는 단계Steps to complete the antireflection functional agent

마지막으로, 제 2 용액 90 내지 95 중량부 및, 벤조트리아졸(Benzotriazol) 1 내지 5 중량부와, 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 및 포러스 실리카(porous silica)를 포함하는 소광성 강화 첨가제 1 내지 10 중량부를 혼합하여 반사 완화성 기능제를 완성한다.Finally, 90 to 95 parts by weight of the second solution, 1 to 5 parts by weight of benzotriazol, perfluorooctyltrethoyxysilane and porous silica. 1 to 10 parts by weight of additives are mixed to complete the antireflection functional agent.

벤조트리아졸은 무색이며 바늘 모양의 결정 구조를 가진 입상의 화합물로, UV에 대한 안정화제의 기능을 위해 첨가될 수 있다. 이러한 벤조트리아졸은 자외선의 침투를 감소 및 지연시켜 디스플레이(21)의 표면에 코팅된 코팅막이 자외선에 노출됨으로써 산화되어 품질이 저하되는 형상을 방지하는데 도움이 될 수 있다.Benzotriazole is a colorless, particulate compound with a needle-like crystal structure, which can be added to function as a stabilizer for UV. Such benzotriazole can help to reduce and delay the penetration of ultraviolet light, thereby preventing the coating film coated on the surface of the display 21 from being oxidized due to exposure to ultraviolet light, thereby reducing its quality.

마지막으로 첨가되는 소광성 강화 첨가제는 난반사를 보다 효율적으로 억제하기 위해 첨가되는데, 이러한 소광성 강화 첨가제는 기본적으로 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 및 포러스 실리카(porous silica)를 포함하는 것을 특징으로 한다.Finally, a matting-enhancing additive is added to suppress diffused reflection more efficiently. This matting-enhancing additive basically contains perfluorooctyltrethoyxysilane and porous silica. to be characterized

포러스 실리카의 경우 내부에 기공을 포함한 상태의 실리카로서, 유기폴리실라잔의 경화에 의해 생성되는 실리카와는 입자의 크기가 서로 다르므로 불규칙성을 가져 표면의 난반사 방지 효과를 강화하는 기능을 가진다.In the case of porous silica, it is a silica with pores inside, and since the size of the particles is different from that of silica produced by curing organopolysilazane, it has irregularity and has a function of enhancing the anti-reflective effect of the surface.

퍼플루오로옥틸트레톡시실란은 불소실란계 화합물로 내마모성을 향상시키고 포러스 실리카의 분산성을 높이는 기능을 수행하여, 소광성 강화 효과를 보조하는 기능을 가진다.Perfluorooctyltroxysilane is a fluorosilane-based compound that improves abrasion resistance and enhances the dispersibility of porous silica, thereby assisting the matting effect.

이와 같은 반사 완화성 기능제가 시뮬레이터(2)에 구비된 디스플레이(21) 표면에 코팅 처리됨에 따라, 디스플레이(21) 표면에 대한 소광성을 높여 외부의 조명이나 광원에 의해 발생하는 난반사를 줄여 사용자의 눈부심을 방지함과 동시에 운동 영상을 보다 선명하게 제공할 수 있도록 하며, 나아가 코팅막이 높은 수준의 부착력을 가져 쉽게 이탈되지 않음과 동시에 방오성, 발수성, 내수성을 갖도록 한 효과가 있다.As the surface of the display 21 provided in the simulator 2 is coated with such an antireflection functional agent, the light quenching property of the surface of the display 21 is increased to reduce diffuse reflection caused by external lighting or light sources, thereby improving the user's performance. At the same time as preventing glare, it is possible to provide a clearer motion image, and furthermore, the coating film has a high level of adhesion so that it is not easily separated and has antifouling, water repellency, and water resistance.

이하 실시예 및 비교예를 통해 본 발명을 상세히 설명한다. 하기 실시예는 본 발명의 실시를 위하여 예시된 것일 뿐, 본 발명의 내용이 하기 실시예에 의하여 한정되는 것은 아니다.The present invention will be described in detail through Examples and Comparative Examples below. The following examples are only exemplified for the practice of the present invention, and the content of the present invention is not limited by the following examples.

실시예는 본 발명의 유기폴리실라잔을 포함하는 코팅제 조성물인 실시예 1 내지 2로 구성되어 있고, 비교예는 종래의 코팅용 조성물이다.The examples are composed of Examples 1 and 2, which are coating compositions containing the organopolysilazane of the present invention, and comparative examples are conventional coating compositions.

표 1는 실시예 1 내지 2 및 비교예의 성분비를 나타낸 표이다. (단위: 중량%)Table 1 is a table showing component ratios of Examples 1 and 2 and Comparative Examples. (Unit: % by weight) 실시예Example 대조예control example 1One 22 유기폴리실라잔organopolysilazanes 8.98.9 8.98.9 -- 폴리메틸메타크릴레이트polymethyl methacrylate 13.413.4 13.413.4 13.413.4 정제수Purified water 67.067.0 77.777.7 77.777.7 검 아라빅sword arabic 1.91.9 -- -- 로진rosin 2.82.8 -- -- 벤조트리아졸Benzotriazole 1.01.0 -- -- 퍼플루오로옥틸트레톡시실란Perfluorooctyltrethoxysilane 2.52.5 -- -- 포러스 실리카porous silica 2.52.5 -- -- 테트라에톡시실란tetraethoxysilane -- -- 8.98.9

표 1의 성분비에 따라 각각의 성분을 혼합하여 코팅제 조성물을 제조하고, 각각의 조성물을 유리 기판에 다음과 같이 코팅하였다.Each component was mixed according to the component ratio of Table 1 to prepare a coating composition, and each composition was coated on a glass substrate as follows.

가로 15cm, 세로 15cm, 두께 1cm의 유리 기판을 준비하고 유리 기판을 세척하여 기판에 존재하는 먼지, 오일, 유기 화합물, 오염물 등을 제거하였다.A glass substrate having a width of 15 cm, a length of 15 cm, and a thickness of 1 cm was prepared, and the glass substrate was washed to remove dust, oil, organic compounds, and contaminants present on the substrate.

상기 유리 기판에 상기 실시예 1, 2 및 대조예의 코팅 조성물을 바 코팅으로 각각 도포하여 코팅막을 형성하였다.Coating compositions of Examples 1 and 2 and Control Example were applied to the glass substrate as a bar coating, respectively, to form a coating film.

코팅막을 400℃에서 10분간 저온 경화 처리하여 코팅막을 완성하였다.The coating film was completed by a low-temperature curing treatment at 400 ° C. for 10 minutes.

완성된 코팅막에 대해 다음과 같은 실험을 실시하였으며, 실험 결과는 다음과 같다.The following experiments were conducted on the completed coating film, and the results of the experiments are as follows.

[실험 1] 반사율 실험[Experiment 1] Reflectance test

분광 광도계 UV 2450에 어댑터 MPC 2200을 장착하여 380~780nm의 파장 영역에서 입사각 5°에서의 출사각 5°에 대한 경면 반사율을 측정하고, 450~650nm의 평균 반사율을 산출하였다.Specular reflectance was measured at an incident angle of 5° and an exit angle of 5° in a wavelength range of 380 to 780 nm by attaching an adapter MPC 2200 to a spectrophotometer UV 2450, and an average reflectance of 450 to 650 nm was calculated.

[실험 2] 투과율 실험[Experiment 2] Transmittance test

ASTM D 1003에 의거하여 투과율 측정기(HM-150)를 사용하여 전광성 투과율을 측정하였다.In accordance with ASTM D 1003, the total light transmittance was measured using a transmittance meter (HM-150).

[실험 3] 표면경도 실험[Experiment 3] Surface hardness test

연필경도시험기를 이용하여 500g 하중을 걸고 상기 실시예 및 비교예로부터 제조된 코팅막의 연필경도를 측정하였다. 연필은 미쯔비시 제품을 사용하고 한 연필경도 당 5회 실시하였다.Using a pencil hardness tester, a 500 g load was applied and the pencil hardness of the coating films prepared from Examples and Comparative Examples was measured. As for the pencil, a Mitsubishi product was used, and the test was performed 5 times per pencil hardness.

[실험 4] 물방울접촉각 실험[Experiment 4] Water droplet contact angle experiment

형성된 코팅막의 친수성 정도를 알아보기 위하여 기공성 실리카 막의 표면에 증류수를 떨어뜨리고 물방울접촉각을 측정하였다.In order to examine the degree of hydrophilicity of the formed coating film, distilled water was dropped on the surface of the porous silica film and the water droplet contact angle was measured.

표 2는 실험 결과를 나타낸 표이다.Table 2 is a table showing the experimental results. 실시예 1Example 1 실시예 2Example 2 비교예comparative example 반사율(%)reflectivity(%) 1.21.2 1.41.4 2.22.2 투과율(%)Transmittance (%) 95.495.4 95.895.8 90.490.4 표면경도surface hardness 7H7H 6H6H 4H4H 물방울접촉각(°)Water droplet contact angle (°) 1414 1717 2424

상술한 표 2에 나타난 바와 같이, 본 발명의 실시예 1 내지 2의 반사 완화성 기능제를 포함하는 코팅제 조성물은 비교예의 코팅제 조성물에 비해 반사율이 낮고 투과율이 높으며, 표면경도 및 물방울접촉각에 있어 우수한 성질을 나타내는 것을 확인할 수 있다.As shown in the above Table 2, the coating composition containing the antireflection functional agent of Examples 1 and 2 of the present invention has lower reflectance and higher transmittance than the coating composition of Comparative Example, and is excellent in surface hardness and water droplet contact angle. properties can be identified.

나아가 상술한 소광성 강화 첨가제는 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 및 포러스 실리카(porous silica) 외에도 추가적인 조성을 더 포함할 수 있는데, 이러한 소광성 강화 첨가제는 다음의 과정을 통해 제조될 수 있다.Furthermore, the above-described additive for enhancing matting properties may further include an additional composition in addition to perfluorooctyltrethoyxysilane and porous silica. This additive for enhancing matting properties may be prepared through the following process. .

실리카 분산액을 제조하는 단계Preparing a Silica Dispersion

가장 먼저, 포러스 실리카(porous silica) 20 내지 40 중량부와 증류수 30 내지 50 중량부, 질산은 20 내지 40 중량부를 혼합하여 실리카 분산액을 먼저 제조한다.First, a silica dispersion is first prepared by mixing 20 to 40 parts by weight of porous silica, 30 to 50 parts by weight of distilled water, and 20 to 40 parts by weight of silver nitrate.

여기서 포러스 실리카를 이용하는 것이 표면의 불규칙성을 통한 난반사 방지 효과 및 기공을 기반으로 한 소광성 강화 효과를 극대화할 수 있어 소광성 강화 첨가제의 시작 물질로서 입자 상의 포러스 실리카를 이용하게 된다.Here, since the use of porous silica can maximize the effect of preventing irregular reflection through surface irregularities and enhancing the matting property based on pores, porous silica in the form of particles is used as a starting material for the matting property enhancing additive.

나아가 포러스 실리카를 증류수에 분산시킴과 동시에 질산은을 기반으로 은 나노입자를 제공함으로써 은 나노 입자를 기반으로 한 치밀한 피막성을 제공하게 된다. 이때 질산은의 용해를 위해 가열 및 교반 과정이 수반될 수 있으며 이에 대해서는 별다른 제한을 두지 않는다.Furthermore, by dispersing the porous silica in distilled water and simultaneously providing silver nanoparticles based on silver nitrate, dense filmability based on the silver nanoparticles is provided. At this time, a heating and stirring process may be accompanied to dissolve the silver nitrate, and there is no particular limitation on this.

은 환원액을 제조하는 단계Preparing a Silver Reduction Solution

실리카 분산액의 제조가 완료되면, 제조된 상기 실리카 분산액 10 내지 30 중량부와, N,N-다이메틸폼아마이드(N,N-dimethyl formamideanhydrous) 40 내지 60 중량부 및, 폴리비닐피롤리돈 5 내지 15 중량부를 혼합하여 은 환원액을 제조하게 된다.When the preparation of the silica dispersion is completed, 10 to 30 parts by weight of the prepared silica dispersion, 40 to 60 parts by weight of N,N-dimethylformamide, and 5 to 60 parts by weight of polyvinylpyrrolidone A silver reducing solution is prepared by mixing 15 parts by weight.

N,N-다이메틸폼아마이드는 실리카 분산액과 후술할 전구체 수용액의 매개 역할을 해줄 극성 유기용매로써 첨가되며, 질산은에 포함된 은 이온에 대한 환원제 역할을 함께 수행하여 은 이온을 은 나노 입자로 환원시키는 기능을 수행한다. 나아가 폴리비닐피롤리돈 및 실리카 분산액을 모두 혼합할 수 있는 용매로서의 기능을 겸비한다.N,N-dimethylformamide is added as a polar organic solvent that will serve as a medium between the silica dispersion and the precursor aqueous solution to be described later, and acts as a reducing agent for silver ions contained in silver nitrate to reduce silver ions to silver nanoparticles perform the function Furthermore, it functions as a solvent capable of mixing both polyvinylpyrrolidone and silica dispersion.

폴리비닐피롤리돈의 경우 반사 완화성 기능제를 매개로 생성되는 코팅막의 점착성 향상을 위해 첨가되며, 그와 동시에 N,N-다이메틸폼아마이드와 함께 은 이온에 대한 환원제 역할을 수행하여 은 나노 입자를 수득하게 하는 기능을 수행한다.In the case of polyvinylpyrrolidone, it is added to improve the adhesion of the coating film created through the reflection softening agent, and at the same time, it serves as a reducing agent for silver ions together with N,N-dimethylformamide to form silver nano It performs the function of obtaining particles.

전구체 수용액을 제조하는 단계Preparing an aqueous precursor solution

다음으로, 메틸트리메톡시실란 15 내지 35 중량부, 증류수 20 내지 40 중량부, 메탄올 30 내지 60 중량부를 혼합하여 전구체 수용액을 제조한다.Next, an aqueous precursor solution is prepared by mixing 15 to 35 parts by weight of methyltrimethoxysilane, 20 to 40 parts by weight of distilled water, and 30 to 60 parts by weight of methanol.

메틸트리메톡시실란은 소광성 강화 첨가제를 통한 코팅막 형성 효과를 높임과 동시에 광투과성을 높여 투명도를 향상하기 위해 첨가된다. 이 때 메틸트리메톡시실란의 용매로써 증류수 및 메탄올이 이용된다.Methyltrimethoxysilane is added to improve transparency by increasing light transmittance while enhancing the effect of forming a coating film through a matting enhancing additive. At this time, distilled water and methanol are used as solvents for methyltrimethoxysilane.

실리카 졸 용액을 제조하는 단계Preparing a Silica Sol Solution

은 환원액 및 전구체 수용액의 준비가 모두 완료되면, 상기 은 환원액 20 내지 60 중량부와 상기 전구체 수용액 40 내지 80 중량부를 20 내지 40℃에서 1 내지 4시간 동안 교반 처리하고 15 내지 30℃에서 160 내지 200시간 동안 유지하여 실리카 졸 용액을 제조하게 된다.When the preparation of the silver reducing solution and the aqueous precursor solution are all completed, 20 to 60 parts by weight of the silver reducing solution and 40 to 80 parts by weight of the aqueous precursor solution are stirred at 20 to 40 ° C. for 1 to 4 hours, and then heated at 15 to 30 ° C. to 200 hours to prepare a silica sol solution.

이때 제조되는 실리카 졸은 포러스 실리카에 입자상의 은 나노 입자가 혼합됨과 동시에 메틸트리메톡시실란을 통해 광학 특성이 향상된 특성을 갖는다. 나아가 교반 처리 후 15 내지 30℃에서 160 내지 200시간 동안 유지 처리가 이루어져, 이를 통해 실리카 졸이 안정화되어 화학적으로 안정한 실리카 졸 용액을 얻게 된다.At this time, the prepared silica sol has a property in which the porous silica is mixed with particulate silver nanoparticles and the optical properties are improved through methyltrimethoxysilane. Furthermore, after the stirring treatment, a maintenance treatment is performed at 15 to 30° C. for 160 to 200 hours, through which the silica sol is stabilized to obtain a chemically stable silica sol solution.

소광성 강화 첨가제를 완성하는 단계Steps to complete the matting enhancement additive

마지막으로, 상기 실리카 졸 용액 98 내지 99.5 중량부와 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 0.5 내지 2 중량부를 혼합하고 20 내지 35℃에서 1 내지 3시간 동안 유지하여 소광성 강화 첨가제를 완성하게 된다.Finally, 98 to 99.5 parts by weight of the silica sol solution and 0.5 to 2 parts by weight of perfluorooctyltrethoyxysilane are mixed and maintained at 20 to 35 ° C. for 1 to 3 hours to complete the matting enhancement additive. do.

퍼플루오로옥틸트레톡시실란는 불소실란계 화합물로써 마지막에 첨가되며, 실리카 졸 용액에 포함된 증류수 및 메탄올에 잘 용해되는 특성이 있어 소광 첨가제 내에 균일하게 혼합될 수 있다. 이 때 퍼플루오로옥틸트레톡시실란을 첨가하는 경우 내마모성이 향상되고 실리카 졸의 분산성을 더욱 높여 소광성 강화 첨가제가 혼합된 코팅 피막이 보다 치밀한 피막을 형성할 수 있도록 할 수 있다.Perfluorooctyltrethoxysilane is added last as a fluorosilane-based compound, and since it is well soluble in distilled water and methanol included in the silica sol solution, it can be uniformly mixed in the quenching additive. At this time, when perfluorooctyltroxysilane is added, the abrasion resistance is improved and the dispersibility of the silica sol is further increased so that the coating film in which the matting enhancing additive is mixed can form a more dense film.

이와 같이 제조된 소광성 강화 첨가제의 경우, 포러스 실리카가 가진 다수의 기공을 기반으로 소광성을 극대화함과 동시에 은 나노 입자를 통해 입자의 치밀도를 높여 피막강도를 높이며, 나아가 퍼플루오로옥틸트레톡시실란을 통해 내마모성이 높은, 치밀한 피막을 제공할 수 있는 효과를 제공한다.In the case of the additive for enhancing matting property prepared in this way, the matting property is maximized based on the plurality of pores of porous silica, and at the same time, the density of the particles is increased through silver nanoparticles to increase the film strength, and furthermore, the perfluorooctyl Through retoxysilane, it provides an effect capable of providing a dense film with high abrasion resistance.

지금까지 설명한 바와 같이, 본 발명에 따른 영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.As described so far, the configuration and operation of the smart exercise system through the experiential simulator robot based on image recognition according to the present invention are expressed in the above description and drawings, but this is only an example and the spirit of the present invention is not reflected in the above description. And it is not limited to the drawings, and various changes and changes are possible without departing from the technical spirit of the present invention.

1 : 메인 서버 2 : 시뮬레이터
21 : 디스플레이 22 : 카메라
23 : 로봇 팔 100 : 데이터베이스
200 : 동작 출력 모듈 300 : 로봇 구동 모듈
400 : 영상 입력 모듈 410 : 영상 압축 처리부
411 : 재설정 수행 판단 파트 412 : 프레임 생성 처리 파트
413 : 섹터 생성 파트 414 : 메인 프레임 추출 파트
420 : 영상 저장부 500 : 가이드 제공 모듈
510 : 동작 분석부 520 : 일치율 산출부
1: Main Server 2: Simulator
21: display 22: camera
23: robot arm 100: database
200: motion output module 300: robot drive module
400: video input module 410: video compression processing unit
411: reset execution determination part 412: frame generation processing part
413: sector creation part 414: main frame extraction part
420: image storage unit 500: guide providing module
510: motion analysis unit 520: coincidence rate calculation unit

Claims (7)

영상 인식 기반의 체험형 시뮬레이터 로봇을 통한 스마트 운동 시스템으로서,
운동 동작을 포함하는 운동 영상을 출력하는 디스플레이와, 상기 디스플레이의 근방에 위치한 사용자를 촬영하여 촬영 영상을 생성하는 카메라 및, 상기 운동 영상에 포함된 운동 동작에 따라 구동되는 로봇 팔을 구비한 시뮬레이터;
복수의 운동 영상을 저장한 데이터베이스와, 상기 운동 영상 중 어느 하나를 상기 디스플레이를 통해 출력하는 동작 출력 모듈 및, 상기 운동 영상의 운동 동작에 따라 상기 로봇 팔의 구동을 제어하는 로봇 구동 모듈과, 상기 사용자를 촬영한 촬영 영상을 입력받는 영상 입력 모듈과, 상기 촬영 영상을 기반으로 상기 사용자의 운동 동작을 분석하는 동작 분석부 및, 상기 운동 영상의 운동 동작과 상기 사용자의 운동 동작 사이의 일치율을 파악하여 상기 디스플레이에 출력하는 일치율 산출부를 포함하는 가이드 제공 모듈을 포함하는 메인 서버;를 포함하는 것을 특징으로 하는, 스마트 운동 시스템.
As a smart exercise system through an experiential simulator robot based on image recognition,
A simulator having a display that outputs an exercise image including an exercise motion, a camera that captures a user located near the display and generates a photographed image, and a robot arm driven according to the exercise motion included in the motion image;
A database storing a plurality of motion images, a motion output module outputting one of the motion images through the display, and a robot driving module controlling driving of the robot arm according to motion motions of the motion images; An image input module that receives a captured image of the user, a motion analyzer that analyzes the motion of the user based on the captured image, and a rate of agreement between the motion of the motion image and the motion of the user is determined. Characterized in that, the smart exercise system comprises a; main server including a guide providing module including a matching rate calculation unit for outputting to the display.
제 1항에 있어서,
상기 시뮬레이터는,
바퀴를 통해 이동 가능한 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 1,
The simulator,
Characterized in that it is movable through wheels, a smart exercise system.
제 1항에 있어서,
상기 영상 입력 모듈은,
상기 촬영 영상으로부터 복수의 프레임(frame)을 생성한 후 상기 프레임을 복수 개로 추출하여 메인 프레임으로 설정하고, 상기 메인 프레임을 시계열적으로 편집하여 상기 촬영 영상의 용량을 압축 처리하는 영상 압축 처리부 및,
압축 처리된 상기 촬영 영상을 저장하는 영상 저장부를 포함하는 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 1,
The video input module,
An image compression processing unit generating a plurality of frames from the captured image, extracting the plurality of frames, setting them as main frames, and compressing the capacity of the captured image by time-sequentially editing the main frames;
A smart exercise system comprising an image storage unit for storing the compressed image.
제 3항에 있어서,
상기 영상 압축 처리부는,
상기 촬영 영상의 용량을 기 설정된 기준값과 비교하여 상기 촬영 영상 용량의 재설정 여부를 판단하는 재설정 수행 판단 파트와,
상기 촬영 영상 용량의 재설정을 수행하는 것으로 판단된 경우 상기 촬영 영상을 일정 시간 간격마다 분할 처리하여 복수의 프레임을 생성하는 프레임 생성 처리 파트 및,
복수의 상기 프레임을 그룹핑하여 복수 개의 섹터를 생성하는 섹터 생성 파트와,
상기 섹터별로 적어도 하나의 프레임을 추출하여 복수 개의 메인 프레임으로 설정하는 메인 프레임 추출 파트를 포함하는 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 3,
The video compression processing unit,
a reset execution determining part for determining whether to reset the captured image capacity by comparing the capacity of the captured image with a preset reference value;
A frame generation processing part generating a plurality of frames by dividing the captured image at predetermined time intervals when it is determined that the capacity of the captured image is to be reset;
a sector creation part for generating a plurality of sectors by grouping a plurality of the frames;
And a main frame extraction part for extracting at least one frame for each sector and setting it as a plurality of main frames.
제 1항에 있어서,
상기 디스플레이의 표면에는,
유기폴리실라잔(Organopolysilazane)를 포함하는 반사 완화성 기능제가 코팅 처리된 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 1,
On the surface of the display,
A smart exercise system, characterized in that a reflection softening functional agent containing organopolysilazane is coated.
제 5항에 있어서,
상기 반사 완화성 기능제는,
유기폴리실라잔(Organo polysilazane) 5 내지 15 중량부 및, 폴리메틸메타크릴레이트(Polymethyl methacrylate) 10 내지 20 중량부 및 정제수 60 내지 80 중량부를 혼합하여 제 1 용액을 제조하는 단계;
상기 제 1 용액 90 내지 98 중량부와, 검 아라빅(gum Arabic) 0.5 내지 5 중량부와, 로진(rosin) 1 내지 3 중량부를 혼합하여 제 2 용액을 제조하는 단계;
상기 제 2 용액 90 내지 95 중량부 및, 벤조트리아졸(Benzotriazol) 1 내지 5 중량부와, 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 및 포러스 실리카(porous silica)를 포함하는 소광성 강화 첨가제 1 내지 10 중량부를 혼합하여 반사 완화성 기능제를 완성하는 단계;를 통해 제조되는 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 5,
The antireflective function agent,
preparing a first solution by mixing 5 to 15 parts by weight of organo polysilazane, 10 to 20 parts by weight of polymethyl methacrylate, and 60 to 80 parts by weight of purified water;
preparing a second solution by mixing 90 to 98 parts by weight of the first solution, 0.5 to 5 parts by weight of gum Arabic, and 1 to 3 parts by weight of rosin;
90 to 95 parts by weight of the second solution, 1 to 5 parts by weight of benzotriazol, perfluorooctyltrethoyxysilane and porous silica. to 10 parts by weight to complete a reflection softening functional agent; characterized in that manufactured through, a smart exercise system.
제 6항에 있어서,
상기 소광성 강화 첨가제는,
포러스 실리카(porous silica) 20 내지 40 중량부와 증류수 30 내지 50 중량부, 질산은 20 내지 40 중량부를 혼합하여 실리카 분산액을 제조하는 단계;
상기 실리카 분산액 10 내지 30 중량부와, N,N-다이메틸폼아마이드(N,N-dimethyl formamideanhydrous) 40 내지 60 중량부 및, 폴리비닐피롤리돈 5 내지 15 중량부를 혼합하여 은 환원액을 제조하는 단계;
메틸트리메톡시실란 15 내지 35 중량부, 증류수 20 내지 40 중량부, 메탄올 30 내지 60 중량부를 혼합하여 전구체 수용액을 제조하는 단계;
상기 은 환원액 20 내지 60 중량부와 상기 전구체 수용액 40 내지 80 중량부를 20 내지 40℃에서 1 내지 4시간 동안 교반 처리하고 15 내지 30℃에서 160 내지 200시간 동안 유지하여 실리카 졸 용액을 제조하는 단계;
상기 실리카 졸 용액 98 내지 99.5 중량부와 퍼플루오로옥틸트레톡시실란(perfluorooctyltrethoyxysilane) 0.5 내지 2 중량부를 혼합하고 20 내지 35℃에서 1 내지 3시간 동안 유지하여 소광성 강화 첨가제를 완성하는 단계;를 통해 제조되는 것을 특징으로 하는, 스마트 운동 시스템.
According to claim 6,
The matting property enhancing additive,
preparing a silica dispersion by mixing 20 to 40 parts by weight of porous silica, 30 to 50 parts by weight of distilled water, and 20 to 40 parts by weight of silver nitrate;
A silver reduction solution is prepared by mixing 10 to 30 parts by weight of the silica dispersion, 40 to 60 parts by weight of N,N-dimethyl formamideanhydrous, and 5 to 15 parts by weight of polyvinylpyrrolidone doing;
preparing an aqueous precursor solution by mixing 15 to 35 parts by weight of methyltrimethoxysilane, 20 to 40 parts by weight of distilled water, and 30 to 60 parts by weight of methanol;
Preparing a silica sol solution by stirring 20 to 60 parts by weight of the silver reducing solution and 40 to 80 parts by weight of the precursor aqueous solution at 20 to 40 ° C. for 1 to 4 hours and maintaining at 15 to 30 ° C. for 160 to 200 hours ;
98 to 99.5 parts by weight of the silica sol solution and 0.5 to 2 parts by weight of perfluorooctyltrethoyxysilane are mixed and maintained at 20 to 35 ° C. for 1 to 3 hours to complete a matting property enhancing additive; Characterized in that it is manufactured through, a smart exercise system.
KR1020220004793A 2022-01-12 2022-01-12 Exercise system through an image recognition-based experiential simulator robot KR102626383B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220004793A KR102626383B1 (en) 2022-01-12 2022-01-12 Exercise system through an image recognition-based experiential simulator robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220004793A KR102626383B1 (en) 2022-01-12 2022-01-12 Exercise system through an image recognition-based experiential simulator robot

Publications (3)

Publication Number Publication Date
KR20230109213A true KR20230109213A (en) 2023-07-20
KR102626383B1 KR102626383B1 (en) 2024-01-18
KR102626383B9 KR102626383B9 (en) 2024-03-15

Family

ID=87426377

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220004793A KR102626383B1 (en) 2022-01-12 2022-01-12 Exercise system through an image recognition-based experiential simulator robot

Country Status (1)

Country Link
KR (1) KR102626383B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102007432B1 (en) * 2018-05-03 2019-08-06 (주)블루어 System of 3-Dimensional Video Generation and Provision
KR20200133847A (en) * 2019-05-20 2020-12-01 엘지전자 주식회사 System for managing personal exercise and method for controlling the same
KR20200137550A (en) * 2019-05-30 2020-12-09 임광석 Manufacturing method of rgb direction arranged led display of a parts separation for preventing color distortion
US10912981B1 (en) * 2018-01-17 2021-02-09 AI Incorporated Tennis playing robotic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10912981B1 (en) * 2018-01-17 2021-02-09 AI Incorporated Tennis playing robotic device
KR102007432B1 (en) * 2018-05-03 2019-08-06 (주)블루어 System of 3-Dimensional Video Generation and Provision
KR20200133847A (en) * 2019-05-20 2020-12-01 엘지전자 주식회사 System for managing personal exercise and method for controlling the same
KR20200137550A (en) * 2019-05-30 2020-12-09 임광석 Manufacturing method of rgb direction arranged led display of a parts separation for preventing color distortion

Also Published As

Publication number Publication date
KR102626383B1 (en) 2024-01-18
KR102626383B9 (en) 2024-03-15

Similar Documents

Publication Publication Date Title
TW201843122A (en) Textured glass articles and methods of making the same
CN107358648A (en) Real-time full-automatic high quality three-dimensional facial reconstruction method based on individual facial image
CN110232727A (en) A kind of continuous posture movement assessment intelligent algorithm
CN111968203B (en) Animation driving method, device, electronic equipment and storage medium
CN110570503A (en) Method for acquiring normal vector, geometry and material of three-dimensional object based on neural network
TW201214336A (en) Method and interface of recognizing user's dynamic organ gesture and electric-using apparatus using the interface
KR102626383B1 (en) Exercise system through an image recognition-based experiential simulator robot
Raudonis et al. Discrete eye tracking for medical applications
Qin et al. Vision-based pointing estimation and evaluation in toddlers for autism screening
Xu et al. A novel method for hand posture recognition based on depth information descriptor
US20070171228A1 (en) Methods and Apparatus for Accelerated Animation Using Point Multiplication and Soft Caching
Younas et al. Finger air writing-movement reconstruction with low-cost imu sensor
CN116167426A (en) Training method of face key point positioning model and face key point positioning method
CN114461078A (en) Man-machine interaction method based on artificial intelligence
CN113496168B (en) Sign language data acquisition method, device and storage medium
Dong et al. A low-cost photorealistic CG dataset rendering pipeline for facial landmark localization
van der Pol et al. Head pose estimation for a domestic robot
Vultur et al. Navigation system in a virtual environment by gestures
CN116954383B (en) AR-based object interaction display method and system
Yu et al. An improved unscented kalman filtering combined with feature triangle for head position tracking
Zheng et al. An extended photometric stereo algorithm for recovering specular object shape and its reflectance properties
KR20240063300A (en) Smart kiosk with UI control function through gestures
Kindsvater et al. A Tabletop for the Natural Inspection of Decorative Surfaces.
Kim et al. Improving Gaze Tracking in Large Screens with Symmetric Gaze Angle Amplification and Optimization Technique
CN112149578B (en) Face skin material calculation method, device and equipment based on face three-dimensional model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]