KR102185320B1 - Apparatus for generating images for analyzing user's posture - Google Patents

Apparatus for generating images for analyzing user's posture Download PDF

Info

Publication number
KR102185320B1
KR102185320B1 KR1020180046036A KR20180046036A KR102185320B1 KR 102185320 B1 KR102185320 B1 KR 102185320B1 KR 1020180046036 A KR1020180046036 A KR 1020180046036A KR 20180046036 A KR20180046036 A KR 20180046036A KR 102185320 B1 KR102185320 B1 KR 102185320B1
Authority
KR
South Korea
Prior art keywords
image
image data
posture
user
unit
Prior art date
Application number
KR1020180046036A
Other languages
Korean (ko)
Other versions
KR20190122369A (en
Inventor
김영국
김한욱
Original Assignee
알바이오텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알바이오텍 주식회사 filed Critical 알바이오텍 주식회사
Priority to KR1020180046036A priority Critical patent/KR102185320B1/en
Publication of KR20190122369A publication Critical patent/KR20190122369A/en
Application granted granted Critical
Publication of KR102185320B1 publication Critical patent/KR102185320B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 사용자의 운동 자세 분석을 위한 이미지 생성 장치는 적어도 하나의 이미지 센서를 포함하는 이미지 센싱 장치와 연결될 수 있다. 여기에서, 사용자의 운동 자세 분석을 위한 이미지 생성 장치는, 특정 운동을 수행하는 사용자가 촬영된 이미지 데이터를 상기 이미지 센싱 장치로부터 시간 단위마다 수신하고, 기정의된 이미지 처리 프로세스에 따라 상기 수신된 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성하는 3차원 이미지 생성부; 및 상기 생성된 깊이 이미지 데이터를 기초로 상기 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하고, 상기 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 자세 이미지 생성부;를 포함한다. An image generating device for analyzing a user's exercise posture according to the present invention may be connected to an image sensing device including at least one image sensor. Here, the image generating device for analyzing the exercise posture of the user receives image data photographed by a user performing a specific exercise every time unit from the image sensing device, and the received image according to a predefined image processing process. A 3D image generator that processes the data to generate depth image data; And a posture image generation unit that generates user posture information related to the user’s exercise posture based on the generated depth image data, and generates a posture image visually expressing the generated user posture information.

Description

사용자의 운동 자세 분석을 위한 이미지 생성 장치{APPARATUS FOR GENERATING IMAGES FOR ANALYZING USER'S POSTURE}Image generating device for analyzing user's exercise posture {APPARATUS FOR GENERATING IMAGES FOR ANALYZING USER'S POSTURE}

본 발명은 사용자의 운동 자세를 교정할 수 있도록 사용자의 운동 자세를 직관적으로 표현하는 이미지를 생성할 수 있는 이미지 처리 기술에 관한 것이다.The present invention relates to an image processing technology capable of generating an image that intuitively expresses the user's exercise posture so that the user's exercise posture can be corrected.

최근, 생활 여건의 개선으로 현대인들의 여가 활동에 관한 관심이 고조되고 있으며, 특히 건강 증진을 위한 스포츠 활동에 대한 관심이 급격하게 증가하고 있다. 특히, 골프, 야구 등 타격 기구를 이용한 스포츠의 경우, 스크린 골프장, 스크린 야구장 등을 통해 가상 현실 또는 증강 현실 기술을 적용한 체험형 서비스 기술이 제공되고 있으며, 이에 시간 및 공간에 구애 받지 않고 즐길 수 있어 큰 인기를 끌고 있다. Recently, with the improvement of living conditions, interest in leisure activities of modern people is increasing, and in particular, interest in sports activities for health promotion is increasing rapidly. In particular, in the case of sports using hitting devices such as golf and baseball, experience-based service technology applying virtual reality or augmented reality technology is provided through screen golf courses, screen baseball fields, etc., so that you can enjoy it regardless of time and space. It is gaining great popularity.

일반적으로 골프, 야구 등 타격 기구를 이용한 스포츠의 경우, 정확한 자세를 안정적이고 반복적으로 구사하는 것이 매우 어려워, 전문가에게 강습을 받으며 자세를 교정하는 방식으로 타격 자세의 연습이 이루어지고 있다. 그러나, 전문가에게 강습을 받는 경우 비용 및 시간 측면에서 부담스러울 수 밖에 없어, 이를 해결하기 위한 다양한 기술이 제공되고 있다. In general, in the case of sports using hitting devices such as golf and baseball, it is very difficult to stably and repeatedly use the correct posture, and the practice of the batting posture is performed in a manner of correcting the posture while receiving instruction from an expert. However, in the case of taking lessons from experts, it is inevitably burdensome in terms of cost and time, and various techniques for solving this problem have been provided.

한국등록특허 제1504538호는 골프 스윙 자세 교정을 위한 운동 자세 분석 정보 생성 기술에 관한 것으로, 압력 센서 등을 이용하여 사용자의 자세를 교정하는데 참조할 수 있는 다양한 정보를 제공하는 기술에 관한 것이다. 상기 선행기술은 사용자 발의 압력 분포를 센싱하는 방식으로, 이러한 방식은 사용자 신체 전체에 대한 움직임을 정확하게 분석하기 어려운 단점이 있다. Korean Patent No. 1504538 relates to a technology for generating exercise posture analysis information for correcting a golf swing posture, and to a technology for providing various information that can be referred to correct a user's posture using a pressure sensor or the like. The prior art is a method of sensing the pressure distribution of the user's foot, and this method has a disadvantage that it is difficult to accurately analyze the movement of the entire user's body.

이러한 단점을 극복하기 위한 기술로서 사용자의 신체를 촬영한 이미지를 분석하여 자세 교정을 위한 참조 정보를 생성하는 기술이 제공 되고 있다. 이러한 기술에 한국등록특허 제1683194호와 같은 깊이 이미지(depth image) 분석을 이용한 움직임 추적 기술이 적용될 수 있다. 깊이 이미지를 생성하는 일반적인 프로세스는, 스테레오 카메라로부터 시간 단위마다 수신되는 이미지 데이터를 메모리 장치에 저장한 후, 저장된 이미지 데이터를 기초로 기정의된 알고리즘을 이용해 깊이 이미지를 생성하는 방식이다. 그러나, 이러한 종래의 기술은 중앙 처리 장치(CPU)가 과도한 연산을 수행함에 따라 실시간으로 깊이 이미지를 생성하는 것이 불가능하며, 실시간 처리가 가능하다고 하더라도 해상도에 한계가 있다. As a technique for overcoming this disadvantage, a technique for generating reference information for posture correction by analyzing an image photographed of a user's body has been provided. A motion tracking technique using depth image analysis such as Korean Patent No. 1683194 can be applied to this technique. A general process of generating a depth image is a method of storing image data received every time unit from a stereo camera in a memory device and then generating a depth image using a predefined algorithm based on the stored image data. However, in such a conventional technique, it is impossible to generate a depth image in real time as the central processing unit (CPU) performs excessive computation, and even if real-time processing is possible, there is a limit to the resolution.

현재 사용자의 움직임을 고속으로 분석하여 사용자의 운동 자세 교정을 위한 정보를 제공할 수 있는 기술은 제안된 바 없으며, 이러한 기술이 제공된다면 스포츠 관련 산업에 큰 수익을 창출할 수 있을 것으로 기대되고 있다.Currently, a technology capable of providing information for correcting a user's exercise posture by analyzing a user's movement at high speed has not been proposed, and if such a technology is provided, it is expected to generate great profits in the sports-related industry.

한국등록특허 제1504538호Korean Patent Registration No. 1504538 한국등록특허 제1683194호Korean Patent Registration No. 1683194

따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자의 운동 자세를 교정할 수 있도록 사용자의 운동 자세를 직관적으로 표현하는 이미지를 생성할 수 있는, 사용자의 운동 자세 분석을 위한 이미지 생성 장치를 제공하고자 한다. Accordingly, the present invention has been devised to solve the above-described problem, and generates an image for analyzing the user's exercise posture, which can create an image that intuitively expresses the user's exercise posture to correct the user's exercise posture I want to provide a device.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예들을 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through preferred embodiments described below.

본 발명의 일 측면에 따르면, 사용자의 운동 자세 분석을 위한 이미지 생성 장치는 적어도 하나의 이미지 센서를 포함하는 이미지 센싱 장치와 연결될 수 있다. 여기에서, 사용자의 운동 자세 분석을 위한 이미지 생성 장치는, 특정 운동을 수행하는 사용자가 촬영된 이미지 데이터를 상기 이미지 센싱 장치로부터 시간 단위마다 수신하고, 기정의된 이미지 처리 프로세스에 따라 상기 수신된 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성하는 3차원 이미지 생성부; 및 상기 생성된 깊이 이미지 데이터를 기초로 상기 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하고, 상기 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 자세 이미지 생성부;를 포함한다. According to an aspect of the present invention, an image generating device for analyzing a user's exercise posture may be connected to an image sensing device including at least one image sensor. Here, the image generating device for analyzing the exercise posture of the user receives image data photographed by a user performing a specific exercise every time unit from the image sensing device, and the received image according to a predefined image processing process. A 3D image generator that processes the data to generate depth image data; And a posture image generation unit that generates user posture information related to the user’s exercise posture based on the generated depth image data, and generates a posture image visually expressing the generated user posture information.

일 실시예에서, 상기 3차원 이미지 생성부는 각각 독립적으로 수행되는 기정의된 복수의 이미지 처리 프로세스에 따라, 상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 처리하는 데이터 처리부; 및 상기 이미지 센싱 장치로부터 수신된 이미지 데이터와 상기 복수의 이미지 처리 프로세스에 따라 처리된 복수의 이미지 데이터 각각을, 할당된 각 데이터 저장 영역에 독립적으로 저장하는 메모리부;를 포함할 수 있다. In one embodiment, the 3D image generating unit may include a data processing unit that processes image data received from the image sensing device according to a plurality of predefined image processing processes independently performed; And a memory unit for independently storing image data received from the image sensing device and a plurality of image data processed according to the plurality of image processing processes in each allocated data storage area.

일 실시예에서, 상기 데이터 처리부는 상기 수신된 이미지 데이터와 상기 처리된 복수의 이미지 데이터 각각을, 중앙 처리 장치를 경유하지 않고 상기 할당된 데이터 저장 영역에 직접 저장하는 직접 메모리 접근부를 포함할 수 있다. In one embodiment, the data processing unit may include a direct memory access unit that directly stores the received image data and each of the processed image data in the allocated data storage area without passing through a central processing unit. .

일 실시예에서, 상기 데이터 처리부는 상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 기정의된 사이즈로 압축시켜 다운 스케일 이미지 데이터를 생성하는 다운 스케일부와, 상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 기초로 엣지 이미지 데이터를 생성하는 엣지 처리부를 포함할 수 있다. In one embodiment, the data processing unit compresses image data received from the image sensing device to a predefined size to generate downscale image data, and based on the image data received from the image sensing device. It may include an edge processing unit that generates edge image data.

일 실시예에서, 상기 직접 메모리 접근부는 상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 상기 메모리부의 원본 이미지 저장 영역에, 상기 생성된 다운 스케일 이미지 데이터를 상기 메모리부의 다운 스케일 이미지 저장 영역에, 상기 생성된 엣지 이미지 데이터를 상기 메모리부의 엣지 이미지 저장 영역에, 각각 독립적으로 저장할 수 있다. In one embodiment, the direct memory access unit stores image data received from the image sensing device in an original image storage area of the memory unit, and the generated downscale image data in a downscale image storage area of the memory unit, the generated The edge image data may be independently stored in the edge image storage area of the memory unit.

일 실시예에서, 상기 이미지 센싱 장치는 시차를 가지도록 이격된 위치에 배치된 제1 및 제2 이미지 센서를 포함하여 구성되는 스테레오 카메라를 포함하며, 상기 데이터 처리부는 기정의된 이미지 처리 프로세스에 따라 상기 제1 및 제2 이미지 센서로부터 수신된 제1 및 제2 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성할 수 있다. In one embodiment, the image sensing device includes a stereo camera including first and second image sensors disposed at positions spaced apart to have parallax, and the data processing unit according to a predefined image processing process Depth image data may be generated by processing the first and second image data received from the first and second image sensors.

일 실시예에서, 상기 직접 메모리 접근부는 상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 원본 이미지 저장 영역에, 상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 기초로 생성된 제1 및 제2 다운 스케일 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 다운 스케일 이미지 저장 영역에, 상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 기초로 생성된 제1 및 제2 엣지 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 엣지 이미지 저장 영역에, 각각 독립적으로 저장할 수 있다. In one embodiment, the direct memory access unit stores the first and second image data received from the first and second image sensing devices into the first and second original image storage areas of the memory unit, respectively, and the first and second image data. 2 The first and second downscaled image data generated based on the first and second image data received from the image sensing device are respectively stored in the first and second downscaled image storage areas of the memory unit, and the first and second 2 The first and second edge image data generated based on the first and second image data received from the image sensing device may be independently stored in the first and second edge image storage areas of the memory unit, respectively.

일 실시예에서, 상기 데이터 처리부는 상기 직접 메모리 접근부로부터 상기 제1 및 제2 엣지 이미지 저장 영역에 저장된 제1 및 제2 엣지 이미지 데이터를 제공받아, 상기 제공받은 제1 및 제2 엣지 이미지 데이터를 기초로 깊이 이미지(depth image) 데이터를 생성하는 깊이 이미지 생성부를 포함할 수 있다. In one embodiment, the data processing unit receives first and second edge image data stored in the first and second edge image storage areas from the direct memory access unit, and receives the received first and second edge image data. It may include a depth image generator that generates depth image data based on.

일 실시예에서, 상기 자세 이미지 생성부는 상기 생성된 깊이 이미지 데이터에서 상기 사용자의 운동 자세와 연관된 운동 특징점을 추출하는 특징점 추출부를 포함할 수 있다. In an embodiment, the posture image generator may include a feature point extracting unit for extracting a motion feature point associated with the user's motion posture from the generated depth image data.

일 실시예에서, 상기 자세 이미지 생성부는 상기 추출된 운동 특징점의 시간에 따른 위치 변화를 기초로 상기 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하는 움직임 분석부;를 포함할 수 있다. In an embodiment, the posture image generator may include a motion analysis unit that generates user posture information related to the user’s exercise posture based on a position change of the extracted exercise feature point over time.

일 실시예에서, 상기 자세 이미지 생성부는 상기 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 이미지 처리부;를 포함할 수 있다. In one embodiment, the posture image generator may include an image processing unit that generates a posture image visually expressing the generated user posture information.

일 실시예에서, 상기 이미지 센싱 장치는 특정 운동을 수행하는 사용자를 고정된 위치에서 촬영하는 2D 카메라를 포함하며, 상기 이미지 처리부는 상기 2D 카메라로부터 수신되는 2D 이미지 데이터 및 상기 생성된 깊이 이미지 데이터 중 적어도 하나와, 상기 생성된 사용자 자세 정보를 매칭하여 상기 자세 이미지를 생성할 수 있다.In one embodiment, the image sensing device includes a 2D camera that photographs a user performing a specific exercise at a fixed position, and the image processing unit is selected from among 2D image data received from the 2D camera and the generated depth image data. The posture image may be generated by matching at least one of the generated user posture information.

본 발명은 사용자의 운동 자세를 직관적으로 표현하는 이미지를 생성하여 제공함으로써 사용자의 운동 자세를 교정하는데 활용할 수 있도록 한다. The present invention creates and provides an image that intuitively expresses the user's exercise posture, so that it can be used to correct the user's exercise posture.

또한, 본 발명은 스테레오 카메라로부터 수신된 이미지 데이터를 고속으로 병렬 처리하여 실시간으로 깊이 이미지(depth image)를 생성할 수 있으며, 이에 운동 자세 분석을 위한 이미지를 고속으로 생성하여 제공할 수 있다. In addition, according to the present invention, a depth image may be generated in real time by processing image data received from a stereo camera in parallel at high speed, thereby generating and providing an image for analyzing an exercise posture at a high speed.

도 1은 본 발명에 따른 사용자의 운동 자세 분석을 위한 이미지 생성 시스템을 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자의 운동 자세 분석을 위한 이미지 생성 시스템을 설명하기 위한 블록도이다.
도 3은 본 발명에 따른 깊이 이미지를 생성하기 위한 3차원 이미지 생성부를 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 이미지 생성부를 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 3차원 이미지 생성부의 동작을 설명하기 위한 블록도이다.
도 6은 본 발명의 다른 일 실시예에 따른 3차원 이미지 생성부의 동작을 설명하기 위한 블록도이다.
도 7은 본 발명의 일 실시예에 따른 자세 이미지를 생성하기 위한 자세 이미지 생성부를 설명하기 위한 블록도이다.
도 8 내지 10은 본 발명의 일 실시예에 따른 자세 이미지의 생성 과정을 설명하기 위한 참조도이다.
1 is a block diagram illustrating an image generation system for analyzing a user's exercise posture according to the present invention.
2 is a block diagram illustrating an image generation system for analyzing a user's exercise posture according to an embodiment of the present invention.
3 is a block diagram illustrating a 3D image generator for generating a depth image according to the present invention.
4 is a block diagram illustrating a 3D image generator according to an embodiment of the present invention.
5 is a block diagram illustrating an operation of a 3D image generator according to an embodiment of the present invention.
6 is a block diagram illustrating an operation of a 3D image generator according to another embodiment of the present invention.
7 is a block diagram illustrating a posture image generator for generating a posture image according to an embodiment of the present invention.
8 to 10 are reference diagrams for explaining a process of generating a posture image according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 사용자의 운동 자세 분석을 위한 이미지 생성 시스템(이하,이미지 생성 시스템)을 설명하기 위한 블록도이고, 도 2는 본 발명의 일 실시예에 따른 이미지 생성 시스템을 설명하기 위한 블록도이다. 1 is a block diagram illustrating an image generation system (hereinafter, an image generation system) for analyzing a user's exercise posture according to the present invention, and FIG. 2 is a block diagram illustrating an image generation system according to an embodiment of the present invention. It is a block diagram.

일 실시예에서, 사용자가 수행하는 운동은 골프 및 야구 중 적어도 하나에 해당하며, 사용자의 운동 자세는 골프 스윙 자세 및 야구 타격 자세 중 적어도 하나에 해당할 수 있다. 다만, 이는 본 발명의 권리범위를 한정하고자 하는 것은 아니며, 이하 설명되는 기술적 사상이 적용될 수 있는 운동이라면 골프 및 야구 이외의 운동이라도 무관하다.In an embodiment, the exercise performed by the user corresponds to at least one of golf and baseball, and the exercise posture of the user may correspond to at least one of a golf swing posture and a baseball batting posture. However, this is not intended to limit the scope of the present invention, and sports other than golf and baseball are irrelevant if it is an exercise to which the technical idea described below can be applied.

도 1 및 2를 참조하면, 이미지 처리 시스템(10)은 이미지 센싱 장치(100)와 사용자의 운동 자세 분석을 위한 이미지 생성 장치(200, 이하 이미지 생성 장치)를 포함한다. 1 and 2, the image processing system 10 includes an image sensing device 100 and an image generating device 200 (hereinafter, referred to as an image generating device) for analyzing a user's exercise posture.

이미지 센싱 장치(100)는 이미지를 센싱하여 이미지 데이터를 생성하는 장치로, 예를 들어 카메라 장치에 해당할 수 있다. 여기에서, 이미지 센싱 장치(100)는 복수 개의 카메라 장치를 포함하여 구성될 수 있다. The image sensing device 100 is a device that senses an image to generate image data, and may correspond to, for example, a camera device. Here, the image sensing device 100 may be configured to include a plurality of camera devices.

일 실시예에서, 스테레오 카메라(110) 및 2D 카메라(120) 중 적어도 하나를 포함하여 구성될 있다. In one embodiment, it may be configured to include at least one of the stereo camera 110 and the 2D camera 120.

일 실시예에서, 스테레오 카메라(110)는 시차를 가지도록 이격된 위치에 배치된 2개의 이미지 센서(좌, 우)를 포함하여 구성될 수 있다. In one embodiment, the stereo camera 110 may be configured to include two image sensors (left and right) disposed at spaced positions to have parallax.

일 실시예에서, 2D 카메라(120)는 스테레오 카메라보다 고해상도의 이미지를 생성할 수 있는 이미지 센서를 포함하여 구성될 수 있다. 여기에서, 2D 카메라(120)는 컬러 이미지 센서를 포함하여 구성될 수 있다. In one embodiment, the 2D camera 120 may be configured to include an image sensor capable of generating an image of higher resolution than a stereo camera. Here, the 2D camera 120 may include a color image sensor.

이미지 생성 장치(200)는 이미지 센싱 장치(100)와 연결되며 이미지 센싱 장치(100)로부터 수신되는 이미지 데이터를 처리하여 사용자의 운동 자세 분석을 위한 이미지(이하, 자세 이미지)를 생성하는 장치에 해당한다. The image generating device 200 is connected to the image sensing device 100 and corresponds to a device that processes image data received from the image sensing device 100 to generate an image (hereinafter, a posture image) for analyzing a user's exercise posture. do.

이미지 생성 장치(200)는 특정 운동을 수행하는 사용자가 촬영된 이미지 데이터를 이미지 센싱 장치(100)로부터 시간 단위마다 수신하고, 기정의된 이미지 처리 프로세스에 따라 수신된 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성하는 3차원 이미지 생성부(210)를 포함한다. The image generating device 200 receives image data captured by a user performing a specific exercise every time unit from the image sensing device 100, and processes the received image data according to a predefined image processing process to perform a depth image ( depth image) and a 3D image generator 210 that generates data.

이미지 생성 장치(200)는 3차원 이미지 생성부(210)에 의하여 생성된 깊이 이미지 데이터를 기초로 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하고, 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 자세 이미지 생성부(220)를 포함한다. The image generating device 200 generates user posture information related to the user's exercise posture based on depth image data generated by the 3D image generator 210, and a posture image visually expressing the generated user posture information It includes a posture image generator 220 that generates.

일 실시예에서, 3차원 이미지 생성부(210)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(좌, 우)를 기초로 깊이 이미지 데이터를 생성할 수 있다. In an embodiment, the 3D image generator 210 may generate depth image data based on image data (left, right) received from the stereo camera 110.

일 실시예에서, 자세 이미지 생성부(220)는 깊이 이미지 데이터를 기초로 사용자의 운동 자세와 연관된 사용자 자세 정보(예 : 스윙 플레인)를 생성하되, 2D 카메라(120)로부터 수신되는 2D 이미지 데이터 및 3차원 이미지 생성부(210)로부터 수신되는 깊이 이미지 데이터 중 적어도 하나와, 생성된 사용자 자세 정보를 매칭하여 자세 이미지를 생성할 수 있다. In one embodiment, the posture image generator 220 generates user posture information (eg, swing plane) related to the user’s exercise posture based on the depth image data, but the 2D image data received from the 2D camera 120 and At least one of the depth image data received from the 3D image generator 210 and the generated user posture information may be matched to generate a posture image.

이하에서는, 도 3 내지 도 10을 참조하여 본 발명 및 본 발명의 다양한 실시예에 따른 이미지 생성 장치의 각 구성과 각 구성의 동작에 대하여 상세하게 설명한다. Hereinafter, each component of the image generating apparatus according to the present invention and various embodiments of the present invention and operations of each component will be described in detail with reference to FIGS. 3 to 10.

우선, 도 3 내지 6을 참조하여, 본 발명의 일 실시예에 따른 깊이 이미지를 생성하는 기술에 대하여 상세하게 설명한다. 본 발명에 따른 깊이 이미지 생성 기술은 종래 기술과 비교하여 고속(실시간)으로 처리가 가능하며, 이러한 속도 측면에서의 현저한 효과는 이하 설명을 통해 명확하게 이해될 수 있을 것이다.First, a technology for generating a depth image according to an embodiment of the present invention will be described in detail with reference to FIGS. 3 to 6. The depth image generation technology according to the present invention can be processed at a high speed (real time) compared to the prior art, and a remarkable effect in terms of this speed will be clearly understood through the following description.

도 3은 본 발명에 따른 깊이 이미지를 생성하기 위한 3차원 이미지 생성부(210)를 설명하기 위한 블록도이다. 3 is a block diagram illustrating a 3D image generator 210 for generating a depth image according to the present invention.

도 3을 참조하면, 3차원 이미지 생성부(210)는 스테레오 카메라(110)와 연결되며, 스테레오 카메라(110)로부터 특정 운동을 수행하는 사용자가 촬영된 이미지 데이터를 시간 단위마다 수신할 수 있다. Referring to FIG. 3, the 3D image generator 210 is connected to the stereo camera 110 and may receive image data captured by a user performing a specific exercise from the stereo camera 110 every time unit.

3차원 이미지 생성부(210)는 이미지 센싱 장치(100)와 연결되며 이미지 센싱 장치(100)로부터 수신되는 이미지 데이터를 처리하고 저장할 수 있는 장치에 해당한다. 여기에서, 3차원 이미지 생성부(210)는 스테레오 카메라(110)로부터 수신되는 이미지 데이터를 기정의된 이미지 처리 프로세스에 따라 처리하는 데이터 처리부(310)와, 스테레오 카메라(110)로부터 수신되는 이미지 데이터(원본 이미지) 및 데이터 처리부(310)에 의하여 처리된 이미지 데이터를 저장하는 메모리부(320)를 포함하여 구성될 수 있다. The 3D image generator 210 is connected to the image sensing device 100 and corresponds to a device capable of processing and storing image data received from the image sensing device 100. Here, the 3D image generator 210 includes a data processing unit 310 that processes image data received from the stereo camera 110 according to a predefined image processing process, and image data received from the stereo camera 110. It may include a (original image) and a memory unit 320 that stores image data processed by the data processing unit 310.

일 실시예에서, 3차원 이미지 생성부(210)의 적어도 일부 구성은 FPGA(field programmable gate array)에 포함되어 형성될 수 있다. In one embodiment, at least some components of the 3D image generator 210 may be formed by being included in a field programmable gate array (FPGA).

이하에서는, 도 4 내지 도 6을 참조하여 본 발명 및 본 발명의 다양한 실시예에 따른 3차원 이미지 생성부(210)의 각 구성과 각 구성의 동작에 대하여 상세하게 설명한다. Hereinafter, each component of the 3D image generator 210 according to the present invention and various embodiments of the present invention and the operation of each component will be described in detail with reference to FIGS. 4 to 6.

도 4는 본 발명의 일 실시예에 따른 3차원 이미지 생성부(210)를 설명하기 위한 블록도이다. 4 is a block diagram illustrating a 3D image generator 210 according to an embodiment of the present invention.

도 4를 참조하면, 3차원 이미지 생성부(210)는 스테레오 카메라(110)로부터 수신되는 이미지 데이터를 기정의된 이미지 처리 프로세스에 따라 처리하는 데이터 처리부(310)와, 스테레오 카메라(110)로부터 수신되는 이미지 데이터(원본 이미지) 및 데이터 처리부(310)에 의하여 처리된 이미지 데이터를 저장하는 메모리부(320)를 포함할 수 있다. Referring to FIG. 4, the 3D image generation unit 210 processes image data received from the stereo camera 110 according to a predefined image processing process, and receives the image data from the stereo camera 110. A memory unit 320 for storing image data (original image) and image data processed by the data processing unit 310 may be included.

데이터 처리부(310)는 각각 독립적으로 수행되는 기정의된 복수의 이미지 처리 프로세스에 따라, 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 처리할 수 있다. The data processing unit 310 may process image data (original image) received from the stereo camera 110 according to a plurality of predefined image processing processes each independently performed.

일 실시예에서, 데이터 처리부(310)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)와, 처리된 복수의 이미지 데이터(예 : 다운 스케일 이미지 데이터, 엣지 이미지 데이터) 각각을, 중앙 처리 장치(CPU)를 경유하지 않고 할당된 데이터 저장 영역에 직접 저장하는 직접 메모리 접근부(311)를 포함할 수 있다. 예를 들어, 직접 메모리 접근부(311)는 DMA(direct memory access)로 구현될 수 있다. In one embodiment, the data processing unit 310 centrally processes image data (original image) received from the stereo camera 110 and a plurality of processed image data (eg, downscale image data, edge image data). It may include a direct memory access unit 311 that directly stores in the allocated data storage area without passing through the device (CPU). For example, the direct memory access unit 311 may be implemented with direct memory access (DMA).

일 실시예예서, 데이터 처리부(310)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 기정의된 사이즈로 압축시켜 다운 스케일 이미지 데이터를 생성하는 다운 스케일부(312)를 포함할 수 있다. 예를 들어, 다운 스케일부(312)는 이미지 센싱 장치(100)로부터 수신된 이미지 데이터(원본 이미지)를 1/16로 축소(예 : 1280 * 1024 의 해상도를 가지는 이미지를 320 * 256 해상도의 이미지로 축소)하여 다운 스케일 이미지 데이터를 생성할 수 있다. In one embodiment, the data processing unit 310 may include a down scale unit 312 for generating downscale image data by compressing image data (original image) received from the stereo camera 110 into a predefined size. have. For example, the down scale unit 312 reduces the image data (original image) received from the image sensing device 100 to 1/16 (for example, an image having a resolution of 1280 * 1024 is converted to an image having a resolution of 320 * 256). Downscaled image data can be generated.

일 실시예에서, 데이터 처리부(310)는 스테레오 카메라(110)로부터 수신된 이미지 데이터를 기초로 엣지 이미지 데이터를 생성하는 엣지 처리부(313)를 포함할 수 있다. 여기에서, 엣지 처리부(313)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지) 또는 다운 스케일부(312)에 의하여 생성된 다운 스케일 이미지 데이터에 엣지(egde) 추출 알고리즘(예 : sobel filter)을 적용하여 엣지 이미지 데이터를 생성할 수 있다. In an embodiment, the data processing unit 310 may include an edge processing unit 313 that generates edge image data based on image data received from the stereo camera 110. Here, the edge processing unit 313 uses an edge extraction algorithm (eg, sobel filter) on the image data (original image) received from the stereo camera 110 or the downscale image data generated by the downscale unit 312. ) Can be applied to create edge image data.

한편, 본 발명에서 엣지 이미지 데이터는 깊이 이미지(depth image)를 생성하는 과정에서 활용될 수 있는 기초 이미지 데이터(경계선을 명확하게 처리한 이미지 데이터)로서, 엣지 추출 알고리즘의 종류 및 명칭에 한정되지 않으며, 깊이 이미지 생성에 활용될 수 있는 기초 이미지 데이터라면 본 발명에 따른 엣지 이미지 데이터로 해석되어야 할 것이다. On the other hand, in the present invention, the edge image data is basic image data (image data with clearly processed boundary lines) that can be used in the process of generating a depth image, and is not limited to the type and name of the edge extraction algorithm. If it is basic image data that can be used to generate a depth image, it should be interpreted as edge image data according to the present invention.

일 실시예에서, 데이터 처리부(310)는 엣지 이미지 데이터를 기초로 깊이 이미지데이터를 생성하는 깊이 이미지 생성부(314)를 포함할 수 있다. 깊이 이미지 생성부(314)가 깊이 이미지 데이터를 생성하는 과정에 대하여는 후술한다. In an embodiment, the data processing unit 310 may include a depth image generation unit 314 that generates depth image data based on edge image data. A process of generating the depth image data by the depth image generator 314 will be described later.

메모리부(320)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)와 데이터 처리부(310)에 의하여 처리된 복수의 이미지 데이터 각각을, 할당된 각 데이터 저장 영역에 독립적으로 저장할 수 있다. The memory unit 320 may independently store image data (original image) received from the stereo camera 110 and a plurality of image data processed by the data processing unit 310 in each allocated data storage area.

일 실시예에서, 메모리부(320)는 휘발성 메모리에 해당할 수 있으며, 바람직하게는 DRAM(dynamic random access memory)에 해당할 수 있다. In one embodiment, the memory unit 320 may correspond to a volatile memory, and preferably may correspond to a dynamic random access memory (DRAM).

일 실시예에서, 메모리부(320)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 저장하는 원본 이미지 저장 영역(321)과, 다운 스케일부(312)에 의하여 생성된 다운 스케일 이미지 데이터를 저장하는 다운 스케일 이미지 저장 영역(322)과, 엣지 처리부(313)에 의하여 생성된 엣지 이미지 데이터를 저장하는 엣지 이미지 저장 영역(323)을 포함하여 구성될 수 있다. In one embodiment, the memory unit 320 includes an original image storage area 321 for storing image data (original image) received from the stereo camera 110 and a downscale image generated by the downscale unit 312. A down-scale image storage area 322 for storing data and an edge image storage area 323 for storing edge image data generated by the edge processing unit 313 may be included.

이상에서 도 4를 참조하여 본 발명의 일 실시예에 따른 3차원 이미지 생성부(210)의 각 구성을 설명하였으며, 이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 3차원 이미지 생성부(210)에 포함되는 각 구성의 동작을 설명한다. In the above, each configuration of the 3D image generation unit 210 according to an embodiment of the present invention has been described with reference to FIG. 4, and hereinafter, a 3D image generation unit according to an embodiment of the present invention with reference to FIG. 5 The operation of each component included in 210 will be described.

도 5는 본 발명의 일 실시예에 따른 3차원 이미지 생성부(210)의 동작을 설명하기 위한 블록도이다. 5 is a block diagram for explaining the operation of the 3D image generator 210 according to an embodiment of the present invention.

도 5를 참조하면, 데이터 처리부(310)는 스테레오 카메라(110)로부터 이미지 데이터를 제공받는다. Referring to FIG. 5, the data processing unit 310 receives image data from the stereo camera 110.

일 실시예에서, 직접 메모리 접근부(311)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 중앙 처리 장치를 경유하지 않고 메모리부(320)의 원본 이미지 저장 영역(321)에 직접 저장할 수 있다. In one embodiment, the direct memory access unit 311 directly transfers the image data (original image) received from the stereo camera 110 to the original image storage area 321 of the memory unit 320 without passing through the central processing unit. Can be saved.

일 실시예에서, 다운 스케일부(312)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 기정의된 사이즈로 압축시켜 다운 스케일 이미지 데이터를 생성할수 있다. 여기에서, 직접 메모리 접근부(311)는 다운 스케일부(312)에 의하여 생성된 다운 스케일 이미지 데이터를 중앙 처리 장치를 경유하지 않고 메모리부(320)의 다운 스케일 이미지 저장 영역(322)에 직접 저장할 수 있다. In an embodiment, the down-scale unit 312 may generate down-scale image data by compressing image data (original image) received from the stereo camera 110 into a predetermined size. Here, the direct memory access unit 311 directly stores the downscale image data generated by the downscale unit 312 in the downscale image storage area 322 of the memory unit 320 without passing through the central processing unit. I can.

일 실시예에서, 엣지 처리부(313)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지)를 기초로 엣지 이미지 데이터를 생성할 수 있다. 다른 일 실시예에서, 엣지 처리부(313)는 직접 메모리 접근부(311)로부터 다운 스케일 이미지 저장 영역(223)에 저장된 다운 스케일 이미지 데이터를 제공받고, 제공받은 다운 스케일 이미지 데이터를 기초로 엣지 이미지 데이터를 생성할 수 있다. 여기에서, 엣지 처리부(313)는 스테레오 카메라(110)로부터 수신된 이미지 데이터(원본 이미지) 또는 다운 스케일 이미지 데이터에 엣지(egde) 추출 알고리즘(예 : sobel filter)을 적용하여 엣지 이미지 데이터를 생성할 수 있다. 이후, 직접 메모리 접근부(311)는 엣지 처리부(313)에 의하여 생성된 엣지 이미지 데이터를 중앙 처리 장치를 경유하지 않고 메모리부(320)의 엣지 이미지 저장 영역(323)에 직접 저장할 수 있다. In an embodiment, the edge processing unit 313 may generate edge image data based on image data (original image) received from the stereo camera 110. In another embodiment, the edge processing unit 313 directly receives the downscale image data stored in the downscale image storage area 223 from the memory access unit 311, and based on the received downscale image data, the edge image data Can be created. Here, the edge processing unit 313 applies an edge extraction algorithm (eg, sobel filter) to image data (original image) or downscale image data received from the stereo camera 110 to generate edge image data. I can. Thereafter, the direct memory access unit 311 may directly store the edge image data generated by the edge processing unit 313 in the edge image storage area 323 of the memory unit 320 without passing through the central processing unit.

여기에서, 다운 스케일부(312) 및 엣지 처리부(313)은 독립적으로 동작할 수 있으며, 직접 메모리 접근부(311)는 원본 이미지 데이터, 다운 스케일 이미지 데이터 및 엣지 이미지 데이터를 동시에 메모리부(320)의 각 할당된 저장 영역에 저장할 수 있다. Here, the downscale unit 312 and the edge processing unit 313 may operate independently, and the direct memory access unit 311 simultaneously stores original image data, downscale image data, and edge image data to the memory unit 320 Can be stored in each allocated storage area.

깊이 이미지 생성부(314)는 직접 메모리 접근부(311)로부터 엣지 이미지 저장 영역(323)에 저장된 엣지 이미지 데이터를 제공받고, 제공받은 엣지 이미지 데이터를 기초로 깊이 이미지 데이터를 생성할 수 있다. 깊이 이미지 생성부(314)가 깊이 이미지 데이터를 생성하는 과정에 대하여는 후술한다.The depth image generator 314 may directly receive edge image data stored in the edge image storage area 323 from the memory access unit 311 and generate depth image data based on the received edge image data. A process of generating the depth image data by the depth image generator 314 will be described later.

이상에서 도 5를 참조하여 본 발명의 일 실시예에 따른 3차원 이미지 생성부(210)에 포함되는 각 구성의 동작을 설명하였으며, 이하에서는 도 6을 참조하여 본 발명의 바람직한 실시예에 따른 3차원 이미지 생성부(210)에 포함되는 각 구성의 동작을 설명한다. In the above, the operation of each component included in the 3D image generating unit 210 according to an embodiment of the present invention has been described with reference to FIG. 5. Hereinafter, referring to FIG. 6, the operation of each component according to a preferred embodiment of the present invention is described. The operation of each component included in the dimensional image generator 210 will be described.

도 6은 본 발명의 다른 일 실시예에 따른 3차원 이미지 생성부(210)의 동작을 설명하기 위한 블록도이다.6 is a block diagram illustrating the operation of the 3D image generator 210 according to another embodiment of the present invention.

도 6을 참조하면, 스테레오 카메라(110)는 시차를 가지도록 이격된 위치에 배치된 제1 및 제2 이미지 센서(111, 112)를 포함하여 구성될 수 있다. 여기에서, 스테레오 카메라(110)는 좌, 우 이미지 센서에 해당하는 제1 및 제2 이미지 센서(111, 112)를 포함하여 구성되는 카메라 장치에 해당할 수 있으며, 제1 및 제2 이미지 센서(111, 112)는 각각 제1 및 제2 이미지 데이터를 생성하여 데이터 처리부(310)로 제공할 수 있다. Referring to FIG. 6, the stereo camera 110 may be configured to include first and second image sensors 111 and 112 disposed at spaced positions to have parallax. Herein, the stereo camera 110 may correspond to a camera device including first and second image sensors 111 and 112 corresponding to left and right image sensors, and the first and second image sensors ( Each of 111 and 112 may generate first and second image data and provide them to the data processing unit 310.

일 실시예에서, 3차원 이미지 생성부(210)는 제1 이미지 센서(111)와 제2 이미지 센서(112)를 동기화시키기 위한 타이밍 제너레이터(미도시)를 포함할 수 있다. 여기에서, 타이밍 제너레이터는 제1 이미지 센서(111)와 제2 이미지 센서(112)에 의하여 생성되는 제1 및 제2 이미지 데이터에 시간 식별자를 포함시키도록 구성되어, 제1 및 제2 이미지 데이터가 시간에 따라 대응되어 생성(예 : n0부터 단위 시간 dn마다 n1, n2, ……, nx에 해당하는 시간 식별자를 제1 이미지 데이터(L)와 제2 이미지 데이터(R) 각각에 부여)될 수 있도록 한다. 한편, 타이밍 제너레이터는 공지의 구성이 적용될 수 있으며, 제1 이미지 센서(111)와 제2 이미지 센서(112)를 동기화시키기 위한 구성이라면 본 발명에 따른 타이밍 제너레이터에 해당하는 것으로 해석되어야 할 것이다. In an embodiment, the 3D image generator 210 may include a timing generator (not shown) for synchronizing the first image sensor 111 and the second image sensor 112. Here, the timing generator is configured to include a time identifier in the first and second image data generated by the first image sensor 111 and the second image sensor 112, so that the first and second image data are It can be generated in correspondence with time (e.g., time identifiers corresponding to n1, n2, …, nx per unit time dn from n0 are assigned to each of the first image data L and the second image data R) To be. Meanwhile, a known configuration may be applied to the timing generator, and a configuration for synchronizing the first image sensor 111 and the second image sensor 112 should be interpreted as corresponding to the timing generator according to the present invention.

일 실시예에서, 메모리부(320)는 DRAM으로 구성될 수 있다. In one embodiment, the memory unit 320 may be formed of DRAM.

데이터 처리부(310)는 제1 및 제2 이미지 센서(111, 112)로부터 각각 제1 및 제2이미지 데이터를 제공받는다. The data processing unit 310 receives first and second image data from the first and second image sensors 111 and 112, respectively.

일 실시예에서, 직접 메모리 접근부(311)는 제1 및 제2 이미지 센서(111, 112)로부터 수신된 제1 및 제2 이미지 데이터(원본 이미지)를 중앙 처리 장치를 경유하지 않고 DRAM(320)의 제1 및 제2 원본 이미지 저장 영역(321-1, 321-2) 각각에 순차적으로 저장([(L, n0), (L, n1), ……(L, nx)], [(R, n0), (R, n1), ……(R, nx)])할 수 있다. In one embodiment, the direct memory access unit 311 is configured to transmit the first and second image data (original images) received from the first and second image sensors 111 and 112 to the DRAM 320 without passing through the central processing unit. ) Sequentially stored in each of the first and second original image storage areas 321-1 and 321-2 ([(L, n0), (L, n1), ……(L, nx)], [( R, n0), (R, n1),… (R, nx)]).

일 실시예에서, 제1 및 제2 다운 스케일부(312-1, 312-2)는 제1 및 제2 이미지 센서(111, 112)로부터 수신된 제1 및 제2 이미지 데이터(원본 이미지)를 기정의된 사이즈로 압축시켜 각각 제1 및 제2 다운 스케일 이미지 데이터를 생성할수 있다. 여기에서, 직접 메모리 접근부(311)는 제1 및 제2 다운 스케일부(312-1, 312-2)에 의하여 생성된 제1 및 제2 다운 스케일 이미지 데이터를 중앙 처리 장치를 경유하지 않고 DRAM(320)의 제1 및 제2 다운 스케일 이미지 저장 영역(322-1, 322-2) 각각에 순차적으로 저장([(L, n0), (L, n1), ……(L, nx)], [(R, n0), (R, n1), ……(R, nx)])할 수 있다. In one embodiment, the first and second down-scale units 312-1 and 312-2 convert first and second image data (original images) received from the first and second image sensors 111 and 112. First and second downscale image data may be generated by compression to a predefined size, respectively. Here, the direct memory access unit 311 is a DRAM device without passing through the central processing unit for the first and second downscale image data generated by the first and second downscale units 312-1 and 312-2. Sequentially stored in each of the first and second downscaled image storage areas 322-1 and 322-2 of 320 ([(L, n0), (L, n1), ……(L, nx)]) , [(R, n0), (R, n1), ……(R, nx)]).

일 실시예에서, 제1 및 제2 엣지 처리부(213-1, 213-2)는 제1 및 제2 이미지 센서(111, 112)로부터 수신된 제1 및 제2 이미지 데이터(원본 이미지)를 기초로 각각 제1 및 제2 엣지 이미지 데이터를 생성할 수 있다. 다른 일 실시예에서, 제1 및 제2 엣지 처리부(313-1, 313-2)는 직접 메모리 접근부(311)로부터 제1 및 제2 다운 스케일 이미지 저장 영역(323-1, 323-2)에 저장된 제1 및 제2 다운 스케일 이미지 데이터를 제공받고, 제공받은 제1 및 제2 다운 스케일 이미지 데이터를 기초로 각각 제1 및 제2 엣지 이미지 데이터를 생성할 수 있다. 이후, 직접 메모리 접근부(311)는 제1 및 제2 엣지 처리부(313-1, 313-2)에 의하여 생성된 제1 및 제2 엣지 이미지 데이터를 중앙 처리 장치를 경유하지 않고 DRAM (320)의 제1 및 제2 엣지 이미지 저장 영역(323-1, 323-2) 각각에 순차적으로 저장([(L, n0), (L, n1), ……(L, nx)], [(R, n0), (R, n1), ……(R, nx)])할 수 있다. In one embodiment, the first and second edge processing units 213-1 and 213-2 are based on first and second image data (original images) received from the first and second image sensors 111 and 112. The first and second edge image data may be generated respectively. In another embodiment, the first and second edge processing units 313-1 and 313-2 are directly connected to the first and second downscale image storage areas 323-1 and 323-2 from the memory access unit 311. The first and second downscale image data stored in may be provided, and first and second edge image data may be generated based on the provided first and second downscale image data, respectively. Thereafter, the direct memory access unit 311 transmits the first and second edge image data generated by the first and second edge processing units 313-1 and 313-2 to the DRAM 320 without passing through the central processing unit. Sequentially stored in each of the first and second edge image storage areas 323-1 and 323-2 of ([(L, n0), (L, n1), ……(L, nx)], [(R , n0), (R, n1),… (R, nx)]).

여기에서, 다운 스케일부(312-1, 312-2) 및 엣지 처리부(313-1, 313-2)은 각각 독립적으로 동작할 수 있으며, 직접 메모리 접근부(311)는 제1 및 제2 원본 이미지 데이터, 제1 및 제2 다운 스케일 이미지 데이터 및 제1 및 제2 엣지 이미지 데이터를 동시에 DRAM(320)의 각 할당된 저장 영역에 저장할 수 있다. Here, the down scale units 312-1 and 312-2 and the edge processing units 313-1 and 313-2 may operate independently, respectively, and the direct memory access unit 311 is the first and second original Image data, first and second downscale image data, and first and second edge image data may be simultaneously stored in each allocated storage area of DRAM 320.

깊이 이미지 생성부(314)는 직접 메모리 접근부(311)로부터 제1 및 제2 엣지 이미지 저장 영역(323-1, 323-2)에 저장된 제1 및 제2 엣지 이미지 데이터를 제공받고, 제공받은 제1 및 제2 엣지 이미지 데이터를 기초로 깊이 이미지 데이터를 생성할 수 있다. The depth image generator 314 receives and receives the first and second edge image data stored in the first and second edge image storage areas 323-1 and 323-2 from the direct memory access unit 311, Depth image data may be generated based on the first and second edge image data.

이하에서는 본 발명에 따른 3차원 이미지 생성부(210)에서 깊이 이미지 데이터를 생성하는 과정에 대하여 보다 상세하게 설명한다. Hereinafter, a process of generating depth image data by the 3D image generator 210 according to the present invention will be described in more detail.

데이터 처리부(310)의 직접 메모리 접근부(311)는 스테레오 카메라(110)에 포함된 제1 이미지 센서(111) 및 제2 이미지 센서(112)로부터 생성된 제1 및 제2 이미지 데이터(원본 이미지)를 중앙 처리 장치를 경유하지 않고 DRAM(320)의 제1 및 제2 원본 이미지 저장 영역(321-1, 321-2) 각각에 저장할 수 있다. The direct memory access unit 311 of the data processing unit 310 includes first and second image data (original image) generated from the first image sensor 111 and the second image sensor 112 included in the stereo camera 110. ) May be stored in each of the first and second original image storage areas 321-1 and 321-2 of the DRAM 320 without passing through the central processing unit.

이와 동시에, 제1 및 제2 다운 스케일부(312-1, 312-2)는 제1 및 제2 이미지 데이터(원본 이미지)를 기정의된 사이즈로 압축시켜 각각 제1 및 제2 다운 스케일 이미지 데이터를 생성하고, 직접 메모리 접근부(311)는 제1 및 제2 다운 스케일 이미지 데이터를 중앙 처리 장치를 경유하지 않고 DRAM(320)의 제1 및 제2 다운 스케일 이미지 저장 영역(322-1, 322-2) 각각에 저장할 수 있다. 여기에서, 제1 및 제2 다운 스케일부(312-1, 312-2)는 제1 및 제2 다운 스케일 이미지 데이터에 수평 보정 알고리즘을 적용함으로써, S/W적으로 제1 및 제2 이미지 센서(111, 112)의 수평을 보정할 수 있다. At the same time, the first and second down-scale units 312-1 and 312-2 compress the first and second image data (original image) to a predefined size, respectively, to obtain first and second down-scale image data. And the direct memory access unit 311 transmits the first and second downscale image data to the first and second downscale image storage areas 322-1 and 322 of the DRAM 320 without passing through the central processing unit. -2) Can be stored in each. Here, the first and second down-scale units 312-1 and 312-2 apply a horizontal correction algorithm to the first and second down-scale image data, so that the first and second image sensors are S/W. The horizontal of (111, 112) can be corrected.

일 실시예에서, 제1 및 제2 엣지 처리부(313-1, 313-2)는 직접 메모리 접근부(311)로부터 제1 및 제2 다운 스케일 이미지 저장 영역(323-1, 323-2)에 저장된 제1 및 제2 다운 스케일 이미지 데이터를 제공받고, 제공받은 제1 및 제2 다운 스케일 이미지 데이터에 Sobel filter를 적용하여 제1 및 제2 엣지 이미지 데이터(예 : gradient image)를 생성할 수 있다. 이후, 직접 메모리 접근부(311)는 제1 및 제2 엣지 처리부(313-1, 313-2)에 의하여 생성된 제1 및 제2 엣지 이미지 데이터를 중앙 처리 장치를 경유하지 않고 DRAM (220)의 제1 및 제2 엣지 이미지 저장 영역(223-1, 223-2)에 저장할 수 있다. 다른 일 실시예에서, 제1 및 제2 엣지 처리부(313-1, 313-2)는 제1 및 제2 원본 이미지 데이터에 Sobel filter를 적용하여 제1 및 제2 엣지 이미지 데이터(예 : gradient image)를 생성할 수 있으며, 본 실시예에 따르면 제1 및 제2 다운 스케일 이미지를 이용하는 경우와 비교하여 고화질의 깊이 이미지 데이터가 생성될 수 있다. In one embodiment, the first and second edge processing units 313-1 and 313-2 are directly from the memory access unit 311 to the first and second downscale image storage areas 323-1 and 323-2. The stored first and second downscale image data may be provided, and first and second edge image data (eg, gradient images) may be generated by applying a Sobel filter to the provided first and second downscale image data. . Thereafter, the direct memory access unit 311 transmits the first and second edge image data generated by the first and second edge processing units 313-1 and 313-2 to the DRAM 220 without passing through the central processing unit. It may be stored in the first and second edge image storage areas 223-1 and 223-2 of. In another embodiment, the first and second edge processing units 313-1 and 313-2 apply a Sobel filter to the first and second original image data to provide first and second edge image data (eg, gradient image). ) Can be generated, and according to the present embodiment, high-quality depth image data can be generated compared to the case of using the first and second downscale images.

깊이 이미지 생성부(314)는 직접 메모리 접근부(311)로부터 제1 및 제2 엣지 이미지 저장 영역(323-1, 323-2)에 저장된 제1 및 제2 엣지 이미지 데이터를 제공받고, 제공받은 제1 및 제2 엣지 이미지 데이터를 기초로 깊이 이미지 데이터를 생성할 수 있다. 보다 구체적으로, 깊이 이미지 생성부(314)는 제1 및 제2 엣지 이미지 데이터(예 : gradient image)에서 블록별로 좌우 매칭되는 블록을 검출(Block Matching)하여 disparity map을 생성할 수 있으며, 이후 스테레오 카메라(110)의 baseline, Focal length 등의 값을 이용하여 깊이 이미지 데이터를 생성할 수 있다. 한편, 깊이 이미지를 생성하는 알고리즘은 본 발명의 핵심적인 구성이 아니며, 공지의 다양한 알고리즘이 적용될 수 있다. 즉, 본 발명의 핵심적인 기술적 사상은, 스테레오 카메라(110)로부터 수신되는 이미지 데이터를 독립적으로 병렬 처리하여 메모리부(320)에 저장하고 저장된 이미지를 깊이 이미지 생성에 이용할 수 있도록 하는 이미지 처리 장치의 구성이므로, 깊이 이미지를 생성하는 구체적인 알고리즘에 한정되지 않는 것으로 해석되어야 한다. The depth image generator 314 receives and receives the first and second edge image data stored in the first and second edge image storage areas 323-1 and 323-2 from the direct memory access unit 311, Depth image data may be generated based on the first and second edge image data. More specifically, the depth image generator 314 may generate a disparity map by detecting a block matching left and right for each block from the first and second edge image data (eg, gradient image). Depth image data may be generated by using values such as baseline and focal length of the camera 110. Meanwhile, the algorithm for generating the depth image is not a core configuration of the present invention, and various known algorithms can be applied. That is, the core technical idea of the present invention is of an image processing apparatus that independently processes image data received from the stereo camera 110 in parallel, stores it in the memory unit 320, and allows the stored image to be used for depth image generation. Since it is a configuration, it should be interpreted as not being limited to a specific algorithm for generating a depth image.

이상에서 설명한 본 발명에 따른 3차원 이미지 생성부(210)에 따르면, 128bit 단위로 데이터 병렬 처리가 가능하며 약 860fps 수준으로 고속 이미지 처리가 가능함에 따라, 사용자의 운동 자세 분석을 위한 자세 이미지를 고속으로 생성하여 제공할 수 있다. According to the 3D image generation unit 210 according to the present invention described above, data parallel processing is possible in units of 128 bits, and high-speed image processing is possible at a level of about 860 fps. It can be created and provided.

이상에서는 도 3 내지 6을 참조하여, 본 발명의 다양한 실시예에 따른 깊이 이미지를 생성하는 기술에 대하여 상세하게 설명하였다. 이하에서는 도 7 내지 10을 참조하여, 본 발명의 실시예에 따른 자세 이미지를 생성하는 기술에 대하여 상세하게 설명한다. In the above, a technique for generating a depth image according to various embodiments of the present invention has been described in detail with reference to FIGS. 3 to 6. Hereinafter, a technique for generating a posture image according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 to 10.

도 7은 본 발명의 일 실시예에 따른 자세 이미지를 생성하기 위한 자세 이미지 생성부(220)를 설명하기 위한 블록도이며, 도 8 내지 10은 본 발명의 일 실시예에 따른 자세 이미지의 생성 과정을 설명하기 위한 참조도(3차원 이미지 생성부에 의하여 생성된 깊이 이미지 예시이며, 도 8(A)는 n1 시점, 8(B)는 n2 시점에서의 깊이 이미지 예시임)이다. 7 is a block diagram illustrating a posture image generator 220 for generating a posture image according to an embodiment of the present invention, and FIGS. 8 to 10 are a process of generating a posture image according to an embodiment of the present invention. Is a reference diagram (an example of a depth image generated by a 3D image generator, and FIG. 8A is an example of a depth image at a viewpoint n1 and a viewpoint 8B is an n2).

도 7을 참조하면, 자세 이미지 생성부(220)는 3차원 이미지 생성부(210)에 의하여 생성된 깊이 이미지 데이터를 기초로 자세 이미지를 생성하는 장치로, 일 실시예에서, 특징점 추출부(410), 움직임 분석부(420) 및 이미지 처리부(430)를 포함하여 구성될 수 있다. Referring to FIG. 7, the posture image generating unit 220 is a device that generates a posture image based on depth image data generated by the 3D image generating unit 210. In one embodiment, the feature point extracting unit 410 ), a motion analysis unit 420, and an image processing unit 430.

일 실시예에서, 특징점 추출부(410)는 3차원 이미지 생성부(210)에 의하여 생성된 깊이 이미지 데이터에서 사용자의 운동 자세와 연관된 운동 특징점을 추출할 수 있다. 여기에서, 운동 특징점은 이미지 생성 장치의 관리자에 의하여 기정의될 수 있다. In an embodiment, the feature point extracting unit 410 may extract a motion feature point related to a user's motion posture from depth image data generated by the 3D image generator 210. Here, the motion feature point may be predefined by the manager of the image generating device.

일 실시예에서, 운동 특징점은 사용자의 머리, 어깨, 허리, 손, 무릎, 발, 타격 기구 중 적어도 하나와 연관되어 정의될 수 있다. In an embodiment, the exercise feature point may be defined in association with at least one of a user's head, shoulders, waist, hand, knee, foot, and striking device.

예를 들어, 도 8(A)를 참조하면, 특징점 추출부(410)는 3차원 이미지 생성부(210)에 의하여 생성된 깊이 이미지 데이터에서 기정의된 운동 특징점(예 : 머리, 어깨, 허리, 양손, 양무릎, 양발 및 타격 기구의 단부 등)을 추출할 수 있다. For example, referring to FIG. 8(A), the feature point extraction unit 410 is a motion feature point (e.g., head, shoulder, waist, etc.) defined in depth image data generated by the 3D image generator 210. Both hands, knees, feet, and the end of the striking device) can be extracted.

여기에서, 사용자가 착용하는 의류(모자, 상의, 하의, 신발 등) 및 타격 기구의 단부에 특정 마커가 부착되어, 특징점 추출부(410)가 깊이 이미지 데이터에서 해당 마커와 대응되는 지점을 운동 특징점으로 추출할 수 있으며, 이러한 마커가 없더라도 시간상 최초의 깊이 이미지 데이터(T=n0)에서 특정 지점을 운동 특징점으로 정의하고, 특징점 추출부(410)가 이후의 깊이 이미지 데이터(T=n1, n2, …… nx)에서 해당 지점을 추적하는 방식으로, 특정 시점의 깊이 이미지 데이터(T=nx)에서 운동 특징점을 추출할 수도 있다. 한편, 이미지 데이터에서 특징점을 추출하는 알고리즘은 공지의 다양한 알고리즘이 적용될 수 있음은 물론이며, 이미지 처리 기술 분야의 당업자라면 이상의 설명을 통해 본 발명의 기술적 사상을 명확하게 이해하고 구현할 수 있을 것이다.Here, a specific marker is attached to the end of the clothing (hat, top, bottom, shoes, etc.) worn by the user and the striking device, so that the feature point extraction unit 410 determines the point corresponding to the corresponding marker in the depth image data. Even if there is no such marker, a specific point is defined as a motion feature point in the first depth image data (T=n0) in time, and the feature point extraction unit 410 determines the depth image data (T=n1, n2, In a method of tracking a corresponding point in …… nx), motion feature points may be extracted from depth image data (T=nx) of a specific viewpoint. Meanwhile, as an algorithm for extracting feature points from image data, various known algorithms may be applied, and those skilled in the image processing technology field will be able to clearly understand and implement the technical idea of the present invention through the above description.

일 실시예에서, 움직임 분석부(420)는 특징점 추출부(410)에 의하여 추출된 운동 특징점의 시간에 따른 위치 변화를 기초로 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성할 수 있다. 여기에서, 사용자 자세 정보는 사용자의 움직임에 따른 스윙 궤적, 회전축의 위치, 회전축의 이동, 무게 중심의 위치 및 무게 중심의 이동 중 적어도 하나를 시각적으로 나타낼 수 있는 데이터에 해당할 수 있다. In an embodiment, the motion analysis unit 420 may generate user posture information related to the user’s exercise posture based on a position change of the motion feature point extracted by the feature point extractor 410 over time. Here, the user's posture information may correspond to data that can visually represent at least one of a swing trajectory according to a user's movement, a position of a rotation axis, a movement of a rotation axis, a position of a center of gravity, and a movement of the center of gravity.

도 9를 참조하여 사용자 자세 정보를 생성하는 과정의 예시를 보다 상세하게 설명한다. An example of a process of generating user posture information will be described in more detail with reference to FIG. 9.

움직임 분석부(420)는 깊이 이미지 데이터에서 운동 특징점의 시간에 따른 위치 변화를 추적할 수 있다. 예를 들어, 움직임 분석부(420)는 도 9(A)와 같이, 깊이 이미지 데이터에서 손목 및 어깨 부위로 정의된 운동 특징점의 3차원 위치 좌표를 추적하여 중심점을 기준으로 x, y, z축 별 위치 좌표 함수를 도출할 수 있다. 여기에서, 움직임 분석부(420)는 도출된 운동 특징점들의 3차원 위치 좌표 함수의 노이즈를 제거하기 위하여 노이즈 제거 필터를 적용할 수 있으며, 예를 들어, 최소 자승법 또는 RANSAC에 기초한 노이즈 제거 필터를 적용하여 도 9(B)와 같은 보정된 위치 좌표 함수를 도출할 수 있다. 이후, 움직임 분석부(420)는 보정된 위치 좌표 함수를 기초로 손목 및 어깨에 대한 운동 특징점들이 연결된 직선이 시간에 따라 이동한 평면을 도출하여 사용자 자세 정보(스윙 궤적을 나타내는 스윙 플레인)를 생성할 수 있다. 이와 동일한 방식으로 머리 중심 및 허리 중심 위치로 정의된 운동 특징점들의 3차원 위치 변화를 추적함으로써, 사용자 자세 정보(스윙 축의 위치 또는 위치 변화)를 생성할 수 있다. 한편, 깊이 이미지에서 특징점의 3차원 위치 변화를 추적하는 방식은 본 발명의 핵심적인 기술적 사상은 아니며, 최소 자승법 또는 RANSAC 이외 다양한 공지의 알고리즘이 적용될 수 있음은 물론이다. The motion analysis unit 420 may track a position change of the motion feature point over time in the depth image data. For example, as shown in FIG. 9(A), the motion analysis unit 420 tracks the three-dimensional position coordinates of the motion feature points defined as wrist and shoulder in depth image data, and the x, y, z axes based on the center point Star position coordinate function can be derived. Here, the motion analysis unit 420 may apply a noise removal filter to remove noise of the three-dimensional position coordinate function of the derived motion feature points, and, for example, apply a noise removal filter based on the least squares method or RANSAC. Thus, a corrected position coordinate function as shown in FIG. 9(B) can be derived. Thereafter, the motion analysis unit 420 derives a plane in which the straight lines connected to the movement feature points for the wrist and shoulder move over time based on the corrected position coordinate function, and generates user posture information (swing plane representing the swing trajectory). can do. In the same manner, user posture information (position or position change of the swing axis) may be generated by tracking the 3D position change of the movement feature points defined as the head center and waist center positions. On the other hand, the method of tracking the three-dimensional position change of the feature point in the depth image is not a core technical idea of the present invention, and it goes without saying that various known algorithms other than the least squares method or RANSAC may be applied.

일 실시예에서, 이미지 처리부(430)는 움직임 분석부(420)에 의하여 생성된 사용자 자세 정보를 기초로 자세 이미지를 생성할 수 있다. 여기에서, 자세 이미지는 사용자의 움직임에 따른 운동 자세를 시각적, 직관적으로 표현하는 이미지를 의미할 수 있다. In an embodiment, the image processing unit 430 may generate a posture image based on the user posture information generated by the motion analysis unit 420. Here, the posture image may refer to an image that visually and intuitively expresses an exercise posture according to a user's movement.

일 실시예에서, 이미지 처리부(430)는 3차원 이미지 생성부(210)에 의하여 생성된 깊이 이미지 데이터와, 움직임 분석부(420)에 의하여 생성된 사용자 자세 정보를 매칭하여 자세 이미지를 생성할 수 있다. 다른 일 실시예에서, 이미지 처리부(430)는 이미지 센싱 장치(100)의 2D 카메라(120)로부터 수신되는 2D 이미지 데이터와, 움직임 분석부(420)에 의하여 생성된 사용자 자세 정보를 매칭하여 자세 이미지를 생성할 수 있다. In one embodiment, the image processing unit 430 may generate a posture image by matching depth image data generated by the 3D image generating unit 210 with user posture information generated by the motion analysis unit 420. have. In another embodiment, the image processing unit 430 matches the 2D image data received from the 2D camera 120 of the image sensing device 100 with the user's posture information generated by the motion analysis unit 420 to obtain a posture image. Can be created.

예를 들어, 이미지 처리부(430)는 도 10과 같이, 사용자의 골프 스윙 자세를 직관적으로 나타내는 자세 이미지를 생성할 수 있으며, 여기에서, 이미지 처리부(430)는 특정 시점에서의 깊이 이미지에 스윙 플레인(910) 및 회전축 위치(920)를 포함하는 사용자 자세 정보를 매칭하여 자세 이미지를 생성할 수 있다. (즉, 깊이 이미지를 배경으로 하여 스윙 플레인 및 회전축 위치를 표현)For example, the image processing unit 430 may generate a posture image that intuitively represents the user's golf swing posture, as shown in FIG. 10, wherein the image processing unit 430 is a swing plane on the depth image at a specific point in time. The posture image may be generated by matching user posture information including 910 and the rotation axis position 920. (In other words, the position of the swing plane and rotation axis is expressed using the depth image as the background)

또는, 이미지 처리부(430)는 특정 시점에서의 2D 이미지에 스윙 플레인(910) 및 회전축 위치(920)를 포함하는 사용자 자세 정보를 매칭하여 자세 이미지를 생성할 수 있다. 일 실시예에서, 2D 이미지는 깊이 이미지와 비교하여 고화질의 컬러 이미지에 해당할 수 있다. (즉, 고화질 컬러 이미지를 배경으로 하여 스윙 플레인 및 회전축 위치를 표현)Alternatively, the image processing unit 430 may generate a posture image by matching user posture information including the swing plane 910 and the rotation axis position 920 with the 2D image at a specific viewpoint. In an embodiment, the 2D image may correspond to a high-quality color image compared to a depth image. (In other words, the position of the swing plane and rotation axis is expressed using a high-quality color image as the background)

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.Preferred embodiments of the present invention described above are disclosed for the purpose of illustration, and those skilled in the art who have ordinary knowledge of the present invention will be able to make various modifications, changes, additions within the spirit and scope of the present invention, such modifications, changes and The addition should be seen as falling within the scope of the following claims.

10 : 이미지 처리 시스템
100 : 이미지 센싱 장치
110 : 스테레오 카메라, 120 : 2D 카메라
111 : 제1 이미지 센서, 112 : 제2 이미지 센서
200 : 이미지 생성 장치
210 : 3차원 이미지 생성부
220 : 자세 이미지 생성부
310 : 데이터 처리부
311 : 직접 메모리 접근부
312 : 다운 스케일부
313 : 엣지 처리부
314 : 깊이 이미지 생성부
320 : 메모리부
321 : 원본 이미지 저장 영역
322 : 다운 스케일 이미지 저장 영역
323 : 엣지 이미지 저장 영역
410 : 특징점 추출부
420 : 움직임 분석부
430 : 이미지 처리부
10: image processing system
100: image sensing device
110: stereo camera, 120: 2D camera
111: first image sensor, 112: second image sensor
200: image generating device
210: 3D image generator
220: posture image generator
310: data processing unit
311: Direct memory access unit
312: down scale unit
313: edge processing unit
314: depth image generator
320: memory unit
321: Original image storage area
322: downscale image storage area
323: Edge image storage area
410: feature point extraction unit
420: motion analysis unit
430: image processing unit

Claims (12)

적어도 하나의 이미지 센서를 포함하는 이미지 센싱 장치와 연결될 수 있는, 사용자의 운동 자세 분석을 위한 이미지 생성 장치에 있어서,
특정 운동을 수행하는 사용자가 촬영된 이미지 데이터를 상기 이미지 센싱 장치로부터 시간 단위마다 수신하고, 기정의된 이미지 처리 프로세스에 따라 상기 수신된 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성하는 3차원 이미지 생성부; 및
상기 생성된 깊이 이미지 데이터를 기초로 상기 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하고, 상기 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 자세 이미지 생성부;를 포함하며,
상기 3차원 이미지 생성부는,
각각 독립적으로 수행되는 기정의된 복수의 이미지 처리 프로세스에 따라, 상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 처리하는 데이터 처리부; 및
상기 이미지 센싱 장치로부터 수신된 이미지 데이터와 상기 복수의 이미지 처리 프로세스에 따라 처리된 복수의 이미지 데이터 각각을, 할당된 각 데이터 저장 영역에 독립적으로 저장하는 메모리부;를 포함하며,
상기 데이터 처리부는,
상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 기정의된 사이즈로 압축시켜 다운 스케일 이미지 데이터를 생성하는 다운 스케일부;
상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 기초로 엣지 이미지 데이터를 생성하는 엣지 처리부; 및
상기 수신된 이미지 데이터와 상기 처리된 복수의 이미지 데이터 각각을, 중앙 처리 장치를 경유하지 않고 상기 할당된 데이터 저장 영역에 직접 저장하는 직접 메모리 접근부;를 포함하되,
상기 직접 메모리 접근부는,
상기 이미지 센싱 장치로부터 수신된 이미지 데이터를 상기 메모리부의 원본 이미지 저장 영역에,
상기 생성된 다운 스케일 이미지 데이터를 상기 메모리부의 다운 스케일 이미지 저장 영역에,
상기 생성된 엣지 이미지 데이터를 상기 메모리부의 엣지 이미지 저장 영역에,
각각 독립적으로 저장하며,
상기 3차원 이미지 생성부는 128bit 단위로 데이터를 병렬 처리하여 860fps의 속도로 이미지 처리를 수행함으로써, 사용자의 운동 자세 분석을 위한 자세 이미지를 고속으로 생성하여 사용자에게 제공할 수 있도록 하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
In the image generating device for analyzing a user's exercise posture, which can be connected to an image sensing device including at least one image sensor,
3, in which a user performing a specific exercise receives photographed image data from the image sensing device every time unit, and processes the received image data according to a predefined image processing process to generate depth image data. A dimensional image generator; And
And a posture image generator for generating user posture information related to the user’s exercise posture based on the generated depth image data, and generating a posture image visually expressing the generated user posture information, and
The 3D image generating unit,
A data processing unit that processes image data received from the image sensing device according to a plurality of predefined image processing processes each independently performed; And
And a memory unit for independently storing image data received from the image sensing device and a plurality of image data processed according to the plurality of image processing processes in each allocated data storage area; and
The data processing unit,
A down scale unit for generating down scale image data by compressing the image data received from the image sensing device into a predefined size;
An edge processing unit generating edge image data based on the image data received from the image sensing device; And
A direct memory access unit for directly storing the received image data and each of the processed image data in the allocated data storage area without passing through a central processing unit;
The direct memory access unit,
The image data received from the image sensing device is stored in an original image storage area of the memory unit,
The generated downscale image data in a downscale image storage area of the memory unit,
The generated edge image data is stored in an edge image storage area of the memory unit,
Each is stored independently,
The 3D image generator is characterized in that by performing image processing at a speed of 860 fps by parallel processing data in units of 128 bits, a posture image for analyzing a user's exercise posture can be generated and provided to the user at high speed. An image generating device for analyzing the exercise posture of a person
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 이미지 센싱 장치는 시차를 가지도록 이격된 위치에 배치된 제1 및 제2 이미지 센서를 포함하여 구성되는 스테레오 카메라를 포함하며,
상기 데이터 처리부는 기정의된 이미지 처리 프로세스에 따라 상기 제1 및 제2 이미지 센서로부터 수신된 제1 및 제2 이미지 데이터를 처리하여 깊이 이미지(depth image) 데이터를 생성하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 1,
The image sensing device includes a stereo camera including first and second image sensors disposed at positions spaced apart to have parallax,
The data processing unit processes the first and second image data received from the first and second image sensors according to a predefined image processing process to generate depth image data. An image generating device for posture analysis.
제6항에 있어서, 상기 직접 메모리 접근부는
상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 원본 이미지 저장 영역에,
상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 기초로 생성된 제1 및 제2 다운 스케일 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 다운 스케일 이미지 저장 영역에,
상기 제1 및 제2 이미지 센싱 장치로부터 수신된 제1 및 제2 이미지 데이터를 기초로 생성된 제1 및 제2 엣지 이미지 데이터를 각각 상기 메모리부의 제1 및 제2 엣지 이미지 저장 영역에,
각각 독립적으로 저장하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 6, wherein the direct memory access unit
The first and second image data received from the first and second image sensing devices are respectively stored in first and second original image storage areas of the memory unit,
First and second downscale image data generated based on the first and second image data received from the first and second image sensing devices are respectively stored in first and second downscale image storage areas of the memory unit,
First and second edge image data generated based on the first and second image data received from the first and second image sensing devices are respectively stored in the first and second edge image storage areas of the memory unit,
An image generating device for analyzing a user's exercise posture, characterized in that each independently stored.
제7항에 있어서, 상기 데이터 처리부는
상기 직접 메모리 접근부로부터 상기 제1 및 제2 엣지 이미지 저장 영역에 저장된 제1 및 제2 엣지 이미지 데이터를 제공받아, 상기 제공받은 제1 및 제2 엣지 이미지 데이터를 기초로 깊이 이미지(depth image) 데이터를 생성하는 깊이 이미지 생성부를 포함하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 7, wherein the data processing unit
Receive first and second edge image data stored in the first and second edge image storage areas from the direct memory access unit, and provide a depth image based on the received first and second edge image data An image generating apparatus for analyzing a user's exercise posture, comprising: a depth image generator that generates data.
제1항에 있어서, 상기 자세 이미지 생성부는
상기 생성된 깊이 이미지 데이터에서 상기 사용자의 운동 자세와 연관된 운동 특징점을 추출하는 특징점 추출부를 포함하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 1, wherein the posture image generator
And a feature point extracting unit for extracting motion feature points associated with the user's motion posture from the generated depth image data.
제9항에 있어서, 상기 자세 이미지 생성부는
상기 추출된 운동 특징점의 시간에 따른 위치 변화를 기초로 상기 사용자의 운동 자세와 연관된 사용자 자세 정보를 생성하는 움직임 분석부;를 포함하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 9, wherein the posture image generating unit
And a motion analysis unit that generates user posture information related to the user’s exercise posture based on a position change of the extracted exercise feature point over time.
제10항에 있어서, 상기 자세 이미지 생성부는
상기 생성된 사용자 자세 정보를 시각적으로 표현하는 자세 이미지를 생성하는 이미지 처리부;를 포함하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 10, wherein the posture image generator
And an image processing unit for generating a posture image visually expressing the generated user posture information.
제11항에 있어서,
상기 이미지 센싱 장치는 특정 운동을 수행하는 사용자를 고정된 위치에서 촬영하는 2D 카메라를 포함하며,
상기 이미지 처리부는 상기 2D 카메라로부터 수신되는 2D 이미지 데이터 및 상기 생성된 깊이 이미지 데이터 중 적어도 하나와, 상기 생성된 사용자 자세 정보를 매칭하여 상기 자세 이미지를 생성하는 것을 특징으로 하는 사용자의 운동 자세 분석을 위한 이미지 생성 장치.
The method of claim 11,
The image sensing device includes a 2D camera for photographing a user performing a specific exercise at a fixed position,
The image processing unit generates the posture image by matching at least one of the 2D image data received from the 2D camera and the generated depth image data with the generated user posture information to analyze the user’s exercise posture. Device for generating images.
KR1020180046036A 2018-04-20 2018-04-20 Apparatus for generating images for analyzing user's posture KR102185320B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180046036A KR102185320B1 (en) 2018-04-20 2018-04-20 Apparatus for generating images for analyzing user's posture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046036A KR102185320B1 (en) 2018-04-20 2018-04-20 Apparatus for generating images for analyzing user's posture

Publications (2)

Publication Number Publication Date
KR20190122369A KR20190122369A (en) 2019-10-30
KR102185320B1 true KR102185320B1 (en) 2020-12-01

Family

ID=68463136

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046036A KR102185320B1 (en) 2018-04-20 2018-04-20 Apparatus for generating images for analyzing user's posture

Country Status (1)

Country Link
KR (1) KR102185320B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108539A (en) 2022-01-11 2023-07-18 주식회사 띵킹프렌즈 Attitude correction method based on body ratio of user

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220035456A1 (en) * 2020-07-29 2022-02-03 Teqball Holding S.À.R.L. Methods and systems for performing object detection and object/user interaction to assess user performance
KR102439549B1 (en) * 2020-09-14 2022-09-02 주식회사 골프존 Device for sensing golf swing and method for sensing impact position on club head using the same
KR102668498B1 (en) * 2023-05-31 2024-05-24 씨아이넷 주식회사 Method, apparatus and program for exercise management service based on exercise video

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090105031A (en) * 2008-04-01 2009-10-07 박찬애 Golf clinic system using image processing method and application method thereof
KR101504538B1 (en) 2014-08-12 2015-03-20 (주) 골프존 Device for analyzing athletic posture and method for generating analyzing information for athletic posture
KR101683194B1 (en) 2015-02-09 2016-12-06 선문대학교산학협력단 Paired-edge based hand tracking method using depth image
KR102272254B1 (en) * 2015-02-13 2021-07-06 삼성전자주식회사 Image generating device for generating depth map with phase detection pixel
KR20170007720A (en) * 2015-07-12 2017-01-20 정태연 Exercise measuring management system and exercise measuring management method in the system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230108539A (en) 2022-01-11 2023-07-18 주식회사 띵킹프렌즈 Attitude correction method based on body ratio of user

Also Published As

Publication number Publication date
KR20190122369A (en) 2019-10-30

Similar Documents

Publication Publication Date Title
KR102185320B1 (en) Apparatus for generating images for analyzing user's posture
CN106503671B (en) The method and apparatus for determining human face posture
KR102514697B1 (en) Apparatus and method for analyzing golf motion
CN104699247B (en) A kind of virtual reality interactive system and method based on machine vision
US9333409B2 (en) Virtual golf simulation apparatus and sensing device and method used for the same
KR101472274B1 (en) Device for sensing moving ball and method for the same
US9235753B2 (en) Extraction of skeletons from 3D maps
CN110544301A (en) Three-dimensional human body action reconstruction system, method and action training system
US10186041B2 (en) Apparatus and method for analyzing golf motion
CN109978931A (en) Method for reconstructing three-dimensional scene and equipment, storage medium
CN109145788A (en) Attitude data method for catching and system based on video
CN205581784U (en) Can mix real platform alternately based on reality scene
CN110544302A (en) Human body action reconstruction system and method based on multi-view vision and action training system
JP4938748B2 (en) Image recognition apparatus and program
Malawski et al. Recognition of action dynamics in fencing using multimodal cues
CN107016730A (en) The device that a kind of virtual reality is merged with real scene
CN110841266A (en) Auxiliary training system and method
US20220129669A1 (en) System and Method for Providing Multi-Camera 3D Body Part Labeling and Performance Metrics
JP6775669B2 (en) Information processing device
JP7497059B2 (en) IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
KR101895813B1 (en) Apparatus and method for object creation augmented reality
JP6566209B2 (en) Program and eyewear
CN115223240B (en) Motion real-time counting method and system based on dynamic time warping algorithm
KR101321022B1 (en) Computing device, method and system for embodying augmented reality
Seely et al. View invariant gait recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant