KR102028726B1 - Analysis apparatus of object motion in space and control method thereof - Google Patents

Analysis apparatus of object motion in space and control method thereof Download PDF

Info

Publication number
KR102028726B1
KR102028726B1 KR1020180003704A KR20180003704A KR102028726B1 KR 102028726 B1 KR102028726 B1 KR 102028726B1 KR 1020180003704 A KR1020180003704 A KR 1020180003704A KR 20180003704 A KR20180003704 A KR 20180003704A KR 102028726 B1 KR102028726 B1 KR 102028726B1
Authority
KR
South Korea
Prior art keywords
image
camera
angle information
plane mirror
coordinate data
Prior art date
Application number
KR1020180003704A
Other languages
Korean (ko)
Other versions
KR20190085620A (en
Inventor
김영환
김종빈
왕재엽
Original Assignee
김영환
김종빈
왕재엽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 김종빈, 왕재엽 filed Critical 김영환
Priority to KR1020180003704A priority Critical patent/KR102028726B1/en
Publication of KR20190085620A publication Critical patent/KR20190085620A/en
Application granted granted Critical
Publication of KR102028726B1 publication Critical patent/KR102028726B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

공간 내의 물체 운동 분석 장치의 제어 방법이 개시된다. 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 평면 거울에 비친 물체의 상이 화각 내에 위치하도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계, 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보를 추출하는 단계, 및 추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터를 산출하는 단계를 포함한다.Disclosed is a control method of an apparatus for analyzing an object motion in space. In the control method of the motion analysis device, an image including an object and an image of an object is simultaneously captured by a camera disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image reflected on the plane mirror are located in the field of view. Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; and three-dimensional coordinates of the object based on the extracted first and second angle information. Calculating data.

Description

공간 내의 물체 운동 분석 장치 및 그 제어 방법{ANALYSIS APPARATUS OF OBJECT MOTION IN SPACE AND CONTROL METHOD THEREOF}ANALYSIS APPARATUS OF OBJECT MOTION IN SPACE AND CONTROL METHOD THEREOF

본 발명은 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다. 보다 상세하게는, 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an apparatus for analyzing object motion in space and a control method thereof. More specifically, the present invention relates to an apparatus for analyzing object motion in a space capable of analyzing three-dimensional motion of an object and a control method thereof.

학생들이나 연구원들은 물리 관련 실험이나 연구 활동을 위해 물체의 움직임이나 운동을 분석해야 하는 경우가 많이 발생된다. 하지만 물체의 운동 중 2차원 또는 3차원 운동이 많으며, 특히 일반적으로 물체의 3차원 운동을 분석하기 위해서는 초고속카메라나 모션 캡쳐 시스템(Motion Capture System)이 필요하다.Students and researchers often need to analyze the motion or movement of objects for physics-related experiments or research activities. However, there are many two-dimensional or three-dimensional motions of an object, and in particular, in order to analyze the three-dimensional motion of an object, a high speed camera or a motion capture system is generally required.

초고속 카메라는 일반적인 카메라와는 달리 동영상을 촬영할 때 세밀한 프레임 간격으로 연속촬영이 가능하고, 촬영된 동영상을 프레임 저하 없이 매우 느린 속도로 재생할 수 있는 카메라를 나타낸다.Unlike general cameras, high speed cameras can be used for continuous shooting at fine frame intervals when shooting a video, and a camera that can play back a video at a very slow speed without deteriorating a frame.

동영상은 움직이는 이미지를 나타내고, 프레임은 움직이지 않는 이미지를 나타낸다. 동영상은 복수 개의 프레임이 빠른 속도로 넘어가면서 이미지가 움직이는 것처럼 나타난다. 동영상 프레임이란 동영상 1초가 얼마나 많은 화면으로 구성되는지 나타내는 수치로, fps로도 표시된다. 예를 들어 30fps라고 하면, 1초당 30장의 이미지가 움직이는 동영상을 나타낸다. 따라서, 동영상 프레임이 높을수록 부드럽고 선명한 동영상이 촬영될 수 있다.The video represents the moving image, and the frame represents the non-moving image. The video appears as if the image is moving as the multiple frames move at high speed. The video frame is a number that indicates how many screens a video has in one second, and is also expressed in fps. For example, 30 fps means a moving image of 30 images per second. Therefore, the higher the video frame, the softer and clearer the video can be.

일반적인 카메라가 1초 동안 24장에서 30장의 프레임을 규칙적으로 촬영한다면, 초고속 카메라는 1초에 수백 프레임, 수천 프레임 또는 수만 프레임까지도 촬영할 수 있는 카메라로 일반적인 카메라에 비해 고가의 장비에 해당된다.If a typical camera regularly shoots 24 to 30 frames in one second, a high-speed camera can capture hundreds, thousands, or even tens of thousands of frames per second, which is more expensive than a typical camera.

또한, 3차원 운동을 분석하기 위해 초고속 카메라 이외에도 모션 캡쳐 시스템이 이용된다. 모션 캡쳐 시스템은 3차원 공간상에서 물체의 움직임에 대한 위치와 방위를 측정할 수 있고, 측정된 물체의 움직임에 대한 위치와 방위를 컴퓨터가 사용할 수 있는 형태의 정보로 기록하여 물체의 3차원 운동을 분석할 수 있는 장치이다.In addition to motion cameras, motion capture systems are used to analyze three-dimensional motion. The motion capture system can measure the position and orientation of an object's movement in three-dimensional space, and record the position and orientation of the measured object's movement as information that can be used by a computer. It is a device that can be analyzed.

모션 캡쳐 시스템으로부터 얻은 정보는 모션 캡쳐 데이터라고 한다. 모션 캡쳐 시스템은 데이터를 추출하는 방법에 따라 광학식, 기계식 또는 자기식으로 나뉘어 질 수 있다.The information obtained from the motion capture system is called motion capture data. Motion capture systems can be divided into optical, mechanical or magnetic depending on how the data is extracted.

광학식의 경우에는 물체에 부착된 마크를 복수 개의 카메라가 동시에 추적하여 물체의 2차원 좌표가 추출되고, 추출된 복수 개의 2차원 좌표가 종합되면서 물체의 3차원 좌표가 추출될 수 있다. 상술한 마크는 입사한 광선을 광원으로 그대로 되돌려 보내는 재귀 반사가 가능한 마크를 나타낸다.In the case of the optical type, a plurality of cameras simultaneously track a mark attached to an object to extract two-dimensional coordinates of the object, and the extracted three-dimensional coordinates may be combined to extract the three-dimensional coordinates of the object. The above-mentioned mark represents the mark which can perform retroreflection which returns an incident light ray to a light source as it is.

기계식의 경우에는 기계에 부착된 센서에 의해 기계의 움직임이 인식되면서 3차원 좌표가 추출될 수 있다.In the mechanical type, three-dimensional coordinates can be extracted while the movement of the machine is recognized by a sensor attached to the machine.

자기식의 경우에는 자기장을 이용하여 복수 개의 카메라가 물체를 추적하고, 추적된 물체의 3차원 좌표가 추출될 수 있다.In the magnetic case, a plurality of cameras track an object using a magnetic field and three-dimensional coordinates of the tracked object may be extracted.

하지만, 모션 캡쳐 시스템의 가격은 약 천만원대에서 억대 사이에 해당되는 고가의 장비에 해당되며, 상술한 각각의 방법마다 문제점이 있다.However, the price of the motion capture system is expensive equipment corresponding to between about 10 million won to 100 million units, there is a problem for each of the above-described methods.

광학식의 경우에는 빛을 내는 광원이나, 물체를 정반사 시키는 거울과 같은 물체가 존재하는 경우 복수 개의 카메라에 의해 촬영된 물체의 좌표가 여러 개로 인식되거나 아예 인식되지 않는 문제점이 있다.In the case of the optical type, when there is an object such as a light source that emits light or a mirror that specularly reflects an object, the coordinates of an object photographed by a plurality of cameras are recognized as multiple or not recognized at all.

또한, 기계식의 경우에는 주로 사람의 움직임이 분석되므로 용도가 한정되는 문제점이 있다.In addition, in the case of the mechanical type mainly because the movement of the person is analyzed, there is a problem that the use is limited.

마지막으로, 자기식의 경우 자기장에 영향을 받는 물체인 철이 주를 이루는 쇠붙이와 같은 물체가 존재하면, 물체의 좌표 정확도가 떨어지는 문제점이 있다.Lastly, in the case of the magnetic type, if there is an object such as an iron rod, which is mainly made of iron, which is an object affected by the magnetic field, there is a problem that the coordinate accuracy of the object is lowered.

상술한 바와 같이 공간 내의 물체의 운동이 분석되기 위해서는 초고속 카메라나 모션 캡쳐 시스템과 같은 고가의 장비가 요구되는 실정이다. 하지만, 일반인들 또는 학생들은 고가의 장비를 이용하기 어려우므로, 일반인들 또는 학생들이 고가의 장비 없이 공간 내의 물체의 운동을 분석하기 어려운 문제가 있다.As described above, in order to analyze the motion of an object in a space, expensive equipment such as a high speed camera or a motion capture system is required. However, since it is difficult for ordinary people or students to use expensive equipment, it is difficult for ordinary people or students to analyze the motion of an object in a space without expensive equipment.

본 발명이 해결하려는 과제는, 일반인들 또는 학생들이 고가의 장비를 사용하는 대신 스마트폰과 같은 장치에 포함된 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법을 제공함에 있다.The object of the present invention is to solve the three-dimensional motion of the object in the space by using a camera included in a device such as a smartphone instead of using expensive equipment for the general public or students An analysis device and a control method thereof are provided.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고 기 설정된 거리만큼 이격되며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to an aspect of the present invention, there is provided a method of controlling an object motion analysis apparatus in a space, the preset method being set from the planar mirror such that an object located in front of the planar mirror and an image of the object reflected in the planar mirror are located within an angle of view. Photographing an image simultaneously comprising the object and an image of the object by a camera disposed at a position; Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein the preset position of the one camera forms a preset angle with the plane mirror and is preset. Computing the three-dimensional coordinate data spaced apart by a distance, and calculating the first linear vector from the camera toward the object based on the first angle information, the image of the camera reflected on the plane mirror and the first The second linear vector toward the object may be calculated from the image of the camera based on the two angle information, and the three-dimensional coordinate data of the object may be calculated by extracting the intersection points of the calculated first and second linear vectors. .

복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.The method may further include identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of the plurality of images.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying a three-dimensional motion trajectory of the identified object.

상기 제1 및 제2 각도 정보를 추출하는 단계는, 상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출할 수 있다.The extracting of the first and second angle information may include: dividing the image into an area including the object and an area including an image of the object, extracting the first angle information from the area including the object, and The second angle information may be extracted from an area including the image of the object.

상술한 목적을 달성하기 위한 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method of controlling an object motion analysis apparatus in a space, wherein one camera is disposed such that a concave lens and a predetermined portion overlap with each other by the object and the concave lens. Photographing an image simultaneously containing an image of the object; Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein calculating the three-dimensional coordinate data comprises: the camera based on the first angle information; Calculates a first straight line vector facing the object from the image, and calculates a second straight line vector facing the object from the image of the camera based on the image of the camera and the second angle information by the concave lens; The three-dimensional coordinate data of the object may be calculated by extracting the intersection points of the first and second linear vectors.

복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.The method may further include identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of the plurality of images.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying a three-dimensional motion trajectory of the identified object.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치 평면 거울; 상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 카메라; 및 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고, 상기 프로세서는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격될 수 있다.A plane mirror of an object motion analysis device in space according to an embodiment of the present invention for achieving the above object; A camera which is disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected by the plane mirror are located within an angle of view, and simultaneously photographs an image including the lower object and the image of the object; And a processor configured to extract first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera, wherein the processor is based on the first angle information. Calculating a first straight line vector facing the object from the camera, and calculating a second straight line vector facing the object from the image of the camera based on the image of the camera and the second angle information reflected in the planar mirror; And calculating the three-dimensional coordinate data of the object by extracting the intersection points of the calculated first and second straight vectors, and the predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced apart from a predetermined distance. Can be.

상기 프로세서는, 복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별할 수 있다.The processor may identify a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of a plurality of images.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함할 수 있다.It may further include a display for displaying a three-dimensional motion trajectory of the identified object.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 학생들과 일반인들이 고가의 장비에 비해 상대적으로 가격이 저렴한 일반적인 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있다.According to various embodiments of the present disclosure as described above, students and the general public may analyze a three-dimensional motion of an object in a space by using a general camera that is relatively inexpensive compared to expensive equipment.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
2 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to an exemplary embodiment.
3 is a view for explaining the structure of the object motion analysis apparatus in space according to an embodiment of the present invention.
4A and 4B illustrate a method of extracting angle information between an object and a camera, according to an exemplary embodiment.
5A and 5B are diagrams for describing a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.
6 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to another exemplary embodiment.
7 is a view showing the characteristics of a concave lens according to another embodiment of the present invention.
8 is a view for explaining the structure of the object motion analysis apparatus in space according to another embodiment of the present invention.
9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
FIG. 10 is a diagram for describing a method of calculating three-dimensional coordinate data of an object according to another exemplary embodiment.
11 illustrates a result of analyzing a three-dimensional motion of an object in space according to an embodiment of the present invention.
12 illustrates a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention; Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The embodiments of the present invention make the posting of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. In addition, the terms defined in the commonly used dictionaries are not ideally or excessively interpreted unless they are specifically defined clearly.

본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this specification, expressions such as “having”, “may have”, “comprises” or “may contain” refer to the presence of such features (eg, numerical, functional, operational, or component such as components). It does not exclude the presence of additional features.

도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 평면 거울(110), 카메라(120) 및 프로세서(130)을 포함한다.Referring to FIG. 1, an apparatus 100 for analyzing object motion in a space according to an embodiment of the present invention includes a plane mirror 110, a camera 120, and a processor 130.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이다. 예를 들어 공간 내의 물체 운동 분석 장치(100)는 스마트폰, 카메라가 포함된 노트북과 같은 장치로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.The object motion analysis apparatus 100 in a space according to an embodiment of the present invention includes a camera capable of capturing an image, and is an apparatus capable of analyzing the photographed image. For example, the object motion analysis apparatus 100 in a space may be implemented as a device such as a smartphone or a laptop including a camera. However, the present invention is not limited thereto, and the object motion analysis apparatus 100 in the space includes a camera capable of capturing an image, and any device may be used as long as the device is capable of analyzing the photographed image.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)의 카메라(120)는 하나만 이용될 수 있으며, 평면 거울(110) 앞에 위치된 물체와 평면 거울(110)에 비친 물체의 상이 카메라(120)의 화각 내에 위치되도록 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Only one camera 120 of the object motion analysis apparatus 100 in a space according to an embodiment of the present invention may be used, and a difference between an object positioned in front of the plane mirror 110 and an object reflected on the plane mirror 110 is different. One camera 120 may be disposed at a preset position from the planar mirror 110 to be positioned within the angle of view of 120.

하나의 카메라(120)의 기 설정된 위치는 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리로 이격되는 위치일 수 있으며, 배치된 카메라(120)는 물체와 물체의 상이 동시에 포함되도록 이미지를 촬영할 수 있다.The preset position of one camera 120 may be a position that forms a preset angle with a plane mirror and is spaced apart from the preset distance, and the arranged camera 120 may capture an image such that an object and an image of the object are simultaneously included. have.

본 발명의 일 실시 예에 따라 공간 내의 물체 운동 분석 장치(100)로 스마트 폰의 카메라(120)가 이용되는 경우 스마트 폰의 카메라(120)는 슬로우 모션 기능을 이용하여 물체와 물체의 상이 움직이는 이미지를 촬영할 수 있다.When the camera 120 of the smart phone is used as the apparatus for analyzing the motion of an object 100 in a space according to an embodiment of the present invention, the camera 120 of the smart phone uses an slow motion function to move an image of the object and the image of the object. You can shoot.

프로세서(130)는 카메라(120)에 의해 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라(120)가 이루는 제2 각도 정보를 추출할 수 있다.The processor 130 may extract first angle information between the object in the image captured by the camera 120 and the camera, and second angle information between the image of the object and the camera 120.

본 발명의 일 실시 예에 따르면, 프로세서(130)는 촬영된 이미지를 물체와 물체의 상이 구분되도록 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할할 수 있고, 물체가 포함된 영역으로부터 제1 각도 정보를 추출할 수 있고, 물체의 상이 포함된 영역으로부터 제2 각도 정보를 추출할 수 있다.According to an embodiment of the present disclosure, the processor 130 may divide the photographed image into an area including an object and an area including an image of the object so that the object and the image of the object are distinguished, and the image may be divided from the area containing the object. The first angle information may be extracted, and the second angle information may be extracted from an area including the image of the object.

또한, 본 발명의 또 다른 일 실시 예에 따른 프로세서(130)는 촬영된 이미지에서 제1 각도 정보 및 제2 각도 정보를 추출하기 위해 촬영된 이미지의 색상, 채도, 명도(HSV)를 변환시킬 수 있다. 프로세서(130)가 촬영된 이미지의 HSV를 변환하는 방법에는 이진 이미지(binary image)로 변환하는 방법이 포함될 수 있다. 단, 상술한 이진 이미지로 변환하는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, the processor 130 according to another embodiment of the present invention may convert the hue, saturation, and brightness (HSV) of the captured image to extract the first angle information and the second angle information from the captured image. have. The method for converting the HSV of the captured image by the processor 130 may include a method of converting the image into a binary image. However, the above-described method of converting to a binary image is only an example for describing an embodiment of the present invention and is not limited thereto.

이진 이미지는 임계 값을 기준으로 흑과 백으로만 나타낸 영상을 나타낸다. 본 발명의 일 실시 예에 따라 프로세서(130)는 기 설정된 임계 값을 기준으로 물체 및 물체의 상만 백으로 변환시킬 수 있고, 나머지 배경은 흑으로 변환시킬 수 있다. 단, 상술한 예시는 본원 발명의 일 실시 예를 설명하기 위한 예시일 뿐, 프로세서(130)는 물체 및 물체의 상만 흑으로, 나머지 배경은 백으로도 변환시킬 수 있다. 따라서, 프로세서(130)가 촬영된 이미지를 이진 이미지로 변환시키는 경우 물체 및 물체의 상의 구별이 보다 쉽게 될 수 있으며, 프로세서(130)는 이진 이미지에서 제1 각도 정보 및 제2 각도 정보를 기존에 촬영된 이미지에서 보다 정확하게 추출 할 수 있다.The binary image represents an image shown only in black and white based on the threshold value. According to an embodiment of the present disclosure, the processor 130 may convert only the object and the image of the object to white on the basis of a preset threshold value, and convert the remaining background to black. However, the above-described example is merely an example for describing an embodiment of the present invention, and the processor 130 may convert only the object and the image of the object into black, and the other background into white. Therefore, when the processor 130 converts the photographed image into a binary image, it is easier to distinguish between an object and an image of the object, and the processor 130 may include the first angle information and the second angle information in the binary image. You can extract more accurately from the captured image.

프로세서(130)는 추출된 제1 각도 정보에 기초하여 카메라(120)로부터 물체를 향하는 제1 직선 벡터를 산출할 수 있고, 평면 거울(110)에 비친 카메라의 상 및 추출된 제2 각도 정보에 기초하여 카메라(120)의 상으로부터 물체를 향하는 제2 직선 벡터를 산출할 수 있다. 프로세서(130)는 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 물체의 3차원 좌표 데이터를 산출할 수 있다.The processor 130 may calculate a first straight line vector from the camera 120 toward the object based on the extracted first angle information, and may extract the image of the camera reflected on the plane mirror 110 and the extracted second angle information. Based on the image of the camera 120, a second straight line vector toward the object may be calculated. The processor 130 may calculate three-dimensional coordinate data of the object by extracting the intersection points of the calculated first and second linear vectors.

물체의 3차원 데이터를 산출하는 구체적인 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A detailed method of calculating three-dimensional data of an object will be described later with reference to FIGS. 3 to 5B.

일반적으로 움직이는 이미지는 동영상(Streaming Video)을 나타내고, 움직이지 않는 이미지인 정지된 화면은 동영상과 구별되도록 프레임(frame)으로 나타낸다. 따라서, 동영상과 같이 움직이는 이미지는 복수 개의 정지된 화면인 프레임이 빠른 속도로 넘겨지면서 나타나는 이미지를 나타낸다.In general, a moving image represents a streaming video, and a still image, which is a non-moving image, is represented by a frame so as to be distinguished from the video. Therefore, an image moving like a video represents an image that appears while the frames, which are a plurality of still images, are turned over at a high speed.

본 발명의 일 실시 예에 따른 이미지는 움직이지 않는 이미지인 프레임을 나타내며, 동영상의 경우 움직이는 이미지로 설명하도록 한다.An image according to an embodiment of the present invention represents a frame that is a non-moving image, and in the case of a video, it is described as a moving image.

따라서, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 이미지인 동영상인 경우 프로세서(130)는 촬영된 동영상을 복수 개의 이미지로 분할할 수 있고, 프로세서(130)는 복수 개의 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있으며, 복수 개의 이미지 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동을 식별할 수 있다.Therefore, when the captured image is a moving image of an object according to an embodiment of the present invention, the processor 130 may divide the captured video into a plurality of images, and the processor 130 may determine an object from the plurality of images. The three-dimensional coordinate data of may be calculated, and the three-dimensional motion of the object may be identified based on the three-dimensional coordinate data of the object calculated from each of the plurality of images.

또한, 본 발명의 일 실시 예에 다른 공간 내의 물체 운동 분석 장치(100)는 프로세서(130)에 의해 식별된 물체의 3차원 운동 궤적을 디스플레이할 수 있는 디스플레이를 더 포함할 수 있다.In addition, the object motion analysis apparatus 100 in another space according to an embodiment of the present invention may further include a display capable of displaying a three-dimensional motion trajectory of the object identified by the processor 130.

도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to an exemplary embodiment.

도 2를 참조하면, 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 평면 거울 앞에 위치된 물체와 평면 거울에 비친 물체의 상이 공간 내의 물체 운동 분석 장치에 포함된 카메라의 화각 내에 위치되도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영한다(S210).Referring to FIG. 2, in the method of controlling an object motion analysis device in a space, an image of an object positioned in front of the plane mirror and an object reflected in the plane mirror is positioned from an angle of view of the camera included in the object motion analysis device in space. One camera disposed at a predetermined position captures an image including an object and an image of the object at the same time (S210).

촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S220).First angle information between the object in the photographed image and the camera and second angle information between the image of the object and the camera are extracted (S220).

본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method of extracting the first and second angle information, the image photographed by the camera to include the object and the image of the object at the same time is divided into an area including the object and an area including the image of the object. Can be. The first angle information may be extracted from an image including only an area including an object, and the second angle information may be extracted from an image including only an area including an image of the object.

또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, according to another embodiment of the present invention, the first angle information and the second angle information may be extracted while the color, saturation, and brightness (HSV) of the captured image are converted. The HSV of the captured image may be converted to a binary image. However, the method of converting the above-described binary image is only an example for describing an embodiment of the present invention and is not limited thereto.

추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S230).3D coordinate data of the object is calculated based on the extracted first and second angle information (S230).

본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 평면 거울에 비친 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, in the method of calculating the three-dimensional coordinate data of an object, first and second linear vectors directed from the camera toward the object are calculated on the basis of the first angle information, and the image and the second of the camera reflected on the plane mirror. Based on the angle information, a second straight line vector toward the object is calculated from the image of the camera, and three-dimensional data of the object may be calculated by extracting intersection points of the calculated first and second straight line vectors.

물체의 3차원 데이터가 산출되는 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.The method of calculating the three-dimensional data of the object will be described later with reference to FIGS. 3 to 5B.

또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, when the captured image is a moving image of the object according to an embodiment of the present disclosure, the captured video may be divided into a plurality of images, and three-dimensional coordinate data of the object may be calculated from the plurality of divided images. have. In addition, the three-dimensional motion of the object may be identified based on the three-dimensional coordinate data of the object calculated from each of the plurality of images.

본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the 3D motion trajectory of the object identified by the above-described method may be displayed.

도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.3 is a view for explaining the structure of the object motion analysis apparatus in space according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Referring to FIG. 3, one camera 120 included in the apparatus for analyzing object motion in a space according to an embodiment of the present invention may be disposed at a predetermined position from the plane mirror 110.

구체적으로 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Specifically, one camera 120 according to an embodiment of the present invention may be disposed at a position that forms a predetermined angle θ 'with the planar mirror 110 and is spaced apart by a predetermined distance d.

또한, 본 발명의 일 실시 예에 따른 카메라(120)는 평면 거울(110) 앞에 위치된 물체(310)와 평면 거울(110)에 비친 물체의 상(311)이 카메라(120)의 화각 내에 위치되도록 배치될 수 있고, 배치된 카메라(120)는 물체(310)와 물체의 상(311)이 동시에 포함된 이미지를 촬영할 수 있다.In addition, in the camera 120 according to an embodiment of the present invention, the object 310 positioned in front of the plane mirror 110 and the image 311 of the object reflected on the plane mirror 110 are positioned within the angle of view of the camera 120. The camera 120 may capture an image including the object 310 and the image 311 of the object at the same time.

또한, 상술한 카메라(120)와 동일하게 평면 거울(110)에 비친 카메라의 상(121)도 물체(310)와 물체의 상(311)이 동시에 포함되도록 이미지를 촬영할 수 있다.In addition, similar to the camera 120 described above, the image 121 of the camera reflected on the plane mirror 110 may also take an image such that the object 310 and the image 311 of the object are simultaneously included.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함되는 프로세서(도시되지 않음)는 촬영된 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있다. 물체의 3차원 좌표 데이터가 산출되는 방법은 후술하기로 한다.A processor (not shown) included in the apparatus for analyzing object motion in space according to an embodiment of the present invention may calculate 3D coordinate data of an object in a captured image. The method of calculating the three-dimensional coordinate data of the object will be described later.

도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.4A and 4B illustrate a method of extracting angle information between an object and a camera, according to an exemplary embodiment.

도 4a는 본 발명의 일 실시 예에 따라 카메라(120)가 촬영한 이미지 영역을 설명하기 위한 도면이다.4A is a diagram for describing an image area photographed by the camera 120 according to an exemplary embodiment.

도 4a를 참조하면, 본 발명의 일 실시 예에 따른 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보가 추출되기 위해, 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다.Referring to FIG. 4A, first angle information formed by an object 410 and a camera 120 in a captured image and an image 411 of the object in the captured image and the camera 120 are In order to extract the second angle information, the camera 120 including a preset angle of view and a preset shooting area may be used.

본 발명의 일 실시 예에 따라, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present disclosure, when the horizontal axis is the x axis and the vertical axis is the y axis, the preset horizontal angle of view of the camera 120 may be Ø m , and the preset vertical angle of view may be θ m . In addition, the horizontal area of the preset shooting area of the camera 120 may be from -x m to x m , and the vertical area of the preset shooting area of the camera 120 may be from -y m to y m .

따라서, 카메라(120)의 좌표 O로부터 M까지의 거리는 삼각 함수 계산법 이용됨으로써, 아래의 식 (1)과 같이 나타낼 수 있다.Therefore, the distance from the coordinates O to M of the camera 120 can be expressed by the following equation (1) by using a trigonometric function calculation method.

Figure 112018003393898-pat00001
(1)
Figure 112018003393898-pat00001
(One)

도 4b는 본 발명의 일 실시 예에 따른 상술한 제1 각도 정보 및 제2 각도 정보를 추출하는 구체적인 방법을 설명하는 도면이다.4B is a view for explaining a specific method of extracting the above-described first angle information and second angle information according to an embodiment of the present invention.

도 4b를 참조하면, 본 발명의 일 실시 예에 따르면 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Referring to FIG. 4B, according to an embodiment of the present disclosure, first angle information formed by the object 410 and the camera 120 in the captured image is the same as angle information formed by the object 310 and the camera 120. The second angle information formed by the image 411 and the camera 120 of the object in the captured image is the same as the angle information formed by the image 311 and the camera 120 of the object.

제1 각도 정보가 추출되도록 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(410)의 x좌표값인 x1이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(410)의 y좌표값인 y1이 산출될 수 있다.The x coordinate value and the y coordinate value of the object 410 in the image photographed to extract the first angle information may be calculated. An x coordinate value x 1 of the object 410 in the image photographed in the horizontal area (-x m to x m ) of the preset photographing area may be calculated. In addition, y 1, which is a y-coordinate value of the object 410 in the image photographed in the vertical region (-y m to y m ) of the preset photographing region, may be calculated.

제1 각도 정보(Ø1 및 θ1)는 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제1 각도 정보는 아래의 식 (2) 내지 식 (5)와 같이 추출될 수 있다.The first angle information Ø 1 and θ 1 may be extracted by x and y coordinate values of the object 410 in the captured image. Specifically, by using the trigonometric function calculation method, the first angle information may be extracted as in Equations (2) to (5) below.

Figure 112018003393898-pat00002
(2)
Figure 112018003393898-pat00002
(2)

Figure 112018003393898-pat00003
(3)
Figure 112018003393898-pat00003
(3)

Figure 112018003393898-pat00004
(4)
Figure 112018003393898-pat00004
(4)

Figure 112018003393898-pat00005
(5)
Figure 112018003393898-pat00005
(5)

마찬가지로, 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체의 상(411)의 x좌표값인 x2가 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체의 상(411)의 y좌표값인 y2가 산출될 수 있다.Similarly, the x coordinate value and the y coordinate value of the image 411 of the object in the image photographed to extract the second angle information may be calculated. An x coordinate value x 2 of the image 411 of the object in the image photographed in the horizontal area (-x m to x m ) of the preset photographing area may be calculated. In addition, y 2, which is the y-coordinate value of the image 411 of the object in the image photographed in the vertical region (-y m to y m ) of the preset photographing region, may be calculated.

제2 각도 정보(Ø2 및 θ2)는 상술한 식 (2) 내지 (5)와 동일한 방법으로 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제2 각도 정보는 아래의 식 (6) 및 식 (7)와 같이 추출될 수 있다.The second angle information Ø 2 and θ 2 may be extracted by the x-coordinate value and the y-coordinate value of the image 411 of the object in the image photographed in the same manner as the above formulas (2) to (5). . Specifically, by using the trigonometric function calculation, the second angle information may be extracted as shown in Equations (6) and (7) below.

Figure 112018003393898-pat00006
(7)
Figure 112018003393898-pat00006
(7)

Figure 112018003393898-pat00007
(8)
Figure 112018003393898-pat00007
(8)

따라서, 상술한 방법에 의해 추출된 제1 각도 정보(Ø1 및 θ1)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø2 및 θ2)는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Therefore, the first angle information Ø 1 and θ 1 extracted by the above-described method is the same as the angle information formed by the object 310 and the camera 120, and the second angle information Ø 2 and θ 2 is The angle information formed by the image 311 of the object and the camera 120 is the same.

도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.5A and 5B are diagrams for describing a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.

도 5a는 본 발명의 일 실시 예에 따라 추출된 제2 각도 정보를 설명하기 위한 도면이다.5A is a diagram for describing extracted second angle information according to an embodiment of the present invention.

도 5a를 참조하면, 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Referring to FIG. 5A, one camera 120 according to an embodiment of the present invention forms a predetermined angle θ 'with the plane mirror 110 and is disposed at a position spaced apart by a predetermined distance d. Can be.

평면 거울(110)의 배치는 xy평면에 수직이면서 (-n,0,0) 및 (0,n,0)을 지나는 평면으로 배치될 수 있다. 단, 상술한 평면 거울(110)의 배치는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The arrangement of the plane mirror 110 may be arranged in a plane perpendicular to the xy plane and passing through (-n, 0,0) and (0, n, 0). However, the above-described arrangement of the plane mirror 110 is only an example for easily explaining an embodiment of the present invention and is not limited thereto.

또한, 본 발명의 일 실시 예에 따른 기 설정된 각도 θ'는 45˚일 수 있고, 기 설정된 거리 d는

Figure 112018003393898-pat00008
일 수 있다. 따라서, 카메라(120)의 좌표가 O(0,0,0)이고, 카메라(120)가 y축을 바라보는 경우, 평면 거울(110)에 비친 카메라의 상(121)의 좌표는 C(-n,n,0)이고, 카메라의 상(121)은 x축을 바라보는 것으로 가정될 수 있다. 하지만, 상술한 기 설정된 각도 및 기 설정된 거리는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 값이 가능하며, 다양한 값에 따라 카메라(120)의 좌표 및 카메라의 상(121)의 좌표 또한 달라질 수 있다.In addition, the preset angle θ 'according to an embodiment of the present invention may be 45 °, and the preset distance d is
Figure 112018003393898-pat00008
Can be. Therefore, when the coordinate of the camera 120 is O (0,0,0) and the camera 120 looks at the y axis, the coordinate of the image 121 of the camera reflected on the plane mirror 110 is C (-n , n, 0), and the image 121 of the camera may be assumed to look at the x-axis. However, the above-described preset angle and preset distance are not only limited to the examples for easily explaining an embodiment of the present invention, but various values are possible, and the coordinates of the camera 120 and the image of the camera according to various values are possible. The coordinates of 121 may also vary.

도 5a를 다시 참조하면, 도 4b에서 추출된 물체의 상(311)과 카메라(120)가 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2)는 평면 거울에 비친 카메라의 상(121)과 물체(310)가 이루는 각도 정보와 동일하다.Referring again to FIG. 5A, the second angle information Ø 2 and θ 2 , which are angle information formed by the image 311 of the object extracted in FIG. 4B and the camera 120, are displayed on the image 121 of the camera reflected on the plane mirror. And the angle information formed by the object 310 is the same.

도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 구체적으로 설명하기 위한 도면이다.5B is a diagram for describing in detail a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.

도 5b를 참조하면, 도 4b에서 추출된 물체(310)와 카메라(120)가 이루는 각도 정보인 제1 각도 정보(Ø1 및 θ1)에 기초하여 카메라(120)로부터 물체(310)를 향하는 제1 직선 벡터(

Figure 112018003393898-pat00009
)가 산출될 수 있다.Referring to FIG. 5B, the camera 310 may move from the camera 120 toward the object 310 based on the first angle information Ø 1 and θ 1 , which are angle information formed by the object 310 and the camera 120 extracted in FIG. 4B. First straight line vector (
Figure 112018003393898-pat00009
) Can be calculated.

또한, 도 4b 및 도 5a에서 추출된 물체(310)와 카메라의 상(121)이 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 카메라의 상(121)으로부터 물체(310)를 향하는 제2 직선 벡터(

Figure 112018003393898-pat00010
)가 산출될 수 있다.Also, the second angle information Ø 2 and θ 2 , which are angle information formed by the object 310 extracted from FIGS. 4B and 5A, and the image 121 of the camera, and the image 121 of the camera reflected on the plane mirror 110. Based on the second straight line vector from the image 121 of the camera toward the object 310 (
Figure 112018003393898-pat00010
) Can be calculated.

구체적으로, 추출된 제1 각도 정보(Ø1 및 θ1)에 기초하여 아래의 식 (8)과 같이 제1 직선 벡터가 산출될 수 있다. 아래의 식 (8)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정될 수 있다. 단, 상술한 제1 직선 벡터의 y좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니다.Specifically, based on the extracted first angle information (Ø 1 and θ 1) may be a first straight line vector calculation as in equation (8) below. In the following Equation (8), the y coordinate value of the first straight line vector may be set to 1 for convenience of calculation. However, the y-coordinate value of the first linear vector described above is set to 1, but is not limited thereto.

Figure 112018003393898-pat00011
(8)
Figure 112018003393898-pat00011
(8)

또한, 추출된 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 아래의 식 (9)와 같이 제2 직선 벡터가 산출될 수 있다. 아래의 식 (9)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정된 경우와 마찬가지로 제2 직선 벡터의 x좌표값이 1로 설정될 수 있다. 단, 상술한 제2 직선 벡터의 x좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, based on the extracted second angle information Ø 2 and θ 2 and the image 121 of the camera reflected on the planar mirror 110, a second linear vector may be calculated as shown in Equation (9) below. In equation (9) below, the x-coordinate value of the second straight line vector may be set to 1 similarly to the case where the y-coordinate value of the first straight line vector is set to 1 for convenience of calculation. However, the x-coordinate value of the second straight line vector set to 1 is merely an example for describing an embodiment of the present invention, but is not limited thereto.

Figure 112018003393898-pat00012
(9)
Figure 112018003393898-pat00012
(9)

상술한 식 (8) 및 식 (9)에 산출된 제1 및 제2 직선 벡터의 교점이 물체의 3차원 좌표 데이터에 해당된다.The intersections of the first and second straight line vectors calculated in the above formulas (8) and (9) correspond to three-dimensional coordinate data of the object.

따라서, 물체(310)의 좌표값 P(x,y,z)의 값은 아래의 식 (10) 내지 식 (12)와 같이 나타낼 수 있다.Therefore, the value of the coordinate value P (x, y, z) of the object 310 may be expressed as in Equations (10) to (12) below.

Figure 112018003393898-pat00013
(10)
Figure 112018003393898-pat00013
10

Figure 112018003393898-pat00014
(11)
Figure 112018003393898-pat00014
(11)

Figure 112018003393898-pat00015
(12)
Figure 112018003393898-pat00015
(12)

상술한 식 (10) 내지 식 (12)에서 i 및 k는 임의의 배수를 나타낸다.In the above formulas (10) to (12), i and k represent arbitrary multiples.

따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 좌표 데이터가 산출될 수 있다.Therefore, the three-dimensional coordinate data of the object can be calculated while the intersection of the first and second straight line vectors calculated as described above is extracted.

도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to another exemplary embodiment.

도 6을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 오목 렌즈에 의한 물체의 상을 동시에 포함하는 이미지를 촬영한다(S610).Referring to FIG. 6, in a control method of an apparatus for analyzing an object motion in a space according to another embodiment of the present invention, one camera disposed such that a concave lens and a predetermined portion overlap with an object and an object by a concave lens The image including the image at the same time is taken (S610).

촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S620).First angle information between the object in the photographed image and the camera and second angle information between the image of the object and the camera are extracted (S620).

본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 오목 렌즈에 의한 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 오목 렌즈에 의한 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method of extracting the first and second angle information, the image photographed so that the image of the object by the camera and the concave lens are included at the same time includes an area including the object and the image of the object. It can be divided into divided regions. The first angle information may be extracted from an image including only an area including an object, and the second angle information may be extracted from an image including only an area including an image of the object by the concave lens.

또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, according to another embodiment of the present invention, the first angle information and the second angle information may be extracted while the color, saturation, and brightness (HSV) of the captured image are converted. The HSV of the captured image may be converted to a binary image. However, the method of converting the above-described binary image is only an example for describing an embodiment of the present invention and is not limited thereto.

추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S630).3D coordinate data of the object is calculated based on the extracted first and second angle information (S630).

본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 오목 렌즈에 의한 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, in the method of calculating the three-dimensional coordinate data of an object, a first linear vector toward the object is calculated from the camera based on the first angle information, and the image and the second of the camera by the concave lens are calculated. Based on the angle information, a second straight line vector toward the object is calculated from the image of the camera, and three-dimensional data of the object may be calculated by extracting intersection points of the calculated first and second straight line vectors.

물체의 3차원 데이터가 산출되는 방법은, 도 7 내지 도 10을 참조하여 후술하기로 한다.The method of calculating the three-dimensional data of the object will be described later with reference to FIGS. 7 to 10.

또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, when the captured image is a moving image of the object according to an embodiment of the present disclosure, the captured video may be divided into a plurality of images, and three-dimensional coordinate data of the object may be calculated from the plurality of divided images. have. In addition, the three-dimensional motion of the object may be identified based on the three-dimensional coordinate data of the object calculated from each of the plurality of images.

본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the 3D motion trajectory of the object identified by the above-described method may be displayed.

도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.7 is a view showing the characteristics of a concave lens according to another embodiment of the present invention.

일반적으로 오목 렌즈(720)를 통해 물체(310)는 위치에 관계없이 항상 축소된 정립 허상이 만들어 질 수 있다.In general, through the concave lens 720, the object 310 is always reduced in size, the virtual image can be made.

도 7을 참조하면, 물체(310)는 오목 렌즈(720)에 의하여 정립 허상인 물체의 상(710)이 만들어 질 수 있다. 오목 렌즈(720)의 중심점 G로부터 물체(310)까지의 거리는 절댓값 a로 나타낼 수 있다. 또한, 오목 렌즈(720)의 중심점 G로부터 오목 렌즈에 의한 물체의 상(710)까지의 거리는 절댓값 b로 나타낼 수 있다.Referring to FIG. 7, an image 310 of an object, which is an upright virtual image, may be formed by the concave lens 720. The distance from the center point G of the concave lens 720 to the object 310 may be represented by the absolute value a. In addition, the distance from the center point G of the concave lens 720 to the image 710 of the object by the concave lens can be represented by the absolute value b.

오목 렌즈(720)의 중심점 G로부터 초점 F까지의 거리인 초점 거리의 절댓값은 f로 나타낼 수 있다. 오목 렌즈(720)의 중심점 G로부터 허초점 F?까지의 거리는 초점 거리와 마찬가지로 절댓값 f로 나타낼 수 있다. The absolute value of the focal length, which is the distance from the center point G of the concave lens 720 to the focal point F, may be represented by f. The distance from the center point G of the concave lens 720 to the virtual focal point F? May be represented by an absolute value f, similar to the focal length.

물체(310)와 오목 렌즈(720)에 의해 맺혀진 정립 허상인 물체의 상(710)의 거리는 아래의 식 (13)과 같은 렌즈의 공식에 의하여 산출될 수 있다.The distance between the object 310 and the image 710 of the object which is an established virtual image formed by the concave lens 720 may be calculated by a formula of a lens as shown in Equation (13) below.

Figure 112018003393898-pat00016
(13)
Figure 112018003393898-pat00016
(13)

도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.8 is a view for explaining the structure of the object motion analysis apparatus in space according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체의 운동 분석 장치로 스마트 폰이 도시되어 있지만 상술한 스마트 폰은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니며 공간 내의 물체 운동 분석 장치는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.Referring to FIG. 8, although a smart phone is illustrated as an apparatus for analyzing a motion of an object in a space according to an embodiment of the present disclosure, the above-described smart phone is only an example for describing an embodiment of the present invention. In addition, the object motion analysis apparatus in the space includes a camera capable of capturing an image, and any device may be any device capable of performing analysis of the photographed image.

도 8(a)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)가 물체(310) 및 오목 렌즈(720)에 의한 물체의 상(710)이 동시에 포함되도록 이미지를 촬영하는 것을 나타낸 것이다.FIG. 8A illustrates an image 710 of an object caused by the object 310 and the concave lens 720 of one camera 120 included in the apparatus for analyzing object motion in space according to another embodiment of the present invention. This shows taking images to be included at the same time.

도 8(a)를 참조하면, 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되도록 카메라(120)는 오목 렌즈(720)와 기 설정된 부분이 겹치도록 배치될 수 있다. 또한, 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다.Referring to FIG. 8A, the camera 120 includes a concave lens 720 and a preset portion such that the object 310 and the image 710 of the object by the concave lens are simultaneously included in the photographing area of the camera 120. This may be arranged to overlap. In addition, the center of the object 310, the center of the image 710 of the object and the center of the concave lens 720 may be connected in a straight line.

도 8(b)는 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈(720)에 의한 카메라의 상(810)을 설명하기 위한 도면이다.FIG. 8B is a view for explaining an image 810 of the camera by the concave lens 720 according to another exemplary embodiment.

도 8(b)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되는 경우, 물체(310)는 두 개의 카메라(120, 810)로부터 촬영된 것으로 가정될 수 있다.Referring to FIG. 8B, when the object 310 and the image 710 of the object by the concave lens are simultaneously included in the photographing area of the camera 120 according to another exemplary embodiment, the object ( 310 may be assumed to be photographed from two cameras 120 and 810.

따라서, 물체(310)는 오목 렌즈(720)를 통해 카메라(710)를 바라본다고 가정될 수 있고, 물체(310)는 카메라(710)로부터 촬영되는 동시에 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 촬영될 수 있다. 따라서, 카메라(710)로부터 관측된 지점 및 카메라의 상(810)으로부터 관측된 지점과 물체(310)가 이루는 각인 시차(θ'')가 형성될 수 있다.Thus, it can be assumed that the object 310 looks at the camera 710 through the concave lens 720, and the object 310 is taken from the camera 710 and at the same time the image of the camera by the concave lens 720 ( 810 can be taken. Therefore, an angle parallax θ ″ formed between the point observed from the camera 710 and the point observed from the image 810 of the camera and the object 310 may be formed.

카메라(120)에서 바라본 오목 렌즈(720)에 의한 물체의 상(710)과 물체(310)에서 바라본 오목 렌즈(720)에 의한 카메라의 상(810)과의 관계는 동일한 오목 렌즈(720)가 사용되는 경우이므로 같아야 한다.The relationship between the image 710 of the object by the concave lens 720 viewed from the camera 120 and the image 810 of the camera by the concave lens 720 viewed from the object 310 is the same as the concave lens 720. If used, it must be the same.

따라서, 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위의 R점에서 교차될 수 있다.Thus, a straight line looking at the image 710 of the object by the concave lens 720 from the camera 120 and a straight line looking at the object 310 from the image 810 of the camera by the concave lens 720 are concave lenses. 720 may be crossed at point R above.

도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.

도 9를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 촬영된 이미지 내의 물체(910)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 오목 렌즈에 의한 물체의 상(911)과 카메라(120)가 이루는 제2 각도 정보는 도 4a 및 도 4b에서와 동일한 방법에 의해 추출될 수 있다.Referring to FIG. 9, the first angle information formed by the object 910 and the camera 120 in the photographed image and the image 911 of the object by the concave lens in the photographed image according to another embodiment of the present invention. And the second angle information formed by the camera 120 may be extracted by the same method as in FIGS. 4A and 4B.

본 발명의 일 실시 예에 따르면 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다. 구체적으로, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, a camera 120 including a preset angle of view and a preset shooting area may be used. Specifically, when the horizontal axis is the x-axis and the vertical axis is the y-axis, the preset horizontal angle of view of the camera 120 may be Ø m , and the preset vertical angle of view may be θ m . In addition, the horizontal area of the preset shooting area of the camera 120 may be from -x m to x m , and the vertical area of the preset shooting area of the camera 120 may be from -y m to y m .

제1 및 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값과 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(910)의 x좌표값인 x3과 물체의 상(911)의 x좌표값인 x4이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(910)의 y좌표값인 y3과 물체(911)의 y좌표값인 y4가 산출될 수 있다.The x and y coordinate values of the object 910 in the photographed image and the x and y coordinate values of the image 911 of the object in the photographed image may be calculated to extract the first and second angle information. . The x coordinate value x 3 of the object 910 in the image photographed in the horizontal area (-x m to x m ) of the preset shooting area and the x coordinate value x 4 of the image 911 of the object may be calculated. . In addition, y 3 , which is the y coordinate value of the object 910, and y 4, which is the y coordinate value of the object 911, in the image photographed in the vertical region (-y m to y m ) of the preset photographing area may be calculated. .

제1 각도 정보는 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값에 의해, 제2 각도 정보는 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값에 의해 추출될 수 있다.The first angle information is extracted by the x and y coordinate values of the object 910 in the captured image, and the second angle information is extracted by the x and y coordinate values of the image 911 of the object in the captured image. Can be.

따라서, 도 4a 및 도 4b에서와 동일한 방법이 적용되면서 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)는 아래의 식 (14) 내지 식 (17)와 같이 추출될 수 있다.Therefore, while the same method as in FIGS. 4A and 4B is applied, the first angle information Ø 3 and θ 3 and the second angle information Ø 4 and θ 4 are obtained by the following equations (14) to (17) Can be extracted together.

Figure 112018003393898-pat00017
(14)
Figure 112018003393898-pat00017
(14)

Figure 112018003393898-pat00018
(15)
Figure 112018003393898-pat00018
(15)

Figure 112018003393898-pat00019
(16)
Figure 112018003393898-pat00019
(16)

Figure 112018003393898-pat00020
(17)
Figure 112018003393898-pat00020
(17)

따라서, 도 4a 및 도 4b에서와 동일한 방법에 의해 추출된 제1 각도 정보(Ø3 및 θ3)는 물체와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø4 및 θ4)는 오목 렌즈에 의한 물체의 상과 카메라(120)가 이루는 각도 정보와 동일하다.Accordingly, the first angle information Ø 3 and θ 3 extracted by the same method as in FIGS. 4A and 4B is the same as the angle information formed by the object and the camera 120, and the second angle information Ø 4 and θ. 4 ) is the same as the angle information between the image of the object and the camera 120 by the concave lens.

도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.FIG. 10 is a diagram for describing a method of calculating three-dimensional coordinate data of an object according to another exemplary embodiment.

도 10을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)는 기 설정된 위치(H(-xh,-yh,0))에 배치될 수 있고, 오목 렌즈(720)의 테두리 일면을 향하도록 배치될 수 있다.Referring to FIG. 10, the camera 120 according to another embodiment of the present invention may be disposed at a predetermined position (H (−x h , −y h , 0)), and the concave lens 720 may be disposed. It may be arranged to face one side of the rim.

본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터가 산출되는 방법은 도 9에서 추출된 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)에 기초하여 산출될 수 있다.According to another embodiment of the present invention, a method of calculating three-dimensional coordinate data of an object may be performed on the first angle information Ø 3 and θ 3 and the second angle information Ø 4 and θ 4 extracted from FIG. 9. Can be calculated based on this.

구체적으로, 제1 각도 정보(Ø3 및 θ3)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하다. 제1 각도 정보(Ø3 및 θ3)에 기초하여 카메라(120)의 좌표 H(-xh,-yh,0)로부터 물체(310)의 좌표 P(-x3',y3',z3')를 향하는 제1 직선 벡터

Figure 112018003393898-pat00021
가 산출될 수 있다.In detail, the first angle information Ø 3 and θ 3 are identical to the angle information formed by the object 310 and the camera 120. Based on the first angle information Ø 3 and θ 3 , the coordinate P (-x 3 ', y 3 ', of the object 310 from the coordinate H (-x h , -y h , 0) of the camera 120 first straight line vector towards z 3 ')
Figure 112018003393898-pat00021
Can be calculated.

아래의 식 (18)은 계산의 편의성을 위해 카메라(120)로부터 물체(310)를 향하는 거리를 1로 하여 제1 직선 벡터가 산출된 것을 나타낸다.Equation (18) below shows that the first straight line vector is calculated with a distance from the camera 120 toward the object 310 as 1 for convenience of calculation.

Figure 112018003393898-pat00022
(18)
Figure 112018003393898-pat00022
(18)

오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 향하는 제2 직선 벡터

Figure 112018003393898-pat00023
는 아래와 같은 방법으로 산출될 수 있다.Second straight line vector from the image 810 of the camera towards the object 310 by the concave lens 720
Figure 112018003393898-pat00023
May be calculated in the following manner.

도 8(a)에서 설명한 바와 같이 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다. 상술한 특징의 적용으로 오목 렌즈(720)에 의한 물체의 상(710)의 좌표 Q(-x4',y4',z4')는 식 (13)의 렌즈 공식에 의해 아래의 식 (19) 내지 식(22)과 같이 물체(310)의 좌표 P(-x3',y3',z3')와의 관계가 형성될 수 있다.As described with reference to FIG. 8A, the center of the object 310, the center of the image 710 of the object, and the center of the concave lens 720 may be connected in a straight line. By applying the above-described feature, the coordinate Q (-x 4 ', y 4 ', z 4 ') of the image 710 of the object by the concave lens 720 is given by the lens formula of Eq. 19) to (22) coordinates P (-x 3 of the object (310) ', y 3' as shown, may be formed of the relationship between z 3 ').

Figure 112018003393898-pat00024
(19)
Figure 112018003393898-pat00024
(19)

Figure 112018003393898-pat00025
(20)
Figure 112018003393898-pat00025
20

Figure 112018003393898-pat00026
(21)
Figure 112018003393898-pat00026
(21)

Figure 112018003393898-pat00027
(22)
Figure 112018003393898-pat00027
(22)

도 8(b)에서 설명한 바와 같이 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위에서 교차될 수 있고, 교차되는 좌표는 R(-x5,0,z5)로 설정될 수 있다.As described with reference to FIG. 8B, the object 310 is viewed from the camera 120 by a straight line facing the image 710 of the object by the concave lens 720 and the image 810 of the camera by the concave lens 720. may be the straight line intersect on the concave lens 720 looking at, the intersection coordinates may be set to R (-x 5, 0, z 5).

제2 직선 벡터

Figure 112018003393898-pat00028
는 D(-xh',-yh',0)와 R(-x5,0,z5)의 좌표에 의해 산출될 수 있다.Second straight line vector
Figure 112018003393898-pat00028
May be calculated by the coordinates of D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 ).

상술한 제1 직선 벡터가 산출되는 방법이 동일하게 적용되면서 카메라(120)로부터 물체의 상(710)을 향하는 직선 벡터가 산출될 수 있고, 산출된 직선 벡터에 의해 아래의 식 (23)와 같이 좌표 R(-x5,0,z5)가 산출될 수 있다.While the above-described method of calculating the first straight line vector is applied in the same manner, a straight line vector toward the image 710 of the object can be calculated from the camera 120, and the calculated straight line vector is used as shown in Equation (23) below. The coordinate R (-x 5 , 0, z 5 ) can be calculated.

Figure 112018003393898-pat00029
(23)
Figure 112018003393898-pat00029
(23)

또한, 오목 렌즈(720)에 의한 카메라의 상(810)의 좌표 D(-xh',-yh',0)는 식 (19) 내지 식(22)과 동일한 방법으로 아래의 식 (24) 내지 식(26)과 같이 산출될 수 있다.In addition, the coordinates D (-x h ', -y h ', 0) of the image 810 of the camera by the concave lens 720 is expressed by the following equation (24) in the same manner as in equations (19) to (22). ) To (26).

Figure 112018003393898-pat00030
(24)
Figure 112018003393898-pat00030
(24)

Figure 112018003393898-pat00031
(25)
Figure 112018003393898-pat00031
(25)

Figure 112018003393898-pat00032
(26)
Figure 112018003393898-pat00032
(26)

따라서, 좌표 D(-xh',-yh',0) 및 R(-x5,0,z5)을 지나는 제2 직선 벡터

Figure 112018003393898-pat00033
는 아래의 식 (27)과 같이 산출될 수 있다.Thus, a second straight vector through coordinates D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 )
Figure 112018003393898-pat00033
May be calculated as in Equation (27) below.

Figure 112018003393898-pat00034
(27)
Figure 112018003393898-pat00034
(27)

따라서, 산출된 제1 직선 벡터

Figure 112018003393898-pat00035
및 제2 직선 벡터
Figure 112018003393898-pat00036
의 교점이 아래의 식 (28) 내지 식 (30)와 같이 추출되어 물체(310)의 3차원 좌표 P(-x3',y3',z3')가 산출될 수 있다.Thus, the calculated first straight line vector
Figure 112018003393898-pat00035
And second straight line vector
Figure 112018003393898-pat00036
The intersection of may be extracted as in Equations (28) to (30) below to calculate the three-dimensional coordinates P (-x 3 ', y 3 ', z 3 ') of the object 310.

Figure 112018003393898-pat00037
(28)
Figure 112018003393898-pat00037
(28)

Figure 112018003393898-pat00038
(29)
Figure 112018003393898-pat00038
(29)

Figure 112018003393898-pat00039
(30)
Figure 112018003393898-pat00039
(30)

상술한 식 (28) 내지 식 (30)에서 i 및 k는 임의의 배수를 나타낸다.In the above formulas (28) to (30), i and k represent arbitrary multiples.

따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체(310)의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, three-dimensional coordinate data of the object 310 may be calculated while the intersection point of the first and second straight line vectors calculated as described above is extracted.

도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.11 illustrates a result of analyzing a three-dimensional motion of an object in space according to an embodiment of the present invention.

도 11(a)를 참조하면, 본 발명의 일 실시 예에 따른 롤러코스터의 3차원 운동이 분석되도록 평면 거울 앞에 롤러코스터가 위치되어 있고, 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 롤러코스터와 평면 거울에 비친 롤러코스터의 상이 동시에 포함되도록 촬영하였다.Referring to FIG. 11A, a roller coaster is positioned in front of a plane mirror to analyze the three-dimensional motion of the roller coaster according to an embodiment of the present invention, and the camera included in the three-dimensional motion analysis apparatus of the object in space is The image was taken so that the roller coaster and the image of the roller coaster reflected on the plane mirror were included at the same time.

도 11(b)는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 롤러코스터의 3차원 운동 궤적과 동일한 롤러코스터의 3차원 운동 궤적이 나타난 것을 보여준다.FIG. 11 (b) shows the three-dimensional motion trajectory of the roller coaster that is identical to the three-dimensional motion trajectory of the actual roller coaster by the apparatus for analyzing the motion of an object in a space according to an embodiment of the present invention.

따라서, 모션 캡쳐 시스템과 같은 고가의 장비가 사용되지 않고도 물체의 3차원 운동의 분석이 가능하다.Thus, it is possible to analyze three-dimensional motion of an object without using expensive equipment such as a motion capture system.

도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.12 illustrates a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.

도 12(a)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 운동이 분석되도록 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 물체 및 오목 렌즈에 의한 물체의 상이 동시에 보이도록 촬영하였다.Referring to FIG. 12 (a), a camera included in an apparatus for analyzing three-dimensional motion of an object in a space is different from an object by an object and a concave lens such that the three-dimensional motion of the object is analyzed according to another embodiment of the present invention. Photographed to be visible at the same time

도 12(b)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 물체의 3차원 운동 궤적과 동일한 물체의 3차원 운동 궤적이 나타난 것을 보여준다.12 (b) shows that the 3D motion trajectory of the same object as the 3D motion trajectory of the real object is displayed by the object motion analysis apparatus in the space according to another embodiment of the present invention.

이상과 같이 본 발명의 다양한 실시 예에 따르면, 모션 캡쳐 시스템과 같은 고가의 장비 없이 물체의 3차원 운동의 분석이 가능하다. 또한, 기존에는 물체의 3차원 운동을 분석하기 위해 복수 개의 카메라가 필요했지만 본 발명의 다양한 실시 예에 따르면 하나의 카메라가 포함된 공간 내의 물체 운동 분석 장치만으로 물체의 3차원 운동의 분석이 가능하므로 비용이 상대적으로 적게 드는 장점이 있다.As described above, according to various embodiments of the present disclosure, it is possible to analyze a three-dimensional motion of an object without expensive equipment such as a motion capture system. In addition, conventionally, a plurality of cameras were required to analyze three-dimensional motion of an object. According to various embodiments of the present disclosure, the three-dimensional motion of an object may be analyzed using only an object motion analysis device in a space including one camera. The advantage is relatively low cost.

또한, 본 발명의 다양한 실시 예에 따르면, 평면 거울 대신 오목 렌즈가 사용되는 경우 평면 거울보다 넓은 화각이 확보될 수 있으며, 평면 거울에 비해 휴대성이 증진될 수 있는 장점이 있다.Further, according to various embodiments of the present disclosure, when a concave lens is used instead of a flat mirror, a wider angle of view may be secured than a flat mirror, and portability may be improved compared to a flat mirror.

또한, 본 발명의 다양한 실시 예에 따르면, 물체의 운동 분석은 하나의 물체뿐만 아니라 복수 개의 물체의 운동이 동시에 분석될 수 있다. 예를 들면, 복수 개의 물체가 충돌하는 경우에도 복수 개의 물체의 운동이 동시에 분석될 수 있다.In addition, according to various embodiments of the present disclosure, in the motion analysis of an object, motions of not only one object but also a plurality of objects may be analyzed simultaneously. For example, even when a plurality of objects collide, motions of the plurality of objects may be analyzed at the same time.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the above has been shown and described with respect to preferred embodiments of the invention, the invention is not limited to the specific embodiments described above, it is usually in the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

100: 물체 운동 분석 장치
110: 평면 거울
120: 카메라
130: 프로세서
100: object motion analysis device
110: flat mirror
120: camera
130: processor

Claims (10)

공간 내의 물체 운동 분석 장치의 제어 방법에 있어서,
평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리만큼 이격되며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
In the control method of the object motion analysis device in space,
Photographing an image including the object and the image of the object simultaneously by a camera disposed at a predetermined position from the plane mirror such that an object located in front of the plane mirror and an image of the object reflected by the plane mirror are located within an angle of view;
Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And
Calculating three-dimensional coordinate data of the object based on the extracted first and second angle information;
The predetermined position of the one camera forms a predetermined angle with the plane mirror and is spaced apart by a predetermined distance,
Computing the three-dimensional coordinate data,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information reflected on the plane mirror; Calculating a second straight line vector and extracting intersection points of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
제1항에 있어서,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method of claim 1,
And identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
제2항에 있어서,
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method of claim 2,
And displaying the identified three-dimensional motion trajectory of the object.
제1항에 있어서,
상기 제1 및 제2 각도 정보를 추출하는 단계는,
상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method of claim 1,
Extracting the first and second angle information,
The image is divided into an area including the object and an area including the image of the object, extracting the first angle information from the area containing the object, and the second angle information from the area containing the image of the object. The control method of the object motion analysis device in space to extract.
공간 내의 물체 운동 분석 장치의 제어 방법에 있어서,
오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
In the control method of the object motion analysis device in space,
Photographing an image including an object and an image of the object caused by the concave lens at the same time by one camera disposed such that the concave lens and the predetermined portion overlap each other;
Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And
Calculating three-dimensional coordinate data of the object based on the extracted first and second angle information;
Computing the three-dimensional coordinate data,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information by the concave lens; Calculating a second straight line vector and extracting intersection points of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
제5항에 있어서,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method of claim 5,
And identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
제6항에 있어서,
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method of claim 6,
And displaying the identified three-dimensional motion trajectory of the object.
평면 거울;
상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 하나의 카메라; 및
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고,
상기 프로세서는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고,
상기 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격되는, 공간 내의 물체 운동 분석 장치.
Flat mirror;
One camera positioned at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located within an angle of view, and simultaneously photographing an image including the lower object and the image of the object at the same time. ; And
And a processor configured to extract first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera.
The processor,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information reflected on the plane mirror; Calculating a second linear vector, extracting intersection points of the calculated first and second linear vectors, and calculating three-dimensional coordinate data of the object;
And a predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced apart from a predetermined distance.
제8항에 있어서,
상기 프로세서는,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는, 공간 내의 물체 운동 분석 장치.
The method of claim 8,
The processor,
And a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
제9항에 있어서,
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함하는, 공간 내의 물체 운동 분석 장치.
The method of claim 9,
And a display configured to display a three-dimensional motion trajectory of the identified object.
KR1020180003704A 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof KR102028726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Publications (2)

Publication Number Publication Date
KR20190085620A KR20190085620A (en) 2019-07-19
KR102028726B1 true KR102028726B1 (en) 2019-10-07

Family

ID=67512095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Country Status (1)

Country Link
KR (1) KR102028726B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11835997B2 (en) * 2019-09-27 2023-12-05 Electronic Theatre Controls, Inc. Systems and methods for light fixture location determination

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066679A (en) * 2003-12-26 2005-06-30 김형복 The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera
KR100763941B1 (en) * 2006-02-09 2007-10-05 전북대학교산학협력단 Equipment of Image Stereo Omni-Directional

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Also Published As

Publication number Publication date
KR20190085620A (en) 2019-07-19

Similar Documents

Publication Publication Date Title
US10354129B2 (en) Hand gesture recognition for virtual reality and augmented reality devices
CN108292362B (en) Gesture recognition for cursor control
US8711198B2 (en) Video conference
Klein Visual tracking for augmented reality
Tian et al. Handling occlusions in augmented reality based on 3D reconstruction method
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
WO2014181725A1 (en) Image measurement device
CN111935393A (en) Shooting method, shooting device, electronic equipment and storage medium
KR20150013709A (en) A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
KR102397343B1 (en) Method and device for blurring a virtual object in a video
KR20110132260A (en) Monitor based augmented reality system
JP2016212784A (en) Image processing apparatus and image processing method
Romero et al. FlowCap: 2D human pose from optical flow
Liu et al. Holoscopic 3D micro-gesture database for wearable device interaction
Min et al. Non-contact and real-time dynamic displacement monitoring using smartphone technologies
WO2013125098A1 (en) System and method for computer graphics image processing using augmented reality technology
KR102028726B1 (en) Analysis apparatus of object motion in space and control method thereof
Belo et al. Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects
JP2022524787A (en) Methods, systems, and programs for object detection range estimation
JP6289027B2 (en) Person detection device and program
KR20170093421A (en) Method for determining object of interest, video processing device and computing device
US10198617B2 (en) Image-acquisition apparatus
Lyubanenko et al. Multi-camera finger tracking and 3d trajectory reconstruction for hci studies
JP2008203538A (en) Image display system
Kuronen et al. 3d hand movement measurement framework for studying human-computer interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right