KR102028726B1 - Analysis apparatus of object motion in space and control method thereof - Google Patents
Analysis apparatus of object motion in space and control method thereof Download PDFInfo
- Publication number
- KR102028726B1 KR102028726B1 KR1020180003704A KR20180003704A KR102028726B1 KR 102028726 B1 KR102028726 B1 KR 102028726B1 KR 1020180003704 A KR1020180003704 A KR 1020180003704A KR 20180003704 A KR20180003704 A KR 20180003704A KR 102028726 B1 KR102028726 B1 KR 102028726B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- angle information
- plane mirror
- coordinate data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
공간 내의 물체 운동 분석 장치의 제어 방법이 개시된다. 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 평면 거울에 비친 물체의 상이 화각 내에 위치하도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계, 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보를 추출하는 단계, 및 추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터를 산출하는 단계를 포함한다.Disclosed is a control method of an apparatus for analyzing an object motion in space. In the control method of the motion analysis device, an image including an object and an image of an object is simultaneously captured by a camera disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image reflected on the plane mirror are located in the field of view. Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; and three-dimensional coordinates of the object based on the extracted first and second angle information. Calculating data.
Description
본 발명은 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다. 보다 상세하게는, 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an apparatus for analyzing object motion in space and a control method thereof. More specifically, the present invention relates to an apparatus for analyzing object motion in a space capable of analyzing three-dimensional motion of an object and a control method thereof.
학생들이나 연구원들은 물리 관련 실험이나 연구 활동을 위해 물체의 움직임이나 운동을 분석해야 하는 경우가 많이 발생된다. 하지만 물체의 운동 중 2차원 또는 3차원 운동이 많으며, 특히 일반적으로 물체의 3차원 운동을 분석하기 위해서는 초고속카메라나 모션 캡쳐 시스템(Motion Capture System)이 필요하다.Students and researchers often need to analyze the motion or movement of objects for physics-related experiments or research activities. However, there are many two-dimensional or three-dimensional motions of an object, and in particular, in order to analyze the three-dimensional motion of an object, a high speed camera or a motion capture system is generally required.
초고속 카메라는 일반적인 카메라와는 달리 동영상을 촬영할 때 세밀한 프레임 간격으로 연속촬영이 가능하고, 촬영된 동영상을 프레임 저하 없이 매우 느린 속도로 재생할 수 있는 카메라를 나타낸다.Unlike general cameras, high speed cameras can be used for continuous shooting at fine frame intervals when shooting a video, and a camera that can play back a video at a very slow speed without deteriorating a frame.
동영상은 움직이는 이미지를 나타내고, 프레임은 움직이지 않는 이미지를 나타낸다. 동영상은 복수 개의 프레임이 빠른 속도로 넘어가면서 이미지가 움직이는 것처럼 나타난다. 동영상 프레임이란 동영상 1초가 얼마나 많은 화면으로 구성되는지 나타내는 수치로, fps로도 표시된다. 예를 들어 30fps라고 하면, 1초당 30장의 이미지가 움직이는 동영상을 나타낸다. 따라서, 동영상 프레임이 높을수록 부드럽고 선명한 동영상이 촬영될 수 있다.The video represents the moving image, and the frame represents the non-moving image. The video appears as if the image is moving as the multiple frames move at high speed. The video frame is a number that indicates how many screens a video has in one second, and is also expressed in fps. For example, 30 fps means a moving image of 30 images per second. Therefore, the higher the video frame, the softer and clearer the video can be.
일반적인 카메라가 1초 동안 24장에서 30장의 프레임을 규칙적으로 촬영한다면, 초고속 카메라는 1초에 수백 프레임, 수천 프레임 또는 수만 프레임까지도 촬영할 수 있는 카메라로 일반적인 카메라에 비해 고가의 장비에 해당된다.If a typical camera regularly shoots 24 to 30 frames in one second, a high-speed camera can capture hundreds, thousands, or even tens of thousands of frames per second, which is more expensive than a typical camera.
또한, 3차원 운동을 분석하기 위해 초고속 카메라 이외에도 모션 캡쳐 시스템이 이용된다. 모션 캡쳐 시스템은 3차원 공간상에서 물체의 움직임에 대한 위치와 방위를 측정할 수 있고, 측정된 물체의 움직임에 대한 위치와 방위를 컴퓨터가 사용할 수 있는 형태의 정보로 기록하여 물체의 3차원 운동을 분석할 수 있는 장치이다.In addition to motion cameras, motion capture systems are used to analyze three-dimensional motion. The motion capture system can measure the position and orientation of an object's movement in three-dimensional space, and record the position and orientation of the measured object's movement as information that can be used by a computer. It is a device that can be analyzed.
모션 캡쳐 시스템으로부터 얻은 정보는 모션 캡쳐 데이터라고 한다. 모션 캡쳐 시스템은 데이터를 추출하는 방법에 따라 광학식, 기계식 또는 자기식으로 나뉘어 질 수 있다.The information obtained from the motion capture system is called motion capture data. Motion capture systems can be divided into optical, mechanical or magnetic depending on how the data is extracted.
광학식의 경우에는 물체에 부착된 마크를 복수 개의 카메라가 동시에 추적하여 물체의 2차원 좌표가 추출되고, 추출된 복수 개의 2차원 좌표가 종합되면서 물체의 3차원 좌표가 추출될 수 있다. 상술한 마크는 입사한 광선을 광원으로 그대로 되돌려 보내는 재귀 반사가 가능한 마크를 나타낸다.In the case of the optical type, a plurality of cameras simultaneously track a mark attached to an object to extract two-dimensional coordinates of the object, and the extracted three-dimensional coordinates may be combined to extract the three-dimensional coordinates of the object. The above-mentioned mark represents the mark which can perform retroreflection which returns an incident light ray to a light source as it is.
기계식의 경우에는 기계에 부착된 센서에 의해 기계의 움직임이 인식되면서 3차원 좌표가 추출될 수 있다.In the mechanical type, three-dimensional coordinates can be extracted while the movement of the machine is recognized by a sensor attached to the machine.
자기식의 경우에는 자기장을 이용하여 복수 개의 카메라가 물체를 추적하고, 추적된 물체의 3차원 좌표가 추출될 수 있다.In the magnetic case, a plurality of cameras track an object using a magnetic field and three-dimensional coordinates of the tracked object may be extracted.
하지만, 모션 캡쳐 시스템의 가격은 약 천만원대에서 억대 사이에 해당되는 고가의 장비에 해당되며, 상술한 각각의 방법마다 문제점이 있다.However, the price of the motion capture system is expensive equipment corresponding to between about 10 million won to 100 million units, there is a problem for each of the above-described methods.
광학식의 경우에는 빛을 내는 광원이나, 물체를 정반사 시키는 거울과 같은 물체가 존재하는 경우 복수 개의 카메라에 의해 촬영된 물체의 좌표가 여러 개로 인식되거나 아예 인식되지 않는 문제점이 있다.In the case of the optical type, when there is an object such as a light source that emits light or a mirror that specularly reflects an object, the coordinates of an object photographed by a plurality of cameras are recognized as multiple or not recognized at all.
또한, 기계식의 경우에는 주로 사람의 움직임이 분석되므로 용도가 한정되는 문제점이 있다.In addition, in the case of the mechanical type mainly because the movement of the person is analyzed, there is a problem that the use is limited.
마지막으로, 자기식의 경우 자기장에 영향을 받는 물체인 철이 주를 이루는 쇠붙이와 같은 물체가 존재하면, 물체의 좌표 정확도가 떨어지는 문제점이 있다.Lastly, in the case of the magnetic type, if there is an object such as an iron rod, which is mainly made of iron, which is an object affected by the magnetic field, there is a problem that the coordinate accuracy of the object is lowered.
상술한 바와 같이 공간 내의 물체의 운동이 분석되기 위해서는 초고속 카메라나 모션 캡쳐 시스템과 같은 고가의 장비가 요구되는 실정이다. 하지만, 일반인들 또는 학생들은 고가의 장비를 이용하기 어려우므로, 일반인들 또는 학생들이 고가의 장비 없이 공간 내의 물체의 운동을 분석하기 어려운 문제가 있다.As described above, in order to analyze the motion of an object in a space, expensive equipment such as a high speed camera or a motion capture system is required. However, since it is difficult for ordinary people or students to use expensive equipment, it is difficult for ordinary people or students to analyze the motion of an object in a space without expensive equipment.
본 발명이 해결하려는 과제는, 일반인들 또는 학생들이 고가의 장비를 사용하는 대신 스마트폰과 같은 장치에 포함된 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법을 제공함에 있다.The object of the present invention is to solve the three-dimensional motion of the object in the space by using a camera included in a device such as a smartphone instead of using expensive equipment for the general public or students An analysis device and a control method thereof are provided.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고 기 설정된 거리만큼 이격되며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to an aspect of the present invention, there is provided a method of controlling an object motion analysis apparatus in a space, the preset method being set from the planar mirror such that an object located in front of the planar mirror and an image of the object reflected in the planar mirror are located within an angle of view. Photographing an image simultaneously comprising the object and an image of the object by a camera disposed at a position; Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein the preset position of the one camera forms a preset angle with the plane mirror and is preset. Computing the three-dimensional coordinate data spaced apart by a distance, and calculating the first linear vector from the camera toward the object based on the first angle information, the image of the camera reflected on the plane mirror and the first The second linear vector toward the object may be calculated from the image of the camera based on the two angle information, and the three-dimensional coordinate data of the object may be calculated by extracting the intersection points of the calculated first and second linear vectors. .
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.The method may further include identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of the plurality of images.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying a three-dimensional motion trajectory of the identified object.
상기 제1 및 제2 각도 정보를 추출하는 단계는, 상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출할 수 있다.The extracting of the first and second angle information may include: dividing the image into an area including the object and an area including an image of the object, extracting the first angle information from the area including the object, and The second angle information may be extracted from an area including the image of the object.
상술한 목적을 달성하기 위한 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method of controlling an object motion analysis apparatus in a space, wherein one camera is disposed such that a concave lens and a predetermined portion overlap with each other by the object and the concave lens. Photographing an image simultaneously containing an image of the object; Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein calculating the three-dimensional coordinate data comprises: the camera based on the first angle information; Calculates a first straight line vector facing the object from the image, and calculates a second straight line vector facing the object from the image of the camera based on the image of the camera and the second angle information by the concave lens; The three-dimensional coordinate data of the object may be calculated by extracting the intersection points of the first and second linear vectors.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.The method may further include identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of the plurality of images.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.The method may further include displaying a three-dimensional motion trajectory of the identified object.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치 평면 거울; 상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 카메라; 및 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고, 상기 프로세서는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격될 수 있다.A plane mirror of an object motion analysis device in space according to an embodiment of the present invention for achieving the above object; A camera which is disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected by the plane mirror are located within an angle of view, and simultaneously photographs an image including the lower object and the image of the object; And a processor configured to extract first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera, wherein the processor is based on the first angle information. Calculating a first straight line vector facing the object from the camera, and calculating a second straight line vector facing the object from the image of the camera based on the image of the camera and the second angle information reflected in the planar mirror; And calculating the three-dimensional coordinate data of the object by extracting the intersection points of the calculated first and second straight vectors, and the predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced apart from a predetermined distance. Can be.
상기 프로세서는, 복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별할 수 있다.The processor may identify a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from each of a plurality of images.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함할 수 있다.It may further include a display for displaying a three-dimensional motion trajectory of the identified object.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 학생들과 일반인들이 고가의 장비에 비해 상대적으로 가격이 저렴한 일반적인 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있다.According to various embodiments of the present disclosure as described above, students and the general public may analyze a three-dimensional motion of an object in a space by using a general camera that is relatively inexpensive compared to expensive equipment.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
2 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to an exemplary embodiment.
3 is a view for explaining the structure of the object motion analysis apparatus in space according to an embodiment of the present invention.
4A and 4B illustrate a method of extracting angle information between an object and a camera, according to an exemplary embodiment.
5A and 5B are diagrams for describing a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.
6 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to another exemplary embodiment.
7 is a view showing the characteristics of a concave lens according to another embodiment of the present invention.
8 is a view for explaining the structure of the object motion analysis apparatus in space according to another embodiment of the present invention.
9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
FIG. 10 is a diagram for describing a method of calculating three-dimensional coordinate data of an object according to another exemplary embodiment.
11 illustrates a result of analyzing a three-dimensional motion of an object in space according to an embodiment of the present invention.
12 illustrates a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention; Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The embodiments of the present invention make the posting of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. In addition, the terms defined in the commonly used dictionaries are not ideally or excessively interpreted unless they are specifically defined clearly.
본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this specification, expressions such as “having”, “may have”, “comprises” or “may contain” refer to the presence of such features (eg, numerical, functional, operational, or component such as components). It does not exclude the presence of additional features.
도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 평면 거울(110), 카메라(120) 및 프로세서(130)을 포함한다.Referring to FIG. 1, an
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이다. 예를 들어 공간 내의 물체 운동 분석 장치(100)는 스마트폰, 카메라가 포함된 노트북과 같은 장치로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.The object
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)의 카메라(120)는 하나만 이용될 수 있으며, 평면 거울(110) 앞에 위치된 물체와 평면 거울(110)에 비친 물체의 상이 카메라(120)의 화각 내에 위치되도록 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Only one
하나의 카메라(120)의 기 설정된 위치는 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리로 이격되는 위치일 수 있으며, 배치된 카메라(120)는 물체와 물체의 상이 동시에 포함되도록 이미지를 촬영할 수 있다.The preset position of one
본 발명의 일 실시 예에 따라 공간 내의 물체 운동 분석 장치(100)로 스마트 폰의 카메라(120)가 이용되는 경우 스마트 폰의 카메라(120)는 슬로우 모션 기능을 이용하여 물체와 물체의 상이 움직이는 이미지를 촬영할 수 있다.When the
프로세서(130)는 카메라(120)에 의해 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라(120)가 이루는 제2 각도 정보를 추출할 수 있다.The
본 발명의 일 실시 예에 따르면, 프로세서(130)는 촬영된 이미지를 물체와 물체의 상이 구분되도록 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할할 수 있고, 물체가 포함된 영역으로부터 제1 각도 정보를 추출할 수 있고, 물체의 상이 포함된 영역으로부터 제2 각도 정보를 추출할 수 있다.According to an embodiment of the present disclosure, the
또한, 본 발명의 또 다른 일 실시 예에 따른 프로세서(130)는 촬영된 이미지에서 제1 각도 정보 및 제2 각도 정보를 추출하기 위해 촬영된 이미지의 색상, 채도, 명도(HSV)를 변환시킬 수 있다. 프로세서(130)가 촬영된 이미지의 HSV를 변환하는 방법에는 이진 이미지(binary image)로 변환하는 방법이 포함될 수 있다. 단, 상술한 이진 이미지로 변환하는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, the
이진 이미지는 임계 값을 기준으로 흑과 백으로만 나타낸 영상을 나타낸다. 본 발명의 일 실시 예에 따라 프로세서(130)는 기 설정된 임계 값을 기준으로 물체 및 물체의 상만 백으로 변환시킬 수 있고, 나머지 배경은 흑으로 변환시킬 수 있다. 단, 상술한 예시는 본원 발명의 일 실시 예를 설명하기 위한 예시일 뿐, 프로세서(130)는 물체 및 물체의 상만 흑으로, 나머지 배경은 백으로도 변환시킬 수 있다. 따라서, 프로세서(130)가 촬영된 이미지를 이진 이미지로 변환시키는 경우 물체 및 물체의 상의 구별이 보다 쉽게 될 수 있으며, 프로세서(130)는 이진 이미지에서 제1 각도 정보 및 제2 각도 정보를 기존에 촬영된 이미지에서 보다 정확하게 추출 할 수 있다.The binary image represents an image shown only in black and white based on the threshold value. According to an embodiment of the present disclosure, the
프로세서(130)는 추출된 제1 각도 정보에 기초하여 카메라(120)로부터 물체를 향하는 제1 직선 벡터를 산출할 수 있고, 평면 거울(110)에 비친 카메라의 상 및 추출된 제2 각도 정보에 기초하여 카메라(120)의 상으로부터 물체를 향하는 제2 직선 벡터를 산출할 수 있다. 프로세서(130)는 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 물체의 3차원 좌표 데이터를 산출할 수 있다.The
물체의 3차원 데이터를 산출하는 구체적인 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A detailed method of calculating three-dimensional data of an object will be described later with reference to FIGS. 3 to 5B.
일반적으로 움직이는 이미지는 동영상(Streaming Video)을 나타내고, 움직이지 않는 이미지인 정지된 화면은 동영상과 구별되도록 프레임(frame)으로 나타낸다. 따라서, 동영상과 같이 움직이는 이미지는 복수 개의 정지된 화면인 프레임이 빠른 속도로 넘겨지면서 나타나는 이미지를 나타낸다.In general, a moving image represents a streaming video, and a still image, which is a non-moving image, is represented by a frame so as to be distinguished from the video. Therefore, an image moving like a video represents an image that appears while the frames, which are a plurality of still images, are turned over at a high speed.
본 발명의 일 실시 예에 따른 이미지는 움직이지 않는 이미지인 프레임을 나타내며, 동영상의 경우 움직이는 이미지로 설명하도록 한다.An image according to an embodiment of the present invention represents a frame that is a non-moving image, and in the case of a video, it is described as a moving image.
따라서, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 이미지인 동영상인 경우 프로세서(130)는 촬영된 동영상을 복수 개의 이미지로 분할할 수 있고, 프로세서(130)는 복수 개의 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있으며, 복수 개의 이미지 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동을 식별할 수 있다.Therefore, when the captured image is a moving image of an object according to an embodiment of the present invention, the
또한, 본 발명의 일 실시 예에 다른 공간 내의 물체 운동 분석 장치(100)는 프로세서(130)에 의해 식별된 물체의 3차원 운동 궤적을 디스플레이할 수 있는 디스플레이를 더 포함할 수 있다.In addition, the object
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to an exemplary embodiment.
도 2를 참조하면, 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 평면 거울 앞에 위치된 물체와 평면 거울에 비친 물체의 상이 공간 내의 물체 운동 분석 장치에 포함된 카메라의 화각 내에 위치되도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영한다(S210).Referring to FIG. 2, in the method of controlling an object motion analysis device in a space, an image of an object positioned in front of the plane mirror and an object reflected in the plane mirror is positioned from an angle of view of the camera included in the object motion analysis device in space. One camera disposed at a predetermined position captures an image including an object and an image of the object at the same time (S210).
촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S220).First angle information between the object in the photographed image and the camera and second angle information between the image of the object and the camera are extracted (S220).
본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method of extracting the first and second angle information, the image photographed by the camera to include the object and the image of the object at the same time is divided into an area including the object and an area including the image of the object. Can be. The first angle information may be extracted from an image including only an area including an object, and the second angle information may be extracted from an image including only an area including an image of the object.
또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, according to another embodiment of the present invention, the first angle information and the second angle information may be extracted while the color, saturation, and brightness (HSV) of the captured image are converted. The HSV of the captured image may be converted to a binary image. However, the method of converting the above-described binary image is only an example for describing an embodiment of the present invention and is not limited thereto.
추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S230).3D coordinate data of the object is calculated based on the extracted first and second angle information (S230).
본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 평면 거울에 비친 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, in the method of calculating the three-dimensional coordinate data of an object, first and second linear vectors directed from the camera toward the object are calculated on the basis of the first angle information, and the image and the second of the camera reflected on the plane mirror. Based on the angle information, a second straight line vector toward the object is calculated from the image of the camera, and three-dimensional data of the object may be calculated by extracting intersection points of the calculated first and second straight line vectors.
물체의 3차원 데이터가 산출되는 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.The method of calculating the three-dimensional data of the object will be described later with reference to FIGS. 3 to 5B.
또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, when the captured image is a moving image of the object according to an embodiment of the present disclosure, the captured video may be divided into a plurality of images, and three-dimensional coordinate data of the object may be calculated from the plurality of divided images. have. In addition, the three-dimensional motion of the object may be identified based on the three-dimensional coordinate data of the object calculated from each of the plurality of images.
본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the 3D motion trajectory of the object identified by the above-described method may be displayed.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.3 is a view for explaining the structure of the object motion analysis apparatus in space according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Referring to FIG. 3, one
구체적으로 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Specifically, one
또한, 본 발명의 일 실시 예에 따른 카메라(120)는 평면 거울(110) 앞에 위치된 물체(310)와 평면 거울(110)에 비친 물체의 상(311)이 카메라(120)의 화각 내에 위치되도록 배치될 수 있고, 배치된 카메라(120)는 물체(310)와 물체의 상(311)이 동시에 포함된 이미지를 촬영할 수 있다.In addition, in the
또한, 상술한 카메라(120)와 동일하게 평면 거울(110)에 비친 카메라의 상(121)도 물체(310)와 물체의 상(311)이 동시에 포함되도록 이미지를 촬영할 수 있다.In addition, similar to the
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함되는 프로세서(도시되지 않음)는 촬영된 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있다. 물체의 3차원 좌표 데이터가 산출되는 방법은 후술하기로 한다.A processor (not shown) included in the apparatus for analyzing object motion in space according to an embodiment of the present invention may calculate 3D coordinate data of an object in a captured image. The method of calculating the three-dimensional coordinate data of the object will be described later.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.4A and 4B illustrate a method of extracting angle information between an object and a camera, according to an exemplary embodiment.
도 4a는 본 발명의 일 실시 예에 따라 카메라(120)가 촬영한 이미지 영역을 설명하기 위한 도면이다.4A is a diagram for describing an image area photographed by the
도 4a를 참조하면, 본 발명의 일 실시 예에 따른 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보가 추출되기 위해, 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다.Referring to FIG. 4A, first angle information formed by an
본 발명의 일 실시 예에 따라, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present disclosure, when the horizontal axis is the x axis and the vertical axis is the y axis, the preset horizontal angle of view of the
따라서, 카메라(120)의 좌표 O로부터 M까지의 거리는 삼각 함수 계산법 이용됨으로써, 아래의 식 (1)과 같이 나타낼 수 있다.Therefore, the distance from the coordinates O to M of the
(1) (One)
도 4b는 본 발명의 일 실시 예에 따른 상술한 제1 각도 정보 및 제2 각도 정보를 추출하는 구체적인 방법을 설명하는 도면이다.4B is a view for explaining a specific method of extracting the above-described first angle information and second angle information according to an embodiment of the present invention.
도 4b를 참조하면, 본 발명의 일 실시 예에 따르면 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Referring to FIG. 4B, according to an embodiment of the present disclosure, first angle information formed by the
제1 각도 정보가 추출되도록 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(410)의 x좌표값인 x1이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(410)의 y좌표값인 y1이 산출될 수 있다.The x coordinate value and the y coordinate value of the
제1 각도 정보(Ø1 및 θ1)는 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제1 각도 정보는 아래의 식 (2) 내지 식 (5)와 같이 추출될 수 있다.The first angle information Ø 1 and θ 1 may be extracted by x and y coordinate values of the
(2) (2)
(3) (3)
(4) (4)
(5) (5)
마찬가지로, 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체의 상(411)의 x좌표값인 x2가 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체의 상(411)의 y좌표값인 y2가 산출될 수 있다.Similarly, the x coordinate value and the y coordinate value of the
제2 각도 정보(Ø2 및 θ2)는 상술한 식 (2) 내지 (5)와 동일한 방법으로 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제2 각도 정보는 아래의 식 (6) 및 식 (7)와 같이 추출될 수 있다.The second angle information Ø 2 and θ 2 may be extracted by the x-coordinate value and the y-coordinate value of the
(7) (7)
(8) (8)
따라서, 상술한 방법에 의해 추출된 제1 각도 정보(Ø1 및 θ1)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø2 및 θ2)는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Therefore, the first angle information Ø 1 and θ 1 extracted by the above-described method is the same as the angle information formed by the
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.5A and 5B are diagrams for describing a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.
도 5a는 본 발명의 일 실시 예에 따라 추출된 제2 각도 정보를 설명하기 위한 도면이다.5A is a diagram for describing extracted second angle information according to an embodiment of the present invention.
도 5a를 참조하면, 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Referring to FIG. 5A, one
평면 거울(110)의 배치는 xy평면에 수직이면서 (-n,0,0) 및 (0,n,0)을 지나는 평면으로 배치될 수 있다. 단, 상술한 평면 거울(110)의 배치는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The arrangement of the
또한, 본 발명의 일 실시 예에 따른 기 설정된 각도 θ'는 45˚일 수 있고, 기 설정된 거리 d는 일 수 있다. 따라서, 카메라(120)의 좌표가 O(0,0,0)이고, 카메라(120)가 y축을 바라보는 경우, 평면 거울(110)에 비친 카메라의 상(121)의 좌표는 C(-n,n,0)이고, 카메라의 상(121)은 x축을 바라보는 것으로 가정될 수 있다. 하지만, 상술한 기 설정된 각도 및 기 설정된 거리는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 값이 가능하며, 다양한 값에 따라 카메라(120)의 좌표 및 카메라의 상(121)의 좌표 또한 달라질 수 있다.In addition, the preset angle θ 'according to an embodiment of the present invention may be 45 °, and the preset distance d is Can be. Therefore, when the coordinate of the
도 5a를 다시 참조하면, 도 4b에서 추출된 물체의 상(311)과 카메라(120)가 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2)는 평면 거울에 비친 카메라의 상(121)과 물체(310)가 이루는 각도 정보와 동일하다.Referring again to FIG. 5A, the second angle information Ø 2 and θ 2 , which are angle information formed by the
도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 구체적으로 설명하기 위한 도면이다.5B is a diagram for describing in detail a method of calculating three-dimensional coordinate data of an object according to an exemplary embodiment.
도 5b를 참조하면, 도 4b에서 추출된 물체(310)와 카메라(120)가 이루는 각도 정보인 제1 각도 정보(Ø1 및 θ1)에 기초하여 카메라(120)로부터 물체(310)를 향하는 제1 직선 벡터()가 산출될 수 있다.Referring to FIG. 5B, the
또한, 도 4b 및 도 5a에서 추출된 물체(310)와 카메라의 상(121)이 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 카메라의 상(121)으로부터 물체(310)를 향하는 제2 직선 벡터()가 산출될 수 있다.Also, the second angle information Ø 2 and θ 2 , which are angle information formed by the
구체적으로, 추출된 제1 각도 정보(Ø1 및 θ1)에 기초하여 아래의 식 (8)과 같이 제1 직선 벡터가 산출될 수 있다. 아래의 식 (8)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정될 수 있다. 단, 상술한 제1 직선 벡터의 y좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니다.Specifically, based on the extracted first angle information (Ø 1 and θ 1) may be a first straight line vector calculation as in equation (8) below. In the following Equation (8), the y coordinate value of the first straight line vector may be set to 1 for convenience of calculation. However, the y-coordinate value of the first linear vector described above is set to 1, but is not limited thereto.
(8) (8)
또한, 추출된 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 아래의 식 (9)와 같이 제2 직선 벡터가 산출될 수 있다. 아래의 식 (9)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정된 경우와 마찬가지로 제2 직선 벡터의 x좌표값이 1로 설정될 수 있다. 단, 상술한 제2 직선 벡터의 x좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, based on the extracted second angle information Ø 2 and θ 2 and the
(9) (9)
상술한 식 (8) 및 식 (9)에 산출된 제1 및 제2 직선 벡터의 교점이 물체의 3차원 좌표 데이터에 해당된다.The intersections of the first and second straight line vectors calculated in the above formulas (8) and (9) correspond to three-dimensional coordinate data of the object.
따라서, 물체(310)의 좌표값 P(x,y,z)의 값은 아래의 식 (10) 내지 식 (12)와 같이 나타낼 수 있다.Therefore, the value of the coordinate value P (x, y, z) of the
(10) 10
(11) (11)
(12) (12)
상술한 식 (10) 내지 식 (12)에서 i 및 k는 임의의 배수를 나타낸다.In the above formulas (10) to (12), i and k represent arbitrary multiples.
따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 좌표 데이터가 산출될 수 있다.Therefore, the three-dimensional coordinate data of the object can be calculated while the intersection of the first and second straight line vectors calculated as described above is extracted.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a control method of an apparatus for analyzing an object motion in a space according to another exemplary embodiment.
도 6을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 오목 렌즈에 의한 물체의 상을 동시에 포함하는 이미지를 촬영한다(S610).Referring to FIG. 6, in a control method of an apparatus for analyzing an object motion in a space according to another embodiment of the present invention, one camera disposed such that a concave lens and a predetermined portion overlap with an object and an object by a concave lens The image including the image at the same time is taken (S610).
촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S620).First angle information between the object in the photographed image and the camera and second angle information between the image of the object and the camera are extracted (S620).
본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 오목 렌즈에 의한 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 오목 렌즈에 의한 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method of extracting the first and second angle information, the image photographed so that the image of the object by the camera and the concave lens are included at the same time includes an area including the object and the image of the object. It can be divided into divided regions. The first angle information may be extracted from an image including only an area including an object, and the second angle information may be extracted from an image including only an area including an image of the object by the concave lens.
또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, according to another embodiment of the present invention, the first angle information and the second angle information may be extracted while the color, saturation, and brightness (HSV) of the captured image are converted. The HSV of the captured image may be converted to a binary image. However, the method of converting the above-described binary image is only an example for describing an embodiment of the present invention and is not limited thereto.
추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S630).3D coordinate data of the object is calculated based on the extracted first and second angle information (S630).
본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 오목 렌즈에 의한 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, in the method of calculating the three-dimensional coordinate data of an object, a first linear vector toward the object is calculated from the camera based on the first angle information, and the image and the second of the camera by the concave lens are calculated. Based on the angle information, a second straight line vector toward the object is calculated from the image of the camera, and three-dimensional data of the object may be calculated by extracting intersection points of the calculated first and second straight line vectors.
물체의 3차원 데이터가 산출되는 방법은, 도 7 내지 도 10을 참조하여 후술하기로 한다.The method of calculating the three-dimensional data of the object will be described later with reference to FIGS. 7 to 10.
또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, when the captured image is a moving image of the object according to an embodiment of the present disclosure, the captured video may be divided into a plurality of images, and three-dimensional coordinate data of the object may be calculated from the plurality of divided images. have. In addition, the three-dimensional motion of the object may be identified based on the three-dimensional coordinate data of the object calculated from each of the plurality of images.
본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the 3D motion trajectory of the object identified by the above-described method may be displayed.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.7 is a view showing the characteristics of a concave lens according to another embodiment of the present invention.
일반적으로 오목 렌즈(720)를 통해 물체(310)는 위치에 관계없이 항상 축소된 정립 허상이 만들어 질 수 있다.In general, through the
도 7을 참조하면, 물체(310)는 오목 렌즈(720)에 의하여 정립 허상인 물체의 상(710)이 만들어 질 수 있다. 오목 렌즈(720)의 중심점 G로부터 물체(310)까지의 거리는 절댓값 a로 나타낼 수 있다. 또한, 오목 렌즈(720)의 중심점 G로부터 오목 렌즈에 의한 물체의 상(710)까지의 거리는 절댓값 b로 나타낼 수 있다.Referring to FIG. 7, an
오목 렌즈(720)의 중심점 G로부터 초점 F까지의 거리인 초점 거리의 절댓값은 f로 나타낼 수 있다. 오목 렌즈(720)의 중심점 G로부터 허초점 F?까지의 거리는 초점 거리와 마찬가지로 절댓값 f로 나타낼 수 있다. The absolute value of the focal length, which is the distance from the center point G of the
물체(310)와 오목 렌즈(720)에 의해 맺혀진 정립 허상인 물체의 상(710)의 거리는 아래의 식 (13)과 같은 렌즈의 공식에 의하여 산출될 수 있다.The distance between the
(13) (13)
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.8 is a view for explaining the structure of the object motion analysis apparatus in space according to another embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체의 운동 분석 장치로 스마트 폰이 도시되어 있지만 상술한 스마트 폰은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니며 공간 내의 물체 운동 분석 장치는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.Referring to FIG. 8, although a smart phone is illustrated as an apparatus for analyzing a motion of an object in a space according to an embodiment of the present disclosure, the above-described smart phone is only an example for describing an embodiment of the present invention. In addition, the object motion analysis apparatus in the space includes a camera capable of capturing an image, and any device may be any device capable of performing analysis of the photographed image.
도 8(a)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)가 물체(310) 및 오목 렌즈(720)에 의한 물체의 상(710)이 동시에 포함되도록 이미지를 촬영하는 것을 나타낸 것이다.FIG. 8A illustrates an
도 8(a)를 참조하면, 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되도록 카메라(120)는 오목 렌즈(720)와 기 설정된 부분이 겹치도록 배치될 수 있다. 또한, 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다.Referring to FIG. 8A, the
도 8(b)는 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈(720)에 의한 카메라의 상(810)을 설명하기 위한 도면이다.FIG. 8B is a view for explaining an
도 8(b)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되는 경우, 물체(310)는 두 개의 카메라(120, 810)로부터 촬영된 것으로 가정될 수 있다.Referring to FIG. 8B, when the
따라서, 물체(310)는 오목 렌즈(720)를 통해 카메라(710)를 바라본다고 가정될 수 있고, 물체(310)는 카메라(710)로부터 촬영되는 동시에 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 촬영될 수 있다. 따라서, 카메라(710)로부터 관측된 지점 및 카메라의 상(810)으로부터 관측된 지점과 물체(310)가 이루는 각인 시차(θ'')가 형성될 수 있다.Thus, it can be assumed that the
카메라(120)에서 바라본 오목 렌즈(720)에 의한 물체의 상(710)과 물체(310)에서 바라본 오목 렌즈(720)에 의한 카메라의 상(810)과의 관계는 동일한 오목 렌즈(720)가 사용되는 경우이므로 같아야 한다.The relationship between the
따라서, 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위의 R점에서 교차될 수 있다.Thus, a straight line looking at the
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
도 9를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 촬영된 이미지 내의 물체(910)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 오목 렌즈에 의한 물체의 상(911)과 카메라(120)가 이루는 제2 각도 정보는 도 4a 및 도 4b에서와 동일한 방법에 의해 추출될 수 있다.Referring to FIG. 9, the first angle information formed by the
본 발명의 일 실시 예에 따르면 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다. 구체적으로, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, a
제1 및 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값과 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(910)의 x좌표값인 x3과 물체의 상(911)의 x좌표값인 x4이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(910)의 y좌표값인 y3과 물체(911)의 y좌표값인 y4가 산출될 수 있다.The x and y coordinate values of the
제1 각도 정보는 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값에 의해, 제2 각도 정보는 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값에 의해 추출될 수 있다.The first angle information is extracted by the x and y coordinate values of the
따라서, 도 4a 및 도 4b에서와 동일한 방법이 적용되면서 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)는 아래의 식 (14) 내지 식 (17)와 같이 추출될 수 있다.Therefore, while the same method as in FIGS. 4A and 4B is applied, the first angle information Ø 3 and θ 3 and the second angle information Ø 4 and θ 4 are obtained by the following equations (14) to (17) Can be extracted together.
(14) (14)
(15) (15)
(16) (16)
(17) (17)
따라서, 도 4a 및 도 4b에서와 동일한 방법에 의해 추출된 제1 각도 정보(Ø3 및 θ3)는 물체와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø4 및 θ4)는 오목 렌즈에 의한 물체의 상과 카메라(120)가 이루는 각도 정보와 동일하다.Accordingly, the first angle information Ø 3 and θ 3 extracted by the same method as in FIGS. 4A and 4B is the same as the angle information formed by the object and the
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.FIG. 10 is a diagram for describing a method of calculating three-dimensional coordinate data of an object according to another exemplary embodiment.
도 10을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)는 기 설정된 위치(H(-xh,-yh,0))에 배치될 수 있고, 오목 렌즈(720)의 테두리 일면을 향하도록 배치될 수 있다.Referring to FIG. 10, the
본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터가 산출되는 방법은 도 9에서 추출된 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)에 기초하여 산출될 수 있다.According to another embodiment of the present invention, a method of calculating three-dimensional coordinate data of an object may be performed on the first angle information Ø 3 and θ 3 and the second angle information Ø 4 and θ 4 extracted from FIG. 9. Can be calculated based on this.
구체적으로, 제1 각도 정보(Ø3 및 θ3)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하다. 제1 각도 정보(Ø3 및 θ3)에 기초하여 카메라(120)의 좌표 H(-xh,-yh,0)로부터 물체(310)의 좌표 P(-x3',y3',z3')를 향하는 제1 직선 벡터 가 산출될 수 있다.In detail, the first angle information Ø 3 and θ 3 are identical to the angle information formed by the
아래의 식 (18)은 계산의 편의성을 위해 카메라(120)로부터 물체(310)를 향하는 거리를 1로 하여 제1 직선 벡터가 산출된 것을 나타낸다.Equation (18) below shows that the first straight line vector is calculated with a distance from the
(18) (18)
오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 향하는 제2 직선 벡터 는 아래와 같은 방법으로 산출될 수 있다.Second straight line vector from the
도 8(a)에서 설명한 바와 같이 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다. 상술한 특징의 적용으로 오목 렌즈(720)에 의한 물체의 상(710)의 좌표 Q(-x4',y4',z4')는 식 (13)의 렌즈 공식에 의해 아래의 식 (19) 내지 식(22)과 같이 물체(310)의 좌표 P(-x3',y3',z3')와의 관계가 형성될 수 있다.As described with reference to FIG. 8A, the center of the
(19) (19)
(20) 20
(21) (21)
(22) (22)
도 8(b)에서 설명한 바와 같이 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위에서 교차될 수 있고, 교차되는 좌표는 R(-x5,0,z5)로 설정될 수 있다.As described with reference to FIG. 8B, the
제2 직선 벡터 는 D(-xh',-yh',0)와 R(-x5,0,z5)의 좌표에 의해 산출될 수 있다.Second straight line vector May be calculated by the coordinates of D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 ).
상술한 제1 직선 벡터가 산출되는 방법이 동일하게 적용되면서 카메라(120)로부터 물체의 상(710)을 향하는 직선 벡터가 산출될 수 있고, 산출된 직선 벡터에 의해 아래의 식 (23)와 같이 좌표 R(-x5,0,z5)가 산출될 수 있다.While the above-described method of calculating the first straight line vector is applied in the same manner, a straight line vector toward the
(23) (23)
또한, 오목 렌즈(720)에 의한 카메라의 상(810)의 좌표 D(-xh',-yh',0)는 식 (19) 내지 식(22)과 동일한 방법으로 아래의 식 (24) 내지 식(26)과 같이 산출될 수 있다.In addition, the coordinates D (-x h ', -y h ', 0) of the
(24) (24)
(25) (25)
(26) (26)
따라서, 좌표 D(-xh',-yh',0) 및 R(-x5,0,z5)을 지나는 제2 직선 벡터 는 아래의 식 (27)과 같이 산출될 수 있다.Thus, a second straight vector through coordinates D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 ) May be calculated as in Equation (27) below.
(27) (27)
따라서, 산출된 제1 직선 벡터 및 제2 직선 벡터 의 교점이 아래의 식 (28) 내지 식 (30)와 같이 추출되어 물체(310)의 3차원 좌표 P(-x3',y3',z3')가 산출될 수 있다.Thus, the calculated first straight line vector And second straight line vector The intersection of may be extracted as in Equations (28) to (30) below to calculate the three-dimensional coordinates P (-x 3 ', y 3 ', z 3 ') of the
(28) (28)
(29) (29)
(30) (30)
상술한 식 (28) 내지 식 (30)에서 i 및 k는 임의의 배수를 나타낸다.In the above formulas (28) to (30), i and k represent arbitrary multiples.
따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체(310)의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, three-dimensional coordinate data of the
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.11 illustrates a result of analyzing a three-dimensional motion of an object in space according to an embodiment of the present invention.
도 11(a)를 참조하면, 본 발명의 일 실시 예에 따른 롤러코스터의 3차원 운동이 분석되도록 평면 거울 앞에 롤러코스터가 위치되어 있고, 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 롤러코스터와 평면 거울에 비친 롤러코스터의 상이 동시에 포함되도록 촬영하였다.Referring to FIG. 11A, a roller coaster is positioned in front of a plane mirror to analyze the three-dimensional motion of the roller coaster according to an embodiment of the present invention, and the camera included in the three-dimensional motion analysis apparatus of the object in space is The image was taken so that the roller coaster and the image of the roller coaster reflected on the plane mirror were included at the same time.
도 11(b)는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 롤러코스터의 3차원 운동 궤적과 동일한 롤러코스터의 3차원 운동 궤적이 나타난 것을 보여준다.FIG. 11 (b) shows the three-dimensional motion trajectory of the roller coaster that is identical to the three-dimensional motion trajectory of the actual roller coaster by the apparatus for analyzing the motion of an object in a space according to an embodiment of the present invention.
따라서, 모션 캡쳐 시스템과 같은 고가의 장비가 사용되지 않고도 물체의 3차원 운동의 분석이 가능하다.Thus, it is possible to analyze three-dimensional motion of an object without using expensive equipment such as a motion capture system.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.12 illustrates a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.
도 12(a)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 운동이 분석되도록 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 물체 및 오목 렌즈에 의한 물체의 상이 동시에 보이도록 촬영하였다.Referring to FIG. 12 (a), a camera included in an apparatus for analyzing three-dimensional motion of an object in a space is different from an object by an object and a concave lens such that the three-dimensional motion of the object is analyzed according to another embodiment of the present invention. Photographed to be visible at the same time
도 12(b)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 물체의 3차원 운동 궤적과 동일한 물체의 3차원 운동 궤적이 나타난 것을 보여준다.12 (b) shows that the 3D motion trajectory of the same object as the 3D motion trajectory of the real object is displayed by the object motion analysis apparatus in the space according to another embodiment of the present invention.
이상과 같이 본 발명의 다양한 실시 예에 따르면, 모션 캡쳐 시스템과 같은 고가의 장비 없이 물체의 3차원 운동의 분석이 가능하다. 또한, 기존에는 물체의 3차원 운동을 분석하기 위해 복수 개의 카메라가 필요했지만 본 발명의 다양한 실시 예에 따르면 하나의 카메라가 포함된 공간 내의 물체 운동 분석 장치만으로 물체의 3차원 운동의 분석이 가능하므로 비용이 상대적으로 적게 드는 장점이 있다.As described above, according to various embodiments of the present disclosure, it is possible to analyze a three-dimensional motion of an object without expensive equipment such as a motion capture system. In addition, conventionally, a plurality of cameras were required to analyze three-dimensional motion of an object. According to various embodiments of the present disclosure, the three-dimensional motion of an object may be analyzed using only an object motion analysis device in a space including one camera. The advantage is relatively low cost.
또한, 본 발명의 다양한 실시 예에 따르면, 평면 거울 대신 오목 렌즈가 사용되는 경우 평면 거울보다 넓은 화각이 확보될 수 있으며, 평면 거울에 비해 휴대성이 증진될 수 있는 장점이 있다.Further, according to various embodiments of the present disclosure, when a concave lens is used instead of a flat mirror, a wider angle of view may be secured than a flat mirror, and portability may be improved compared to a flat mirror.
또한, 본 발명의 다양한 실시 예에 따르면, 물체의 운동 분석은 하나의 물체뿐만 아니라 복수 개의 물체의 운동이 동시에 분석될 수 있다. 예를 들면, 복수 개의 물체가 충돌하는 경우에도 복수 개의 물체의 운동이 동시에 분석될 수 있다.In addition, according to various embodiments of the present disclosure, in the motion analysis of an object, motions of not only one object but also a plurality of objects may be analyzed simultaneously. For example, even when a plurality of objects collide, motions of the plurality of objects may be analyzed at the same time.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the above has been shown and described with respect to preferred embodiments of the invention, the invention is not limited to the specific embodiments described above, it is usually in the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.
100: 물체 운동 분석 장치
110: 평면 거울
120: 카메라
130: 프로세서100: object motion analysis device
110: flat mirror
120: camera
130: processor
Claims (10)
평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리만큼 이격되며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.In the control method of the object motion analysis device in space,
Photographing an image including the object and the image of the object simultaneously by a camera disposed at a predetermined position from the plane mirror such that an object located in front of the plane mirror and an image of the object reflected by the plane mirror are located within an angle of view;
Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And
Calculating three-dimensional coordinate data of the object based on the extracted first and second angle information;
The predetermined position of the one camera forms a predetermined angle with the plane mirror and is spaced apart by a predetermined distance,
Computing the three-dimensional coordinate data,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information reflected on the plane mirror; Calculating a second straight line vector and extracting intersection points of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method of claim 1,
And identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method of claim 2,
And displaying the identified three-dimensional motion trajectory of the object.
상기 제1 및 제2 각도 정보를 추출하는 단계는,
상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method of claim 1,
Extracting the first and second angle information,
The image is divided into an area including the object and an area including the image of the object, extracting the first angle information from the area containing the object, and the second angle information from the area containing the image of the object. The control method of the object motion analysis device in space to extract.
오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.In the control method of the object motion analysis device in space,
Photographing an image including an object and an image of the object caused by the concave lens at the same time by one camera disposed such that the concave lens and the predetermined portion overlap each other;
Extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera; And
Calculating three-dimensional coordinate data of the object based on the extracted first and second angle information;
Computing the three-dimensional coordinate data,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information by the concave lens; Calculating a second straight line vector and extracting intersection points of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method of claim 5,
And identifying a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method of claim 6,
And displaying the identified three-dimensional motion trajectory of the object.
상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 하나의 카메라; 및
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고,
상기 프로세서는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고,
상기 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격되는, 공간 내의 물체 운동 분석 장치.Flat mirror;
One camera positioned at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located within an angle of view, and simultaneously photographing an image including the lower object and the image of the object at the same time. ; And
And a processor configured to extract first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera.
The processor,
Calculating a first straight line vector facing the object from the camera based on the first angle information, and pointing the object from the image of the camera based on the image of the camera and the second angle information reflected on the plane mirror; Calculating a second linear vector, extracting intersection points of the calculated first and second linear vectors, and calculating three-dimensional coordinate data of the object;
And a predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced apart from a predetermined distance.
상기 프로세서는,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는, 공간 내의 물체 운동 분석 장치.The method of claim 8,
The processor,
And a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from a plurality of images, respectively.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함하는, 공간 내의 물체 운동 분석 장치.The method of claim 9,
And a display configured to display a three-dimensional motion trajectory of the identified object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190085620A KR20190085620A (en) | 2019-07-19 |
KR102028726B1 true KR102028726B1 (en) | 2019-10-07 |
Family
ID=67512095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102028726B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835997B2 (en) * | 2019-09-27 | 2023-12-05 | Electronic Theatre Controls, Inc. | Systems and methods for light fixture location determination |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050066679A (en) * | 2003-12-26 | 2005-06-30 | 김형복 | The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera |
KR100763941B1 (en) * | 2006-02-09 | 2007-10-05 | 전북대학교산학협력단 | Equipment of Image Stereo Omni-Directional |
-
2018
- 2018-01-11 KR KR1020180003704A patent/KR102028726B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
Also Published As
Publication number | Publication date |
---|---|
KR20190085620A (en) | 2019-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10354129B2 (en) | Hand gesture recognition for virtual reality and augmented reality devices | |
CN108292362B (en) | Gesture recognition for cursor control | |
US8711198B2 (en) | Video conference | |
Klein | Visual tracking for augmented reality | |
Tian et al. | Handling occlusions in augmented reality based on 3D reconstruction method | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
WO2014181725A1 (en) | Image measurement device | |
CN111935393A (en) | Shooting method, shooting device, electronic equipment and storage medium | |
KR20150013709A (en) | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera | |
KR102397343B1 (en) | Method and device for blurring a virtual object in a video | |
KR20110132260A (en) | Monitor based augmented reality system | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
Romero et al. | FlowCap: 2D human pose from optical flow | |
Liu et al. | Holoscopic 3D micro-gesture database for wearable device interaction | |
Min et al. | Non-contact and real-time dynamic displacement monitoring using smartphone technologies | |
WO2013125098A1 (en) | System and method for computer graphics image processing using augmented reality technology | |
KR102028726B1 (en) | Analysis apparatus of object motion in space and control method thereof | |
Belo et al. | Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects | |
JP2022524787A (en) | Methods, systems, and programs for object detection range estimation | |
JP6289027B2 (en) | Person detection device and program | |
KR20170093421A (en) | Method for determining object of interest, video processing device and computing device | |
US10198617B2 (en) | Image-acquisition apparatus | |
Lyubanenko et al. | Multi-camera finger tracking and 3d trajectory reconstruction for hci studies | |
JP2008203538A (en) | Image display system | |
Kuronen et al. | 3d hand movement measurement framework for studying human-computer interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |