KR20190085620A - Analysis apparatus of object motion in space and control method thereof - Google Patents
Analysis apparatus of object motion in space and control method thereof Download PDFInfo
- Publication number
- KR20190085620A KR20190085620A KR1020180003704A KR20180003704A KR20190085620A KR 20190085620 A KR20190085620 A KR 20190085620A KR 1020180003704 A KR1020180003704 A KR 1020180003704A KR 20180003704 A KR20180003704 A KR 20180003704A KR 20190085620 A KR20190085620 A KR 20190085620A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- angle information
- calculating
- plane mirror
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
본 발명은 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다. 보다 상세하게는, 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an apparatus for analyzing an object motion in a space and a control method thereof. More particularly, the present invention relates to an apparatus for analyzing an object motion in a space capable of analyzing a three-dimensional motion of an object and a control method thereof.
학생들이나 연구원들은 물리 관련 실험이나 연구 활동을 위해 물체의 움직임이나 운동을 분석해야 하는 경우가 많이 발생된다. 하지만 물체의 운동 중 2차원 또는 3차원 운동이 많으며, 특히 일반적으로 물체의 3차원 운동을 분석하기 위해서는 초고속카메라나 모션 캡쳐 시스템(Motion Capture System)이 필요하다.Students and researchers often need to analyze the motion or motion of objects for physics-related experiments or research activities. However, there are many two-dimensional or three-dimensional motions during the motion of an object, and in particular, a high-speed camera or a motion capture system is generally required to analyze the three-dimensional motion of an object.
초고속 카메라는 일반적인 카메라와는 달리 동영상을 촬영할 때 세밀한 프레임 간격으로 연속촬영이 가능하고, 촬영된 동영상을 프레임 저하 없이 매우 느린 속도로 재생할 수 있는 카메라를 나타낸다.A high-speed camera, unlike a typical camera, is capable of continuous shooting at fine frame intervals when shooting a movie, and a camera capable of playing back the shot movie at a very low speed without frame deterioration.
동영상은 움직이는 이미지를 나타내고, 프레임은 움직이지 않는 이미지를 나타낸다. 동영상은 복수 개의 프레임이 빠른 속도로 넘어가면서 이미지가 움직이는 것처럼 나타난다. 동영상 프레임이란 동영상 1초가 얼마나 많은 화면으로 구성되는지 나타내는 수치로, fps로도 표시된다. 예를 들어 30fps라고 하면, 1초당 30장의 이미지가 움직이는 동영상을 나타낸다. 따라서, 동영상 프레임이 높을수록 부드럽고 선명한 동영상이 촬영될 수 있다.The video shows the moving image, and the frame shows the moving image. A video appears as if the image moves as multiple frames move at a fast pace. A video frame is a numerical value that indicates how many screens are composed of one second of video, and is also displayed in fps. For example, if you say 30 fps, 30 images per second are moving. Therefore, the higher the moving picture frame, the smoother and clearer the moving picture can be taken.
일반적인 카메라가 1초 동안 24장에서 30장의 프레임을 규칙적으로 촬영한다면, 초고속 카메라는 1초에 수백 프레임, 수천 프레임 또는 수만 프레임까지도 촬영할 수 있는 카메라로 일반적인 카메라에 비해 고가의 장비에 해당된다.If a typical camera regularly shoots 24 to 30 frames per second, a high-speed camera can cost hundreds of frames per second, thousands of frames, or tens of thousands of frames per second.
또한, 3차원 운동을 분석하기 위해 초고속 카메라 이외에도 모션 캡쳐 시스템이 이용된다. 모션 캡쳐 시스템은 3차원 공간상에서 물체의 움직임에 대한 위치와 방위를 측정할 수 있고, 측정된 물체의 움직임에 대한 위치와 방위를 컴퓨터가 사용할 수 있는 형태의 정보로 기록하여 물체의 3차원 운동을 분석할 수 있는 장치이다.In addition, motion capture systems are used in addition to high-speed cameras to analyze 3D motion. The motion capture system can measure the position and orientation of an object in three-dimensional space and record the position and orientation of the measured object motion as information that can be used by a computer. It is a device that can analyze.
모션 캡쳐 시스템으로부터 얻은 정보는 모션 캡쳐 데이터라고 한다. 모션 캡쳐 시스템은 데이터를 추출하는 방법에 따라 광학식, 기계식 또는 자기식으로 나뉘어 질 수 있다.The information obtained from the motion capture system is called motion capture data. Motion capture systems can be optically, mechanically, or magnetically divided depending on how data is extracted.
광학식의 경우에는 물체에 부착된 마크를 복수 개의 카메라가 동시에 추적하여 물체의 2차원 좌표가 추출되고, 추출된 복수 개의 2차원 좌표가 종합되면서 물체의 3차원 좌표가 추출될 수 있다. 상술한 마크는 입사한 광선을 광원으로 그대로 되돌려 보내는 재귀 반사가 가능한 마크를 나타낸다.In the case of an optical system, a mark attached to an object is tracked by a plurality of cameras at the same time, so that two-dimensional coordinates of an object are extracted and a plurality of extracted two-dimensional coordinates are integrated to extract three-dimensional coordinates of the object. The mark described above represents a mark capable of retroreflective reflection by returning the incident light ray to the light source as it is.
기계식의 경우에는 기계에 부착된 센서에 의해 기계의 움직임이 인식되면서 3차원 좌표가 추출될 수 있다.In the case of the mechanical type, the three-dimensional coordinates can be extracted while the movement of the machine is recognized by the sensor attached to the machine.
자기식의 경우에는 자기장을 이용하여 복수 개의 카메라가 물체를 추적하고, 추적된 물체의 3차원 좌표가 추출될 수 있다.In the case of the magnetic type, a plurality of cameras can track an object using a magnetic field, and three-dimensional coordinates of the tracked object can be extracted.
하지만, 모션 캡쳐 시스템의 가격은 약 천만원대에서 억대 사이에 해당되는 고가의 장비에 해당되며, 상술한 각각의 방법마다 문제점이 있다.However, the price of a motion capture system corresponds to an expensive apparatus ranging from about 10 million won to a billion units, and each method described above has a problem.
광학식의 경우에는 빛을 내는 광원이나, 물체를 정반사 시키는 거울과 같은 물체가 존재하는 경우 복수 개의 카메라에 의해 촬영된 물체의 좌표가 여러 개로 인식되거나 아예 인식되지 않는 문제점이 있다.In the case of an optical system, when there is an object such as a light source that emits light or a mirror that regularly reflects an object, the coordinates of an object photographed by a plurality of cameras are recognized as multiple or not recognized at all.
또한, 기계식의 경우에는 주로 사람의 움직임이 분석되므로 용도가 한정되는 문제점이 있다.Further, in the case of the mechanical type, there is a problem that the application is limited because the movement of the person is mainly analyzed.
마지막으로, 자기식의 경우 자기장에 영향을 받는 물체인 철이 주를 이루는 쇠붙이와 같은 물체가 존재하면, 물체의 좌표 정확도가 떨어지는 문제점이 있다.Finally, in the case of the magnetic type, if an object such as an iron, which is an object to be influenced by a magnetic field, is present, there is a problem that the coordinate accuracy of the object is deteriorated.
상술한 바와 같이 공간 내의 물체의 운동이 분석되기 위해서는 초고속 카메라나 모션 캡쳐 시스템과 같은 고가의 장비가 요구되는 실정이다. 하지만, 일반인들 또는 학생들은 고가의 장비를 이용하기 어려우므로, 일반인들 또는 학생들이 고가의 장비 없이 공간 내의 물체의 운동을 분석하기 어려운 문제가 있다.As described above, in order to analyze motion of an object in a space, expensive equipments such as a high-speed camera or a motion capture system are required. However, since ordinary people or students can not use expensive equipment, there is a problem that it is difficult for the general public or students to analyze motion of objects in the space without expensive equipment.
본 발명이 해결하려는 과제는, 일반인들 또는 학생들이 고가의 장비를 사용하는 대신 스마트폰과 같은 장치에 포함된 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법을 제공함에 있다.The problem to be solved by the present invention is to provide a method and system for analyzing a three-dimensional motion of an object in a space by using a camera included in a device such as a smart phone, instead of using expensive equipment, And a control method thereof.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고 기 설정된 거리만큼 이격되며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method for controlling an object motion analyzing apparatus in a space, the method comprising: setting an object positioned in front of a plane mirror and a plane mirror, Capturing an image in which one camera disposed at a position simultaneously includes the object and the image of the object; Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object on the basis of the extracted first and second angle information, wherein a predetermined position of the one camera forms a predetermined angle with the plane mirror, Wherein the step of calculating the three-dimensional coordinate data includes calculating a first straight line vector from the camera to the object based on the first angle information, calculating a first straight line vector directed to the object from the camera, 2-dimensional coordinate data of the object can be calculated by calculating a second linear vector directed from the image of the camera to the object based on the 2-angle information, and extracting the intersection of the calculated first and second linear vectors .
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.And identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.And displaying the three-dimensional motion trajectory of the identified object.
상기 제1 및 제2 각도 정보를 추출하는 단계는, 상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출할 수 있다.The extracting of the first and second angle information may include dividing the image into an area including the object and an area including the image of the object and extracting the first angle information from the area containing the object , The second angle information can be extracted from an area including the image of the object.
상술한 목적을 달성하기 위한 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method of controlling an object motion analyzing apparatus in a space, the method comprising: a camera having an object and a concave lens, Capturing an image simultaneously containing an image of an object; Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And calculating the three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein the step of calculating the three-dimensional coordinate data includes calculating, based on the first angle information, Calculates a first straight line vector from the image of the camera to the object based on the image of the camera and the second angle information by the concave lens, The three-dimensional coordinate data of the object can be calculated by extracting the intersection of the first and second straight line vectors.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.And identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.And displaying the three-dimensional motion trajectory of the identified object.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치 평면 거울; 상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 카메라; 및 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고, 상기 프로세서는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격될 수 있다.According to an aspect of the present invention, there is provided a planar mirror for analyzing an object motion in a space according to an embodiment of the present invention. A camera disposed at a predetermined position from the plane mirror so that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located at an angle of view and simultaneously images of the object and the object are captured; And a processor for extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera, Calculates a first straight line vector directed from the camera to the object and calculates a second straight line vector directed from the image of the camera to the object based on the image of the camera reflected by the plane mirror and the second angle information Dimensional coordinate data of the object by extracting an intersection between the calculated first and second straight line vectors, and a predetermined position of the one camera is formed at a predetermined angle with the plane mirror, .
상기 프로세서는, 복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별할 수 있다.The processor can identify a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함할 수 있다.And a display for displaying a three-dimensional motion trajectory of the identified object.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 학생들과 일반인들이 고가의 장비에 비해 상대적으로 가격이 저렴한 일반적인 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있다.According to various embodiments of the present invention as described above, a three-dimensional motion of an object in a space can be analyzed by using a common camera, which is relatively inexpensive compared to expensive equipment, by students and ordinary people.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.
도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
2 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to an embodiment of the present invention.
3 is a diagram illustrating a structure of an object motion analyzing apparatus in a space according to an embodiment of the present invention.
4A and 4B are views for explaining a method of extracting angle information between an object and a camera according to an embodiment of the present invention.
5A and 5B are views for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.
6 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to another embodiment of the present invention.
7 is a view showing characteristics of a concave lens according to another embodiment of the present invention.
8 is a view for explaining a structure of an object motion analyzing apparatus in a space according to another embodiment of the present invention.
9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
10 is a view for explaining a method of calculating three-dimensional coordinate data of an object according to another embodiment of the present invention.
FIG. 11 shows the result of analysis of three-dimensional motion of an object in a space according to an embodiment of the present invention.
FIG. 12 shows a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.As used herein, the expressions " have, " " comprise, " " comprise, " or " comprise may " refer to the presence of a feature (e.g., a numerical value, a function, And does not exclude the presence of additional features.
도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 평면 거울(110), 카메라(120) 및 프로세서(130)을 포함한다.Referring to FIG. 1, an
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이다. 예를 들어 공간 내의 물체 운동 분석 장치(100)는 스마트폰, 카메라가 포함된 노트북과 같은 장치로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.The
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)의 카메라(120)는 하나만 이용될 수 있으며, 평면 거울(110) 앞에 위치된 물체와 평면 거울(110)에 비친 물체의 상이 카메라(120)의 화각 내에 위치되도록 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Only one
하나의 카메라(120)의 기 설정된 위치는 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리로 이격되는 위치일 수 있으며, 배치된 카메라(120)는 물체와 물체의 상이 동시에 포함되도록 이미지를 촬영할 수 있다.The predetermined position of one
본 발명의 일 실시 예에 따라 공간 내의 물체 운동 분석 장치(100)로 스마트 폰의 카메라(120)가 이용되는 경우 스마트 폰의 카메라(120)는 슬로우 모션 기능을 이용하여 물체와 물체의 상이 움직이는 이미지를 촬영할 수 있다.When the
프로세서(130)는 카메라(120)에 의해 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라(120)가 이루는 제2 각도 정보를 추출할 수 있다.The
본 발명의 일 실시 예에 따르면, 프로세서(130)는 촬영된 이미지를 물체와 물체의 상이 구분되도록 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할할 수 있고, 물체가 포함된 영역으로부터 제1 각도 정보를 추출할 수 있고, 물체의 상이 포함된 영역으로부터 제2 각도 정보를 추출할 수 있다.According to an embodiment of the present invention, the
또한, 본 발명의 또 다른 일 실시 예에 따른 프로세서(130)는 촬영된 이미지에서 제1 각도 정보 및 제2 각도 정보를 추출하기 위해 촬영된 이미지의 색상, 채도, 명도(HSV)를 변환시킬 수 있다. 프로세서(130)가 촬영된 이미지의 HSV를 변환하는 방법에는 이진 이미지(binary image)로 변환하는 방법이 포함될 수 있다. 단, 상술한 이진 이미지로 변환하는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, the
이진 이미지는 임계 값을 기준으로 흑과 백으로만 나타낸 영상을 나타낸다. 본 발명의 일 실시 예에 따라 프로세서(130)는 기 설정된 임계 값을 기준으로 물체 및 물체의 상만 백으로 변환시킬 수 있고, 나머지 배경은 흑으로 변환시킬 수 있다. 단, 상술한 예시는 본원 발명의 일 실시 예를 설명하기 위한 예시일 뿐, 프로세서(130)는 물체 및 물체의 상만 흑으로, 나머지 배경은 백으로도 변환시킬 수 있다. 따라서, 프로세서(130)가 촬영된 이미지를 이진 이미지로 변환시키는 경우 물체 및 물체의 상의 구별이 보다 쉽게 될 수 있으며, 프로세서(130)는 이진 이미지에서 제1 각도 정보 및 제2 각도 정보를 기존에 촬영된 이미지에서 보다 정확하게 추출 할 수 있다.A binary image represents an image only in black and white based on a threshold value. According to an exemplary embodiment of the present invention, the
프로세서(130)는 추출된 제1 각도 정보에 기초하여 카메라(120)로부터 물체를 향하는 제1 직선 벡터를 산출할 수 있고, 평면 거울(110)에 비친 카메라의 상 및 추출된 제2 각도 정보에 기초하여 카메라(120)의 상으로부터 물체를 향하는 제2 직선 벡터를 산출할 수 있다. 프로세서(130)는 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 물체의 3차원 좌표 데이터를 산출할 수 있다.The
물체의 3차원 데이터를 산출하는 구체적인 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A specific method of calculating three-dimensional data of an object will be described later with reference to Figs. 3 to 5B.
일반적으로 움직이는 이미지는 동영상(Streaming Video)을 나타내고, 움직이지 않는 이미지인 정지된 화면은 동영상과 구별되도록 프레임(frame)으로 나타낸다. 따라서, 동영상과 같이 움직이는 이미지는 복수 개의 정지된 화면인 프레임이 빠른 속도로 넘겨지면서 나타나는 이미지를 나타낸다.In general, a moving image represents a video (streaming video), and a still image, which is an immobile image, is displayed as a frame so as to be distinguished from a moving image. Therefore, an image moving like a moving picture represents an image appearing as a plurality of still images, which are passed through at a high speed.
본 발명의 일 실시 예에 따른 이미지는 움직이지 않는 이미지인 프레임을 나타내며, 동영상의 경우 움직이는 이미지로 설명하도록 한다.An image according to an embodiment of the present invention represents a frame which is an immobile image, and a moving image in the case of a moving image.
따라서, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 이미지인 동영상인 경우 프로세서(130)는 촬영된 동영상을 복수 개의 이미지로 분할할 수 있고, 프로세서(130)는 복수 개의 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있으며, 복수 개의 이미지 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동을 식별할 수 있다.Accordingly, when the photographed image is a moving image, the
또한, 본 발명의 일 실시 예에 다른 공간 내의 물체 운동 분석 장치(100)는 프로세서(130)에 의해 식별된 물체의 3차원 운동 궤적을 디스플레이할 수 있는 디스플레이를 더 포함할 수 있다.In addition, the object
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to an embodiment of the present invention.
도 2를 참조하면, 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 평면 거울 앞에 위치된 물체와 평면 거울에 비친 물체의 상이 공간 내의 물체 운동 분석 장치에 포함된 카메라의 화각 내에 위치되도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영한다(S210).Referring to FIG. 2, in a method of controlling an object motion analyzing apparatus in a space, an image of an object positioned in front of a plane mirror and an object reflected in a plane mirror is projected from a plane mirror One camera disposed at a predetermined position captures an image including an object and an object simultaneously (S210).
촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S220).The first angle information formed by the object and the camera in the photographed image and the second angle information formed between the image of the object and the camera are extracted (S220).
본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method in which first and second angle information are extracted, an image photographed so that an image of an object and an object are simultaneously included by a camera is divided into an area including the object and an area including the image of the object . The first angle information can be extracted from the image including only the region containing the object and the second angle information can be extracted from the image including only the region including the image of the object.
또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.According to another embodiment of the present invention, the first angle information and the second angle information may be extracted while transforming the color, saturation, and brightness (HSV) of the photographed image. A method in which the HSV of the photographed image is converted may include a method of converting into a binary image. However, the method of converting into the above-mentioned binary image is only an example for explaining one embodiment of the present invention, but it is not limited thereto.
추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S230).The three-dimensional coordinate data of the object is calculated based on the extracted first and second angle information (S230).
본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 평면 거울에 비친 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, a method for calculating three-dimensional coordinate data of an object includes calculating a first straight line vector directed from the camera to an object based on the first angle information, A second straight line vector directed from the image of the camera to the object is calculated based on the angle information, and three-dimensional data of the object can be calculated while the intersection of the calculated first and second straight line vectors is extracted.
물체의 3차원 데이터가 산출되는 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A method of calculating three-dimensional data of an object will be described later with reference to Figs. 3 to 5B.
또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, according to an embodiment of the present invention, when the photographed image is a moving image of an object, the photographed moving image can be divided into a plurality of images, and three-dimensional coordinate data of the object can be calculated from the plurality of divided images have. Further, the three-dimensional motion of the object can be identified based on the three-dimensional coordinate data of the object calculated in each of the plurality of images.
본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the three-dimensional motion trajectory of the object identified by the above-described method can be displayed.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.3 is a diagram illustrating a structure of an object motion analyzing apparatus in a space according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Referring to FIG. 3, one
구체적으로 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Specifically, one
또한, 본 발명의 일 실시 예에 따른 카메라(120)는 평면 거울(110) 앞에 위치된 물체(310)와 평면 거울(110)에 비친 물체의 상(311)이 카메라(120)의 화각 내에 위치되도록 배치될 수 있고, 배치된 카메라(120)는 물체(310)와 물체의 상(311)이 동시에 포함된 이미지를 촬영할 수 있다.The
또한, 상술한 카메라(120)와 동일하게 평면 거울(110)에 비친 카메라의 상(121)도 물체(310)와 물체의 상(311)이 동시에 포함되도록 이미지를 촬영할 수 있다.Also, the
본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함되는 프로세서(도시되지 않음)는 촬영된 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있다. 물체의 3차원 좌표 데이터가 산출되는 방법은 후술하기로 한다.A processor (not shown) included in an object motion analyzing apparatus in a space according to an embodiment of the present invention can calculate three-dimensional coordinate data of an object in the photographed image. A method of calculating three-dimensional coordinate data of an object will be described later.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.4A and 4B are views for explaining a method of extracting angle information between an object and a camera according to an embodiment of the present invention.
도 4a는 본 발명의 일 실시 예에 따라 카메라(120)가 촬영한 이미지 영역을 설명하기 위한 도면이다.FIG. 4A is a view for explaining an image area taken by the
도 4a를 참조하면, 본 발명의 일 실시 예에 따른 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보가 추출되기 위해, 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다.Referring to FIG. 4A, the first angle information formed by the
본 발명의 일 실시 예에 따라, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, when the horizontal axis is the x-axis and the vertical axis is the y-axis, the predetermined horizontal angle of view of the
따라서, 카메라(120)의 좌표 O로부터 M까지의 거리는 삼각 함수 계산법 이용됨으로써, 아래의 식 (1)과 같이 나타낼 수 있다.Therefore, the distance from the coordinate O to M of the
(1) (One)
도 4b는 본 발명의 일 실시 예에 따른 상술한 제1 각도 정보 및 제2 각도 정보를 추출하는 구체적인 방법을 설명하는 도면이다.4B is a view for explaining a specific method of extracting the first angle information and the second angle information according to an embodiment of the present invention.
도 4b를 참조하면, 본 발명의 일 실시 예에 따르면 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Referring to FIG. 4B, according to an embodiment of the present invention, the first angle information formed by the
제1 각도 정보가 추출되도록 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(410)의 x좌표값인 x1이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(410)의 y좌표값인 y1이 산출될 수 있다.The x-coordinate value and y-coordinate value of the
제1 각도 정보(Ø1 및 θ1)는 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제1 각도 정보는 아래의 식 (2) 내지 식 (5)와 같이 추출될 수 있다.The first angle information? 1 and? 1 can be extracted by an x-coordinate value and a y-coordinate value of the
(2) (2)
(3) (3)
(4) (4)
(5) (5)
마찬가지로, 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체의 상(411)의 x좌표값인 x2가 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체의 상(411)의 y좌표값인 y2가 산출될 수 있다.Similarly, the x-coordinate value and y-coordinate value of the
제2 각도 정보(Ø2 및 θ2)는 상술한 식 (2) 내지 (5)와 동일한 방법으로 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제2 각도 정보는 아래의 식 (6) 및 식 (7)와 같이 추출될 수 있다.The second angle information? 2 and? 2 can be extracted by the x-coordinate value and the y-coordinate value of the
(7) (7)
(8) (8)
따라서, 상술한 방법에 의해 추출된 제1 각도 정보(Ø1 및 θ1)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø2 및 θ2)는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Accordingly, the first angle information? 1 and? 1 extracted by the above-described method are the same as the angle information formed by the
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.5A and 5B are views for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.
도 5a는 본 발명의 일 실시 예에 따라 추출된 제2 각도 정보를 설명하기 위한 도면이다.5A is a view for explaining second angle information extracted according to an embodiment of the present invention.
도 5a를 참조하면, 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Referring to FIG. 5A, one
평면 거울(110)의 배치는 xy평면에 수직이면서 (-n,0,0) 및 (0,n,0)을 지나는 평면으로 배치될 수 있다. 단, 상술한 평면 거울(110)의 배치는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The arrangement of the
또한, 본 발명의 일 실시 예에 따른 기 설정된 각도 θ'는 45˚일 수 있고, 기 설정된 거리 d는 일 수 있다. 따라서, 카메라(120)의 좌표가 O(0,0,0)이고, 카메라(120)가 y축을 바라보는 경우, 평면 거울(110)에 비친 카메라의 상(121)의 좌표는 C(-n,n,0)이고, 카메라의 상(121)은 x축을 바라보는 것으로 가정될 수 있다. 하지만, 상술한 기 설정된 각도 및 기 설정된 거리는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 값이 가능하며, 다양한 값에 따라 카메라(120)의 좌표 및 카메라의 상(121)의 좌표 또한 달라질 수 있다.In addition, the predetermined angle? 'According to an embodiment of the present invention may be 45 占 and the predetermined distance d may be Lt; / RTI > Therefore, when the coordinates of the
도 5a를 다시 참조하면, 도 4b에서 추출된 물체의 상(311)과 카메라(120)가 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2)는 평면 거울에 비친 카메라의 상(121)과 물체(310)가 이루는 각도 정보와 동일하다.Referring to FIG. 5A again, the second angle information? 2 and? 2 , which are the angle information between the
도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 구체적으로 설명하기 위한 도면이다.5B is a diagram for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.
도 5b를 참조하면, 도 4b에서 추출된 물체(310)와 카메라(120)가 이루는 각도 정보인 제1 각도 정보(Ø1 및 θ1)에 기초하여 카메라(120)로부터 물체(310)를 향하는 제1 직선 벡터()가 산출될 수 있다.Referring to FIG. 5B, it is determined whether the
또한, 도 4b 및 도 5a에서 추출된 물체(310)와 카메라의 상(121)이 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 카메라의 상(121)으로부터 물체(310)를 향하는 제2 직선 벡터()가 산출될 수 있다.The second angle information? 2 and? 2 , which are angle information between the
구체적으로, 추출된 제1 각도 정보(Ø1 및 θ1)에 기초하여 아래의 식 (8)과 같이 제1 직선 벡터가 산출될 수 있다. 아래의 식 (8)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정될 수 있다. 단, 상술한 제1 직선 벡터의 y좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니다.Specifically, the first straight line vector can be calculated based on the extracted first angle information? 1 and? 1 as shown in the following equation (8). In the following equation (8), the y coordinate value of the first straight line vector may be set to 1 for convenience of calculation. It should be noted that the y coordinate value of the first linear vector is set to 1 as an example for explaining one embodiment of the present invention.
(8) (8)
또한, 추출된 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 아래의 식 (9)와 같이 제2 직선 벡터가 산출될 수 있다. 아래의 식 (9)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정된 경우와 마찬가지로 제2 직선 벡터의 x좌표값이 1로 설정될 수 있다. 단, 상술한 제2 직선 벡터의 x좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The second straight line vector can be calculated based on the extracted second angle information? 2 and? 2 and the
(9) (9)
상술한 식 (8) 및 식 (9)에 산출된 제1 및 제2 직선 벡터의 교점이 물체의 3차원 좌표 데이터에 해당된다.The intersection of the first and second straight line vectors calculated in the above-mentioned expressions (8) and (9) corresponds to the three-dimensional coordinate data of the object.
따라서, 물체(310)의 좌표값 P(x,y,z)의 값은 아래의 식 (10) 내지 식 (12)와 같이 나타낼 수 있다.Therefore, the values of the coordinate values P (x, y, z) of the
(10) (10)
(11) (11)
(12) (12)
상술한 식 (10) 내지 식 (12)에서 i 및 k는 임의의 배수를 나타낸다.In the above-mentioned expressions (10) to (12), i and k represent arbitrary multiples.
따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, the three-dimensional coordinate data of the object can be calculated while the intersection of the first and second straight line vectors calculated as described above is extracted.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to another embodiment of the present invention.
도 6을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 오목 렌즈에 의한 물체의 상을 동시에 포함하는 이미지를 촬영한다(S610).Referring to FIG. 6, in a method of controlling an object movement analyzing apparatus in a space according to another embodiment of the present invention, one camera, which is arranged so that a predetermined portion overlaps with a concave lens, (Step S610).
촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S620).The first angle information formed by the object and the camera in the photographed image and the second angle information formed by the image of the object and the camera are extracted (S620).
본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 오목 렌즈에 의한 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 오목 렌즈에 의한 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method in which the first and second angle information are extracted, the image captured by the camera such that the image of the object by the concave lens is included at the same time includes the region including the object and the image of the object Lt; / RTI > The first angle information can be extracted from the image including only the region including the object and the second angle information can be extracted from the image including only the region including the image of the object by the concave lens.
또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.According to another embodiment of the present invention, the first angle information and the second angle information may be extracted while transforming the color, saturation, and brightness (HSV) of the photographed image. A method in which the HSV of the photographed image is converted may include a method of converting into a binary image. However, the method of converting into the above-mentioned binary image is only an example for explaining one embodiment of the present invention, but it is not limited thereto.
추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S630).The three-dimensional coordinate data of the object is calculated based on the extracted first and second angle information (S630).
본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 오목 렌즈에 의한 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, a method of calculating three-dimensional coordinate data of an object includes calculating a first straight line vector directed from the camera to an object based on the first angle information, A second straight line vector directed from the image of the camera to the object is calculated based on the angle information, and three-dimensional data of the object can be calculated while the intersection of the calculated first and second straight line vectors is extracted.
물체의 3차원 데이터가 산출되는 방법은, 도 7 내지 도 10을 참조하여 후술하기로 한다.A method of calculating three-dimensional data of an object will be described later with reference to Figs. 7 to 10.
또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, according to an embodiment of the present invention, when the photographed image is a moving image of an object, the photographed moving image can be divided into a plurality of images, and three-dimensional coordinate data of the object can be calculated from the plurality of divided images have. Further, the three-dimensional motion of the object can be identified based on the three-dimensional coordinate data of the object calculated in each of the plurality of images.
본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the three-dimensional motion trajectory of the object identified by the above-described method can be displayed.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.7 is a view showing characteristics of a concave lens according to another embodiment of the present invention.
일반적으로 오목 렌즈(720)를 통해 물체(310)는 위치에 관계없이 항상 축소된 정립 허상이 만들어 질 수 있다.Generally, through the
도 7을 참조하면, 물체(310)는 오목 렌즈(720)에 의하여 정립 허상인 물체의 상(710)이 만들어 질 수 있다. 오목 렌즈(720)의 중심점 G로부터 물체(310)까지의 거리는 절댓값 a로 나타낼 수 있다. 또한, 오목 렌즈(720)의 중심점 G로부터 오목 렌즈에 의한 물체의 상(710)까지의 거리는 절댓값 b로 나타낼 수 있다.Referring to FIG. 7, the
오목 렌즈(720)의 중심점 G로부터 초점 F까지의 거리인 초점 거리의 절댓값은 f로 나타낼 수 있다. 오목 렌즈(720)의 중심점 G로부터 허초점 F?까지의 거리는 초점 거리와 마찬가지로 절댓값 f로 나타낼 수 있다. An absolute value of the focal length, which is the distance from the center point G of the
물체(310)와 오목 렌즈(720)에 의해 맺혀진 정립 허상인 물체의 상(710)의 거리는 아래의 식 (13)과 같은 렌즈의 공식에 의하여 산출될 수 있다.The distance between the
(13) (13)
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.8 is a view for explaining a structure of an object motion analyzing apparatus in a space according to another embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체의 운동 분석 장치로 스마트 폰이 도시되어 있지만 상술한 스마트 폰은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니며 공간 내의 물체 운동 분석 장치는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.Referring to FIG. 8, although a smartphone is shown as an apparatus for analyzing motion of an object in a space according to an embodiment of the present invention, the above-described smart phone is only an example for illustrating an embodiment of the present invention, The object motion analyzing apparatus in the space includes a camera capable of capturing an image, and any device can be used as long as it can perform analysis of the captured image.
도 8(a)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)가 물체(310) 및 오목 렌즈(720)에 의한 물체의 상(710)이 동시에 포함되도록 이미지를 촬영하는 것을 나타낸 것이다.8A is a view illustrating a state where one
도 8(a)를 참조하면, 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되도록 카메라(120)는 오목 렌즈(720)와 기 설정된 부분이 겹치도록 배치될 수 있다. 또한, 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다.8A, the
도 8(b)는 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈(720)에 의한 카메라의 상(810)을 설명하기 위한 도면이다.8 (b) is a view for explaining the
도 8(b)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되는 경우, 물체(310)는 두 개의 카메라(120, 810)로부터 촬영된 것으로 가정될 수 있다.8B, when the
따라서, 물체(310)는 오목 렌즈(720)를 통해 카메라(710)를 바라본다고 가정될 수 있고, 물체(310)는 카메라(710)로부터 촬영되는 동시에 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 촬영될 수 있다. 따라서, 카메라(710)로부터 관측된 지점 및 카메라의 상(810)으로부터 관측된 지점과 물체(310)가 이루는 각인 시차(θ'')가 형성될 수 있다.The
카메라(120)에서 바라본 오목 렌즈(720)에 의한 물체의 상(710)과 물체(310)에서 바라본 오목 렌즈(720)에 의한 카메라의 상(810)과의 관계는 동일한 오목 렌즈(720)가 사용되는 경우이므로 같아야 한다.The relationship between the
따라서, 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위의 R점에서 교차될 수 있다.The straight line that looks from the
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
도 9를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 촬영된 이미지 내의 물체(910)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 오목 렌즈에 의한 물체의 상(911)과 카메라(120)가 이루는 제2 각도 정보는 도 4a 및 도 4b에서와 동일한 방법에 의해 추출될 수 있다.9, the first angle information formed by the
본 발명의 일 실시 예에 따르면 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다. 구체적으로, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, a
제1 및 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값과 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(910)의 x좌표값인 x3과 물체의 상(911)의 x좌표값인 x4이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(910)의 y좌표값인 y3과 물체(911)의 y좌표값인 y4가 산출될 수 있다.The x-coordinate value and the y-coordinate value of the
제1 각도 정보는 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값에 의해, 제2 각도 정보는 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값에 의해 추출될 수 있다.The first angle information is extracted by an x coordinate value and a y coordinate value of an
따라서, 도 4a 및 도 4b에서와 동일한 방법이 적용되면서 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)는 아래의 식 (14) 내지 식 (17)와 같이 추출될 수 있다.4A and 4B, the first angular information? 3 and? 3 and the second angular information? 4 and? 4 are obtained by the following equations (14) to (17) and Can be extracted together.
(14) (14)
(15) (15)
(16) (16)
(17) (17)
따라서, 도 4a 및 도 4b에서와 동일한 방법에 의해 추출된 제1 각도 정보(Ø3 및 θ3)는 물체와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø4 및 θ4)는 오목 렌즈에 의한 물체의 상과 카메라(120)가 이루는 각도 정보와 동일하다.Therefore, the first angle information? 3 and? 3 extracted by the same method as in FIGS. 4A and 4B are the same as the angle information formed by the object and the
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.10 is a view for explaining a method of calculating three-dimensional coordinate data of an object according to another embodiment of the present invention.
도 10을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)는 기 설정된 위치(H(-xh,-yh,0))에 배치될 수 있고, 오목 렌즈(720)의 테두리 일면을 향하도록 배치될 수 있다.10, can be disposed on the
본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터가 산출되는 방법은 도 9에서 추출된 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)에 기초하여 산출될 수 있다.The first angle information (Ø 3 and θ 3) and the second angle information (Ø 4 and θ 4) Extraction method of the three-dimensional coordinate data of the object is calculated from Figure 9 in accordance with another embodiment of the present invention Can be calculated.
구체적으로, 제1 각도 정보(Ø3 및 θ3)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하다. 제1 각도 정보(Ø3 및 θ3)에 기초하여 카메라(120)의 좌표 H(-xh,-yh,0)로부터 물체(310)의 좌표 P(-x3',y3',z3')를 향하는 제1 직선 벡터 가 산출될 수 있다.Specifically, the first angle information? 3 and? 3 are the same as the angle information formed by the
아래의 식 (18)은 계산의 편의성을 위해 카메라(120)로부터 물체(310)를 향하는 거리를 1로 하여 제1 직선 벡터가 산출된 것을 나타낸다.The following equation (18) shows that the first straight line vector is calculated by setting the distance from the
(18) (18)
오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 향하는 제2 직선 벡터 는 아래와 같은 방법으로 산출될 수 있다.And a second straight line vector 820 from the
도 8(a)에서 설명한 바와 같이 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다. 상술한 특징의 적용으로 오목 렌즈(720)에 의한 물체의 상(710)의 좌표 Q(-x4',y4',z4')는 식 (13)의 렌즈 공식에 의해 아래의 식 (19) 내지 식(22)과 같이 물체(310)의 좌표 P(-x3',y3',z3')와의 관계가 형성될 수 있다.The center of the
(19) (19)
(20) (20)
(21) (21)
(22) (22)
도 8(b)에서 설명한 바와 같이 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위에서 교차될 수 있고, 교차되는 좌표는 R(-x5,0,z5)로 설정될 수 있다.A straight line looking from the
제2 직선 벡터 는 D(-xh',-yh',0)와 R(-x5,0,z5)의 좌표에 의해 산출될 수 있다.The second straight line vector Can be calculated by the coordinates of D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 ).
상술한 제1 직선 벡터가 산출되는 방법이 동일하게 적용되면서 카메라(120)로부터 물체의 상(710)을 향하는 직선 벡터가 산출될 수 있고, 산출된 직선 벡터에 의해 아래의 식 (23)와 같이 좌표 R(-x5,0,z5)가 산출될 수 있다.The straight line vector from the
(23) (23)
또한, 오목 렌즈(720)에 의한 카메라의 상(810)의 좌표 D(-xh',-yh',0)는 식 (19) 내지 식(22)과 동일한 방법으로 아래의 식 (24) 내지 식(26)과 같이 산출될 수 있다.The coordinates D (-x h ', -y h ', 0) of the
(24) (24)
(25) (25)
(26) (26)
따라서, 좌표 D(-xh',-yh',0) 및 R(-x5,0,z5)을 지나는 제2 직선 벡터 는 아래의 식 (27)과 같이 산출될 수 있다.Thus, the coordinates D (-x h ', -y h ', 0) and R (-x 5, 0, z 5) through a second linear vector Can be calculated as shown in the following equation (27).
(27) (27)
따라서, 산출된 제1 직선 벡터 및 제2 직선 벡터 의 교점이 아래의 식 (28) 내지 식 (30)와 같이 추출되어 물체(310)의 3차원 좌표 P(-x3',y3',z3')가 산출될 수 있다.Therefore, the calculated first straight line vector And a second straight line vector Dimensional coordinates P (-x 3 ', y 3 ', z 3 ') of the
(28) (28)
(29) (29)
(30) (30)
상술한 식 (28) 내지 식 (30)에서 i 및 k는 임의의 배수를 나타낸다.In the above-mentioned equations (28) to (30), i and k represent arbitrary multiples.
따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체(310)의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, the three-dimensional coordinate data of the
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.FIG. 11 shows the result of analysis of three-dimensional motion of an object in a space according to an embodiment of the present invention.
도 11(a)를 참조하면, 본 발명의 일 실시 예에 따른 롤러코스터의 3차원 운동이 분석되도록 평면 거울 앞에 롤러코스터가 위치되어 있고, 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 롤러코스터와 평면 거울에 비친 롤러코스터의 상이 동시에 포함되도록 촬영하였다.Referring to FIG. 11A, a roller coaster is positioned in front of a plane mirror to analyze the three-dimensional motion of the roller coaster according to an embodiment of the present invention, and a camera included in the three- The images of the roller coaster and the image of the roller coaster reflected on the plane mirror were simultaneously captured.
도 11(b)는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 롤러코스터의 3차원 운동 궤적과 동일한 롤러코스터의 3차원 운동 궤적이 나타난 것을 보여준다.FIG. 11 (b) shows the three-dimensional motion locus of the actual roller coaster and the three-dimensional motion locus of the same roller coaster by the object motion analyzing apparatus in the space according to the embodiment of the present invention.
따라서, 모션 캡쳐 시스템과 같은 고가의 장비가 사용되지 않고도 물체의 3차원 운동의 분석이 가능하다.Thus, it is possible to analyze the three-dimensional motion of an object without using expensive equipment such as a motion capture system.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.FIG. 12 shows a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.
도 12(a)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 운동이 분석되도록 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 물체 및 오목 렌즈에 의한 물체의 상이 동시에 보이도록 촬영하였다.12 (a), a camera included in an apparatus for three-dimensional motion analysis of an object in a space in which a three-dimensional motion of an object according to another embodiment of the present invention is analyzed may be classified into an object and a concave lens, And were photographed to be seen simultaneously.
도 12(b)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 물체의 3차원 운동 궤적과 동일한 물체의 3차원 운동 궤적이 나타난 것을 보여준다.12 (b) shows a three-dimensional motion trajectory of the same object as a three-dimensional motion trajectory of an actual object by an object motion analyzing apparatus in a space according to another embodiment of the present invention.
이상과 같이 본 발명의 다양한 실시 예에 따르면, 모션 캡쳐 시스템과 같은 고가의 장비 없이 물체의 3차원 운동의 분석이 가능하다. 또한, 기존에는 물체의 3차원 운동을 분석하기 위해 복수 개의 카메라가 필요했지만 본 발명의 다양한 실시 예에 따르면 하나의 카메라가 포함된 공간 내의 물체 운동 분석 장치만으로 물체의 3차원 운동의 분석이 가능하므로 비용이 상대적으로 적게 드는 장점이 있다.As described above, according to various embodiments of the present invention, it is possible to analyze the three-dimensional motion of an object without expensive equipment such as a motion capture system. In addition, although a plurality of cameras are required for analyzing the three-dimensional motion of an object, according to various embodiments of the present invention, it is possible to analyze the three-dimensional motion of the object using only the object motion analyzer in a space including one camera There is an advantage that the cost is relatively small.
또한, 본 발명의 다양한 실시 예에 따르면, 평면 거울 대신 오목 렌즈가 사용되는 경우 평면 거울보다 넓은 화각이 확보될 수 있으며, 평면 거울에 비해 휴대성이 증진될 수 있는 장점이 있다.In addition, according to various embodiments of the present invention, when a concave lens is used in place of a plane mirror, a wider angle of view can be secured than a plane mirror, and portability can be improved compared to a plane mirror.
또한, 본 발명의 다양한 실시 예에 따르면, 물체의 운동 분석은 하나의 물체뿐만 아니라 복수 개의 물체의 운동이 동시에 분석될 수 있다. 예를 들면, 복수 개의 물체가 충돌하는 경우에도 복수 개의 물체의 운동이 동시에 분석될 수 있다.In addition, according to various embodiments of the present invention, motion analysis of an object can simultaneously analyze motion of a plurality of objects as well as one object. For example, even when a plurality of objects collide, the motions of a plurality of objects can be simultaneously analyzed.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
100: 물체 운동 분석 장치
110: 평면 거울
120: 카메라
130: 프로세서100: Object motion analyzer
110: Flat mirror
120: camera
130: Processor
Claims (10)
평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리만큼 이격되며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.A method for controlling an object motion analyzing apparatus in a space,
Capturing an image including one object positioned at a predetermined position from the plane mirror so that an object located in front of the plane mirror and an image of the object reflected by the plane mirror are located at an angle of view;
Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And
And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information,
Wherein the predetermined position of the one camera forms a predetermined angle with the plane mirror and is spaced apart by a predetermined distance,
Wherein the step of calculating the three-
Calculating a first straight vector directed from the camera to the object based on the first angle information, and calculating a first straight vector from the camera to the object based on the image of the camera reflected on the plane mirror and the second angle information Dimensional coordinate data of the object by calculating a second straight line vector and extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method according to claim 1,
Further comprising identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.3. The method of claim 2,
And displaying the identified three-dimensional motion trajectory of the object.
상기 제1 및 제2 각도 정보를 추출하는 단계는,
상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method according to claim 1,
Wherein the extracting of the first and second angle information comprises:
Wherein the first angle information is obtained by dividing the image into an area including the object and an area including the image of the object, extracting the first angle information from the area containing the object, And a control method of the object motion analyzing device in the space.
오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.A method for controlling an object motion analyzing apparatus in a space,
Comprising the steps of: photographing an image in which a camera, which is arranged so that a concave lens and a predetermined portion overlap, simultaneously includes an object and an image of the object by the concave lens;
Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And
And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information,
Wherein the step of calculating the three-
Calculating a first straight line vector directed from the camera to the object based on the first angle information, and calculating a second straight line vector directed from the camera to the object based on the image of the camera and the second angle information by the concave lens Dimensional coordinate data of the object by calculating a second straight line vector and extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method according to claim 1,
Further comprising identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.The method according to claim 6,
And displaying the identified three-dimensional motion trajectory of the object.
상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 하나의 카메라; 및
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고,
상기 프로세서는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고,
상기 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격되는, 공간 내의 물체 운동 분석 장치.Plane mirror;
A camera disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located at an angle of view, ; And
And a processor for extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera,
The processor comprising:
Calculating a first straight vector directed from the camera to the object based on the first angle information, and calculating a first straight vector from the camera to the object based on the image of the camera reflected on the plane mirror and the second angle information Calculating a second straight line vector, extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object,
Wherein the predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced by a predetermined distance.
상기 프로세서는,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는, 공간 내의 물체 운동 분석 장치.9. The method of claim 8,
The processor comprising:
Wherein the three-dimensional motion of the object is identified based on the three-dimensional coordinate data extracted from the plurality of images.
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함하는, 공간 내의 물체 운동 분석 장치.10. The method of claim 9,
And a display for displaying a three-dimensional motion trajectory of the identified object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190085620A true KR20190085620A (en) | 2019-07-19 |
KR102028726B1 KR102028726B1 (en) | 2019-10-07 |
Family
ID=67512095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180003704A KR102028726B1 (en) | 2018-01-11 | 2018-01-11 | Analysis apparatus of object motion in space and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102028726B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2588850A (en) * | 2019-09-27 | 2021-05-12 | Electronic Theatre Controls Inc | Systems and methods for light fixture location determination |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050066679A (en) * | 2003-12-26 | 2005-06-30 | 김형복 | The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera |
KR20070080981A (en) * | 2006-02-09 | 2007-08-14 | 전북대학교산학협력단 | Equipment of image stereo omni-directional |
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
-
2018
- 2018-01-11 KR KR1020180003704A patent/KR102028726B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050066679A (en) * | 2003-12-26 | 2005-06-30 | 김형복 | The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera |
KR20070080981A (en) * | 2006-02-09 | 2007-08-14 | 전북대학교산학협력단 | Equipment of image stereo omni-directional |
WO2010044186A1 (en) * | 2008-10-17 | 2010-04-22 | パナソニック株式会社 | Flow line production system, flow line production device, and three-dimensional flow line display device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2588850A (en) * | 2019-09-27 | 2021-05-12 | Electronic Theatre Controls Inc | Systems and methods for light fixture location determination |
GB2602557A (en) * | 2019-09-27 | 2022-07-06 | Electronic Theatre Controls Inc | Systems and methods for light fixture location determination |
GB2588850B (en) * | 2019-09-27 | 2022-08-17 | Electronic Theatre Controls Inc | Systems and methods for light fixture location determination |
GB2602557B (en) * | 2019-09-27 | 2023-01-04 | Electronic Theatre Controls Inc | Systems and methods for light fixture location determination |
US11835997B2 (en) | 2019-09-27 | 2023-12-05 | Electronic Theatre Controls, Inc. | Systems and methods for light fixture location determination |
Also Published As
Publication number | Publication date |
---|---|
KR102028726B1 (en) | 2019-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11756223B2 (en) | Depth-aware photo editing | |
US7554575B2 (en) | Fast imaging system calibration | |
CN109565551B (en) | Synthesizing images aligned to a reference frame | |
Klein | Visual tracking for augmented reality | |
JP2017022694A (en) | Method and apparatus for displaying light field based image on user's device, and corresponding computer program product | |
US10606347B1 (en) | Parallax viewer system calibration | |
WO2019184185A1 (en) | Target image acquisition system and method | |
US10634918B2 (en) | Internal edge verification | |
CN110213491B (en) | Focusing method, device and storage medium | |
KR20110132260A (en) | Monitor based augmented reality system | |
JP2012238293A (en) | Input device | |
Drab et al. | Motion Detection as Interaction Technique for Games & Applications on Mobile Devices. | |
CN110895433B (en) | Method and apparatus for user interaction in augmented reality | |
KR101961266B1 (en) | Gaze Tracking Apparatus and Method | |
CN113870213A (en) | Image display method, image display device, storage medium, and electronic apparatus | |
JPWO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device | |
WO2011096571A1 (en) | Input device | |
KR102028726B1 (en) | Analysis apparatus of object motion in space and control method thereof | |
Belo et al. | Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects | |
KR20170093421A (en) | Method for determining object of interest, video processing device and computing device | |
US11770551B2 (en) | Object pose estimation and tracking using machine learning | |
JP2008203538A (en) | Image display system | |
Kim et al. | Realtime plane detection for projection Augmented Reality in an unknown environment | |
KR102062765B1 (en) | Three Dimensional image capture SYSTEM WITH IMAGE CONVERSION MECHANISM AND METHOD OF OPERATION THEREOF | |
US9551922B1 (en) | Foreground analysis on parametric background surfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |