KR20190085620A - Analysis apparatus of object motion in space and control method thereof - Google Patents

Analysis apparatus of object motion in space and control method thereof Download PDF

Info

Publication number
KR20190085620A
KR20190085620A KR1020180003704A KR20180003704A KR20190085620A KR 20190085620 A KR20190085620 A KR 20190085620A KR 1020180003704 A KR1020180003704 A KR 1020180003704A KR 20180003704 A KR20180003704 A KR 20180003704A KR 20190085620 A KR20190085620 A KR 20190085620A
Authority
KR
South Korea
Prior art keywords
camera
image
angle information
calculating
plane mirror
Prior art date
Application number
KR1020180003704A
Other languages
Korean (ko)
Other versions
KR102028726B1 (en
Inventor
김영환
김종빈
왕재엽
Original Assignee
김영환
왕재엽
김종빈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김영환, 왕재엽, 김종빈 filed Critical 김영환
Priority to KR1020180003704A priority Critical patent/KR102028726B1/en
Publication of KR20190085620A publication Critical patent/KR20190085620A/en
Application granted granted Critical
Publication of KR102028726B1 publication Critical patent/KR102028726B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

Disclosed is a controlling method of an object motion analysis device in a space. The controlling method of the motion analysis device includes: a step in which one camera arranged at a preset position photographs an image including an object and an object phase at the same time from a plane mirror so that the object positioned in front of the plane mirror and the object phase reflected on the plane mirror are positioned within an angle-of-view; a step of extracting first angle information formed by a camera and the object in the photographed image and second angle information formed by the object phase and the camera; and a step of calculating three-dimensional coordinate data of the object based on the extracted first and second angle information. The present invention is able to analyze the three-dimensional motion of an object in a space by using a camera included in a device such as a smartphone instead of using expensive equipment.

Description

공간 내의 물체 운동 분석 장치 및 그 제어 방법{ANALYSIS APPARATUS OF OBJECT MOTION IN SPACE AND CONTROL METHOD THEREOF}Field of the Invention < RTI ID = 0.0 > [0001] < / RTI &

본 발명은 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다. 보다 상세하게는, 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an apparatus for analyzing an object motion in a space and a control method thereof. More particularly, the present invention relates to an apparatus for analyzing an object motion in a space capable of analyzing a three-dimensional motion of an object and a control method thereof.

학생들이나 연구원들은 물리 관련 실험이나 연구 활동을 위해 물체의 움직임이나 운동을 분석해야 하는 경우가 많이 발생된다. 하지만 물체의 운동 중 2차원 또는 3차원 운동이 많으며, 특히 일반적으로 물체의 3차원 운동을 분석하기 위해서는 초고속카메라나 모션 캡쳐 시스템(Motion Capture System)이 필요하다.Students and researchers often need to analyze the motion or motion of objects for physics-related experiments or research activities. However, there are many two-dimensional or three-dimensional motions during the motion of an object, and in particular, a high-speed camera or a motion capture system is generally required to analyze the three-dimensional motion of an object.

초고속 카메라는 일반적인 카메라와는 달리 동영상을 촬영할 때 세밀한 프레임 간격으로 연속촬영이 가능하고, 촬영된 동영상을 프레임 저하 없이 매우 느린 속도로 재생할 수 있는 카메라를 나타낸다.A high-speed camera, unlike a typical camera, is capable of continuous shooting at fine frame intervals when shooting a movie, and a camera capable of playing back the shot movie at a very low speed without frame deterioration.

동영상은 움직이는 이미지를 나타내고, 프레임은 움직이지 않는 이미지를 나타낸다. 동영상은 복수 개의 프레임이 빠른 속도로 넘어가면서 이미지가 움직이는 것처럼 나타난다. 동영상 프레임이란 동영상 1초가 얼마나 많은 화면으로 구성되는지 나타내는 수치로, fps로도 표시된다. 예를 들어 30fps라고 하면, 1초당 30장의 이미지가 움직이는 동영상을 나타낸다. 따라서, 동영상 프레임이 높을수록 부드럽고 선명한 동영상이 촬영될 수 있다.The video shows the moving image, and the frame shows the moving image. A video appears as if the image moves as multiple frames move at a fast pace. A video frame is a numerical value that indicates how many screens are composed of one second of video, and is also displayed in fps. For example, if you say 30 fps, 30 images per second are moving. Therefore, the higher the moving picture frame, the smoother and clearer the moving picture can be taken.

일반적인 카메라가 1초 동안 24장에서 30장의 프레임을 규칙적으로 촬영한다면, 초고속 카메라는 1초에 수백 프레임, 수천 프레임 또는 수만 프레임까지도 촬영할 수 있는 카메라로 일반적인 카메라에 비해 고가의 장비에 해당된다.If a typical camera regularly shoots 24 to 30 frames per second, a high-speed camera can cost hundreds of frames per second, thousands of frames, or tens of thousands of frames per second.

또한, 3차원 운동을 분석하기 위해 초고속 카메라 이외에도 모션 캡쳐 시스템이 이용된다. 모션 캡쳐 시스템은 3차원 공간상에서 물체의 움직임에 대한 위치와 방위를 측정할 수 있고, 측정된 물체의 움직임에 대한 위치와 방위를 컴퓨터가 사용할 수 있는 형태의 정보로 기록하여 물체의 3차원 운동을 분석할 수 있는 장치이다.In addition, motion capture systems are used in addition to high-speed cameras to analyze 3D motion. The motion capture system can measure the position and orientation of an object in three-dimensional space and record the position and orientation of the measured object motion as information that can be used by a computer. It is a device that can analyze.

모션 캡쳐 시스템으로부터 얻은 정보는 모션 캡쳐 데이터라고 한다. 모션 캡쳐 시스템은 데이터를 추출하는 방법에 따라 광학식, 기계식 또는 자기식으로 나뉘어 질 수 있다.The information obtained from the motion capture system is called motion capture data. Motion capture systems can be optically, mechanically, or magnetically divided depending on how data is extracted.

광학식의 경우에는 물체에 부착된 마크를 복수 개의 카메라가 동시에 추적하여 물체의 2차원 좌표가 추출되고, 추출된 복수 개의 2차원 좌표가 종합되면서 물체의 3차원 좌표가 추출될 수 있다. 상술한 마크는 입사한 광선을 광원으로 그대로 되돌려 보내는 재귀 반사가 가능한 마크를 나타낸다.In the case of an optical system, a mark attached to an object is tracked by a plurality of cameras at the same time, so that two-dimensional coordinates of an object are extracted and a plurality of extracted two-dimensional coordinates are integrated to extract three-dimensional coordinates of the object. The mark described above represents a mark capable of retroreflective reflection by returning the incident light ray to the light source as it is.

기계식의 경우에는 기계에 부착된 센서에 의해 기계의 움직임이 인식되면서 3차원 좌표가 추출될 수 있다.In the case of the mechanical type, the three-dimensional coordinates can be extracted while the movement of the machine is recognized by the sensor attached to the machine.

자기식의 경우에는 자기장을 이용하여 복수 개의 카메라가 물체를 추적하고, 추적된 물체의 3차원 좌표가 추출될 수 있다.In the case of the magnetic type, a plurality of cameras can track an object using a magnetic field, and three-dimensional coordinates of the tracked object can be extracted.

하지만, 모션 캡쳐 시스템의 가격은 약 천만원대에서 억대 사이에 해당되는 고가의 장비에 해당되며, 상술한 각각의 방법마다 문제점이 있다.However, the price of a motion capture system corresponds to an expensive apparatus ranging from about 10 million won to a billion units, and each method described above has a problem.

광학식의 경우에는 빛을 내는 광원이나, 물체를 정반사 시키는 거울과 같은 물체가 존재하는 경우 복수 개의 카메라에 의해 촬영된 물체의 좌표가 여러 개로 인식되거나 아예 인식되지 않는 문제점이 있다.In the case of an optical system, when there is an object such as a light source that emits light or a mirror that regularly reflects an object, the coordinates of an object photographed by a plurality of cameras are recognized as multiple or not recognized at all.

또한, 기계식의 경우에는 주로 사람의 움직임이 분석되므로 용도가 한정되는 문제점이 있다.Further, in the case of the mechanical type, there is a problem that the application is limited because the movement of the person is mainly analyzed.

마지막으로, 자기식의 경우 자기장에 영향을 받는 물체인 철이 주를 이루는 쇠붙이와 같은 물체가 존재하면, 물체의 좌표 정확도가 떨어지는 문제점이 있다.Finally, in the case of the magnetic type, if an object such as an iron, which is an object to be influenced by a magnetic field, is present, there is a problem that the coordinate accuracy of the object is deteriorated.

상술한 바와 같이 공간 내의 물체의 운동이 분석되기 위해서는 초고속 카메라나 모션 캡쳐 시스템과 같은 고가의 장비가 요구되는 실정이다. 하지만, 일반인들 또는 학생들은 고가의 장비를 이용하기 어려우므로, 일반인들 또는 학생들이 고가의 장비 없이 공간 내의 물체의 운동을 분석하기 어려운 문제가 있다.As described above, in order to analyze motion of an object in a space, expensive equipments such as a high-speed camera or a motion capture system are required. However, since ordinary people or students can not use expensive equipment, there is a problem that it is difficult for the general public or students to analyze motion of objects in the space without expensive equipment.

본 발명이 해결하려는 과제는, 일반인들 또는 학생들이 고가의 장비를 사용하는 대신 스마트폰과 같은 장치에 포함된 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있는 공간 내의 물체 운동 분석 장치 및 그 제어 방법을 제공함에 있다.The problem to be solved by the present invention is to provide a method and system for analyzing a three-dimensional motion of an object in a space by using a camera included in a device such as a smart phone, instead of using expensive equipment, And a control method thereof.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고 기 설정된 거리만큼 이격되며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method for controlling an object motion analyzing apparatus in a space, the method comprising: setting an object positioned in front of a plane mirror and a plane mirror, Capturing an image in which one camera disposed at a position simultaneously includes the object and the image of the object; Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And calculating three-dimensional coordinate data of the object on the basis of the extracted first and second angle information, wherein a predetermined position of the one camera forms a predetermined angle with the plane mirror, Wherein the step of calculating the three-dimensional coordinate data includes calculating a first straight line vector from the camera to the object based on the first angle information, calculating a first straight line vector directed to the object from the camera, 2-dimensional coordinate data of the object can be calculated by calculating a second linear vector directed from the image of the camera to the object based on the 2-angle information, and extracting the intersection of the calculated first and second linear vectors .

복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.And identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.And displaying the three-dimensional motion trajectory of the identified object.

상기 제1 및 제2 각도 정보를 추출하는 단계는, 상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출할 수 있다.The extracting of the first and second angle information may include dividing the image into an area including the object and an area including the image of the object and extracting the first angle information from the area containing the object , The second angle information can be extracted from an area including the image of the object.

상술한 목적을 달성하기 위한 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법은 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계; 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및 상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며, 상기 3차원 좌표 데이터를 산출하는 단계는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출할 수 있다.According to another aspect of the present invention, there is provided a method of controlling an object motion analyzing apparatus in a space, the method comprising: a camera having an object and a concave lens, Capturing an image simultaneously containing an image of an object; Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And calculating the three-dimensional coordinate data of the object based on the extracted first and second angle information, wherein the step of calculating the three-dimensional coordinate data includes calculating, based on the first angle information, Calculates a first straight line vector from the image of the camera to the object based on the image of the camera and the second angle information by the concave lens, The three-dimensional coordinate data of the object can be calculated by extracting the intersection of the first and second straight line vectors.

복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함할 수 있다.And identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함할 수 있다.And displaying the three-dimensional motion trajectory of the identified object.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치 평면 거울; 상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 카메라; 및 상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고, 상기 프로세서는 상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고, 상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격될 수 있다.According to an aspect of the present invention, there is provided a planar mirror for analyzing an object motion in a space according to an embodiment of the present invention. A camera disposed at a predetermined position from the plane mirror so that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located at an angle of view and simultaneously images of the object and the object are captured; And a processor for extracting first angle information between the object and the camera in the photographed image and second angle information between the image of the object and the camera, Calculates a first straight line vector directed from the camera to the object and calculates a second straight line vector directed from the image of the camera to the object based on the image of the camera reflected by the plane mirror and the second angle information Dimensional coordinate data of the object by extracting an intersection between the calculated first and second straight line vectors, and a predetermined position of the one camera is formed at a predetermined angle with the plane mirror, .

상기 프로세서는, 복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별할 수 있다.The processor can identify a three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images.

상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함할 수 있다.And a display for displaying a three-dimensional motion trajectory of the identified object.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 학생들과 일반인들이 고가의 장비에 비해 상대적으로 가격이 저렴한 일반적인 카메라 한 대를 이용하여 공간 내의 물체의 3차원 운동을 분석할 수 있다.According to various embodiments of the present invention as described above, a three-dimensional motion of an object in a space can be analyzed by using a common camera, which is relatively inexpensive compared to expensive equipment, by students and ordinary people.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.
도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.
도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.
도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.
도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.
도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.
1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.
2 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to an embodiment of the present invention.
3 is a diagram illustrating a structure of an object motion analyzing apparatus in a space according to an embodiment of the present invention.
4A and 4B are views for explaining a method of extracting angle information between an object and a camera according to an embodiment of the present invention.
5A and 5B are views for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.
6 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to another embodiment of the present invention.
7 is a view showing characteristics of a concave lens according to another embodiment of the present invention.
8 is a view for explaining a structure of an object motion analyzing apparatus in a space according to another embodiment of the present invention.
9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.
10 is a view for explaining a method of calculating three-dimensional coordinate data of an object according to another embodiment of the present invention.
FIG. 11 shows the result of analysis of three-dimensional motion of an object in a space according to an embodiment of the present invention.
FIG. 12 shows a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.As used herein, the expressions " have, " " comprise, " " comprise, " or " comprise may " refer to the presence of a feature (e.g., a numerical value, a function, And does not exclude the presence of additional features.

도 1은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 블록도를 나타낸 것이다.1 is a block diagram of an apparatus for analyzing an object motion in a space according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 평면 거울(110), 카메라(120) 및 프로세서(130)을 포함한다.Referring to FIG. 1, an apparatus 100 for analyzing an object motion in space according to an embodiment of the present invention includes a plane mirror 110, a camera 120, and a processor 130.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이다. 예를 들어 공간 내의 물체 운동 분석 장치(100)는 스마트폰, 카메라가 포함된 노트북과 같은 장치로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 공간 내의 물체 운동 분석 장치(100)는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.The apparatus 100 for analyzing object motion in space according to an embodiment of the present invention includes a camera capable of capturing an image, and is an apparatus capable of performing analysis of a captured image. For example, the object motion analyzing apparatus 100 in the space may be implemented as a device such as a smart phone, a notebook including a camera, and the like. However, the present invention is not limited to this, and the object motion analyzing apparatus 100 in the space may include a camera capable of capturing an image, and any device may be used as long as it is capable of analyzing the captured image.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치(100)의 카메라(120)는 하나만 이용될 수 있으며, 평면 거울(110) 앞에 위치된 물체와 평면 거울(110)에 비친 물체의 상이 카메라(120)의 화각 내에 위치되도록 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Only one camera 120 of the object motion analyzing apparatus 100 according to an embodiment of the present invention can be used and only an image of an object placed in front of the plane mirror 110 and an object reflected in the plane mirror 110 One camera 120 may be disposed at a predetermined position from the plane mirror 110 so as to be positioned within the angle of view of the plane mirror 120.

하나의 카메라(120)의 기 설정된 위치는 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리로 이격되는 위치일 수 있으며, 배치된 카메라(120)는 물체와 물체의 상이 동시에 포함되도록 이미지를 촬영할 수 있다.The predetermined position of one camera 120 may be a predetermined angle with the plane mirror, and may be a position spaced apart by a predetermined distance, and the camera 120 disposed may take an image so that the image of the object and the object are included at the same time have.

본 발명의 일 실시 예에 따라 공간 내의 물체 운동 분석 장치(100)로 스마트 폰의 카메라(120)가 이용되는 경우 스마트 폰의 카메라(120)는 슬로우 모션 기능을 이용하여 물체와 물체의 상이 움직이는 이미지를 촬영할 수 있다.When the camera 120 of the smartphone is used as the object movement analyzing apparatus 100 in the space according to the embodiment of the present invention, the camera 120 of the smart phone uses the slow motion function to display the moving image of the object and the object Can be photographed.

프로세서(130)는 카메라(120)에 의해 촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라(120)가 이루는 제2 각도 정보를 추출할 수 있다.The processor 130 may extract the first angle information formed by the object in the image captured by the camera 120 and the camera, and the second angle information between the object phase and the camera 120.

본 발명의 일 실시 예에 따르면, 프로세서(130)는 촬영된 이미지를 물체와 물체의 상이 구분되도록 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할할 수 있고, 물체가 포함된 영역으로부터 제1 각도 정보를 추출할 수 있고, 물체의 상이 포함된 영역으로부터 제2 각도 정보를 추출할 수 있다.According to an embodiment of the present invention, the processor 130 can divide the photographed image into a region including an object and a region including an image of the object so that an image of the object is distinguished from each other, 1 angle information can be extracted, and second angle information can be extracted from an area including an image of an object.

또한, 본 발명의 또 다른 일 실시 예에 따른 프로세서(130)는 촬영된 이미지에서 제1 각도 정보 및 제2 각도 정보를 추출하기 위해 촬영된 이미지의 색상, 채도, 명도(HSV)를 변환시킬 수 있다. 프로세서(130)가 촬영된 이미지의 HSV를 변환하는 방법에는 이진 이미지(binary image)로 변환하는 방법이 포함될 수 있다. 단, 상술한 이진 이미지로 변환하는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.In addition, the processor 130 according to another embodiment of the present invention may convert the color, saturation, brightness (HSV) of the photographed image to extract the first angle information and the second angle information from the photographed image have. A method of converting the HSV of the photographed image by the processor 130 may include a method of converting the HSV into a binary image. However, the method of converting into the binary image described above is only an example for explaining one embodiment of the present invention, but it is not limited thereto.

이진 이미지는 임계 값을 기준으로 흑과 백으로만 나타낸 영상을 나타낸다. 본 발명의 일 실시 예에 따라 프로세서(130)는 기 설정된 임계 값을 기준으로 물체 및 물체의 상만 백으로 변환시킬 수 있고, 나머지 배경은 흑으로 변환시킬 수 있다. 단, 상술한 예시는 본원 발명의 일 실시 예를 설명하기 위한 예시일 뿐, 프로세서(130)는 물체 및 물체의 상만 흑으로, 나머지 배경은 백으로도 변환시킬 수 있다. 따라서, 프로세서(130)가 촬영된 이미지를 이진 이미지로 변환시키는 경우 물체 및 물체의 상의 구별이 보다 쉽게 될 수 있으며, 프로세서(130)는 이진 이미지에서 제1 각도 정보 및 제2 각도 정보를 기존에 촬영된 이미지에서 보다 정확하게 추출 할 수 있다.A binary image represents an image only in black and white based on a threshold value. According to an exemplary embodiment of the present invention, the processor 130 may convert an object and an object into an overlay based on a preset threshold value, and convert the remaining background to black. However, the above-described example is merely an example for explaining an embodiment of the present invention, and the processor 130 can convert only the object and the object in black, and the remaining background in a bag. Accordingly, when the processor 130 converts the photographed image into a binary image, the distinction of the object and the object phase can be made easier, and the processor 130 can acquire the first angle information and the second angle information from the binary image, It is possible to extract more accurately from the photographed image.

프로세서(130)는 추출된 제1 각도 정보에 기초하여 카메라(120)로부터 물체를 향하는 제1 직선 벡터를 산출할 수 있고, 평면 거울(110)에 비친 카메라의 상 및 추출된 제2 각도 정보에 기초하여 카메라(120)의 상으로부터 물체를 향하는 제2 직선 벡터를 산출할 수 있다. 프로세서(130)는 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 물체의 3차원 좌표 데이터를 산출할 수 있다.The processor 130 may calculate a first linear vector from the camera 120 toward the object based on the extracted first angle information and may calculate an angle of the camera on the plane mirror 110 and the extracted second angle information The second straight line vector from the image of the camera 120 to the object can be calculated. The processor 130 may calculate the three-dimensional coordinate data of the object by extracting the intersection of the calculated first and second straight line vectors.

물체의 3차원 데이터를 산출하는 구체적인 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A specific method of calculating three-dimensional data of an object will be described later with reference to Figs. 3 to 5B.

일반적으로 움직이는 이미지는 동영상(Streaming Video)을 나타내고, 움직이지 않는 이미지인 정지된 화면은 동영상과 구별되도록 프레임(frame)으로 나타낸다. 따라서, 동영상과 같이 움직이는 이미지는 복수 개의 정지된 화면인 프레임이 빠른 속도로 넘겨지면서 나타나는 이미지를 나타낸다.In general, a moving image represents a video (streaming video), and a still image, which is an immobile image, is displayed as a frame so as to be distinguished from a moving image. Therefore, an image moving like a moving picture represents an image appearing as a plurality of still images, which are passed through at a high speed.

본 발명의 일 실시 예에 따른 이미지는 움직이지 않는 이미지인 프레임을 나타내며, 동영상의 경우 움직이는 이미지로 설명하도록 한다.An image according to an embodiment of the present invention represents a frame which is an immobile image, and a moving image in the case of a moving image.

따라서, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 이미지인 동영상인 경우 프로세서(130)는 촬영된 동영상을 복수 개의 이미지로 분할할 수 있고, 프로세서(130)는 복수 개의 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있으며, 복수 개의 이미지 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동을 식별할 수 있다.Accordingly, when the photographed image is a moving image, the processor 130 may divide the photographed moving image into a plurality of images, and the processor 130 may divide the photographed moving image into a plurality of images, Dimensional coordinate data of the object based on the three-dimensional coordinate data of the object calculated in each of the plurality of images.

또한, 본 발명의 일 실시 예에 다른 공간 내의 물체 운동 분석 장치(100)는 프로세서(130)에 의해 식별된 물체의 3차원 운동 궤적을 디스플레이할 수 있는 디스플레이를 더 포함할 수 있다.In addition, the object motion analyzing apparatus 100 in the space according to an embodiment of the present invention may further include a display capable of displaying a three-dimensional motion trajectory of the object identified by the processor 130.

도 2는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to an embodiment of the present invention.

도 2를 참조하면, 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 평면 거울 앞에 위치된 물체와 평면 거울에 비친 물체의 상이 공간 내의 물체 운동 분석 장치에 포함된 카메라의 화각 내에 위치되도록 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 물체와 물체의 상을 동시에 포함하는 이미지를 촬영한다(S210).Referring to FIG. 2, in a method of controlling an object motion analyzing apparatus in a space, an image of an object positioned in front of a plane mirror and an object reflected in a plane mirror is projected from a plane mirror One camera disposed at a predetermined position captures an image including an object and an object simultaneously (S210).

촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S220).The first angle information formed by the object and the camera in the photographed image and the second angle information formed between the image of the object and the camera are extracted (S220).

본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method in which first and second angle information are extracted, an image photographed so that an image of an object and an object are simultaneously included by a camera is divided into an area including the object and an area including the image of the object . The first angle information can be extracted from the image including only the region containing the object and the second angle information can be extracted from the image including only the region including the image of the object.

또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.According to another embodiment of the present invention, the first angle information and the second angle information may be extracted while transforming the color, saturation, and brightness (HSV) of the photographed image. A method in which the HSV of the photographed image is converted may include a method of converting into a binary image. However, the method of converting into the above-mentioned binary image is only an example for explaining one embodiment of the present invention, but it is not limited thereto.

추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S230).The three-dimensional coordinate data of the object is calculated based on the extracted first and second angle information (S230).

본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 평면 거울에 비친 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, a method for calculating three-dimensional coordinate data of an object includes calculating a first straight line vector directed from the camera to an object based on the first angle information, A second straight line vector directed from the image of the camera to the object is calculated based on the angle information, and three-dimensional data of the object can be calculated while the intersection of the calculated first and second straight line vectors is extracted.

물체의 3차원 데이터가 산출되는 방법은, 도 3 내지 도 5b를 참조하여 후술하기로 한다.A method of calculating three-dimensional data of an object will be described later with reference to Figs. 3 to 5B.

또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, according to an embodiment of the present invention, when the photographed image is a moving image of an object, the photographed moving image can be divided into a plurality of images, and three-dimensional coordinate data of the object can be calculated from the plurality of divided images have. Further, the three-dimensional motion of the object can be identified based on the three-dimensional coordinate data of the object calculated in each of the plurality of images.

본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the three-dimensional motion trajectory of the object identified by the above-described method can be displayed.

도 3은 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.3 is a diagram illustrating a structure of an object motion analyzing apparatus in a space according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)는 평면 거울(110)로부터 기 설정된 위치에 배치될 수 있다.Referring to FIG. 3, one camera 120 included in the apparatus for analyzing object motion in space according to an embodiment of the present invention may be disposed at a predetermined position from the plane mirror 110.

구체적으로 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Specifically, one camera 120 according to an exemplary embodiment of the present invention may be disposed at a position spaced apart from the plane mirror 110 by a predetermined distance d, which is a predetermined angle? '.

또한, 본 발명의 일 실시 예에 따른 카메라(120)는 평면 거울(110) 앞에 위치된 물체(310)와 평면 거울(110)에 비친 물체의 상(311)이 카메라(120)의 화각 내에 위치되도록 배치될 수 있고, 배치된 카메라(120)는 물체(310)와 물체의 상(311)이 동시에 포함된 이미지를 촬영할 수 있다.The camera 120 according to an exemplary embodiment of the present invention may be configured such that an object 310 positioned in front of the plane mirror 110 and an image 311 of an object reflected by the plane mirror 110 are positioned within an angle of view of the camera 120 And the placed camera 120 can take an image in which the object 310 and the object image 311 are simultaneously included.

또한, 상술한 카메라(120)와 동일하게 평면 거울(110)에 비친 카메라의 상(121)도 물체(310)와 물체의 상(311)이 동시에 포함되도록 이미지를 촬영할 수 있다.Also, the image 121 of the camera reflected by the plane mirror 110 can be photographed such that the object 310 and the object image 311 are included at the same time as the camera 120 described above.

본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함되는 프로세서(도시되지 않음)는 촬영된 이미지에서 물체의 3차원 좌표 데이터를 산출할 수 있다. 물체의 3차원 좌표 데이터가 산출되는 방법은 후술하기로 한다.A processor (not shown) included in an object motion analyzing apparatus in a space according to an embodiment of the present invention can calculate three-dimensional coordinate data of an object in the photographed image. A method of calculating three-dimensional coordinate data of an object will be described later.

도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.4A and 4B are views for explaining a method of extracting angle information between an object and a camera according to an embodiment of the present invention.

도 4a는 본 발명의 일 실시 예에 따라 카메라(120)가 촬영한 이미지 영역을 설명하기 위한 도면이다.FIG. 4A is a view for explaining an image area taken by the camera 120 according to an embodiment of the present invention.

도 4a를 참조하면, 본 발명의 일 실시 예에 따른 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보가 추출되기 위해, 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다.Referring to FIG. 4A, the first angle information formed by the object 410 and the camera 120 in the photographed image according to an embodiment of the present invention, the image 411 of the object in the photographed image, In order to extract the second angle information, a camera 120 including a preset angle of view and a preset shooting area may be used.

본 발명의 일 실시 예에 따라, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, when the horizontal axis is the x-axis and the vertical axis is the y-axis, the predetermined horizontal angle of view of the camera 120 may be Ø m and the predetermined vertical angle of view may be θ m . The horizontal area of the predetermined photographing area of the camera 120 is from -x m to x m , and the vertical area of the predetermined photographing area of the camera 120 may be from -y m to y m .

따라서, 카메라(120)의 좌표 O로부터 M까지의 거리는 삼각 함수 계산법 이용됨으로써, 아래의 식 (1)과 같이 나타낼 수 있다.Therefore, the distance from the coordinate O to M of the camera 120 can be expressed by the following formula (1) by using the trigonometric function calculation method.

Figure pat00001
(1)
Figure pat00001
(One)

도 4b는 본 발명의 일 실시 예에 따른 상술한 제1 각도 정보 및 제2 각도 정보를 추출하는 구체적인 방법을 설명하는 도면이다.4B is a view for explaining a specific method of extracting the first angle information and the second angle information according to an embodiment of the present invention.

도 4b를 참조하면, 본 발명의 일 실시 예에 따르면 촬영된 이미지 내의 물체(410)와 카메라(120)가 이루는 제1 각도 정보는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 촬영된 이미지 내의 물체의 상(411)과 카메라(120)가 이루는 제2 각도 정보는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Referring to FIG. 4B, according to an embodiment of the present invention, the first angle information formed by the object 410 and the camera 120 in the photographed image is the same as the angle information formed by the object 310 and the camera 120 , The second angle information formed by the image of the object 411 in the photographed image and the camera 120 is the same as the angle information formed by the image of the object 311 and the camera 120.

제1 각도 정보가 추출되도록 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(410)의 x좌표값인 x1이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(410)의 y좌표값인 y1이 산출될 수 있다.The x-coordinate value and y-coordinate value of the object 410 in the photographed image so that the first angle information is extracted can be calculated. The x coordinate value x 1 of the object 410 in the photographed image in the horizontal region (-x m to x m ) of the preset photographing region can be calculated. In addition, the y coordinate value y 1 of the object 410 in the photographed image in the longitudinal region (-y m to y m ) of the predetermined photographing region can be calculated.

제1 각도 정보(Ø1 및 θ1)는 촬영된 이미지 내의 물체(410)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제1 각도 정보는 아래의 식 (2) 내지 식 (5)와 같이 추출될 수 있다.The first angle information? 1 and? 1 can be extracted by an x-coordinate value and a y-coordinate value of the object 410 in the photographed image. Specifically, by using the trigonometric function calculation method, the first angle information can be extracted as shown in the following equations (2) to (5).

Figure pat00002
(2)
Figure pat00002
(2)

Figure pat00003
(3)
Figure pat00003
(3)

Figure pat00004
(4)
Figure pat00004
(4)

Figure pat00005
(5)
Figure pat00005
(5)

마찬가지로, 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체의 상(411)의 x좌표값인 x2가 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체의 상(411)의 y좌표값인 y2가 산출될 수 있다.Similarly, the x-coordinate value and y-coordinate value of the image 411 of the object in the photographed image can be calculated so that the second angle information is extracted. The x coordinate value x 2 of the image 411 of the object in the photographed image in the horizontal area (-x m to x m ) of the preset photographing area can be calculated. Further, the y coordinate value y 2 of the image 411 of the object in the photographed image in the longitudinal region (-y m to y m ) of the preset photographing region can be calculated.

제2 각도 정보(Ø2 및 θ2)는 상술한 식 (2) 내지 (5)와 동일한 방법으로 촬영된 이미지 내의 물체의 상(411)의 x좌표값 및 y좌표값에 의해 추출될 수 있다. 구체적으로 삼각 함수 계산법이 이용됨으로써 제2 각도 정보는 아래의 식 (6) 및 식 (7)와 같이 추출될 수 있다.The second angle information? 2 and? 2 can be extracted by the x-coordinate value and the y-coordinate value of the image 411 of the object in the photographed image in the same manner as the above-described equations (2) to (5) . Specifically, by using the trigonometric function calculation method, the second angle information can be extracted as shown in the following equations (6) and (7).

Figure pat00006
(7)
Figure pat00006
(7)

Figure pat00007
(8)
Figure pat00007
(8)

따라서, 상술한 방법에 의해 추출된 제1 각도 정보(Ø1 및 θ1)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø2 및 θ2)는 물체의 상(311)과 카메라(120)가 이루는 각도 정보와 동일하다.Accordingly, the first angle information? 1 and? 1 extracted by the above-described method are the same as the angle information formed by the object 310 and the camera 120, and the second angle information? 2 and? 2 Is the same as the angle information formed by the image 311 of the object and the camera 120. [

도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.5A and 5B are views for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.

도 5a는 본 발명의 일 실시 예에 따라 추출된 제2 각도 정보를 설명하기 위한 도면이다.5A is a view for explaining second angle information extracted according to an embodiment of the present invention.

도 5a를 참조하면, 본 발명의 일 실시 예에 따른 하나의 카메라(120)는 평면 거울(110)과 기 설정된 각도(θ')를 이루고, 기 설정된 거리(d)로 이격되는 위치에 배치될 수 있다.Referring to FIG. 5A, one camera 120 according to an embodiment of the present invention is disposed at a position spaced apart from the plane mirror 110 by a predetermined distance d, .

평면 거울(110)의 배치는 xy평면에 수직이면서 (-n,0,0) 및 (0,n,0)을 지나는 평면으로 배치될 수 있다. 단, 상술한 평면 거울(110)의 배치는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The arrangement of the planar mirrors 110 may be arranged in a plane that is perpendicular to the xy plane and passes through (-n, 0,0) and (0, n, 0). However, the above-described arrangement of the planar mirror 110 is merely an example for explaining an embodiment of the present invention, but the present invention is not limited thereto.

또한, 본 발명의 일 실시 예에 따른 기 설정된 각도 θ'는 45˚일 수 있고, 기 설정된 거리 d는

Figure pat00008
일 수 있다. 따라서, 카메라(120)의 좌표가 O(0,0,0)이고, 카메라(120)가 y축을 바라보는 경우, 평면 거울(110)에 비친 카메라의 상(121)의 좌표는 C(-n,n,0)이고, 카메라의 상(121)은 x축을 바라보는 것으로 가정될 수 있다. 하지만, 상술한 기 설정된 각도 및 기 설정된 거리는 본 발명의 일 실시 예를 쉽게 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 값이 가능하며, 다양한 값에 따라 카메라(120)의 좌표 및 카메라의 상(121)의 좌표 또한 달라질 수 있다.In addition, the predetermined angle? 'According to an embodiment of the present invention may be 45 占 and the predetermined distance d may be
Figure pat00008
Lt; / RTI > Therefore, when the coordinates of the camera 120 are O (0, 0, 0) and the camera 120 is looking at the y axis, the coordinates of the image 121 of the camera reflected by the plane mirror 110 are C (-n , n, 0), and the image 121 of the camera can be assumed to be looking at the x-axis. However, the predetermined angles and predetermined distances described above are only examples for explaining the embodiment of the present invention. The present invention is not limited to this, and various values are possible, and the coordinates of the camera 120 and the image The coordinates of the light source 121 may also be changed.

도 5a를 다시 참조하면, 도 4b에서 추출된 물체의 상(311)과 카메라(120)가 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2)는 평면 거울에 비친 카메라의 상(121)과 물체(310)가 이루는 각도 정보와 동일하다.Referring to FIG. 5A again, the second angle information? 2 and? 2 , which are the angle information between the image 311 of the object extracted in FIG. 4B and the camera 120, And the object 310 are the same.

도 5b는 본 발명의 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 구체적으로 설명하기 위한 도면이다.5B is a diagram for explaining a method of calculating three-dimensional coordinate data of an object according to an embodiment of the present invention.

도 5b를 참조하면, 도 4b에서 추출된 물체(310)와 카메라(120)가 이루는 각도 정보인 제1 각도 정보(Ø1 및 θ1)에 기초하여 카메라(120)로부터 물체(310)를 향하는 제1 직선 벡터(

Figure pat00009
)가 산출될 수 있다.Referring to FIG. 5B, it is determined whether the object 310 is located on the basis of the first angle information? 1 and? 1 , which is the angle information between the object 310 extracted in FIG. 4B and the camera 120, The first straight line vector (
Figure pat00009
) Can be calculated.

또한, 도 4b 및 도 5a에서 추출된 물체(310)와 카메라의 상(121)이 이루는 각도 정보인 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 카메라의 상(121)으로부터 물체(310)를 향하는 제2 직선 벡터(

Figure pat00010
)가 산출될 수 있다.The second angle information? 2 and? 2 , which are angle information between the object 310 extracted from FIGS. 4B and 5A and the image 121 of the camera, and the second angle information? 2 and? 2 , A second straight line vector (< RTI ID = 0.0 >
Figure pat00010
) Can be calculated.

구체적으로, 추출된 제1 각도 정보(Ø1 및 θ1)에 기초하여 아래의 식 (8)과 같이 제1 직선 벡터가 산출될 수 있다. 아래의 식 (8)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정될 수 있다. 단, 상술한 제1 직선 벡터의 y좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니다.Specifically, the first straight line vector can be calculated based on the extracted first angle information? 1 and? 1 as shown in the following equation (8). In the following equation (8), the y coordinate value of the first straight line vector may be set to 1 for convenience of calculation. It should be noted that the y coordinate value of the first linear vector is set to 1 as an example for explaining one embodiment of the present invention.

Figure pat00011
(8)
Figure pat00011
(8)

또한, 추출된 제2 각도 정보(Ø2 및 θ2) 및 평면 거울(110)에 비친 카메라의 상(121)에 기초하여 아래의 식 (9)와 같이 제2 직선 벡터가 산출될 수 있다. 아래의 식 (9)에서는 계산의 편의성을 위해 제1 직선 벡터의 y좌표값이 1로 설정된 경우와 마찬가지로 제2 직선 벡터의 x좌표값이 1로 설정될 수 있다. 단, 상술한 제2 직선 벡터의 x좌표값이 1로 설정되는 것은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.The second straight line vector can be calculated based on the extracted second angle information? 2 and? 2 and the image 121 of the camera reflected on the plane mirror 110 as shown in the following equation (9). In the following equation (9), the x-coordinate value of the second straight line vector may be set to 1 as in the case where the y-coordinate value of the first straight line vector is set to 1 for ease of calculation. However, it is to be understood that the x coordinate value of the second straight line vector is set to '1' to illustrate an embodiment of the present invention.

Figure pat00012
(9)
Figure pat00012
(9)

상술한 식 (8) 및 식 (9)에 산출된 제1 및 제2 직선 벡터의 교점이 물체의 3차원 좌표 데이터에 해당된다.The intersection of the first and second straight line vectors calculated in the above-mentioned expressions (8) and (9) corresponds to the three-dimensional coordinate data of the object.

따라서, 물체(310)의 좌표값 P(x,y,z)의 값은 아래의 식 (10) 내지 식 (12)와 같이 나타낼 수 있다.Therefore, the values of the coordinate values P (x, y, z) of the object 310 can be expressed by the following equations (10) to (12).

Figure pat00013
(10)
Figure pat00013
(10)

Figure pat00014
(11)
Figure pat00014
(11)

Figure pat00015
(12)
Figure pat00015
(12)

상술한 식 (10) 내지 식 (12)에서 i 및 k는 임의의 배수를 나타낸다.In the above-mentioned expressions (10) to (12), i and k represent arbitrary multiples.

따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, the three-dimensional coordinate data of the object can be calculated while the intersection of the first and second straight line vectors calculated as described above is extracted.

도 6은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of controlling an object motion analyzing apparatus in a space according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 제어 방법에 있어서, 오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 오목 렌즈에 의한 물체의 상을 동시에 포함하는 이미지를 촬영한다(S610).Referring to FIG. 6, in a method of controlling an object movement analyzing apparatus in a space according to another embodiment of the present invention, one camera, which is arranged so that a predetermined portion overlaps with a concave lens, (Step S610).

촬영된 이미지 내의 물체와 카메라가 이루는 제1 각도 정보 및 물체의 상과 카메라가 이루는 제2 각도 정보가 추출된다(S620).The first angle information formed by the object and the camera in the photographed image and the second angle information formed by the image of the object and the camera are extracted (S620).

본 발명의 일 실시 예에 따르면 제1 및 제2 각도 정보가 추출되는 방법에서, 카메라에 의해 물체와 오목 렌즈에 의한 물체의 상이 동시에 포함되도록 촬영된 이미지는 물체가 포함된 영역 및 물체의 상이 포함된 영역으로 분할될 수 있다. 제1 각도 정보는 물체가 포함된 영역만이 포함된 이미지로부터 추출될 수 있고, 제2 각도 정보는 오목 렌즈에 의한 물체의 상이 포함된 영역만이 포함된 이미지로부터 추출될 수 있다.According to an embodiment of the present invention, in the method in which the first and second angle information are extracted, the image captured by the camera such that the image of the object by the concave lens is included at the same time includes the region including the object and the image of the object Lt; / RTI > The first angle information can be extracted from the image including only the region including the object and the second angle information can be extracted from the image including only the region including the image of the object by the concave lens.

또한, 본 발명의 또 다른 일 실시 예에 따르면, 제1 각도 정보 및 제2 각도 정보는 촬영된 이미지의 색상, 채도, 명도(HSV)가 변환되면서 추출될 수 있다. 촬영된 이미지의 HSV가 변환되는 방법에는 이진 이미지로 변환되는 방법이 포함될 수 있다. 단 상술한 이진 이미지로 변환되는 방법은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니다.According to another embodiment of the present invention, the first angle information and the second angle information may be extracted while transforming the color, saturation, and brightness (HSV) of the photographed image. A method in which the HSV of the photographed image is converted may include a method of converting into a binary image. However, the method of converting into the above-mentioned binary image is only an example for explaining one embodiment of the present invention, but it is not limited thereto.

추출된 제1 및 제2 각도 정보에 기초하여 물체의 3차원 좌표 데이터가 산출된다(S630).The three-dimensional coordinate data of the object is calculated based on the extracted first and second angle information (S630).

본 발명의 일 실시 예에 따라 물체의 3차원 좌표 데이터가 산출되는 방법은, 제1 각도 정보에 기초하여 카메라로부터 물체를 향하는 제1 직선 벡터가 산출되고, 오목 렌즈에 의한 카메라의 상 및 제2 각도 정보에 기초하여 카메라의 상으로부터 물체를 향하는 제2 직선 벡터가 산출되며, 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체의 3차원 데이터가 산출될 수 있다.According to an embodiment of the present invention, a method of calculating three-dimensional coordinate data of an object includes calculating a first straight line vector directed from the camera to an object based on the first angle information, A second straight line vector directed from the image of the camera to the object is calculated based on the angle information, and three-dimensional data of the object can be calculated while the intersection of the calculated first and second straight line vectors is extracted.

물체의 3차원 데이터가 산출되는 방법은, 도 7 내지 도 10을 참조하여 후술하기로 한다.A method of calculating three-dimensional data of an object will be described later with reference to Figs. 7 to 10.

또한, 본 발명의 일 실시 예에 따라 촬영된 이미지가 물체가 움직이는 동영상인 경우, 촬영된 동영상은 복수 개의 이미지로 분할될 수 있으며, 분할된 복수 개의 이미지에서 물체의 3차원 좌표 데이터가 산출될 수 있다. 또한, 복수 개의 이미지에서 각각에서 산출된 물체의 3차원 좌표 데이터에 기초하여 물체의 3차원 운동이 식별될 수 있다.In addition, according to an embodiment of the present invention, when the photographed image is a moving image of an object, the photographed moving image can be divided into a plurality of images, and three-dimensional coordinate data of the object can be calculated from the plurality of divided images have. Further, the three-dimensional motion of the object can be identified based on the three-dimensional coordinate data of the object calculated in each of the plurality of images.

본 발명의 또 다른 일 실시 예에 따르면, 상술한 방법에 의해 식별된 물체의 3차원 운동 궤적이 디스플레이 될 수 있다.According to another embodiment of the present invention, the three-dimensional motion trajectory of the object identified by the above-described method can be displayed.

도 7은 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈의 특성을 나타내는 도면이다.7 is a view showing characteristics of a concave lens according to another embodiment of the present invention.

일반적으로 오목 렌즈(720)를 통해 물체(310)는 위치에 관계없이 항상 축소된 정립 허상이 만들어 질 수 있다.Generally, through the concave lens 720, the object 310 can be always reduced in size regardless of its position.

도 7을 참조하면, 물체(310)는 오목 렌즈(720)에 의하여 정립 허상인 물체의 상(710)이 만들어 질 수 있다. 오목 렌즈(720)의 중심점 G로부터 물체(310)까지의 거리는 절댓값 a로 나타낼 수 있다. 또한, 오목 렌즈(720)의 중심점 G로부터 오목 렌즈에 의한 물체의 상(710)까지의 거리는 절댓값 b로 나타낼 수 있다.Referring to FIG. 7, the object 310 can be formed with an image 710 of an object, which is a virtual image, by a concave lens 720. The distance from the center point G of the concave lens 720 to the object 310 can be represented by a value a. Further, the distance from the center point G of the concave lens 720 to the image 710 of the object by the concave lens can be represented by the absolute value b.

오목 렌즈(720)의 중심점 G로부터 초점 F까지의 거리인 초점 거리의 절댓값은 f로 나타낼 수 있다. 오목 렌즈(720)의 중심점 G로부터 허초점 F?까지의 거리는 초점 거리와 마찬가지로 절댓값 f로 나타낼 수 있다. An absolute value of the focal length, which is the distance from the center point G of the concave lens 720 to the focal point F, can be represented by f. The distance from the center point G of the concave lens 720 to the initial point F? Can be represented by an absolute value f, similar to the focal distance.

물체(310)와 오목 렌즈(720)에 의해 맺혀진 정립 허상인 물체의 상(710)의 거리는 아래의 식 (13)과 같은 렌즈의 공식에 의하여 산출될 수 있다.The distance between the object 310 and the object image 710, which is a fixed virtual image formed by the concave lens 720, can be calculated by a lens formula as shown in the following equation (13).

Figure pat00016
(13)
Figure pat00016
(13)

도 8은 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치의 구조를 설명하는 도면이다.8 is a view for explaining a structure of an object motion analyzing apparatus in a space according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 공간 내의 물체의 운동 분석 장치로 스마트 폰이 도시되어 있지만 상술한 스마트 폰은 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것이 아니며 공간 내의 물체 운동 분석 장치는 이미지를 촬영할 수 있는 카메라가 포함되며, 촬영된 이미지의 분석을 수행할 수 있는 장치이면 어떠한 장치라도 무방하다.Referring to FIG. 8, although a smartphone is shown as an apparatus for analyzing motion of an object in a space according to an embodiment of the present invention, the above-described smart phone is only an example for illustrating an embodiment of the present invention, The object motion analyzing apparatus in the space includes a camera capable of capturing an image, and any device can be used as long as it can perform analysis of the captured image.

도 8(a)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 포함된 하나의 카메라(120)가 물체(310) 및 오목 렌즈(720)에 의한 물체의 상(710)이 동시에 포함되도록 이미지를 촬영하는 것을 나타낸 것이다.8A is a view illustrating a state where one camera 120 included in the apparatus for analyzing object movements in a space according to another embodiment of the present invention includes an image of an object 710 by an object 310 and a concave lens 720, Is taken at the same time.

도 8(a)를 참조하면, 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되도록 카메라(120)는 오목 렌즈(720)와 기 설정된 부분이 겹치도록 배치될 수 있다. 또한, 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다.8A, the camera 120 includes a concave lens 720 and a predetermined portion 710 so that the object 310 and the image of the object 710 by the concave lens are simultaneously included in the photographing region of the camera 120. [ As shown in Fig. In addition, the center of the object 310, the center of the object image 710, and the center of the concave lens 720 can be connected in a straight line.

도 8(b)는 본 발명의 또 다른 일 실시 예에 따른 오목 렌즈(720)에 의한 카메라의 상(810)을 설명하기 위한 도면이다.8 (b) is a view for explaining the image 810 of the camera by the negative lens 720 according to another embodiment of the present invention.

도 8(b)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)의 촬영 영역에 물체(310) 및 오목 렌즈에 의한 물체의 상(710)이 동시에 포함되는 경우, 물체(310)는 두 개의 카메라(120, 810)로부터 촬영된 것으로 가정될 수 있다.8B, when the object 310 and the image of the object 710 by the concave lens are simultaneously included in the photographing region of the camera 120 according to another embodiment of the present invention, 310 may be assumed to have been photographed from two cameras 120, 810.

따라서, 물체(310)는 오목 렌즈(720)를 통해 카메라(710)를 바라본다고 가정될 수 있고, 물체(310)는 카메라(710)로부터 촬영되는 동시에 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 촬영될 수 있다. 따라서, 카메라(710)로부터 관측된 지점 및 카메라의 상(810)으로부터 관측된 지점과 물체(310)가 이루는 각인 시차(θ'')가 형성될 수 있다.The object 310 can be assumed to look at the camera 710 through the concave lens 720 and the object 310 can be assumed to be photographed from the camera 710 and simultaneously reflected by the concave lens 720 810). Accordingly, a parallax (&thetas; '') formed between the point observed from the camera 710 and the point observed from the image 810 of the camera and the object 310 can be formed.

카메라(120)에서 바라본 오목 렌즈(720)에 의한 물체의 상(710)과 물체(310)에서 바라본 오목 렌즈(720)에 의한 카메라의 상(810)과의 관계는 동일한 오목 렌즈(720)가 사용되는 경우이므로 같아야 한다.The relationship between the image 710 of the object by the concave lens 720 viewed from the camera 120 and the image 810 of the camera by the concave lens 720 viewed from the object 310 is the same as that of the concave lens 720 If it is used, it should be the same.

따라서, 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위의 R점에서 교차될 수 있다.The straight line that looks from the camera 120 to the object image 710 by the concave lens 720 and the straight line that looks at the object 310 from the image 810 of the camera by the concave lens 720, And may intersect at point R on line 720.

도 9는 본 발명의 또 다른 일 실시 예에 따른 물체와 카메라가 이루는 각도 정보를 추출하는 방법을 설명하는 도면이다.9 is a view for explaining a method of extracting angle information between an object and a camera according to another embodiment of the present invention.

도 9를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 촬영된 이미지 내의 물체(910)와 카메라(120)가 이루는 제1 각도 정보 및 촬영된 이미지 내의 오목 렌즈에 의한 물체의 상(911)과 카메라(120)가 이루는 제2 각도 정보는 도 4a 및 도 4b에서와 동일한 방법에 의해 추출될 수 있다.9, the first angle information formed by the object 910 and the camera 120 in the photographed image according to another embodiment of the present invention and the first angle information formed by the concave lens in the photographed image, And the camera 120 may be extracted by the same method as in FIGS. 4A and 4B.

본 발명의 일 실시 예에 따르면 기 설정된 화각 및 기 설정된 촬영 영역을 포함하는 카메라(120)가 이용될 수 있다. 구체적으로, 가로축을 x축, 세로축을 y축이라고 하면 카메라(120)의 기 설정된 가로 화각은 Øm이고, 기 설정된 세로 화각은 θm일 수 있다. 또한, 카메라(120)의 기 설정된 촬영 영역의 가로 영역은 -xm에서 xm까지 이고, 카메라(120)의 기 설정된 촬영 영역의 세로 영역은 -ym에서 ym까지일 수 있다.According to an embodiment of the present invention, a camera 120 including a preset angle of view and a predetermined shooting region may be used. Specifically, if the abscissa axis is the x axis and the ordinate axis is the y axis, the predetermined horizontal angle of view of the camera 120 is? M and the predetermined vertical angle of view may be? M. The horizontal area of the predetermined photographing area of the camera 120 is from -x m to x m , and the vertical area of the predetermined photographing area of the camera 120 may be from -y m to y m .

제1 및 제2 각도 정보가 추출되도록 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값과 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값이 산출될 수 있다. 기 설정된 촬영 영역의 가로 영역(-xm ~ xm)에서 촬영된 이미지 내의 물체(910)의 x좌표값인 x3과 물체의 상(911)의 x좌표값인 x4이 산출될 수 있다. 또한, 기 설정된 촬영 영역의 세로 영역(-ym ~ ym)에서 촬영된 이미지 내의 물체(910)의 y좌표값인 y3과 물체(911)의 y좌표값인 y4가 산출될 수 있다.The x-coordinate value and the y-coordinate value of the object 910 in the photographed image and the x-coordinate value and the y-coordinate value of the image 911 of the object in the photographed image can be calculated so that the first and second angle information are extracted . There is a group of the x-coordinate value x of the horizontal region 4 (-x ~ m x m), the x coordinate value of x 3 and a phase 911 of the objects of the object 910 in the image taken from the set-up area can be calculated . In addition, a group of vertical set-up zone area (m ~ y m -y) y-coordinate value of y 4 of the y coordinate value of y 3 and the object 911 of the object 910 in the image taken in can be calculated .

제1 각도 정보는 촬영된 이미지 내의 물체(910)의 x좌표값 및 y좌표값에 의해, 제2 각도 정보는 촬영된 이미지 내의 물체의 상(911)의 x좌표값 및 y좌표값에 의해 추출될 수 있다.The first angle information is extracted by an x coordinate value and a y coordinate value of an object 910 in the photographed image and the second angle information is extracted by an x coordinate value and a y coordinate value of an image 911 of an object in the photographed image .

따라서, 도 4a 및 도 4b에서와 동일한 방법이 적용되면서 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)는 아래의 식 (14) 내지 식 (17)와 같이 추출될 수 있다.4A and 4B, the first angular information? 3 and? 3 and the second angular information? 4 and? 4 are obtained by the following equations (14) to (17) and Can be extracted together.

Figure pat00017
(14)
Figure pat00017
(14)

Figure pat00018
(15)
Figure pat00018
(15)

Figure pat00019
(16)
Figure pat00019
(16)

Figure pat00020
(17)
Figure pat00020
(17)

따라서, 도 4a 및 도 4b에서와 동일한 방법에 의해 추출된 제1 각도 정보(Ø3 및 θ3)는 물체와 카메라(120)가 이루는 각도 정보와 동일하고, 제2 각도 정보(Ø4 및 θ4)는 오목 렌즈에 의한 물체의 상과 카메라(120)가 이루는 각도 정보와 동일하다.Therefore, the first angle information? 3 and? 3 extracted by the same method as in FIGS. 4A and 4B are the same as the angle information formed by the object and the camera 120, and the second angle information? 4 and? 4 is the same as the angle information between the image of the object by the concave lens and the camera 120. [

도 10은 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터를 산출하는 방법을 설명하는 도면이다.10 is a view for explaining a method of calculating three-dimensional coordinate data of an object according to another embodiment of the present invention.

도 10을 참조하면, 본 발명의 또 다른 일 실시 예에 따른 카메라(120)는 기 설정된 위치(H(-xh,-yh,0))에 배치될 수 있고, 오목 렌즈(720)의 테두리 일면을 향하도록 배치될 수 있다.10, can be disposed on the camera 120 has a predetermined position (H (h -x, -y h, 0)) in accordance with another embodiment of the present invention, the negative lens 720, And may be arranged to face one edge of the frame.

본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 좌표 데이터가 산출되는 방법은 도 9에서 추출된 제1 각도 정보(Ø3 및 θ3) 및 제2 각도 정보(Ø4 및 θ4)에 기초하여 산출될 수 있다.The first angle information (Ø 3 and θ 3) and the second angle information (Ø 4 and θ 4) Extraction method of the three-dimensional coordinate data of the object is calculated from Figure 9 in accordance with another embodiment of the present invention Can be calculated.

구체적으로, 제1 각도 정보(Ø3 및 θ3)는 물체(310)와 카메라(120)가 이루는 각도 정보와 동일하다. 제1 각도 정보(Ø3 및 θ3)에 기초하여 카메라(120)의 좌표 H(-xh,-yh,0)로부터 물체(310)의 좌표 P(-x3',y3',z3')를 향하는 제1 직선 벡터

Figure pat00021
가 산출될 수 있다.Specifically, the first angle information? 3 and? 3 are the same as the angle information formed by the object 310 and the camera 120. First angle information (Ø 3 and θ 3) and 'y 3,' coordinates P (-x 3 of the object 310 from the coordinates H (h -x, -y h, 0) of the camera 120 based on, z < 3 >
Figure pat00021
Can be calculated.

아래의 식 (18)은 계산의 편의성을 위해 카메라(120)로부터 물체(310)를 향하는 거리를 1로 하여 제1 직선 벡터가 산출된 것을 나타낸다.The following equation (18) shows that the first straight line vector is calculated by setting the distance from the camera 120 to the object 310 to 1 for ease of calculation.

Figure pat00022
(18)
Figure pat00022
(18)

오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 향하는 제2 직선 벡터

Figure pat00023
는 아래와 같은 방법으로 산출될 수 있다.And a second straight line vector 820 from the image 810 of the camera by the concave lens 720 toward the object 310. [
Figure pat00023
Can be calculated by the following method.

도 8(a)에서 설명한 바와 같이 물체(310)의 중심, 물체의 상(710)의 중심 및 오목 렌즈(720)의 중심이 직선으로 연결될 수 있다. 상술한 특징의 적용으로 오목 렌즈(720)에 의한 물체의 상(710)의 좌표 Q(-x4',y4',z4')는 식 (13)의 렌즈 공식에 의해 아래의 식 (19) 내지 식(22)과 같이 물체(310)의 좌표 P(-x3',y3',z3')와의 관계가 형성될 수 있다.The center of the object 310, the center of the object image 710, and the center of the concave lens 720 may be connected in a straight line, as described in Fig. 8 (a). The coordinates of the 710 of the object by the concave lens 720 by the application of the above-described characteristics Q (-x 4 ', y 4 ', z 4 ') is the following formula by the lens formula of equation (13) ( (X 3 ', y 3 ', z 3 ') of the object 310 as shown in Expression (19) to Expression (22).

Figure pat00024
(19)
Figure pat00024
(19)

Figure pat00025
(20)
Figure pat00025
(20)

Figure pat00026
(21)
Figure pat00026
(21)

Figure pat00027
(22)
Figure pat00027
(22)

도 8(b)에서 설명한 바와 같이 카메라(120)로부터 오목 렌즈(720)에 의한 물체의 상(710)을 바라보는 직선과 오목 렌즈(720)에 의한 카메라의 상(810)으로부터 물체(310)를 바라보는 직선이 오목 렌즈(720) 위에서 교차될 수 있고, 교차되는 좌표는 R(-x5,0,z5)로 설정될 수 있다.A straight line looking from the camera 120 to the object image 710 by the concave lens 720 and a straight line from the image of the object 310 by the concave lens 720 from the image 810 of the camera, A straight line that looks at the intersection can be crossed over the concave lens 720 and the intersecting coordinates can be set to R (-x 5 , 0, z 5 ).

제2 직선 벡터

Figure pat00028
는 D(-xh',-yh',0)와 R(-x5,0,z5)의 좌표에 의해 산출될 수 있다.The second straight line vector
Figure pat00028
Can be calculated by the coordinates of D (-x h ', -y h ', 0) and R (-x 5 , 0, z 5 ).

상술한 제1 직선 벡터가 산출되는 방법이 동일하게 적용되면서 카메라(120)로부터 물체의 상(710)을 향하는 직선 벡터가 산출될 수 있고, 산출된 직선 벡터에 의해 아래의 식 (23)와 같이 좌표 R(-x5,0,z5)가 산출될 수 있다.The straight line vector from the camera 120 to the image of the object 710 can be calculated while the method of calculating the first straight line vector described above is applied and the straight line vector calculated from the calculated straight line vector as shown in the following equation (23) The coordinates R (-x 5 , 0, z 5 ) can be calculated.

Figure pat00029
(23)
Figure pat00029
(23)

또한, 오목 렌즈(720)에 의한 카메라의 상(810)의 좌표 D(-xh',-yh',0)는 식 (19) 내지 식(22)과 동일한 방법으로 아래의 식 (24) 내지 식(26)과 같이 산출될 수 있다.The coordinates D (-x h ', -y h ', 0) of the image 810 of the camera by the concave lens 720 are obtained by the following equations (24) to ) To (26).

Figure pat00030
(24)
Figure pat00030
(24)

Figure pat00031
(25)
Figure pat00031
(25)

Figure pat00032
(26)
Figure pat00032
(26)

따라서, 좌표 D(-xh',-yh',0) 및 R(-x5,0,z5)을 지나는 제2 직선 벡터

Figure pat00033
는 아래의 식 (27)과 같이 산출될 수 있다.Thus, the coordinates D (-x h ', -y h ', 0) and R (-x 5, 0, z 5) through a second linear vector
Figure pat00033
Can be calculated as shown in the following equation (27).

Figure pat00034
(27)
Figure pat00034
(27)

따라서, 산출된 제1 직선 벡터

Figure pat00035
및 제2 직선 벡터
Figure pat00036
의 교점이 아래의 식 (28) 내지 식 (30)와 같이 추출되어 물체(310)의 3차원 좌표 P(-x3',y3',z3')가 산출될 수 있다.Therefore, the calculated first straight line vector
Figure pat00035
And a second straight line vector
Figure pat00036
Dimensional coordinates P (-x 3 ', y 3 ', z 3 ') of the object 310 can be calculated by extracting the intersection of the object 310 as shown in the following equations (28) to (30).

Figure pat00037
(28)
Figure pat00037
(28)

Figure pat00038
(29)
Figure pat00038
(29)

Figure pat00039
(30)
Figure pat00039
(30)

상술한 식 (28) 내지 식 (30)에서 i 및 k는 임의의 배수를 나타낸다.In the above-mentioned equations (28) to (30), i and k represent arbitrary multiples.

따라서, 상술한 바와 같이 산출된 제1 및 제2 직선 벡터의 교점이 추출되면서 물체(310)의 3차원 좌표 데이터가 산출될 수 있다.Accordingly, the three-dimensional coordinate data of the object 310 can be calculated while the intersection of the first and second straight line vectors calculated as described above is extracted.

도 11은 본 발명의 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.FIG. 11 shows the result of analysis of three-dimensional motion of an object in a space according to an embodiment of the present invention.

도 11(a)를 참조하면, 본 발명의 일 실시 예에 따른 롤러코스터의 3차원 운동이 분석되도록 평면 거울 앞에 롤러코스터가 위치되어 있고, 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 롤러코스터와 평면 거울에 비친 롤러코스터의 상이 동시에 포함되도록 촬영하였다.Referring to FIG. 11A, a roller coaster is positioned in front of a plane mirror to analyze the three-dimensional motion of the roller coaster according to an embodiment of the present invention, and a camera included in the three- The images of the roller coaster and the image of the roller coaster reflected on the plane mirror were simultaneously captured.

도 11(b)는 본 발명의 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 롤러코스터의 3차원 운동 궤적과 동일한 롤러코스터의 3차원 운동 궤적이 나타난 것을 보여준다.FIG. 11 (b) shows the three-dimensional motion locus of the actual roller coaster and the three-dimensional motion locus of the same roller coaster by the object motion analyzing apparatus in the space according to the embodiment of the present invention.

따라서, 모션 캡쳐 시스템과 같은 고가의 장비가 사용되지 않고도 물체의 3차원 운동의 분석이 가능하다.Thus, it is possible to analyze the three-dimensional motion of an object without using expensive equipment such as a motion capture system.

도 12는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체의 3차원 운동을 분석한 결과를 나타낸 것이다.FIG. 12 shows a result of analyzing three-dimensional motion of an object in a space according to another embodiment of the present invention.

도 12(a)를 참조하면, 본 발명의 또 다른 일 실시 예에 따른 물체의 3차원 운동이 분석되도록 공간 내의 물체의 3차원 운동 분석 장치에 포함된 카메라가 물체 및 오목 렌즈에 의한 물체의 상이 동시에 보이도록 촬영하였다.12 (a), a camera included in an apparatus for three-dimensional motion analysis of an object in a space in which a three-dimensional motion of an object according to another embodiment of the present invention is analyzed may be classified into an object and a concave lens, And were photographed to be seen simultaneously.

도 12(b)는 본 발명의 또 다른 일 실시 예에 따른 공간 내의 물체 운동 분석 장치에 의해 실제 물체의 3차원 운동 궤적과 동일한 물체의 3차원 운동 궤적이 나타난 것을 보여준다.12 (b) shows a three-dimensional motion trajectory of the same object as a three-dimensional motion trajectory of an actual object by an object motion analyzing apparatus in a space according to another embodiment of the present invention.

이상과 같이 본 발명의 다양한 실시 예에 따르면, 모션 캡쳐 시스템과 같은 고가의 장비 없이 물체의 3차원 운동의 분석이 가능하다. 또한, 기존에는 물체의 3차원 운동을 분석하기 위해 복수 개의 카메라가 필요했지만 본 발명의 다양한 실시 예에 따르면 하나의 카메라가 포함된 공간 내의 물체 운동 분석 장치만으로 물체의 3차원 운동의 분석이 가능하므로 비용이 상대적으로 적게 드는 장점이 있다.As described above, according to various embodiments of the present invention, it is possible to analyze the three-dimensional motion of an object without expensive equipment such as a motion capture system. In addition, although a plurality of cameras are required for analyzing the three-dimensional motion of an object, according to various embodiments of the present invention, it is possible to analyze the three-dimensional motion of the object using only the object motion analyzer in a space including one camera There is an advantage that the cost is relatively small.

또한, 본 발명의 다양한 실시 예에 따르면, 평면 거울 대신 오목 렌즈가 사용되는 경우 평면 거울보다 넓은 화각이 확보될 수 있으며, 평면 거울에 비해 휴대성이 증진될 수 있는 장점이 있다.In addition, according to various embodiments of the present invention, when a concave lens is used in place of a plane mirror, a wider angle of view can be secured than a plane mirror, and portability can be improved compared to a plane mirror.

또한, 본 발명의 다양한 실시 예에 따르면, 물체의 운동 분석은 하나의 물체뿐만 아니라 복수 개의 물체의 운동이 동시에 분석될 수 있다. 예를 들면, 복수 개의 물체가 충돌하는 경우에도 복수 개의 물체의 운동이 동시에 분석될 수 있다.In addition, according to various embodiments of the present invention, motion analysis of an object can simultaneously analyze motion of a plurality of objects as well as one object. For example, even when a plurality of objects collide, the motions of a plurality of objects can be simultaneously analyzed.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

100: 물체 운동 분석 장치
110: 평면 거울
120: 카메라
130: 프로세서
100: Object motion analyzer
110: Flat mirror
120: camera
130: Processor

Claims (10)

공간 내의 물체 운동 분석 장치의 제어 방법에 있어서,
평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치된 하나의 카메라가 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 하나의 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리만큼 이격되며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
A method for controlling an object motion analyzing apparatus in a space,
Capturing an image including one object positioned at a predetermined position from the plane mirror so that an object located in front of the plane mirror and an image of the object reflected by the plane mirror are located at an angle of view;
Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And
And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information,
Wherein the predetermined position of the one camera forms a predetermined angle with the plane mirror and is spaced apart by a predetermined distance,
Wherein the step of calculating the three-
Calculating a first straight vector directed from the camera to the object based on the first angle information, and calculating a first straight vector from the camera to the object based on the image of the camera reflected on the plane mirror and the second angle information Dimensional coordinate data of the object by calculating a second straight line vector and extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
제1항에 있어서,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method according to claim 1,
Further comprising identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
제2항에 있어서,
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
3. The method of claim 2,
And displaying the identified three-dimensional motion trajectory of the object.
제1항에 있어서,
상기 제1 및 제2 각도 정보를 추출하는 단계는,
상기 이미지를 상기 물체가 포함된 영역 및 상기 물체의 상이 포함된 영역으로 분할하고, 상기 물체가 포함된 영역으로부터 상기 제1 각도 정보를 추출하고, 상기 물체의 상이 포함된 영역으로부터 상기 제2 각도 정보를 추출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method according to claim 1,
Wherein the extracting of the first and second angle information comprises:
Wherein the first angle information is obtained by dividing the image into an area including the object and an area including the image of the object, extracting the first angle information from the area containing the object, And a control method of the object motion analyzing device in the space.
공간 내의 물체 운동 분석 장치의 제어 방법에 있어서,
오목 렌즈와 기 설정된 부분이 겹치도록 배치된 하나의 카메라가 물체와 상기 오목 렌즈에 의한 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 단계;
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 단계; 및
상기 추출된 제1 및 제2 각도 정보에 기초하여 상기 물체의 3차원 좌표 데이터를 산출하는 단계;를 포함하며,
상기 3차원 좌표 데이터를 산출하는 단계는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 오목 렌즈에 의한 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
A method for controlling an object motion analyzing apparatus in a space,
Comprising the steps of: photographing an image in which a camera, which is arranged so that a concave lens and a predetermined portion overlap, simultaneously includes an object and an image of the object by the concave lens;
Extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera; And
And calculating three-dimensional coordinate data of the object based on the extracted first and second angle information,
Wherein the step of calculating the three-
Calculating a first straight line vector directed from the camera to the object based on the first angle information, and calculating a second straight line vector directed from the camera to the object based on the image of the camera and the second angle information by the concave lens Dimensional coordinate data of the object by calculating a second straight line vector and extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object.
제1항에 있어서,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method according to claim 1,
Further comprising identifying three-dimensional motion of the object based on the three-dimensional coordinate data extracted from the plurality of images, respectively.
제6항에 있어서,
상기 물체의 식별된 3차원 운동 궤적을 디스플레이하는 단계;를 더 포함하는, 공간 내의 물체 운동 분석 장치의 제어 방법.
The method according to claim 6,
And displaying the identified three-dimensional motion trajectory of the object.
평면 거울;
상기 평면 거울 앞에 위치한 물체와 상기 평면 거울에 비친 상기 물체의 상이 화각 내에 위치하도록 상기 평면 거울로부터 기 설정된 위치에 배치되고, 하 상기 물체와 상기 물체의 상을 동시에 포함하는 이미지를 촬영하는 하나의 카메라; 및
상기 촬영된 이미지 내의 상기 물체와 상기 카메라가 이루는 제1 각도 정보 및 상기 물체의 상과 상기 카메라가 이루는 제2 각도 정보를 추출하는 프로세서;를 포함하고,
상기 프로세서는,
상기 제1 각도 정보에 기초하여 상기 카메라로부터 상기 물체를 향하는 제1 직선 벡터를 산출하고, 상기 평면 거울에 비친 상기 카메라의 상 및 상기 제2 각도 정보에 기초하여 상기 카메라의 상으로부터 상기 물체를 향하는 제2 직선 벡터를 산출하며, 상기 산출된 제1 및 제2 직선 벡터의 교점을 추출하여 상기 물체의 3차원 좌표 데이터를 산출하고,
상기 카메라의 기 설정된 위치는 상기 평면 거울과 기 설정된 각도를 이루고, 기 설정된 거리 이격되는, 공간 내의 물체 운동 분석 장치.
Plane mirror;
A camera disposed at a predetermined position from the plane mirror such that an object positioned in front of the plane mirror and an image of the object reflected in the plane mirror are located at an angle of view, ; And
And a processor for extracting first angle information between the object and the camera in the photographed image, and second angle information between the image of the object and the camera,
The processor comprising:
Calculating a first straight vector directed from the camera to the object based on the first angle information, and calculating a first straight vector from the camera to the object based on the image of the camera reflected on the plane mirror and the second angle information Calculating a second straight line vector, extracting an intersection point of the calculated first and second straight line vectors to calculate three-dimensional coordinate data of the object,
Wherein the predetermined position of the camera forms a predetermined angle with the plane mirror and is spaced by a predetermined distance.
제8항에 있어서,
상기 프로세서는,
복수의 이미지에서 각각 추출된 상기 3차원 좌표 데이터에 기초하여 상기 물체의 3차원 운동을 식별하는, 공간 내의 물체 운동 분석 장치.
9. The method of claim 8,
The processor comprising:
Wherein the three-dimensional motion of the object is identified based on the three-dimensional coordinate data extracted from the plurality of images.
제9항에 있어서,
상기 식별된 물체의 3차원 운동 궤적을 디스플레이하는 디스플레이;를 더 포함하는, 공간 내의 물체 운동 분석 장치.
10. The method of claim 9,
And a display for displaying a three-dimensional motion trajectory of the identified object.
KR1020180003704A 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof KR102028726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Publications (2)

Publication Number Publication Date
KR20190085620A true KR20190085620A (en) 2019-07-19
KR102028726B1 KR102028726B1 (en) 2019-10-07

Family

ID=67512095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003704A KR102028726B1 (en) 2018-01-11 2018-01-11 Analysis apparatus of object motion in space and control method thereof

Country Status (1)

Country Link
KR (1) KR102028726B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2588850A (en) * 2019-09-27 2021-05-12 Electronic Theatre Controls Inc Systems and methods for light fixture location determination

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066679A (en) * 2003-12-26 2005-06-30 김형복 The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera
KR20070080981A (en) * 2006-02-09 2007-08-14 전북대학교산학협력단 Equipment of image stereo omni-directional
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066679A (en) * 2003-12-26 2005-06-30 김형복 The structure and the principle of three dimensional depth measurement system using rotating mirror, striped light source and mono-camera
KR20070080981A (en) * 2006-02-09 2007-08-14 전북대학교산학협력단 Equipment of image stereo omni-directional
WO2010044186A1 (en) * 2008-10-17 2010-04-22 パナソニック株式会社 Flow line production system, flow line production device, and three-dimensional flow line display device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2588850A (en) * 2019-09-27 2021-05-12 Electronic Theatre Controls Inc Systems and methods for light fixture location determination
GB2602557A (en) * 2019-09-27 2022-07-06 Electronic Theatre Controls Inc Systems and methods for light fixture location determination
GB2588850B (en) * 2019-09-27 2022-08-17 Electronic Theatre Controls Inc Systems and methods for light fixture location determination
GB2602557B (en) * 2019-09-27 2023-01-04 Electronic Theatre Controls Inc Systems and methods for light fixture location determination
US11835997B2 (en) 2019-09-27 2023-12-05 Electronic Theatre Controls, Inc. Systems and methods for light fixture location determination

Also Published As

Publication number Publication date
KR102028726B1 (en) 2019-10-07

Similar Documents

Publication Publication Date Title
US11756223B2 (en) Depth-aware photo editing
US7554575B2 (en) Fast imaging system calibration
CN109565551B (en) Synthesizing images aligned to a reference frame
Klein Visual tracking for augmented reality
JP2017022694A (en) Method and apparatus for displaying light field based image on user's device, and corresponding computer program product
US10606347B1 (en) Parallax viewer system calibration
WO2019184185A1 (en) Target image acquisition system and method
US10634918B2 (en) Internal edge verification
CN110213491B (en) Focusing method, device and storage medium
KR20110132260A (en) Monitor based augmented reality system
JP2012238293A (en) Input device
Drab et al. Motion Detection as Interaction Technique for Games & Applications on Mobile Devices.
CN110895433B (en) Method and apparatus for user interaction in augmented reality
KR101961266B1 (en) Gaze Tracking Apparatus and Method
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
JPWO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device
WO2011096571A1 (en) Input device
KR102028726B1 (en) Analysis apparatus of object motion in space and control method thereof
Belo et al. Digital assistance for quality assurance: Augmenting workspaces using deep learning for tracking near-symmetrical objects
KR20170093421A (en) Method for determining object of interest, video processing device and computing device
US11770551B2 (en) Object pose estimation and tracking using machine learning
JP2008203538A (en) Image display system
Kim et al. Realtime plane detection for projection Augmented Reality in an unknown environment
KR102062765B1 (en) Three Dimensional image capture SYSTEM WITH IMAGE CONVERSION MECHANISM AND METHOD OF OPERATION THEREOF
US9551922B1 (en) Foreground analysis on parametric background surfaces

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right