KR101921709B1 - System for object tracking using muli-camera unit - Google Patents

System for object tracking using muli-camera unit Download PDF

Info

Publication number
KR101921709B1
KR101921709B1 KR1020160182666A KR20160182666A KR101921709B1 KR 101921709 B1 KR101921709 B1 KR 101921709B1 KR 1020160182666 A KR1020160182666 A KR 1020160182666A KR 20160182666 A KR20160182666 A KR 20160182666A KR 101921709 B1 KR101921709 B1 KR 101921709B1
Authority
KR
South Korea
Prior art keywords
cameras
camera
performer
value
identification
Prior art date
Application number
KR1020160182666A
Other languages
Korean (ko)
Other versions
KR20180077866A (en
Inventor
최이권
허건
김유화
박정현
Original Assignee
모젼스랩 (주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩 (주) filed Critical 모젼스랩 (주)
Priority to KR1020160182666A priority Critical patent/KR101921709B1/en
Publication of KR20180077866A publication Critical patent/KR20180077866A/en
Application granted granted Critical
Publication of KR101921709B1 publication Critical patent/KR101921709B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/23229
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

본 발명은 다수 공연자를 다수의 (IR)카메라를 이용하여 트레킹하되, 공연자 추적의 정확성을 향사시키도록 구현된 멀티 카메라를 유닛을 이용한 객체 인식 시스템에 관한 것으로, 본 발명은 공연자가 이동하면서 공연을 실연하는 무대와; 실연 공간 내의 식별표지를 인식하기 위해, 상기 무대를 향해 설치되는 다수의 카메라들과; 상기 공연자 신체 일부에 부착되어, 상기 카메라에 의해 인식되는 IR 마커; 그리고 상기 카메라들로부터 인식된 IR마커 센싱값을 수신받아, 상기 IR마커 센싱값에 따라 상기 공연자의 위치를 인식하고 추적하는 제어유닛을 포함하여 구성되고: 상기 제어유닛은, 상기 무대는 다수개의 구역으로 구분하고; 각 구역에 대한 상기 카메라들의 인식률에 따라 각 구역 별로 상기 공연자 인식 및 추적에 사용될 둘 이상의 카메라를 각각 할당한다. 이와 같은 본 발명에 의하면, 본 발명에서는 다수의 멀티 IR 카메라들로 공연 공간 내의 사용자 위치를 식별/추적하되, 상기 공연공간을 구분하여, 각 영역 별로 인식률이 높은 IR 카메라 조합을 통해 객체를 인식/추적하므로 공연자의 위치를 정확히 파악할 수 있는 효과가 있다.The present invention relates to an object recognition system using a multi-camera unit implemented to track a plurality of performers using a plurality of (IR) cameras and to enhance the accuracy of tracker tracking, A stage for demonstration; A plurality of cameras installed toward the stage for recognizing an identification mark in the performance space; An IR marker attached to a part of the performer body and recognized by the camera; And a control unit for receiving the recognized IR marker sensing value from the cameras and for recognizing and tracking the position of the performer according to the IR marker sensing value, the control unit comprising: ; And allocates two or more cameras to be used for recognizing and tracking the performers for each zone according to the recognition rates of the cameras for the respective zones. According to the present invention, in the present invention, a plurality of multi-IR cameras are used to identify / track user locations in a performance space, distinguish the performance spaces, recognize and recognize objects through IR camera combination, So that the position of the performer can be accurately grasped.

Description

멀티 카메라 유닛을 이용한 객체 인식 시스템 { SYSTEM FOR OBJECT TRACKING USING MULI-CAMERA UNIT }BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an object recognition system using a multi-

본 발명은 공연자를 구별하여 추적하는 시스템에 있어, 다수 공연자를 다수의 IR 카메라를 이용하여 트레킹하되, 공연자 추적의 정확성을 향사시키도록 구현된 멀티 카메라를 유닛을 이용한 객체 인식 시스템에 관한 것으로, 문화체육관광부의 스포츠산업기술기반조성사업 중 '태권도 액션 퍼포먼스 스포츠기술 개발' 과제를 수행함에 있어 산출된 결과물에 대한 발명이다.The present invention relates to an object recognition system using a multi-camera unit, which is implemented in a system for distinguishing and tracking performers, in which multiple performers are trekked using a plurality of IR cameras, It is the invention of the result that is produced in carrying out the task of 'Taekwondo action performance sports technology development' among the sports industry technology establishment project of the Ministry of Sports and Tourism.

근래에 멀티미디어 환경의 급속한 발달에 따라, 공연 문화에도 다양한 IOT 기술이 적용되고 있다.Recently, with the rapid development of multimedia environment, various IOT technologies have been applied to performance culture.

이에 최근에는 공연에 참여한 실연자와 각종 무대장치 및 특수효과 등이 서로 인터렉션하는 기술이 개발되고 있다.Recently, a technique has been developed in which performers participating in performances, various stage devices, and special effects are interacted with each other.

이와 같은, 공연 인터렉션을 구현하기 위해서는, 기본적으로 물리적인 공연공간 상에서 실연하는 공연자를 구별하여 인식하여 처리하는 기술이 제공되어야 한다.In order to realize such a performance interaction, a technique for discriminating, recognizing, and processing performers performing basically in a physical performance space should be provided.

본 출원인은 키넥트 카메라를 이용하여 다수 참여자 간 인터렉션이 가능한 시스템을 개발하여 특허등록 받은바 있다(대한민국 등록 특허 제1575063호).The present applicant has developed a system capable of interacting with a plurality of participants using a Kinect camera and has been patented (Korean Patent No. 1575063).

그러나 키넥트 카메라를 이용한 종래기술의 경우. 도 1에 도시된 바와 같이, 사용자 입력의 안정성은 확보되나, 장비 설치 비용이 높고, 터치입력이라는 한정된 행위만을 인식하여, 사용자의 이동범위 및 인터렉션 행위가 제한적이라는 단점이 있다.However, in the case of the prior art using a Kinect camera. As shown in FIG. 1, although the stability of the user input is secured, the installation cost of the equipment is high, and only limited actions such as touch input are recognized, and the movement range of the user and the interaction action are limited.

반면에, IR 카메라는 사용자의 다양한 행위를 인식하여 인터렉션할 수 있는 장점이 있으나, 다양한 요인에 의해 사용자의 위치 및 구분에 오류가 발생되는 문제점이 있었다.On the other hand, although the IR camera has an advantage of recognizing various activities of the user and interacting with the user, the IR camera has a problem that an error occurs in the location and the division of the user due to various factors.

특히, 다수 사용자가 동시에 참여하면서, 액션 스피드가 빠른 스포츠 공연의 경우, 사용자 간의 중첩등의 문제로 사용자 식별에 오류가 발생되는 문제점이 있었다.Particularly, in the case of a sports performance having a fast action speed, a plurality of users are participating at the same time, resulting in an error in user identification due to overlapping among users.

대한민국 등록 특허 제1575063호Korean Patent No. 1575063

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 공연 공간 내에 설치된 다수의 IR 카메라를 이용하여 다수의 사용자의 위치를 식별/추적함에 있어, 위치별로 인식률이 높은 카메라의 조합으로 사용자의 위치 추적 및 식별하여 정확성을 높일 수 있는 멀티 카메라 유닛을 이용한 객체 인식 시스템을 제공하고자 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a camera having a high recognition rate for each location, And to provide an object recognition system using a multi-camera unit that can improve the accuracy by tracking and identifying a user's position in combination.

또한, 본 발명은 다수의 IR 카메라를 이용하여 공연공간 내의 사용자를 인식함에 있어, 공연 공간 위치에 따라 추적 정확도가 높은 IR 카메라를 활용하여 사용자를 인식하되, 각 카메라 인식영역을 기설정하여 객체 인식 효율을 향상시킬 수 있는 멀티 카메라 유닛을 이용한 객체 인식 시스템을 제공하고자 하는 것이다.In addition, in recognizing a user in a performance space using a plurality of IR cameras, the present invention recognizes a user by utilizing an IR camera with high tracking accuracy according to the location of a performance space, And an object recognition system using a multi-camera unit capable of improving efficiency.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 공연자가 이동하면서 공연을 실연하는 무대와; 실연 공간 내의 식별표지를 인식하기 위해, 상기 무대를 향해 설치되는 다수의 카메라들과; 상기 공연자 신체 일부에 부착되어, 상기 카메라에 의해 인식되는 IR 마커; 그리고 상기 카메라들로부터 인식된 IR마커 센싱값을 수신받아, 상기 IR마커 센싱값에 따라 상기 공연자의 위치를 인식하고 추적하는 제어유닛을 포함하여 구성되고: 상기 제어유닛은, 상기 무대는 다수개의 구역으로 구분하고; 각 구역에 대한 상기 카메라들의 인식률에 따라 각 구역 별로 상기 공연자 인식 및 추적에 사용될 둘 이상의 카메라를 각각 할당한다.According to an aspect of the present invention, there is provided a game system comprising: a stage for performing performances while a performer moves; A plurality of cameras installed toward the stage for recognizing an identification mark in the performance space; An IR marker attached to a part of the performer body and recognized by the camera; And a control unit for receiving the recognized IR marker sensing value from the cameras and for recognizing and tracking the position of the performer in accordance with the IR marker sensing value, the control unit comprising: ; And allocates two or more cameras to be used for recognizing and tracking the performers for each zone according to the recognition rates of the cameras for the respective zones.

그리고 상기 카메라들은, 서로 설치 위치가 이격되어 배치될 수도 있다.In addition, the cameras may be disposed so that their installation positions are spaced apart from each other.

또한, 상기 제어유닛은, 상기 카메라의 IR 마커 센싱값을 수신받는 통신모듈과; 상기 카메라들로부터 수신된 센싱값을 데이터베이스에 저장하는 제어모듈과; 상기 데이터베이스에 저장되는 상기 카메라의 센싱값을 이용하여 상기 사용자를 식별하여 상기 사용자의 위치를 산출 및 보정하는 연산모듈; 그리고 상기 카메라로부터 수신된 센싱값 및 측정값을 저장하는 데이터베이스를 포함하여 구성될 수도 있다.The control unit may further include: a communication module receiving the IR marker sensing value of the camera; A control module for storing the sensed values received from the cameras in a database; A calculation module for calculating and correcting the position of the user by identifying the user using a sensing value of the camera stored in the database; And a database for storing sensing values and measurement values received from the camera.

그리고 상기 각 구역에 대한 상기 카메라들의 인식률은, 상기 무대에 설치된 식별패드 상의 식별표지를 인식함에 의해 검사될 수도 있다.And the recognition rate of the cameras for each zone may be checked by recognizing the identification mark on the identification pad installed on the stage.

이때, 상기 식별패드는, 격자형태로 영역이 구분되고, 상기 각 영역에 적외선 인식이 가능한 식별표지가 부착되어 구성된 패드일 수도 있다.At this time, the identification pad may be a pad formed by dividing a region in a lattice form and attaching an identification mark capable of recognizing infrared rays to the respective regions.

한편, 상기 각 구역에 대한 상기 카메라들의 인식률은, 격자형태로 영역이 구분된 무대에 설치된 식별유닛 상의 식별표지를 인식함에 의해 검사될 수도 있다.On the other hand, the recognition rates of the cameras for each zone may be inspected by recognizing the identification mark on the identification unit installed on the stage where the zones are divided in a lattice form.

이때, 상기 식별유닛은, 받침부와; 상기 받침부 상부에 바닥면과 수직하게 구비되는 회전판과; 상기 회전판을 회전시키는 구동부; 그리고 상기 회전판 일 측면에 부착되는 식별표지를 포함하여 구성될 수도 있다.At this time, the identification unit includes: a receiving unit; A rotating plate provided on the upper part of the receiving unit perpendicularly to the bottom surface; A driving unit for rotating the rotating plate; And an identification mark attached to one side of the rotary plate.

그리고 상기 구동부는, 공연 종류에 따라 설정된 회전속도에 따라 상기 회전판을 회전시킬 수도 있다.The driving unit may rotate the rotating plate according to the rotation speed set according to the performance type.

또한, 상기 제어모듈은, 상기 카메라들을 구동시켜 상기 무대상에 설치된 식별표지를 인식하고; 각 카메라들에 대한 각 위치의 식별표지 인식값을 수신하여; 각 카메라들의 인식값에 따른 식별표지의 위치값을 산출하며; 산출된 위치값들을 서로 비교하여, 평균값과의 차이값에 따라 해당 영역에 대한 각 카메라의 인식률을 판별할 수도 있다.The control module may drive the cameras to recognize the identification mark provided on the object, Receiving an identification marker recognition value of each position for each of the cameras; Calculating a position value of the identification mark according to the recognition value of each camera; The calculated position values may be compared with each other, and the recognition rate of each camera for the corresponding area may be determined according to the difference value from the average value.

그리고 상기 제어모듈은, 상기 카메라들의 인식값에 따른 식별표지의 위치값을 산출함에 있어, 둘 이상의 카메라들의 조합에 의해 위치값을 산출하고; 카메라들의 조합 별로, 해당 영역에 대한 인식률을 판별할 수도 있다.The control module may calculate a position value of the identification mark according to the recognition value of the cameras by using a combination of two or more cameras; It is also possible to determine the recognition rate for the corresponding area for each combination of cameras.

또한, 상기 제어모듈은, 각 구역에 대한 카메라들 조합의 인식률에 따라 각 구역 별로 상기 공연자 인식 및 추적에 사용될 카메라들의 조합을 설정할 수도 있다.In addition, the control module may set a combination of cameras to be used for recognizing and tracking the performer for each zone according to the recognition rate of the combination of cameras for each zone.

위에서 살핀 바와 같은 본 발명에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템에서는 다음과 같은 효과를 기대할 수 있다.In the object recognition system using the multi-camera unit according to the present invention as described above, the following effects can be expected.

즉, 본 발명에서는 다수의 멀티 IR 카메라들로 공연 공간 내의 사용자 위치를 식별/추적하되, 상기 공연공간을 구분하여, 각 영역 별로 인식률이 높은 IR 카메라 조합을 통해 객체를 인식/추적하므로 공연자의 위치를 정확히 파악할 수 있는 효과가 있다.That is, according to the present invention, a plurality of multi IR cameras are used to identify / track the user's location in the performance space, and the performance space is divided and the object is recognized / tracked through IR camera combination having a high recognition rate for each area. Can be accurately grasped.

또한, 본 발명은, 각 IR 카메라를 물리적으로 설치한 이후에 IR 카메라의 조작없이 각 영역별 인식률을 검사하고 이에 따라 각 영역에 대한 IR 카메라를 할당하므로, 작업자의 조작에 의한 동기화 오류를 예방할 수 있는 효과가 있다.In addition, since each IR camera is physically installed, the recognition rate of each area is checked without the operation of the IR camera, and the IR camera is assigned to each area, so that synchronization error due to the operation of the operator can be prevented There is an effect.

본 발명은 이와 같이, 공연공간 내에 위치한 사용자의 위치 추적 및 식별에 대한 정확성을 확보함에 따라, 공연공간 내에 다수 사용자가 참여하고 빠른 동작을 수행함에도 각 사용자와 정확한 인터렉션을 수행할 수 있는 효과가 있다.As described above, according to the present invention, accuracy in tracking and identifying a location of a user located in a performance space is ensured, so that an accurate interaction with each user can be performed even though a large number of users participate in the performance space and perform quick operation .

도 1은 종래 기술에 의한 터치 디바이스 상의 다수 사용자 식별방법을 도시한 예시도.
도 2는 본 발명에 의한 객체 인식 시스템이 공연공간 내에 구축된 예를 도시한 예시도.
도 3은 본 발명의 구체적인 실시예에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템의 구성을 도시한 블록도.
도 4는 본 발명의 구체적인 실시예에 의한 공연공간 내 설치된 멀티 카메라 유닛의 위치별 인식률 산정예를 도시한 예시도.
도 5는 본 발명의 다른 실시예에 의한 공연공간 내 설치된 멀티 카메라 유닛의 위치별 인식률 산정예를 도시한 예시도.
도 6은 본 발명의 다른 실시예에 적용된 식별유닛의 일 예를 도시한 예시도.
도 7은 본 발명의 카메라별 인식률을 반영하여 공연공간 내 구역별 객체 인식 방법을 도시한 예시도.
도 8은 본 발명의 구체적인 실시예에 의한 공연공간 내 설치된 멀티 카메라의 위치별 인식률 산정 방법을 도시한 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is an illustration showing a method of identifying a plurality of users on a touch device according to the prior art; Fig.
FIG. 2 is an exemplary view showing an example in which an object recognition system according to the present invention is constructed in a performance space; FIG.
3 is a block diagram illustrating a configuration of an object recognition system using a multi-camera unit according to a specific embodiment of the present invention.
4 is a diagram illustrating an example of calculating a recognition rate for each position of a multi-camera unit installed in a performance space according to a specific embodiment of the present invention.
5 is a diagram illustrating an example of calculating a recognition rate for each position of a multi-camera unit installed in a performance space according to another embodiment of the present invention.
FIG. 6 is an exemplary view showing an example of an identification unit applied to another embodiment of the present invention; FIG.
FIG. 7 is a diagram illustrating an object recognition method for each zone in a performance space by reflecting the recognition rate of each camera according to the present invention. FIG.
FIG. 8 is a flowchart illustrating a method of calculating a recognition rate for each position of a multi-camera installed in a performance space according to a specific embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템을 살펴보기로 한다.Hereinafter, an object recognition system using a multi-camera unit according to a specific embodiment of the present invention will be described with reference to the accompanying drawings.

설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. , Which may vary depending on the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block of the accompanying block diagrams and combinations of steps of the flowcharts may be performed by computer program instructions (execution engines), which may be stored in a general-purpose computer, special purpose computer, or other processor of a programmable data processing apparatus The instructions that are executed through the processor of the computer or other programmable data processing equipment will generate means for performing the functions described in each block or flowchart of the block diagram.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And computer program instructions may be loaded onto a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the data processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.Also, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions, and in some alternative embodiments, It is also possible for functions to occur out of order.

즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.That is, it is also possible that the two blocks or steps shown are actually concurrently performed, and that the blocks or steps are performed in the reverse order of the function as required.

도 2는 본 발명에 의한 객체 인식 시스템이 공연공간 내에 구축된 예를 도시한 예시도이고, 도 3은 본 발명의 구체적인 실시예에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템의 구성을 도시한 블록도이며, 도 4는 본 발명의 구체적인 실시예에 의한 공연공간 내 설치된 멀티 카메라 유닛의 위치별 인식률 산정예를 도시한 예시도이고, 도 5는 본 발명의 다른 실시예에 의한 공연공간 내 설치된 멀티 카메라 유닛의 위치별 인식률 산정예를 도시한 예시도이며, 도 6은 본 발명의 다른 실시예에 적용된 식별유닛의 일 예를 도시한 예시도이고, 도 7은 본 발명의 카메라별 인식률을 반영하여 공연공간 내 구역별 객체 인식 방법을 도시한 예시도이며, 도 8은 본 발명의 구체적인 실시예에 의한 공연공간 내 설치된 멀티 카메라의 위치별 인식률 산정 방법을 도시한 흐름도이다.3 is a block diagram illustrating the configuration of an object recognition system using a multi-camera unit according to a specific embodiment of the present invention. FIG. 2 is a block diagram FIG. 4 is a diagram illustrating an example of calculating the recognition rate for each position of a multi-camera unit installed in a performance space according to a specific embodiment of the present invention. FIG. 6 is an exemplary view showing an example of an identification unit applied to another embodiment of the present invention, and FIG. 7 is a view showing an example of a recognition performance of a performance FIG. 8 is a diagram illustrating a method of estimating the recognition rate of a multi-camera installed in a performance space according to a specific embodiment of the present invention. A time limit flowchart.

본 발명에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템은 공연 공간상에 구비되는 무대(10)와 상기 무대(10)를 향해 설치되는 다수의 (IR)카메라(100), 실연자인 사용자에게 부착되는 IR마커(200), 상기 카메라(100)를 제어하고, 수신된 센싱값을 이용하여 사용자의 위치를 추적하는 제어유닛(400)을 포함하여 구성된다.An object recognition system using a multi-camera unit according to the present invention includes a stage 10 provided on a performance space, a plurality of (IR) cameras 100 installed toward the stage 10, an IR A marker 200, and a control unit 400 controlling the camera 100 and tracking the position of the user using the received sensing value.

상기 카메라(100)는 적외선(Infrared Rays; IR)을 이용하여, 피사체를 촬영하는 적외선(IR) 카메라를 둘 이상 포함하여 구성된다. 이때, 상기 카메라(100)를 구성하는 복수의 카메라들(110, 120)은 서로 이격된 위치에 설치된다.The camera 100 includes two or more infrared (IR) cameras for photographing a subject using infrared rays (IR). At this time, the plurality of cameras 110 and 120 constituting the camera 100 are installed at positions separated from each other.

이에 따라 상기 카메라(100)는 인식된 피사체의 촬상 각의 차이를 통해 피사체의 위치를 산출할 수 있다. 멀티 카메라들에 의해 촬영된 피사체의 위치를 산출하는 알고리즘은 상용화된 기술로, 본 명세서에서 상세히 설명하지는 않도록 한다.Accordingly, the camera 100 can calculate the position of the subject through the difference in the imaging angle of the recognized subject. The algorithm for calculating the position of the object photographed by the multi-cameras is a commercialized technique, which is not described in detail herein.

한편, 본 발명은 도 2에 도시된 바와 같이, 다 각도로 설치된 다수개의 카메라(100)들을 포함하여 구성된다.2, the present invention includes a plurality of cameras 100 installed at multiple angles.

따라서, 본 발명은 다수개의 카메라(100)를 통해 좀 더 정확성 있는 피사체의 위치를 산출할 수 있다.Accordingly, the present invention can more accurately calculate the position of the subject through the plurality of cameras 100.

한편, 본 발명에서 카메라는 피사체 자체를 인식하는 것도 가능하나, 인식의 정확성을 향상시키기 위하여, 적외선 카메라에 식별력이 높은 IR 마커(200)를 인식하도록 한다. 이에 대하여는 다시 상세히 설명하기로 한다.Meanwhile, in the present invention, the camera can recognize the subject itself, but in order to improve the accuracy of recognition, the infrared marker 200 is recognized by the infrared camera. This will be described in detail again.

그리고 IR 마커(200)는 상기 IR 카메라가 사용자를 정확히 인식하도록 사용자 신체 일부에 부착되는 마커로, 일반적인 적외선 반사 필름 등으로 구성되는 식별표지를 포함하여 구성될 수 있다.The IR marker 200 is a marker attached to a part of the user's body so that the IR camera accurately recognizes the user. The IR marker 200 may include an identification mark composed of a general infrared ray reflective film or the like.

상기 식별표지는 상기 IR 카메라의 특성에 따라 다양하게 구성될 수 있는데, 바람직하게는 특정 색상이 표시된 표지 또는 특정 영역의 주파수를 갖는 광신호를 반사시키는 표지일 수 있다.The identification mark may be variously configured according to the characteristics of the IR camera. Preferably, the identification mark may be a mark reflecting a specific color or a mark reflecting a light signal having a frequency of a specific region.

한편, 상기 제어유닛(400)은 상기 카메라(100)의 촬상 데이터를 이용하여 사용자의 정확한 위치 및 방향을 산출하는 것으로, 이를 위해 상기 제어유닛(400)은 통신모듈(410), 연산모듈(420), 제어모듈(410) 및 데이터베이스(440)를 포함하여 구성된다.The control unit 400 calculates the precise position and direction of the user by using the imaging data of the camera 100. To this end, the control unit 400 includes a communication module 410, a calculation module 420 ), A control module 410, and a database 440.

상기 통신모듈(410)은 상기 카메라(100)의 촬상데이터를 수신하는 부분이다.The communication module 410 receives the imaging data of the camera 100.

그리고 상기 제어모듈(430)은 상기 카메라(100)들로부터 수신된 대상체(사용자)의 측정값을 상기 데이터베이스(440)에 저장한다.The control module 430 stores the measurement values of the object (user) received from the cameras 100 in the database 440.

또한, 상기 연산모듈(420)은 상기 데이터베이스(440)에 저장되는 상기 카메라(100)의 측정값을 이용하여 상기 대상체의 위치를 산출하고, 상기 대상체의 위치를 보정하는 역할을 수행한다.The calculation module 420 calculates the position of the object using the measurement values of the camera 100 stored in the database 440 and corrects the position of the object.

그리고 상기 데이터베이스(440)는 상기 연산모듈(420)이 대상체의 위치 및 방향을 산출하기 위해 상기 카메라(100)로부터 수신된 측정값을 저장하는 부분이다.The database 440 stores the measurement values received from the camera 100 to calculate the position and direction of the object.

한편, 상기 제어모듈(430)은 후술할 각 카메라(100)별 각 영역에 대한 인식률을 바탕으로, 무대(10)를 다수개의 영역으로 구분하고, 각 영역에 있어, 대상 객체 추적에 이용될 카메라(100)들을 할당하여 저장한다.On the other hand, the control module 430 divides the stage 10 into a plurality of regions based on the recognition rates of the respective regions of each camera 100, which will be described later, (100).

즉, 상기 제어모듈(430)은 대상 객체가 무대(10)상의 특정영역에 위치하는 경우, 설치된 모든 카메라(100)를 이용하여 상기 대상 객체를 인식/추적하는 것이 아니고, 상기 영역에 할당된 카메라(100)들 만을 이용하여 대상 객체를 인식/추적한다.That is, when the target object is located in a specific area on the stage 10, the control module 430 does not recognize / track the target object using all installed cameras 100, And recognizes / tracks the target object using only the objects 100.

이하에서는, 카메라(110, 120) 설치 후 각 카메라(110, 120) 별로 무대상의 영역별 인식률을 검사하고, 해당 인식률에 따라 영역별 카메라를 할당하는 방법에 대하여 설명하기로 한다.Hereinafter, a method of inspecting the recognition rates of the cameras 110 and 120 for each of the cameras 110 and 120 on the stage and allocating the cameras according to the recognition rates will be described.

본 발명에 의한 멀티 카메라 유닛을 이용한 객체 인식 시스템에 있어, 각 카메라의 영역별 인식률 검사방법은 크게 식별패드를 이용하는 방법과 식별유닛을 이용하는 방법으로 구분되고, 이에서는 상기 두 가지 방법에 대하여 각각 살펴보기로 한다.In the object recognition system using the multi-camera unit according to the present invention, the method of checking the recognition rate of each camera is classified into a method using an identification pad and a method using an identification unit. Let's look at it.

먼저, 도 4는에 도시된 바와 같이, 식별패드(20)를 이용하여 카메라 별 인식률을 검사하는 방법은, 무대상에 설치된 식별패드(20)를 이용하여 각 카메라의 인식률을 검사한다.First, as shown in FIG. 4, a method of checking the recognition rate of each camera using the identification pad 20 is to check the recognition rate of each camera using the identification pad 20 provided on the object.

상기 식별패드(20)는 무대에 카메라(100)를 설치 시, 각 카메라(100)에 대한 위치별 인식률을 설정하기 위한 구성으로, 식별표지(220)가 표시되어 무대에 배치시킬 수 있는 패드를 의미한다.When the camera 100 is installed on the stage, the identification pad 20 is configured to set a recognition rate for each camera 100. The identification pad 220 displays a padding that can be placed on the stage it means.

상기 식별패드(20)는 다양한 형태로 구성될 수 있으나, 도 4에 도시된 바와 같이, 식별패드(20) 상의 위치를 구별할 수 있도록 격자형태로 영역이 구분되고, 구분된 각 영역에 상기 식별표지(220)가 부착된 형태로 구성될 수 있다.As shown in FIG. 4, the identification pad 20 may be formed in a variety of shapes. However, the identification pad 20 may be divided into regions in a lattice pattern so as to distinguish positions on the identification pad 20, And a cover 220 may be attached.

즉, 도 4에 도시된 바와 같이, 설정된 위치에 카메라(100)들을 설치 후, 상기 무대 상에 식별패드(20)를 설치한다.That is, as shown in FIG. 4, after the cameras 100 are installed in the set position, the identification pad 20 is installed on the stage.

이후, 도 8에 도시된 바와 같이, 상기 카메라(100)들은 구동시켜, 상기 식별패드(20) 상의 각 식별표지(220)를 인식한다(S110, S120).8, the cameras 100 are driven to recognize the respective identification tags 220 on the identification pad 20 (S110, S120).

그리고 상기 제어유닛(400)은 각 카메라(1 내지 8)들의 식별표지 인식값(센싱값)을 수신하여, 각 식별표지(210)에 대한 위치값을 산출한다.The control unit 400 receives the identification tag recognition value (sensing value) of each of the cameras 1 to 8 and calculates a position value for each identification tag 210.

이때, 상기 제어유닛(400)은 개별적인 카메라의 측정값에 따라 식별표지(220)의 위치값을 산출하는 것도 가능하지만, 둘 이상의 카메라 측정값을 통해 상기 식별표지의 위치값을 산출하는 것도 가능하다.At this time, the control unit 400 may calculate the position value of the identification mark 220 according to the measured value of the individual camera, but it is also possible to calculate the position value of the identification mark through the two or more camera measurement values .

이는 어떠한 카메라의 조합이 특정 영역에서 높은 위치 인식률을 나타내는지 여부를 판단하기 위한 것이다.This is for determining whether any combination of cameras represents a high position recognition rate in a specific area.

다음으로, 상기 제어유닛(400)은 각 카메라(100)(또는 카메라의 조합)이 산출한 위치값을 서로 비교하여, 다른 카메라로부터 산출된 위치값과 오차가 큰 영역에 대하여, 해당 카메라 유닛의 반영률을 낮추어 설정한다.Next, the control unit 400 compares the position values calculated by each camera 100 (or a combination of cameras) with each other, and calculates a position value of the camera unit 100 Set the reflection rate lower.

즉, 상기 카메라 유닛의 대상체 위치 산출은 기본적으로 영상분석을 통해 산출하는 것이므로, 카메라와 사용자 사이의 거리 및 방향에 따라, 정확도가 떨어지는 위치가 있을 수 있다.That is, since the calculation of the object position of the camera unit is basically performed through image analysis, there may be a position where the accuracy is low depending on the distance and direction between the camera and the user.

이에 따라, 본 발명은 각 카메라들의 설치시, 각 카메라의 위치값 산출 정확도를 시험적으로 판별하여, 정확도가 낮은 위치에 대하여는, 시스템 운용시 산출된 위치값의 반영률을 낮게 설정하여 사용자의 위치를 특정하기 위한 것이다.Accordingly, in the present invention, when the cameras are installed, the positional value calculation accuracy of each camera is tentatively determined. For a position having a low accuracy, a reflection rate of the positional value calculated at the time of system operation is set low, For example.

이와 같이, 판별된 무대상의 위치별 인식률에 따라, 대상체의 위치에 따른 카메라를 설정하여 대상체를 인식하는 것도 가능하다.In this manner, it is also possible to recognize a target object by setting a camera according to the position of the target object in accordance with the recognition rate for each position on the determined stage.

즉, 도 7에 도시된 바와 같이, 무대상의 전체 영역(S0~S4)을 구분하여 설정하고, 각 영역별로, 인식률이 높은 카메라를 설정하여, 해당 영역에 대한 대상체의 위치 인식 및 추적을 해당 카메라를 이용하여 활용하는 것이 가능하다.That is, as shown in FIG. 7, the entire area (S0 to S4) on the stage is set separately and a camera having a high recognition rate is set for each area, Can be utilized.

도 7에 도시된 예에서, 통상 중앙부의 S0 영역은 모든 카메라의 인식률이 높게 나오므로, 어떤 카메라를 이용하여 대상체를 인식/추적하여도 무방할 것이나, 모서리 부분인 S1 내지 S4 영역에는 경사각이 비교적 적은 위치의 카메라를 이용하여 대상체를 인식/추적하는 것이 바람직하고, 각 카메라별 인식률은 전술한 바와 같은 방법에 의해 산출된다.In the example shown in FIG. 7, since the S0 area of the central part has a high recognition rate of all the cameras, it is possible to recognize / track the object using any camera, but the inclination angle is relatively It is preferable to recognize / track the object using a camera with a small position, and the recognition rate for each camera is calculated by the method described above.

한편, 도 4에 도시된 실시예와 같이 식별패드를 이용하여 각 카메라의 영역별 인식률 산출은 3차원 공간상의 제약에 따라 정확성이 다소 부족할 수 있다.In the meantime, as in the embodiment shown in FIG. 4, the recognition rate calculation for each camera region using the identification pad may be somewhat insufficient depending on constraints in the three-dimensional space.

즉, 실제 공연자는 인체의 특정부위에 IR마커(200)를 부착하고, 회전을 포함하는 이동을 하는 반면, 식별패드는 바닥면에 고정된 상태로 위치하므로, 상기 식별패드(20) 상의 식별표지(220)에 대한 인식률이 높은 카메라도, 실제 공연 상황에서 상기 IR 마커(200)의 3차원 공간상의 방향 및 위치에 따라 인식률이 떨어질 수 있다.That is, since the actual performer attaches the IR marker 200 to a specific part of the human body and makes a movement including rotation, the identification pad is fixed on the bottom surface, so that the identification mark on the identification pad 20 The camera having a high recognition rate for the IR marker 220 may be lowered in recognition rate depending on the direction and position on the three-dimensional space of the IR marker 200 in an actual performance situation.

이에 따라 본원 발명의 다른 실시예는, 식별유닛(500)을 이용하여 카메라 별 인식률을 검사하는 방법을 포함한다.Accordingly, another embodiment of the present invention includes a method of checking the recognition rate for each camera using the identification unit 500. [

즉, 본 발명의 다른 실시예는 도 5에 도시된 바와 같이, 식별패드 상에 식별표지를 부착하여 사용하지 않고, 식별표지가 포함된 식별유닛(500)을 이용한다.That is, according to another embodiment of the present invention, as shown in FIG. 5, the identification unit 500 including the identification mark is used instead of attaching the identification mark on the identification pad.

상기 식별유닛은 도 5 및 도 6에 도시된 바와 같이, 상기 식별패드의 구분된 영역에 이동 가능하게 세울 수 있는 받침부와 상기 받침부 상부에 바닥면과 수직하게 형성되는 회전판과 상기 회전판을 회전시키는 구동부 및 상기 회전판 일 측에 부착되는 식별표지를 포함하여 구성된다.As shown in FIGS. 5 and 6, the identification unit includes a support portion movably settable in a divided region of the identification pad, a rotation plate formed perpendicular to the bottom surface on the support portion, And an identification mark attached to one side of the rotating plate.

즉, 상기 식별유닛(500)은 상기 식별패드(20)의 각 영역을 이동하여 세울 수 있도록 구성되고, 식별표지가 부착되는 회전판이 바닥면에 수직 한 방향으로 구비되어 회전가능하게 구성된다.That is, the identification unit 500 is configured to move and set each area of the identification pad 20, and the rotary plate to which the identification mark is attached is rotatably provided in a direction perpendicular to the bottom surface.

이에 따라 상기 식별표지는 실제 공연자의 공연상황에 유사한 형태로 설치되어, 실제 공연상황에서 어떤 카메라 또는 카메라의 조합이 해당 영역의 대상체 인식률이 높은지 여부를 판단할 수 있다.Accordingly, the identification mark is installed in a similar manner to the performances of the actual performers, so that it is possible to determine whether a camera or a combination of cameras in the actual performance situation has a high recognition rate of the object in the corresponding region.

나아가, 관리자는 상기 회전판의 회전속도를 공연종류에 따라 달리 설정하여, 실제 공연상태와 유사한 상화에서의 카메라별 인식률을 검사할 수 있다.Further, the administrator can set the rotational speed of the rotary plate differently according to the type of the performance, and check the recognition rate of each camera in the similarity to the actual performance state.

즉, 운동성이 높은 스포츠 공연에서는 상기 회전판의 회전속도를 높게 설정하고, 운동성이 낮은 공연에서는 상기 회전판의 회전속도를 낮게 설정하여, 실제 공연 상태와 뷰사한 조건에서의 인식률 검사를 수행할 수 있다.That is, the rotational speed of the rotary plate is set high in a sports performance with high mobility, and the rotational speed of the rotary plate is set low in a performance with low mobility, so that a recognition rate test can be performed in a real performance state and a view condition.

한편, 상기 식별유닛(500)을 이용하여 제어유닛(400)이 각 카메라별 해당 영역에 대한 인식률을 검사하는 방법은 전술한 바와 같다.A method for the control unit 400 to check the recognition rate for a corresponding area of each camera using the identification unit 500 is as described above.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.It is to be understood that the invention is not limited to the disclosed embodiment, but is capable of many modifications and variations within the scope of the appended claims. It is self-evident.

본 발명은 다수 공연자를 다수의 (IR)카메라를 이용하여 트레킹하되, 공연자 추적의 정확성을 향사시키도록 구현된 멀티 카메라를 유닛을 이용한 객체 인식 시스템에 관한 것으로, 본 발명에 의하면 다수의 멀티 IR 카메라들로 공연 공간 내의 사용자 위치를 식별/추적하되, 상기 공연공간을 구분하여, 각 영역 별로 인식률이 높은 IR 카메라 조합을 통해 객체를 인식/추적하므로 공연자의 위치를 정확히 파악할 수 있는 효과가 있다.The present invention relates to an object recognition system using a multi-camera unit, which is implemented to tremble multiple performers using a plurality of (IR) cameras, but to enhance the accuracy of tracker tracking. According to the present invention, The location of a user in the performance space can be identified and tracked. However, since the performance space is divided and the object is recognized / tracked through IR camera combination having a high recognition rate for each area, the position of the performer can be accurately grasped.

100 : 카메라 200 : IR마커
400 : 제어유닛 410 : 통신모듈
420 : 연산모듈 430 : 제어모듈
440 : 데이터베이스 500 : 식별유닛
100: camera 200: IR marker
400: control unit 410: communication module
420: operation module 430: control module
440: Database 500: Identification unit

Claims (8)

공연자가 이동하면서 공연을 실연하는 무대와;
실연 공간 내의 식별표지를 인식하기 위해, 상기 무대를 향해 설치되는 다수의 카메라들과;
상기 공연자 신체 일부에 부착되어, 상기 카메라에 의해 인식되는 IR 마커; 그리고
상기 카메라들로부터 인식된 IR마커 센싱값을 수신받아, 상기 IR마커 센싱값에 따라 상기 공연자의 위치를 인식하고 추적하는 제어유닛을 포함하여 구성되고:
상기 제어유닛은,
상기 무대는 다수개의 구역으로 구분하고;
각 구역에 대한 상기 카메라들의 인식률에 따라 각 구역 별로 상기 공연자 인식 및 추적에 사용될 둘 이상의 카메라를 각각 할당하며:
상기 카메라들은,
서로 설치 위치가 이격되어 배치되고:
상기 제어유닛은,
상기 카메라의 IR 마커 센싱값을 수신받는 통신모듈과;
상기 카메라들로부터 수신된 센싱값을 데이터베이스에 저장하는 제어모듈과;
상기 데이터베이스에 저장되는 상기 카메라의 센싱값을 이용하여 상기 공연자를 식별하여 상기 공연자의 위치를 산출 및 보정하는 연산모듈; 그리고
상기 카메라로부터 수신된 센싱값 및 측정값을 저장하는 데이터베이스를 포함하여 구성되며:
상기 각 구역에 대한 상기 카메라들의 인식률은,
격자형태로 영역이 구분된 무대에 설치된 식별유닛 상의 식별표지를 인식함에 의해 검사되고:
상기 식별유닛은,
받침부와;
상기 받침부 상부에 바닥면과 수직하게 구비되는 회전판과;
상기 회전판을 회전시키는 구동부; 그리고
상기 회전판 일 측면에 부착되는 식별표지를 포함하여 구성되며:
상기 제어모듈은,
상기 카메라들을 구동시켜 상기 무대상에 설치된 식별표지를 인식하고;
각 카메라들에 대한 각 위치의 식별표지 인식값을 수신하여;
각 카메라들의 인식값에 따른 식별표지의 위치값을 산출하며;
산출된 위치값들을 서로 비교하여, 평균값과의 차이값에 따라 해당 영역에 대한 각 카메라의 인식률을 판별함을 특징으로 하는 멀티 카메라 유닛을 이용한 객체 인식 시스템.
A stage where the performer moves and performs the performance;
A plurality of cameras installed toward the stage for recognizing an identification mark in the performance space;
An IR marker attached to a part of the performer body and recognized by the camera; And
And a control unit receiving the recognized IR marker sensing value from the cameras and recognizing and tracking the position of the performer according to the IR marker sensing value,
Wherein the control unit comprises:
Said stage being divided into a plurality of zones;
Allocating two or more cameras to be used for recognizing and tracking the performer in each zone according to a recognition rate of the cameras for each zone,
The cameras,
The mounting positions being spaced apart from each other:
Wherein the control unit comprises:
A communication module receiving the IR marker sensing value of the camera;
A control module for storing the sensed values received from the cameras in a database;
A calculation module for calculating and correcting the position of the performer by identifying the performer using a sensing value of the camera stored in the database; And
And a database for storing sensing values and measurement values received from the camera,
The recognition rate of the cameras with respect to each of the zones,
Is checked by recognizing the identification mark on the identification unit installed on the stage where the area is divided in the form of a grid:
The identification unit comprising:
A pedestal portion;
A rotating plate provided on the upper part of the receiving unit perpendicularly to the bottom surface;
A driving unit for rotating the rotating plate; And
And an identification mark attached to one side of the rotary plate,
The control module includes:
Driving the cameras to recognize the identification mark provided on the object;
Receiving an identification marker recognition value of each position for each of the cameras;
Calculating a position value of the identification mark according to the recognition value of each camera;
And comparing the calculated position values with each other to determine a recognition rate of each camera with respect to the corresponding area according to a difference from the average value.
제 1 항에 있어서,
상기 구동부는,
공연 종류에 따라 설정된 회전속도에 따라 상기 회전판을 회전시킴을 특징으로 하는 멀티 카메라 유닛을 이용한 객체 인식 시스템.
The method according to claim 1,
The driving unit includes:
And the rotation plate is rotated according to the rotation speed set according to the performance type.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항 또는 제 2 항에 있어서,
상기 제어모듈은,
상기 카메라들의 인식값에 따른 식별표지의 위치값을 산출함에 있어,
둘 이상의 카메라들의 조합에 의해 위치값을 산출하고;
카메라들의 조합 별로, 해당 영역에 대한 인식률을 판별함을 특징으로 하는 멀티 카메라 유닛을 이용한 객체 인식 시스템.
3. The method according to claim 1 or 2,
The control module includes:
In calculating the position value of the identification mark according to the recognition value of the cameras,
Calculating a position value by a combination of two or more cameras;
And recognizing the recognition rate for the corresponding area by the combination of the cameras.
제 7 항에 있어서,
상기 제어모듈은,
각 구역에 대한 카메라들 조합의 인식률에 따라 각 구역 별로 상기 공연자 인식 및 추적에 사용될 카메라들의 조합이 설정함을 특징으로 하는 멀티 카메라 유닛을 이용한 객체 인식 시스템.
8. The method of claim 7,
The control module includes:
Wherein a combination of cameras to be used for recognition and tracking of the performer is set for each zone according to the recognition rate of the combination of cameras for each zone.
KR1020160182666A 2016-12-29 2016-12-29 System for object tracking using muli-camera unit KR101921709B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160182666A KR101921709B1 (en) 2016-12-29 2016-12-29 System for object tracking using muli-camera unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160182666A KR101921709B1 (en) 2016-12-29 2016-12-29 System for object tracking using muli-camera unit

Publications (2)

Publication Number Publication Date
KR20180077866A KR20180077866A (en) 2018-07-09
KR101921709B1 true KR101921709B1 (en) 2018-11-26

Family

ID=62919541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160182666A KR101921709B1 (en) 2016-12-29 2016-12-29 System for object tracking using muli-camera unit

Country Status (1)

Country Link
KR (1) KR101921709B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220088227A (en) 2020-12-18 2022-06-27 인천대학교 산학협력단 Apparatus for Detecting Object Real Time of Multi Channel Video Stream
KR102437755B1 (en) 2021-02-25 2022-08-29 인천대학교 산학협력단 System for Managing Adaptive Frame for Real Time Object Detection and Method for Controlling Adaptive Frame Using the Same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101339386B1 (en) * 2012-06-19 2013-12-09 에이알비전 (주) System for gesture recognition using tracking pose of a trainee
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100485696B1 (en) * 2003-02-07 2005-04-28 삼성광주전자 주식회사 Location mark detecting method for a robot cleaner and a robot cleaner using the same method
JP4876056B2 (en) * 2007-11-16 2012-02-15 キヤノン株式会社 Image processing apparatus and image processing method
KR101175611B1 (en) * 2011-03-16 2012-08-21 재단법인대구경북과학기술원 Object tracking system using marker and method thereof
JP2015060299A (en) * 2013-09-17 2015-03-30 株式会社日立製作所 Multiple camera photographic image synthesizing device, and multiple camera photographic image synthesizing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101339386B1 (en) * 2012-06-19 2013-12-09 에이알비전 (주) System for gesture recognition using tracking pose of a trainee
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220088227A (en) 2020-12-18 2022-06-27 인천대학교 산학협력단 Apparatus for Detecting Object Real Time of Multi Channel Video Stream
KR102437755B1 (en) 2021-02-25 2022-08-29 인천대학교 산학협력단 System for Managing Adaptive Frame for Real Time Object Detection and Method for Controlling Adaptive Frame Using the Same

Also Published As

Publication number Publication date
KR20180077866A (en) 2018-07-09

Similar Documents

Publication Publication Date Title
US10782399B2 (en) Object detecting method and apparatus using light detection and ranging (LIDAR) sensor and radar sensor
US9605960B2 (en) System and method for photographing moving subject by means of camera, and acquiring actual movement trajectory of subject based on photographed image
EP3262439B1 (en) Using intensity variations in a light pattern for depth mapping of objects in a volume
CN106092086B (en) A kind of quick, high robust robot indoor orientation method based on panoramic vision
JP2019114280A (en) Object tracking device, object tracking system, object tracking method, display controller, object detection device, program, and recording medium
US20170004363A1 (en) Gaze tracking device and a head mounted device embedding said gaze tracking device
JP7051315B2 (en) Methods, systems, and non-temporary computer-readable recording media for measuring ball rotation.
US10456651B2 (en) Golf simulator, and golf simulation method
KR101808095B1 (en) Method and apparatus for measuring location of user terminal
CN108022264B (en) Method and equipment for determining camera pose
US11150318B2 (en) System and method of camera-less optical motion capture
KR102436730B1 (en) Method and apparatus for estimating parameter of virtual screen
US10368058B2 (en) Method and apparatus for extending binocular camera positioning range
WO2007037227A1 (en) Position information detection device, position information detection method, and position information detection program
JP7076955B2 (en) Methods, systems, and non-temporary computer-readable recording media for correcting the brightness of the ball's image.
KR101921709B1 (en) System for object tracking using muli-camera unit
WO2019152084A1 (en) System and method for calibrating light intensity
JP4908523B2 (en) POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM
CN107545589A (en) A kind of space positioning system and method
US11758100B2 (en) Portable projection mapping device and projection mapping system
US20200041262A1 (en) Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
US20230224576A1 (en) System for generating a three-dimensional scene of a physical environment
JP6425406B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
Pennisi et al. Ground truth acquisition of humanoid soccer robot behaviour
US20190180471A1 (en) Method for setting a viewing direction in a representation of a virtual environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant