KR20130062540A - Method and system for distinguishing multiple objects using external vision device - Google Patents

Method and system for distinguishing multiple objects using external vision device Download PDF

Info

Publication number
KR20130062540A
KR20130062540A KR1020110128848A KR20110128848A KR20130062540A KR 20130062540 A KR20130062540 A KR 20130062540A KR 1020110128848 A KR1020110128848 A KR 1020110128848A KR 20110128848 A KR20110128848 A KR 20110128848A KR 20130062540 A KR20130062540 A KR 20130062540A
Authority
KR
South Korea
Prior art keywords
light emitting
light
light emission
bit stream
camera
Prior art date
Application number
KR1020110128848A
Other languages
Korean (ko)
Other versions
KR101317399B1 (en
Inventor
최종석
강성철
김동주
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020110128848A priority Critical patent/KR101317399B1/en
Publication of KR20130062540A publication Critical patent/KR20130062540A/en
Application granted granted Critical
Publication of KR101317399B1 publication Critical patent/KR101317399B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: A method for distinguishing a plurality of objects using an external vision device and a system thereof are provided to supply each unique light emitting pattern to a light emitting unit, thereby distinguishing a position and a motion of an object. CONSTITUTION: A control unit provides each unique bitstream to light emitting units installed in one or more objects(S510). The control unit sets light emitting time of the bitstream(S530). The light emitting unit emits light as a light emitting pattern corresponding to the unique bitstream and the light emitting time(S550). The light emitting pattern is recognized and displayed(S570). [Reference numerals] (AA) Start; (BB) End; (S510) Control unit provides a unique bitstream B to light emitting units installed in objects; (S530) Control unit sets a light emitting time t_b of the light emitting unit; (S550) Light emitting unit emits light as a light emitting pattern corresponding to the unique bitstream B and the light emitting time t_b; (S570) Camera recognizes and displays the light emitting pattern; (S590) User distinguishes each object by the recognized light emitting pattern

Description

외부 비전 장치를 사용한 다수의 객체 구별 방법 및 시스템{ METHOD AND SYSTEM FOR DISTINGUISHING MULTIPLE OBJECTS USING EXTERNAL VISION DEVICE}METHOD AND SYSTEM FOR DISTINGUISHING MULTIPLE OBJECTS USING EXTERNAL VISION DEVICE}

본 발명은, 다수의 객체를 구별하는 방법 및 시스템에 관한 것이다. 더욱 상세하게는, 본 발명은 발광부에 각각 고유의 발광 패턴 (고유 ID)를 부여함으로써, 다수의 로봇과 같은 객체의 위치 및 움직임 등을 구별할 수 있으며, 발광부의 발광 시간을 카메라의 이미지 획득 시간에 정확히 부합하도록 조정하여, 객체의 구별 오류를 현저히 개선시킬 수 있는 외부 비전 장치를 사용한 다수의 객체 구별 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for distinguishing a plurality of objects. More specifically, the present invention can distinguish the position and movement of objects such as a plurality of robots by assigning unique light emission patterns (unique IDs) to the light emitting units, respectively, and obtain the light emission time of the light emitting unit from the camera. A plurality of object discrimination methods and systems using an external vision device that can be adjusted to match time precisely, can significantly improve object discrimination errors.

비전 시스템을 이용하여 다수 로봇을 인식, 구별하기 위해서 기존 연구에서는 고유한 색상 정보나 일정한 패턴 등을 이용하였다. 이 방법은 조명이 일정한 제한적인 환경에서는 매우 높은 성공률을 보이지만 예측할 수 없이 변화하는 외부 환경에서는 그렇지 못하다. 그렇기 때문에 LED 액티브 마커 (Active Marker)를 이용하여 조도가 변화하는 외부 환경에서 안정적인 비전 시스템이 소개되었다. 이 연구에서는 LED 액티브 마커의 온/오프 주파수 동작을 이용하여 액티브 마커를 인식하였고, 다양한 환경에서의 실험을 통해 안정성을 증명하고 하나의 로봇에 적용 시켰다. 이와 같은 기술을 도 1에 도시한다.In order to recognize and distinguish a large number of robots using a vision system, the existing research used unique color information or a certain pattern. This method has a very high success rate in a limited environment with constant lighting, but not in an unpredictably changing external environment. This led to the introduction of a stable vision system in an external environment with varying illuminance using the LED Active Marker. In this study, the active marker was recognized by using the on / off frequency operation of the LED active marker, and the stability was verified through experiments in various environments and applied to one robot. Such a technique is shown in FIG.

도 1은 종래 기술에 따른 객체 구별 시스템의 개략도이다. 도 1을 참조하면, 종래 기술에 따른 객체 구별 시스템은 로봇 (110), 로봇에 설치된 액티브 마커 (130), 로봇 및 액티브 마커 (130)를 인식하는 카메라 (150), 카메라가 인식한 영상을 디스플레이하는 디스플레이부 (170)를 포함한다. 더욱 상세하게는, 카메라 (150)는, 예를 들어, CCD 카메라와 렌즈 필터를 사용하여 액티브 마커 (130)를 인식한다. 여기서 액티브 마커 (130)는 도 2에 도시된 바와 같이, 밝은 레드 컬러 4x4 LED 어레이 (210)가 총 4개로 구성되어 있으며 일정한 온/오프 주파수로 동작하지만, 컬러 및 LED의 개수는 반드시 이에 한정되지는 않는다. 이와 같이 액티브 마커 (130)에서, 발광된 발광 패턴을 카메라 (150)가 액티브 마커 (130)를 온/오프 주파수 동작을 이용하여 구동시키고, 카메라 (150)는 액티브 마커 (130)의 온/오프 발광패턴을 인식하고, 인식된 액티브 마커 (150)를 로봇으로 인식함으로써, 로봇의 위치 및 이동 여부를 디스플레이부 (170)를 통해 구별할 수 있다. 1 is a schematic diagram of an object discrimination system according to the prior art. Referring to FIG. 1, the object discrimination system according to the related art displays a robot 110, an active marker 130 installed on the robot, a camera 150 recognizing the robot and the active marker 130, and an image recognized by the camera. The display unit 170 is included. More specifically, the camera 150 recognizes the active marker 130 using, for example, a CCD camera and a lens filter. Here, as shown in FIG. 2, the active marker 130 includes four bright red colored 4x4 LED arrays 210 and operates at a constant on / off frequency, but the number of colors and LEDs is not limited thereto. Does not. In this way, in the active marker 130, the emitted light emitting pattern is driven by the camera 150 by using the on / off frequency operation of the camera 150, and the camera 150 turns on / off the active marker 130. By recognizing the light emission pattern and recognizing the recognized active marker 150 as a robot, the position and movement of the robot can be distinguished through the display unit 170.

그러나 이러한 종래의 기술은 하나의 로봇에 국한되어, 현재와 같이 다수의 로봇 또는 또 다른 객체를 구별하는 데에 한계가 있다. 즉, 동일한 온/오프 패턴을 사용하는 경우, 정확히 인식한다 하더라도 다수의 객체를 구별할 수가 없는 단점이 있다. 특히, 액티브 마커는 마이크로 컨트롤러를 통해 일정한 주파수로 동작이 가능하지만 일반 카메라의 이미지 획득시간은 일정하지 않기 때문에, 액티브 마커의 실제 발광 패턴을 제대로 인식하지 못하는 오류가 발생할 수 있다. 이러한 문제점을 도 3을 참조하여 상세히 설명한다. However, this conventional technique is limited to one robot, and as of present, there is a limit in distinguishing a plurality of robots or another object. That is, when using the same on / off pattern, even if correctly recognized, there is a disadvantage that can not distinguish a plurality of objects. In particular, the active marker may operate at a constant frequency through the microcontroller, but since the image acquisition time of the general camera is not constant, an error may occur in that it does not properly recognize the actual light emission pattern of the active marker. This problem will be described in detail with reference to FIG. 3.

도 3은 종래 기술에 따른 객체 구별 시스템에서 발생되는 인식 오류의 예를 나타내는 그래프이다. 도 3을 참조하면, 액티브 마커를 일정 주파수로 동작시켜 사용자가 원하는 결과는 4번 중 1번 인식이 되고 나머지 3번은 액티브 마커가 인식이 안되어야 하지만, 실제로는 인식이 되는 오류가 발생할 수 있다. 예를 들어, 도면 상부의 패턴 그래프의 사각 테두리로 표시된 부분에서, 액티브 마커는 1로 표시된 부분에서 한 번씩, 총 두 번 인식되어야 한다. 그러나 카메라 이미지 획득 시간이 불규칙하여, 액티브 마커가 두 번째 발광하는 부분에서, 두 번의 이미지 획득 펄스가 발생하여, 두 번째 액티브 마커의 발광을 두 번으로 인식하게 된다. 그 결과, 도면 하부에 도시된 바와 같이, 액티브 마커는 실제로 두 번 발광하였지만, 획득된 이미지 결과는 총 3번으로 인식되는 오류가 발생한다.3 is a graph illustrating an example of a recognition error occurring in the object discrimination system according to the prior art. Referring to FIG. 3, the desired result of the user by operating the active marker at a predetermined frequency should be recognized one of four times and the remaining three times the active marker should not be recognized. However, an error that may be recognized may occur. For example, in the portion indicated by the rectangular border of the pattern graph at the top of the figure, the active marker should be recognized twice, once in the portion indicated by 1. However, since the camera image acquisition time is irregular, two image acquisition pulses occur at the portion where the active marker emits the second light, thereby recognizing the emission of the second active marker twice. As a result, as shown in the lower part of the figure, although the active marker actually emits twice, an error occurs that the acquired image result is recognized three times in total.

따라서, 종래의 기술만으로는, 다수의 객체 (예를 들어, 로봇)를 정확히 구별할 수 없음을 알 수 있다. Thus, it can be seen that, with the prior art alone, it is not possible to accurately distinguish a large number of objects (eg robots).

R. Cassinis, F., F Tampalini, and R. Fedrigotii, “Active markers for outdoor and indoor robot localization,” Proc.OfDEA-Unibs, 2005 R. Cassinis, F., F Tampalini, and R. Fedrigotii, “Active markers for outdoor and indoor robot localization,” Proc.OfDEA-Unibs, 2005 R. Cassinis, F., F. Tampalini. “ AMIRoLoS an active marker internet-based robot localization system,” Robotics and Autonomous Systems, 55(4), pp.306-315, 2007.R. Cassinis, F., F. Tampalini. “AMIRoLoS an active marker internet-based robot localization system,” Robotics and Autonomous Systems, 55 (4), pp.306-315, 2007.

본 발명은 전술한 문제를 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 발광부에 각각 고유의 발광 패턴 (고유 ID)를 부여함으로써, 다수의 로봇과 같은 객체의 위치 및 움직임 등을 구별할 수 있으며, 발광부의 발광 시간을 카메라의 이미지 획득 시간에 정확히 부합하도록 조정하여, 객체의 구별 오류를 현저히 개선시킬 수 있는 외부 비전 장치를 사용한 다수의 객체 구별 방법 및 시스템을 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and an object of the present invention is to assign a unique light emission pattern (unique ID) to each light emitting unit, thereby distinguishing the position and movement of objects such as a plurality of robots. In addition, the present invention provides a method and system for distinguishing a plurality of objects using an external vision device that may adjust the light emission time of the light emitter to exactly match the image acquisition time of the camera, thereby remarkably improving the error of distinguishing the object.

전술한 문제를 해결하기 위한 본 발명의 일 실시예에 따른 외부 비전 장치를 사용한 다수의 객체 구별 방법은, (a) 제어부가 하나 이상의 객체에 각각 설치된 발광부에 각각 고유의 비트 스트림 (B)을 부여하는 단계; (b) 상기 제어부가 상기 비트 스트림의 발광 시간 (tb)을 설정하는 단계; (c) 상기 발광부가 상기 고유의 비트 스트림 (B) 및 상기 발광 시간 (tb)에 따른 발광 패턴으로 발광하는 단계; 및 (d) 카메라부에서, 상기 발광된 발광 패턴을 인식 및 디스플레이하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above-described problem, a method of distinguishing a plurality of objects using an external vision apparatus according to an exemplary embodiment of the present invention includes: Giving; (b) the control unit setting an emission time t b of the bit stream; (c) the light emitting unit emitting light in a light emission pattern according to the inherent bit stream (B) and the light emission time (t b ); And (d) recognizing and displaying the emitted light emission pattern in the camera unit.

이 경우, 상기 비트 스트림 (B)은, B=[log2N]+2 (N은 발광부의 개수)로 설정되며, 모든 시작 비트 및 종료 비트는 고정될 수 있다.In this case, the bit stream B is set to B = [log 2 N] +2 (where N is the number of light emitting portions), and all start bits and end bits can be fixed.

또한, 상기 발광 시간 (tb)은, tb=nαtf (n은 정수, αtf는 카메라의 이미지 획득 주기, α≥1)로 설정될 수 있다.In addition, the light emission time t b may be set to t b = n α t f (n is an integer, α t f is an image acquisition period of the camera, α ≧ 1).

또한, 상기 n은, n>α/(2-α) (1≤α≤2) 로 설정하는 것이 바람직하다.In addition, it is preferable to set said n to n> (alpha) ((2- (alpha)) (1 <(alpha) <= 2).

한편, 본 발명의 또 다른 실시예에 따른 외부 비전 장치를 사용한 다수의 객체 구별 시스템은, 하나 이상의 객체에 각각 설치되어 발광하는 발광부; 상기 발광된 각 발광부의 발광 패턴을 인식하여 디스플레이하는 카메라부; 및 상기 각각의 발광부에 고유의 비트 스트림 (B)을 부여하며, 상기 비트 스트림의 발광 시간 (tb)을 설정하는 제어부를 포함하되, 상기 발광부는 상기 고유의 비트 스트림 (B) 및 상기 발광 시간 (tb)에 따른 발광패턴으로 발광하는 것을 특징으로 한다. On the other hand, a plurality of object discrimination system using an external vision device according to another embodiment of the present invention, the light emitting unit is installed on each of one or more objects to emit light; A camera unit for recognizing and displaying a light emission pattern of each light emitting unit; And a control unit for assigning a unique bit stream (B) to each of the light emitting units, and setting a light emission time (t b ) of the bit stream, wherein the light emitting unit includes the unique bit stream (B) and the light emitting unit. It characterized in that the light emission in the light emission pattern according to the time (t b ).

이 경우, 상기 비트 스트림 (B)은, B=[log2N]+2 (N은 발광부의 개수)로 설정되며, 모든 시작 비트 및 종료 비트는 고정될 수 있다.In this case, the bit stream B is set to B = [log 2 N] +2 (where N is the number of light emitting portions), and all start bits and end bits can be fixed.

또한, 상기 발광 시간 (tb)은, tb=nαtf (n은 정수, αtf는 카메라의 이미지 획득 주기, α≥1)로 설정할 수 있다.In addition, the light emission time t b may be set to t b = n α t f (n is an integer, α t f is an image acquisition period of the camera, α ≧ 1).

또한, 상기 n은, n>α/(2-α) (1≤α≤2) 로 설정하는 것이 바람직하다.
In addition, it is preferable that said n is set to n> (alpha) / (2- (alpha)) (1 <= (alpha) <= 2).

본 발명에 의해, 발광부에 각각 고유의 발광 패턴 (고유 ID)를 부여함으로써, 다수의 로봇과 같은 객체의 위치 및 움직임 등을 구별할 수 있다. 또한, 발광부의 발광 시간을 카메라의 이미지 획득 시간에 정확히 부합하도록 조정하여, 객체의 구별 오류를 현저히 개선시킬 수 있다. According to the present invention, by assigning unique light emission patterns (unique IDs) to the light emitting units, it is possible to distinguish the positions and movements of objects such as a plurality of robots. In addition, by adjusting the light emission time of the light emitting unit to exactly match the image acquisition time of the camera, it is possible to remarkably improve the error of distinguishing the object.

도 1은 종래 기술에 따른 객체 구별 시스템의 개략도.
도 2는 종래 기술에서 사용된 액티브 마커의 사진.
도 3은 종래 기술에 따른 객체 구별 시스템에서 발생되는 인식 오류의 예를 나타내는 그래프.
도 4는 본 발명의 일 실시예에 따른 다수의 객체 구별 시스템의 구조도.
도 5는 본 발명에 따른 다수의 객체를 구별하는 알고리즘의 흐름도.
도 6은 본 발명에 따른 발광 시간 tb, 이미지 획득 시간 tf, 및 n의 정의를 나타내는 그래프.
도 7은 본 발명의 일 실시예에 따른 4개의 발광부에 비트 스트림을 부여하는 예를 나타내는 도표.
도 8은 본 발명의 실시예에 따른 발광부의 연속 발광과 단일 발광의 구별을 위한 그래프.
도 9는 본 발명의 실시예에 따른 발광부의 발광 시간을 설정하기 위한 예시적인 그래프.
1 is a schematic diagram of an object discrimination system according to the prior art;
2 is a photograph of an active marker used in the prior art.
3 is a graph showing an example of a recognition error occurring in the object discrimination system according to the prior art.
4 is a structural diagram of a plurality of object discrimination system according to an embodiment of the present invention.
5 is a flow diagram of an algorithm for distinguishing a plurality of objects in accordance with the present invention.
6 is a graph showing the definition of emission time t b , image acquisition time t f , and n in accordance with the present invention;
7 is a diagram illustrating an example in which a bit stream is provided to four light emitting units according to an exemplary embodiment of the present invention.
8 is a graph for distinguishing between continuous light emission and single light emission of the light emitting unit according to an embodiment of the present invention.
9 is an exemplary graph for setting a light emission time of a light emitting unit according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 바람직한 일 실시형태에 따른 외부 비전 장치를 사용한 다수의 객체 구별 방법 및 시스템에 대해서 상세히 설명한다. 다만, 실시형태를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.Hereinafter, a method and a system for distinguishing a plurality of objects using an external vision device according to a preferred embodiment will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail to avoid unnecessarily obscuring the subject matter of the present invention.

또한, 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다.In addition, the size of each component in the drawings may be exaggerated for the sake of explanation and does not mean a size actually applied.

도 4는 본 발명의 일 실시예에 따른 다수의 객체 구별 시스템 (400)의 구조도이다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 다수의 객체 구별 시스템 (400)은 제어부 (410), 발광부 (430), 카메라부 (450)를 포함한다. 더욱 상세하게는, 발광부 (430)는 전술한 액티브 마커 (130)를 사용할 수 있으나, 반드시 이에 한정되는 것은 아니며, 다른 기존의 다양한 제어가능한 발광 수단을 포함한다. 또한, 발광부 (430)는 다수의 객체에 각각 하나씩 설치된다. 제어부 (410)는 이러한 발광부 (430)에 고유의 ID를 부여한다. 여기서 용어 "고유의 ID"는 각각의 발광부 (430)를 구별하기 위해 발광부 (430)마다 상이한 발광 패턴으로 동작하도록 인코딩/디코딩되는 신호로서, 본 명세서에서는 "고유의 비트 스트림 (B)"과 동일한 의미를 가진다. 제어부 (410)는 발광부 (430)에 고유의 비트 스트림 (B)을 부여한 후, 각각의 발광부 (430)를 발광시킨다. 카메라부 (450)는 발광된 각 발광부 (430)의 발광 패턴을 인식한다. 카메라부 (450)는 발광 패턴을 인식시 이미지 획득 펄스를 발생시킨다. 카메라부 (450)는, 예를 들어 CCD 카메라가 사용될 수 있다. 이 경우, 배경기술에서 전술한 이미지 획득의 오류를 방지하기 위해, 제어부 (450)는 실제의 이미지 획득 펄스의 이미지 획득 주기를 예측하여, 이에 따라, 발광부 (430)의 발광 패턴의 발광 시간을 조정한다. 이에 대한 자세한 사항은 이하 설명한다. 카메라부 (450)는 발광된 발광 패턴을 인식하여 사용자에게 디스플레이한다. 사용자는 카메라부 (450)가 디스플레이하는 발광패턴을 보고, 제어부 (410)가 부여한 (즉, 사용자가 설정한) 고유의 비트 스트림에 따른 발광 패턴과 비교하여, 일치하는 경우 해당 객체를 식별할 수 있다. 또한, 디스플레이하는 기능은 카메라부 (450)와 일체형이 될 수도 있으며, 외부에 별개의 장치로 독립될 수도 있다. 이는 사용자의 설계의 편의에 따라 적당한 데로 변경될 수 있다. 이하, 다수의 객체를 구별할 수 있는 본 발명에 따른 알고리즘을 더욱 상세히 설명한다. 4 is a structural diagram of a plurality of object discrimination system 400 according to an embodiment of the present invention. Referring to FIG. 4, a plurality of object discrimination systems 400 according to an exemplary embodiment of the present invention include a controller 410, a light emitting unit 430, and a camera unit 450. More specifically, the light emitting unit 430 may use the above-described active marker 130, but is not necessarily limited thereto, and includes other conventional controllable light emitting means. In addition, one light emitting unit 430 is installed in each of a plurality of objects. The controller 410 assigns a unique ID to the light emitting unit 430. The term “unique ID” herein refers to a signal that is encoded / decoded to operate in a different light emission pattern for each light emitter 430 to distinguish each light emitter 430, and is herein referred to as “unique bit stream (B)”. Has the same meaning as The control unit 410 assigns a unique bit stream B to the light emitting unit 430, and then emits each of the light emitting units 430. The camera unit 450 recognizes the light emission pattern of each light emitting unit 430 that emits light. The camera unit 450 generates an image acquisition pulse when the emission pattern is recognized. As the camera unit 450, a CCD camera may be used, for example. In this case, in order to prevent the error of image acquisition described above in the background art, the controller 450 predicts the image acquisition period of the actual image acquisition pulse, and accordingly, sets the emission time of the emission pattern of the light emitting unit 430. Adjust Details thereof will be described below. The camera unit 450 recognizes the emitted light emission pattern and displays the same to the user. The user may look at the light emission patterns displayed by the camera unit 450 and compare the light emission patterns according to the unique bit streams assigned by the control unit 410 (that is, set by the user) to identify the corresponding objects if they match. have. In addition, the display function may be integrated with the camera unit 450, or may be independent as a separate device to the outside. This can be changed as appropriate according to the user's design convenience. Hereinafter, an algorithm according to the present invention that can distinguish a plurality of objects will be described in more detail.

도 5는 본 발명에 따른 다수의 객체를 구별하는 알고리즘의 흐름도이다. 도 5를 참조하면, 제어기는 객체에 설치된 발광부에 고유의 비트 스트림 (B)을 부여한다 (S510). 즉, 각각의 객체, 예를 들어 로봇에 각각의 ID를 부여하는 것이다. 로봇에 ID 부여 및 구별의 설명을 위해, 우선, 도 6을 참조하며 용어를 정리한다.5 is a flowchart of an algorithm for distinguishing a plurality of objects in accordance with the present invention. Referring to FIG. 5, the controller assigns a unique bit stream B to the light emitting unit installed in the object (S510). That is, each ID is assigned to each object, for example, a robot. For explanation of the ID assignment and distinction to the robot, first, the terms are summarized with reference to FIG.

도 6은 본 발명에 따른 발광 시간 tb, 이미지 획득 시간 tf, 및 n의 정의를 나타내는 그래프이다. 도 6에서 사용되는 용어는, 6 is a graph showing definitions of light emission time t b , image acquisition time t f , and n according to the present invention. The term used in Figure 6,

tf: 1/프레임 레이트 (이미지 획득 주기)t f : 1 / frame rate (image acquisition period)

tb: LED (발광부) 발광 시간t b : LED light emitting time

n: tb 에 대한 tf의 정수배, 즉, tb=ntf n: an integer multiple of t f to t b, that is, b t = nt f

N: 발광부의 개수N: number of light emitting parts

B: 비트 스트림 개수B: number of bit streams

이다. to be.

도 6의 좌측도면을 참조하면, 중간의 카메라의 이미지 획득 펄스의 주기가 tf이며, n이 2인 경우, 상부의 LED 발광 시간 tb=2tf가 된다. 그 결과, LED 발광 시간에 대응하는 카메라의 이미지 획득 펄스는 2개가 되어, 하단의 그림과 같이, 두개의 펄스만이 1이 된다. Referring to the left figure of FIG. 6, when the period of the image acquisition pulse of the intermediate camera is t f , and n is 2, the upper LED emission time t b = 2t f . As a result, the camera acquires two image acquisition pulses corresponding to the LED emission time, and only two pulses become 1 as shown in the lower figure.

도 6의 우측도면을 참조하면, n값에 따라 tb가 결정됨을 보여준다. 예들 들어, n이 2인 경우, 상부는 한 번의 발광 시간을 도시하며, 하부는 두 번 연속의 발광시간을 도시한다. Referring to the right figure of FIG. 6, it is shown that t b is determined according to the n value. For example, when n is 2, the upper portion shows one light emission time and the lower portion shows two consecutive light emission times.

한편, 액티브 마커의 ID (즉, 비트 스트림 (B))를 구별하기 위해서는 정확한 카메라의 FPS(Frame for Second)와 액티브 마커의 온/오프되는 정확한 시간이 보장되어야 한다. 하지만, 실제 환경에서는 영상처리 알고리즘의 수행 시간의 변화와 카메라의 특성으로 일정한 tf’(실제 상황의 이미지 획득 주기)를 보장할 수 없다. 일반적으로 이러한 실제 상황의 이미지 획득 주기 (tf')는 이상적인 상태보다 같거나 크게 되고 α배의 경계 안에 존재하고 α는 수학식 1로 정의할 수 있다. On the other hand, in order to distinguish the ID of the active marker (ie, the bit stream B), the accurate frame for second (FPS) of the camera and the exact time of turning on / off the active marker must be guaranteed. However, in a real environment, it is not possible to guarantee a constant t f '(image acquisition cycle in a real situation) due to a change in execution time of an image processing algorithm and characteristics of a camera. In general, the image acquisition period (t f ') of this actual situation is equal to or greater than the ideal state and exists within the boundary of α times, and α can be defined by Equation 1.

{수학식 1}{Equation 1}

tf≤tf'≤αtf (α>1) t f ≤t f '≤αt f ( α> 1)

본 발명은 α값을 예측하여 발광부의 동작을 아래의 수학식 2 따라 B개의 비트 스트림으로 인코딩/디코딩하여 발광부가 설치된 객체의 ID를 판별한다. The present invention encodes / decodes an operation of the light emitter into B bit streams according to Equation 2 below by predicting an α value to determine an ID of an object in which the light emitter is installed.

{수학식 2}{Equation 2}

ntf≤ntf'≤nαtf nt f ≤nt f '≤nαt f

즉, α값이 주어지면, n값을 추정함으로써, 발광부의 발광 시간을 아래의 수학식 3에 따라 설정할 수 있다. That is, given the value of α, by estimating the value of n, the light emission time of the light emitting portion can be set according to Equation 3 below.

{수학식 3}{Equation 3}

tb = nft t b = nf t

또한, 발광부의 개수 N 이 주어지면, 발광부의 검출을 위한 고유의 비트 스트림 (B)을 추정할 수 있다. Further, given the number N of light emitting portions, the unique bit stream B for detecting the light emitting portions can be estimated.

따라서, 본 발명의 알고리즘에 대해서는 아래와 같은 가정이 전제되어야 한다.Therefore, the following assumptions must be made for the algorithm of the present invention.

(1) 이상적인 상태보다 실제 환경에서 알고리즘의 연산 때문에 이미지 획득 주기가 느려지게 된다 (수학식 1 참조).(1) The image acquisition cycle is slowed down due to the computation of the algorithm in the real environment rather than the ideal state (see Equation 1).

(2) 발광부 (액티브 마커의 LED 어레이)의 동작은 사용자가 조정 가능하다. (2) The operation of the light emitting portion (LED array of active markers) is user adjustable.

(3) tf’는 실제 환경에서 일정하지 않지만, 큰 차이를 가지는 tf’는 드물며, 이 경우는 리셋 처리가 가능하다. (3) t f 'is not constant in the actual environment, but t f ' with a large difference is rare, and in this case, reset processing is possible.

다시, 도 5의 S501 단계로 돌아가, 객체에 설치된 발광부 (액티브 마커)에 고유의 비트 스트림 (B)을 부여함을 상세히 설명한다. N개의 액티브 마커에 부여된 비트 스트림 (B)을 각각 구별하기 위해서는, 각각의 액티브 마커에 각각 상이한 비트 스트림 (B)을 부여해야 한다. 각각 부여된 비트 스트림 (B)으로 인코딩된 신호는 발광부로 전송되며, 각 발광부는 수신한 신호를 디코딩하여 고유의 비트 스트림 (B)에 대응하는 발광 패턴으로 발광하게 된다. 이와 같이, N개의 액티브 마커를 비트 스트림 (B)으로 인코딩/디코딩하기 위해서는 아래의 수학식 4에 따라 비트 스트림 (B)가 필요하며, N=4인 경우의 비트 스트림 부여를 도 7을 참조하며 설명한다.Returning to step S501 of Fig. 5 again, the unique bit stream B is given to the light emitting part (active marker) installed in the object in detail. In order to distinguish each of the bit streams B assigned to the N active markers, it is necessary to give a different bit stream B to each active marker. A signal encoded in each of the given bit streams B is transmitted to the light emitting units, and each light emitting unit decodes the received signal to emit light in the light emission pattern corresponding to the unique bit stream B. FIG. As described above, in order to encode / decode the N active markers into the bit stream (B), the bit stream (B) is required according to Equation 4 below. Explain.

{수학식 4}{Equation 4}

B=[log2N]+2B = [log 2 N] +2

여기서, here,

도 7은 본 발명의 일 실시예에 따른 4개의 발광부에 비트 스트림을 부여하는 예를 나타내는 도표이다. 도 7 상부를 참조하면, 발광부의 개수 N=4인 경우, 수학식 4에 따라, B=4가 된다. 수학식 4에서, log2N 부분은 비트 스트림을 구별하기 위해 N에 의해 규정되며, 발광하는 컬러는 레드이다. 또한, 시작 비트와 종료 비트는 항상 고정되어 있다. 예를 들어, 도 7 하부를 참조하면, 총 4개의 발광부의 비트 스트림 (B)은 0001, 0011, 0101, 0111로 구분된다. 이와 같이, 시작 비트는 모두 0으로 고정되며, 종료 비트는 모두 1로 고정된다. 한편, 도 7의 표에 도시된 컬러는 실제 액티브 마커에서 발광되는 컬러가 아니다. 이는 표 상에서 고정되어 있는 시작 및 종료 비트와 ID 구별에 사용되는 비트를 구별하기 위해 상이한 컬러로 표시한 것이며, 실제 액티브 마커에서 발광되는 컬러는 모두 레드이다.7 is a diagram illustrating an example in which a bit stream is provided to four light emitting units according to an embodiment of the present invention. Referring to the upper part of FIG. 7, when the number N of light emitting units is N = 4, B = 4 according to Equation 4. In Equation 4, the log 2 N portion is defined by N to distinguish the bit stream, and the color emitting is red. In addition, the start bit and the end bit are always fixed. For example, referring to the lower part of FIG. 7, the bit streams B of four light emitting parts are divided into 0001, 0011, 0101, and 0111. As such, the start bits are all fixed to zero and the end bits are all fixed to one. Meanwhile, the color shown in the table of FIG. 7 is not a color emitted from the active marker. This is indicated in different colors to distinguish between the fixed start and end bits and the bits used for ID identification in the table, and the colors emitted from the actual active markers are all red.

이와 같이, 고유의 비트 스트림 (B)을 부여한 이후, 비트 스트림 (B)에 따라 발광하는 발광 패턴 중 발광하는 시간을 정하는 것이 중요하다. 이는 전술한 바와 같이, 카메라에 의해 오류 없이 비트 스트림에 대응하는 이미지를 획득하기 위해서이다. 특히, 연속적으로 발광부가 온 되었을 때와 그렇지 않을 때 구별이 가능하기 위해서는 연속적으로 발광부가 온 될 경우에 액티브 마커가 최소 1번 이상 더 많이 인식이 되어야 구별이 가능하게 된다. 이러한 예를 도 8에 도시한다.In this manner, it is important to determine the time of light emission among the light emission patterns that emit light according to the bit stream B after the unique bit stream B is assigned. This is to obtain an image corresponding to the bit stream without error by the camera as described above. In particular, in order to distinguish between when the light emitting unit is continuously turned on and when it is not, the active marker must be recognized at least once more when the light emitting unit is continuously turned on to be distinguishable. This example is shown in FIG.

도 8은 본 발명의 실시예에 따른 발광부의 연속 발광과 단일 발광의 구별을 위한 그래프이다. 도 8을 참조하면, 액티브 마커가 두면 연속 발광한 경우, 카메라의 이미지 획득 펄스는 3개가 대응하며, 액티브 마커가 한번 발광한 경우, 카메라의 이미지 획득 펄스는 2개가 대응한다. 따라서, 액티브 마커가 한번 발광한 경우보다, 두 번 연속 발광한 경우에, 대응하는 이미지 획득 펄스가 적어도 하나가 많기 때문에, 액티브 마커의 연속 발광과 단일 발광이 구별될 수 있다. 이하, 이와 같은 구별을 가능하게 하기 위해, 액티브 마커의 발광 시간 설정을 도 9를 참조하여 상세히 설명한다.8 is a graph for distinguishing between continuous light emission and single light emission of a light emitting unit according to an exemplary embodiment of the present invention. Referring to FIG. 8, three image acquisition pulses of the camera correspond to each other when the active markers are continuously emitted, and two image acquisition pulses of the camera correspond to the emission of the active marker once. Therefore, when the active marker emits light twice, rather than when the active marker emits light once, since there are at least one corresponding image acquisition pulse, continuous light emission and single emission of the active marker can be distinguished. Hereinafter, in order to enable such a distinction, the light emission time setting of the active marker will be described in detail with reference to FIG. 9.

도 9는 본 발명의 실시예에 따른 발광부의 발광 시간을 설정하기 위한 예시적인 그래프이다. 발광 시간을 수학식 3으로 설정한 경우, 한번 온 될 경우 최대 n 번의 액티브 마커가 검출된다면 연속적으로 2번 온 될 경우에는 최소 (n+1)이 검출되어야 한다. 실제 카메라의 이미지 획득시간을 고려한다면 아래의 수학식 (5)를 만족하여야 한다. 9 is an exemplary graph for setting the light emission time of the light emitting unit according to the embodiment of the present invention. In the case where the light emission time is set in Equation 3, the minimum (n + 1) should be detected when the maximum number of active markers is detected once when turned on and the second time when the emission markers are turned on twice consecutively. Considering the actual image acquisition time of the camera must satisfy the following equation (5).

{수학식 5}{Equation 5}

(n+1)αtf<2ntf (n + 1) αt f <2nt f

이 식을 간단히 하여 α가 주어졌을 때 n 값을 구하여 발광 시간 시간을 아래의 수학식 6을 사용하여 설정할 수 있다This equation can be simplified to obtain the value n when α is given, and the light emission time can be set using Equation 6 below.

{수학식 6}{Equation 6}

n>α/(2-α) (1≤α≤2)n> α / (2-α) (1 ≦ α ≦ 2)

이와 같이, 제어부는 발광부의 발광 시간 (tb)을 설정한다 (S530). 그 후, 발광부는 부여받은 고유의 비트 스트림 (B) 및 설정된 발광 시간 (tb)에 따른 발광 패턴으로 발광한다 (S550). 카메라는 이와 같은 발광 패턴을 인식 및 디스플레이한다 (S570). 사용자는 디스플레이된 발광 패턴을 보고, 처음 부여한 고유의 비트 스트림에 일치하는지를 비교하여, 각각의 객체, 즉 각각의 로봇을 시각적으로 구별할 수 있다. In this way, the controller sets the light emission time t b of the light emitting unit (S530). Thereafter, the light emitting unit emits light in the light emission pattern according to the unique bit stream B and the set light emission time t b (S550). The camera recognizes and displays such a light emission pattern (S570). The user can visually distinguish each object, i.e. each robot, by looking at the displayed luminescence pattern and comparing it to the original uniquely given bit stream.

한편, 이러한 본 발명의 알고리즘에 따른 각 객체들의 구별 결과를 설명한다. 전술한 알고리즘에 따라 발광부의 발광 시간 (tb)을 설정한 경우의 시뮬레이션 결과표는 아래와 같다.Meanwhile, the distinguishing result of each object according to the algorithm of the present invention will be described. The simulation result table in the case where the light emission time t b of the light emitting unit is set according to the above algorithm is as follows.

실험Experiment 파라미터parameter 평균 성공률Average success rate LED 어레이 ID 검출 시간LED Array ID Detection Time αalpha 분산Dispersion 1One 1.31.3 0.00.0 100%100% 1.17초1.17 seconds 22 1.31.3 0.50.5 100%100% 1.17초1.17 seconds 33 1.31.3 1.01.0 100%100% 1.17초1.17 seconds 44 1.51.5 0.50.5 100%100% 1.77초1.77 sec 55 1.51.5 1.01.0 100%100% 1.77초1.77 sec 66 1.61.6 0.50.5 100%100% 2.97초2.97 seconds 77 1.71.7 0.50.5 100%100% 3.57초3.57 seconds

상기 표를 참조하면, α값이 상기 표와 같이 주어지고 카메라의 이미지 획득 시간의 오차를 분산(vari)으로 주어졌을 때 30초 동안의 실험을 10번 반복하여 얻은 결과 100%의 성공률을 보였고 실제 구현상에서는 α값이 커질수록 ID를 구별하는 시간이 늘어나게 되는 것을 확인할 수 있었다.Referring to the table, when the α value is given as the table above and the error of the image acquisition time of the camera is given as a variance, the result obtained by repeating the experiment for 10 seconds for 30 seconds was 100% and the actual success rate was 100%. In the implementation, it can be seen that as the value of α increases, the time for distinguishing IDs increases.

전술한 바와 같은 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였다. 그러나 본 발명의 범주에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능하다. 본 발명의 기술적 사상은 본 발명의 전술한 실시 예에 국한되어 정해져서는 안 되며, 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.In the foregoing detailed description of the present invention, specific examples have been described. However, various modifications are possible within the scope of the present invention. The technical spirit of the present invention should not be limited to the above-described embodiments of the present invention, but should be determined by the claims and equivalents thereof.

110: 로봇
130: 액티브 마커
210: LED
410: 제어부
430: 발광부
450: 카메라부
110: robot
130: active marker
210: LED
410: control unit
430: light emitting unit
450: camera unit

Claims (8)

(a) 제어부가 하나 이상의 객체에 각각 설치된 발광부에 각각 고유의 비트 스트림 (B)을 부여하는 단계;
(b) 상기 제어부가 상기 비트 스트림의 발광 시간 (tb)을 설정하는 단계;
(c) 상기 발광부가 상기 고유의 비트 스트림 (B) 및 상기 발광 시간 (tb)에 따른 발광 패턴으로 발광하는 단계; 및
(d) 카메라부에서, 상기 발광된 발광 패턴을 인식 및 디스플레이하는 단계를 포함하는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 방법.
(a) the control unit assigning unique bit streams (B) to the light emitting units respectively installed in the one or more objects;
(b) the control unit setting an emission time t b of the bit stream;
(c) the light emitting unit emitting light in a light emission pattern according to the inherent bit stream (B) and the light emission time (t b ); And
and (d) recognizing and displaying the emitted light emission pattern in the camera unit.
제 1항에 있어서,
상기 비트 스트림 (B)은,
B=[log2N]+2 (N은 발광부의 개수)로 설정되며, 모든 시작 비트 및 종료 비트는 고정되는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 방법.
The method of claim 1,
The bit stream (B),
B = [log 2 N] +2 (where N is the number of light emitters) and all start and end bits are fixed.
제 2항에 있어서,
상기 발광 시간 (tb)은,
tb=nαtf (n은 정수, αtf는 카메라의 이미지 획득 주기, α>1)로 설정하는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 방법.
The method of claim 2,
The light emission time t b is,
t b = n α t f (n is an integer, α t f is the image acquisition period of the camera, α> 1).
제 3항에 있어서,
상기 n은, n>α/(2-α) (1<α≤2) 로 설정하는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 방법.
The method of claim 3, wherein
N is set to n> α / (2-α) (1 <α ≦ 2).
하나 이상의 객체에 각각 설치되어 발광하는 발광부;
상기 발광된 각 발광부의 발광 패턴을 인식하여 디스플레이하는 카메라부; 및
상기 각각의 발광부에 고유의 비트 스트림 (B)을 부여하며, 상기 비트 스트림의 발광 시간 (tb)을 설정하는 제어부를 포함하되,
상기 발광부는 상기 고유의 비트 스트림 (B) 및 상기 발광 시간 (tb)에 따른 발광패턴으로 발광하는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 시스템.
Light emitting units installed on each of the one or more objects to emit light;
A camera unit for recognizing and displaying a light emission pattern of each light emitting unit; And
A control unit for assigning a unique bit stream (B) to each of the light emitting units and setting a light emission time (t b ) of the bit stream,
And the light emitting unit emits light with a light emission pattern according to the unique bit stream (B) and the light emission time (t b ).
제 5항에 있어서,
상기 비트 스트림 (B)은,
B=[log2N]+2 (N은 발광부의 개수)로 설정되며, 모든 시작 비트 및 종료 비트는 고정되는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 시스템.
6. The method of claim 5,
The bit stream (B),
B = [log 2 N] +2 (where N is the number of light emitters), wherein all start and end bits are fixed.
제 6항에 있어서,
상기 발광 시간 (tb)은,
tb=nαtf (n은 정수, αtf는 카메라의 이미지 획득 주기, α>1)로 설정하는 것을 특징으로 하는 외부 비전 장치를 사용한 다수의 객체 구별 시스템.
The method according to claim 6,
The light emission time t b is,
t b = n α t f (n is an integer, α t f is the image acquisition period of the camera, α> 1).
제 7항에 있어서,
상기 n은, n>α/(2-α) (1<α≤2) 로 설정하는 것을 특징으로 하는 다수의 객체 구별 시스템.
8. The method of claim 7,
N is set to n> α / (2-α) (1 <α ≦ 2).
KR1020110128848A 2011-12-05 2011-12-05 Method and system for distinguishing multiple objects using external vision device KR101317399B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110128848A KR101317399B1 (en) 2011-12-05 2011-12-05 Method and system for distinguishing multiple objects using external vision device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110128848A KR101317399B1 (en) 2011-12-05 2011-12-05 Method and system for distinguishing multiple objects using external vision device

Publications (2)

Publication Number Publication Date
KR20130062540A true KR20130062540A (en) 2013-06-13
KR101317399B1 KR101317399B1 (en) 2013-10-11

Family

ID=48860226

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110128848A KR101317399B1 (en) 2011-12-05 2011-12-05 Method and system for distinguishing multiple objects using external vision device

Country Status (1)

Country Link
KR (1) KR101317399B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0813040A3 (en) * 1996-06-14 1999-05-26 Xerox Corporation Precision spatial mapping with combined video and infrared signals
JP2001304815A (en) 2000-04-24 2001-10-31 Mitsubishi Electric Corp Position measuring system and position measuring method
JP4423302B2 (en) * 2002-11-25 2010-03-03 日本電信電話株式会社 Real world object recognition method and real world object recognition system

Also Published As

Publication number Publication date
KR101317399B1 (en) 2013-10-11

Similar Documents

Publication Publication Date Title
US20210398401A1 (en) Identification of load control devices
US11209913B2 (en) User action remote control
US10015864B2 (en) Lighting preference arbitration
US10484091B2 (en) Light-based fiducial communication
CN112655279B (en) Method for commissioning a lighting control system using a mobile device
US20150334811A1 (en) Illumination Regulating System in Synchronization with AC Power Frequency and Method Using the Same
JP5779444B2 (en) Lighting system
CN105210454B (en) The calibration based on camera of ambient lighting system
JP2016513332A (en) Method and system for enabling a user to control a coded light source
US10616540B2 (en) Lamp control
US8878457B2 (en) Adaptable lighting system
US9716863B2 (en) Load control system
US10289213B2 (en) Remote control device, user device and system thereof, and method , computer program product and identification signal
KR102074976B1 (en) Performance directing system
KR101317399B1 (en) Method and system for distinguishing multiple objects using external vision device
CN110708793B (en) Cascade control method of cascade equipment, cascade equipment and illumination system
KR102549786B1 (en) Display apparatus and control method thereof
US20170139582A1 (en) Method and system for controlling an illumination device and related lighting system
US11228716B2 (en) Vision based boundary setting and calibration of a camera
US11158187B2 (en) Remote-control device and user device using an identification signal
WO2022064435A1 (en) Lighting system and control method of said system
CN115460729A (en) Method and system for controlling multiple LED light sources based on light source controller
KR20160129629A (en) Lighting control device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5