KR20030073448A - Nonego cognition method of intelligence robot - Google Patents

Nonego cognition method of intelligence robot Download PDF

Info

Publication number
KR20030073448A
KR20030073448A KR1020020013008A KR20020013008A KR20030073448A KR 20030073448 A KR20030073448 A KR 20030073448A KR 1020020013008 A KR1020020013008 A KR 1020020013008A KR 20020013008 A KR20020013008 A KR 20020013008A KR 20030073448 A KR20030073448 A KR 20030073448A
Authority
KR
South Korea
Prior art keywords
color
color model
model
specific target
target
Prior art date
Application number
KR1020020013008A
Other languages
Korean (ko)
Other versions
KR100878190B1 (en
Inventor
나재호
Original Assignee
주식회사 엘지이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지이아이 filed Critical 주식회사 엘지이아이
Priority to KR1020020013008A priority Critical patent/KR100878190B1/en
Publication of KR20030073448A publication Critical patent/KR20030073448A/en
Application granted granted Critical
Publication of KR100878190B1 publication Critical patent/KR100878190B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

PURPOSE: A method for recognizing an object of an intelligent robot is provided to improve an object detection and recognition rate by automatically correcting a color model, which is a main feature of a recognition algorithm adapted to variation of a specific object, an illumination, and a background when an object is detected and recognized using an image processing. CONSTITUTION: Image information is captured, and a color of a specific target is separated from the image information using a normalized color model. A color of the specific target is compared with a reference color model, and a color model of the specific target is detected. If the color model of the specific target is detected, a tracking of the target is executed using the color model. A variation of an illumination or a color model of the specific target is detected. The color model is corrected. The reference color model is set newly in accordance with the corrected color model.

Description

지능형 로봇의 객체 인식방법{NONEGO COGNITION METHOD OF INTELLIGENCE ROBOT}Object recognition method of intelligent robot {NONEGO COGNITION METHOD OF INTELLIGENCE ROBOT}

본 발명은 지능형 로봇의 객체 인식 방법에 관한 것으로, 특히 화상처리를 이용한 물체 검지 및 인식시 인식 알고리즘의 주된 특징인 색모델을 특정 물체 및 조명이나 배경의 변화에 맞게 자동으로 보정하여 물체 검지 및 인식율을 향상시키도록 한 지능형 로봇의 객체 인식방법에 관한 것이다.The present invention relates to an object recognition method of an intelligent robot. In particular, the object detection and recognition rate by automatically correcting the color model, which is the main feature of the recognition algorithm in the detection and recognition of an object using image processing, according to a change of a specific object and lighting or background It relates to an object recognition method of an intelligent robot to improve the performance.

최근의 가정용 엔터테인먼트 로봇의 경우, 특정 물체나 사람 얼굴의 인식 기능이 포함되어 있는데, 이는 화상처리를 이용하여 수행되어진다.Recent home entertainment robots include a function of recognizing a specific object or a human face, which is performed using image processing.

종래의 기술로서, 예를 들면, 미국 특허 6263113에 나타난 바와같이, 얼굴 검출시에 RGB 각각의 색의 절대값을 이용하여 기준색 모델을 설정한후, 그 기준색 모델을 화상과 비교하여 얼굴이라고 판단되는 색을 그룹화함으로써 얼굴을 검출하는 동작을 수행한다.As a conventional technique, for example, as shown in US Pat. No. 6,263,113, a reference color model is set by using the absolute values of the respective colors of RGB at the time of face detection, and then the reference color model is compared with an image. The face detection is performed by grouping the determined colors.

상술한 방법은, 얼굴의 기준색 모델이 정해져 있고, 또한 상당히 넓은 색영역을 포함하여 얼굴색과 비슷한 많은 물체들을 얼굴로 오인하여 검지할 수 있고, 또한 RGB 각각의 색의 절대값을 이용한 기준색 모델을 사용하는 경우에, 조명 조건이 변하게 되면 동일한 얼굴이라도 색의 변화가 생겨 정확하게 검지 못하는 문제가 있다.In the above-described method, a reference color model of a face is determined, and a number of objects similar to the face color, including a fairly wide color gamut, can be misidentified and detected by the face, and a reference color model using the absolute value of each color of RGB. In the case of using, when the lighting conditions are changed, even if the same face, there is a problem that the color is not precisely black.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 화상처리를 이용한 물체 검지 및 인식시 인식 알고리즘의 주된 특징인 색모델을 특정 물체 및 조명이나 배경의 변화에 맞게 자동으로 보정하여 물체 검지 및 인식율을 향상시키도록 한 지능형 로봇의 객체 인식방법을 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and automatically detects and corrects a color model, which is a main feature of the recognition algorithm, when detecting and recognizing objects using image processing according to changes in a specific object and lighting or background. The object of the present invention is to provide an object recognition method of an intelligent robot to improve the recognition rate.

도1은 본 발명 지능형 로봇의 객체 인식방법에 대한 동작 흐름을 보인 개략도.1 is a schematic diagram showing an operation flow for the object recognition method of the present invention intelligent robot.

도2는 도1에 있어서, 자동보정에 대한 동작 흐름을 보인 개략도.FIG. 2 is a schematic diagram showing an operation flow for automatic correction in FIG. 1; FIG.

도3은 도2에 있어서, 본 발명에 의한 색 모델의 확률 분포도.3 is a probability distribution diagram of a color model according to the present invention in FIG. 2;

상기와 같은 목적을 달성하기 위한 본 발명은, 화상 정보를 캡쳐하여, 그 화상정보로부터 특정 목표물의 색을 정규화된 색모델을 이용하여 분리하는 제1 과정과; 상기 특정 목표물의 색을 기준 색 모델과 비교하여 특정 목표물의 색모델을 검출하는 제2 과정과; 상기 특정 목표물의 색 모델이 검출되면, 그 색 모델을 이용하여 목표물을 트랙킹하는 제3 과정으로 수행함을 특징으로 한다.The present invention for achieving the above object comprises a first step of capturing image information and separating the specific target color from the image information using a normalized color model; A second process of detecting a color model of a specific target by comparing the color of the specific target with a reference color model; When the color model of the specific target is detected, a third process of tracking the target using the color model may be performed.

이하, 본 발명에 의한 지능형 로봇의 객체 인식방법에 대한 작용 및 효과를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, operations and effects on the object recognition method of the intelligent robot according to the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명 지능형 로봇의 객체 인식방법에 대한 동작흐름을 보인 개략도로서, 이에 도시한 바와같이 화상 정보를 캡쳐하여, 그 화상정보로부터 특정 목표물의 색을 정규화된 색모델을 이용하여 분리하는 제1 과정과; 상기 특정 목표물의 색을 기준 색 모델과 비교하여 특정 목표물의 색모델을 검출하는 제2 과정과; 상기 특정 목표물의 색 모델이 검출되면, 그 색 모델을 이용하여 목표물을 트랙킹하는 제3 과정과; 조명 변화나 특정 목표물의 색 모델을 검출하여 그 색 모델을 보정한후, 그 보정 색모델에 따라 기준 색 모델을 새로 설정하는 제4 과정으로 이루어지며, 이와같은 본 발명의 동작을 사람의 얼굴색을 검출하는 것을 실시예로 하여 설명한다.1 is a schematic diagram showing an operation flow of an object recognition method of an intelligent robot according to the present invention. As shown in FIG. 1, an image capturing image information is used to separate a specific target color from the image information using a normalized color model. 1 course; A second process of detecting a color model of a specific target by comparing the color of the specific target with a reference color model; If a color model of the specific target is detected, tracking a target using the color model; After detecting a color change of a lighting target or a specific target color model and correcting the color model, a fourth process of newly setting a reference color model according to the corrected color model is performed. Detection will be described using examples.

먼저, 화상 정보를 캡쳐하여, 그 화상정보로부터 특정 목표물의 색을 정규화된 기준색 모델을 이용하여 분리하는데, 기존의 절대값 색 모델을 사용하지 않고 하기의 수학식으로 이루어진 정규화된 색모델을 사용한다.First, image information is captured and a specific target color is separated from the image information using a normalized reference color model. Instead of using an existing absolute value color model, a normalized color model composed of the following equation is used. do.

[수학식][Equation]

여기서, 상기 정규화된 색 모델은 절대적인 값이 아닌 색비율로써, 조명이 어두운 경우에도 그 비율은 거의 일정하게 유지된다.Here, the normalized color model is not an absolute value but a color ratio, and the ratio remains almost constant even when the lighting is dark.

즉, 빨간색의 경우 8비트로 정규화된 값을 기준으로 보면, R=255, G=0, B=0가 되는데, 조명이 어두운 경우에는, R값이 255보다 작은 값으로 된다.That is, in the case of red, R = 255, G = 0, and B = 0 based on the value normalized to 8 bits. In the case of dark lighting, the R value is smaller than 255.

따라서, 상기와 같은 특성을 이용하여 조명 조건에 덜 둔감한 색모델을 사용하다.Therefore, using the above characteristics, a color model that is less insensitive to lighting conditions is used.

이때, 상기 기준색 모델은, 초기에 특정 카테고리에 속하는 목적물의 색을 샘플링하여 통계적으로 구한 정규화된 색 모델로 설정하는데, 즉 상기 정규화된 색모델을 기준으로, 초기에는 많은 사람, 다양한 종족의 사람 얼굴색을 샘플링하여 통계적으로 정규화된 기준 색 모델을 설정한다.In this case, the reference color model is initially set as a normalized color model obtained by statistically obtaining a color of a target object belonging to a specific category, that is, based on the normalized color model, initially, many people, people of various races. The face color is sampled to establish a statistically normalized reference color model.

그 다음, 상기 특정 목표물의 색을 기준 색 모델과 비교하여 특정 목표물의 색 모델을 검출하는데, 즉 적절한 검출 알고리즘을 사용하여 분리된 특정 목표물의 색이 기준 색모델에 포함되면 이를 특정 목표물의 색 모델로 검출한다.Then, the color of the specific target is compared with the reference color model to detect the color model of the specific target, that is, if the color of the specific target separated into the reference color model using an appropriate detection algorithm is included in the color model of the specific target. To be detected.

그 다음, 상기 특정 목표물의 색 모델을 기준으로 목표물을 트랙킹한다.Then, the target is tracked based on the color model of the specific target.

한편, 상기에서 검출된 특정 목표물의 색모델은 자동보정과정을 거쳐 기준색 모델을 새로 설정하는데, 이를 도2를 참조하여 설명한다.On the other hand, the color model of the specific target detected as described above through the automatic correction process to set a new reference color model, which will be described with reference to FIG.

우선, 상기에서 검지된 특정 목적물의 색을 다시 정규화한다.First, the color of the specific object detected above is normalized again.

즉, 동일한 물체에서도 프레임간의 조명 변화에 대하여 색 절대값의 변화가 생기지만, 상기 정규화 과정을 통해 색값들(RGB)의 비율은 일정하게 유지하여 조명변화에 둔감한 특성을 가지도록 한다.That is, although the absolute value of the color changes with respect to the illumination change between the frames even in the same object, the ratio of the color values RGB is kept constant through the normalization process so as to be insensitive to the illumination change.

그 다음, 화상정보의 프레임간의 색차를 구하여 현재 프레임의 색 모델을 산출한다.Then, the color difference between the frames of the image information is obtained to calculate the color model of the current frame.

즉, 이전 프레임과 현재 프레임의 색차를 이용하여 현재 프레임의 목표물 색의 평균과 분산을 구한후, 현재 색모델의 가우시안 함수(g1)를 구하고, 현재 프레임과 기준 색 모델과의 색차를 이용하여 현재 색모델의 가우시안 함수(g2)를 구한후, 상기 가우시안 함수(g1,g2)를 승산하여 현재 색모델의 가우시안 함수를 구하여 이를 현재 프레임의 색 모델로 산출하는데, 즉 도3과 같이 현재의 색모델이 시프팅하게 되어, 일반적으로 구한 색 모델의 높은 확률 분포내에서 변동을 하여 새로운 색모델을 생성하게 된다.That is, after calculating the average and variance of the target color of the current frame using the color difference between the previous frame and the current frame, the Gaussian function (g1) of the current color model is obtained, and using the color difference between the current frame and the reference color model After the Gaussian function g2 of the color model is obtained, the Gaussian function of the current color model is obtained by multiplying the Gaussian functions g1 and g2 and calculated as a color model of the current frame, that is, as shown in FIG. This shifting results in a variation within the high probability distribution of the color model, which is generally found, to generate a new color model.

그 다음, 상기에서 산출된 현재 프레임의 색모델들을 누적하여 새로운 색모델을 생성하고, 그 생성된 새로운 색 모델을 학습하여, 기준 색 모델을 업데이트한다.Then, a new color model is generated by accumulating the color models of the current frame calculated above, and learning the generated new color model to update the reference color model.

즉 상술한 고정을 반복 수행하여 매번 계산된 색 모델은 누적되어지고, 결과적으로 특정인의 얼굴색을 나타내는 가우시안 분포의 새로운 색모델이 생성되는데, 이는 조명의 변화에도 적응가능한 새로운 색모델이 된다.That is, the color model calculated every time by repeating the above-described fixing is accumulated, and as a result, a new color model of Gaussian distribution representing the face color of a specific person is generated, which becomes a new color model that is adaptable to changes in illumination.

상기 새로운 색모델은, 특정인의 얼굴색에 적응되어진 새로운 색 모델이되어서, 이를 기초로 하면 특정인의 얼굴색 검출에 용이하고, 주변의 노이즈한 색들은 제거 가능한 색모델이 되어진다.The new color model becomes a new color model adapted to the face color of a specific person, and based on this, it is easy to detect a face color of a specific person, and the noisy colors of the surroundings become a removable color model.

한편, 상기에서 산출된 현재 프레임의 색모델을 트랙킹의 기준색 모델로 적용하여, 조명 변화에 따른 특정 목표물의 색 변화를 적응시킨다.On the other hand, by applying the color model of the current frame calculated as a reference color model of the tracking, to adapt the color change of the specific target according to the change in illumination.

상기 새로운 색 모델 학습방법은, 목표물을 감지한후, 새롭게 생성되는 색모델중 빈도수가 높은 쪽으로 색 모델을 변경하는 첫번째 방법과 특정 목표물을 계속적으로 검지시켜 새로운 색모델을 만들어내는 두번째 방법이 있다.The new color model learning method includes a first method of changing a color model to a higher frequency among newly generated color models after detecting a target and a second method of continuously detecting a specific target to generate a new color model.

상술한 학습방법에 의해, 일반적인 색 모델을 사용하여 얼굴 검지 및 인식시 보다 인식율과 오동작의 가능성이 적어지는 등의 성능의 향상이 가능하며 다양한 인종의 얼굴색에도 적응하여 자동보정이 가능하도록 되어진다.By the above-described learning method, it is possible to improve the performance such as the recognition rate and the possibility of malfunction less than the face detection and recognition by using the general color model, and it is possible to automatically correct by adapting to the face color of various races.

이러한, 자동 보정은 얼굴 인식 뿐만 아니라 특정한 색의 검지시에도 동일하게 적용되어지며, 상기 첫번째 학습방법을 예를 들면, 빨간색 공으로 초기화된 기준 색 모델을 빨간색,핑크,주홍,주황,노란,연두,녹색,진녹색,파랑등으로 색 모델의 의도적인 변화가 가능하도록 해준다.Such automatic correction is equally applied to not only face recognition but also detection of a specific color. For example, the first learning method may include red, pink, scarlet, orange, yellow, yellow, Green, dark green, and blue allow for intentional changes in color models.

상기 본 발명의 상세한 설명에서 행해진 구체적인 실시 양태 또는 실시예는 어디까지나 본 발명의 기술 내용을 명확하게 하기 위한 것으로 이러한 구체적 실시예에 한정해서 협의로 해석해서는 안되며, 본 발명의 정신과 다음에 기재된 특허청구의 범위내에서 여러가지 변경 실시가 가능한 것이다.The specific embodiments or examples made in the detailed description of the present invention are intended to clarify the technical contents of the present invention to the extent that they should not be construed as limited to these specific examples and should not be construed as consultations. Various changes can be made within the scope of.

이상에서 상세히 설명한 바와같이 본 발명은, 얼굴 검지시, 색모델을 사용하는 경우에서 조명변화에 따른 목표물의 색 변화가 생겨도 자동검사가 가능하게 되어, 색 모델을 변경시키는 것이 가능하므로, 검지하고자 하는 목표물의 색상을 환경 변화에 적응하여 잘 검지할 수 있는 효과가 있다.As described in detail above, the present invention enables automatic inspection even when a color change of a target occurs due to a change in illumination in the case of using a color model, so that the color model can be changed. It is effective to detect the target color by changing the environment.

또한, 본 발명은 얼굴 검지 또는 특정색을 검지하는 분야에 적용하여, 하드웨어나 소프트웨어의 변경없이 사용자가 간단한 학습을 통하여 검출하고자 하는 색을 잘 검지할 수 있는 효과가 있다.In addition, the present invention is applied to the field of detecting a face or a specific color, there is an effect that the user can easily detect the color to be detected through a simple learning without changing the hardware or software.

Claims (9)

화상 정보를 캡쳐하여, 그 화상정보로부터 특정 목표물의 색을 정규화된 기준 색모델을 이용하여 분리하는 제1 과정과;Capturing image information, and separating the specific target color from the image information using a normalized reference color model; 상기 특정 목표물의 색을 기준 색 모델과 비교하여 특정 목표물의 색 모델을 검출하는 제2 과정과;A second process of detecting a color model of a specific target by comparing the color of the specific target with a reference color model; 상기 특정 목표물의 색 모델이 검출되면, 그 색 모델을 이용하여 목표물을 트랙킹하는 제3 과정으로 수행함을 특징으로 하는 지능형 로봇의 객체 인식방법.When the color model of the specific target is detected, an object recognition method of an intelligent robot is performed as a third process of tracking the target using the color model. 제1 항에 있어서, 제2 과정의 기준색 모델은, 하기의 수학식으로 구현되는 정규화된 RGB색 모델을 사용하는 것을 특징으로 하는 지능형 로봇의 객체 인식방법.The method of claim 1, wherein the reference color model of the second process uses a normalized RGB color model implemented by the following equation. [수학식][Equation] 제 2항에 있어서, 정규화된 RGB색 모델은,The method of claim 2, wherein the normalized RGB color model, 절대적인 값이 아닌 색의 비율로써, 조명이 어두운 경우에도 그 색의 비율은일정하게 유지되는 것을 특징으로 하는 지능형 로봇의 객체 인식방법.An object recognition method of an intelligent robot, characterized in that the ratio of colors is not an absolute value, and the ratio of colors is maintained even when lighting is dark. 제1 항 또는 제2 항에 있어서, 기준색 모델은,The reference color model according to claim 1 or 2, 초기에 특정 카테고리에 속하는 목적물의 색을 샘플링하여 통계적으로 구한 정규화된 색 모델로 설정되는 것을 특징으로 하는 지능형 로봇의 객체 인식방법.An object recognition method of an intelligent robot, characterized in that initially set to a normalized color model statistically obtained by sampling the color of the object belonging to a specific category. 제1 항에 있어서, 조명 변화나 특정 목표물의 색을 검출하여 그 색을 보정한후, 그 보정 색에 따라 기준 색 모델을 새로 설정하는 과정을 더 포함하는 것을 특징으로 하는 지능형 로봇의 객체 인식방법.The method of claim 1, further comprising: detecting a change in illumination or a color of a specific target, correcting the color, and then newly setting a reference color model according to the corrected color. . 제 5항에 있어서, 설정 과정은,The method of claim 5, wherein the setting process, 검지된 특정 목적물의 색을 정규화하는 제1 단계와;A first step of normalizing the color of the detected specific object; 화상정보의 프레임간의 색차를 구하여 현재 프레임의 색모델을 산출하는 제2 단계와;Calculating a color model of a current frame by obtaining a color difference between frames of image information; 상기 제2 단계에서 산출된 현재 프레임의 색모델들을 누적하여 새로운 색모델을 생성하는 제3 단계와;Generating a new color model by accumulating the color models of the current frame calculated in the second step; 상기 제3 단계에서 생성된 새로운 색 모델을 학습하여, 기준 색 모델을 업데이트하는 제4 단계로 이루어진 것을 특징으로 하는 지능형 로봇의 객체 인식방법.And a fourth step of updating a reference color model by learning a new color model generated in the third step. 제 6항에 있어서, 제2 단계에서 산출된 현재 프레임의 색모델을 트랙킹의 기준색 모델로 적용하여, 조명 변화에 따른 특정 목표물의 색 변화를 적응시키는 단계를 더 포함하는 것을 특징으로 하는 지능형 로봇의 객체 인식방법.The intelligent robot of claim 6, further comprising applying a color model of the current frame calculated in the second step as a reference color model for tracking, to adapt the color change of a specific target according to a change in illumination. Object recognition method. 제 6항에 있어서, 제2 단계는,The method of claim 6, wherein the second step is 이전 프레임과 현재 프레임의 색차를 이용하여 현재 프레임의 목표물 색의 평균과 분산을 구한후, 현재 색모델의 가우시안 함수(g1)를 구하는 제1 단계와;Obtaining a Gaussian function g1 of the current color model after obtaining the average and the variance of the target color of the current frame using the color difference between the previous frame and the current frame; 현재 프레임과 기준 색 모델과의 색차를 이용하여 현재 색모델의 가우시안 함수(g2)를 구하는 제2 단계와;A second step of obtaining a Gaussian function g2 of the current color model using the color difference between the current frame and the reference color model; 상기 제1,제2 단계의 가우시안 함수를 승산하여 현재 색모델의 가우시안 함수를 구하는 제3 단계로 이루어진 것을 특징으로 하는 지능형 로봇의 객체 인식방법.And a third step of obtaining a Gaussian function of the current color model by multiplying the Gaussian functions of the first and second steps. 제 6항에 있어서, 제4 단계의 색 모델 학습은,The method of claim 6, wherein the color model training of the fourth step is 목표물을 감지한후, 새롭게 생성되는 색모델중 빈도수가 높은 쪽으로 색모델을 바꾸는 방법과 특정 목표물을 계속적으로 검지시켜 새로운 색모델을 만들어내는 방법으로 이루어진 것을 특징으로 하는 지능형 로봇의 객체 인식방법.An object recognition method of an intelligent robot comprising a method of changing a color model toward a higher frequency among newly generated color models after detecting a target and a method of continuously detecting a specific target to generate a new color model.
KR1020020013008A 2002-03-11 2002-03-11 Object recognition method KR100878190B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020013008A KR100878190B1 (en) 2002-03-11 2002-03-11 Object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020013008A KR100878190B1 (en) 2002-03-11 2002-03-11 Object recognition method

Publications (2)

Publication Number Publication Date
KR20030073448A true KR20030073448A (en) 2003-09-19
KR100878190B1 KR100878190B1 (en) 2009-01-13

Family

ID=32224278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020013008A KR100878190B1 (en) 2002-03-11 2002-03-11 Object recognition method

Country Status (1)

Country Link
KR (1) KR100878190B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491714A (en) * 2016-06-13 2017-12-19 深圳光启合众科技有限公司 Intelligent robot and its target object recognition methods and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161499A (en) * 1994-12-05 1996-06-21 Minolta Co Ltd Object recognition device
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
JP3393969B2 (en) * 1996-05-24 2003-04-07 日本放送協会 Method and apparatus for recognizing subject in automatic camera system
US5845009A (en) * 1997-03-21 1998-12-01 Autodesk, Inc. Object tracking system using statistical modeling and geometric relationship
JP3997501B2 (en) * 1998-09-03 2007-10-24 ソニー株式会社 Subject recognition device, subject recognition method, automatic tracking device, and automatic tracking method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491714A (en) * 2016-06-13 2017-12-19 深圳光启合众科技有限公司 Intelligent robot and its target object recognition methods and device

Also Published As

Publication number Publication date
KR100878190B1 (en) 2009-01-13

Similar Documents

Publication Publication Date Title
Soriano et al. Using the skin locus to cope with changing illumination conditions in color-based face tracking
US7224735B2 (en) Adaptive background image updating
US7206435B2 (en) Real-time eye detection and tracking under various light conditions
KR100311075B1 (en) Apparatus for estimating and converting illuminant chromaticity by using perceived illumination and highlight and method therefor
US8280165B2 (en) System and method for segmenting foreground and background in a video
KR100304663B1 (en) Color illumination color temperature detecting device and method thereof
CN111523473B (en) Mask wearing recognition method, device, equipment and readable storage medium
US8457394B2 (en) Method of detecting skin-colored area using variable skin color model
JP3490910B2 (en) Face area detection device
CN102867295B (en) A kind of color correction method for color image
JP2007257087A (en) Skin color area detecting device and skin color area detecting method
WO2006050448A9 (en) Adaptive tracking for gesture interfaces
US10282601B2 (en) Electronic device and gesture recognition method applied therein
CN113795071B (en) Atmosphere lamp control method and device and storage medium
KR100878190B1 (en) Object recognition method
CN108010050A (en) A kind of foreground detection method based on adaptive RTS threshold adjustment and selective context update
CN101739678A (en) Method for detecting shadow of object
KR20060031829A (en) Adaptive background learning for the detection of moving object
KR101853276B1 (en) Method for detecting hand area from depth image and apparatus thereof
CN109978962A (en) A kind of low contrast indicating value digital image recognition method towards the calibrating of darkroom illumination photometer
CN113066077A (en) Flame detection method and device
US10447922B2 (en) Automated color space configuration in machine vision systems
US11908298B2 (en) Smoke detection system and smoke detection method
KR101143555B1 (en) Face Detection System using Skin Color Filtering and Morphology Process and Method Therefor
CN109257532A (en) A kind of Atomatic focusing method under point light source environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121227

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131224

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee