KR100593606B1 - 패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 - Google Patents
패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 Download PDFInfo
- Publication number
- KR100593606B1 KR100593606B1 KR1020040012742A KR20040012742A KR100593606B1 KR 100593606 B1 KR100593606 B1 KR 100593606B1 KR 1020040012742 A KR1020040012742 A KR 1020040012742A KR 20040012742 A KR20040012742 A KR 20040012742A KR 100593606 B1 KR100593606 B1 KR 100593606B1
- Authority
- KR
- South Korea
- Prior art keywords
- pattern
- value
- point
- image
- brightness
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61K—AUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
- B61K5/00—Apparatus for placing vehicles on the track; Derailers; Lifting or lowering rail vehicle axles or wheels
- B61K5/02—Devices secured to the vehicles; Turntables integral with the vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F7/00—Lifting frames, e.g. for lifting vehicles; Platform lifts
- B66F7/10—Lifting frames, e.g. for lifting vehicles; Platform lifts with platforms supported directly by jacks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F7/00—Lifting frames, e.g. for lifting vehicles; Platform lifts
- B66F7/28—Constructional details, e.g. end stops, pivoting supporting members, sliding runners adjustable to load dimensions
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F15—FLUID-PRESSURE ACTUATORS; HYDRAULICS OR PNEUMATICS IN GENERAL
- F15B—SYSTEMS ACTING BY MEANS OF FLUIDS IN GENERAL; FLUID-PRESSURE ACTUATORS, e.g. SERVOMOTORS; DETAILS OF FLUID-PRESSURE SYSTEMS, NOT OTHERWISE PROVIDED FOR
- F15B15/00—Fluid-actuated devices for displacing a member from one position to another; Gearing associated therewith
- F15B15/08—Characterised by the construction of the motor unit
- F15B15/14—Characterised by the construction of the motor unit of the straight-cylinder type
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F15—FLUID-PRESSURE ACTUATORS; HYDRAULICS OR PNEUMATICS IN GENERAL
- F15B—SYSTEMS ACTING BY MEANS OF FLUIDS IN GENERAL; FLUID-PRESSURE ACTUATORS, e.g. SERVOMOTORS; DETAILS OF FLUID-PRESSURE SYSTEMS, NOT OTHERWISE PROVIDED FOR
- F15B15/00—Fluid-actuated devices for displacing a member from one position to another; Gearing associated therewith
- F15B15/20—Other details, e.g. assembly with regulating devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66F—HOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
- B66F2700/00—Lifting apparatus
- B66F2700/05—Hydraulic jacks
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Fluid Mechanics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geology (AREA)
- Structural Engineering (AREA)
- Image Processing (AREA)
Abstract
본 발명은 카메라와 영상처리에 의한 물체 인식 방법에 관한 것으로, 특정한 패턴의 영상을 인식하고자 하는 대상 물체가 있는 공간에 투사한 후 카메라로 촬영한 이미지에서 대상 물체 표면에 투사된 패턴을 영상처리에 의해 검출하여 조명이나 인식하고자 하는 물체의 색깔이나 재질과 배경에 무관하게 안정적으로 대상 물체를 배경으로부터 분리하여 인식하는 장치에 관한 것이다.
카메라, 물체인식, 세그멘테이션, 이미지처리, 영상처리, 영상인식, 물체추출, 이미지, 배경이미지, 영상투사, 패턴영상, 패턴 검출
Description
도1a는 본 발명에 따른 장치의 구성도
도1b는 패턴투사부(10)와 카메라부(20) 및 물체(40, 50)의 상화 위치 관계 설명도.
도2a는 본 발명의 장치에 사용되는 투사패턴의 예시도.
도2b는 본 발명의 장차의 다른 실시예도.
도2c는 손에 패턴을 투사하여 배경과 함께 촬영한 영상.
도2d는 본 발명의 영상처리 방법에 의해 영상처리된 결과 이미지.
도2e는 본 발명의 영상처리 방법을 설명하기 위하여 패턴의 각 격자를 좌표화한 도면.
도2f는 촬영된 이미지에서 각 픽셀의 ID를 구하기 위한 패턴도.
도2g는 본 발명의 영상처리방법의 한 방법의 설명을 위한 히스토그램
도3a~도3c는 피사계심도에 대한 일반적인 설명도.
도4는 투사패턴이 수직선 무늬의 배열체인 경우의 영상처리 방법 설명을 위한 도면.
도5a 및 도5b는 본 발명에 있어서 손가락 동작으로 컴퓨터 동작신호를 생성함을 나타내는 예시도.
도6a는 카메라부(20)를 향해 손을 전진시켜서 배경이 되는 인체의 다른 부분보다 상대적으로 카메라에 가까운 위치에 있도록 하는 모습을 나타내는 개략도.
도6b는 패턴투사부(10) 앞에 사람이 의자에 앉아 있는 경우의 카메라부의 동작을 설명하기 위한 개략도.
도7은 제2동작모드의 상태천이도.
본 발명은 특정한 패턴의 영상을, 인식하고자 하는 대상 물체가 있는 공간영역에 투사하여 카메라로 촬영하고 이 영상을 처리하여 대상 물체 표면에 투사된 패턴을 검출함으로써 물체를 배경으로부터 추출하여 인식하는 장치 및 영상처리 방법에 관한 것이다.
카메라로 촬영한 영상에서 특정 물체를 인식하는 장치로는 얼굴 인식이나 수화인식시스템 등이 있다. 이러한 시스템에서는, 촬영된 영상의 배경으로부터 인식하고자 하는 얼굴이나 손을 추출하는 것이 필요하다. 이러한, 배경으로부터 관심 대상인 손이나 얼굴을 추출하는 방법 중에 배경색과 피부색의 차이를 이용한 방법이 있다. 그러나 이러한 색의 분포를 이용하는 방법은 배경이 피부색과 비슷하거나 같은 경우 또는 조명이 바뀐 경우에는 제대로 동작하지 않는다.
이와 유사한 방법으로 배경을 인위적인 색으로 제한하는, 방송에서 사용하는 크로마키(chroma-key) 기법도 있지만 이는 배경에 적당한 색의 스크린을 반드시 설치해야 하는 불편함이 있다.
또한 유사 기술로는 출원번호가 특허1997-054280인 발명이 있다. 이 발명의 경우 인식하고자 하는 대상 물체가 있는 영역을 향한 조명의 밝기를 짧은 시간 간격으로 주기적으로 변화시키면서 촬영하여 대상 물체를 인식하는 방법을 사용하고 있다. 즉 조명을 하지 않고 촬영한 이미지와 대상 물체에 조명을 했을 때 촬영한 이미지를 비교해서 밝기 차이가 많은 부분을 대상 물체라고 판단하게 되어있다(이 경우 대상 물체는 배경보다 조명에 가깝게 위치해야 한다). 그러나 배경이 빛을 잘 반사하는 성질의 물건이라면 대상 물체로부터 반사된 빛보다 배경이 더 밝을 수가 있어서 배경을 대상물체와 혼동하는 수가 있다. 또한 대상 물체가 빠르게 움직이는 경우에는 조명의 깜빡거림 때문에 대상 물체를 추적하기 어렵다는 단점이 있다.
본 발명은 상기한 바와 같은 기존의 영상에서 대상 물체를 추출하는 장치의 한계를 극복하여, 조명과 배경에 무관하게 대상 물체를 배경으로부터 추출하는 장치 및 이 장치에 적용되는 영상처리 방법을 제공함을 목적으로 한다.
본 발명의 물체인식장치는 카메라에 의해 촬영된 이미지에서 특정 물체의 영역을 배경으로부터 추출하는 장치로서 도1a에 표시된 것처럼, 추출하고자 하는 물체(인식대상 물체)(40)가 있는 영역에 특정 패턴의 영상을 투사하는 패턴투사부(102); 상기 패턴투사부(102)가 패턴 영상을 투사하는 영역을 촬영하는 카메라부(20); 상기 카메라부(20)에서 촬영한 이미지에서 물체(40)에 투사된 패턴을 검출하여 물체의 영역을 추출하는 물체인식부(30)를 포함하여 구성됨을 특징으로 한다.
여기서 카메라부(20)는 물체(40)까지의 거리를 측정하여 물체인식부(30)에 거리 정보를 전달하는 거리측정부(202)와, 물체인식부(30)로부터 전달받은 거리정보를 이용하여 특정 거리에 있는 인식대상 물체(40)를 선명하게 촬영하고 그 물체보다 앞이나 뒤에 있는 배경물체(50)는 흐릿하게 촬영할 수 있도록 렌즈를 구동하여 초점거리를 변화시키는 렌즈구동부(204)를 포함할 수 있고, 물체인식부(30)는 인식한 물체의 정보를 특정 형태의 신호로 변환하여 외부 장치와 통신하는 인터페이스부(302)를 포함할 수 있다. 도1b는 위와 같이 구성되는 본 발명의 장치를 실제로 설치하는 모습의 예시도이다. 도1b에 나타낸 것처럼 카메라(20)와 패턴투사부(10)를 서로 최대한 가깝게 배치하고 인식대상 물체(40)를 향해 나란히 향하게 하는 것이 설치 장소도 작게 차지하고 촬영된 이미지에서 투사된 패턴을 검출하기에도 편리하다. 이하의 설명에서 카메라부(20)와 패턴투사부(10)는 도1b에서처럼 서로 인접한 위치에서 동일 방향을 향하게 설치되는 것으로 한다.
도2a와 도2b를 참조하여 카메라부(20)로부터 일정한 거리에 인식대상 물체(40)가 있는 경우의 물체 인식 작용에 대해서 설명한다. 도2a와 도2b는 패턴투사부(10)에서 패턴을 투사하는 모습을 나타낸다. 도2a에 표시된 패턴투사부(10)는 LCD빔 프로젝터와 같이 램프 광원(102), 집광렌즈(104), 투사패턴 필름(106), 그리 고 투사렌즈(108)로 구성되어 있다. 한편 도2b는 다른 실시예를 나타내는 것으로, 레이저 광원(112), 볼록렌즈(114), 그리고 투사패턴 필름(116)으로 구성되어 있다.
본 실시예에서는 도2a와 도2b에 나타낸 것처럼 투사패턴으로서 일정 간격으로 배열된 일정한 크기의 흑백 정사각형을 배열하여 사용하였다(체스판 모양). 그러나, 본 발명의 기본 사상에 따르면 투사패턴이 반드시 도2a,b에 나타낸 체스판 모양에 한정되는 것은 아니다.
패턴투사부(10) 앞에 여러 물체가 있다면 여러 물체에 모두 패턴이 투사되지만 카메라의 초점거리를 특정 물체(40)에 맞추면 그 물체(40)에 맺히는 패턴영상만 선명하고 그 물체(40)보다 카메라부(10)에 가깝거나 멀리 있는 물체에 맺히는 패턴영상은 흐릿하게 촬영된다. 이같이 카메라부(10)로부터 특정 거리에 있는 물체만 선명하게 촬영하기 위해서는, 카메라의 광학부에 모든 거리에 있는 물체가 모두 선명하게 촬영되는 렌즈(가령, 핀홀 렌즈)가 아닌 렌즈, 즉 구경이 큰 렌즈를 사용하여야 한다. 이는 필름식 카메라에서 조리개를 열어서 초점거리가 맞는 범위가 작은 상태로(즉 피사계 심도가 얕게) 촬영하는 것과 동일한 원리이다.
참고로, 카메라 렌즈의 구경이 큰 경우 선명한 촬영이 가능한 카메라 및 물체 사이의 거리를 변화시킬 때 촬영된 영상의 선명함이 변하는 원리를 도 3a~3c에 나타내었다. 즉 렌즈(70)와 이미지 센서(80)로 구성된 카메라 앞에 있는 사각형의 피사체(60)를 촬영하는 경우에, 도3a 는 피사체(60)가 초점거리보다 가깝게 위치해서 흐리게 촬영되는 모습이고, 도3b는 초점거리 앞에 위치한 피사체(60)가 선명하게 촬영되는 모습이고, 도3c는 초점거리보다 멀리 떨어진 피사체(60)가 흐리게 촬 영되는 모습을 나타낸 것이다.
다시 도2a와 도2b로 돌아가서, 투사패턴(106, 116)의 간격과 두께가 지나치게 크면 물체가 초점거리보다 가깝거나 멀어져도 촬영한 이미지에서 패턴이 나타날 수 있으므로 카메라 해상도가 허락하는 한 작은 크기의 패턴을 선택해서 사용하는 것이 바람직하다.
또한, 외부 광원의 영향을 최소화 하기 위하여 패턴투사부(10)의 광원(102, 112)은 적외선으로 하고, 카메라부(20)는 투사된 적외선 영상을 촬영하는 적외선 카메라 또는 적외선 필터를 부착한 카메라로 하고, 촬영된 이미지는 256 그레이 이미지로 하는 것이 바람직하다.
이러한 상태에서 인식대상 물체(40)가 있는 공간을 카메라로 촬영하면 초점거리 앞에 있는 물체의 표면에만 선명한 투사패턴이 나타나고 그 패턴이 있는 영역을 패턴검출 알고리즘(영상처리 방법)에 의해 검출하면 그곳이 인식하고자 하는 물체의 영역이 된다. 이러한 알고리즘을 수행하는 물체인식부(30)는 마이컴이나 컴퓨터 또는 전용 하드웨어에 의해 구현될 수 있다. 본 발명의 장치에 적용가능한 영상처리 방법에 대해서는 추후에 설명한다.
인식대상 물체가 손인 경우, 촬영한 이미지에서 손에 투사된 패턴을 검출해서 손의 영역을 알아낸 후 다양한 패턴인식 알고리즘을 이용하여 손 영역의 형상을 인식해서 정해진 신호를 출력하게 할 수 있다. 가령, 검출된 손의 움직임으로 컴퓨터 마우스 커서의 위치를 옮기거나 손가락을 펴고 쥐는 등의 다양한 동작으로 수화를 인식하거나 마우스 버튼이 눌리는 신호를 생성할 수 있다.
예를 들어, 도5a와 도5b는 손동작으로 컴퓨터에 마우스신호를 입력하는 손 모양의 예를 나타낸다. 즉 엄지와 검지로 링을 만드는 행위를 하면, 링 중심의 좌표값에 따라 마우스 커서가 따라 움직이게 할 수 있다. 그리고 엄지와 검지에 의한 링이 없으면 손을 아무리 움직여도 마우스 신호가 발생하지 않는 비활성(disable) 상태로 할 수 있다. 손 모양을 도5a의 형태에서 도5b의 형태로 바꾸면 마우스 왼쪽 버튼을 누르는 동작을 하는 신호가 발생되게 할 수 있고 반대로 손 모양을 도5b의 형태에서 도5a의 형태로 바꾸면 마우스 왼쪽 버튼에서 손을 떼는 신호가 발생되게 할 수 있다. 즉 엄지와 검지로 링을 만든 상태에서 카메라가 링을 촬영할 수 있도록 손의 방향을 정렬한 후 손을 움직여서 마우스 커서를 이동시킬 수 있고, 엄지와 검지를 제외한 나머지 손가락을 편 상태에서 쥔 상태로 바꿈으로써 마우스 버튼의 클릭 신호를 발생시킬 수 있다. 이상에서 예시한 손 동작에 의한 마우스의 입력은 하나의 실시예일 뿐 마우스 신호생성 방식을 이에 한정하는 것은 아니다.
이러한 신호 생성은 도1a에 표시된 인터페이스부(302))에 의해 이루어져 외부 PC나 장치(304)와 통신을 할 수 있다. 이러한 물체인식 장치는 외부 장치(예를 들면 PC)와 분리된 모듈로 구현되어 인터페이스부(예를 들면 USB 인터페이스)로 연결될 수도 있고 임의의 장치(예를 들면 홈 씨어터 시스템)와 일체형으로 구현될 수도 있다. 임의의 장치와 일체형으로 구현되는 경우 인터페이스부는 생략될 수 있다.
한편, 지금까지의 설명은 인식대상 물체(40)가 카메라부(20)로부터 정해진 초점거리 앞에 있는 경우에 대한 것이었다. 그러나, 실제로는 인식대상 물체(40)와 카메라부(20) 사이의 거리가 가변적인 경우(즉 카메라를 향해 접근 또는 멀어지는 물체)를 고려해야 할 것이다.
물체와 카메라부 사이의 거리가 가변적인 경우에는, 도1a에 표시된 카메라부(20)의 거리측정부(202)가 물체인식부(30)로부터 거리측정 개시 신호를 받아서 물체(40)까지의 거리를 측정한 후 그 거리 정보를 인식부(30)에 전달한다. 인식부(30)는 거리측정부(202)로부터 받은 거리 정보를 이용해서 카메라부(20)의 렌즈구동부(204)의 렌즈를 구동해서 측정된 거리에 카메라의 초점이 맞게 조정한 후 촬영된 이미지를 분석해서 물체(40)를 인식한다.
이와 같은 과정을 끊임 없이 반복하면 움직이는 물체를 인식할 수 있다. 이처럼 측정된 거리를 이용하여 렌즈를 구동함으로써 초점거리를 변화시키는 기술은 비디오 카메라로 움직이는 물체를 선명하게 촬영하는데 사용되는 자동 초점 기능과 같은 원리이다.
이와 같이 카메라부를 향하여 전후로 움직이는 가변 거리 물체의 인식이 가능하기 위해서는 카메라부와 인식하고자 하는 물체 사이에 다른 물체가 존재하지 않도록 해야 한다. 왜냐하면 본 발명의 물체인식 장치는 카메라부(20) 앞에 놓여진 물체 중 가장 가까운 물체를 우선적으로 인식하게 되기 때문이다. 예를 들어서 본 발명의 물체인식 장치로 손동작의 움직임에 의해 마우스 기능을 구현하려면 도6a에 표시된 것과 같이 손을 카메라부(20)를 향해 전진시켜서 배경이 되는 인체의 다른 부분보다 상대적으로 카메라에 가까운 위치에 있도록 해야 한다. 즉 도6a에 표시된 거리 사이에는 dh<db가 만족되어야 한다.
다른 실시예
한편, 카메라부(20) 앞에 인식대상이 아닌 물체가 가까이 있고 이 물체의 뒤에 인식대상 물체(40)가 멀리 있는 경우의 인식 방법에 대하여 설명한다. 예를 들어서 도6b와 같이 패턴투사부(10) 앞에 사람이 의자에 앉아서 앞에서 설명한 손동작에 의해 마우스 신호를 입력하는 경우에는, 카메라부(20)는 카메라부 바로 앞 가까운 곳에서부터 먼 곳으로 차례로 초점거리를 바꾸며 촬영하고, 촬영 영상을 받은 물체인식부(30)에서는 각각의 촬영된 이미지 중에 인식대상 물체(40)가 있는지를 조사한다. 이 경우에, 보통의 카메라는 초당 30프레임씩 촬영하지만 고속 인식을 위해서 초당 촬영 프레임 수를 증가시키는 것이 바람직하다.
본 실시예의 경우에는 렌즈를 구동할 때 물체인식부(30)에서 인식한 물체 정보와 인식 장치의 상태를 이용하여 렌즈구동부(204)에 구동 신호를 출력하게 된다. 즉 본 실시예에서는 거리측정부가 생략될 수 있다. 구체적으로, 촬영 초점거리가 도 6b에 표시된 p1~p5가 되도록 순차적으로 촬영해서 인식하는 것을 생각하자(이 같은 촬영 방법을 "초점거리에 의한 스캐닝"이라 하자). 그러면 초점거리가 p1인 경우에는 촬영한 이미지의 어떤 곳에서도 선명한 패턴이 검출되지 않는다. 초점거리가 p2 이면 다리 부분에서 선명한 패턴이 촬영되므로 패턴검출 알고리즘에 의해서 다리 부분을 검출할 수 있으나 패턴 인식에 의해 링이 있는 손 모양이 아니라는 것으로 판정될 것이므로 아무런 마우스 신호도 발생되지 않는다. 초점거리가 p4인 경우에는 손에 투사된 패턴이 선명하게 촬영되기 때문에 앞에서 설명한 것과 같이 손 모양을 인식할 수 있고 그 모양에 따라 상응한 마우스 신호를 발생시킬 수 있다.
이렇게 손 모양이 검출되었으면 그 때의 초점거리를 유지하면서 촬영해서 손동작을 추적하는 것이 손동작 검출시간을 빠르게 할 수 있으므로 바람직하다. 이렇게 손동작을 추적하다가 어느 순간에 손이 검출되지 않는다면 손이 움직여서 카메라부로부터 멀어졌거나 가까워진 것이므로 다시 초점거리를 p1에서 p5까지 순차적으로 변화시키며 추적한다. 그리고 초점거리가 p5인 다음에는 p1으로 초점거리를 바꿔준다.
이하 설명의 편의를 위하여 앞에서 설명한 동작 방식(측정된 물체와 카메라부 사이의 거리 정보를 이용하여 카메라의 초점거리를 조절하는 방식)을 "제1동작모드"라 하고, 본 실시예에서 설명한 동작 방식을 "제2동작모드"(인식 결과와 인식장치의 상태를 이용하여 카메라의 초점거리를 조절하는 방식)라고 정의한다. 본 실시예의 제2동작모드의 상태천이를 도7에 나타내었다. 도7에서 상태는 2중 원으로 나타냈고, 상태 천이는 상태 사이의 화살표로 나타내었다. 그리고 상태천이 조건은 입력/출력 형태로 화살표 옆에 나타내었다. 즉 인식을 시작할 때(이를 인식 초기상태라 하자)에는 초점거리를 초기화 한 후 초점거리를 점진적으로 증가시키며 물체를 검출하는 것을 시도하고 초점거리가 정해진 최대값을 초과했으면 다시 초점거리를 최소값으로 초기화해서 초점거리를 점진적으로 증가시킨다. 이 때 어느 순간에 물체가 검출되었으면 그 순간의 초점거리를 유지한다(이를 인식 성공상태로 천이한다고 하자). 인식 성공상태에서 검출되던 물체의 검출을 실패했으면 다시 인식초기 상태로 돌아가게 된다.
이러한 상태천이방식은 제2동작모드의 하나의 예일 뿐 변형된 어떠한 제2 동작모드로 물체를 인식해도 무방하다. 예를 들면 투사거리를 점진적으로 감소시킨다는 것도 가능하다. 이때 도6b에 표시된 투사거리를 점진적으로 증가시키는 정도(즉 |pi - pi+1|, i,j=1~5), 투사거리의 최대값(max(pi)), 그리고 최소값(min(pi))은 인식하고자 하는 물체의 움직임 특성, 투사 패턴의 특성, 그리고 카메라의 촬영 속도 등에 맞게 선택하면 된다. 이와 같이 초점거리를 차례로 변화시키며 물체를 인식하는 기능을 이용하면 3차원 공간에 물체가 어떤 거리와 위치에 분포되어 있는지를 알아낼 수 있어서 로봇의 시각시스템에 사용될 수 있다.
이하, 물체인식부(30)에서 촬영된 영상을 분석해서 패턴을 검출하는 알고리즘(즉, 영상처리방법)에 대하여 상세히 설명한다. 우선 기존의 유사 기술을 살펴보면 다음과 같다.
주어진 영상에서 물체의 경계선(윤곽)을 검출할 때, 주어진 점과 그 주변의 점의 밝기를 비교하는 방법이 있다. 예를 들어서 수직선을 검출할 때는 좌우의 픽셀의 밝기를 비교해서 그 차이가 많은 지점을 찾고, 수평선을 검출할 때는 위 아래의 픽셀의 밝기를 비교해서 그 차이가 많은 지점을 찾는 방법이 사용된다. 예를 들어서 흰색 배경(픽셀값 255)에 검은색(픽셀값 0) 수직선이 있는 경우 수직선 영역을 검출하기 위한 평가값 f를 다음과 같이 정할 수 있다.
f(p) = (점 p에서의 밝기값) - (점 p보다 1픽셀 우측에 있는 점의 밝기 값)
모든 점에서 이와 같은 f를 구해서 그 절대값 |f|를 조사하면 흰색 배경에서는 위의 |f|값은 0이고, 흰색 배경과 검은색 수직선의 경계에서는 0보다 큰 값이 된다. 즉 |f|값이 0인지 아닌지를 조사해서 수직선 영역을 검출할 수 있다. 이러한 방법은 미분에 의한 영상처리라는 공지기술로서 1차미분(gradient)과 2차미분 (laplacian)이 있다.
본 발명은 이와 같은 주변의 픽셀값을 비교하는 방법을 확장해서 주기성을 지닌 일반적인 형태의 패턴 영역을 검출하는 방법을 제공한다. 즉 주어진 점에서 적당한 이웃의 점들을 선택하고 그 점들을 크게 두 종류의 이웃(중심이웃과 주변이웃)으로 나눠서 중심이웃을 이루는 점들의 밝기의 평균과 표준편차를 구하고 마찬가지로 주변이웃의 평균 밝기와 표준 편차를 구해서 위의 예의 f를 확장한 평가 함수를 구성한다. 이 평가 함수값에 따라 그 점이 패턴 영역인지 아닌지를 판정한다. 구체적인 평가 함수는 다음과 같다.
점 p에서의 평가 함수값 f(p) = (점 p의 중심이웃의 밝기 - 점 p의 주변이웃의 밝기)/(1 + 점 p의 중심이웃의 밝기의 표준편차 + 점 p의 주변이웃의 밝기의 표준 편차)
여기서, 중심이웃의 밝기=중심이웃을 이루는 점들의 평균 밝기, 주변이웃의 밝기=주변이웃을 이루는 점들의 평균 밝기, 중심이웃의 밝기의 표준편차=중심이웃을 이루는 점들의 밝기의 표준편차, 주변이웃의 밝기의 표준 편차=주변이웃을 이루는 점들의 밝기의 표준편차를 의미한다.
위의 평가함수 정의식에서 분모에 표준편차 이외에 +1이 더 들어간 이유는 표준편차가 0인 경우에 분모가 0 이 되지 않도록 해서 함수값의 계산이 어떠한 입력 영상에 대해서도 가능하게 하기 위함이다. 영상을 이루는 모든 점(픽셀)에서 위의 평가 함수값을 구해서 그 값이 어떤 임계치보다 크면 그 점은 패턴 영역이라고 판정한다.
다음은 수직선 패턴의 예를 들어서 구체적인 평가 함수를 구성하는 방법의 설명이다. 수직선 패턴은 도4a에 나타낸 것과 같이 x축 방향으로 두께가 xp/2인 검은 수직선이 간격 xp/2 만큼씩 떨어져서 나열된 것을 생각하자. 여기서 수직선 패턴은 x축 방향으로 xp 만큼 평행이동하면 원래 패턴과 겹치므로 이 패턴을 수직선패턴의 x축 방향으로의 주기라고 하자. 도4a에 표시된 좌표가 (x0,y0)인 점 p에서 평가함수값을 구하기 위해 그 점의 좌우로 xp/2만큼 떨어진 이웃의 두 점 p10, p12를 생각하자. 이 경우 점 p는 중심이웃이고 점 p10, p12는 주변이웃으로 정한다. 그러면 위의 평가함수는 다음과 같이 된다.
점 p에서의 평가함수값 f(p)={(p의 밝기) - (p10과 p12의 밝기의 평균)}/{(1+(p10과 p12 의 밝기의 표준편차)}
위의 식에서 계산을 빠르게 하기 위해 p10과 p12 의 밝기의 표준편차 대신에 (p10의 밝기 - p12의 밝기)의 절대값을 사용해도 된다. 점 p에서 밝기값을 Img(p) 라고 표기하면 f는
f(p) = {Img(p) - (Img(p10) + Img(p12))/2 }/{1 + |Img(p10) -Img(p12)|}와 같이 표시된다. 중심이웃 p와 주변이웃 p10, p12의 좌표는 각각 (x0,y0), (x0-xp/2,y0), (x0+xp/2,y0)이므로 점 p, p10, p12에서의 밝기는 Img(x0,y0), Img(x0- xp/2,y0), Img(x0+xp/2,y0)라 표기하고, 점 p에서의 f값을 f(x0,y0)라 표기하고, xp/2를 d라고 표기하면 임의의 점(x,y)에서의 일반화된 다음과 같은 표현을 얻는다.
f(x,y) = {Img(x,y) - (Img(x-d,y) + Img(x_d,y) )/2}/{1 + |Img(x-d,y) -Img(x+d,y)|}
입력 영상의 임의의 점 (x,y)에서의 밝기(픽셀값, 256그레이 레벨 이미지의 경우 0에서 255 사이의 정수값) Img(x,y)를 알 수 있으므로 모든 점에서 위의 함수값을 계산할 수 있다. 이렇게 구한 f(p)값의 절대값 |f(p)|이 어떤 임계값 Cf보다 크면 그 점p는 패턴을 구성하는 점일 확률이 크다. |f(p)|가 큰 값이라는 것은 점 p의 좌우의 주변이웃의 픽셀과 중심의 p의 밝기 차가 크고, 좌우의 픽셀의 밝기는 거의 같은 경우를 나타낸다. 임계값 Cf는 Cf 값을 조금씩 변화시키면서 패턴 영역을 구해서 실제 패턴 영역과 가장 비슷하게 패턴 영역이 구해진 때의 Cf값을 선택하면 된다. 이렇게 수동으로 Cf를 구하는 과정은 맨 처음 한번만 수행하고 나머지 이후의 입력 영상은 이렇게 수동으로 구한 Cf값을 이용해서 패턴 영역을 구하면 된다. 이처럼 Cf를 정하는 방법 외에 자동으로 Cf값을 구하는 것은 뒤에 설명할 히스토그램을 이용한 방법이 있다.
본 발명의 목적은 영상으로부터 패턴 영역을 구하는 것이다. 이를 위해 모든 점 p에서 f(p)를 계산 한 후 Cf < |f(p)| 인 점들 p 를 선택하면 이 점들의 대부분이 패턴 영역이 된다. 여기서 대부분이 패턴 영역이라는 뜻은 이렇게 선택된 점들 중에는 패턴 영역이 아닌 배경영역의 점들도 섞여 있다는 뜻이다. 그 이유는 배경 중에 우연히 패턴과 비슷한 픽셀 분포를 하는 곳도 있기 때문이다. 이러한 가짜 패턴 점들은 아래에 설명할 검증단계에서 걸러내면 좀더 확실한 패턴 영역을 구할 수 있다. 이 같은 검증을 위해 다음과 같은 세 경우를 생각하자.
f(p) < -Cf
-Cf < f(p) < Cf
Cf < f(p)
위의 세 경우를 각각 점 p의 특성값(ID)가 -1, 0, 1이라고 정의하자(이 경우 ID값은 f(p)를 정수로 양자화한 것에 해당한다). 이를 표로 나타내면 아래 표와 같다.
f(p) | ID(p) | p |
Cf < f(p) | 1 | p는 흰색 패턴 영역의 점 |
-Cf < f(p) < Cf | 0 | p는 패턴 밖의 배경 영역의 점 |
f(p) < -Cf | -1 | p는 검은색 패턴 영역의 점 |
점p의 특성값 ID(p)의 물리적 의미는 ID(p)가 0이면 점 p는 배경 영역의 픽셀이라는 뜻이고, 1이면 흰색 패턴 영역의 픽셀이라는 뜻이고, -1 이면 검은색 수직선 패턴영역의 픽셀이라는 뜻이다. 이처럼 모든 점p에서 ID(p)를 구한 후 ID사이의 상관 관계를 보고 패턴 영역의 점들이 진짜 패턴 영역의 픽셀인지 다음과 같이 검증한다. 예를 들어서 어떤 점 p의 ID값이 1이라고 하자. 이 점 p가 진짜 패턴을 구성하는 픽셀이라면 주위의 점들도 패턴을 구성하는 픽셀일 확률이 높다. 즉 좌우로 xp/2 만큼 떨어진 점은 ID가 -1일 확률이 높다. 그리고 이 점 p가 만약 우연히 ID가 1로 계산된 배경 영역의 픽셀 즉, 가짜 패턴 픽셀 이라면 그 주위의 점들의 ID는 0일 확률이 높다. 따라서 다음과 같이 정의되는 점 p에서의 평가값 g(p)를 생각하자.
g(p)=(점 p의 중심이웃의 ID 평균값)-(점 p의 주변이웃의 ID 평균값)=ID(p)-(ID(p10)+ID(p12))/2 = ID(x,y)-(ID(x-d,y)+ID(x+d,y))/2 = g(x,y)
그러면 g(p)의 절대값 |g(p)|가 클수록 점 p가 패턴일 가능성이 크다. 따라서 적당한 임계값 Cg 보다 |g(p)| 가 큰 점들 p를 선택하면 가짜 패턴 픽셀들을 걸러낼 수 있다. Cg 값을 정하는 것은 위의 Cf를 정하는 것과 마찬가지로 Cg 값을 조금씩 변화시키며 Cg < |g(p)|인 점들 p를 구해서 그 점들의 영역이 실제 패턴 영역과 가장 비슷하게 될 때의 Cg 값을 선택하면 된다. 또한 마찬가지로 아래에 설명할 히스토그램 방법을 이용해서 Cg 값을 자동으로 정할 수도 있다.
다음은 투사패턴으로서 도2a 와 도2b에 나타낸 것과 같은 동일 크기의 흑과 백의 정사각형이 번갈아 배열된 체스판 형태의 패턴을 검출하는 방법의 구체적인 설명이다. 도2c는 이러한 패턴을 손바닥에 투사한 것을 촬영한 256 그레이 레벨 이미지이다. 촬영하는 카메라의 초점을 손바닥에 맞췄기 때문에 도2c에서 배경은 흐릿하게 보인다. 배경에 투사된 패턴은 배경이 손바닥보다 멀리 있어서 손바닥 위에 투사된 패턴보다 상대적으로 흐리고, 촬영하는 카메라의 초점이 손바닥에 맞춰있기 때문에 촬영된 이미지에는 거의 나타나지 않는다. 도2d는 도2c의 이미지에서 아래에 설명할 패턴 검출 알고리즘에 의해 구한 패턴 부분을 밝게 표시하고 패턴이 아닌 부분을 검게 표시한 결과 이미지이다.
촬영한 이미지의 각 픽셀은 패턴의 흰 부분, 패턴의 검은 부분, 그리고 패턴이 아닌 배경 부분의 3 종류로 분류될 수 있다. 이러한 각 픽셀에 있어서 패턴에 관한 특성값 (ID)를 다음과 같이 정의 하자.
픽셀 | ID |
검은 패턴의 픽셀 | -1 |
흰 패턴의 픽셀 | 1 |
패턴이 아닌 픽셀 | 0 |
촬영한 이미지에서 패턴 영역을 찾는 일은 각 픽셀의 ID를 구한 후 인접한 픽셀들의 ID와의 관계를 조사함으로써 이루어질 수 있다.
각 픽셀의 ID는 다음과 같이 구한다. 우선 촬영된 이미지에서 패턴을 이루는 동일 크기의 흑과 백의 정사각형의 한 변의 길이를 도2e에 표시된 것과 같이 d라 하자. 도2e는 도2c의 손에 투사된 패턴 부분을 확대한 것이다. 촬영된 이미지에서 좌표가 (x,y)인 지점(도2f에서 0번 영역의 중심)의 픽셀이 도2f에 표시된 것과 같이 흰색 패턴을 이루는 픽셀이라고 가정하자. 그러면 그 픽셀로부터 수직방향으로 위 아래, 수평 방향으로 좌우로 d만큼 떨어진 픽셀들(도2f에서 2, 4, 5, 7번 영역의 중심 픽셀들)은 검은색 패턴을 이루는 픽셀들이고 대각선 방향에 있는 픽셀들(도2f에서 1, 3, 6, 8번 영역의 중심 픽셀들)은 흰색 패턴을 이루는 픽셀들이다. 256 그레이 이미지에서 흰색의 픽셀 값은 255이고 검은 색은 0 이고 회색은 0과 255 사이의 값이므로 {(흰색 영역의 평균 픽셀값) - 검은색 영역의 픽셀값)}은 0보다 큰 값이 된다. 즉, {(0,1,3,6,8 영역의 중심 픽셀들의 평균 픽셀값) - (2,4,5,7 영역의 중심 픽셀들의 평균 픽셀값)}이 크면 클수록 0번 영역이 흰색 패턴의 영역일 확률이 크다고 할 수 있다. 여기서, 앞의 수직선 패턴의 용어를 사용하면 (0, 1, 3, 6, 8 영역의 중심 픽셀들 = 중심이웃), (2, 4, 5, 7 영역의 중심 픽셀들 = 주변이웃)이 된다.
여기서, {(0, 1, 3, 6, 8 영역의 중심 픽셀들의 평균 픽셀값) - (2, 4, 5, 7 영역의 중심 픽셀들의 평균 픽셀값)}을 (x,y)지점의 픽셀의 패턴 필터값 F(x,y) 이라 하자.
반대로 0번 영역이 검은색 패턴 영역이라면 F 값은 음수가 된다. 이때 그 음수의 절대값이 크면 클수록 0번 영역이 검은색 패턴의 영역일 확률은 크다고 할 수 있다.
만약 0번 영역이 패턴이 아닌 배경 영역이라면 F 값은 대체로 0에 가까운 불규칙한 값이 된다.
그리고 패턴을 이루는 픽셀들의 밝기는 대체로 일정하고 배경을 이루는 픽셀들의 밝기는 불규칙하므로 "D1(x,y) = 0, 1, 3, 6, 8 영역의 중심 픽셀들의 픽셀값의 표준편차", "D2(x,y) = 2, 4, 5, 7 영역의 중심 픽셀들의 픽셀값의 표준편차"라고 정의하면 D1(x,y)+D2(x,y) 값은 (x,y)인 지점의 픽셀이 패턴을 구성하는 픽셀인 경우 0에 가까울 확률이 높고, (x,y)인 지점의 픽셀이 배경을 구성하는 픽셀인 경우에는 0보다 큰 값이 될 확률이 높다고 할 수 있다.
따라서 F(x,y)/(1+D1(x,y)+D2(x,y)) 값을 계산해서 그 값이 0에 가까우면 (x,y)인 지점의 픽셀은 배경 픽셀이고 0보다 크고 그 값이 어느 임계값 Cf보다 크면 흰색 패턴이고, 0보다 작고 그 절대값이 Cf보다 크면 검은색 패턴이라고 할 수 있다.
이때 D1(x,y)+D2(x,y)를 구하기 위한 계산량을 줄이기 위해서는 표준편차를 구하는 대신 픽셀값의 최대값과 최소값 사이의 차를 구하는 것이 효율적이다. 즉, [d1(x,y) = {(0,1,3,6,8 영역의 중심 픽셀들의 픽셀값의 최대값) - (0,1,3,6,8 영 역의 중심 픽셀들의 픽셀값의 최소값)}], [d2(x,y) = {(2,4,5,7 영역의 중심 픽셀들의 픽셀값의 최대값) - (2,4,5,7 영역의 중심 픽셀들의 픽셀값의 최소값)}]이라고 정의하면 계산량이 많은 F(x,y)/(1+D1(x,y)+D2(x,y)) 대신 F(x,y)/(1+d1(x,y)+d2(x,y))를 사용하는 것이 계산속도를 빠르게 할 수 있다.
F(x,y)/(1+d1(x,y)+d2(x,y))를 구체적으로 표현하면 다음과 같다. 이미지에서 좌표가 (x,y)인 지점의 픽셀의 밝기를 Img(x,y) 라 하자 그러면 0, 1, 3, 6, 8번 영역의 중심 픽셀들의 밝기는 각각 Img(x,y), Img(x-d,y-d), Img(x+d,y-d), Img(x-d,y+d), Img(x+d,y+d)이고 2, 4, 5, 7번 영역의 중심 픽셀들의 밝기는 각각 Img(x,y-d), Img(x-d,y), Img(x+d,y), Img(x,y+d) 이므로
F(x,y)={Img(x,y)+Img(x-d,y-d)+Img(x+d,y-d)+Img(x-d,y+d)+Img(x+d,y+d)}/5,
{Img(x,y-d)+Img(x-d,y)+Img(x+d,y)+Img(x,y+d)}/4,
d1(x,y)=max{Img(x,y),Img(x-d,y-d),Img(x+d,y-d),Img(x-d,y+d),Img(x+d,y+d)}-min{Img(x,y),Img(x-d,y-d),Img(x+d,y-d),Img(x-d,y+d),Img(x+d,y+d)},
d2(x,y)=max{Img(x,y-d),Img(x-d,y),Img(x+d,y),Img(x,y+d)}-min{Img(x,y-d),Img(x-d,y),Img(x+d,y),Img(x,y+d)}이다.
여기서 max{..}, min{..}는 {}안의 값들 중 각각 최대값과 최소값을 나타낸다. 이러한 필터값 F(x,y)/(1+d1(x,y)+d2(x,y))를 f(x,y)로 정의하자. 그러면 f(x,y)로부터 ID를 구하는 방법은 다음과 같다. Cf<f(x,y) 이면 좌표가(x,y)인 지점은 흰색 패턴 픽셀일 확률이 높으므로 ID(x,y)=1 로 정한다.
f(x,y)<-Cf 이면 좌표가 (x,y)인 지점은 검은색 패턴 픽셀일 확률이 높으므로 ID(x,y)=-1 로 정한다. -Cf ≤f(x,y) ≤Cf 이면 좌표가 (x,y)인 지점은 배경 픽셀일 확률이 높으므로 ID(x,y)=0 으로 정한다. 여기서 ID(x,y)는 좌표가 (x,y)인 지점의 픽셀의 ID값이다.
Cf값을 결정하는 방법은 다음과 같다. 모든 픽셀에 대해서 f(x,y) 값을 구한 후 그 절대값 |f|의 히스토그램 h를 구한다. 히스토그램 h를 그래프로 표시하면 도2g와 같다. 즉 |f|는 0부터 최대값 M 사이의 값을 갖는다. |f|가 0일 때 히스토그램 그래프가 최대이고 |f|가 증가할수록 히스토그램 값은 점차 감소한다. 0과 M사이의 값 Cf를 선택해서 0부터 Cf까지 히스토그램 값을 모두 합한 값 a와 Cf부터 M까지 히스토그램 값을 모두 합한 값 b를 구한다. 이와 같이 히스토그램 값을 합하는 것은 히스토그램 그래프 h를 적분해서 그래프와 수평좌표축 사이의 면적을 구하는 것과 같다. 이를 구체적으로 표시하면 다음과 같다.
이렇게 구한 a,b를 합한 값 a+b는 이미지를 구성하는 모든 픽셀의 수에 해당하고, a는 배경에 해당하는 픽셀의 수에 해당하고, b는 패턴에 해당하는 픽셀의 개수에 해당한다. 인식하고자 하는 물체가 촬영된 이미지에서 차지하는 면적이 어느 정도인지 아는 경우 그 면적이 b가 되도록 Cf값을 정하면 된다. 예를 들어서 움 직이는 손을 촬영해서 그 움직임을 인식해서 마우스 기능을 구현하는 경우 (이미지에서 손이 차지하는 면적/전체 이미지 면적) = b/(a+b)가 되게 Cf를 선택하면 된다. 인식하고자 하는 물체가 촬영된 이미지에서 차지하는 면적을 미리 알 수 없는 경우에는 Cf값을 변화시키면서 인식을 해서 가장 인식이 잘될 경우의 Cf를 선택하면 된다. 이렇게 구한 ID(x,y)가 0이면 좌표가 (x,y)인 픽셀은 배경이라고 판정하고, ID(x,y)가 -1 또는 1이면 주위의 ID 값과 관계를 조사해서 좌표가 (x,y)인 픽셀이 패턴 영역인지를 판정한다. 여기서 ID(x,y)가 -1 또는 1일 때 주위의 ID 값과의 관계를 더 조사하는 이유는 구해진 ID값이 패턴과 비슷한 형태의 배경의 픽셀값에 의해 우연히 -1 또는 1이라는 값으로 구해졌을 수도 있기 때문이다.
주위의 ID와의 관계를 조사하는 원리는 다음과 같다. 만약 구해진 -1 또는 1이라는 ID(x,y) 값이 패턴에 의한 것이라면 좌표 (x,y) 주위의 픽셀에서도 ID값이 규칙적인 형태로 -1 또는 1이 분포되어 있어야 한다. 그리고 만약에 배경의 불규칙한 픽셀값에 의해 우연히 ID(x,y)가 -1 또는 1이 된 것이라면 그 주위의 픽셀의 ID는 불규칙한 분포를 나타낼 것이다. 따라서 ID값의 이미지 위에서의 분포의 규칙적인 정도를 측정하면 패턴 영역인지 또는 배경 영역인지를 판정할 수 있다. 위의 도2f에서 좌표가(x,y)인 픽셀을 예로 들면 다음과 같다. 도2f 에 표시된 0, 1, 3, 6, 8번 영역의 ID는 1이고 2, 4, 5, 7번 영역의 ID는 -1이다. 이 경우 (1,3,6,8번 영역의 중심 픽셀들의 ID의 합)-(2,4,5,7번 영역의 중심 픽셀들의 ID의 합)을 구해서 R이라 표시하자. 그러면 0번 영역이 흰 패턴인 경우 R 값이 8로 최대가 된다. 만약 0번 영역이 검은색 패턴라면 R값은 최소값 -8이 된다. 그리고 0번 영역과 그 주변이 불규칙한 배경이라면 R 값은 0에 가까운 값이 된다. 1, 3, 6, 8번 영역의 ID는 각각 ID(x-d,y-d), ID(x+d,y-d), ID(x-d,y+d), ID(x+d,y+d) 이고 2, 4, 5, 7번 영역의 ID는 각각 ID(x,y-d), ID(x-d,y), ID(x+d,y), ID(x,y+d) 이므로 R은 다음과 같이 표시된다.
R(x,y)={ID(x-d,y-d)+ID(x+d,y-d)+ID(x-d,y+d)+ID(x+d,y+d)} - {ID(x,y-d)+ID(x-d,y)+ID(x+d,y)+ID(x,y+d)}
이러한 R(x,y)의 절대값 |R(x,y)|이 클수록 좌표가 (x,y)인 픽셀은 패턴일 확률이 크다고 할 수 있다. 또한 ID(x-d,y-d), ID(x+d,y-d), ID(x-d,y+d), ID(x+d,y+d), ID(x,y-d), ID(x-d,y), ID(x+d,y), ID(x,y+d) 중 0인 ID수 즉 배경인 픽셀 수를 N(x,y) 라고 정의하면 N(x,y) 값이 작을수록 패턴일 확률이 크게 된다. 델타 함수 δ(x) 의 기호를 사용하면 N(x,y)는 다음과 같이 표시된다. 여기서 델타 함수는 x가 0이면 δ(x) = 1 이고 그 외의 x에서는 δ(x) = 0 인 함수이다.
N(x,y) = δ(ID(x-d,y-d)) + δ(ID(x+d,y-d)) + δ(ID(x-d,y+d)) + δ(ID(x+d,y+d)) + δ(ID(x,y-d)) + δ(ID(x-d,y)) + δ(ID(x+d,y)) + δ(ID(x,y+d)).
따라서 최종 평가값 g(x,y)를 g(x,y) = |R(x,y)| - N(x,y) 라고 정의하면 g(x,y)값은 -8에서 8 사이의 값이고 그 값이 크면 클수록 좌표가 (x,y)인 픽셀은 패턴일 확률이 크다고 할 수 있다. 모든 픽셀에 대해서 이와 같은 g(x,y) 값을 구해서 임계값 Cg 보다 크면 패턴이라고 판정한다. 도2d의 결과 이미지를 구하는데 임계값 Cg 는 1로 선택했다. 이러한 임계값을 정하는 방법은 임계값을 조금씩 변화 시키면서 패턴 영역을 구해서 구한 패턴 영역이 실제 패턴 영역과 가장 근접할 때의 임계값을 선택하면 된다. 임계값 Cg를 구하는 다른 방법은 도2에서 ID를 구하기 위한 임계값 Cf를 구하는 방법과 같이 평가값 g(x,y) 의 히스토그램을 구해서 인식하고자 하는 물체가 촬영된 이미지에서 차지하는 면적과 전체 이미지 면적의 비율을 이용하면 된다. 이와 같이 판정한 결과로 패턴인 픽셀은 흰색으로 표시하고 패턴이 아닌 픽셀은 검은 색으로 표시를 한 것을 도 2d에 나타냈다. 도2d에서 흰 픽셀들의 분포를 패턴인식 알고리즘으로 인식해서 손의 모양을 알아낼 수 있다. 패턴 인식은 문자인식, 수화 인식, 얼굴 인식 그리고 지문 인식 등의 분야의 공지 기술이다. 투사하는 패턴의 크기를 작게 하고 투사 광원의 출력을 높이고 카메라의 해상도를 크게 해서 미세한 패턴을 선명하게 촬영하면 손의 모양을 자세히 알아낼 수 있다. 이러한 패턴 검출 알고리즘은 컴퓨터, 마이컴 또는 전용 하드웨어에 의해 수행될 수 있다.
본 발명에 의한 패턴 영상 투사에 의한 물체인식 장치에 의하면, 물체에 별도의 추적 센서를 부착함 없이도 물체를 추적하여 인식할 수 있다. 현재 데이터 글러브를 사용한 수화 인식 장치가 있지만 손에 고가의 데이터 글러브를 착용해야만 하는 단점이 있다. 본 장치를 사용하면 손에 특별한 장치를 부착하지 않고도 투사된 패턴을 검출함으로써 다양한 배경과 조명 상태에서 손 동작을 인식할 수 있다. 이러한 손 동작 인식 장치는 핸드폰, PDA 또는 현재 개발중인 손목시계형 마이크로 PDA의 입력 장치에도 활용될 수 있다. 현재 개발되고 있는 마이크로 PDA 는 안경형 디스플레이 장치와 입력 장치로는 반지형 공간 위치 추적 센서를 채용하는 것으로 되어 있다. 본 발명과는 달리 이러한 장치는 반드시 손에 반지를 부착해야 하는 불편함이 있다. 이러한 손동작 입력 장치는 마우스나 키보드가 없는 공공 장소의 PC의 입력 장치로 사용될 수 있다. 공공장소의 마우스나 키보드 또는 터치 스크린은 여러 사람의 손때가 묻기 때문에 위생상 불결해지기 쉽고 자주 청소를 해야 하는 번거로움이 있으나 본 발명에 의한 입력 장치는 비접촉식이므로 그러한 단점을 극복할 수 있고 무리한 힘을 가하는 접촉에 의한 파손의 염려가 없어서 반영구적으로 사용할 수 있다. 또한 키보드나 마우스를 설치할 공간이 없어도 되므로 PC설치 공간을 최소화할 수 있다.
Claims (21)
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 추출하고자 하는 물체(인식대상 물체)가 있는 영역에 특정 패턴의 영상을 투사하는 단계와, 투사된 상기 패턴 영상을 촬영하는 단계와, 촬영된 이미지가 패턴 영역인지 아닌지를 판정하는 단계를 포함하는 물체인식 방법으로서,상기 패턴 영역 판정 단계는,(i) 촬영된 이미지 내의 소정 영역 내에서 어느 한 픽셀 및 이에 이웃하는 픽셀들을 선택하되, 선택된 픽셀들의 위치점 p(x,y)를 중심이웃과 주변이웃으로 나눠서 중심이웃을 이루는 픽셀들의 밝기 및 주변이웃의 밝기에 따라 평가함수 f(p)를 구하는 단계,(ii) 모든 점에 대해서 구한 평가함수 f(p)를 임의의 임계값 Cf를 기준으로 (1) f(p)<-Cf, (2) -Cf<f(p)<Cf, (3) Cf<f(p)의 세 가지 경우에 대해 판단하여 모든 점 p에서 f(p)를 위의 세 가지 경우에 대해 각 점 p에서의 ID값을 정하여 양자화하는 단계,(iii) 상기 (ii) 단계에서 (2) -Cf<f(p)<Cf인 경우에 해당되는 점은 패턴을 이루는 점이 아니라고 판정하고, 상기 (ii) 단계의 각 점 P에 대해 정해진 ID값으로 최종 평가함수 g(p)를 구하여, 상기 (1) f(p)<-Cf 및 (3) Cf<f(p)의 경우에 해당되는 점은, 최종평가함수 g(p)의 절대값이 임의의 임계값 Cg보다 클 경우에는 패턴영역 내의 점이라고 판정하고 g(p)의 절대값이 Cg보다 작을 경우에는 패턴영역 내의 점이 아니라고 판정하는 단계를 포함하는, 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 패턴은 수평선 또는 수직선 또는 체스판무늬인 것을 특징으로 하는, 패턴영상 투사에 의한 물체인식 방법.
- 제12 또는 13항에 있어서, 상기 평가함수 f(p)는f(p) = (점 p의 중심이웃의 밝기 - 점 p의 주변이웃의 밝기)/(1 + 점 p의 중심이웃의 밝기의 표준편차 + 점 p의 주변이웃의 밝기의 표준 편차)로 구해지는 것을 특징으로 하는, 패턴영상 투사에 의한 물체인식 방법.
- 제12 또는 13항에 있어서, 상기 평가함수 f(p)는f(p) = (점 p의 중심이웃의 밝기 - 점 p의 주변이웃의 밝기)/(1 + 점 p의 중심이웃의 최대 밝기값과 최소 밝기값의 차이값 + 점 p의 주변이웃의 최대 밝기값과 최소 밝기값의 차이값)으로 구해지는 것을 특징으로 하는, 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 임계값 Cf는Cf 값을 조금씩 변화시키며 Cf < |f(p)|인 점들 p를 구해서 그 점들의 영역이 실제 패턴 영역과 가장 비슷하게 될 때의 Cf 값을 선택함으로써 결정되는 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 임계값 Cf는모든 픽셀에 대해서 f(x,y) 값을 구한 후 그 절대값 |f|가 0부터 최대값 M 사이의 값을 갖는 히스토그램 h를 구하는 단계,0과 M사이의 값 Cf를 선택해서 0부터 Cf까지 히스토그램 값을 모두 합한 값 a와 Cf부터 M까지 히스토그램 값을 모두 합한 값 b를 구하는 단계,(촬영된 영상에서 인식할 물체가 차지하는 면적/전체 영상의 면적) = b/(a+b)가 되게 Cf를 선택하는 단계로 구성되는 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 단계 (ii)의 양자화 단계에서,f(p)<-Cf인 경우의 ID는 -1, -Cf< f(p)< Cf인 경우의 ID는 0, Cf<f(p)인 경우의 ID는 1인 것을 특징으로 하는 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 단계 (iii)의 최종평가함수 g(p)는g(p)=(점 p의 중심이웃의 ID 평균값)-(점 p의 주변이웃의 ID 평균값)으로 구해지는 것을 특징으로 하는 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 임계값 Cg는Cg 값을 조금씩 변화시키며 Cg < |g(p)|인 점들 p를 구해서 그 점들의 영역이 실제 패턴 영역과 가장 비슷하게 될 때의 Cg 값을 선택함으로써 결정되는 것을 특징으로 하는 패턴영상 투사에 의한 물체인식 방법.
- 제12항에 있어서, 상기 임계값 Cg는모든 픽셀에 대해서 g(p) 값을 구한 후 그 절대값 |g|가 0부터 최대값 M 사이의 값을 갖는 히스토그램 h를 구하는 단계,0과 M사이의 값 Cg를 선택해서 0부터 Cg까지 히스토그램 값을 모두 합한 값 a와 Cg부터 M까지 히스토그램 값을 모두 합한 값 b를 구하는 단계,(촬영된 영상에서 인식할 물체가 차지하는 면적/전체 영상의 면적) = b/(a+b)가 되게 Cg를 선택하는 단계로 구성되는 것을 특징으로 하는 패턴영상 투사에 의한 물체인식 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040012742A KR100593606B1 (ko) | 2004-02-25 | 2004-02-25 | 패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040012742A KR100593606B1 (ko) | 2004-02-25 | 2004-02-25 | 패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050087125A KR20050087125A (ko) | 2005-08-31 |
KR100593606B1 true KR100593606B1 (ko) | 2006-06-28 |
Family
ID=37270450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040012742A KR100593606B1 (ko) | 2004-02-25 | 2004-02-25 | 패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100593606B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150009700A (ko) * | 2013-07-17 | 2015-01-27 | 현대모비스 주식회사 | 적외선 카메라를 이용한 차량 제어 방법 및 이를 위한 장치 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101423536B1 (ko) * | 2011-06-14 | 2014-08-01 | 한국전자통신연구원 | 인쇄매체 기반 혼합현실 구현 장치 및 방법 |
KR101446902B1 (ko) * | 2011-08-19 | 2014-10-07 | 한국전자통신연구원 | 사용자 인터랙션 장치 및 방법 |
KR102198934B1 (ko) * | 2019-07-30 | 2021-01-05 | 주식회사 다윈테크 | 3d 스캐너 장치 |
CN112364766B (zh) * | 2020-11-11 | 2023-10-24 | 南京音飞储存设备(集团)股份有限公司 | 一种基于结构光与AprilTag的位姿识别方法及系统 |
-
2004
- 2004-02-25 KR KR1020040012742A patent/KR100593606B1/ko not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150009700A (ko) * | 2013-07-17 | 2015-01-27 | 현대모비스 주식회사 | 적외선 카메라를 이용한 차량 제어 방법 및 이를 위한 장치 |
KR102083682B1 (ko) | 2013-07-17 | 2020-03-02 | 현대모비스 주식회사 | 적외선 카메라를 이용한 차량 제어 방법 및 이를 위한 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20050087125A (ko) | 2005-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10204262B2 (en) | Infrared imaging recognition enhanced by 3D verification | |
Levesque et al. | Experimental evidence of lateral skin strain during tactile exploration | |
Kuno et al. | Automated detection of human for visual surveillance system | |
US9720511B2 (en) | Hand and object tracking in three-dimensional space | |
US8059870B2 (en) | Time-of-flight sensor-assisted iris capture system and method | |
US8798333B2 (en) | Methods for performing biometric recognition of a human eye and corroboration of same | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
CN108537131B (zh) | 一种基于人脸特征点和光流场的人脸识别活体检测方法 | |
US20050084179A1 (en) | Method and apparatus for performing iris recognition from an image | |
JP2003178306A (ja) | 個人認証装置および個人認証方法 | |
KR20090037275A (ko) | 인체 부분 검출 장치 및 그 방법 | |
Labati et al. | Weight estimation from frame sequences using computational intelligence techniques | |
CN105744152A (zh) | 被摄体追踪设备、摄像设备和被摄体追踪方法 | |
CN101398896A (zh) | 用于成像设备的提取有强识别力的颜色特征的设备和方法 | |
KR20180123990A (ko) | 임프린트를 캡처하기 위한 장치 | |
JP5254897B2 (ja) | 手画像認識装置 | |
CN113409334B (zh) | 一种基于质心的结构光角点检测方法 | |
KR100593606B1 (ko) | 패턴영상 투사에 의한 물체인식 장치 및 이에 적용되는영상처리 방법 | |
KR101290517B1 (ko) | 촬영장치 및 이의 대상 추적방법 | |
Hadi et al. | Fusion of thermal and depth images for occlusion handling for human detection from mobile robot | |
JP2017199148A (ja) | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム | |
JP3607440B2 (ja) | ジェスチャー認識方法 | |
CN113645404A (zh) | 一种自动对焦方法、系统、智能设备、计算机设备及计算机可读存储介质 | |
JPH11283036A (ja) | 対象物検出装置及び対象物検出方法 | |
KR101711307B1 (ko) | 깊이정보 기반의 안면인식 휴대장치 또는 컴퓨터 기기 잠금해제시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |