KR102461438B1 - 짐 인식 장치 및 그 동작 방법 - Google Patents

짐 인식 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102461438B1
KR102461438B1 KR1020210008527A KR20210008527A KR102461438B1 KR 102461438 B1 KR102461438 B1 KR 102461438B1 KR 1020210008527 A KR1020210008527 A KR 1020210008527A KR 20210008527 A KR20210008527 A KR 20210008527A KR 102461438 B1 KR102461438 B1 KR 102461438B1
Authority
KR
South Korea
Prior art keywords
points
photographing data
load
point cloud
area
Prior art date
Application number
KR1020210008527A
Other languages
English (en)
Other versions
KR20220105769A (ko
Inventor
강세진
박재홍
Original Assignee
주식회사 와이즈오토모티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이즈오토모티브 filed Critical 주식회사 와이즈오토모티브
Priority to KR1020210008527A priority Critical patent/KR102461438B1/ko
Publication of KR20220105769A publication Critical patent/KR20220105769A/ko
Application granted granted Critical
Publication of KR102461438B1 publication Critical patent/KR102461438B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 짐을 인식하는 장치 및 그 동작 방법에 관한 것으로서, 구체적으로는 사람이 박스 등의 물건을 들고 있는지 여부를 인식하는 기술에 관한 것이다. 본 발명의 일 측면에 따르면, TOF(Time of Flight) 카메라를 이용하여 사람을 촬영한 촬영 데이터를 외부 장치로부터 수신하는 수신부; 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성하는 촬영 데이터 처리부; 3D 포인트 클라우드로부터 평면 영역을 검출하는 평면 영역 검출부; 및 평면 영역의 좌표 정보 및 무게 중심을 비교하여 평면 영역이 짐의 일 면에 해당하는 것으로 판단하는 짐 인식부를 포함하는, 짐 인식 장치가 제공된다.

Description

짐 인식 장치 및 그 동작 방법{Apparatus and method for recognizing object}
본 발명은 짐을 인식하는 장치 및 그 동작 방법에 관한 것으로서, 구체적으로는 사람이 박스 등의 물건을 들고 있는지 여부를 인식하는 기술에 관한 것이다.
사람의 접근을 인식하여 건물의 출입문, 자동차의 문, 트렁크 등을 열어주는 도어 자동화 시스템이 다양한 분야에서 사용되고 있다. 하지만, 단순히 사람의 접근만을 인식하여 도어를 오픈하는 자동화 시스템은 사용자의 의도와 상관없이 도어가 오픈되는 오작동의 가능성이 많다. 즉, 사람이 박스 등의 짐을 들고 있는 상황을 인지함으로써 오작동의 가능성을 줄일 필요가 있다.
따라서, 본 발명의 목적은 사람이 박스 등의 짐을 들고 있는지 여부를 인지하는 기술을 제공하는 것이다.
또한, 본 발명의 목적은 사람이 박스 등의 짐을 들고 있는지를 인지하여 건물의 출입문, 자동차의 문, 트렁크 등을 오픈하는 기술을 제공하는 것이다.
또한, 본 발명은 TOF 카메라를 이용하여 촬영된 촬영 데이터로부터 짐을 인식하는 기술을 제공하는 것이다.
본 발명의 일 측면에 따르면, TOF(Time of Flight) 카메라를 이용하여 사람을 촬영한 촬영 데이터를 외부 장치로부터 수신하는 수신부; 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성하는 촬영 데이터 처리부; 3D 포인트 클라우드로부터 평면 영역을 검출하는 평면 영역 검출부; 및 평면 영역의 좌표 정보 및 무게 중심을 비교하여 평면 영역이 짐의 일 면에 해당하는 것으로 판단하는 짐 인식부를 포함하는, 짐 인식 장치가 제공된다.
일 실시예에서, 촬영 데이터 처리부는 촬영 데이터 중 기준 픽셀 강도 이상의 촬영 데이터만을 기반으로 3D 포인트 클라우드를 생성할 수 있다.
일 실시예에서, 촬영 데이터 처리부는 촬영 데이터 중 미리 설정된 ROI(Region of Interest)에 해당하는 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성할 수 있다.
일 실시예에서, 평면 검출부는 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 3 개 이상의 3D 포인트를 임의로 선택하고, 선택된 3D 포인트들이 형성하는 평면과 나머지 3D 포인트들의 거리를 기반으로 평면 영역을 검출할 수 있다.
일 실시예에서, 평면 검출부는 나머지 3D 포인트들 중 선택된 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 설정된 개수 이상이면, 미리 설정된 거리 이하인 3D 포인트들에 의해 형성되는 영역을 평면 영역으로 검출할 수 있다.
일 실시예에서, 평면 검출부는 선택된 3 개 이상의 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 서정된 개수 이상을 만족할 때까지, 다시 3개 이상의 3D 포인트를 선택할 수 있다.
일 실시예에서, 짐 인식 장치는 평면 검출부가 미리 설정된 횟수 이상 반복하여 3개 이상의 3D 포인트를 다시 선택한 경우, 촬영 데이터에는 짐이 포함되지 않은 것으로 판단할 수 있다.
일 실시예에서, 평면의 짐의 일 면으로 판단되면, 도어를 오픈하는 제어 신호를 생성하는 제어 신호 생성부를 더 포함할 수 있다.
일 실시예에서, 짐 인식부는 평면 영역의 중심 좌표와 무게 중심이 미리 설정된 오차 범위 이내이면, 평면의 짐의 일 면으로 판단할 수 있다.
또한, 본 발명의 다른 측면에 따르면, 가) TOF 카메라를 이용하여 사람을 촬영한 촬영 데이터를 외부 장치로부터 수신하는 단계; 나) 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성하는 단계; 다) 3D 포인트 클라우드로부터 평면 영역을 검출하는 단계; 및 라) 평면 영역의 좌표 정보 및 무게 중심을 비교하여 평면 영역이 짐의 일 면에 해당하는 것으로 판단하는 단계를 포함하는 짐 인식 장치 동작 방법이 제공된다.
본 발명의 실시예에 따르면 사람이 박스 등의 짐을 들고 있는지 여부를 인지하는 것이 가능하게 된다.
또한, 본 발명의 다른 실시예에 다르면, 사람이 박스 등의 짐을 들고 있는지를 인지하여 건물의 출입문, 자동차의 문, 트렁크 등을 오픈하는 것이 가능하게 된다.
또한, 본 발명의 다른 실시예에 따르면, TOF 카메라를 이용하여 촬영된 촬영 데이터로부터 짐을 인식하는 것이 가능하게 된다.
도 1은 본 발명의 일 실시예에 따른 짐 인식 시스템을 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 짐 인식 장치의 블록도.
도 3은 본 발명의 일 실시예에 따른 짐 인식 방법의 흐름도.
도 4는 본 발명의 다른 실시예에 따른 평면 영역 검출 방법의 흐름도.
도 5 및 도 6은 본 발명의 다른 실시예에 따른 짐 인식 시스템을 설명하기 위한 도면.
도 7은 본 발명의 다른 실시예에 따른 짐 인식 시스템의 블록도.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이하, 본 발명의 바람직한 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 짐 인식 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 짐 인식 시스템(1000)은 센서(1100), TOF(Time of Flight) 카메라(1200), 짐 인식 장치(1300) 및 도어 장치(1400)를 포함할 수 있다.
센서(1100)는 사람의 접근을 인식할 수 있다. TOF 카메라(1200)는 사람의 접근이 인식되면 촬영하여 촬영 데이터를 생성할 수 있다. 여기서, 촬영 데이터는 픽셀 정보 및 해당 픽셀의 거리를 알 수 있는 시간 정보를 포함할 수 있다. 짐 인식 장치(1300)는 촬영 데이터로부터 짐을 인식함으로써 사람이 짐을 들고 있는지 여부를 판단할 수 있다. 도어 장치(1400)는 사람이 짐을 들고 있는 것으로 판단되면, 건물의 출입문, 차량의 문, 트렁크 등을 오픈할 수 있다.
일 실시예에서, 센서(1100)는 TOF 카메라(1200)의 촬영 영역(1500)으로 사람이 접근하는지 여부를 센싱하기 위한 적외선 센서, 동작 감지 센서 등일 수 있다.
도 2는 본 발명의 일 실시예에 따른 짐 인식 장치의 블록도이다.
도 2를 참조하면, 짐 인식 장치(1300)는 수신부, 촬영 데이터 처리부, 평면 영역 검출부, 짐 인식부, 제어 신호 생성부 및 송신부를 포함할 수 있다.
수신부는 촬영 데이터를 수신할 수 있다. 구체적으로, 수신부는 유무선 통신 수단을 통해 TOF 카메라(1200) 또는 외부 장치로부터 촬영 데이터를 수신할 수 있다.
촬영 데이터 처리부는 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성할 수 있다. 구체적으로, 촬영 데이터 처리부는 촬영 데이터를 깊이 정보를 포함하는 공간 데이터로 변환하고, 변환된 공간 데이터를 이용하여 3D 포인트 클라우드를 생성할 수 있다.
일 실시예에서, 촬영 데이터 처리부는 촬영 데이터를 필터링할 수 있다. 구체적으로, 촬영 데이터 처리부는 촬영 데이터 중 짐 영역이 아닐 가능성이 높은 영역인 픽셀의 강도가 낮은 영역 즉, 미리 설정된 픽셀 강도 이하인 촬영 데이터를 제외하여 3D 클라우드를 생성할 수 있다. 또한, 촬영 데이터 처리부는 3D 포인트 클라우드를 생성한 후 픽셀 강도가 낮은 영역을 제외시킬 수 있다. 이는 사람의 박스 형태의 짐을 들고 있는 경우, TOF 카메라(1200) 위치를 기준으로 전면에 보이는 박스의 일 면에 해당하는 픽셀들의 강도가 높을 것이기 때문이다.
일 실시예에서, 촬영 데이터 처리부는 촬영 데이터 중 관심 영역(ROI, Region of Interest) 즉, 짐이 위치할 것으로 예측되는 영역에 해당하는 촬영 데이터만을 이용하여 3D 포인트 클라우드를 생성할 수 있다. 예를 들어, 이러한 관심 영역은 사람의 평균적인 키 및 사람이 짐을 두 손으로 들 경우, 짐이 위치하는 영역일 수 있으며, 이는 미리 설정되거나 가변될 수 있다.
일 실시예에서, 촬영 데이터의 필터링 및 관심 영역의 설정은 상호 선후하여 수행될 수 있다.
평면 영역 검출부는 3D 포인트 클라우드로부터 평면 영역을 검출할 수 있다. 구체적으로, 평면 영역은 검출부는 3D 포인트 클라우드로부터 짐의 일 면에 해당하는 평면 영역을 검출할 수 있다.
일 실시예에서, 평면 영역 검출부는 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 3 개 이상의 3D 포인트를 임의로 선택하고, 선택된 3D 포인트 들이 형성하는 평면에 대한 평면 방정식을 도출할 수 있다. 평면 영역 검출부는 평면 방정식을 기반으로, 선택된 3D 포인트 들이 형성하는 평면과 나머지 3D 포인트들 간의 거리를 계산할 수 있다. 평면 영역 검출부는 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 선택된 3D 포인트들이 형성하는 평면과 거리가 미리 설정된 기준(예, 5mm)이하인 3D 포인트들이 미리 설정된 개수 이상이면, 거리가 미리 설정된 기준이하인 3D 포인트들이 형성하는 영역을 평면 영역으로 검출할 수 있다. 도 5를 참조하면 나머지 3D 포인트들이 선택된 포인트들에 의해 형성되는 평면과 미리 설정된 거리 이내 다수 배치됨을 확인할 수 있다. 이때, 평면 영역 검출부는 RANSAC(Random Sample Consensus) 기법을 이용하여 3개 이상의 3D 포인트로 반복하여 선택함으로써, 평면 영역 검출을 반복할 수 있으며, TOF 카메라(1200)의 위치를 기준으로 가장 전면에 해당하는 평면 영역을 검출할 수 있다. 도 6을 참조하면, 빨간색으로 표시된 부분이 평면 영역으로 검출된 영역이다. 또한, 평면 영역 검출부는 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 선택된 3D 포인트들이 형성하는 평면과 거리가 미리 설정된 기준이하인 3D 포인트들이 미리 설정된 개수 이상이 아니면, 다시 3개의 3D 포인트를 다시 선택함으로 평면 영역을 검출활 수 있다. 이 경우, 평면 영역 검출부는 미리 결정된 횟수 이상 반복되면, 평면 영역 검출을 중단할 수 있으며, 이때 평면 영역 검출부는 평면 영역이 검출되지 않은 것으로 판단할 수 있다.
짐 인식부는 검출된 평면 영역이 짐의 일 면에 해당하는지 판단할 수 있다. 구체적으로, 짐 인식부는 평면 영역의 좌표 정보(3D 포인트들이 배치된 좌표)를 기반으로 평면 영역의 중심 좌표를 계산하고, 평면 영역의 좌표 정보를 기반으로 짐의 무게 중심을 계산하여, 양자를 비교할 수 있다. 구체적으로, 짐 인식부는 중심 좌표와 무게 중심이 미리 설정된 오차 범위(예, 1cm) 이내 이면, 평면 영역은 짐의 일 면에 해당하는 것으로 인식할 수 있다.
일 실시예에서, 짐 인식부는 평면 영역이 검출되지 않은 경우, 짐이 없는 것으로 인식할 수 있다.
제어 신호 생성부는 도어를 오픈하는 제어 신호를 생성할 수 있다. 구체적으로, 제어 신호 생성부는 짐 인식 시스템(1000)의 도어를 오픈하기 위한 시스템인 경우, 짐의 일 면이 인식되면 사람이 짐을 들고 있는 것으로 판단하여, 도어를 오픈하기 위한 제어 신호를 생성할 수 있다.
송신부는 제어 신호 생성부에서 생성된 제어 신호를 도어 장치(1400) 등의 외부 장치로 전송할 수 있다.
도 3은 본 발명의 일 실시예에 따른 짐 인식 시스템의 동작 방법의 흐름도이다.
이하, 도 1 및 도 2에 도시된 짐 인식 시스템(1000)에 의해 도 3에 도시된 방법이 수행되는 것을 예시로 설명하는바, 도 1 및 도 2에 대한 설명이 도 3에 확장될 수 있다.
단계 S3100에서, 사람의 접근이 인식된다. 구체적으로, 짐 인식 시스템(1000)은 사람이 TOF 카메라(1200)의 촬영 영역 내로 사람이 접근하는지 여부를 인식할 수 있다.
단계 S3200에서, 사람이 촬영된다. 구체적으로, 짐 인식 시스템(1000)은 TOF 카메라(1200)를 이용하여 접근이 인식된 사람을 촬영하여 촬영 데이터를 생성할 수 있다.
단계 S3300에서, 3D 포인트 클라우드가 생성될 수 있다. 구체적으로, 짐 인식 시스템(1000)은 TOF 카메라(1200)를 통해 사람을 촬영한 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성할 수 있다.
단계 S3400에서, 평면 영역이 검출된다. 구체적으로, 짐 인식 시스템(1000)은 3D 포인트 클라우드로부터 평면 영역을 검출할 수 있다. 예를 들어, 짐 인식 시스템(1000)은 3D 포인트 클라우드를 구성하는 복수의 3D 포인트들 중 3개 이상의 3D 포인트들을 임의로 선택하고, 선택된 3D 포인트들이 구성하는 평면과 나머지 3D 포인트들간의 거리를 계산함으로써, 평면 영역을 검출할 수 있다.
단계 S3500에서, 짐의 일 면인지 여부가 확인된다. 구체적으로, 짐 인식 시스템(1000)은 검출된 평면 영역이 짐의 일 면에 해당하는지 인식할 수 있다. 예를 들어, 짐 인식 시스템(1000)은 검출된 평면 영역의 좌표 정보와 무게 중심을 비교함으로써, 검출된 평면 영역이 짐의 일 면에 해당하는지 인식할 수 있다.
단계 S3600에서, 짐 인식 시스템(1000)은 검출된 평면 영역이 짐의 일부로 인식되면, 사람이 짐을 들고 있는 것으로 판단할 수 있다.
단계 S3700에서, 짐 인식 시스템(1000)은 검출된 평면 영역이 짐의 일부로 인식되지 않으면, 사람이 짐을 들고 있지 않은 것으로 판단할 수 있다.
단계 S3800에서, 짐 인식 시스템(1000)은 사람이 짐을 들고 있는 것으로 판단되면, 도어를 오픈할 수 있다.
도 4는 본 발명의 일 실시예에 따른 평면 영역 인식 방법의 흐름도이다.
이하, 도 1 및 도 2에 도시된 짐 인식 시스템(1000)에 의해 도 4에 도시된 방법이 수행되는 것을 예시로 설명하는바, 도 1 및 도 2에 대한 설명이 도 4에 확장될 수 있다.
단계 S4100에서, 짐 인식 시스템(1000)은 3D 포인트 클라우드를 형성하는 복수의 3D 포인트 중 3개 이상의 3D 포인트들을 임의로 선택할 수 있다.
단계 S4200에서, 짐 인식 시스템(1000)은 선택된 3D 포인트들이 형성하는 평면에 대한 평면 방정식을 도출할 수 있다.
단계 S4300에서, 짐 인식 시스템(1000)은 평면 방정식을 기반으로 선택된 3D 포인트들과 나머지 3D 포인트들 간의 거리를 계산할 수 있다.
단계 S4400에서, 짐 인식 시스템(1000)은 나머지 3D 포인트들 중 기준 거리 이하인 3D 포인트의 개수가 미리 설정된 기준 개수 이상인지 여부를 판단할 수 있다. 짐 인식 시스템(1000)은 미리 설정된 기준 개수 미안이면, 다시 단계 S4100을 진행할 수 있다.
단계 S4500에서, 짐 인식 시스템(1000)은 나머지 3D 포인트들 중 기준 거리 이하인 3D 포인트의 개수가 미리 설정된 기준 개수 이상이면, 미리 설정된 기준 거리 이하인 3D 포인트들이 형성하는 영역을 평면 영역으로 검출할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 짐 인식 장치의 블록도이다.
도 7에 도시된 바와 같이, 짐 인식 장치(1300)는 프로세서(710), 메모리(720), 저장부(730), 사용자 인터페이스 입력부(740) 및 사용자 인터페이스 출력부(750) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(760)를 통해 서로 통신할 수 있다. 또한, 짐 인식 장치(1300)는 네트워크에 접속하기 위한 네트워크 인터페이스(770)를 또한 포함할 수 있다. 프로세서(710)는 메모리(720) 및/또는 저장소(730)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리(720) 및 저장부(730)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(724) 및 RAM(725)을 포함할 수 있다.
이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
1000 : 짐 인식 시스템
1100 : 센서
1200 : TOF 카메라
1300 : 짐 인식 장치
1400 : 도어 장치

Claims (18)

  1. TOF(Time of Flight) 카메라를 이용하여 사람을 촬영한 촬영 데이터를 외부 장치로부터 수신하는 수신부;
    상기 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성하는 촬영 데이터 처리부;
    상기 3D 포인트 클라우드로부터 평면 영역을 검출하는 평면 영역 검출부; 및
    상기 평면 영역의 3D 포인트들이 배치된 좌표를 기반으로 평면 영역의 중심 좌표를 계산하고, 상기 평면 영역의 3D 포인트들이 배치된 좌표를 기반으로 짐의 무게 중심을 계산하며, 상기 평면 영역의 중심 좌표와 짐의 무게 중심을 비교하여 상기 평면 영역이 짐의 일 면에 해당하는지 판단하는 짐 인식부;
    를 포함하는, 짐 인식 장치.
  2. 제1항에 있어서,
    상기 촬영 데이터 처리부는,
    상기 촬영 데이터 중 기준 픽셀 강도 이상의 촬영 데이터만을 기반으로 상기 3D 포인트 클라우드를 생성하는, 짐 인식 장치.
  3. 제1항에 있어서,
    상기 촬영 데이터 처리부는,
    상기 촬영 데이터 중 미리 설정된 ROI(Region of Interest)에 해당하는 촬영 데이터를 기반으로 상기 3D 포인트 클라우드를 생성하는, 짐 인식 장치.
  4. 제1항에 있어서,
    상기 평면 검출부는,
    상기 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 3 개 이상의 3D 포인트를 임의로 선택하고, 상기 선택된 3D 포인트들이 형성하는 평면과 나머지 3D 포인트들의 거리를 기반으로 상기 평면 영역을 검출하는, 짐 인식 장치.
  5. 제4항에 있어서,
    상기 평면 검출부는,
    상기 나머지 3D 포인트들 중 선택된 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 설정된 개수 이상이면, 상기 미리 설정된 거리 이하인 3D 포인트들에 의해 형성되는 영역을 상기 평면 영역으로 검출하는, 짐 인식 장치.
  6. 제5항에 있어서,
    상기 평면 검출부는,
    선택된 3 개 이상의 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 서정된 개수 이상을 만족할 때까지, 다시 3개 이상의 3D 포인트를 선택하는, 짐 인식 장치.
  7. 제6항에 있어서,
    상기 짐 인식 장치는,
    상기 평면 검출부가 미리 설정된 횟수 이상 반복하여 3개 이상의 3D 포인트를 다시 선택한 경우, 상기 촬영 데이터에는 짐이 포함되지 않은 것으로 판단하는, 짐 인식 장치.
  8. 제1항에 있어서,
    상기 평면 영역이 짐의 일 면으로 판단되면, 도어를 오픈하는 제어 신호를 생성하는 제어 신호 생성부를 더 포함하는, 짐 인식 장치.
  9. 제1항에 있어서,
    상기 짐 인식부는,
    상기 평면 영역의 중심 좌표와 무게 중심이 미리 설정된 오차 범위 이내이면, 상기 평면 영역을 상기 짐의 일 면으로 판단하는, 짐 인식 장치.
  10. 짐 인식 장치의 동작 방법에 있어서,
    가) TOF 카메라를 이용하여 사람을 촬영한 촬영 데이터를 외부 장치로부터 수신하는 단계;
    나) 상기 촬영 데이터를 기반으로 3D 포인트 클라우드를 생성하는 단계;
    다) 상기 3D 포인트 클라우드로부터 평면 영역을 검출하는 단계; 및
    라) 상기 평면 영역의 3D 포인트들이 배치된 좌표를 기반으로 평면 영역의 중심 좌표를 계산하고, 상기 평면 영역의 3D 포인트들이 배치된 좌표를 기반으로 짐의 무게 중심을 계산하며, 상기 평면 영역의 중심 좌표와 짐의 무게 중심을 비교하여 상기 평면 영역이 짐의 일 면에 해당하는지 판단하는 단계
    를 포함하는 방법.
  11. 제10항에 있어서,
    상기 나) 단계는,
    상기 촬영 데이터 중 기준 픽셀 강도 이상의 촬영 데이터만을 기반으로 상기 3D 포인트 클라우드를 생성하는, 방법.
  12. 제10항에 있어서,
    상기 나) 단계는,
    상기 촬영 데이터 중 미리 설정된 ROI(Region of Interest)에 해당하는 촬영 데이터를 기반으로 상기 3D 포인트 클라우드를 생성하는, 방법.
  13. 제10항에 있어서,
    상기 다) 단계는,
    상기 3D 포인트 클라우드를 구성하는 복수의 3D 포인트 중 3 개 이상의 3D 포인트를 임의로 선택하고, 상기 선택된 3D 포인트들이 형성하는 평면과 나머지 3D 포인트들의 거리를 기반으로 상기 평면 영역을 검출하는, 방법.
  14. 제13항에 있어서,
    상기 다) 단계는,
    상기 나머지 3D 포인트들 중 선택된 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 설정된 개수 이상이면, 상기 미리 설정된 거리 이하인 3D 포인트들에 의해 형성되는 영역을 상기 평면 영역으로 검출하는, 방법.
  15. 제14항에 있어서,
    상기 다) 단계는,
    선택된 3 개 이상의 3D 포인트들이 형성하는 평면과 미리 설정된 거리 이하인 3D 포인트들이 미리 서정된 개수 이상을 만족할 때까지, 다시 3개 이상의 3D 포인트를 선택하는, 방법.
  16. 제15항에 있어서,
    상기 라) 단계는,
    상기 평면 검출부가 미리 설정된 횟수 이상 반복하여 3개 이상의 3D 포인트를 다시 선택한 경우, 상기 촬영 데이터에는 짐이 포함되지 않은 것으로 판단하는, 방법.
  17. 제10항에 있어서,
    마) 상기 평면 영역이 짐의 일 면으로 판단되면, 도어를 오픈하는 제어 신호를 생성하는 단계를 더 포함하는, 방법.
  18. 제10항에 있어서,
    상기 라) 단계는,
    상기 평면 영역의 중심 좌표와 무게 중심이 미리 설정된 오차 범위 이내이면, 상기 평면 영역을 상기 짐의 일 면으로 판단하는, 방법.
KR1020210008527A 2021-01-21 2021-01-21 짐 인식 장치 및 그 동작 방법 KR102461438B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008527A KR102461438B1 (ko) 2021-01-21 2021-01-21 짐 인식 장치 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210008527A KR102461438B1 (ko) 2021-01-21 2021-01-21 짐 인식 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20220105769A KR20220105769A (ko) 2022-07-28
KR102461438B1 true KR102461438B1 (ko) 2022-11-01

Family

ID=82607575

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008527A KR102461438B1 (ko) 2021-01-21 2021-01-21 짐 인식 장치 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR102461438B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076943A (ja) 2015-10-16 2017-04-20 富士通株式会社 コンテンツ投影装置、コンテンツ投影方法及びコンテンツ投影プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101820299B1 (ko) * 2011-11-23 2018-03-02 삼성전자주식회사 3차원 데이터 영상의 계단 인식 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076943A (ja) 2015-10-16 2017-04-20 富士通株式会社 コンテンツ投影装置、コンテンツ投影方法及びコンテンツ投影プログラム

Also Published As

Publication number Publication date
KR20220105769A (ko) 2022-07-28

Similar Documents

Publication Publication Date Title
CN107451510B (zh) 活体检测方法和活体检测系统
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
US20190353774A1 (en) Object detection system, autonomous vehicle using the same, and object detection method thereof
KR101967305B1 (ko) 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
US10922565B2 (en) Passenger counting device, system, method and program
US20130075201A1 (en) Elevator control apparatus and method
TWI478107B (zh) 票閘控制裝置及方法
US9767365B2 (en) Monitoring system and method for queue
KR101858396B1 (ko) 지능형 침입 탐지 시스템
US20180039862A1 (en) Method and system for detecting an occupant in an image
US9710719B2 (en) Apparatus and method for image recognition
US20140347484A1 (en) Apparatus and method for providing surrounding environment information of vehicle
CN111095297B (zh) 人脸识别的装置、方法和电子设备
KR20200006757A (ko) 전자 장치의 객체 인증 장치 및 방법
CN106911922A (zh) 从单个传感器生成的深度图
CN102103696A (zh) 人脸辨识系统、方法及具有该系统的身份识别装置
US8977009B2 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
KR102461438B1 (ko) 짐 인식 장치 및 그 동작 방법
US11256910B2 (en) Method and system for locating an occupant
JP6331566B2 (ja) 人物頭部検知装置及び姿勢推定装置
US20140314328A1 (en) Data matching method and data matching module
CN210166794U (zh) 人脸识别的装置和电子设备
JP6296769B2 (ja) 物体検出装置
KR102485323B1 (ko) 차량 검출 장치, 그를 포함한 시스템 및 그 방법
CN110770739A (zh) 一种基于图像识别的控制方法、装置及控制设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant