KR20230015141A - 대상체 위치 추적 로봇 - Google Patents

대상체 위치 추적 로봇 Download PDF

Info

Publication number
KR20230015141A
KR20230015141A KR1020210096531A KR20210096531A KR20230015141A KR 20230015141 A KR20230015141 A KR 20230015141A KR 1020210096531 A KR1020210096531 A KR 1020210096531A KR 20210096531 A KR20210096531 A KR 20210096531A KR 20230015141 A KR20230015141 A KR 20230015141A
Authority
KR
South Korea
Prior art keywords
data
biometric
unit
photographing
robot
Prior art date
Application number
KR1020210096531A
Other languages
English (en)
Other versions
KR102592217B1 (ko
Inventor
배종호
최재연
손소은
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020210096531A priority Critical patent/KR102592217B1/ko
Publication of KR20230015141A publication Critical patent/KR20230015141A/ko
Application granted granted Critical
Publication of KR102592217B1 publication Critical patent/KR102592217B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

입구에 위치되어 입장하는 대상체를 촬영한 제1촬영데이터를 생성하는 제1촬영부, 출구에 위치되어 퇴장하는 대상체를 촬영한 제2촬영데이터를 생성하는 제2촬영부 및 상기 제1촬영데이터 및 제2촬영데이터를 수신하고, 상기 제1촬영데이터 및 상기 제2촬영데이터를 이용하여 상기 대상체의 특정 위치를 도출하며, 도출된 대상체의 특정 위치를 상기 제1촬영부 또는 제2촬영부로 전송하여, 상기 제1촬영부 및 제2촬영부가 대상체를 추적할 수 있도록 하며, 상기 제1촬영데이터 및 제2촬영데이터를 이용하여 생체정보를 연산하는 제어부를 포함하는 생체 인식 로봇이 개시된다.

Description

생체 인식 로봇{BIOMETRIC ROBOT}
본 기술은 생체를 인식할 수 있는 로봇에 관한 것이다. 특히 체형에 상관없이 움직이는 사람의 얼굴을 정확하게 인식하고 추적할 수 있는 생체 인식 로봇에 관한 것이다.
코로나의 예상치 못한 발병은 모든 것을 바꾸고 있다.
코로나는 비말 감염이 되는 질병으로 전염성이 매우 강한 질병이다. 코로나 이후의 세상은 마스크가 옷의 일부가 되었고, 외출 후 손을 씻는게 습관이 되었으며, 밀폐된 공간에서 활동이 제한되고는 한다.
밀폐된 공간에서 활동은 제한될 수 있으나, 생업 및 기타 다른 이유로 인하여 밀폐된 공간에서 활동을 하는 것 자체가 차단되는 것은 불가능하다.
그러기에 최근에는 최소한의 안전 수단으로 밀폐된 공간의 출입구에 체온을 측정하는 장치를 설치하여 정상적 체온을 가진 사람만을 입장시켜 코로나 감염을 예방하고 있다.
그러나 이와 같은 체온을 측정하는 장치는 여러가지 문제점을 가지고 있다.
우선 체온을 측정하는 장치가 표준체형에 맞춰서 제작된다는 것이다. 그러기에 표준 체형을 가지지 못한 사람, 예를 들면 어린이들은 상대적으로 체온 측정이 상대적으로 어려우며, 가사 체온이 측정된다 하여도 비정상적인 각도에서 체온이 측정되므로, 측정된 값의 신뢰성은 보장될 수 없다.
또한, 추적 관리 기능의 부재의 문제도 있다. 코로나는 잠복기를 가지므로, 당장의 체온 측정 결과가 정상적이라고 하더라도 코로나에 감염된 상태일 수 있다. 이러한 상태에서 밀폐된 공간으로 출입이 차단하는 것이 가장 좋은 방법이기는 하지만, 실제로는 이것은 불가능한 바, 코로나 감염자를 추적하여 전파를 차단하는 것이 바람직하다.
그러나 체온 측정 장치는 사람의 출입 여부를 결정할 때 체온을 측정하는 역할을 할 뿐, 입장한 사람의 데이터를 관리하는 기능은 없다. 그러므로 만약 코로나 감염자가 밀폐된 공간으로 출입 시 이를 추적하는 것이 어려워 코로나 전파를 차단하는 시간이 다소 길어지게 되어 코로나로 인한 피해가 커지는 문제점이 있었다.
국내 특허 등록번호 “10-2135633” 2020.07.14공개
본 발명은 전술한 문제점을 해결한 것으로 사람의 체형에 따라 촬영되는 위치가 변경되어 사람의 생체 조건을 정확하게 측정할 수 있는 생체 인식 로봇을 제공하는데 목적이 있다.
또한, 본 발명은 밀폐된 공간으로 출입하는 사람의 데이터를 관리할 수 있는 생체 인식 로봇을 제공하는데 목적이 있다.
일 실시예에 의한 생체 인식 로봇은 입구에 위치되어 입장하는 대상체를 촬영한 제1촬영데이터를 생성하는 제1촬영부, 출구에 위치되어 퇴장하는 대상체를 촬영한 제2촬영데이터를 생성하는 제2촬영부 및 상기 제1촬영데이터 및 제2촬영데이터를 수신하고, 상기 제1촬영데이터 및 상기 제2촬영데이터를 이용하여 상기 대상체의 특정 위치를 도출하며, 도출된 대상체의 특정 위치를 상기 제1촬영부 또는 제2촬영부로 전송하여, 상기 제1촬영부 및 제2촬영부가 대상체를 추적할 수 있도록 하며, 상기 제1촬영데이터 및 제2촬영데이터를 이용하여 생체정보를 연산하는 제어부를 포함한다.
상기 제1촬영부와 상기 제2촬영부는 프레임의 일측에 연결되어 있는 것을 특징으로 한다.
상기 프레임은 길이조절바와 연결되어 있어서, 상기 제어부의 제어신호에 따라 상기 길이조절바가 동작되어 높이가 변경될 수 있는 것을 특징으로 한다.
상기 제1촬영부 또는 제2촬영부는 제1평면 및 상기 제1평면과 교차되는 방향의 평면인 제2평면을 따라서 회전 가능하게 연결되는 것을 특징으로 한다.
상기 제어부는 상기 제1촬영데이터를 수신하고, 상기 제1촬영데이터의 각각의 픽셀의 밝기를 수치화한 밝기값을 설정하고, 상기 밝기값에 기설정된 조정값을 연산하여 상기 대상의 특정 위치를 인식하는 것을 특징으로 한다.
상기 제어부는 상기 조정값을 연산한 수정값을 연산하고, 상기 수정값이 기설정된 기준값보다 낮은 부분들의 픽셀들을 연결하여 특정 위치를 인식하는 것을 특징으로 한다.
제1시간과 제2시간에 상기 제1촬영데이터 또는 제2촬영데이터를 수신하고, 제1시간에 수신된 상기 제1촬영데이터 또는 제2촬영데이터와 제2시간에 상기 제1촬영데이터 또는 제2촬영데이터를 비교하여 상기 대상체의 움직임을 추적하는 것을 특징으로 한다.
상기 제어부는 상기 제1시간과 제2시간 각각에 수신된 제1촬영데이터 또는 제2촬영데이터의 픽셀의 변화를 연산하여 상기 대상체의 움직임을 추적하는 것을 특징으로 한다.
상기 제어부는 암호데이터를 생성하고, 상기 제1촬영데이터 또는 제2촬영데이터를 상기 암호데이터에 연결하여 저장하는 것을 특징으로 한다.
본 발명은 제1촬영부 및 제2촬영부가 제1평면, 제1평면과 교차되는 방향인 제2평면을 따라 회전 가능할 수 있으므로 체형에 따라 촬영되는 위치를 변경할 수 있어서 표준 체형이 아닌 사람도 정확하게 생체 조건을 측정할 수 있다.
또한, 본 발명은 밀폐된 공간으로 입장하는 사람 별로 데이터를 관리하고, 사람이 밀폐된 공간으로 입장할 때뿐만 아니라 퇴장할 때도 감지하고 기록하므로, 체계적으로 데이터를 관리할 수 있다.
또한, 본 발명은 체계적으로 관리된 데이터를 문제 상황 시 관리서버로 송신하므로, 문제 상황의 전파를 빠르게 차단하는데 도움이 될 수 있다.
도 1은 일 실시예에 의한 본 발명인 생체 감지 로봇의 구성을 블록도로 도시한 것이다.
도 2는 일 실시예에 의한 본 발명인 생체 감지 로봇의 정면도이다.
도 3은 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 길이조절바를 제어하는 것을 도시한 것이다.
도 4는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제1촬영부의 확대도이다.
도 5A는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 특정한 부분을 인지하기 위하여 가하는 알고리즘의 1단계를 도시한 것이며, 도 5b는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 특정한 부분을 인지하기 위하여 가하는 알고리즘의 2단계를 도시한 것이며, 도 5c는 도 5A, 5b의 알고리즘을 수행한 결과를 도시한 것이다.
도 6은 또 다른 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 수행하는 간략화 알고리즘을 도시한 것이다.
도 7은 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 대상체의 이동을 감지하는 것을 도시한 것이다.
이하, 본 발명의 일 실시예를 예시적인 도면을 통해 상세하게 설명한다. 그러나 이는 본 발명의 범위를 한정하려고 의도된 것은 아니다.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 도면에 도시된 구성요소의 크기나 형상 등은 설명의 명료성과 편의상 과장되게 도시될 수 있다. 또한, 본 발명의 구성 및 작용을 고려하여 특별히 정의된 용어들은 본 발명의 실시예를 설명하기 위한 것일 뿐이고, 본 발명의 범위를 한정하는 것이 아니다.
도 1은 일 실시예에 의한 본 발명인 생체 감지 로봇의 구성을 블록도로 도시한 것이다.
일 실시예에 의한 본 발명인 생체 감지 로봇은 제1촬영부(110), 제2촬영부(120) 및 제어부(200)를 포함한다.
제1촬영부(110)는 밀폐된 공간의 입구에 배치되어 있다. 제1촬영부(110)는 입구를 통과하는 대상체를 촬영하여 제1촬영데이터를 생성할 수 있다. 제1촬영부(110)는 대상체의 움직임에 따라 촬영되는 위치가 변경되며 대상체를 추적하며 대상체를 촬영할 수 있다. 제1촬영부(110)는 대상체를 촬영하여 제1촬영데이터를 생성할 수 있다. 여기서 제1촬영부(110)는 대상체의 온도를 감지할 수 있는 열감지 카메라일 수 있다.
제2촬영부(120)는 밀폐된 공간이 출구에 배치되어 있다. 여기서 밀폐된 공간의 출구는 입구와 동일할 수 있다. 제2촬영부(120)는 출구를 통과하는 대상체를 촬영하여 제2촬영데이터를 생성할 수 있다. 제2촬영부(120)는 제1촬영부(110)와 마찬가지로 대상체의 움직임에 따라 촬영되는 위치가 변경되며 대상체를 추적하며 대상체를 촬영할 수 있다. 제2촬영부(120)는 대상체를 활영하여 제2촬영데이터를 생성할 수 있다. 여기서 제2촬영부(120)는 대상체의 온도를 감지할 수 있는 열감지 카메라일 수 있다.
본 발명인 생체 감지 로봇이 제1촬영부(110)와 제2촬영부(120)로 구성되어 각각 대상체의 입장, 퇴장을 촬영하도록 하여 효율적인 동작이 가능할 수 있다.
제어부(200)는 제1촬영부(110)와 제2촬영부(120)와 연결되어 있다. 제어부(200)는 제1촬영부(110)로부터 제1촬영데이터를 수신하고, 제2촬영부(120)로부터 제2촬영데이터를 수신한다. 제어부(200)는 제1촬영데이터 및 제2촬영데이터를 활용하여 기설정된 알고리즘을 수행하여 대상체의 특정 위치를 특정한다. 여기서 대상체의 특정 위치는 눈과 코(T존)부분을 의미할 수 있다. 따라서 제어부(200)로 인하여 제1촬영부(110)와 제2촬영부(120)는 대상체를 명확하게 특정하고 정확하게 추적할 수 있다. 제어부(200)는 전술한 알고리즘이 아닌 특징점 도출로도 안면을 인식할 수 있음은 당연할 것이다.
또한, 제어부(200)는 제1촬영데이터 및 제2촬영데이터를 수신하여 대상체의 생체정보(체온 등)을 측정하여 저장할 수 있다. 제어부(200)는 대상체 별로 생체정보를 저장할 수 있다.
제어부(200)는 대상체의 생체정보를 측정하여 문제가 있는 경우 1차적으로 알람신호를 인가하여 후술할 디스플레이에 표시한다.
또한, 제어부(200)는 생체정보에 문제가 있는 경우, 관리서버로 해당 생체정보를 송신할 수 있다. 따라서 문제 상황을 바로 인지하여 문제 상황을 조기에 진압 가능하도록 할 수 있다.
도 2는 일 실시예에 의한 본 발명인 생체 감지 로봇의 정면도이다.
일 실시예에 의한 본 발명인 생체 감지 로봇은 디스플레이가 배치된 프레임(130), 프레임(130)에 배치된 제1촬영부(110)와 제2촬영부(120), 그리고 프레임(130)의 하측에 배치된 길이조절바(140) 및 제어부(200)를 포함한다.
프레임(130)은 설정된 형상(예를 들면 사각형)으로 형성될 수 있으며, 중앙에는 디스플레이가 배치될 수 있다. 디스플레이는 제1촬영데이터 또는 제2촬영데이터를 이용하여 제어부(200)가 연산한 생체정보를 표시될 수 있다. 디스플레이는 대상체의 생체정보를 표시함으로써 대상체가 문제가 있는지를 육안으로 확인할 수 있도록 한다.
프레임(130)의 상면에는 이격된 간격을 두고 제1촬영부(110)와 제2촬영부(120)가 배치될 수 있다. 프레임(130)의 하측에는 길이조절바(140)가 배치될 수 있다.
길이조절바(140)에는 암호코드부(150)가 배치될 수 있다. 암호코드부(150)는 일례로 QR코드일 수 있다. 단말기가 암호코드부(150)를 인식하면 단말기는 제어부(200)로 암호정보를 송신하고, 제어부(200)는 암호데이터를 생성할 수 있다. 제어부(200)는 제1촬영데이터와 제2촬영데이터를 암호데이터와 매칭하여 저장할 수 있다. 여기서 암호데이터는 식별정보를 가지므로 각각의 제1촬영데이터와 제2촬영데이터는 분리되어 저장되어 관리될 수 있다.
길이조절바(140)는 제어부(200)의 제어신호에 따라 높이가 변경될 수 있다. 길이조절바(140)는 미도시되어 있으나 제1부피를 가지는 제1바가 제2부피를 가지며 내부의 공간이 형성된 제2바에 인입되어 배치될 수 있다. 여기서 제2바의 내부의 공간에는 제1바의 위치를 변경하는 실린더가 제1바를 지지하는 형태로 배치될 수 있다. 제어부(200)가 실린더를 동작시켜 실린더의 단부의 위치를 변경하면 그에 따라서 제1바의 위치가 변경되어 높이가 변경될 수 있다.
따라서 본 발명은 높이가 변경되어 제1촬영부(110)와 제2촬영부(120)가 촬영하는 위치를 변경될 수 있다.
도 3은 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 길이조절바를 제어하는 방법을 도시한 것이다.
제어부(200)는 제1촬영부(110)가 촬영하는 제1촬영데이터를 통하여 길이조절바(140)를 제어할 수 있다. 이때 제1촬영부(110)는 종방향으로 움직이지는 않고 횡방향으로만 움직이는 동작을 수행할 수 있다. 제1촬영부(110)는 지속적으로 제1촬영데이터를 생성할 수 있다. 제어부(200)는 제1촬영데이터를 수신하고, 대상체를 감지할 수 있다. 여기서 제어부(200)는 대상체가 생체 감지 로봇 방향으로 이동하고 있음을 인지할 수 있다.
그 후 설정된 시간이 지난 후 제어부(200)는 제1촬영데이터를 수신하여 대상체가 본 발명인 생체 감지 로봇에 특정한 위치로 다가 온 경우 제어부(200)는 제1촬영데이터를 기준데이터와 비교할 수 있다. 기준데이터는 제어부(200)에 기저장된 것으로 표준 체형인 사람이 제1촬영부(110)에 인접하여 위치된 경우에 기저장된 픽셀의 수 및 픽셀 수에 따른 인체의 형상일 수 있다.
제어부(200)는 기준데이터와 제1촬영데이터를 비교하여 픽셀의 위치가 상이한 경우 기준데이터에 대응하도록 높이가 변경되도록 제어신호를 인가하여 길이조절바(140)의 길이를 변경하여 기준데이터와 제1촬영데이터의 픽셀의 수 및 픽셀 수에 따른 인체의 형상이 대응되는 형태가 되도록 할 수 있다.
도 4는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제1촬영부(110)의 확대도이다.
일 실시예에 의한 본 발명인 생체 감지 로봇은 제1촬영부(110) 및 제2촬영부(120)가 대상체를 따라서 추적하며 움직일 수 있다. 제1촬영부(110)의 구성과 제2촬영부(120)의 구성은 동일할 수 있으므로 이하에서는 제1촬영부(110)의 구성만을 설명하도록 하겠다.
제1촬영부(110)는 제1하우징(111), 제2하우징(112), 렌즈부(113), 제1모터부(114), 제2모터부(115)를 포함한다.
제1하우징(111)의 상면에는 제2하우징(112)이 회전 가능하게 배치되고, 제2하우징(112)에는 렌즈부(113)가 회전 가능하게 배치되며, 제1하우징(111)의 내부에는 샤프트가 제2하우징(112)과 연결된 제1모터부(114)가 내장되어 배치되고, 제2하우징(112)의 측면에는 샤프트가 렌즈부(113)와 연결되도록 제2모터부(115)가 내장되어 배치된다.
제1모터부(114)는 제2하우징(112)을 제1평면을 따라서 회전시킬 수 있다. 즉, x, y, z 축 중 z축을 기준으로 제1모터부(114)는 제2하우징(112)을 회전시킬 수 있다. 그러므로 인하여 제2하우징(112)에 연결된 렌즈부(113)도 회전되어 x, y 방향을 변경하며 촬영할 수 있다.
또한, 제2모터부(115)는 제1평면과 교차되는 방향인 제2평면을 따라서 렌즈부(113)를 회전시킬 수 있다. 즉, x, y, z축 중 y축을 기준으로 렌즈부(113)를 회전시킬 수 있다. 따라서 렌즈부(113)는 z방향을 변경하며 촬영할 수 있다.
이처럼 제1모터부(114)와 제2모터부(115)가 교차되는 축을 따라서 배치되고, 각각 제2하우징(112) 및 렌즈부(113)를 회전시키므로, 제1촬영부(110)는 전 방향을 촬영할 수 있다.
따라서 본 발명은 일회로 대상체의 생체정보를 측정하지 않고, 대상체의 움직임을 추적하며 대상체의 생체정보를 측정할 수 있다.
도 5a는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 특정한 부분을 인지하기 위하여 가하는 알고리즘의 1단계를 도시한 것이며, 도 5b는 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 특정한 부분을 인지하기 위하여 가하는 알고리즘의 2단계를 도시한 것이며, 도 5c는 도 5a, 5b의 알고리즘을 수행한 결과를 도시한 것이다.
전술한 길이조절바(140), 제1촬영부(110), 제2촬영부(120)가 위치가 변경되도록 구성된 이유는 대상체를 정확하게 인지하고 대상체의 움직임을 추적하기 위함이다. 기본적으로 제어부(200)는 제1촬영데이터 및 제2촬영데이터를 통하여 촬영된 화면에서 픽셀을 분석하여 인지하고, 그럼으로 인하여 대상체를 정확하게 인식하고, 생체정보를 측정하며 추적할 수 있다. 그러나 대상체를 정확하게 인지하고, 대상체의 움직임을 추적하기 위하여 기준이 필요할 수 있다. 추적의 기준은 얼굴의 'T존'일 수 있다.
제어부(200)는 제1알고리즘과 제2알고리즘을 통하여 제1촬영데이터 또는 제2촬영데이터를 수정하여 특정 위치를 인식할 수 있다. 이하에서 설명되는 알고리즘 1단계와 알고리즘 2단계는 제1촬영데이터 또는 제2촬영데이터에 모두 적용될 수 있다. 이를 도 5a 내지 도 5c를 통하여 설명하도록 하겠다.
알고리즘 1단계는 픽셀에 밝기값을 부여하는 단계이다.
제1촬영데이터는 촬영한 영상이므로 픽셀로 구성되어 있다. 제어부(200)는 제1촬영데이터의 각각의 픽셀의 밝기를 수치화한 밝기값을 설정할 수 있다. 일례로 도 5a에서 확인할 수 있듯이 최소 90의 밝기값부터 270의 밝기값까지 가지도록 각각의 픽셀에 밝기값을 부여할 수 있다.
알고리즘 2단계는 밝기값을 수정값으로 변경하는 단계이다.
제어부(200)에는 조정값이 기설정될 수 있다.
제어부(200)는 각각의 밝기값에 조정값을 연산한다. 여기서 제어부(200)는 마이너스 연산을 수행할 수 있다. 일례로 도 5b와 같이 조정값이 90인 경우 제어부(200)는 도 5a와 같은 밝기값에 조정값을 연산한다. 따라서 그 결과 도 5b와 같은 각각의 픽셀에 대한 수정값을 획득할 수 있다.
제어부(200)는 각각의 픽셀에 수정값을 획득하고, 이 수정값을 기설정된 기준값과 비교할 수 있다. 기준값은 일례로 20일 수 있다. 제어부(200)는 20보다 낮은 픽셀을 선정한다. 그리고 제어부(200)는 기준값보다 낮은 수정값을 가지는 픽셀들을 연결한다. 대체로 사람(대상체)은 정면에서 촬영 시 이마 아래와 코 부분이 어두운 색을 가지게 된다. 따라서 사람의 경우 'T'형상의 어두운 부분을 가지게 되는 바, 제어부(200)는 위와 같은 알고리즘 1단계, 2단계를 통하여 특정 위치를 확인할 수 있으며, 대상체가 위치함을 정확하게 인지할 수 있으며 그에 따라 제1촬영부(110), 제2촬영부(120)의 대상체 추적이 용이하게 될 수 있다.
한편, 또 다른 실시예의 경우 알고리즘 2단계에서 조정값은 기설정되어 있지 않을 수 있다. 조정값은 알고리즘 1단계에서 부여된 밝기값에 따라서 설정될 수 있다. 일례로 조정값은 픽셀 전 구간의 평균값일 수 있다. 즉, 대상체(사람)의 얼굴의 전체의 픽셀값을 모두 더한 후 전체 픽셀의 수로 나눠서 조정값은 연산될 수 있다.
이 경우 제어부(200)에 기준값은 기설정될 수도 있으나, 연산된 조정값에 따라 기준값 역시 수정 연산이 수행될 수 있다. 즉, 일례로 전술한 바와 같이 제어부(200)에는 조정값이 90일 때 기준값이 20으로 설정되어 있을 수 있는데, 앞서서 설명한 바와 같이 픽셀의 평균을 통하여 결정된 조정값이 80인 경우, 기설정된 조정값인 90보다 10 작으므로, 기준값은 20에서 -@만큼 연산되어 결정될 수 있다.
(여기서 @는 적절한 값으로 설정될 수 있다. 일례로 위와 같은 실시예에서는 @는 10일 수 있다.)
또한, 제어부(200)는 수정값을 설정 시 최대 픽셀밝기값과 최소 픽셀밝기값을 활용할 수도 있다. 일례로 제어부(200)에 조정값이 90으로 설정되어 있거나 또는 전술한 바와 같이 평균값을 통하여 조정값을 연산한 경우 제어부(200)는 픽셀에 설정된 밝기값 중 가장 큰 밝기값인 최대 픽셀밝기값과 가장 작은 밝기값인 최소 픽셀밝기값을 선정한다.
그 후 제어부(200)는 최대 픽셀밝기값과 최소 픽셀밝기값에 조정값을 연산한다. 이 때 제어부(200)는 연산된 각 값들을 기준값과 대조하는 연산을 수행한다. 이 경우 제어부(200)는 연산된 각 값들이 기준값과 기설정된 범위 내에 있는 경우 조정값을 수정하는 연산을 수행한다.
일례로 조정값이 30이라고 가정한 경우, 최대 픽셀밝기값과 조정값을 마이너스 연산한 값이 40이고, 최소 픽셀밝기값과 조정값을 마이너스 연산한 값이 5인 경우, 연산된 값인 40은 조정값과 대비 시 10밖에 차이가 나지 않으므로, 조정값에 -@를 수행하는 연산을 한다. (여기서 @는 적절한 값으로 설정될 수 있다.)
도 6은 또 다른 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 수행하는 간략화 알고리즘을 도시한 것이다.
제어부(200)는 간략화 알고리즘을 수행할 수도 있다.
간략화 알고리즘은 알고리즘 1단계를 수행하기 전 수행될 수 있다.
간략화 알고리즘은 불필요한 데이터를 삭제하는 것이다.
즉, 도 6의 좌측에서 확인할 수 있듯이 제1촬영데이터 또는 제2촬영데이터 중 눈의 형상, 눈썹의 형상, 머리카락 등은 제어부(200)가 알고리즘들을 적용 시 불필요한 데이터가 된다. 따라서 제어부(200)는 불필요한 부분을 제거하는 간략화 알고리즘을 수행할 수 있다. 이후 제어부(200)는 알고리즘 1단계, 알고리즘 2단계를 수행하여 전술한 바와 같이 특정 위치를 찾아낼 수 있다.
한편, 제어부(200)가 위와 같은 알고리즘을 수행하기 위하여는 대상체가 정면으로 제1촬영부(110) 또는 제2촬영부(120)에 위치되어야 하는데, 이는 전술한 암호코드부(150)가 길이조절바(140)에 배치되어 대상체(사람)가 단말기를 암호코드부(150)와 연동하기 위하여 제1촬영부(110) 또는 제2촬영부(120)에 정면으로 위치되도록 함으로써 가능할 수 있다.
또한, 제어부(200)는 추가 간략화 알고리즘을 수행할 수도 있다. 추가 간략화 알고리즘은 안면 인식 시 불필요한 부분을 삭제하는 것으로, 얼굴의 둘레를 따라서 불필요한 부분을 삭제하는 알고리즘이다. 추가 간략화 알고리즘이 수행되면 도 5a의 경우 양 눈의 외측 방향 이마 방향, 입 아래 방향의 픽셀들은 삭제될 수도 있다. 이를 통하여 제어부(200)는 분석할 픽셀을 삭제하므로 분석 시간을 단축할 수 있으며, 저장 시 데이터의 용량을 줄일 수 있다.
도 7은 일 실시예에 의한 본 발명인 생체 감지 로봇의 제어부가 대상체의 이동을 감지하는 것을 도시한 것이다.
제어부(200)는 대상체의 이동을 추적할 수 있다. 이동추적은 제1시간(T1) 및 제2시간(T2)의 제1촬영데이터 또는 제2촬영데이터를 비교하여 연산할 수 있다. 즉, 제1시간(T1)에 제1촬영데이터가 도 7과 같고, 제2시간(T2)에 제1촬영데이터가 도 7과 같은 경우 특정 위치(T존)의 이동이 도 7을 기준으로 우측으로 이동된 것이 확인되면 제어부(200)는 대상체가 좌측으로 이동되었음을 인지할 수 있다.
이후 제어부(200)는 대상체가 밀폐된 공간 입구로 출입된 것으로 확인하고, 전술한 암호데이터와 연동하여 대상체의 제1촬영데이터 및 제2촬영데이터를 저장한다. 만약 대상체가 밀폐된 공간에서 퇴장하는 경우 제2촬영부(120)는 도 7의 역순의 제2촬영데이터를 획득할 수 있을 것이다. 한편, 이 경우 대상체는 밀폐된 공간을 퇴장하기 전 제2촬영부(120)에 정면으로 위치될 필요가 있다.
제어부(200)는 대상체가 퇴장한 경우, 입장시간에서 퇴장시간간의 차를 이용하여 대상체가 밀폐된 공간에 머문 시간을 암호데이터와 연동하여 저장한다.
본 발명은 특정한 실시 예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 제공되는 본 발명의 기술적 사상을 벗어나지 않는 한도 내에서, 본 발명이 다양하게 개량 및 변화될 수 있다는 것은 당 업계에서 통상의 지식을 가진 자에게 있어서 자명할 것이다.
110 : 제1촬영부
111 : 제1하우징
112 : 제2하우징
113 : 렌즈부
114 : 제1모터부
115 : 제2모터부
120 : 제2촬영부
130 : 프레임
140 : 길이조절바
150 : 암호코드부
200 : 제어부

Claims (9)

  1. 입구에 위치되어 입장하는 대상체를 촬영한 제1촬영데이터를 생성하는 제1촬영부;
    출구에 위치되어 퇴장하는 대상체를 촬영한 제2촬영데이터를 생성하는 제2촬영부; 및
    상기 제1촬영데이터 및 제2촬영데이터를 수신하고, 상기 제1촬영데이터 및 상기 제2촬영데이터를 이용하여 상기 대상체의 특정 위치를 도출하며, 도출된 대상체의 특정 위치를 상기 제1촬영부 또는 제2촬영부로 전송하여, 상기 제1촬영부 및 제2촬영부가 대상체를 추적할 수 있도록 하며, 상기 제1촬영데이터 및 제2촬영데이터를 이용하여 생체정보를 연산하는 제어부
    를 포함하는 생체 인식 로봇.
  2. 제1항에 있어서,
    상기 제1촬영부와 상기 제2촬영부는 프레임의 일측에 연결되어 있는 것
    을 특징으로 하는 생체 인식 로봇.
  3. 제2항에 있어서,
    상기 프레임은 길이조절바와 연결되어 있어서,
    상기 제어부의 제어신호에 따라 상기 길이조절바가 동작되어 높이가 변경될 수 있는 것
    을 특징으로 하는 생체 인식 로봇.
  4. 제2항에 있어서,
    상기 제1촬영부 또는 제2촬영부는 제1평면 및 상기 제1평면과 교차되는 방향의 평면인 제2평면을 따라서 회전 가능하게 연결되는 것
    을 특징으로 하는 생체 인식 로봇.
  5. 제1항에 있어서,
    상기 제어부는
    상기 제1촬영데이터를 수신하고, 상기 제1촬영데이터의 각각의 픽셀의 밝기를 수치화한 밝기값을 설정하고, 상기 밝기값에 기설정된 조정값을 연산하여 상기 대상의 특정 위치를 인식하는 것
    을 특징으로 하는 생체 인식 로봇.
  6. 제5항에 있어서,
    상기 제어부는
    상기 조정값을 연산한 수정값을 연산하고, 상기 수정값이 기설정된 기준값보다 낮은 부분들의 픽셀들을 연결하여 특정 위치를 인식하는 것
    을 특징으로 하는 생체 인식 로봇.
  7. 제1항에 있어서,
    상기 제어부는
    제1시간과 제2시간에 상기 제1촬영데이터 또는 제2촬영데이터를 수신하고, 제1시간에 수신된 상기 제1촬영데이터 또는 제2촬영데이터와 제2시간에 상기 제1촬영데이터 또는 제2촬영데이터를 비교하여 상기 대상체의 움직임을 추적하는 것
    을 특징으로 하는 생체 인식 로봇.
  8. 제7항에 있어서,
    상기 제어부는
    상기 제1시간과 제2시간 각각에 수신된 제1촬영데이터 또는 제2촬영데이터의 픽셀의 변화를 연산하여 상기 대상체의 움직임을 추적하는 것
    을 특징으로 하는 생체 인식 로봇.
  9. 제1항에 있어서,
    상기 제어부는
    암호데이터를 생성하고,
    상기 제1촬영데이터 또는 제2촬영데이터를 상기 암호데이터에 연결하여 저장하는 것
    을 특징으로 하는 생체 인식 로봇.
KR1020210096531A 2021-07-22 2021-07-22 대상체 위치 추적 로봇 KR102592217B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210096531A KR102592217B1 (ko) 2021-07-22 2021-07-22 대상체 위치 추적 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210096531A KR102592217B1 (ko) 2021-07-22 2021-07-22 대상체 위치 추적 로봇

Publications (2)

Publication Number Publication Date
KR20230015141A true KR20230015141A (ko) 2023-01-31
KR102592217B1 KR102592217B1 (ko) 2023-10-19

Family

ID=85109496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210096531A KR102592217B1 (ko) 2021-07-22 2021-07-22 대상체 위치 추적 로봇

Country Status (1)

Country Link
KR (1) KR102592217B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060269278A1 (en) * 2004-10-15 2006-11-30 Kenoyer Michael L Coordinated camera pan tilt mechanism
KR20150080781A (ko) * 2014-01-02 2015-07-10 주식회사 유니온커뮤니티 얼굴 인식에 의한 출입관리장치 및 방법
KR20200041458A (ko) * 2018-10-12 2020-04-22 센시(주) 출입자 건강상태 진단이 가능한 출입 게이트
KR102135633B1 (ko) 2020-04-20 2020-08-26 김승호 출입자의 id와 체온정보를 이용한 출입통제 시스템
KR102177824B1 (ko) * 2020-04-23 2020-11-12 주식회사 포커스에이치엔에스 열화상 카메라를 이용한 얼굴인식 출입통제 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060269278A1 (en) * 2004-10-15 2006-11-30 Kenoyer Michael L Coordinated camera pan tilt mechanism
KR20150080781A (ko) * 2014-01-02 2015-07-10 주식회사 유니온커뮤니티 얼굴 인식에 의한 출입관리장치 및 방법
KR20200041458A (ko) * 2018-10-12 2020-04-22 센시(주) 출입자 건강상태 진단이 가능한 출입 게이트
KR102135633B1 (ko) 2020-04-20 2020-08-26 김승호 출입자의 id와 체온정보를 이용한 출입통제 시스템
KR102177824B1 (ko) * 2020-04-23 2020-11-12 주식회사 포커스에이치엔에스 열화상 카메라를 이용한 얼굴인식 출입통제 시스템 및 방법

Also Published As

Publication number Publication date
KR102592217B1 (ko) 2023-10-19

Similar Documents

Publication Publication Date Title
US9330322B2 (en) Controlled access to functionality of a wireless device
CN109389719B (zh) 一种小区单元门门禁系统及开门方法
JP6148064B2 (ja) 顔認証システム
WO2015172514A1 (zh) 图像采集装置和方法
KR20040084994A (ko) 인증 대상 화상 촬상 장치 및 그 방법
JP2003150942A (ja) 目位置追跡方法
JP4521086B2 (ja) 顔画像認識装置及び顔画像認識方法
JP6396357B2 (ja) 顔画像認証装置
JP4862518B2 (ja) 顔登録装置、顔認証装置および顔登録方法
JP2021179890A (ja) 画像認識装置、認証システム、画像認識方法及びプログラム
US20220417420A1 (en) System for Acquisiting Iris Image for Enlarging Iris Acquisition Range
CN109147123B (zh) 门禁锁的解锁方法、装置、电子设备和计算机存储介质
KR101596363B1 (ko) 얼굴 인식에 의한 출입관리장치 및 방법
KR20110006971A (ko) 출입통제시스템의 출입인증 사용자에 대한 출입허가용 정면얼굴 영상 검출 방법
CN115516502A (zh) 生物体判定装置以及生物体判定方法
KR20230015141A (ko) 대상체 위치 추적 로봇
KR20110006062A (ko) 얼굴 인식 시스템 및 얼굴 인식 방법
JP2006163683A (ja) 眼画像撮影装置およびそれを用いた認証装置
TWI729679B (zh) 認證系統、認證裝置、及認證方法
US20220343674A1 (en) High-throughput temperature screening for persons with temperature anomalies
KR20110006970A (ko) 출입통제시스템의 출입인증 보관용 정면얼굴 이미지 검출 방법
JP2024006392A (ja) 画像処理装置、画像処理方法およびプログラム
KR20220113216A (ko) 심층학습 기반의 출입 통제 장치 및 이를 이용한 출입 통제 방법
KR20220037097A (ko) 마스크 착용 여부 판단 및 체온 측정을 위한 장치
KR20220081672A (ko) 딥러닝 기반의 영상이미지 합성을 통한 열화상 출입제어 시스템

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant