WO2023200075A1 - 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체 - Google Patents

객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체 Download PDF

Info

Publication number
WO2023200075A1
WO2023200075A1 PCT/KR2022/095085 KR2022095085W WO2023200075A1 WO 2023200075 A1 WO2023200075 A1 WO 2023200075A1 KR 2022095085 W KR2022095085 W KR 2022095085W WO 2023200075 A1 WO2023200075 A1 WO 2023200075A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
dimensional space
tag
group
object tracking
Prior art date
Application number
PCT/KR2022/095085
Other languages
English (en)
French (fr)
Inventor
이한빈
박재일
민 트루엉홍
권오란
Original Assignee
(주)서울로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)서울로보틱스 filed Critical (주)서울로보틱스
Priority to PCT/KR2022/095085 priority Critical patent/WO2023200075A1/ko
Publication of WO2023200075A1 publication Critical patent/WO2023200075A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • An object tracking method includes obtaining information about a three-dimensional space based on light received in response to emitting light in a three-dimensional space; identifying objects in the three-dimensional space from the obtained information about the three-dimensional space; Based on the reflectance of the received light, classifying the identified objects into a plurality of groups; and tracking an object in a selected group among the plurality of groups, wherein the plurality of groups include a first group corresponding to an object having a tag containing a retroreflective material and a first group corresponding to an object not having the tag. Includes the second group.
  • the present embodiments relate to an object tracking device, an object tracking method, and a recording medium recording a program for performing the same. A detailed description will be given regarding matters widely known to those skilled in the art to which the following embodiments belong. Omit it.
  • LiDAR sensors cannot detect the color of objects in 3D space, but can detect shape, size, and location. In other words, the LIDAR sensor cannot detect the color or texture of an object, but can confirm the approximate shape and size of the object from a relatively long distance, so it is free from problems such as privacy infringement and can utilize the approximate shape and size of the object. Suitable for the field.
  • LiDAR sensors can be used in areas such as autonomous driving and traffic flow tracking.
  • LiDAR sensor If such a LiDAR sensor is used to track moving objects such as people, movement patterns or behaviors can be analyzed, thereby increasing operational efficiency or monitoring people such as workers to solve safety problems.
  • the approximate shape, size, and location of the object can be confirmed, but the color cannot be confirmed, so if there is a need to distinguish between objects with similar appearances, action is necessary.
  • a technology for distinguishing and tracking objects with similar appearances using tags coated with retroreflective material will be described.
  • FIG. 2 is a diagram for explaining a second environment in which the object tracking device 100 is used.
  • Memory 110 may store software and/or programs. Memory 110 may store instructions executable by processor 120.
  • Processor 120 may track the identified object.
  • Processor 120 may track a sensed three-dimensional space containing at least one identified object.
  • the processor 120 may track the three-dimensional space by determining at least one attribute information of the type, three-dimensional shape, position, posture, size, trajectory, and speed of at least one object identified within the sensed three-dimensional space. there is.
  • the processor 120 may accumulate location information of the identified object, track the movement of the identified object, and analyze the movement pattern of the identified object based on the tracked movement.
  • Each component of the block diagram of FIG. 4 may be separated, added, or omitted depending on the implementation method of the server 200. That is, depending on the implementation method, one component may be subdivided into two or more components, two or more components may be combined into one component, or some components may be added or removed.
  • Figure 6 is a flowchart for explaining an object tracking method according to another embodiment. Detailed descriptions of content that overlaps with the content described above regarding the object tracking device 100 will be omitted below.

Abstract

객체 추적 장치는 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 센서부, 하나 이상의 명령어들을 저장하는 메모리, 및 프로세서를 포함한다. 프로세서는 하나 이상의 명령어들을 실행함으로써, 획득된 3차원 공간에 대한 정보로부터 3차원 공간상의 객체들을 식별하고, 수신된 광의 반사율에 기초하여, 식별된 객체들을 복수의 그룹들로 분류하며, 복수의 그룹들 중 선택된 그룹의 객체를 추적한다.

Description

객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체
객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체에 관한 것이다.
라이다(Light Detection And Ranging, LiDAR) 기술과 같은 센싱 기술의 발전에 따라, 최근 다양한 산업 기술 분야에 센싱 기술이 접목된 첨단 제어 기능들이 나타나고 있다. 자율주행차의 상용화가 가까워짐에 따라, 라이다 기술도 빠르게 발전하고 있다.
라이다는 3차원 공간의 객체에 광을 방출한 후 반사된 광을 수신하여, 이로부터 3차원 공간에 대한 정보를 획득하는 기술이다. 라이다는 카메라 이미지 센서처럼 컬러를 인지할 수 없으나, 멀리 있는 물체까지 감지할 수 있고, 뛰어난 공간 분해능을 가지고 있다.
센서를 이용하여 획득한 공간 정보를 광의 반사율에 기초하여 복수의 그룹들로 분류하여 객체를 추적하는데 이용하는 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체를 제공하는 것이다.
제1 측면에 따른 객체 추적 방법은, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 단계; 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 단계; 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 단계; 및 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 단계를 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.
제2 측면에 따른 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 명령어들; 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 명령어들; 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 명령어들; 및 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 명령어들을 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.
제3 측면에 따른 객체 추적 장치는, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 센서부; 하나 이상의 명령어들을 저장하는 메모리; 및 상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하고, 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하며, 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 프로세서를 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.
도 1은 객체 추적 장치가 사용되는 제1 환경을 설명하기 위한 도면이다.
도 2는 객체 추적 장치가 사용되는 제2 환경을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 객체 추적 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 서버의 구성 및 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다.
도 6은 다른 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다.
도 7은 식별된 객체를 추적하는 프로세스를 설명하기 위한 상세 흐름도이다.
이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.
한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
본 실시예들은 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.
도 1은 객체 추적 장치(100)가 사용되는 제1 환경을 설명하기 위한 도면이다.
객체 추적 장치(100)는 공간 정보를 획득할 수 있는 센싱 장치로서, 적어도 하나의 센서를 포함할 수 있다. 객체 추적 장치(100)는 3차원 공간에 광을 방출하고, 이에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 실내 또는 실외에서, 관심 영역에 해당하는 공간 또는 가능한 넓은 공간을 감지할 수 있는 곳에 위치할 수 있다. 예를 들어, 도 1에서와 같이, 전자 제품 판매점의 경우, 전자 제품들이 전시되어 있는 실내 공간의 천정 중앙부에 객체 추적 장치(100)를 설치할 수 있다.
객체 추적 장치(100)는 라이다(Light Detection and Ranging) 센서를 구비할 수 있으며, 필요에 따라, 레이더(radar) 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서를 더 포함할 수도 있다. 객체 추적 장치(100)는 3차원 공간에 대한 정보를 획득하기 위해, 각 종류의 센서가 가지고 있는 감지 범위나 획득할 수 있는 데이터의 종류 등을 고려하여, 동종의 센서를 복수 개 이용하거나, 이종의 센서들을 조합하여 이용할 수도 있다.
라이다 센서는 3차원 공간의 객체들의 컬러를 감지할 수 없으나, 형태, 크기, 위치를 감지할 수 있다. 즉, 라이다 센서는 객체의 컬러나 텍스쳐를 감지할 수 없지만, 객체의 대략적인 형태와 크기를 비교적 먼거리까지 확인할 수 있어, 프라이버시 침해와 같은 문제로부터 자유롭고, 객체의 대략적인 형태와 크기를 활용할 수 있는 분야에 적합하다. 예를 들어, 라이다 센서는 자율 주행, 교통 흐름 추적 등의 분야에 활용될 수 있다.
이와 같은 라이다 센서를 사람과 같은 움직이는 객체의 추적에 활용하면, 움직임의 패턴이나 행동을 분석할 수 있어, 운용의 효율성을 높이거나, 작업자와 같은 사람을 모니터링하여 안전 문제 등을 해결할 수 있다. 다만, 앞서 설명한 바와 같이, 객체의 대략적인 형태와 크기, 위치는 확인할 수 있으나, 컬러를 확인할 수 없으므로, 비슷한 외형을 가진 객체들이 있는 곳에서 이들을 구별하여야 할 필요가 있는 경우, 조치가 필요하다. 이하, 역반사 물질이 도포된 태그를 이용하여, 비슷한 외형을 가진 객체들을 구분하여 추적하는 기술에 대해 설명한다.
도 1을 참조하면, 전자 제품 판매점에 여러 사람이 있는 상황을 확인할 수 있다. 전자 제품 판매점의 관리자는 최적의 광고 및 제품 배치를 통해 더 많은 제품을 팔고, 고객에게 더 좋은 서비스를 제공하기 위해, 고객이 어떤 동선으로 움직였는지, 어떤 제품 앞에서 많은 시간을 할애하였는지, 제일 많은 고객들이 구경한 제품이 무엇이었는지 등을 알 필요가 있다. 이때, 전자 제품 판매점의 직원은 고객이 아니기 때문에, 추적해야 하는 객체에서 제외될 수 있어야 한다. 라이다의 경우, 고객의 프라이버시 침해 문제는 발생하지 않으나, 이와 같이, 고객이 아닌 직원을 고객과 구별하기가 어렵기 때문에, 별도의 조치가 필요하다.
고객은 관리자의 지시를 따를 의무가 없는 비협력 객체인 반면, 직원은 관리자의 지시를 따르는 협력 객체이다. 라이다 센서로 두 종류의 객체를 구분하기 위해, 협력 객체인 직원에게 라이다 센서가 감지할 수 있는 태그를 부착할 수 있다. 태그는 라이다 센서에서 구별하여 감지할 수 있는 소정의 물질, 예를 들어, 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태일 수 있으나, 이에 제한되는 것은 아니다.
라이다 센서는 광을 방출하고 반사되 광을 수신하는데, 일반적으로, 객체까지의 거리와 수신된 광의 인텐시티(intensity)는 2차 관계(quadratic relationship)에 있다. 반면, 역반사 물질은 라이다 센서에서 방출하는 광을 입사각에 관계없이 그대로 라이다 센서로 반사시키기 때문에, 객체까지의 거리와 수신된 광의 인텐시티는 선형 관계를 가진다. 따라서, 역반사 물질이 도포된 태그가 있는 협력 개체(직원)와 태그가 없는 비협력 객체(고객)를 라이다를 이용하여 감지하면, 태그에 의해 반사된 광의 인텐시티가 다르기 때문에, 다시 말해, 수신된 광의 반사율이 다르기 때문에, 태그는 협력 객체와 비협력 객체를 구분할 수 있는 마커 역할을 할 수 있다.
도 1을 참조하면, 전자 제품 판매점 내의 다섯 명 중 두 명의 직원이 명판 또는 뱃지, 라벨 형태의 태그를 몸에 부착하고 있는 것을 확인할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여, 전자 제품 판매점 내의 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여 획득한 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 태그에 의해 반사된 광을 포함하는 객체 정보를 제거함으로써, 고객에 해당하는 비협력 객체의 객체 정보를 획득할 수 있다. 이와 같은 방식으로, 라이다 센서를 통해 획득한 3차원 공간에 대한 정보 중 협력 객체의 객체 정보를 제거한, 비협력 객체의 객체 정보를 활용하면, 노이즈 없이, 고객의 움직임의 패턴이나 행동을 정확히 분석할 수 있어, 전자 제품 판매점의 운용의 효율성을 높일 수 있는 방안을 마련하는 토대가 될 수 있다.
도 2는 객체 추적 장치(100)가 사용되는 제2 환경을 설명하기 위한 도면이다.
도 2는 도 1의 제1 환경과 달리, 협력 객체의 객체 정보를 활용하여야 하는 예를 설명하기 위한 일 예이다. 공사장과 같은 환경에서는 안전을 위해, 작업자와 같은 사람을 모니터링하는 것이 중요하다. 이를 위해, 공사장의 관리자의 지시를 따르는 공사 작업자들은 협력 객체로서, 역반사 물질이 도포된 태그로써, 모자나 헬멧, 조끼, 겉옷, 신발 등을 착용할 수 있다.
도 2를 참조하면, 공사장의 다섯 명의 작업자들은 역반사 물질이 도포된 헬멧 또는 조끼, 상의를 착용하고 있는 것을 확인할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여, 공사장의 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여 획득한 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 태그에 의해 반사된 광을 포함하는 객체 정보를 선택함으로써, 공사장 작업자들에 해당하는 협력 객체의 객체 정보를 획득할 수 있다. 이와 같은 방식으로, 라이다 센서를 통해 획득한 3차원 공간에 대한 정보 중 협력 객체의 객체 정보를 활용하면, 작업자들의 움직임이나 행동을 모니터링할 수 있어, 작업자의 안전 문제 등을 해결할 수 있다. 예를 들어, 작업자가 위험한 곳으로 이동하거나 움직임이 예상되는 지역이 아닌 곳에서 작업자의 움직임이 모니터링되는 경우, 경고 방송을 하거나 관리자의 단말기로 상황을 알려줄 수 있다.
도 3은 일 실시예에 따른 객체 추적 장치(100)의 구성 및 동작을 설명하기 위한 도면이다.
도 3을 참조하면, 일 실시예에 따른 객체 추적 장치(100)는 메모리(110), 프로세서(120), 센서부(130), 통신 인터페이스 장치(140)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
메모리(110)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다.
프로세서(120)는 메모리(110)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(110)에 저장할 수 있다. 프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 객체 추적 장치(100)에 설치된 컴퓨터 프로그램을 실행할 수 있다. 또한, 프로세서(120)는 외부로부터 수신한 컴퓨터 프로그램 또는 애플리케이션을 메모리(110)에 저장하고 실행시킬 수 있다. 프로세서(120)는 적어도 하나의 프로세싱 모듈을 포함할 수 있다. 예를 들어, 프로세서(120)는 3차원 공간에서 객체를 추적하는 객체 추적 프로그램을 실행하는 프로세싱 모듈을 전용 프로세싱 모듈 형태로 포함할 수 있다. 프로세서(120)는 명령어 또는 컴퓨터 프로그램 등의 실행 결과에 대응되는 동작을 수행하도록 객체 추적 장치(100)에 포함된 다른 구성들을 제어할 수 있다.
센서부(130)는 3차원 공간을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 센서부(130)는 3차원 공간에 광을 방출하는 발광부와 광을 수신하는 수광부를 포함할 수 있으며, 수광부에 수신된 광의 세기에 기초하여 3차원 공간에 대한 정보를 획득하는 전용 프로세싱 모듈을 더 포함할 수 있다. 센서부(130)는 감지 범위 내에 위치한 객체에 대한 형상 데이터 또는 거리 데이터를 획득할 수 있다.
센서부(130)는 라이다(Light Detection and Ranging) 센서일 수 있으며, 적어도 하나의 3차원 라이다 센서를 포함하여 360도 범위의 공간에 대한 데이터를 획득할 수 있다. 센서부(130)는 환경에 따라, 레이더(radar) 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서를 더 포함할 수도 있다. 예를 들어, 센서부(130)는 레이더 센서 및 초음파 센서 중 적어도 하나를 더 포함하여 라이다 센서가 감지할 수 없는 사각 영역 또는 객체 추적 장치(100)로부터 소정의 거리 내의 근접 공간에 대한 데이터를 획득할 수 있다.
통신 인터페이스 장치(140)는 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신 인터페이스 장치(140)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, RFID(Radio Frequency Identification), NFC(Near Field Communication), 블루투스(Bluetooth)와 같은 근거리 통신, 다양한 종류의 무선 통신 또는 동축 케이블이나 광케이블 등을 이용하는 유선 통신을 수행하는 통신 모듈이 포함될 수 있다. 통신 인터페이스 장치(140)는 객체 추적 장치(100)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 객체 추적 장치(100)는 통신 인터페이스 장치(140)를 통해 관리자의 단말 장치와 통신을 수행하거나, 객체 추적 장치(100)가 위치하는 구역을 관리하는 서버와도 연결될 수 있다.
상기한 구성에 따른 일 예의 프로세서(120)는 메모리(110)에 저장된 하나 이상의 명령어들을 실행함으로써, 센서부(130)에서 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별할 수 있다. 프로세서(120)는 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별할 수 있다. 이와 같이 식별된 객체들 각각은 서로 구별될 수 있도록 서로 다른 객체 식별 정보가 각각 태깅될 수 있다. 더 나아가, 태그가 식별되는 경우, 프로세서(120)는 식별된 객체들 중에서 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 식별된 객체들을 더 상세히 구분하여 식별할 수 있다.
프로세서(120)는 수신된 광의 반사율에 기초하여, 식별된 객체들을 복수의 그룹들로 분류할 수 있다. 센서부(130)의 발광부가 소정의 광을 3차원 공간에 균일하게 방출한다고 하더라도, 센서부(130)의 수광부는 반사율이 서로 다른 광을 객체들로부터 수신할 수 있다. 광의 반사율은 객체의 표면의 성질에 따라 달라질 수 있으며, 프로세서(120)는 수신된 광의 인텐시티에 기초하여, 소정의 기준 이상의 반사율을 가지는 광을 구별할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.
이와 같이 분류된 그룹들 각각은 서로 구별될 수 있도록 서로 다른 그룹 식별 정보가 각각 태깅될 수 있다. 이에 따라, 서로 다른 그룹 식별 정보가 태깅된 복수의 그룹들은 범주화(categorization)될 수 있고, 데이터 분석 시, 일부 그룹의 3차원 공간에 대한 정보가 필터링될 수 있다. 또는, 일부 그룹에 대해서만 그룹 식별 정보가 태깅될 수도 있다. 이에 따라, 그룹 식별 정보가 태깅된 그룹의 3차원 공간에 대한 정보가 필터링되거나, 복수의 그룹들 중 그룹 식별 정보가 태깅된 그룹을 제외한 그룹의 3차원 공간에 대한 정보가 필터링될 수 있다.
각각의 객체는 그룹 식별 정보와 객체 식별 정보를 가짐으로써, 그룹 식별 정보에 의해, 역반사 물질이 도포된 태그를 가지는 객체인지 분류될 수 있고, 객체 식별 정보에 의해, 같은 그룹 내의 다른 객체들과 구분될 수 있다.
프로세서(120)는 복수의 그룹들 중 선택된 그룹의 객체를 추적할 수 있다. 복수의 그룹들 중 적어도 하나의 그룹이 선택될 수 있다. 예를 들어, 제1 그룹과 제2 그룹으로 분류된 경우, 제1 그룹을 선택하거나, 제2 그룹을 선택하거나, 또는 제1 그룹과 제2 그룹 모두를 선택할 수도 있다. 선택될 그룹에 대한 정보는 미리 설정되어 있거나, 통신 인터페이스 장치(140) 또는 사용자 인터페이스 장치(미도시)를 통한 외부의 입력에 따라 설정될 수 있다. 프로세서(120)는 복수의 그룹들 중 선택된 그룹의 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적하고, 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다.
상기한 구성에 따른 다른 예의 프로세서(120)는 메모리(110)에 저장된 하나 이상의 명령어들을 실행함으로써, 센서부(130)에서 획득된 3차원 공간에 대한 정보를 수신된 광의 반사율에 기초하여 복수의 그룹들로 분류할 수 있다. 프로세서(120)는 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 소정의 기준 이상의 반사율을 가지는 광을 찾아낼 수 있다. 예를 들어, 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.
이와 같이 분류된 그룹들 각각은 서로 구별될 수 있도록 서로 다른 그룹 식별 정보가 각각 태깅될 수 있다.
프로세서(120)는 복수의 그룹들 중 선택된 그룹의 3차원 공간에 대한 정보를 이용하여, 3차원 공간상의 객체를 식별할 수 있다. 복수의 그룹들 중 적어도 하나의 그룹이 선택될 수 있으며, 선택될 그룹에 대한 정보는 미리 설정되어 있거나, 통신 인터페이스 장치(140) 또는 사용자 인터페이스 장치(미도시)를 통한 외부의 입력에 따라 설정될 수 있다. 프로세서(120)는 복수의 그룹들 중 적어도 하나의 그룹의 3차원 공간에 대한 정보를 이용할 수 있다. 예를 들어, 제1 그룹과 제2 그룹으로 분류된 경우, 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하거나, 제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별할 수 있다. 또는, 제1 그룹과 제2 그룹 모두에 대해서 3차원 공간상의 객체를 식별할 수도 있다.
제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하여, 서로 다른 객체로 구분하여 식별할 수 있다. 한편, 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하는 방식 뿐만 아니라, 역반사 물질이 포함된 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 서로 다른 객체로 구분하여 식별할 수 있다.
이와 같이 식별된 객체들 각각은 서로 구별될 수 있도록 서로 다른 객체 식별 정보가 각각 태깅될 수 있다. 각각의 객체는 그룹 식별 정보와 객체 식별 정보를 가짐으로써, 그룹 식별 정보에 의해, 역반사 물질이 도포된 태그를 가지는 객체인지 분류될 수 있고, 객체 식별 정보에 의해, 같은 그룹 내의 다른 객체들과 구분될 수 있다.
프로세서(120)는 식별된 객체를 추적할 수 있다. 프로세서(120)는 식별된 적어도 하나의 객체를 포함하는 감지된 3차원 공간을 추적할 수 있다. 프로세서(120)는 감지된 3차원 공간 내의 식별된 적어도 하나의 객체의 종류, 3차원 형상, 위치, 자세, 사이즈, 궤적, 및 속도 중 적어도 하나의 속성 정보를 판단하여 3차원 공간을 추적할 수 있다. 프로세서(120)는 식별된 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적하고, 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다.
한편, 태그를 가지는 객체임에도 불구하고 태그가 감지되지 않은 경우, 예를 들어, 태그가 가려졌거나 센서부(130)에서 획득된 3차원 공간에 대한 정보의 밀도가 낮아 태그가 감지되지 못한 경우, 프로세서(120)는 획득된 3차원 공간에 대한 정보를 제2 그룹으로 분류하여, 제2 그룹에 대응되는 제2 그룹 식별 정보를 부여할 수 있다. 이후, 프로세서(120)는 태그가 인식된 때부터, 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 다시 제1 그룹으로 분류하고, 제2 그룹 식별 정보를 제1 그룹에 대응되는 제1 그룹 식별 정보로 업데이트 할 수 있다.
한편, 태그가 전자 태그 칩을 포함하는 형태인 경우, 프로세서(120)는 통신 인터페이스 장치(140)를 이용하여 근거리 통신을 통해 객체 추적 장치(100)로부터 소정의 거리 내의 태그를 인식하고, 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 제1 그룹으로 분류할 수 있다. 예를 들어, 태그가 역반사 물질이 도포된 'RFID 태그'인 경우, 센서부(130)가 태그를 감지하지 못하더라도, 프로세서(120)는 RFID 통신 모듈을 포함한 통신 인터페이스 장치(140)를 통해 태그를 인식할 수 있다. 프로세서(120)는 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 제1 그룹으로 분류하여, 제1 그룹에 대응되는 제1 그룹 식별 정보를 부여할 수 있다.
한편, 프로세서(120)는 추적된 3차원 공간에 관련된 정보를 통신 인터페이스 장치(140)를 통해 외부로 전송할 수 있다.
도 4는 일 실시예에 따른 서버(200)의 구성 및 동작을 설명하기 위한 도면이다. 서버(200)는 컴퓨팅 디바이스, 오퍼레이터, 콘솔 장치 등으로 대체될 수 있다.
앞서 설명한 바와 같이, 객체 추적 장치(100)는 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별 및 복수의 그룹으로 분류하고, 식별된 객체를 추적하는 프로세서를 탑재하는 임베디드 기기 형태일 수 있으나, 이에 한정되는 것은 아니다. 객체 추적 장치(100)는 획득한 3차원 공간에 대한 정보를 객체 추적 서비스를 제공하는 서버(200)로 전송하여, 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별 및 복수의 그룹으로 분류하는 일련의 프로세싱을 서버(200)에서 처리하도록 할 수 있다. 객체 추적 장치(100)에서 획득한 3차원 공간에 대한 데이터는 익명성이 보장되므로, 서버(200)로 전송되어 처리되어도 프라이버시 침해 문제가 발생하지 않는다.
서버(200)는 클라우드 컴퓨팅과 같은 기술로 구현될 수 있다. 서버(200)는 객체 추적 장치(100)와 고속의 데이터 통신을 수행할 수 있다.
도 4를 참조하면, 서버(200)는 메모리(210), 프로세서(220), 통신 인터페이스 장치(230)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 4에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 앞서, 객체 추적 장치(100)에 대하여 설명한 내용은 이하 생략된 내용이라 하더라도, 서버(200)의 동일한 명칭의 구성에 대해서 그대로 적용될 수 있다.
도 4의 블록도의 각 구성요소는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다.
메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다.
프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스 장치(230)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(미도시)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 객체 추적 장치(100)로부터 수신되는 정보로부터 객체 추적에 이용되는 정보를 획득하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(미도시)에 저장할 수 있다. 또한, 프로세서(220)는 관리자의 단말로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(미도시)에 저장된 데이터 또는 정보를 이용하여, 통신 인터페이스 장치(230)를 통해 관리자의 단말에 객체 추적 서비스를 제공하기 위한 정보를 전송할 수 있다.
통신 인터페이스 장치(230)는 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다. 통신 인터페이스 장치(230)는 서버(200)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 서버(200)는 통신 인터페이스 장치(230)를 통해 객체 추적 장치(100)와 통신을 수행하거나, 네트워크로 연결된 다른 서버와도 연결될 수 있다. 예를 들어, 서버(200)는 통신 인터페이스 장치(230)를 통해 객체 추적 장치(100)로부터 3차원 공간에 대한 데이터를 획득할 수 있다.
스토리지(미도시)는 서버(200)가 객체 추적 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(미도시)는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 충전 서비스에 이용되는 각종 데이터 또는 정보를 저장할 수 있다.
서버(200)는 부하 분산 서버와 충전 서비스를 제공하는 기능 서버들로 구성될 수 있다. 서버(200)는 기능별로 나눠진 복수의 서버들로 구성되거나, 하나로 통합된 형태의 서버가 될 수도 있다.
도 5는 일 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다. 이상에서 객체 추적 장치(100)에 대하여 설명한 내용과 중복되는 내용에 대해서는 이하 그 상세한 설명을 생략한다.
510 단계에서, 객체 추적 장치(100)는 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다.
520 단계에서, 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보로부터 3차원 공간상의 객체들을 식별할 수 있다. 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별할 수 있다. 태그가 식별되는 경우, 객체 추적 장치(100)는 식별된 객체들 중에서 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 제1 그룹에 대응되는 객체들을 더 상세히 구분하여 식별할 수 있다.
530 단계에서, 객체 추적 장치(100)는 수신된 광의 반사율에 기초하여, 식별된 객체들을 복수의 그룹들로 분류할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.
540 단계에서, 객체 추적 장치(100)는 복수의 그룹들 중 선택된 그룹의 객체를 추적할 수 있다.
도 6은 다른 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다. 이상에서 객체 추적 장치(100)에 대하여 설명한 내용과 중복되는 내용에 대해서는 이하 그 상세한 설명을 생략한다.
610 단계에서, 객체 추적 장치(100)는 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다.
620 단계에서, 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보를 수신된 광의 반사율에 기초하여 복수의 그룹들로 분류할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.
630 단계에서, 객체 추적 장치(100)는 복수의 그룹들 중 선택된 그룹의 3차원 공간에 대한 정보를 이용하여, 3차원 공간상의 객체를 식별할 수 있다.
객체 추적 장치(100)는 제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하여, 서로 다른 객체로 구분하여 식별할 수 있다. 객체 추적 장치(100)는 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 역반사 물질이 포함된 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 서로 다른 객체로 구분하여 식별할 수 있다.
640 단계에서, 객체 추적 장치(100)는 식별된 객체를 추적할 수 있다.
도 7은 식별된 객체를 추적하는 프로세스를 설명하기 위한 상세 흐름도이다.
앞서 설명한 도 5 의 540 단계 또는 도 6의 640 단계를 상세히 설명한다.
710 단계에서, 객체 추적 장치(100)는 선택된 그룹의 식별된 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적할 수 있다. 더 나아가, 객체 추적 장치(100)는 누적된 위치 정보에 기초하여, 식별된 객체의 움직임을 예상할 수도 있다.
720 단계에서, 객체 추적 장치(100)는 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다. 예를 들어, 객체 추적 장치(100)는 움직임 패턴에서 일정한 규칙이 발견되면, 공간의 레이아웃을 조정하거나 제품 배치를 달리하여 운용의 효율성을 높일 수 있다. 또한, 객체 추적 장치(100)는 예측을 벗어난 객체의 움직임이 발생하는 경우를 확인하여, 안전 사고가 나지 않도록 조치를 취하여, 안전 문제 등을 해결할 수 있다.
상술한 실시예들 각각은 객체 추적 방법을 수행하는 소정의 단계들을 실행시키기 위하여, 매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 상술한 실시예들 각각은 서버의 적어도 하나의 프로세서로 하여금, 객체 추적 방법을 수행하는 소정의 단계들을 수행하도록 하는, 매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다.
상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다.
이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 단계;
    상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 단계;
    상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 단계; 및
    상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 단계를 포함하고,
    상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 객체 추적 방법.
  2. 제1 항에 있어서,
    상기 제1 그룹은 상기 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 상기 제2 그룹은 상기 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응되는, 객체 추적 방법.
  3. 제1 항에 있어서,
    상기 3차원 공간상의 객체를 식별하는 단계는,
    상기 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별하는, 객체 추적 방법.
  4. 제3 항에 있어서,
    상기 3차원 공간상의 객체를 식별하는 단계는,
    상기 식별된 객체들 중에서 상기 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 상기 제1 그룹에 대응되는 객체들을 구분하여 식별하는, 객체 추적 방법.
  5. 제1 항에 있어서,
    상기 태그는 상기 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태인, 객체 추적 방법.
  6. 제1 항에 있어서,
    상기 추적하는 단계는,
    상기 선택된 그룹의 객체의 위치 정보를 누적하여, 상기 식별된 객체의 움직임을 추적하는 단계; 및
    상기 추적된 움직임에 기초하여, 상기 식별된 객체의 움직임 패턴을 분석하는 단계;를 포함하는, 객체 추적 방법.
  7. 제1 항에 있어서,
    상기 태그가 전자 태그 칩을 포함하는 형태인 경우,
    근거리 통신을 통해 객체 추적 장치로부터 소정의 거리 내의 상기 태그를 인식하는 단계를 더 포함하고,
    상기 복수의 그룹들로 분류하는 단계는,
    상기 인식된 태그를 가지는 객체를 상기 제1 그룹으로 분류하는, 객체 추적 방법.
  8. 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 명령어들;
    상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 명령어들;
    상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 명령어들; 및
    상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 명령어들을 포함하고,
    상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  9. 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 센서부;
    하나 이상의 명령어들을 저장하는 메모리; 및
    상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하고, 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하며, 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 프로세서를 포함하고,
    상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 객체 추적 장치.
  10. 제9 항에 있어서,
    상기 제1 그룹은 상기 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 상기 제2 그룹은 상기 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응되는, 객체 추적 장치.
  11. 제9 항에 있어서,
    상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별하는, 객체 추적 장치.
  12. 제11 항에 있어서,
    상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 식별된 객체들 중에서 상기 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 상기 제1 그룹에 대응되는 객체들을 구분하여 식별하는, 객체 추적 장치.
  13. 제9 항에 있어서,
    상기 태그는 상기 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태인, 객체 추적 장치.
  14. 제9 항에 있어서,
    상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 선택된 그룹의 객체의 위치 정보를 누적하여, 상기 식별된 객체의 움직임을 추적하고, 상기 추적된 움직임에 기초하여, 상기 식별된 객체의 움직임 패턴을 분석하는, 객체 추적 장치.
  15. 제9 항에 있어서,
    통신 인터페이스 장치를 더 포함하고,
    상기 태그가 전자 태그 칩을 포함하는 형태인 경우,
    상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 통신 인터페이스 장치를 이용하여 근거리 통신을 통해 객체 추적 장치로부터 소정의 거리 내의 상기 태그를 인식하고, 상기 인식된 태그를 가지는 객체를 상기 제1 그룹으로 분류하는, 객체 추적 장치.
PCT/KR2022/095085 2022-04-12 2022-04-12 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체 WO2023200075A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/095085 WO2023200075A1 (ko) 2022-04-12 2022-04-12 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/095085 WO2023200075A1 (ko) 2022-04-12 2022-04-12 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체

Publications (1)

Publication Number Publication Date
WO2023200075A1 true WO2023200075A1 (ko) 2023-10-19

Family

ID=88329738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/095085 WO2023200075A1 (ko) 2022-04-12 2022-04-12 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체

Country Status (1)

Country Link
WO (1) WO2023200075A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019661A (ko) * 2010-08-26 2012-03-07 아주대학교산학협력단 객체 추적 로봇 및 그 방법
KR20160038971A (ko) * 2014-09-30 2016-04-08 한남대학교 산학협력단 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템
KR20170010808A (ko) * 2014-05-21 2017-02-01 유니버셜 시티 스튜디오스 엘엘씨 패시브 추적 엘리먼트를 사용한 놀이 기구 차량 추적 및 제어 시스템
US20180306587A1 (en) * 2017-04-21 2018-10-25 X Development Llc Methods and Systems for Map Generation and Alignment
KR20190127624A (ko) * 2019-10-31 2019-11-13 충북대학교 산학협력단 라이다 센서를 이용한 밀집도 기반의 객체 검출 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019661A (ko) * 2010-08-26 2012-03-07 아주대학교산학협력단 객체 추적 로봇 및 그 방법
KR20170010808A (ko) * 2014-05-21 2017-02-01 유니버셜 시티 스튜디오스 엘엘씨 패시브 추적 엘리먼트를 사용한 놀이 기구 차량 추적 및 제어 시스템
KR20160038971A (ko) * 2014-09-30 2016-04-08 한남대학교 산학협력단 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템
US20180306587A1 (en) * 2017-04-21 2018-10-25 X Development Llc Methods and Systems for Map Generation and Alignment
KR20190127624A (ko) * 2019-10-31 2019-11-13 충북대학교 산학협력단 라이다 센서를 이용한 밀집도 기반의 객체 검출 장치 및 방법

Similar Documents

Publication Publication Date Title
AU2019419781B2 (en) Vehicle using spatial information acquired using sensor, sensing device using spatial information acquired using sensor, and server
Liu et al. Mining frequent trajectory patterns for activity monitoring using radio frequency tag arrays
JP5495235B2 (ja) 監視対象者の行動を監視する装置及び方法
JP5422859B2 (ja) 監視装置および不審行動検出方法
US11615620B2 (en) Systems and methods of enforcing distancing rules
US20130081137A1 (en) Simultaneous Determination of a Computer Location and User Identification
US20150213498A1 (en) Method and apparatus for providing product information
CN103353969A (zh) 基于体验式营销的营业厅智能管理系统
CN103260009A (zh) 影像监视装置、监视系统及监视系统构建方法
CN112613361B (zh) 一种安防监控用的智能化行为分析系统
US20160034924A1 (en) Estimating distribution of persons in a physical environment
WO2020141694A1 (en) Vehicle using spatial information acquired using sensor, sensing device using spatial information acquired using sensor, and server
WO2020183345A1 (en) A monitoring and recording system
WO2021162205A1 (ko) 충돌 사고 방지 방법, 장치, 서버, 및 컴퓨터 프로그램
WO2021114765A1 (zh) 一种基于深度图像的自助通道防尾随检测方法和系统
KR20180118979A (ko) 다중로그 데이터 기반의 공공안전 위험상황 감지, 예측, 대응 방법 및 장치
CN208569064U (zh) 一种进港行李查验自动化系统
WO2023200075A1 (ko) 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체
EP3910539A1 (en) Systems and methods of identifying persons-of-interest
Bauer et al. Measurement of pedestrian movements: A comparative study on various existing systems
KR102587926B1 (ko) 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체
WO2023014506A1 (en) System and method for audio tagging of an object of interest
WO2023027422A1 (ko) 3차원 공간의 관심 영역을 모니터링하는 방법 및 센싱 장치
KR102228395B1 (ko) 분할 영상을 활용한 영상 분석 장치, 시스템 및 이를 위한 방법
WO2023027419A1 (ko) 센싱 장치의 설치 이상을 감지하는 방법 및 이를 수행하는 센싱 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22937588

Country of ref document: EP

Kind code of ref document: A1