KR102531281B1 - Method and system for generating passing object information using the sensing unit - Google Patents

Method and system for generating passing object information using the sensing unit Download PDF

Info

Publication number
KR102531281B1
KR102531281B1 KR1020220080909A KR20220080909A KR102531281B1 KR 102531281 B1 KR102531281 B1 KR 102531281B1 KR 1020220080909 A KR1020220080909 A KR 1020220080909A KR 20220080909 A KR20220080909 A KR 20220080909A KR 102531281 B1 KR102531281 B1 KR 102531281B1
Authority
KR
South Korea
Prior art keywords
information
traffic
sensing unit
surrounding
objects
Prior art date
Application number
KR1020220080909A
Other languages
Korean (ko)
Inventor
송창현
정성균
유재은
김선수
Original Assignee
포티투닷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포티투닷 주식회사 filed Critical 포티투닷 주식회사
Application granted granted Critical
Publication of KR102531281B1 publication Critical patent/KR102531281B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시는 통행객체 정보를 생성하기 위한 방법 및 시스템에 관한 것이다. 본 개시의 일 실시 예에 따른 방법은, 센싱부로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식할 수 있다. 또한, 방법은, 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여, 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정할 수 있다. 또한, 방법은, 통행객체 각각에 고유 ID를 부여하고 통행객체를 분석한 통행객체 정보를 생성할 수 있다.The present disclosure relates to a method and system for generating traffic object information. In the method according to an embodiment of the present disclosure, one or more surrounding objects may be recognized from a plurality of data obtained from the sensing unit. In addition, the method may determine one or more traffic objects corresponding to at least a part of the one or more neighboring objects based on whether the one or more neighboring objects are repeatedly counted. In addition, the method may assign a unique ID to each of the traffic objects and generate traffic object information obtained by analyzing the traffic objects.

Description

센싱부를 활용한 통행객체 정보 생성 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING PASSING OBJECT INFORMATION USING THE SENSING UNIT}Method and system for generating traffic object information using a sensing unit {METHOD AND SYSTEM FOR GENERATING PASSING OBJECT INFORMATION USING THE SENSING UNIT}

본 발명은 센싱부를 활용하여 통행객체 정보를 생성하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for generating traffic object information using a sensing unit.

최근 팬데믹 기간에도 불구하고, 디지털 사이니지로 대두되는 교통시설광고 등 옥외 디스플레이 광고는 광고주가 선호하는 지역에서 신규 투자가 이루어지고 있고, 향후에도 공간적 한계 없이 확장될 수 있는 특성으로 인해 디지털 트렌드로 전환될 가능성을 품고 있다.Despite the recent pandemic period, outdoor display advertisements such as transportation facility advertisements, which are emerging as digital signage, are making new investments in areas preferred by advertisers, and are becoming a digital trend due to the characteristics that can be expanded without spatial limitations in the future. It has the potential to transform.

또한, 최근 모바일 플랫폼 기술을 활용하여 자가용 운전자들이 본인의 자동차를 광고 매체로 제공하고 운행시 광고 수익을 얻을 수 있도록 하는 플랫폼 사업에 대해 실증 특례를 승인한 바 있다.In addition, a special case for demonstration was recently approved for a platform business that utilizes mobile platform technology to enable private drivers to provide their cars as advertising media and earn advertising revenue while driving.

이와 같이 옥외광고 시장의 성장에 발맞춰 광고가 게시되는 시설 또는 광고를 부착한 차량이 주행하는 지역에 관한 가치평가 기술이 필요하다. 그러나 종래의 유동인구 분석 기술에 따르면 카메라나 레이더 등 센싱부에서 인식되는 객체가 동일한지 여부에 관계없이 중복으로 카운트되어 정확성이 떨어지는 문제점이 있다.As such, in line with the growth of the outdoor advertising market, technology for evaluating the value of facilities where advertisements are posted or areas where vehicles with advertisements are driven is required. However, according to the conventional floating population analysis technology, objects recognized by the sensing unit, such as cameras and radars, are repeatedly counted regardless of whether they are the same, resulting in poor accuracy.

본 발명에서는, 유동 인구 또는 통행 차량에 대한 더블 카운팅을 회피함으로써 높은 수준의 정밀도를 가지는 정보를 생성하여, 옥외 광고 및 부동산을 포함한 다양한 사업에서 유의미한 자료로 활용될 수 있다.In the present invention, information having a high level of precision is generated by avoiding double counting of floating population or passing vehicles, and can be used as meaningful data in various businesses including outdoor advertising and real estate.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention.

본 개시는 통행객체 정보를 생성하는 방법 및 시스템을 이용하여 통행객체에 관한 유의미한 분석 정보를 제공하는 데 있다. 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 과제 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명이 해결하고자 하는 과제 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.An object of the present disclosure is to provide meaningful analysis information about a traffic object by using a method and system for generating traffic object information. The problem to be solved by the present invention is not limited to the above-mentioned problems, and other problems and advantages of the present invention that are not mentioned can be understood by the following description and more clearly understood by the embodiments of the present invention. It will be. In addition, it will be appreciated that the problems and advantages to be solved by the present invention can be realized by the means and combinations indicated in the claims.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 통행객체 정보를 생성하는 방법에 있어서, 센싱부로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식하는 단계; 상기 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여, 상기 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정하는 단계; 및 상기 통행객체 각각의 고유 ID를 포함하는 통행객체 정보를 생성하는 단계;를 포함하는, 방법을 제공할 수 있다.As a technical means for achieving the above technical problem, a first aspect of the present disclosure is a method for generating traffic object information, comprising: recognizing one or more surrounding objects from a plurality of data obtained from a sensing unit; determining one or more transit objects corresponding to at least a part of the one or more neighboring objects based on whether the one or more neighboring objects are repeatedly counted; and generating traffic object information including a unique ID of each of the traffic objects.

본 개시의 제 2 측면은, 통행객체 정보를 생성하는 시스템에 있어서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램에 의하여 동작하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 센싱부로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식하고, 상기 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여, 상기 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정하고, 상기 통행객체 각각에 고유 ID를 부여하고 상기 통행객체를 분석한 통행객체 정보를 생성하는 것인, 시스템을 제공할 수 있다.A second aspect of the present disclosure is a system for generating traffic object information, comprising: a memory in which at least one program is stored; and at least one processor operating according to the at least one program, wherein the at least one processor recognizes one or more surrounding objects from a plurality of data obtained from the sensing unit, and redundant data for the one or more surrounding objects Based on whether or not counting, determining one or more traffic objects corresponding to at least a part of the one or more neighboring objects, assigning a unique ID to each of the traffic objects, and generating traffic object information obtained by analyzing the traffic objects, system can be provided.

본 개시의 제 3 측면은, 제 1 측면에 따른 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.A third aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method according to the first aspect on a computer.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer readable recording medium storing a computer program for executing the method may be further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims and detailed description of the invention.

본 발명의 일 실시예에 따르면 센싱부에 의해 수집된 데이터를 통해 유동인구 및 교통량에 기반한 유의미한 정보를 제공함으로써, 부동산 시장 참여자의 의사결정에 도움되는 가치평가, 부동산/차량 옥외광고 등에 관련한 가치평가에 활용할 수 있다.According to an embodiment of the present invention, by providing meaningful information based on floating population and traffic through data collected by the sensing unit, valuation to help real estate market participants make decisions, valuation related to real estate/vehicle outdoor advertising, etc. can be utilized for

뿐만 아니라, 카메라와 레이더에 의해 수집된 데이터를 가공하여 유동 인구 또는 통행 차량에 대한 더블 카운팅을 회피함으로써 높은 수준의 정밀도를 가지는 정보를 생성할 수 있다.In addition, information with a high level of precision can be generated by processing data collected by cameras and radars to avoid double counting of floating population or passing vehicles.

도 1 및 도 2는 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면들이다.
도 3은 일 실시예에 따른 통행객체 생성 시스템의 블록도이다.
도 4는 일 실시예에 따른 주변객체를 인식하는 방법을 설명하기 위한 예시적인 도면이다.
도 5a 및 도 5b는 일 실시예에 따른 통행객체를 결정하는 방법을 설명하기 위한 예시적인 도면이다.
도 6a 및 도 6b는 센싱부의 탐지범위를 결정하는 방법을 설명하기 위한 예시도이다.
도 7은 일 실시예에 따른 통행객체 정보를 생성하기 위해 통행객체를 비식별화하고 고유 ID를 생성하는 과정을 설명하기 위한 예시적인 도면이다.
도 8은 일 실시예에 따른 센싱부를 이용하여 통행객체 정보를 생성하는 방법을 설명하기 위한 흐름도이다.
1 and 2 are diagrams for explaining an autonomous driving method according to an embodiment.
3 is a block diagram of a transit object generation system according to an embodiment.
4 is an exemplary diagram for explaining a method of recognizing a surrounding object according to an exemplary embodiment.
5A and 5B are exemplary diagrams for explaining a method of determining a passing object according to an exemplary embodiment.
6A and 6B are exemplary diagrams for explaining a method of determining a detection range of a sensing unit.
7 is an exemplary diagram for explaining a process of de-identifying a travel object and generating a unique ID in order to generate travel object information according to an embodiment.
8 is a flowchart illustrating a method of generating transit object information using a sensing unit according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Advantages and features of the present invention, and methods for achieving them will become clear with reference to the detailed description of embodiments in conjunction with the accompanying drawings. However, it should be understood that the present invention is not limited to the embodiments presented below, but may be implemented in a variety of different forms, and includes all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. . The embodiments presented below are provided to complete the disclosure of the present invention and to fully inform those skilled in the art of the scope of the invention to which the present invention belongs. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단" 및 "구성" 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented as functional block structures and various processing steps. Some or all of these functional blocks may be implemented as a varying number of hardware and/or software components that perform specific functions. For example, functional blocks of the present disclosure may be implemented by one or more microprocessors or circuit configurations for a predetermined function. Also, for example, the functional blocks of this disclosure may be implemented in various programming or scripting languages. Functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic environment setting, signal processing, and/or data processing. Terms such as "mechanism", "element", "means" and "component" may be used broadly and are not limited to mechanical and physical components.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, connecting lines or connecting members between components shown in the drawings are only examples of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

이하에서, '차량'은 자동차, 버스, 오토바이, 킥보드 또는 트럭과 같이 기관을 가지고 사람이나 물건을 이동시키기 위해 이용되는 모든 종류의 운송 수단을 의미할 수 있다. 또한 '부동산'은 토지, 건물, 수목 따위와 같이 움직일 수 없는 모든 종류의 재산을 의미할 수 있으며, 예를 들어 건물(오피스, 빌딩), 공공시설(버스쉘터), 교통시설(역, 공항), 공공장소(엘리베이터 내부), 여가시설(영화관, 공연장, 전시장, 숙박 및 스포츠 시설), 쇼핑시설(대형매장, 소매점)을 포함할 수 있다.Hereinafter, 'vehicle' may refer to all types of transportation means such as a car, bus, motorcycle, kickboard, or truck that are used to move people or objects with engines. In addition, 'real estate' can mean all kinds of immovable property such as land, buildings, trees, etc. For example, buildings (offices, buildings), public facilities (bus shelters), transportation facilities (stations, airports) , public spaces (in elevators), leisure facilities (movie theaters, concert halls, exhibition halls, lodging and sports facilities), and shopping facilities (large stores, retail stores).

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1 및 도 2는 일 실시예에 따른 자율 주행 방식을 설명하기 위한 도면들이다.1 and 2 are diagrams for explaining an autonomous driving method according to an embodiment.

도 1을 참조하면, 본 발명의 일 실시예에 따른 자율 주행 장치는, 차량에 장착되어 자율 주행 차량(10)을 구현할 수 있다. 자율 주행 차량(10)에 장착되는 자율 주행 장치는, 주변의 상황 정보를 수집하기 위한 다양한 센서들을 포함할 수 있다. 일례로, 자율 주행 장치는 자율 주행 차량(10)의 전면에 장착된 이미지 센서 및/또는 이벤트 센서를 통해, 전방에서 운행 중인 선행 차량(20)의 움직임을 감지할 수 있다. 자율 주행 장치는 자율 주행 차량(10)의 전면은 물론, 옆 차로에서 운행중인 다른 주행 차량(30)과, 자율 주행 차량(10) 주변의 보행자 등을 감지하기 위한 센서들을 더 포함할 수 있다.Referring to FIG. 1 , an autonomous driving device according to an embodiment of the present invention may be mounted on a vehicle to implement an autonomous vehicle 10 . An autonomous driving device mounted on the autonomous vehicle 10 may include various sensors for collecting surrounding situation information. As an example, the autonomous driving device may detect the movement of the preceding vehicle 20 running in front through an image sensor and/or an event sensor mounted on the front of the autonomous vehicle 10 . The self-driving device may further include sensors for detecting the front side of the self-driving vehicle 10, another driving vehicle 30 operating in a side road, and pedestrians around the self-driving vehicle 10.

자율 주행 차량 주변의 상황 정보를 수집하기 위한 센서들 중 적어도 하나는, 도 1에 도시한 바와 같이 소정의 화각(FoV)을 가질 수 있다. 일례로, 자율 주행 차량(10)의 전면에 장착된 센서가 도 1에 도시한 바와 같은 화각(FoV)을 갖는 경우에, 센서의 중앙에서 검출되는 정보가 상대적으로 높은 중요도를 가질 수 있다. 이는, 센서의 중앙에서 검출되는 정보에, 선행 차량(20)의 움직임에 대응하는 정보가 대부분 포함되어 있기 때문일 수 있다.At least one of the sensors for collecting situational information around the self-driving vehicle may have a predetermined field of view (FoV) as shown in FIG. 1 . For example, when a sensor mounted on the front of the autonomous vehicle 10 has an angle of view (FoV) as shown in FIG. 1 , information detected in the center of the sensor may have a relatively high importance. This may be because most of the information corresponding to the motion of the preceding vehicle 20 is included in the information detected from the center of the sensor.

자율 주행 장치는, 자율 주행 차량(10)의 센서들이 수집한 정보를 실시간으로 처리하여 자율 주행 차량(10)의 움직임을 제어하는 한편, 센서들이 수집한 정보 중에 적어도 일부는 메모리 장치에 저장할 수 있다. The self-driving device controls the movement of the self-driving vehicle 10 by processing information collected by sensors of the self-driving vehicle 10 in real time, while storing at least some of the information collected by the sensors in a memory device. .

도 2를 참조하면, 자율 주행 장치(40)는 센서부(41), 프로세서(46), 메모리 시스템(47), 및 차체 제어 모듈(48) 등을 포함할 수 있다. 센서부(41)는 복수의 센서들(42-45)을 포함하며, 복수의 센서들(42-45)은 이미지 센서, 이벤트 센서, 조도 센서, GPS 장치, 가속도 센서 등을 포함할 수 있다.Referring to FIG. 2 , an autonomous driving device 40 may include a sensor unit 41 , a processor 46 , a memory system 47 , a vehicle body control module 48 , and the like. The sensor unit 41 includes a plurality of sensors 42-45, and the plurality of sensors 42-45 may include an image sensor, an event sensor, an illuminance sensor, a GPS device, an acceleration sensor, and the like.

센서들(42-45)이 수집한 데이터는 프로세서(46)로 전달될 수 있다. 프로세서(46)는 센서들(42-45)이 수집한 데이터를 메모리 시스템(47)에 저장하고, 센서들(42-45)이 수집한 데이터에 기초하여 차체 제어 모듈(48)을 제어하여 차량의 움직임을 결정할 수 있다. 메모리 시스템(47)은 둘 이상의 메모리 장치들과, 메모리 장치들을 제어하기 위한 시스템 컨트롤러를 포함할 수 있다. 메모리 장치들 각각은 하나의 반도체 칩으로 제공될 수 있다.Data collected by sensors 42-45 may be passed to processor 46. The processor 46 stores the data collected by the sensors 42-45 in the memory system 47, and controls the body control module 48 based on the data collected by the sensors 42-45 to control the vehicle movement can be determined. The memory system 47 may include two or more memory devices and a system controller for controlling the memory devices. Each of the memory devices may be provided as a single semiconductor chip.

메모리 시스템(47)의 시스템 컨트롤러 외에, 메모리 시스템(47)에 포함되는 메모리 장치들 각각은 메모리 컨트롤러를 포함할 수 있으며, 메모리 컨트롤러는 신경망과 같은 인공지능(AI) 연산 회로를 포함할 수 있다. 메모리 컨트롤러는 센서들(42-45) 또는 프로세서(46)로부터 수신한 데이터에 소정의 가중치를 부여하여 연산 데이터를 생성하고, 연산 데이터를 메모리 칩에 저장할 수 있다.In addition to the system controller of the memory system 47, each of the memory devices included in the memory system 47 may include a memory controller, and the memory controller may include an artificial intelligence (AI) operation circuit such as a neural network. The memory controller may generate calculation data by assigning a predetermined weight to data received from the sensors 42 to 45 or the processor 46 and store the calculation data in a memory chip.

도 3은 일 실시예에 따른 통행객체 생성 시스템의 블록도이다.3 is a block diagram of a transit object generation system according to an embodiment.

일 실시예에서, 본 발명에 따른 통행객체 생성 시스템(300)은 센싱부(310), 객체인식부(320), 객체결정부(330), 정보생성부(340) 및 디스플레이부(350)를 포함할 수 있으며, 각 모듈은 프로세서(미도시)를 포함할 수 있다.In one embodiment, the transit object generation system 300 according to the present invention includes a sensing unit 310, an object recognition unit 320, an object determination unit 330, an information generation unit 340 and a display unit 350. It may include, and each module may include a processor (not shown).

프로세서(미도시)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 저장 매체(미도시) 또는 통신 모듈(미도시)에 의해 프로세서(미도시)로 제공될 수 있다. 예를 들어 프로세서(미도시)는 저장 매체와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.A processor (not shown) may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to a processor (not shown) by a storage medium (not shown) or a communication module (not shown). For example, the processor (not shown) may be configured to execute received instructions according to program codes stored in a recording device such as a storage medium.

일 실시예에서, 센싱부(310)는 레이더(311) 및 카메라(312)를 포함할 수 있다.In one embodiment, the sensing unit 310 may include a radar 311 and a camera 312 .

본 발명의 시스템(300)은 다수의 센싱부(310)를 포함할 수 있으며, 각 센싱부(310)는 다수의 레이더(311) 및 다수의 카메라(312) 등을 포함할 수 있다. 센싱부(310)는 부동산(건물) 및 차량을 포함하는 일정한 물체의 전방, 후방, 측면 중 적어도 하나의 위치에 탑재될 수 있다. 시스템(300)은 센싱부(310) 각각의 설치 위치에 기반하여 통행객체 정보를 생성할 수 있다.The system 300 of the present invention may include a plurality of sensing units 310 , and each sensing unit 310 may include a plurality of radars 311 and a plurality of cameras 312 . The sensing unit 310 may be mounted on at least one of the front, rear, and side surfaces of certain objects including real estate (buildings) and vehicles. The system 300 may generate traffic object information based on the installation location of each sensing unit 310 .

레이더(311)는 주변에 전파를 방사하고, 객체에 반사되어 입사되는 반사파들을 감지함으로써 복수의 측정값을 획득할 수 있다. 구체적으로, 복수의 측정값은 복수의 측정 포인트일 수 있다. 레이더(311)는 비교적 외부 환경에 강인하고, 전파의 왕복 시간으로 정확한 거리 및 속도를 물리적으로 직접 획득할 수 있다.The radar 311 may acquire a plurality of measurement values by radiating radio waves to the surroundings and detecting reflected waves that are reflected and incident on an object. Specifically, the plurality of measurement values may be a plurality of measurement points. The radar 311 is relatively robust to an external environment, and can physically directly acquire an accurate distance and speed with a round-trip time of radio waves.

카메라(312)는 촬영을 통해 복수의 이미지 또는 영상 데이터를 획득할 수 있다. 카메라(312)는 피쳐(feature) 형태로 객체를 탐지함으로써 효과적으로 객체를 인식할 수 있다.The camera 312 may acquire a plurality of images or video data through photographing. The camera 312 can effectively recognize an object by detecting an object in the form of a feature.

일 실시예에서, 객체인식부(320)는 센싱부가 획득된 복수의 데이터를 수신하여 시스템(300) 주변에 존재하는 하나 이상의 주변객체를 인식할 수 있다. 주변객체는 사물객체와 통행객체를 포함할 수 있고, 통행객체는 차량 및 보행자를 포함할 수 있다. 이하 도 4를 참고하여, 객체인식부(320)가 주변객체를 인식하는 실시예를 자세히 서술한다.In one embodiment, the object recognition unit 320 may recognize one or more surrounding objects existing around the system 300 by receiving a plurality of data acquired by the sensing unit. Neighboring objects may include object objects and traffic objects, and traffic objects may include vehicles and pedestrians. An embodiment in which the object recognition unit 320 recognizes a surrounding object will be described in detail with reference to FIG. 4 below.

도 4는 일 실시예에 따른 주변객체를 인식하는 방법을 설명하기 위한 예시적인 도면이다.4 is an exemplary diagram for explaining a method of recognizing a surrounding object according to an exemplary embodiment.

객체인식부는 센싱부로부터 이전 이미지(410) 및 현재 이미지(420)를 포함하는 복수의 이미지를 수신할 수 있다. 센싱부로부터 수신한 복수의 이미지에는 복수의 객체가 포함될 수 있다. The object recognizing unit may receive a plurality of images including a previous image 410 and a current image 420 from the sensing unit. A plurality of images received from the sensing unit may include a plurality of objects.

예를 들어, 객체(412)는 보행자일 수 있다. 복수의 이미지(410, 420)는 소정의 크기를 가질 수 있다. 복수의 이미지(410, 420)에는 동일한 객체(412, 422)가 포함될 수 있으나, 센싱부가 탑재된 물체가 이동하거나 객체(412, 422)가 이동함에 따라 객체(411, 412)의 상대적 위치는 계속 변하게 되고, 이에 따라 동일한 객체(411, 412)라도 각 이미지 내에서의 위치가 달라지게 된다.For example, object 412 may be a pedestrian. The plurality of images 410 and 420 may have a predetermined size. The plurality of images 410 and 420 may include the same object 412 and 422, but the relative position of the object 411 and 412 continues as the object on which the sensing unit is mounted moves or the object 412 and 422 moves. Accordingly, even the same objects 411 and 412 have different positions within each image.

각 이미지에서 동일한 객체가 어떤 것인지 결정하기 위해 이미지 전체를 이용하는 경우, 데이터 전송량 및 연산량이 상당히 커지게 된다. 이에 따라, 본 발명의 일 실시예에서 차량에 탑재되는 장치의 경우 엣지 컴퓨팅을 통해 처리되기 어렵고, 실시간 분석 또한 어렵다.In the case of using the entire image to determine which object is the same in each image, the amount of data transmission and calculation becomes considerably large. Accordingly, in the case of a device mounted on a vehicle in one embodiment of the present invention, it is difficult to process through edge computing and real-time analysis is also difficult.

도 4를 참조하면, 이미지(410, 420)에 포함된 바운딩 박스(411, 421)가 도시된다.Referring to FIG. 4 , bounding boxes 411 and 421 included in images 410 and 420 are illustrated.

이전 이미지(410)를 참조하면, 바운딩 박스(411)는 객체(412)에 대한 메타데이터로써, 바운딩 박스 정보에는 이미지(410) 상의 위치 정보, 크기 정보 등이 포함될 수 있다. 예를 들어, 바운딩 박스 정보는 해당 객체(412)의 좌측 상단 꼭지점이 이미지 상의 (x, y)에 위치한다는 정보, 객체(412)의 크기가 w x h 라는 정보를 포함할 수 있다. 현재 이미지(420)의 객체(422)에 대한 바운딩 박스(421)에 관한 설명도 상술한 바와 같다.Referring to the previous image 410 , the bounding box 411 is metadata for the object 412 , and the bounding box information may include location information and size information on the image 410 . For example, the bounding box information may include information that the upper left vertex of the object 412 is located at (x, y) on the image and information that the size of the object 412 is w x h. The description of the bounding box 421 of the object 422 of the current image 420 is the same as described above.

객체인식부는 수신한 복수의 이미지로부터 주변객체를 인식할 수 있다.The object recognizing unit may recognize surrounding objects from a plurality of received images.

일 실시예에서, 객체인식부는 이미지를 동일한 크기의 그리드로 나누고, 각 그리드에 대해 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계박스의 개수를 예측하며 이를 기반으로 신뢰도를 계산할 수 있다. 객체인식부는 이미지에 객체가 포함되어 있는지, 또는 배경만 단독으로 있는지 여부를 결정하고, 높은 객체 신뢰도를 갖는 위치를 선택하여 객체 카테고리를 결정함으로써 결과적으로 객체를 인식할 수 있다. 다만, 본 개시에서 객체를 인식하는 방법은 이에 제한되지 않는다.In one embodiment, the object recognizing unit divides the image into grids of the same size, predicts the number of bounding boxes designated in a predefined form around the center of the grid for each grid, and calculates reliability based on this. The object recognizing unit determines whether an object is included in the image or only a background is present, selects a location having high object reliability, and determines an object category, thereby recognizing the object as a result. However, the method of recognizing an object in the present disclosure is not limited thereto.

일 실시예에서, 객체인식부는 복수의 이미지에 포함된 각 주변객체의 동일성을 판별할 수 있다. 예를 들어, 객체 인식부는 이전 이미지(410)에서 인식된 주변객체(412)의 제1 위치 정보를 획득할 수 있다. 제1 위치정보는 이전 이미지(410)상의 주변객체(412)에 대응하는 바운딩 박스(411)의 어느 하나의 꼭지점(예를 들어, 좌측 상단 꼭지점) 좌표 정보 및 가로, 세로 길이 정보를 포함할 수 있다. 또한, 객체인식부는 현재 이미지(420)에서 인식된 주변객체(422)의 제2 위치 정보를 획득할 수 있다.In one embodiment, the object recognition unit may determine the identity of each neighboring object included in the plurality of images. For example, the object recognizing unit may obtain first location information of the surrounding object 412 recognized in the previous image 410 . The first location information may include coordinate information of any one vertex (eg, upper left vertex) of the bounding box 411 corresponding to the surrounding object 412 on the previous image 410 and horizontal and vertical length information. there is. Also, the object recognizing unit may obtain second location information of the surrounding object 422 recognized in the current image 420 .

객체인식부는 이전 이미지(410)에서 인식된 주변객체(412)의 제1 위치 정보 및 현재 이미지(420)에서 인식된 주변객체(422)의 제2 위치 정보 간의 유사도를 산출할 수 있다.The object recognizing unit may calculate a similarity between first location information of the surrounding object 412 recognized from the previous image 410 and second location information of the surrounding object 422 recognized from the current image 420 .

도 4를 참조하면, 제1 위치 정보 및 제2 위치 정보를 이용하여, 객체인식부는 이전 이미지(410)의 주변객체(412) 및 현재 이미지(420)의 주변객체(422) 간 교집합 및 합집합을 산출할 수 있다. 보행자 위치 결정 장치는 합집합 영역 대비 교집합 영역의 값을 산출하고, 산출된 값이 임계값 이상인 경우 두 주변객체(412, 422)가 동일한 객체인 것으로 결정할 수 있다. 그러나, 복수의 이미지에서 주변객체 간의 동일성을 판별하는 방법은 상술한 방법으로 제한되지 않는다.Referring to FIG. 4 , using the first location information and the second location information, the object recognition unit determines the intersection and union between the surrounding object 412 of the previous image 410 and the surrounding object 422 of the current image 420. can be calculated The pedestrian positioning device may calculate a value of the intersection area compared to the union area, and determine that the two neighboring objects 412 and 422 are the same object when the calculated value is greater than or equal to a threshold value. However, a method of determining the identity of neighboring objects in a plurality of images is not limited to the above method.

다른 실시예에서, 다시 도 3을 참조하면, 객체인식부(320)는 센싱부(310)로부터 수신한 영상 데이터와 복수의 측정값에 기초하여 센서 퓨전 영상을 생성하고, 주변객체의 위치정보를 산출할 수 있다. 예를 들어, 레이더(311)가 획득한 복수의 측정값으로부터 산출한 객체와의 횡방향 거리 정보 및 카메라(312)가 획득한 영상 데이터를 정합하여 센서 퓨전 영상을 생성하고, 복수의 측정값 및 센서 퓨전 영상을 해석함으로써 영상 데이터에 포함된 주변객체의 위치정보를 산출할 수 있다.In another embodiment, referring to FIG. 3 again, the object recognizer 320 generates a sensor fusion image based on the image data received from the sensing unit 310 and a plurality of measurement values, and obtains location information of surrounding objects. can be calculated For example, a sensor fusion image is generated by matching lateral distance information with an object calculated from a plurality of measurement values obtained by the radar 311 and image data obtained by the camera 312, and a plurality of measurement values and By analyzing the sensor fusion image, it is possible to calculate the location information of the surrounding objects included in the image data.

객체인식부(320)는 레이더(311)에서 획득한 정보를 카메라 좌표계로 투영하여 카메라(312)가 촬영한 2D 영상에 레이더(311)로부터 획득한 객체와, 주변객체 사이의 횡방향 거리 정보를 매핑할 수 있다.The object recognizing unit 320 projects the information acquired from the radar 311 onto the camera coordinate system, and provides lateral distance information between the object obtained from the radar 311 and the surrounding objects in the 2D image captured by the camera 312. can be mapped.

또한, 객체인식부(320)는 레이더(311)를 통해 감지되는 복수의 측정값으로부터 주변객체로 인식되는 타겟에 대한 제1 위치정보를 추정하거나, 카메라(312) 및 레이더(311)간 센서 퓨전 영상에 포함된 주변객체를 타겟으로 인식하고, 상기 타겟에 대한 제2 위치정보를 추정하여 최종적으로 주변객체의 위치정보를 산출할 수 있다.In addition, the object recognizing unit 320 estimates first location information about a target recognized as a surrounding object from a plurality of measurement values detected through the radar 311, or sensor fusion between the camera 312 and the radar 311. It is possible to finally calculate the location information of the surrounding object by recognizing the surrounding object included in the image as a target and estimating the second location information of the target.

일 예로, 객체인식부(320)는 레이더(311)에서 전파를 방사하고, 주변객체에 반사되어 입사되는 반사파들을 감지함으로써 복수의 측정값에 해당하는 측정 포인트들을 획득하고, 타겟 검출 확률에 기반하여 측정 포인트들을 소정의 그룹으로 클러스터링 할 수 있다. 예를 들어, 선형 모델 판정법을 통해 클러스터링 할 수 있다. 이 때, 연속적으로 획득되는 측정 포인트들을 이용하여 클러스터링 된 그룹을 업데이트함으로써, 연속성을 유지하는 클러스터링 된 그룹을 주변객체로 인식할 수 있다. 또한, 객체인식부(320)는 클러스터링 영역 중 한 지점을 주변객체의 제1 위치정보로 추정할 수 있다.For example, the object recognition unit 320 obtains measurement points corresponding to a plurality of measurement values by radiating radio waves from the radar 311 and detecting reflected waves that are reflected and incident on surrounding objects, and based on the target detection probability Measurement points may be clustered into a predetermined group. For example, clustering can be performed through a linear model criterion. At this time, by updating the clustered group using measurement points obtained consecutively, the clustered group maintaining continuity may be recognized as a neighboring object. Also, the object recognizer 320 may estimate a point in the clustering area as first location information of a neighboring object.

다른 예로, 객체인식부(320)는 센서 퓨전 영상에 객체 인식 알고리즘을 적용하여 주변객체를 인식하고, 상술한 바와 같이 인식한 주변객체 영역에 대한 바운딩 박스를 설정할 수 있다. 객체인식부(320)는 바운딩 박스가 설정된 영역을 타겟으로 제2 위치정보를 트래킹할 수 있다. 구체적으로, 객체인식부(320)는 센서 퓨전 영상 중 연속된 이전 이미지 프레임 및 현재 이미지 프레임을 추출하고, 두 이미지 프레임을 비교하여 주변객체의 실시간 위치 변화를 반영한 연속적인 위치정보를 산출함으로써 제2 위치정보를 트래킹할 수 있다.As another example, the object recognizing unit 320 may apply an object recognition algorithm to a sensor fusion image to recognize a surrounding object, and set a bounding box for the recognized surrounding object area as described above. The object recognition unit 320 may track the second location information targeting an area where a bounding box is set. Specifically, the object recognizing unit 320 extracts continuous previous image frames and current image frames from sensor fusion images, compares the two image frames, and calculates continuous location information reflecting real-time location changes of surrounding objects, thereby calculating the second continuous location information. Location information can be tracked.

또한, 객체인식부(320)는 상기 센서 퓨전 영상뿐만 아니라, 카메라(312)가 촬영한 영상 데이터를 이용하여 주변객체의 제2 위치정보를 트래킹할 수 있다. 예를 들어, 객체인식부(320)는 수신한 영상 데이터의 연속된 이전 이미지 프레임 및 현재 이미지 프레임을 추출하고, 두 이미지 프레임의 주변객체 영역에 대한 바운딩 박스를 타겟으로 제2 위치정보를 트래킹할 수 있다. 구체적으로, 바운딩 박스에는 이미지 상의 위치 정보, 크기 정보 등을 포함하는 바운딩 박스 정보가 매핑되어 있으므로, 연속하는 이미지 프레임들을 비교하여 주변객체의 실시간 위치 변화를 반영한 위치정보를 산출함으로써 제2 위치정보를 트래킹할 수 있다.In addition, the object recognizing unit 320 may track second location information of a surrounding object using image data taken by the camera 312 as well as the sensor fusion image. For example, the object recognizing unit 320 extracts the previous image frame and the current image frame consecutively of the received image data, and tracks the second location information by targeting a bounding box of the surrounding object area of the two image frames. can Specifically, since bounding box information including location information and size information on an image is mapped to the bounding box, second location information is obtained by comparing successive image frames to calculate location information reflecting real-time location changes of surrounding objects. can track.

객체인식부(320)는 추정한 제1 위치정보 및 제2 위치정보에 기초하여 주변객체의 중심점을 이용하여 비용함수를 산출하고, 이에 따라 주변객체의 위치정보를 산출할 수 있다. 예를 들어, 제1 위치정보에 기초하여 계산한 제1 비용함수 및 제2 위치정보에 기초하여 계산한 제2 비용함수를 비교하여 최적의 비용함수를 선택함으로써 주변객체의 위치정보를 산출할 수 있다.The object recognizing unit 320 may calculate a cost function using the center point of the surrounding object based on the estimated first location information and the second location information, and calculate the location information of the surrounding object accordingly. For example, location information of surrounding objects may be calculated by comparing a first cost function calculated based on the first location information and a second cost function calculated based on the second location information and selecting an optimal cost function. there is.

일 실시예에서, 제1 비용함수는 아래와 같이 계산될 수 있다. 객체인식부(320)는 제1 위치정보에 포함된 주변객체의 횡방향 중심점에 수직한 종방향 가상선과, 클러스터링 된 영역의 각 측정값들의 수평거리를 합산하여 제1 비용함수를 계산할 수 있다.In one embodiment, the first cost function may be calculated as follows. The object recognizer 320 may calculate the first cost function by summing the vertical virtual line perpendicular to the horizontal central point of the surrounding object included in the first location information and the horizontal distance of each measurement value of the clustered area.

다른 실시예에서, 제2 비용함수는 아래와 같이 계산될 수 있다. 객체인식부(320)는 제2 위치정보에 포함된 바운딩 박스의 중심점을 관통하는 주변객체의 헤딩 방향에 상응하는 가상선을 기준으로, 복수의 측정값들의 수평거리를 합산하여 제2 비용함수를 계산할 수 있다. 비용함수는, 종방향 가상선을 기준으로 얼마나 많은 측정값들이 밀집해 있는지에 관한 지표가 될 수 있다.In another embodiment, the second cost function may be calculated as: The object recognizing unit 320 calculates a second cost function by summing horizontal distances of a plurality of measured values based on a virtual line corresponding to the heading direction of surrounding objects passing through the center point of the bounding box included in the second location information. can be calculated The cost function may be an indicator of how many measurement values are concentrated on the basis of a vertical imaginary line.

객체인식부(320)는 제1 비용함수 및 제2 비용함수를 비교하여 최소의 비용 함수값을 가지는 주변객체를 선택하고, 해당 주변객체에 대한 위치정보를 산출할 수 있다.The object recognizing unit 320 may compare the first cost function and the second cost function, select a surrounding object having a minimum cost function value, and calculate location information of the corresponding surrounding object.

이상에서 객체인식부(320)가 주변객체의 위치정보를 산출하는 것으로 상술하였으나, 이에 제한되는 것은 아니다. 다른 실시예에서, 센싱부(310)의 프로세서(미도시)가 주변객체에 관한 센서 퓨전 영상을 생성하고 주변객체의 위치정보를 산출할 수 있다.In the above, it has been described that the object recognition unit 320 calculates the location information of surrounding objects, but is not limited thereto. In another embodiment, a processor (not shown) of the sensing unit 310 may generate a sensor fusion image of a surrounding object and calculate location information of the surrounding object.

센싱부(310)가 복수개인 경우, 각 센싱부(310)로부터 수신한 각 데이터에는 동일한 주변객체가 포함될 수 있는데, 객체인식부(320)가 상기 주변객체를 인식함에 있어 서로 다른 주변객체로 인식 및 카운팅 할 수 있다. 또한, 객체인식부(320)가 객체를 인식함에 있어, 교통량 또는 유동인구를 구성하는 차량 또는 보행자뿐만 아니라 사물객체를 포함하는 부동객체도 함께 인식하므로 유의미한 정보를 생성하기 위해서 객체결정부(330)는 객체인식부(320)가 인식한 주변객체 중 통행객체를 결정할 필요가 있다.When there are a plurality of sensing units 310, each data received from each sensing unit 310 may include the same surrounding object. and can be counted. In addition, when the object recognizing unit 320 recognizes an object, it recognizes not only vehicles or pedestrians constituting traffic or floating population but also floating objects including object objects, so in order to generate meaningful information, the object determining unit 330 It is necessary to determine the passing object among the surrounding objects recognized by the object recognition unit 320.

도 5a 및 도 5b는 일 실시예에 따른 통행객체를 결정하는 방법을 설명하기 위한 예시적인 도면이다.5A and 5B are exemplary diagrams for explaining a method of determining a passing object according to an exemplary embodiment.

도 5a를 참조하면, 통행객체 정보 생성 시스템은 건물(500)의 일부를 구성하거나, 건물(500)에 탑재될 수 있다. 또한, 통행객체 정보 생성 시스템의 각 구성요소인 센싱부, 객체인식부, 객체결정부, 정보생성부, 디스플레이부는 건물(500)의 서로 다른 부분에 탑재되고 서로 연결되어 동작할 수 있으나, 이에 제한되는 것은 아니다.Referring to FIG. 5A , the traffic object information generating system may constitute a part of the building 500 or may be installed in the building 500 . In addition, the sensing unit, object recognition unit, object determination unit, information generation unit, and display unit, which are each component of the traffic object information generation system, may be mounted in different parts of the building 500 and connected to each other to operate, but are limited thereto. it is not going to be

객체결정부는 객체인식부가 인식한 하나 이상의 주변객체가 중복 카운팅 되었는지 여부를 판단할 수 있다.The object determination unit may determine whether or not one or more neighboring objects recognized by the object recognition unit are repeatedly counted.

일 실시예에서, 센싱부는 건물(500)의 서로 다른 면에 부착된 제1 센싱부(501) 및 제2 센싱부(502)를 포함할 수 있다. 객체인식부는 제1 센싱부(501)로부터 수신한 복수의 데이터에 기초하여 제1 주변객체(511), 제2 주변객체(512) 및 제3 주변객체(513)를 주변객체로 인식할 수 있다. 객체인식부는 제2 센싱부(502)로부터 수신한 복수의 데이터에 기초하여 제4 주변객체(513), 제5 주변객체(514), 제6 주변객체(515) 및 제7 주변객체(516)를 주변객체로 인식할 수 있다.In one embodiment, the sensing unit may include a first sensing unit 501 and a second sensing unit 502 attached to different surfaces of the building 500 . The object recognizing unit may recognize the first surrounding object 511, the second surrounding object 512, and the third surrounding object 513 as surrounding objects based on the plurality of data received from the first sensing unit 501. . The object recognizer generates a fourth surrounding object 513, a fifth surrounding object 514, a sixth surrounding object 515, and a seventh surrounding object 516 based on the plurality of data received from the second sensing unit 502. can be recognized as a surrounding object.

객체결정부는 상기 제1 주변객체(511) 내지 제7 주변객체(516)에 대한 정보를 객체인식부로부터 수신하여 중복카운팅 여부를 판단할 수 있다.The object determination unit may receive information on the first to seventh neighboring objects 511 to 516 from the object recognition unit to determine whether or not to count redundantly.

일 실시예에서, 객체결정부는 제1 센싱부 및 제2 센싱부의 설치좌표와 촬영각도를 통해 각 센싱부의 촬영 영역이 중복되는 소정의 영역(520)에 관한 정보를 획득할 수 있다. 객체결정부는 제1 센싱부로부터 수신한 복수의 데이터 중 소정의 영역(520)에 좌표정보가 포함되는 제3 주변객체(513) 및 제2 센싱부로부터 수신한 복수의 데이터 중 소정의 영역(520)에 좌표정보가 포함되는 제4 주변객체(513)에 대한 정보를 수신할 수 있다. 객체결정부는 제3 주변객체(513) 및 제4 주변객체(514)의 유사도를 산출하여 두 주변객체가 동일한 객체인지 여부를 결정할 수 있다. 복수의 객체의 유사도를 산출하는 방법은 도 4에서 상술한 바와 같을 수 있다.In an embodiment, the object determination unit may obtain information about a predetermined area 520 where the imaging areas of each sensing unit overlap through installation coordinates and a photographing angle of the first sensing unit and the second sensing unit. The object determination unit includes a third peripheral object 513 including coordinate information in a predetermined area 520 among a plurality of data received from the first sensing unit and a predetermined area 520 among a plurality of data received from the second sensing unit. ) may receive information about the fourth surrounding object 513 including coordinate information. The object determination unit may calculate similarities between the third and fourth surrounding objects 513 and 514 to determine whether the two surrounding objects are the same object. A method of calculating the similarity of a plurality of objects may be as described above with reference to FIG. 4 .

객체결정부는 산출한 유사도가 임계값 이상인 경우 중복카운팅 된 것으로 판단하고, 제3 주변객체(513) 및 제4 주변객체(514) 중 하나를 통행객체로 결정할 수 있다. 일 실시예에서, 객체결정부는 제3 주변객체(513) 및 제4 주변객체(514) 중 객체에 관한 정보를 더 많이 포함하고 있는 주변객체를 통행객체로 결정할 수 있으나, 중복카운팅 된 주변객체 중 하나를 통행객체로 결정하는 기준은 이에 제한되지 않는다.If the calculated similarity is greater than or equal to the threshold value, the object determination unit may determine that the counting has been duplicated, and determine one of the third and fourth surrounding objects 513 and 514 as a passing object. In one embodiment, the object determining unit may determine a neighboring object containing more information about the object among the third neighboring object 513 and the fourth neighboring object 514 as a traffic object, but among the duplicate counted neighboring objects The criterion for determining one as a traffic object is not limited thereto.

상술한 실시예에서, 통행객체 정보 시스템 또는 센싱부가 건물에 탑재되는 것으로 기재하였으나 이에 제한되는 것은 아니며 건물을 포함한 모든 종류의 부동산에 탑재될 수 있다.In the above-described embodiment, the traffic object information system or the sensing unit is described as being mounted on a building, but is not limited thereto and may be mounted on all types of real estate including buildings.

객체에 관한 정보는 객체 종류 정보 및 객체 속성 정보를 포함한다. 여기에서, 객체 종류 정보는 객체의 종류를 나타내는 인덱스 정보이며, 큰 범위인 그룹과 세부 범위인 클래스로 구성된다. 그리고, 객체 속성 정보는 객체의 현재 상 태에 대한 속성 정보를 나타내는 것이며, 움직임 정보, 회전 정보, 교통 정보, 색상 정보, 및 가시성 정보를 포함한다.Information about objects includes object type information and object attribute information. Here, the object type information is index information indicating the type of object, and is composed of a group, which is a large range, and a class, which is a detailed range. And, the object attribute information represents attribute information on the current state of the object, and includes motion information, rotation information, traffic information, color information, and visibility information.

객체 종류 정보에 포함되는 클래스는 신호등, 표지판, 분수대와 같은 사물객체, 승용차, 트럭, 버스와 같은 차량객체 및 보행자객체를 포함할 수 있다.Classes included in the object type information may include object objects such as traffic lights, signs, and fountains, vehicle objects such as cars, trucks, and buses, and pedestrian objects.

객체 속성 정보에 포함되는 정보에는 Action, Rotate, Traffic info, color, Visibility 정보가 포함될 수 있다. Action 정보는 객체의 움직임 정보를 표현하며 차량객체의 경우 정차, 주차 및 이동이, 보행자의 경우 이동, 정지, 알수없음이, 신호등과 같이 움직이지 않는 사물객체의 경우 디폴트 값인 정지가 객체 속성 정보가 결정될 수 있다. Rotate 정보는 객체의 회전 정보를 표현하며 정면, 후면, 수평(horizontal), 수직(vertical), 측면 등으로 정의될 수 있다. Traffic info는 객체의 교통정보를 의미하며, 교통표지판의 지시, 주의, 규제, 보조 표지 등으로 정의될 수 있다. Color는 객체의 색상 정보를 의미하며 객체의 색상, 신호등 및 교통표지판의 색상을 표현할 수 있다.Information included in object property information may include Action, Rotate, Traffic info, color, and visibility information. Action information expresses motion information of an object. In the case of a vehicle object, stop, parking, and movement are used. In the case of a pedestrian, movement, stop, and unknown are used. can be determined Rotate information expresses rotation information of an object and can be defined as front, back, horizontal, vertical, and side. Traffic info means the traffic information of an object, and can be defined as directions, cautions, regulations, auxiliary signs, etc. of traffic signs. Color means the color information of an object and can express the color of an object, the color of traffic lights and traffic signs.

도 5b를 참조하면, 통행객체 정보 생성 시스템은 차량(530)의 일부를 구성하거나, 차량(530)에 탑재될 수 있다. 또한, 통행객체 정보 생성 시스템의 각 구성요소인 센싱부, 객체인식부, 객체결정부, 정보생성부, 디스플레이부는 차량(530)의 서로 다른 부분에 탑재되고 서로 연결되어 동작할 수 있으나, 이에 제한되는 것은 아니다.Referring to FIG. 5B , the traffic object information generation system may constitute a part of the vehicle 530 or may be mounted on the vehicle 530 . In addition, the sensing unit, object recognition unit, object determination unit, information generation unit, and display unit, which are each component of the transit object information generation system, may be mounted on different parts of the vehicle 530 and connected to each other to operate, but are limited thereto. it is not going to be

일 실시예에서, 센싱부는 차량(530)의 서로 다른 면에 부착된 제1 센싱부(531) 및 제2 센싱부(532)를 포함할 수 있다. 차량(530)은 건물과 달리 속도를 가지고 이동할 수 있으므로, 차량의 실시간 속도에 기초하여 주변객체(517, 518)에 관한 정보를 구성할 수 있다.In one embodiment, the sensing unit may include a first sensing unit 531 and a second sensing unit 532 attached to different surfaces of the vehicle 530 . Since the vehicle 530 can move with speed unlike a building, information on the surrounding objects 517 and 518 can be configured based on the real-time speed of the vehicle.

차량에 탑재된 센싱부를 통해 주변객체를 인식하고 통행객체를 결정하는 과정은 도 5a에서 상술한 바와 같다.A process of recognizing a surrounding object and determining a passing object through a sensing unit mounted in a vehicle is the same as described above with reference to FIG. 5A.

객체결정부는 센싱부의 레이더로부터 복수의 측정값을 수신하여 주변객체의 속도를 산출할 수 있다. 도 5a를 참조하면, 객체결정부는 센싱부(501, 502)의 레이더로부터 복수의 측정값을 수신하여 주변객체(511 내지 516)의 속도를 산출할 수 있다. 도 5b를 참조하면, 객체결정부는 센싱부(531, 532)의 레이더로부터 복수의 측정값을 수신하여 주변객체(517, 518)의 속도를 산출할 수 있다.The object determination unit may receive a plurality of measurement values from the radar of the sensing unit to calculate the speed of the surrounding object. Referring to FIG. 5A , the object determination unit may receive a plurality of measurement values from radars of the sensing units 501 and 502 to calculate the speed of the surrounding objects 511 to 516 . Referring to FIG. 5B , the object determination unit may receive a plurality of measurement values from radars of the sensing units 531 and 532 to calculate the speed of the surrounding objects 517 and 518 .

레이더는 복수의 측정값 및 안테나, 송수신단, 신호처리단을 통해 객체의 상태 정보를 판단할 수 있다. 예를 들어, 레이더는 송신 안테나와 다수의 수신 안테나를 이용하여 객체 별 거리, 각도, 속도를 탐지할 수 있다. 또한, 레이더는 객체들로부터 반사된 도플러 주파수를 이용하여 객체의 속도 정보를 직접적으로 획득할 수 있다.The radar may determine state information of an object through a plurality of measurement values, an antenna, a transmitting/receiving terminal, and a signal processing terminal. For example, a radar may detect distance, angle, and speed of each object using a transmission antenna and a plurality of reception antennas. In addition, the radar may directly obtain speed information of objects using Doppler frequencies reflected from the objects.

도 5a와 같이 센싱부(501, 502)가 건물(500) 등에 부착 또는 탑재되어 있는 경우에는 복수의 측정값으로부터 주변객체(511 내지 516)의 도플러 성분을 추출하여 절대속도를 산출할 수 있으나, 도 5b와 같이 센싱부(531, 532)가 차량(530) 등에 부착 또는 탑재되어 있는 경우에는 주변객체(517, 518)의 도플러 성분을 추출하여 상대속도를 산출하고, 차량(530)의 실시간 속도를 고려하여 최종적으로 절대속도를 산출할 수 있다.As shown in FIG. 5A, when the sensing units 501 and 502 are attached to or mounted on a building 500, etc., the absolute speed can be calculated by extracting Doppler components of the surrounding objects 511 to 516 from a plurality of measured values. 5B, when the sensing units 531 and 532 are attached to or mounted on the vehicle 530, the relative speed is calculated by extracting the Doppler component of the surrounding objects 517 and 518, and the real-time speed of the vehicle 530 , the absolute speed can be finally calculated.

객체결정부는 주변객체의 속도에 기초하여 주변객체가 소정의 시간 내에 이동하는지 여부를 판단하여 주변객체(511 내지 516)를 사물객체(515, 516) 및 통행객체(511 내지 514) 중 어느 하나로 결정할 수 있다.The object determination unit determines whether the surrounding object moves within a predetermined time based on the speed of the surrounding object, and determines the surrounding object 511 to 516 as one of the object objects 515 and 516 and the traffic objects 511 to 514. can

일 실시예에서, 객체결정부는 주변객체가 소정의 시간 내에 이동하지 않는 것으로 판단되는 경우, 상기 주변객체를 사물객체로 결정할 수 있다. 예를 들어, 주변객체가 차량인 경우 정지신호에 의해 일시적으로 이동하지 않을 수 있으므로, 객체결정부는 주변객체가 기 설정된 임계시간 이상 이동하지 않는 경우에만 상기 주변객체를 사물객체로 결정할 수 있다. 반대로, 객체결정부는 주변객체가 기 설정된 임계시간 내에 이동하는 경우에는 통행객체로 결정할 수 있다.In an embodiment, the object determining unit may determine the surrounding object as the object object when it is determined that the surrounding object does not move within a predetermined time. For example, if the surrounding object is a vehicle, it may not temporarily move due to a stop signal, so the object determining unit may determine the surrounding object as an object object only when the surrounding object does not move for a predetermined threshold time or longer. Conversely, the object determining unit may determine a passing object when the surrounding object moves within a predetermined threshold time.

객체결정부는 통행객체로 결정된 주변객체를 차량 또는 보행자로 분류할 수 있다.The object determination unit may classify the surrounding object determined as a traffic object into a vehicle or a pedestrian.

일 실시예에서, 객체결정부는 센싱부로부터 수신한 복수의 이미지 또는 영상 데이터를 입력프레임으로 하여 CNN(Convolutional Neural Network)을 사용하여 이미지 또는 영상에 포함된 각 통행객체의 고유한 특징들을 추출할 수 있다. 이러한 특징은 객체 속성 정보의 일부일 수 있으며, 프레임의 특정 위치에 있는 통행객체를 분류하여 객체 종류 정보를 획득하는 데 사용될 수 있다. 또는, 객체결정부는 객체인식부로부터 수신한 바운딩 박스의 크기정보를 통해 통행객체를 차량 또는 보행자로 분류하거나, 산출한 주변객체의 속도에 기초하여 통행객체를 차량 또는 보행자로 분류할 수 있다. 객체결정부가 통행객체를 차량 또는 보행자로 분류하는 방법은 상술한 설명에 한정되지 않으며, 둘 이상의 방법의 조합으로 분류할 수 있다.In one embodiment, the object determination unit uses a plurality of images or video data received from the sensing unit as an input frame and uses a convolutional neural network (CNN) to extract unique features of each passing object included in the image or video. there is. This feature may be a part of object property information, and may be used to obtain object type information by classifying a passing object at a specific location in a frame. Alternatively, the object determining unit may classify the passing object into a vehicle or a pedestrian based on the size information of the bounding box received from the object recognizing unit, or may classify the passing object into a vehicle or a pedestrian based on the calculated speed of the surrounding object. The method of classifying the object determination unit as a vehicle or a pedestrian is not limited to the above description, and may be classified as a combination of two or more methods.

이상에서, 주변객체의 속도를 객체결정부가 산출하는 것으로 상술했으나, 센싱부, 객체인식부 또는 별도의 모듈이 산출할 수 있으며, 이에 제한되지 않는다.In the above, the speed of the surrounding object has been described as being calculated by the object determination unit, but the sensing unit, the object recognition unit, or a separate module may calculate the speed, but is not limited thereto.

도 6a 및 도 6b는 센싱부의 탐지범위를 결정하는 방법을 설명하기 위한 예시도이다.6A and 6B are exemplary diagrams for explaining a method of determining a detection range of a sensing unit.

도 6a를 참조하면, 객체결정부는 센싱부의 탐지범위를 결정하기 위하여 디스플레이부와 통행객체와의 거리를 고려할 수 있다.Referring to FIG. 6A , the object determination unit may consider the distance between the display unit and the passing object in order to determine the detection range of the sensing unit.

센싱부의 탐지범위는 도 3 내지 도 5b에서 상술한 바와 같이 카메라가 획득한 복수의 이미지 또는 영상 데이터에 포함되는 영역 및 센서가 획득한 복수의 측정값이 존재하는 영역뿐만 아니라, 통행객체가 디스플레이부를 바라보는 방향(view point) 또는 시야를 고려한 제한된 영역으로 결정될 수 있다.As described above with reference to FIGS. 3 to 5B , the detection range of the sensing unit is not only an area included in a plurality of images or video data acquired by a camera and an area in which a plurality of measurement values obtained by a sensor exist, but also a passing object can detect a display unit It may be determined as a limited area considering a view point or field of view.

일 실시예에서, 객체결정부는 건물의 일부에 탑재되어 있는 디스플레이부(610)에 관하여 통행객체(620)의 시야범위(640)에 디스플레이부(610)의 면적의 적어도 1/2 이상이 포함되는 건물과 통행객체(620)간의 최소 거리를

Figure 112022068648617-pat00001
으로 정의할 수 있으나, 위 면적에 제한되는 것은 아니다.In one embodiment, the object determination unit includes at least 1/2 of the area of the display unit 610 in the viewing range 640 of the transit object 620 with respect to the display unit 610 mounted in a part of the building The minimum distance between the building and the traffic object 620
Figure 112022068648617-pat00001
It can be defined as, but is not limited to the above area.

또한, 객체결정부는 통행객체(630)의 시야범위(650)에 디스플레이부(610)의 면적이 전부 포함되는 건물과 통행객체(630)간의 최대 거리를

Figure 112022068648617-pat00002
로 정의할 수 있다. 또는, 객체결정부는 거리에 따른 통행객체(630)의 이미지 또는 영상에 대한 평균 집중도 또는 시력이 미치는 범위에 기초하여 기 설정된 상한값에 따라
Figure 112022068648617-pat00003
를 정의할 수 있다.In addition, the object determining unit determines the maximum distance between the building and the passing object 630, in which the entire area of the display unit 610 is included in the viewing range 650 of the passing object 630.
Figure 112022068648617-pat00002
can be defined as Alternatively, the object determination unit according to the upper limit set in advance based on the average concentration on the image or video of the passing object 630 according to the distance or the range of visual acuity
Figure 112022068648617-pat00003
can define

한편, 시야범위(640, 650)는 통행객체의 종류에 따라 다르게 설정될 수 있다. 일 실시예에서, 통행객체의 종류가 보행자에 해당하는 경우 국민 평균 신장에 기초하여 결정될 수 있다. 또는, 통행객체의 종류가 차량에 해당하는 경우 세단 또는 suv의 평균 전고에 기초하여 결정될 수 있다.Meanwhile, the viewing ranges 640 and 650 may be set differently according to the type of passing object. In one embodiment, when the type of the transit object corresponds to a pedestrian, it may be determined based on the national average height. Alternatively, when the type of traffic object corresponds to a vehicle, it may be determined based on the average overall height of a sedan or SUV.

도 6b를 참조하면, 객체결정부는

Figure 112022068648617-pat00004
Figure 112022068648617-pat00005
에 기초하여 센싱부의 탐지범위를 결정할 수 있다.Referring to Figure 6b, the object determination unit
Figure 112022068648617-pat00004
and
Figure 112022068648617-pat00005
It is possible to determine the detection range of the sensing unit based on.

객체결정부는 디스플레이부(660) 또는 건물과의 거리(

Figure 112022068648617-pat00006
,
Figure 112022068648617-pat00007
)에 기초하여 결정된 센싱부의 탐지범위에 포함되는 객체만 통행객체로 결정할 수 있다. 예를 들어, 객체(690)는 디스플레이부(660)와의 거리가
Figure 112022068648617-pat00008
보다 작고, 객체(670)는 통행객체의 시야범위를 고려했을 때 센싱부의 탐지범위에 포함되지 않을 수 있다. 반면, 객체(680)은 디스플레이부(660)와의 거리가
Figure 112022068648617-pat00009
이상
Figure 112022068648617-pat00010
이하의 범위에 속하며 통행객체의 시야범위를 고려했을 때 센싱부의 탐지범위에 포함될 수 있다.Distance of the object determination unit to the display unit 660 or the building (
Figure 112022068648617-pat00006
,
Figure 112022068648617-pat00007
), only objects included in the detection range of the sensing unit determined on the basis of may be determined as transit objects. For example, the distance between the object 690 and the display unit 660 is
Figure 112022068648617-pat00008
It is smaller and the object 670 may not be included in the detection range of the sensing unit when considering the field of view of the passing object. On the other hand, the distance between the object 680 and the display unit 660 is
Figure 112022068648617-pat00009
more
Figure 112022068648617-pat00010
It belongs to the following range and can be included in the detection range of the sensing unit when considering the field of view of the passing object.

그러나 이는 디스플레이부(660)와 건물의 같은 일면에 부착된 센싱부의 탐지범위에 관한 설명에 한하며, 디스플레이부(660)와 건물의 다른 일면에 부착된 센싱부의 탐지범위에는 객체(670)이 포함될 수 있다.However, this is limited to the description of the detection range of the sensing unit attached to the same side of the building as the display unit 660, and the object 670 may be included in the detection range of the display unit 660 and the sensing unit attached to the other side of the building. there is.

다시 돌아와서, 객체결정부는 센싱부의 탐지범위에 포함되지 않는 객체(670, 690)는 통행객체로 결정하지 않고, 센싱부의 탐지범위에 포함되는 객체(680)는 통행객체로 결정할 수 있다.Returning again, the object determination unit may determine the objects 670 and 690 not included in the detection range of the sensing unit as transit objects, and the object 680 included in the detection range of the sensing unit as transit objects.

이와 같이, 통행객체의 시각에 기초하여 탐지범위를 결정함으로써 센싱부가 획득하는 데이터에 포함된 모든 영역이 아닌 제한된 영역에 한해서만 통행객체를 결정하고 통행객체 정보를 생성할 수 있다. 따라서, 합리적인 데이터 수집이 가능하며 프로세서의 연산 처리에 유리한 효과를 도출할 수 있다.In this way, by determining the detection range based on the time of the traveling object, it is possible to determine the traveling object and generate the traveling object information only in a limited area instead of all areas included in the data acquired by the sensing unit. Therefore, reasonable data collection is possible and advantageous effects can be derived for the processor's arithmetic processing.

이상에서, 객체결정부가 센싱부의 탐지범위를 결정하는 것으로 상술했으나, 센싱부, 객체인식부, 정보생성부 또는 별도의 모듈이 결정할 수 있으며, 이에 제한되지 않는다.In the above, it has been described that the object determination unit determines the detection range of the sensing unit, but the sensing unit, the object recognition unit, the information generation unit, or a separate module may determine the detection range, but is not limited thereto.

도 7은 일 실시예에 따른 통행객체 정보를 생성하기 위해 통행객체를 비식별화하고 고유 ID를 생성하는 과정을 설명하기 위한 예시적인 도면이다.7 is an exemplary diagram for explaining a process of de-identifying a travel object and generating a unique ID in order to generate travel object information according to an embodiment.

센싱부의 카메라가 촬영하는 복수의 이미지 및 영상 데이터에는 보행자의 얼굴이나 차량의 번호판이 그대로 포함되어 있어 개인정보가 그대로 노출되는 문제점이 있다. 따라서 개인정보 보호를 위해 보행자 및 차량과 같은 통행객체를 제3 자가 식별할 수 없도록 스크린되어야 한다.A plurality of images and video data photographed by a camera of the sensing unit includes a face of a pedestrian or a license plate of a vehicle, and thus personal information is exposed as it is. Therefore, in order to protect personal information, passing objects such as pedestrians and vehicles must be screened so that third parties cannot identify them.

이에 따라, 도 7을 참조하면, 정보생성부는 바운딩 박스(711, 712)가 설정된 통행객체에 대해 바운딩박스 내 영역을 비식별화(블러링, blurring)할 수 있다. 일 실시예에서, 정보생성부는 복수의 이미지 또는 영상 데이터의 임의의 이미지 프레임에 대하여 바운딩 박스(711, 712) 안쪽 영역의 픽셀값을 조작할 수 있다. 예를 들어, 임의의 픽셀에 대하여 소정의 반경 내 인접 픽셀들의 평균 색상값으로 변경하는 알고리즘을 적용하여 비식별화할 수 있다.Accordingly, referring to FIG. 7 , the information generating unit may de-identify (blurring) the area within the bounding box for the traveling object in which the bounding boxes 711 and 712 are set. In one embodiment, the information generating unit may manipulate pixel values of an area inside the bounding boxes 711 and 712 with respect to a plurality of images or an arbitrary image frame of video data. For example, de-identification may be performed by applying an algorithm that changes an arbitrary pixel to an average color value of adjacent pixels within a predetermined radius.

다른 실시예에서, 정보생성부는 통행객체의 종류에 따라 비식별화를 다르게 적용할 수 있다. 이미지의 픽셀값을 조작함에 있어 원본 이미지의 해상도가 커질 경우 데이터 연산량과 메모리의 사용량을 증가시킬 수 있다. 이에 따라, 정보생성부는 개인정보 노출의 우려가 더 큰 보행자(711)의 경우, 차량(712)의 경우보다 임의의 픽셀에 대하여 더 큰 반경 내 인접 픽셀들의 평균 색상값으로 변경하는 알고리즘을 적용할 수 있다.In another embodiment, the information generating unit may apply de-identification differently according to the type of traffic object. When the resolution of the original image increases in manipulating the pixel value of the image, the amount of data calculation and memory usage may increase. Accordingly, the information generating unit applies an algorithm that changes the average color value of neighboring pixels within a larger radius to a random pixel than that of the vehicle 712 in the case of the pedestrian 711, who is more concerned about the exposure of personal information. can

정보생성부는 바운딩 박스(711, 712)에 대응하는 통행객체마다 고유 ID를 부여할 수 있다.The information generating unit may assign a unique ID to each passage object corresponding to the bounding boxes 711 and 712 .

고유 ID는 통행객체를 구분하기 위한 식별 정보로서, 임의의 통행객체의 바운딩 박스 정보, 통행객체 종류 정보 및 통행객체 속성 정보 중 적어도 하나에 기초하여 생성되는 것일 수 있다. 예를 들어, 바운딩 박스 정보에는 객체의 이미지 상의 위치 정보, 크기 정보 등이 포함될 수 있으므로 연속적인 이미지 프레임 내에서 바운딩 박스의 위치 정보의 변화 및 크기 정보의 변화가 연속적인 경우, 해당 바운딩 박스에 대응하는 통행객체에 특정 고유 ID를 부여할 수 있다.The unique ID is identification information for classifying traffic objects, and may be generated based on at least one of bounding box information, traffic object type information, and traffic object attribute information of an arbitrary traffic object. For example, since the bounding box information may include position information and size information on an image of an object, when changes in position information and size information of the bounding box are continuous within consecutive image frames, the corresponding bounding box is corresponded to. A specific unique ID can be assigned to a travel object.

다른 예에서, 객체 종류 정보는 큰 범위인 그룹과 세부 범위인 클래스로 구성되고, 객체 속성 정보에는 움직임 정보, 회전 정보, 교통 정보, 색상 정보 및 가시성 정보 등이 포함될 수 있으므로, 연속적인 각 이미지 프레임 내에서 바운딩 박스 내에서 추출되는 움직임 정보 또는 색상 정보의 변화량이 임계값 미만이거나미만이고, 객체 종류 정보가 동일한 경우 해당 바운딩 박스에 대응하는 통행객체에 특정 고유 ID를 부여할 수 있다.In another example, the object type information is composed of a large scope group and a detailed scope class, and the object property information may include motion information, rotation information, traffic information, color information, visibility information, etc., so that each successive image frame When the amount of change in motion information or color information extracted within the bounding box is less than or equal to the threshold and the object type information is the same, a specific unique ID may be assigned to a transit object corresponding to the corresponding bounding box.

일 실시예에서, 보행자객체에는 ID01을 부여하고 차량객체에는 ID02를 부여하여 ID01 및 ID02에 각각 보행자객체 및 차량객체에 관한 정보를 매칭할 수 있다. 객체에 관한 정보는 객체 종류 정보 및 객체 속성 정보를 포함할 수 있으며, 객체 종류 정보 및 객체 속성 정보에 관한 설명은 도 5a에서 상술한 바와 같다.In one embodiment, by assigning ID01 to a pedestrian object and assigning ID02 to a vehicle object, information on the pedestrian object and the vehicle object may be matched to ID01 and ID02, respectively. Information on objects may include object type information and object property information, and descriptions on object type information and object property information are as described above with reference to FIG. 5A.

정보생성부는 고유 ID를 부여한 통행객체가 센싱부로부터 획득된 이미지 또는 영상에서 일시적으로 사라진 후에도 해당 고유 ID 및 객체에 관한 정보를 삭제하지 않고 일정시간 저장할 수 있다.The information generating unit may store the unique ID and information about the object for a certain period of time without deleting them even after the passing object to which the unique ID is assigned temporarily disappears from the image or video obtained from the sensing unit.

예를 들어, 통행객체가 이미지 또는 이미지 프레임 내에서 사라지는 경우에는, 바운딩 박스를 형성하고 트래킹하는 데 필요한 정보 및 정보의 변화량을 획득할 수 없으나, 객체인식부 또는 정보생성부는 트래킹 결과를 누적하여 바운딩 박스 내 통행객체 속성 정보 등을 기 설정된 시간 동안 저장할 수 있다.For example, when a passing object disappears from an image or image frame, it is not possible to obtain the information required for forming and tracking a bounding box and the amount of change in information, but the object recognition unit or information generator accumulates the tracking results and returns the bounding box. Passing object attribute information in the box may be stored for a preset time.

일 실시예에서, 객체인식부 또는 정보생성부는 특정 통행객체가 이미지 프레임 내에서 사라진 경우에 해당 통행객체에 관한 정보만을 기 설정된 제1 시간 동안 저장하고, 이미지 프레임 내에서 사라지지 않는 다른 통행객체에 관한 정보 중 일부는 기 설정된 제2 시간 도과 후 삭제할 수 있다. 제1 시간 및 제2 시간은 프로세서 속도 또는 메모리 용량에 기초하여 변경될 수 있다.In one embodiment, the object recognition unit or the information generation unit stores only the information about the corresponding traffic object for a predetermined first time when the specific traffic object disappears within the image frame, and other traffic objects that do not disappear within the image frame. Some of the related information may be deleted after a preset second time period has elapsed. The first time and the second time may change based on processor speed or memory capacity.

또한, 정보생성부는 해당 통행객체가 소정의 시간 이내에 상기 이미지 또는 영상에 다시 나타난 경우 해당 통행 객체에 기존의 고유 ID를 부여하고, 해당 통행객체에 관한 정보를 연속적으로 저장할 수 있다.In addition, the information generator may assign an existing unique ID to the corresponding transit object when the corresponding transit object reappears in the image or video within a predetermined time, and continuously store information on the corresponding transit object.

예를 들어, 이미지 프레임 내에서 사라졌던 특정 통행객체가, 저장된 통행객체 속성 정보에 기초하여 제1 시간 이내에 다시 나타난 것으로 결정되면 정보생성부는 해당 통행객체에 기존의 고유 ID를 다시 부여할 수 있다. 특정 통행객체가 제1 시간 이내에 다시 나타난 것으로 결정하는 방법은, 도 5a에서 상술한 복수의 객체가 동일한 객체인지 여부를 결정하는 방법과 동일할 수 있다.For example, if it is determined that a specific travel object that has disappeared within the image frame reappears within a first time based on the stored travel object attribute information, the information generating unit may assign an existing unique ID to the corresponding travel object again. A method of determining that a specific transit object reappears within the first time may be the same as the method of determining whether the plurality of objects described above are the same object in FIG. 5A .

다시 도 3으로 돌아와서, 정보생성부(340)는 바운딩박스에 기초하여 통행객체를 트래킹 할 수 있다.Returning to FIG. 3 again, the information generating unit 340 may track the passing object based on the bounding box.

상술한 바와 같이, 객체인식부(320) 또는 객체결정부(330)는 복수의 이미지 또는 영상 데이터의 이미지 프레임에 포함된 각 객체에 바운딩 박스를 설정하고, 실시간 객체 인식 결과 업데이트를 통해 해당 객체에 대한 트래킹 정보를 획득할 수 있다. 정보생성부(340)는 통행객체에 대한 트래킹 정보를 누적하여 통행객체의 궤적을 산출할 수 있다.As described above, the object recognizing unit 320 or the object determining unit 330 sets a bounding box for each object included in an image frame of a plurality of images or video data, and identifies the corresponding object through real-time object recognition result update. tracking information can be obtained. The information generating unit 340 may calculate the trajectory of the passing object by accumulating tracking information on the passing object.

일 실시예에서, 시스템(300)이 건물에 탑재된 경우, 해당 건물의 주위에 통행객체가 얼마나 머물렀는지, 어떠한 경로로 이동하였는지 등에 관한 정보가 포함될 수 있다. 또는, 시스템(300)이 차량에 탑재된 경우, 해당 차량의 주행경로와 얼마나 일치하였는지 등에 관한 정보가 포함될 수 있다. 정보생성부(340)는 산출한 통행객체의 궤적을 이용하여 통행객체 정보를 생성할 수 있다.In one embodiment, when the system 300 is mounted on a building, information about how long a passing object has stayed around the building, what route it has traveled, and the like may be included. Alternatively, when the system 300 is mounted on a vehicle, information about how much the system 300 matches the driving route of the vehicle may be included. The information generating unit 340 may generate traffic object information using the calculated trajectory of the traffic object.

정보생성부(340)가 생성한 통행객체 정보에 따르면, 시스템(300)이 탑재된 건물 또는 차량 주변의 유동인구 또는 교통량에 관한 정보가 포함될 수 있다. 구체적으로, 통행객체의 수, 트래킹 정보 및 이를 누적하여 생성한 궤적 정보, 속도 정보, 센싱부에 노출된 시간, 센싱부와의 거리, 센싱부가 획득한 복수의 이미지 또는 영상 데이터에서 사라졌다가 다시 나타난 횟수 및 상술한 정보가 각 고유 ID에 매칭된 종합 정보가 포함될 수 있다. 이와 같이 생성된 통행객체 정보는 중복 카운팅을 회피한 정보이므로 종래의 기술에 따른 정보보다 신뢰도 높은 결과를 제공할 수 있다. 또한 보편적인 유동인구 또는 교통량에 관한 정보가 아닌 객체마다의 특성이 반영된 정보로서, 본 발명의 시스템 주변 영역에 관한 새로운 해석 또는 정밀한 가치평가가 이루어질 수 있다.According to the traffic object information generated by the information generating unit 340, information on the floating population or traffic volume around a building or vehicle in which the system 300 is mounted may be included. Specifically, the number of passing objects, tracking information and trajectory information generated by accumulating it, speed information, time exposed to the sensing unit, distance to the sensing unit, and disappearing from a plurality of images or video data acquired by the sensing unit and then reappearing Comprehensive information in which the number of appearances and the above-described information is matched to each unique ID may be included. Since the traffic object information generated in this way is information that avoids duplicate counting, it can provide results with higher reliability than information according to the prior art. In addition, as information reflecting the characteristics of each object rather than information on universal floating population or traffic volume, a new interpretation or precise valuation of the area around the system of the present invention can be made.

정보생성부(340)는 센싱부 주변 영역에 대한 스코어를 도출할 수 있다.The information generating unit 340 may derive a score for an area around the sensing unit.

스코어는 센싱부(310)가 획득한 복수의 데이터로부터 생성된 통행객체 정보를 이용하여 도출한 점수로서, 센싱부(310) 주변 영역에 대한 평가 지표로 활용될 수 있다. 또한, 스코어는 상술한 통행객체 정보에 관한 해석을 용이하게 할 수 있다.The score is a score derived using traffic object information generated from a plurality of data obtained by the sensing unit 310, and may be used as an evaluation index for an area around the sensing unit 310. In addition, the score can facilitate interpretation of the above-described passing object information.

정보생성부(340)는 센싱부 주변 영역에 대하여 통행객체의 수, 통행객체의 종류 및 통행객체의 궤적에 기초하여, 스코어를 도출할 수 있다.The information generating unit 340 may derive a score based on the number of passing objects, the type of passing objects, and the trajectory of the passing objects in the area around the sensing unit.

일 실시예에서, 시스템(300)이 특정 건물에 탑재된 경우, 정보생성부(340)는 통행객체의 종류 및 통행객체의 궤적 중 적어도 하나에 기초하여 고유 ID마다 가중치를 부여함으로써 센싱부 주변 영역에 대한 스코어를 도출할 수 있다. 예를 들어, 정보생성부(340)는 통행객체의 종류가 보행자인 고유 ID보다 차량인 고유 ID에 더 높은 가중치를 부여하여 주변 영역에 대한 스코어를 도출할 수 있다. 또는, 정보생성부(340)는 통행객체의 궤적을 통해 건물 주변 영역에 오래 머무른 고유 ID에 더 높은 가중치를 부여하여 센싱부 주변 영역에 대한 스코어를 도출할 수 있다.In one embodiment, when the system 300 is installed in a specific building, the information generating unit 340 assigns a weight to each unique ID based on at least one of the type of the passing object and the trajectory of the passing object, thereby determining the area around the sensing unit. A score can be derived for For example, the information generating unit 340 may derive a score for the surrounding area by assigning a higher weight to a unique ID of a vehicle than a unique ID of a pedestrian. Alternatively, the information generating unit 340 may derive a score for the area around the sensing unit by assigning a higher weight to a unique ID that has stayed in the area around the building for a long time through the trajectory of the passing object.

다른 실시예에서, 시스템(300)이 특정 차량에 탑재된 경우, 정보생성부(340)는 통행객체의 종류 및 통행객체의 궤적 중 적어도 하나에 기초하여 고유 ID마다 가중치를 부여함으로써 센싱부 주변 영역에 대한 스코어를 도출할 수 있다. 정보생성부(340)는 통행객체의 궤적을 통해 차량의 주행경로와 일치하여 센싱부(310)에 오래 노출된 고유 ID에 더 높은 가중치를 부여하여 센싱부 주변 영역에 대한 스코어를 도출할 수 있다.In another embodiment, when the system 300 is mounted on a specific vehicle, the information generating unit 340 assigns a weight to each unique ID based on at least one of the type of the passing object and the trajectory of the passing object, thereby determining the area around the sensing unit. A score can be derived for The information generating unit 340 may derive a score for the area around the sensing unit by assigning a higher weight to the unique ID exposed to the sensing unit 310 for a long time in accordance with the driving path of the vehicle through the trajectory of the passing object. .

예를 들어, 시스템(300)이 강남역에 위치한 특정 건물 또는 강남역 주변을 주행하는 차량에 탑재된 경우에, 정보생성부(340)가 강남역 주변 영역의 통행객체에 대한 스코어를 도출함으로써, 좁게는 상기 특정 건물 또는 상기 차량 주행 구간에 관한 스코어, 넓게는 강남역에 관한 스코어가 도출될 수 있다.For example, when the system 300 is installed in a specific building located in Gangnam Station or a vehicle driving around Gangnam Station, the information generating unit 340 derives a score for a passing object in the area around Gangnam Station, narrowly A score related to a specific building or the vehicle driving section, and a score related to Gangnam Station in a broad sense may be derived.

다른 예에서, 시스템(300)이 양재역에 위치한 특정 건물 또는 양재역 주변을 주행하는 차량에 탑재된 경우에, 좁게는 상기 특정 건물 또는 상기 차량 주행 구간에 관한 스코어, 넓게는 양재역에 관한 스코어가 도출될 수 있다.In another example, when the system 300 is mounted on a specific building located in Yangjae Station or a vehicle driving around Yangjae Station, a score for the specific building or vehicle driving section in a narrow sense, and a score for Yangjae Station in a broad sense may be derived. can

최종적으로, 각 시스템(300)이 탑재된 영역에 따른 스코어가 도출됨에 따라 다양한 지역에 관한 스코어를 비교, 분석할 수 있는 효과가 있다.Finally, as the scores for each area in which each system 300 is mounted are derived, it is possible to compare and analyze scores for various areas.

센싱부(310)는 복수의 센싱부를 포함하고, 각 센싱부 주변 영역에 대한 스코어를 도출할 수 있다.The sensing unit 310 may include a plurality of sensing units and derive a score for an area around each sensing unit.

일 실시예에서, 도 5a를 참조하면, 센싱부는 제1 센싱부(501) 및 제2 센싱부(502)를 포함할 수 있고, 제1 센싱부(501) 및 제2 센싱부(502)는 건물(500)의 서로 다른 면에 탑재될 수 있다. 정보생성부는 제1 센싱부(501) 주변 영역에 대한 제1 스코어를 도출하고, 제2 센싱부(502) 주변 영역에 대한 제2 스코어를 도출할 수 있다. 각 센싱부마다 주변 영역의 유동 인구 및 통행량 또는 객체 종류 정보가 다를 수 있으므로, 제1 스코어 및 제2 스코어는 서로 다를 수 있다.In one embodiment, referring to FIG. 5A , the sensing unit may include a first sensing unit 501 and a second sensing unit 502, and the first sensing unit 501 and the second sensing unit 502 may include It can be mounted on different sides of the building 500. The information generator may derive a first score for an area around the first sensing unit 501 and derive a second score for an area around the second sensing unit 502 . Since the floating population and traffic volume or object type information of the surrounding area may be different for each sensing unit, the first score and the second score may be different from each other.

마찬가지로, 도 5b를 참조하면, 센싱부는 제1 센싱부(531) 및 제2 센싱부(532)를 포함할 수 있고, 제1 센싱부(531) 및 제2 센싱부(532)는 차량(530)의 서로 다른 면에 탑재될 수 있다. 정보생성부는 상술한 바와 같이 제1 스코어 및 제2 스코어를 도출할 수 있다.Similarly, referring to FIG. 5B , the sensing unit may include a first sensing unit 531 and a second sensing unit 532 , and the first sensing unit 531 and the second sensing unit 532 may include a vehicle 530 ) can be mounted on different sides of the As described above, the information generator may derive the first score and the second score.

일 실시예에서, 상술한 설명에 따르면 정보생성부(340)는 아래의 수학식 1 및 수학식 2에 따라 스코어를 도출할 수 있다.In one embodiment, according to the above description, the information generating unit 340 may derive a score according to Equations 1 and 2 below.

Figure 112022068648617-pat00011
Figure 112022068648617-pat00011

Figure 112022068648617-pat00012
Figure 112022068648617-pat00012

수학식 1에서,

Figure 112022068648617-pat00013
는 본 발명에서 도출하고자 하는 스코어를 의미하고,
Figure 112022068648617-pat00014
은 현재 시점에서 복수의 데이터에 포함된 통행객체의 수를 의미한다.In Equation 1,
Figure 112022068648617-pat00013
Means the score to be derived in the present invention,
Figure 112022068648617-pat00014
means the number of transit objects included in the plurality of data at the current point in time.

Figure 112022068648617-pat00015
은 n번째 통행객체의 종류에 따른 수를 의미한다. 예를 들어, 보행자는 1, 차량은 2일 수 있다. 기 설정된 수이거나, 임의로 설정되는 수일 수 있다.
Figure 112022068648617-pat00015
means the number according to the type of the n-th traffic object. For example, a pedestrian may be 1 and a vehicle may be 2. It may be a preset number or an arbitrarily set number.

Figure 112022068648617-pat00016
은 n번째 통행객체의 궤적 정보에 따른 수를 의미한다. 예를 들어, 수학식 2를 참조하면,
Figure 112022068648617-pat00017
은 n번째 통행객체가 센싱부에 노출된 시간(
Figure 112022068648617-pat00018
), n번째 통행객체의 속도(
Figure 112022068648617-pat00019
), n번째 통행객체의 센싱부(310)와의 거리(
Figure 112022068648617-pat00020
) 및 n번째 통행객체가 센싱부가 획득한 복수의 이미지 또는 영상 데이터에서 사라졌다가 다시 나타난 횟수(
Figure 112022068648617-pat00021
)에 관한 함수일 수 있다.
Figure 112022068648617-pat00016
denotes the number according to the trajectory information of the nth travel object. For example, referring to Equation 2,
Figure 112022068648617-pat00017
is the time when the nth traffic object is exposed to the sensing unit (
Figure 112022068648617-pat00018
), the speed of the nth traffic object (
Figure 112022068648617-pat00019
), the distance from the sensing unit 310 of the nth traffic object (
Figure 112022068648617-pat00020
) and the number of times the nth transit object disappeared and reappeared in a plurality of images or video data acquired by the sensing unit (
Figure 112022068648617-pat00021
) may be a function about.

일 실시예에서, 스코어(

Figure 112022068648617-pat00022
)는 통행객체의 수(
Figure 112022068648617-pat00023
)가 증가할수록, 통행객체의 종류(
Figure 112022068648617-pat00024
)가 보행자보다는 차량일수록, 통행객체가 센싱부에 노출된 시간(
Figure 112022068648617-pat00025
)이 길수록, 통행객체의 속도(
Figure 112022068648617-pat00026
)가 느릴수록, 통행객체의 센싱부(310)와의 거리(
Figure 112022068648617-pat00027
)가 가까울수록, 사라졌다가 다시 나타난 횟수(
Figure 112022068648617-pat00028
)가 많아질수록 높은 점수로써 도출될 수 있다.In one embodiment, the score (
Figure 112022068648617-pat00022
) is the number of traffic objects (
Figure 112022068648617-pat00023
) increases, the type of traffic object (
Figure 112022068648617-pat00024
) is a vehicle rather than a pedestrian, the time the passing object is exposed to the sensing unit (
Figure 112022068648617-pat00025
) is longer, the speed of the passing object (
Figure 112022068648617-pat00026
) is slower, the distance from the sensing unit 310 of the passing object (
Figure 112022068648617-pat00027
) is closer, the number of disappearances and reappearances (
Figure 112022068648617-pat00028
) can be derived as a higher score.

Figure 112022068648617-pat00029
은 n번째 통행객체에 부여되는 가중치일 수 있다. 특정 통행객체의 고유의 특성 또는 복수의 통행객체의 종류 또는 궤적에 의해 센싱부 주변 영역의 가치가 변동될 수 있으므로 정보생성부는 스코어(
Figure 112022068648617-pat00030
)를 도출함에 있어 각 통행객체에 가중치를 부여할 수 있다. 상술한 센싱부 주변 영역의 가치는 재산적 가치, 경제적 가치 이외의 다양한 관점에서의 가치를 의미할 수 있다.
Figure 112022068648617-pat00029
may be a weight given to the n-th traffic object. Since the value of the area around the sensing unit may change due to the unique characteristics of a specific traffic object or the type or trajectory of a plurality of traffic objects, the information generator score (
Figure 112022068648617-pat00030
), a weight can be assigned to each traffic object. The above-described value of the area around the sensing unit may mean value from various viewpoints other than property value and economic value.

일 실시예에서, 복수의 통행객체가 밀집되어 있는 경우, 해당 통행객체 각각의 고유 ID에 부여되는 가중치(

Figure 112022068648617-pat00031
)는 다른 통행객체보다 작을 수 있다. 사람이 많이 모여있는 경우 후술할 디스플레이부가 송출하는 이미지 또는 영상에 대한 집중도가 낮을 수 있기 때문이다.In one embodiment, when a plurality of traffic objects are dense, a weight given to a unique ID of each corresponding traffic object (
Figure 112022068648617-pat00031
) may be smaller than other traffic objects. This is because when a large number of people are gathered, the concentration of an image or video transmitted by a display unit, which will be described later, may be low.

다른 실시예에서, 상술한 바와 같이 통행객체의 종류(

Figure 112022068648617-pat00032
) 또는 궤적(
Figure 112022068648617-pat00033
)에 따라 특정 고유 ID에 더 높거나 낮은 가중치(
Figure 112022068648617-pat00034
)가 부여될 수도 있다. 예를 들어, 궤적(
Figure 112022068648617-pat00035
)에 포함되는 정보인 통행객체의 속도(
Figure 112022068648617-pat00036
)가 증가할수록 해당 통행객체에 부여되는 가중치(
Figure 112022068648617-pat00037
)는 낮아질 수 있다. 마찬가지로, 디스플레이부가 송출하는 이미지 또는 영상에 대한 집중도가 낮을 수 있기 때문이다.In another embodiment, as described above, the type of traffic object (
Figure 112022068648617-pat00032
) or trajectory (
Figure 112022068648617-pat00033
Depending on ), certain unique IDs have higher or lower weights (
Figure 112022068648617-pat00034
) may be given. For example, the trajectory (
Figure 112022068648617-pat00035
), which is the information included in the speed of the traveling object (
Figure 112022068648617-pat00036
) increases, the weight given to the corresponding traffic object (
Figure 112022068648617-pat00037
) can be lowered. Similarly, this is because the degree of concentration on the image or video transmitted by the display unit may be low.

본 발명의 스코어를 도출하는 식은 상기 수학식 1에 제한되지 않는다.The formula for deriving the score of the present invention is not limited to Equation 1 above.

다른 실시예에서, 시스템(300)이 특정 차량에 탑재된 경우, 정보생성부(340)는 통행객체의 종류 및 통행객체의 궤적 중 적어도 하나에 기초하여 고유 ID마다 가중치를 부여함으로써 센싱부 주변 영역에 대한 스코어를 도출할 수 있다. 정보생성부(340)는 통행객체의 궤적을 통해 차량의 주행경로와 일치하여 센싱부(310)에 오래 노출된 고유 ID에 더 높은 가중치를 부여할 수 있다.In another embodiment, when the system 300 is mounted on a specific vehicle, the information generating unit 340 assigns a weight to each unique ID based on at least one of the type of the passing object and the trajectory of the passing object, thereby determining the area around the sensing unit. A score can be derived for The information generating unit 340 may assign a higher weight to a unique ID exposed to the sensing unit 310 for a long time in accordance with the driving path of the vehicle through the trajectory of the passing object.

한편, 정보생성부(340)는 각 센싱부 주변에 대한 스코어에 따라, 각 센싱부가 탑재된 부동산이 위치하는 지역 또는 부동산의 서로 다른 면이 바라보는 지역의 가치를 산정할 수 있는 수치를 제공할 수 있다.On the other hand, the information generator 340 provides a value capable of calculating the value of the area where the real estate equipped with each sensing unit is located or the area viewed from different sides of the real estate according to the scores for the surroundings of each sensing unit. can

예를 들어, 특정 부동산의 제1 면이 대로변을 바라보고 있고, 해당 부동산의 제1 면과 다른 면인 제2 면은 골목길을 바라보고 있는 경우에 보편적으로 대로변을 향하는 센싱부 주변 영역의 스코어가 더 높을 것이라고 예상할 수 있으나, 본 발명에 따라 정확한 통행객체 인식을 통해 스코어를 도출한 결과 골목길을 바라보는 제2 면에 부착된 센싱부 주변 영역에 대한 스코어가 대로변을 바라보는 제1 면에 부착된 센싱부 주변 영역에 대한 스코어보다 높을 수 있다. 이 경우, 부동산 시장 참여자에게는 인사이트(insight)를 제공하여 의사결정에 도움을 줄 수 있고, 옥외광고 사업자에게는 부동산 가치평가 정보를 제공하여 수익 창출에 도움을 줄 수 있다.For example, when the first side of a specific property faces the roadside, and the second side, which is different from the first side of the property, faces an alleyway, the score of the area around the sensing unit generally facing the roadside is higher. It can be expected to be high, but as a result of deriving the score through accurate traffic object recognition according to the present invention, the score for the area around the sensing unit attached to the second side facing the alley is attached to the first side facing the roadside. It may be higher than the score for the area around the sensing unit. In this case, insight can be provided to real estate market participants to help in decision making, and real estate valuation information can be provided to outdoor advertising operators to help generate profits.

상술한 실시예에서, 특정 부동산의 서로 다른 면에 관하여 서술하였으나, 이에 제한되는 것은 아니고, 부동산 자체에 관한 인사이트 또는 가치평가 자료로써 활용될 수 있음은 자명하다.In the above-described embodiment, different aspects of a specific real estate are described, but it is not limited thereto, and it is obvious that it can be used as insight or value evaluation data related to the real estate itself.

정보생성부는 제1 스코어 및 제2 스코어를 기초로 디스플레이부에 소정의 이미지 또는 영상을 송출할 수 있다.The information generating unit may transmit a predetermined image or video to the display unit based on the first score and the second score.

도 5a에서 디스플레이부는 제1 디스플레이부(503) 및 제2 디스플레이부(504)를 포함할 수 있고, 각 디스플레이부는 각 센싱부와 동일한 건물의 일면에 탑재될 수 있다. 마찬가지로 도 5b에서 디스플레이부는 제1 디스플레이부(미도시) 및 제2 디스플레이부(미도시)를 포함할 수 있고, 각 디스플레이부는 각 센싱부와 동일한 차량의 일면에 탑재될 수 있다.5A, the display unit may include a first display unit 503 and a second display unit 504, and each display unit may be mounted on one side of the same building as each sensing unit. Similarly, in FIG. 5B , the display unit may include a first display unit (not shown) and a second display unit (not shown), and each display unit may be mounted on the same side of the vehicle as each sensing unit.

각 센싱부 주변에 대한 스코어에 따라 각 센싱부와 동일한 면에 탑재된 디스플레이부에는 서로 다른 이미지 또는 영상이 송출될 수 있다. 예를 들어, 이미지 또는 영상은 광고 이미지 또는 광고 영상일 수 있다.Different images or videos may be transmitted to the display unit mounted on the same surface as each sensing unit according to the score for the vicinity of each sensing unit. For example, the image or video may be an advertisement image or advertisement video.

도 8은 일 실시예에 따른 센싱부를 이용하여 통행객체 정보를 생성하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of generating transit object information using a sensing unit according to an exemplary embodiment.

도 8에 도시된, 통행객체 정보를 생성하는 방법은, 앞서 설명된 도면들에서 설명된 실시예들에 관련되므로, 이하 생략된 내용이라 할지라도, 앞서 도면들에서 설명된 내용들은 도 8에도 적용될 수 있다.Since the method of generating traffic object information shown in FIG. 8 is related to the embodiments described in the drawings described above, the contents described in the drawings will be applied to FIG. 8 even if omitted below. can

도 8을 참조하면, 단계 810에서 시스템은 센싱부로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식할 수 있다.Referring to FIG. 8 , in step 810, the system may recognize one or more surrounding objects from a plurality of data acquired from the sensing unit.

센싱부는 제1 센싱부 및 제2 센싱부를 포함하는 복수의 센싱부일 수 있다.The sensing unit may be a plurality of sensing units including a first sensing unit and a second sensing unit.

센싱부는 카메라 및 레이더를 포함할 수 있고, 복수의 데이터는 카메라로부터 획득된 복수의 이미지 또는 영상 데이터와, 레이더로부터 획득된 복수의 측정값을 포함할 수 있다.The sensing unit may include a camera and a radar, and the plurality of data may include a plurality of images or video data obtained from the camera and a plurality of measurement values obtained from the radar.

주변객체는 사물객체 및 통행객체를 포함할 수 있고, 통행객체는 차량 및 보행자를 포함할 수 있다.Neighboring objects may include object objects and traffic objects, and traffic objects may include vehicles and pedestrians.

일 실시예에서, 시스템은 복수의 측정값을 이용하여 주변객체의 제1 위치정보를 추정하고, 복수의 데이터를 이용하여 주변객체의 제2 위치정보를 추정하여 제1 위치정보 및 제2 위치정보를 기초로 주변객체의 위치정보를 산출할 수 있다.In one embodiment, the system estimates the first location information of the surrounding object using a plurality of measurement values, and estimates the second location information of the surrounding object using a plurality of data to obtain the first location information and the second location information. Based on the location information of the surrounding object can be calculated.

일 실시예에서, 시스템은 복수의 데이터로부터 주변객체의 속도를 산출할 수 있다.In one embodiment, the system may calculate the velocity of a surrounding object from a plurality of data.

일 실시예에서, 시스템은 주변객체에 대한 바운딩 박스를 설정할 수 있다.In one embodiment, the system may set bounding boxes for surrounding objects.

이후, 단계 820에서 시스템은 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정할 수 있다.Then, in step 820, the system may determine one or more transit objects corresponding to at least a part of the one or more neighboring objects based on whether the one or more neighboring objects are repeatedly counted.

일 실시예에서, 시스템은 제1 센싱부로부터 수신한 데이터에 기초하여 인식된 제1 주변객체 및 제2 센싱부로부터 수신한 데이터에 기초하여 인식된 제2 주변객체가 동일한 객체인지 여부를 결정하고, 이를 기초로 제1 주변객체 및 제2 주변객체 중 저거도 하나를 통행객체로 결정할 수 있다.In one embodiment, the system determines whether a first surrounding object recognized based on data received from the first sensing unit and a second surrounding object recognized based on data received from the second sensing unit are the same object; , Based on this, it is possible to determine one of the first and second surrounding objects as a traffic object.

일 실시예에서, 시스템은 복수의 데이터로부터 산출한 주변객체의 속도에 기초하여 주변객체가 소정의 시간 내에 이동하지 않는 것으로 결정된 경우 주변객체를 사물객체로 결정하고, 주변객체가 소정의 시간 내에 이동하는 것으로 결정된 경우 주변객체를 통행객체로 결정할 수 있다. 또는, 시스템은 통행객체를 차량 또는 보행자로 분류할 수 있다.In one embodiment, the system determines the surrounding object as an object object when it is determined that the surrounding object does not move within a predetermined time based on the speed of the surrounding object calculated from a plurality of data, and the surrounding object moves within the predetermined time If it is determined to do so, the surrounding object may be determined as the transit object. Alternatively, the system may classify the traffic object as a vehicle or a pedestrian.

이후, 단계 830에서 시스템은 통행객체 각각의 고유 ID를 포함하는 통행객체 정보를 생성할 수 있다.Then, in step 830, the system may generate travel object information including a unique ID of each travel object.

고유 ID는 통행객체를 구분하기 위한 식별 정보로서, 바운딩 박스 정보, 통행객체 종류 정보 및 통행객체 속성 정보 중 적어도 하나에 기초하여 부여되는 것을 특징으로 할 수 있다.The unique ID is identification information for classifying a traveling object, and may be given based on at least one of bounding box information, travel object type information, and travel object attribute information.

일 실시예에서, 시스템은 바운딩 박스가 설정된 통행객체를 비식별화하고, 통행객체마다 고유 ID를 부여할 수 있다.In one embodiment, the system may de-identify traffic objects for which a bounding box is set, and assign a unique ID to each traffic object.

일 실시예에서, 시스템은 고유 ID를 부여한 통행객체가 복수의 이미지 또는 영상 데이터에서 사라진 것으로 결정된 것에 응답하여, 소정의 시간 동안 통행객체에 관한 정보를 저장할 수 있다.In one embodiment, the system may store information about the passing object for a predetermined time in response to determining that the passing object to which the unique ID has been assigned has disappeared from a plurality of images or video data.

일 실시예에서, 통행객체에 관한 정보에 기초하여 통행객체가 복수의 이미지 또는 영상 데이터에 소정의 시간 내에 나타난 다른 통행객체와 동일한 객체인지 여부를 결정할 수 있다.In one embodiment, it is possible to determine whether the transit object is the same object as other transit objects appearing in a plurality of images or video data within a predetermined time based on information about the transit object.

일 실시예에서, 다른 통행객체와 동일한 객체인 것으로 결정된 것에 응답하여 통행객체에 기존의 고유 ID를 부여할 수 있다.In one embodiment, an existing unique ID may be assigned to a traffic object in response to being determined to be the same object as other traffic objects.

통행객체에 관한 정보는 바운딩 박스 정보, 통행객체 종류 정보 및 통행객체 속성 정보 중 적어도 하나를 포함할 수 있다.The information about the traffic object may include at least one of bounding box information, traffic object type information, and traffic object attribute information.

일 실시예에서, 시스템은 바운딩 박스에 기초하여 통행객체를 트래킹하고, 트래킹 결과를 누적하여 통행객체의 궤적을 산출할 수 있다.In one embodiment, the system may track the transit object based on the bounding box and calculate the trajectory of the transit object by accumulating the tracking results.

일 실시예에서, 시스템은 센싱부 주변 영역에 대한 스코어를 도출할 수 있다.In one embodiment, the system may derive a score for an area around the sensing unit.

스코어는 통행객체의 종류 및 통행객체의 궤적 중 적어도 하나에 기초하여 고유 ID마다 가중치를 부여함으로써 도출되는 것일 수 있다.The score may be derived by assigning a weight to each unique ID based on at least one of the type of the passing object and the trajectory of the passing object.

일 실시예에서, 시스템은 제1 센싱부 주변 영역에 대한 제1 스코어를 도출하고, 제2 센싱부 주변 영역에 대한 제2 스코어를 도출하고, 제1 스코어 및 제2 스코어에 기초하여 하나 이상의 디스플레이부에 소정의 이미지 또는 영상을 송출할 수 있다.In one embodiment, the system derives a first score for an area surrounding a first sensing unit, derives a second score for an area surrounding a second sensing unit, and displays one or more displays based on the first score and the second score. A predetermined image or video can be transmitted to the unit.

본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present invention may be implemented in the form of a computer program that can be executed on a computer through various components, and such a computer program may be recorded on a computer-readable medium. At this time, the medium is a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floptical disk, and a ROM hardware devices specially configured to store and execute program instructions, such as RAM, flash memory, and the like.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software. An example of a computer program may include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like.

일 실시예에 따르면, 본 개시의 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments of the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or between two user devices. It can be distributed (e.g., downloaded or uploaded) directly or online. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The steps constituting the method according to the present invention may be performed in any suitable order unless an order is explicitly stated or stated to the contrary. The present invention is not necessarily limited according to the order of description of the steps. The use of all examples or exemplary terms (eg, etc.) in the present invention is simply to explain the present invention in detail, and the scope of the present invention is limited due to the examples or exemplary terms unless limited by the claims. it is not going to be In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments and should not be determined, and all scopes equivalent to or equivalently changed from the claims as well as the claims described below are within the scope of the spirit of the present invention. will be said to belong to

Claims (12)

통행객체 정보 생성 방법에 있어서,
센싱부 -제1 센싱부 및 제2 센싱부를 포함함- 로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식하는 단계;
상기 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여, 상기 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정하는 단계;
상기 통행객체에 대한 바운딩 박스를 설정하는 단계; 및
상기 통행객체 각각의 고유 ID를 포함하는 통행객체 정보를 생성하는 단계;
를 포함하고,
상기 통행객체 정보를 생성하는 단계는,
상기 바운딩 박스에 기초하여, 상기 통행객체를 트래킹 하는 단계;
상기 트래킹 결과를 누적하여 상기 통행객체의 궤적을 산출하는 단계;
통행객체의 종류 및 상기 통행객체의 궤적 중 적어도 하나에 기초하여 상기 제1 센싱부 주변 영역에 대한 제1 스코어 및 상기 제2 센싱부 주변 영역에 대한 제2 스코어를 도출하는 단계; 및
상기 제1 스코어 및 상기 제2 스코어에 기초하여 하나 이상의 디스플레이부에 소정의 이미지 또는 영상을 송출하는 단계;
를 포함하는, 방법.
In the method of generating traffic object information,
Recognizing one or more surrounding objects from a plurality of data obtained from the sensing unit (including the first sensing unit and the second sensing unit);
determining one or more transit objects corresponding to at least a part of the one or more neighboring objects based on whether the one or more neighboring objects are repeatedly counted;
setting a bounding box for the traffic object; and
generating traffic object information including a unique ID of each of the traffic objects;
including,
The step of generating the traffic object information,
tracking the transit object based on the bounding box;
calculating a trajectory of the passing object by accumulating the tracking result;
deriving a first score for an area around the first sensing unit and a second score for an area around the second sensing unit based on at least one of a type of a passing object and a trajectory of the passing object; and
transmitting a predetermined image or video to one or more display units based on the first score and the second score;
Including, method.
제 1 항에 있어서,
상기 복수의 데이터는 상기 센싱부의 카메라로부터 획득된 복수의 이미지 또는 영상 데이터와, 상기 센싱부의 레이더로부터 획득된 복수의 측정값을 포함하고,
상기 주변객체를 인식하는 단계는,
상기 복수의 측정값을 이용하여 상기 주변객체의 제1 위치정보를 추정하는 단계;
상기 복수의 데이터를 이용하여 상기 주변객체의 제2 위치정보를 추정하는 단계; 및
상기 제1 위치정보 및 상기 제2 위치정보에 기초하여 상기 주변객체의 위치정보를 산출하는 단계;
를 더 포함하는, 방법.
According to claim 1,
The plurality of data includes a plurality of images or video data obtained from a camera of the sensing unit and a plurality of measurement values obtained from a radar of the sensing unit,
Recognizing the surrounding object,
estimating first location information of the surrounding object using the plurality of measurement values;
estimating second location information of the surrounding object using the plurality of data; and
calculating location information of the surrounding object based on the first location information and the second location information;
Further comprising a method.
제 1 항에 있어서,
상기 통행객체를 결정하는 단계는,
상기 제1 센싱부로부터 수신한 데이터에 기초하여 인식된 제1 주변객체 및 상기 제2 센싱부로부터 수신한 데이터에 기초하여 인식된 제2 주변객체가 동일한 객체인지 여부를 결정하는 단계; 및
상기 결정에 기초하여 상기 제1 주변객체 및 상기 제2 주변객체 중 적어도 하나를 상기 통행객체로 결정하는 단계;
를 포함하는, 방법.
According to claim 1,
The step of determining the traffic object is,
determining whether a first surrounding object recognized based on data received from the first sensing unit and a second surrounding object recognized based on data received from the second sensing unit are the same object; and
determining at least one of the first surrounding object and the second surrounding object as the transit object based on the determination;
Including, method.
제 1 항에 있어서,
상기 방법은,
상기 주변객체의 속도를 산출하는 단계;
를 더 포함하고,
상기 통행객체를 결정하는 단계는,
상기 속도로부터 상기 주변객체가 소정의 시간 내에 이동하지 않는 것으로 결정된 경우 상기 주변객체를 사물객체로 결정하고, 상기 주변객체가 소정의 시간 내에 이동하는 것으로 결정된 경우 상기 주변객체를 통행객체로 결정하는 단계; 및
상기 통행객체를 차량 또는 보행자로 분류하는 단계;
를 포함하는, 방법.
According to claim 1,
The method,
calculating the velocity of the surrounding object;
Including more,
The step of determining the traffic object is,
determining the surrounding object as an object object when it is determined from the speed that the surrounding object does not move within a predetermined time, and determining the surrounding object as a traffic object when it is determined that the surrounding object moves within a predetermined time ; and
classifying the traffic object as a vehicle or a pedestrian;
Including, method.
제 1 항에 있어서,
상기 방법은,
상기 통행객체에 대한 바운딩 박스를 설정하는 단계;
를 더 포함하고,
상기 통행객체 정보를 생성하는 단계는,
상기 바운딩 박스에 포함된 통행객체를 비식별화하는 단계; 및
상기 통행객체마다 고유 ID를 부여하는 단계;
를 더 포함하는, 방법.
According to claim 1,
The method,
setting a bounding box for the traffic object;
Including more,
The step of generating the traffic object information,
de-identifying a traffic object included in the bounding box; and
assigning a unique ID to each travel object;
Further comprising a method.
제 5 항에 있어서,
상기 고유 ID는 상기 통행객체를 구분하기 위한 식별 정보로서,
상기 고유 ID는 바운딩 박스 정보, 통행객체 종류 정보 및 통행객체 속성 정보 중 적어도 하나에 기초하여 부여되는 것을 특징으로 하는, 방법.
According to claim 5,
The unique ID is identification information for distinguishing the traffic object,
The unique ID may be assigned based on at least one of bounding box information, traffic object type information, and traffic object attribute information.
제 5 항에 있어서,
상기 고유 ID를 부여하는 단계는,
상기 고유 ID를 부여한 통행객체가 상기 복수의 데이터에서 사라진 것으로 결정된 것에 응답하여, 소정의 시간 동안 상기 통행객체에 관한 정보를 저장하는 단계;
상기 통행객체에 관한 정보에 기초하여 상기 통행객체가 상기 복수의 데이터에 상기 소정의 시간 내에 나타난 다른 통행객체와 동일한 객체인지 여부를 결정하는 단계; 및
상기 다른 통행객체와 동일한 객체인 것으로 결정된 것에 응답하여 상기 통행객체에 기존의 고유 ID를 부여하는 단계;
를 포함하되,
상기 통행객체에 관한 정보는 바운딩 박스 정보, 통행객체 종류 정보 및 통행객체 속성 정보 중 적어도 하나를 포함하는, 방법.
According to claim 5,
The step of assigning the unique ID is,
storing information about the passing object for a predetermined time in response to determining that the passing object to which the unique ID has been assigned has disappeared from the plurality of data;
determining whether the transit object is the same object as another transit object appearing in the plurality of data within the predetermined time period based on the information about the transit object; and
assigning an existing unique ID to the transit object in response to determining that the object is the same as the other transit object;
Including,
Wherein the information about the traffic object includes at least one of bounding box information, traffic object type information, and traffic object attribute information.
제 5 항에 있어서,
상기 통행객체 정보를 생성하는 단계는,
상기 바운딩 박스에 기초하여, 상기 통행객체를 트래킹 하는 단계;
상기 트래킹 결과를 누적하여 상기 통행객체의 궤적을 산출하는 단계;
를 포함하는, 방법.
According to claim 5,
The step of generating the traffic object information,
tracking the transit object based on the bounding box;
calculating a trajectory of the passing object by accumulating the tracking result;
Including, method.
제 8 항에 있어서,
상기 제1 스코어 및 상기 제2 스코어는,
통행객체의 종류 및 상기 통행객체의 궤적 중 적어도 하나에 기초하여 상기 고유 ID마다 가중치를 부여함으로써 도출되는 것인, 방법.
According to claim 8,
The first score and the second score,
It is derived by assigning a weight to each unique ID based on at least one of a type of a traffic object and a trajectory of the traffic object.
삭제delete 통행객체 정보 생성 시스템에 있어서,
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램에 의하여 동작하는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
센싱부 -제1 센싱부 및 제2 센싱부를 포함함- 로부터 획득된 복수의 데이터로부터 하나 이상의 주변객체를 인식하고,
상기 하나 이상의 주변객체에 대한 중복 카운팅 여부에 기초하여, 상기 하나 이상의 주변객체의 적어도 일부에 해당하는 하나 이상의 통행객체를 결정하고,
상기 통행객체에 대한 바운딩 박스를 설정하고,
상기 통행객체 각각의 고유 ID를 포함하는 통행객체 정보를 생성하되,
상기 통행객체 정보를 생성하는 것은,
상기 바운딩 박스에 기초하여, 상기 통행객체를 트래킹 하고,
상기 트래킹 결과를 누적하여 상기 통행객체의 궤적을 산출하고,
통행객체의 종류 및 상기 통행객체의 궤적 중 적어도 하나에 기초하여 상기 제1 센싱부 주변 영역에 대한 제1 스코어 및 상기 제2 센싱부 주변 영역에 대한 제2 스코어를 도출하고,
상기 제1 스코어 및 상기 제2 스코어에 기초하여 하나 이상의 디스플레이부에 소정의 이미지 또는 영상을 송출하는 것인, 시스템.
In the traffic object information generating system,
a memory in which at least one program is stored; and
Including at least one processor that operates according to the at least one program,
The at least one processor,
recognizing one or more surrounding objects from a plurality of data obtained from the sensing unit -including the first sensing unit and the second sensing unit;
Determine one or more traffic objects corresponding to at least a part of the one or more neighboring objects based on whether the one or more neighboring objects are repeatedly counted;
Set a bounding box for the traffic object,
Generating traffic object information including a unique ID of each of the traffic objects,
Generating the traffic object information,
Based on the bounding box, tracking the traffic object,
Calculating the trajectory of the traffic object by accumulating the tracking result;
Deriving a first score for an area around the first sensing unit and a second score for an area around the second sensing unit based on at least one of a type of a passing object and a trajectory of the passing object;
Based on the first score and the second score, a predetermined image or video is transmitted to one or more display units.
제 1 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing the method of claim 1 on a computer.
KR1020220080909A 2022-06-03 2022-06-30 Method and system for generating passing object information using the sensing unit KR102531281B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220068397 2022-06-03
KR1020220068397 2022-06-03

Publications (1)

Publication Number Publication Date
KR102531281B1 true KR102531281B1 (en) 2023-05-12

Family

ID=86385432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220080909A KR102531281B1 (en) 2022-06-03 2022-06-30 Method and system for generating passing object information using the sensing unit

Country Status (1)

Country Link
KR (1) KR102531281B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180068578A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Electronic device and method for recognizing object by using a plurality of senses
KR101931715B1 (en) * 2017-02-22 2018-12-21 황석규 Out-Door Advertising Device Having Moving Object Identifying and Tracking Function
KR20200141422A (en) * 2019-01-04 2020-12-18 (주)서울로보틱스 Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
KR102389998B1 (en) * 2021-12-21 2022-04-27 주식회사 인피닉 De-identification processing method and a computer program recorded on a recording medium to execute the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180068578A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Electronic device and method for recognizing object by using a plurality of senses
KR101931715B1 (en) * 2017-02-22 2018-12-21 황석규 Out-Door Advertising Device Having Moving Object Identifying and Tracking Function
KR20200141422A (en) * 2019-01-04 2020-12-18 (주)서울로보틱스 Vehicle and sensing device of utilizing spatial information acquired using sensor, and server for the same
KR102389998B1 (en) * 2021-12-21 2022-04-27 주식회사 인피닉 De-identification processing method and a computer program recorded on a recording medium to execute the same

Similar Documents

Publication Publication Date Title
US10713490B2 (en) Traffic monitoring and reporting system and method
Datondji et al. A survey of vision-based traffic monitoring of road intersections
US11182598B2 (en) Smart area monitoring with artificial intelligence
CN109598066B (en) Effect evaluation method, apparatus, device and storage medium for prediction module
US10710579B2 (en) Collision prediction system
Xiao et al. Vehicle detection and tracking in wide field-of-view aerial video
US11380105B2 (en) Identification and classification of traffic conflicts
Kar et al. Real-time traffic estimation at vehicular edge nodes
US11025865B1 (en) Contextual visual dataspaces
Goldhammer et al. Pedestrian's trajectory forecast in public traffic with artificial neural networks
US20230068001A1 (en) Video-based tracking systems and methods
WO2022217630A1 (en) Vehicle speed determination method and apparatus, device, and medium
Zhao et al. Automated traffic surveillance system with aerial camera arrays imagery: Macroscopic data collection with vehicle tracking
Einsiedler et al. External visual positioning system for enclosed carparks
Perafan-Villota et al. Fast and precise: parallel processing of vehicle traffic videos using big data analytics
KR102531281B1 (en) Method and system for generating passing object information using the sensing unit
CN116563801A (en) Traffic accident detection method, device, electronic equipment and medium
JP6894395B2 (en) Information acquisition device, information aggregation system, and information aggregation device
Karaki et al. A comprehensive survey of the vehicle motion detection and tracking methods for aerial surveillance videos
US11592565B2 (en) Flexible multi-channel fusion perception
Liu et al. Ubiquitous sensing for smart cities with autonomous vehicles
Al Kherret et al. Video-based detection and tracking model for traffic surveillance
CN114078326B (en) Collision detection method, device, visual sensor and storage medium
Krapukhina et al. A Method for Predicting Vehicles Motion Based on Road Scene Reconstruction and Neural Networks in Real Time
Liphoto et al. Road Traffic Optimization for Mid-sized African Cities–Application of Fuzzy Algorithms and Computer Vision

Legal Events

Date Code Title Description
GRNT Written decision to grant