KR101617540B1 - Method and system for recognition of moving object in the area for creation of content based on current context information - Google Patents

Method and system for recognition of moving object in the area for creation of content based on current context information Download PDF

Info

Publication number
KR101617540B1
KR101617540B1 KR1020140131278A KR20140131278A KR101617540B1 KR 101617540 B1 KR101617540 B1 KR 101617540B1 KR 1020140131278 A KR1020140131278 A KR 1020140131278A KR 20140131278 A KR20140131278 A KR 20140131278A KR 101617540 B1 KR101617540 B1 KR 101617540B1
Authority
KR
South Korea
Prior art keywords
recognition
moving object
moving
area
unit
Prior art date
Application number
KR1020140131278A
Other languages
Korean (ko)
Other versions
KR20160038971A (en
Inventor
김석수
김동현
Original Assignee
한남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한남대학교 산학협력단 filed Critical 한남대학교 산학협력단
Priority to KR1020140131278A priority Critical patent/KR101617540B1/en
Publication of KR20160038971A publication Critical patent/KR20160038971A/en
Application granted granted Critical
Publication of KR101617540B1 publication Critical patent/KR101617540B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/04Details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 일정한 간격으로 구성된 영역을 일정한 방향으로 고속 이동하는 객체의 이동구간 및 구간 내 위치를 정밀하게 추적하여 위치 정보에 따른 상황정보를 포함하고 있는 콘텐츠를 생성하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템에 관한 것이다.The present invention relates to a method and apparatus for generating a context information based content which precisely tracks a moving section and an intra-section position of an object moving at high speed in a constant direction, Area moving object recognizing method and system.

Description

상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템 {METHOD AND SYSTEM FOR RECOGNITION OF MOVING OBJECT IN THE AREA FOR CREATION OF CONTENT BASED ON CURRENT CONTEXT INFORMATION}TECHNICAL FIELD [0001] The present invention relates to a method and system for recognizing a moving object in an area for generating context information based contents,

본 발명은 구간영역 내 이동체 인식 방법 및 시스템에 관한 것으로, 자세하게는 일정한 간격으로 구성된 영역을 일정한 방향으로 고속 이동하는 객체의 이동구간 및 구간 내 위치를 정밀하게 추적하여 위치 정보에 따른 상황정보를 포함하고 있는 콘텐츠를 생성하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing a moving object in an area, and more particularly, it relates to a method and system for recognizing a moving object in a section area by precisely tracking a moving section and a section in a section moving at a constant interval, And more particularly, to a method and system for recognizing a moving object in an area for generating a context-based content.

통상적으로 실외에서 이동하는 객체의 위치인식을 위한 방법으로 위성을 이용한 GPS(Global Positioning System)을 통한 위치인식을 들 수 있으며, 위도, 경도의 위치뿐만 아니라 3차원의 속도정보와 정확한 시간까지 얻을 수 있는 장점을 제공하고 있다.Generally, it is a method for recognizing the position of an object moving outdoors by using a GPS (Global Positioning System) using a satellite. In addition to the position of latitude and longitude, It has the advantage of being.

하지만, GPS는 위성신호를 사용하기 때문에 위성신호의 수신이 원활하지 못한 지역이나 실내에서는 사용할 수 없으며 위치인식의 오차율로 인해 좁은 지역에서의 정밀한 위치인식에서 사용할 수 없다.However, since GPS uses satellite signals, it can not be used in areas where reception of satellite signals is not smooth or indoors, and it can not be used for accurate position recognition in a narrow area due to the error rate of the position recognition.

이를 해결하기 위해 RFID(Radio-Frequency IDentification)를 이용하여 위치를 산출하는 방법이 등장하였다. 이는 RFID 태그를 부착한 대상객체를 다수의 리더기를 통해 동시에 인식하되 각 리더기와 태그 간의 통신시간을 통해 거리를 측정하여 삼각측량(Triangulation)을 통해 객체의 위치를 산출하는 방식이다.In order to solve this problem, a method of calculating a position using RFID (Radio Frequency Identification) has appeared. This is a method of calculating the position of an object through triangulation by measuring the distance through communication time between each reader and tag while simultaneously recognizing the target object to which the RFID tag is attached through a plurality of readers.

하지만, 이를 위해서는 대상 객체의 위치산출을 위한 리더기가 다수 설치되어야 하고, 리더기의 신호거리가 비교적 짧아 리더기의 간격을 좁게 설정해야 하며, 객체가 리더기가 설치된 영역을 벗어날 경우 위치추적이 불가능한 문제점이 있다.However, there is a problem in that it is necessary to install a large number of readers for calculating the position of the target object, and the distance between the readers must be set to be narrow because the signal distance of the reader is relatively short and the position can not be tracked when the object is out of the area where the reader is installed .

또한, 이와 유사한 방식으로 무선랜을 이용하여 무선통신이 가능한 단말기 및 중계기 사이의 통신거리를 이용하여 위치를 산출하는 기술이 개발되었으며, 이 경우 상술한 RFID 태그를 이용한 방식보다 인식거리가 넓어 비교적 광범위한 지역 내에서의 인식이 가능하나, 통신신호를 통해 위치를 인식하기 때문에 단말기의 위치추적을 위해 다수의 중계기가 중계범위를 겹친 상태로 운용되어야 하는 문제점이 있으며, 통신신호의 장애 또는 패킷전송오류와 같은 문제발생 시 위치추적이 어려우며 정밀한 위치추적이 어렵다.In addition, a technique of calculating a position using a communication distance between a terminal and a repeater capable of wireless communication using a wireless LAN in a similar manner has been developed. In this case, the recognition distance is wider than that using the RFID tag described above, However, since the position is recognized through the communication signal, there is a problem that a plurality of repeaters must be operated in a state in which the relay ranges overlap each other in order to track the position of the terminal. In addition, When the same problem occurs, it is difficult to track the position and it is difficult to precisely track the position.

이와 같은 통신기술을 이용한 방식의 문제점을 해결하기 위하여 대상객체를 촬영한 영상과 영상처리기술을 활용하여 객체와 객체의 위치를 검출하는 기법이 등장하였다.In order to solve the problem of the method using the communication technology, a technique of detecting the position of the object and the object by using the image and the image processing technique of the target object has appeared.

그러나 이와 같은 영상활용방법은 입력받은 영상을 이진화하고, 이진화된 영상에서 특정 패턴에 따라 객체를 검출하기 때문에 조명, 음영과 같은 외부 효과로 인하여 이진화 영상이 변질될 경우 정밀한 위치추적이 어렵고, 특히 고속으로 이동하는 객체의 경우 입력 영상에서 잔상 등의 효과로 객체의 패턴을 검출하기 어려운 문제점이 있다.However, since the input image is binarized and the object is detected according to a specific pattern in the binarized image, it is difficult to precisely track the position of the binarized image due to external effects such as illumination and shading, There is a problem in that it is difficult to detect the pattern of the object by the effect of afterimage or the like in the input image.

한국등록특허 제10-0758389호 (2007.09.06. 공고)Korean Registered Patent No. 10-0758389 (2007.09.06 Announcement) 한국등록특허 제10-0794139호 (2008.01.04. 공고)Korean Registered Patent No. 10-0794139 (2008.04.04 Announcement)

본 발명은 상기와 같은 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 구역에서 지정된 방향으로 고속으로 이동하는 이동객체의 이동 경로에 대하여 인식 영역별로 설정된 구간의 RFID 리더를 통해 이동객체의 구간 진입을 감지하고 구간영역 촬영 영상을 통해 이동객체를 검출하며 적외선의 반사 값에 대한 스캔 결과를 기반으로 깊이맵을 생성하여 이를 기반으로 상기 이동객체의 위치를 추적하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템을 제공하는 것이다.An object of the present invention is to provide an RFID reader of a moving object which moves at a high speed in a designated direction in a zone, A section for generating a context information based on the movement of the moving object, a depth map for generating a depth map based on a scan result of infrared rays, Area moving object recognition method and system.

상기와 같은 목적을 위해 본 발명 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 시스템은 RFID 태그가 부착된 이동체가 이동하는 구간에 연속적으로 설정되는 복수의 인식영역으로 이루어진 구간영역 내의 이동체 인식 시스템에 있어서, 상기 인식영역의 진입부에 설치되어 상기 RFID 태그를 인식하는 RFID 리더부; 상기 인식영역으로 적외선을 방출하도록 구성되는 적외선방출부; 상기 적외선방출부로부터 방출되어 상기 이동체를 통해 반사되는 적외선을 스캔하는 적외선카 메라부; 상기 인식영역에 설정된 이동구간을 촬영한 영상을 통해 상기 이동체의 상기 이동구간 진입을 인식하는 RGB카메라부; 상기 RFID 리더부의 인식결과 및 상기 RGB카메라부의 촬영 영상에서 동적 객체를 검출을 통해 이동체가 위치하는 인식영역을 확인하는 객체감지모듈과, 상기 적외선방출부의 방출시간과 적외선카메라부의 스캔값을 통해 상기 이동체의 깊이 값을 산출하고, 상기 깊이 값을 깊이맵으로 변환하여 위치정보를 생성하는 위치확인모듈을 구비하는 제어부; 로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a moving object recognition system in an area for generating context information based on a moving object, the moving object to which the RFID tag is attached, An RFID reader installed at an entrance of the recognition area to recognize the RFID tag; An infrared ray emitting unit configured to emit infrared rays into the recognition area; An infrared camera unit for scanning the infrared ray emitted from the infrared ray emitting unit and reflected by the moving object; An RGB camera unit recognizing the entry of the moving object into the moving section through an image of the moving section set in the recognition area; An object detection module for detecting a recognition result of the RFID reader unit and a recognition area where a moving object is located through detection of a dynamic object from an image captured by the RGB camera unit; And a position confirmation module for generating position information by converting the depth value into a depth map; .

이때, 상기 제어부는 상기 객체감지모듈 및 위치확인모듈에서 생성된 이동체가 위치하는 구간 및 위치정보를 가상공간위치정보로 변환하여 이를 기반으로 입력된 상황정보를 메타데이터화하여 콘텐츠와 연동해 데이터베이스에 저장하는 콘텐츠생성모듈을 더 포함하고, 상기 이동체는 상기 콘텐츠생성모듈에서 생성된 콘텐츠를 출력하기 위해 설치된 디스플레이부를 더 포함할 수 있다.At this time, the controller converts the section and location information of the moving object created by the object detection module and the location confirmation module into virtual space location information, and metadata information inputted on the basis of the converted location information is converted into metadata to be stored in a database The moving object may further include a display unit installed to output the content generated in the content generation module.

또한, 상기와 같은 목적을 위한 본 발명 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법은 RFID 태그가 부착된 이동체가 이동하는 구간에 연속적으로 설정되는 복수의 인식영역으로 이루어진 구간영역 내의 이동체 인식 시스템을 통해 수행되는 구간영역 내의 이동체 인식방법에 있어서, 상기 인식영역의 진입부에 설치된 RFID 리더부를 통해 진입하는 이동체의 RFID 태그를 인식하고, 인식된 태그의 정보 및 인식시간을 확인하는 RFID 태그 인식단계; 상기 인식영역에 설정된 이동구간을 촬영하는 RGB카메라부로부터 이동구간 내 동적 객체를 검출하는 동적 객체 검출단계; 상기 동적 객체 검출단계에서 동적 객체가 검출될 경우 상기 이동구간으로 적외선을 방출하고, 이동체로부터 반사되는 적외선을 스캔하되, 적외선의 방출시간 및 반사된 적외선의 스캔 시간을 측정하는 적외선 스캔 단계; 상기 적외선 스캔 단계의 측정값을 기반으로 이동구간에서 적외선 방출 반대편 면을 기준으로 한 깊이맵을 생성하고 이를 통해 위치정보를 생성하는 위치정보 생성단계; 로 이루어지는 것을 특징으로 한다.In order to achieve the above object, there is provided a method for recognizing a moving object in an area for generating context information based on a moving object in an area including a plurality of recognition areas continuously set in a moving area, The RFID tag recognizing method comprising the steps of: recognizing an RFID tag of a moving object entering through an RFID reader unit installed in an entry portion of the recognition region; step; A dynamic object detection step of detecting a dynamic object in a moving section from an RGB camera section which captures a moving section set in the recognition area; An infrared scanning step of emitting an infrared ray to the moving section when the dynamic object is detected in the dynamic object detecting step and scanning the infrared ray reflected from the moving object and measuring the infrared ray emitting time and the reflected infrared ray scanning time; A position information generating step of generating a depth map based on a measurement value of the infrared scanning step and based on a face opposite to the infrared ray emission in a moving section and generating position information through the depth map; .

이때 이동체가 위치하는 구간 및 위치정보를 가상공간위치정보로 변환하고 이를 기반으로 상기 이동체에 부착된 디스플레이부를 통해 출력될 콘텐츠를 이동체의 위치에 따라 분류하되, 이동체의 가상공간상 좌표정보를 기반으로 제공될 콘텐츠의 상황정보를 입력받고 상기 입력된 상황정보를 메타데이터로 변환 후 저장하는 콘텐츠 생성단계; 를 더 포함할 수 있다.In this case, the section and the position information in which the moving object is located are converted into the virtual space position information, and based on the information, the content to be output through the display unit attached to the moving object is classified according to the position of the moving object, A content generation step of receiving status information of a content to be provided and converting the input status information into meta data and storing the meta data; As shown in FIG.

또한, 상기 RFID 태그 인식단계 및 동적 객체 검출단계에서 이동체를 인식하지 못할 경우 상기 인식영역의 이전 인식영역에서 방출한 적외선의 반사 값을 스캔하는 이전구역 스캔 단계; 상기 이전구역 스캔 단계에서 스캔 값이 산출되지 않을 경우 RFID 태그를 인식한 RFID 리더부의 위치 및 RFID 태그 인식속도를 확인하여 이동체의 위치를 확인하고 해당 인식영역을 적외선 스캔하는 RFID 위치확인 단계 RFID 위치확인 단계; 를 더 포함할 수 있다.In the RFID tag recognizing step and the dynamic object detecting step, if the moving object is not recognized, a previous area scanning step of scanning the reflection value of the infrared ray emitted from the previous recognition area of the recognition area; If the scan value is not calculated in the previous zone scan step, the position of the RFID reader unit recognizing the RFID tag and the RFID tag recognition speed are checked to check the position of the mobile unit, and the RFID recognition unit performs infrared scanning of the recognition area. step; As shown in FIG.

본 발명은 적외선 스캔을 통한 깊이맵을 통해 이동 객체를 추적하므로 오차율이 낮고 좁은 지역에서 정밀한 위치추적이 가능하며 실내 또는 위성신호를 수신받지 못하는 구역에서도 원활한 위치추적이 가능하다.The present invention tracks a moving object through a depth map through an infrared scan, thereby allowing a precise position tracking in a narrow area and an accurate positioning in an area where an indoor or satellite signal is not received.

또한, 본 발명은 RFID를 통해 설정된 이동구간 내 진입을 감지하고 객체로 부터 반사된 적외선을 적외선 카메라부를 통해 입력받고 스캔값을 통해 정밀한 위치 추적이 이루어지므로 동일 구간에서 다수의 위치추적을 위한 리더기를 필요로 하지 않는다.In addition, the present invention detects infiltration within a set travel time through an RFID, receives infrared rays reflected from an object through an infrared camera unit, and precisely tracks the location through a scan value. Therefore, I do not need it.

또한, 외부 환경 변화에 강인한 적외선을 사용하므로 외부 요인으로 인한 변조가 발생하지 않으며, 스캔 된 결과값을 통해 깊이맵을 생성하여 위치를 추적하므로 고속으로 이동하는 객체의 잔상효과가 없어 정밀한 위치 추적이 가능하다.In addition, since the infrared ray is robust against changes in the external environment, there is no modulation caused by external factors, and since the depth map is generated through the scanned result value, there is no afterimage effect of the object moving at high speed. It is possible.

본 발명은 종래의 위치추적 기술들이 가지고 있는 문제점을 보완/해결하여 더욱 정밀한 위치추적이 가능하므로 고속으로 이동하는 객체의 위치정보를 기반으로 상황에 따른 콘텐츠를 제공해주는 서비스에서 활용하기가 용이하다.The present invention can be used in a service for providing contextual contents based on location information of an object moving at a high speed because it can precisely track the location by supplementing / solving the problems of conventional location tracking technologies.

도 1은 본 발명의 바람직한 실시예에 따른 구성 및 연결관계를 나타낸 블록도,
도 2는 본 발명의 바람직한 실시예에 따른 구간 영역 내 고속 이동체 인식 방법을 나타낸 순서도,
도 3은 본 발명의 다른 실시예에 따른 구간 영역 내 고속 이동체 인식 방법을 나타낸 순서도,
도 4는 본 발명의 바람직한 실시예에 따른 이동체의 이동경로에 있어서의 구성관계를 나타낸 개념도이다.
1 is a block diagram illustrating a configuration and a connection relationship according to a preferred embodiment of the present invention;
FIG. 2 is a flowchart illustrating a method of recognizing a high-speed moving object in an interval region according to a preferred embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method of recognizing a high-speed moving object in an interval region according to another embodiment of the present invention;
4 is a conceptual diagram showing a configuration of a moving path of a moving object according to a preferred embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법 및 시스템을 구체적으로 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a moving object recognition method and system for generating context information based on the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 따른 구성 및 연결관계를 나타낸 블록도, 도 4는 본 발명의 바람직한 실시예에 따른 이동체의 이동경로에 있어서의 구성관계를 나타낸 개념도로서, 도 1에서와 같이 본 발명 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 시스템은 구간 내를 RFID 태그(210)가 부착상태로 고속이동하는 이동체(200)의 위치를 산출하기 위해 RFID 리더부(110)와, 적외선방출부(120)와, 적외선카메라부(130)와, RGB카메라부(140)와, 제어부(150)를 구비하게 된다.FIG. 1 is a block diagram illustrating a configuration and a connection relationship according to a preferred embodiment of the present invention. FIG. 4 is a conceptual diagram illustrating a configuration of a moving path of a moving object according to a preferred embodiment of the present invention. In order to calculate the position of the moving object 200 moving at a high speed while the RFID tag 210 is attached, a moving object recognition system for generating a context-based content according to an embodiment of the present invention includes an RFID reader unit 110, An infrared ray camera unit 130, an RGB camera unit 140, and a control unit 150. In addition,

상기 구간영역은 이동체의 이동이 이루어지는 전체 구간을 의미하는 것으로 이는 이동체(200)의 정확한 인식을 위해 연속적으로 구분되는 복수의 인식영역(I)으로 이루어지게 된다. 즉 상기 인식영역(I)은 이동체(200)의 위치인식을 효율적으로 하기 위한 임의적으로 설정되는 영역으로, 후술되는 적외선방출부(120)에서 방출되는 적외선 영역, 적외선카메라부(130)를 통해 적외선의 인식이 이루어지는 영역, RGB카메라부(140)에서 촬영되는 영상의 FOV(Field Of View)에 해당한다.The section area refers to the entire section in which the moving object is moved, and it consists of a plurality of continuous recognition areas I for accurate recognition of the mobile object 200. [ That is, the recognition area I is an arbitrarily set area for efficiently recognizing the position of the mobile object 200. The recognition area I is an infrared ray area emitted from the infrared ray emitting part 120 to be described later, Corresponds to a field of view (FOV) of an image photographed by the RGB camera unit 140.

상기 이동체(200)는 자체 이동수단을 통해 구간영역 내를 일정한 방향으로 고속 이동하며 인접한 인식영역으로 연속적으로 통과하게 되며 RFID 태그(210)와, 콘텐츠의 출력을 위한 디스플레이부(220)가 구비된다. 상기 RFID 태그(210) 및 디스플레이부(220)의 경우 본 발명과 밀접한 관련이 있는 구성으로 이외에도, 앞서 언급한 이동수단을 비롯하여 전원부, 콘텐츠의 저장을 위한 메모리, 콘텐츠 재생을 위한 재생부, 외부 기기와의 통신을 수행하며 데이터를 송수신하는 통신모듈 등의 구성이 부가될 수 있다.The moving body 200 moves at a high speed in a predetermined direction through the self-moving means and continuously passes through an adjacent recognition area, and is provided with an RFID tag 210 and a display unit 220 for outputting contents . The RFID tag 210 and the display unit 220 are closely related to the present invention. In addition to the above-mentioned moving means, a power source, a memory for storing contents, a playback unit for playing back content, And a communication module for transmitting and receiving data.

상기 RFID 리더부(110)는 상기 인식영역(I)의 시작지점, 즉 이동체(200)의 이동에 있어서 앞쪽 부분에 위치하여 상기 인식영역(I)을 구분하게 되며, 상기 이동체(200)에 부착된 RFID 태그(210)를 인식하여 해당 RFID 리더부(110)가 위치한 인식영역에 이동체(200)가 진입하는 것을 1차적으로 감지하게 된다.The RFID interrogator 110 is positioned at the starting point of the recognition area I, that is, in the front part in the movement of the mobile 200, to distinguish the recognition area I, Recognizes the RFID tag 210 and primarily senses that the mobile 200 enters the recognition area where the RFID reader 110 is located.

즉 첨부된 도 4에서와 같이 연속적으로 구분된 다수의 인식영역(I)에서 이동체가 진입하는 지점에 RFID 리더부(110)가 설치되며, 이동체(200)에 부착된 RFID 태그를 인식하여 이동체가 이전 인식영역을 이탈하고 그 다음에 형성된 인식영역으로 진입하는 것을 확인한다.That is, as shown in FIG. 4, the RFID reader unit 110 is installed at a position where the moving object enters in the plurality of consecutively recognized recognition areas I, and recognizes the RFID tag attached to the mobile object 200, It is confirmed that the user leaves the previous recognition area and enters the recognition area formed next.

상기 적외선방출부(120)는 각 인식영역(I)에 설치되어 이동체(200)를 향하여 적외선을 방출하는 적외선 램프로서 해당 인식영역(I) 내 단위구역(픽셀)별로 적외선 패턴을 방출하도록 한다.The infrared ray emitting unit 120 is an infrared ray lamp that is installed in each recognition area I and emits infrared rays toward the mobile 200 so as to emit an infrared ray pattern for each unit area (pixels) in the recognition area I.

상기 적외선카메라부(130)는 말 그대로 적외선 촬영 영상을 얻기 위한 카메라부로서 인식영역(I)별로 설치되어 해당 인식영역을 통과하는 이동체를 촬영하게 되며, 구체적으로는 상기 적외선방출부(120)를 통해 방출되고 이동체를 통해 반사된 적외선을 스캔한다. 이때 상기 적외선방출부(120)를 통해 방출되는 적외선이 특정패턴을 형성함에 따라 입체 면인 이동체(200)의 외측으로 반사되는 적외선 패턴에 왜곡이 발생하게 되며 이를 통해 정밀한 표면 굴곡 상태의 스캔이 가능하다.The infrared camera unit 130 is a camera unit for obtaining infrared images, literally, for each recognition area I to photograph a moving object passing through the corresponding recognition area. Specifically, the infrared camera unit 130 includes the infrared ray emitting unit 120 And scans infrared rays reflected through the moving object. At this time, as the infrared ray emitted through the infrared ray emitting unit 120 forms a specific pattern, the infrared ray pattern reflected to the outside of the moving body 200, which is a solid surface, is distorted, .

상기 RGB카메라부(140)는 RGB 픽셀 영상을 입력받는 카메라부로서, 본 발명에서는 인식영역(I)별로 설치되어 해당 인식영역 내로 이동체가 진입한 것을 영상을 통해 판별하게 된다.The RGB camera unit 140 is a camera unit receiving RGB pixel images. In the present invention, the RGB camera unit 140 is provided for each recognition area I and recognizes the entry of a moving object into the recognition area through an image.

상기 제어부(150)는 상기 RFID 리더부(110), 적외선방출부(120), 적외선카메라부(130), RGB카메라부(140)를 제어하는 구성으로, 객체감지모듈(151), 위치확인모듈(152), 콘텐츠생성모듈(153)의 세부구성을 구비하게 된다.The control unit 150 controls the RFID reader unit 110, the infrared ray emitting unit 120, the infrared camera unit 130 and the RGB camera unit 140 and includes an object detection module 151, A content generation module 152, and a content generation module 153. [

상기 객체감지모듈(151)은 RFID 리더부(110)를 통해 인식된 태그 정보와 상기 RGB카메라부(140)를 통해 촬영된 영상을 수신받아 이동체의 감지하기 위한 구성으로, 상기 RFID 리더부(110)를 통해 인식된 이동체의 RFID 태그 정보를 기반으로 이동체(200)를 1차적으로 감지하고, 상기 RGB카메라부(140)를 통해 촬영된 영상에서 이동체에 해당하는 동적 객체를 검출하여 인식영역(I) 내 존재를 확인한다.The object detection module 151 is configured to receive the tag information recognized through the RFID reader unit 110 and the image photographed through the RGB camera unit 140 and detect the moving object. The RFID reader unit 110 And detects the dynamic object corresponding to the moving object in the image photographed through the RGB camera unit 140 to detect the recognition area I (i, j) ) Confirm my existence.

상기 위치확인모듈(152)은 상기 적외선방출부(120)와 적외선카메라부(130)를 통해 이동체(200)의 정확한 위치를 판별하기 위한 구성으로, 상기 적외선방출부(120)에서 적외선을 방출하는 시간 및 상기 적외선카메라부(130)를 통해 이동체로부터 반사된 적외선의 스캔 결과값 및 적외선 스캔 시간 등의 정보를 기반으로 상기 이동체(200)의 깊이 값을 계산하고, 계산된 깊이 값을 깊이맵으로 변환하여 이동체(200)의 위치를 판별하게 된다.The position determining module 152 is configured to determine the precise position of the mobile object 200 through the infrared ray emitting unit 120 and the infrared ray camera unit 130. The position determining module 152 determines the position of the mobile object 200 using the infrared ray emitting unit 120, The depth value of the moving object 200 is calculated on the basis of the time, the scan result of the infrared ray reflected from the moving object through the infrared camera unit 130 and the infrared scan time, And the position of the mobile unit 200 is determined.

상기 콘텐츠생성모듈(153)은 상기 객체감지모듈(151) 및 위치확인모듈(152)에서 생성된 이동체(200)의 구간 및 위치정보를 수신받아, 위치정보를 가상공간위치정보로 변환하고 사용자로부터 입력된 상황정보를 상기 변환된 가상공간위치정보를 기반으로 메타데이터화하여 콘텐츠와 합성해 데이터베이스(160)로 저장하게 된다.The content generation module 153 receives section and location information of the moving object 200 generated by the object detection module 151 and the location determination module 152 and converts the location information into virtual space location information, The input state information is converted into metadata based on the converted virtual space location information and synthesized with the contents to be stored in the database 160.

일례를 들면 상기 이동체(200)가 차량형상으로 이루어지고 이동체(200)에 구비된 디스플레이부(220)를 통해 이동체에 탑승한 사용자에게 콘텐츠를 출력하는 경우 위치나 속도 또는 또 다른 이동체에 근접이나 접촉과 같은 이동체의 특정상황에 대응되는 콘텐츠가 데이터베이스 상에 미리 입력되고, 상기 콘텐츠생성모듈(153)을 통해 가상위치정보에 따라 대응되는 콘텐츠를 합성하여 저장함으로 이동체(200)에 설정되는 특정상황에 따른 콘텐츠가 출력되는 것이다. For example, when the mobile terminal 200 is a vehicle and outputs a content to a user who has boarded the mobile terminal through the display unit 220 provided on the mobile terminal 200, The content corresponding to the specific situation of the moving object is input in advance in the database and the content corresponding to the virtual position information is synthesized and stored through the content generation module 153, Is output.

즉 상기 콘텐츠생성모듈(153)에서 생성된 상황정보와 제공 콘텐츠는 상기 콘텐츠 정보 데이터베이스(160)에 저장된다.That is, the context information and the content provided by the content generation module 153 are stored in the content information database 160.

도 2는 본 발명의 바람직한 실시예에 따른 구간 영역 내 고속 이동체 인식 방법을 나타낸 순서도로서, 상술한 본 발명 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 시스템을 통해 구현될 수 있으며, 인식영역(I) 내의 RFID리더부(110)와, 적외선방출부(120)와, 적외선카메라부(130)와, RGB카메라부(140)의 설치구조 및 이동체(200)의 RFID 태그(210) 부착 등의 기본조건은 동일하다.FIG. 2 is a flowchart illustrating a method of recognizing a high-speed moving object in an area according to a preferred embodiment of the present invention, which can be implemented through a moving object recognition system in an area for generating content information based on the present invention, The installation structure of the RGB camera unit 140 and the attachment of the RFID tag 210 of the mobile 200 to the RFID reader unit 110, the infrared ray emitting unit 120, the infrared camera unit 130, The basic conditions are the same.

먼저, 첫 번째 RFID 태그 인식단계(S 110)로서 상기 인식영역의 진입부에 설치된 RFID 리더부(110)를 통해 진입하는 이동체의 RFID 태그(210)를 인식하고, 인식된 태그의 정보 및 인식시간을 확인하게 된다.First, as a first RFID tag recognition step (S 110), the RFID tag 210 of the moving object entering through the RFID interrogator 110 installed at the entrance of the recognition area is recognized, and the information of the recognized tag and the recognition time .

다음 두 번째 동적 객체 검출단계(S 120)로서 상기 인식영역(I)에 설정된 이동구간을 촬영하는 RGB카메라부(140)로부터 이동구간 내 동적 객체를 검출하게 된다. 즉 상기 RFID 태그 인식단계(S 110)에서 RFID 태그를 인식한 RFID 리더부(110)가 위치하는 인식영역(I)을 촬영하는 RGB카메라부(140)로부터 상기 인식영역(I)의 RGB 채널 영상을 입력받고 가우시안 혼합 모델을 통해 입력받은 영상과 기준영상과 비교분석하여 동적 객체 후보영역을 추출하고 상기 추출된 후보영역에 Adaboost 기법을 이용하여 이동체(200)의 패턴과 매칭하여 동적 객체를 검출한다.In the next second dynamic object detection step (S 120), the dynamic object in the moving section is detected from the RGB camera unit 140 that captures the moving interval set in the recognition area (I). That is, from the RGB camera unit 140 capturing the recognition region I where the RFID reader unit 110 recognizing the RFID tag is recognized in the RFID tag recognition step S 110, the RGB channel image of the recognition region I A dynamic object candidate region is extracted by comparing and analyzing the input image and the reference image through the Gaussian mixture model, and the dynamic object is detected by matching the extracted candidate region with the pattern of the mobile 200 using the Adaboost technique .

세 번째 적외선 스캔 단계(S 130)로서 상기 동적 객체 검출단계에서 동적 객체가 검출될 경우 상기 이동구간으로 적외선을 방출하고, 이동체로부터 반사되는 적외선을 스캔하되, 적외선의 방출시간 및 반사된 적외선의 스캔 시간을 측정하게 된다.In a third infrared scanning step (S 130), when a dynamic object is detected in the dynamic object detection step, infrared rays are emitted to the moving section, infrared rays reflected from the moving object are scanned, and the infrared ray emission time and the scanned Time is measured.

즉 상기 동적 객체 검출단계(S 120)에서 동적 객체가 검출될 경우 RFID 태그를 인식한 RFID 리더부(110)와 동적 객체를 검출한 RGB카메라부(140)가 존재하는 인식영역(I)에 설치된 적외선방출부(120)에서 상기 인식영역(I)의 픽셀 단위로 방출되는 적외선의 반사 값을 적외선카메라부(130)에서 스캔함으로, 적외선방출부(120)에서 방출된 적외선의 방출시간 및 적외선이 이동체로부터 반사되어 상기 적외선카메라부(130)를 통해 수광된 시간을 측정한다.That is, when the dynamic object is detected in the dynamic object detection step S 120, the RFID reader unit 110 recognizing the RFID tag and the RGB camera unit 140 detecting the dynamic object are installed in the recognition area I The infrared ray emitting unit 120 scans the infrared ray camera unit 130 for the reflection value of the infrared ray emitted in the pixel unit of the recognition area I so that the infrared ray emission time and the infrared ray emitted from the infrared ray emitting unit 120 And measures the time taken to be received by the infrared camera unit 130 after being reflected from the moving object.

네 번째 위치정보 생성단계(S 140)로서 상기 적외선 스캔 단계의 측정값을 기반으로 이동구간에서 적외선 방출 반대편 면을 기준으로 한 깊이맵을 생성하고 이를 통해 위치정보를 생성하게 된다.In a fourth position information generation step (S 140), a depth map is generated based on the measurement value of the infrared scanning step and based on the opposite side of the infrared ray emission in the movement interval, thereby generating the position information.

즉 적외선카메라부(130)를 통해 스캔하여 측정된 결과값을 기반으로 상기 인식영역(I)에서 적외선카메라부(130)가 설치된 반대편 측면을 기준으로 하여 깊이에 따라 가상공간에서 Z축 크기가 변하는 다중 블록 레이어 기반의 깊이맵을 생성한다.That is, based on the measured result of the scan through the infrared camera unit 130, the Z axis size changes in the virtual space with respect to the opposite side of the recognition area I provided with the infrared camera unit 130 Create a multi-block layer-based depth map.

또한, 생성된 깊이맵에서 인식된 이동체(200)의 블록 레이어를 추출하고, 추출된 블록 레이어의 3차원 가상공간 위치를 확인한 후 확인된 위치의 보정 작업을 수행하여 이동체(200)의 이동 구간 내 X축 좌표를 확인하며 블록 레이어의 깊이 정보를 기반으로 이동체(200)의 이동 구간 내 Y축 좌표를 확인한다.In addition, a block layer of the moving object 200 recognized in the generated depth map is extracted, a three-dimensional virtual space position of the extracted block layer is confirmed, and a correction operation of the confirmed position is performed, The X axis coordinate is confirmed and the Y axis coordinate in the moving section of the moving object 200 is confirmed based on the depth information of the block layer.

도 3은 본 발명의 다른 실시예에 따른 구간 영역 내 고속 이동체 인식 방법을 나타낸 순서도로서, 도 2를 통해 설명된 실시예를 통해 생성된 위치정보를 콘텐츠와 정합시키고, 각 구성이 상호보완하여 이동체를 인식하기 위한 방법이 추가되어 있다. 이하의 설명에서는 도 2를 통해 설명된 본 발명의 바람직한 실시예에서와 동일한 절차에 대해서는 설명을 생략한다.FIG. 3 is a flowchart illustrating a method of recognizing a high-speed moving object in an interval region according to another embodiment of the present invention. The position information generated through the embodiment illustrated in FIG. 2 is matched with a content, Is added. In the following description, the same procedures as those in the preferred embodiment of the present invention described with reference to FIG. 2 are not described.

먼저, 본 발명의 다른 실시예에서는 이동체가 위치하는 구간 및 위치정보를 가상공간위치정보로 변환하고 이를 기반으로 상기 이동체에 부착된 디스플레이부(220)를 통해 출력될 콘텐츠를 이동체의 위치에 따라 분류하되, 이동체의 가상공간상 좌표정보를 기반으로 제공될 콘텐츠의 상황정보를 입력받고 상기 입력된 상황정보를 메타데이터로 변환 후 저장하는 콘텐츠 생성단계(S 150)를 더 포함하게 된다.First, in another embodiment of the present invention, the section and position information of the moving object are converted into virtual space position information, and based on the information, the content to be output through the display unit 220 attached to the moving object is classified according to the position of the moving object (S 150) for inputting context information of a content to be provided on the basis of the virtual space coordinate information of the moving object, converting the inputted context information into metadata, and storing the converted metadata.

즉 상기 위치정보 생성단계(S 140)에서 인식된 실좌표(인식영역(I) 내 X축 좌표 및 Y축 좌표)를 통해 미리 입력된 콘텐츠를 가상공간환경에 정합하는 것이다. 이는 다음과 같은 구체적인 절차를 통해 이루어질 수 있다.That is, the content inputted in advance through the actual coordinate (X-axis coordinate and Y-axis coordinate in the recognition area (I)) recognized in the position information generation step (S 140) is registered in the virtual space environment. This can be done through the following specific procedures.

먼저, 이동체에 구비된 디스플레이부(220)를 통해 출력될 콘텐츠를 미리 입력하여 데이터베이스(160)에 저장하고, 선택되는 특정 콘텐츠를 위치정보를 통해 변환된 가상공간위치정보에서의 위치좌표를 확인하게 된다.(S 201)First, the content to be outputted through the display unit 220 provided in the moving body is inputted in advance and stored in the database 160, and the selected coordinates of the specific contents are checked in the converted virtual space location information through the location information (S 201)

이후 확인된 가상공간위치정보에 대해 상기 데이터베이스(160)에서 이동체(200)에 부착된 디스플레이부를 통해 제공될 콘텐츠를 이동체(200)의 가상공간의 위치별로 분류한다. (S 202) The contents to be provided through the display unit attached to the moving object 200 in the database 160 are classified according to positions of the virtual space of the moving object 200 with respect to the confirmed virtual space position information. (S 202)

다음으로, 분류된 콘텐츠들을 제공하기 위한 시나리오를 구성하여 이동체(200)의 가상공간상 좌표정보를 기반으로 제공될 콘텐츠의 상황정보(위치정보, 시나리오 구성에 따른 상황정보)를 생성하고 상기 생성된 정보를 메타데이터로 변환한다.(S 203)Next, a scenario for providing categorized contents is configured to generate context information (position information based on scenario configuration) of contents to be provided based on the virtual space coordinate information of the mobile 200, And converts the information into metadata (S 203)

마지막으로 생성된 메타데이터와 콘텐츠를 연동하여 상기 데이터베이스(900)에 저장하게 된다.(S 204)Finally, the generated metadata and the contents are interlocked and stored in the database 900. (S204)

다음으로, 본 발명의 다른 실시예에서는 이전구역 스캔 단계(S 121)와, RFID 위치확인 단계(S 122)를 더 포함하게 된다.Next, another embodiment of the present invention further includes a previous zone scanning step (S 121) and an RFID positioning step (S 122).

상기 이전구역 스캔 단계(S 121)는 상기 RFID 태그 인식단계(S 110) 및 동적 객체 검출단계(S 120)에서 이동체를 인식하지 못할 경우 상기 인식영역의 이전 인식영역에서 방출한 적외선의 반사 값을 스캔하도록 하여 이동체의 인식에 문제 발생시 각 구성이 상호보완할 수 있도록 한다.If the moving object is not recognized in the RFID tag recognition step (S 110) and the dynamic object detection step (S 120), the previous zone scanning step (S 121) may be performed in such a manner that the reflection value of the infrared ray emitted from the previous recognition area of the recognition area Scan so as to make each configuration complement each other in case of a problem in recognition of the moving object.

다음으로, 상기 RFID 위치확인 단계(S 122)는 상기 이전구역 스캔 단계(S 121)에서 스캔 값이 산출되지 않을 경우 RFID 태그를 인식한 RFID 리더부의 위치 및 RFID 태그 인식속도를 확인하여 이동체의 위치를 확인하고 해당 인식영역을 적외선 스캔한다.Next, when the scan value is not calculated in the previous zone scan step (S121), the RFID position check step (S122) checks the position of the RFID interrogator unit recognizing the RFID tag and the RFID tag recognition speed, And performs infrared scanning of the recognition area.

상기 이동체(200)의 전체 이동구간에서 각 인식영역 사이에는 적외선카메라부(130) 및 RGB카메라부(140)의 중첩영역이 존재하며, 이와 같은 중첩영역에 이동체가 존재할 경우 실질적으로 적외선카메라부(130)를 통하여 이동체(200)의 위치 추적이 어렵다.There is an overlapping area of the infrared camera unit 130 and the RGB camera unit 140 between the respective recognition regions in the entire moving section of the mobile body 200. When a mobile body exists in the overlapping region, It is difficult to trace the position of the mobile unit 200 through the antenna 130. FIG.

따라서, 상기 이전구역 적외선 스캔 단계(S 121)에서 스캔 결과값이 추출되지 않을 경우 해당 인식영역(I)의 시작지점에 위치한 RFID 리더부(110)의 위치 값을 확인하고, 상기 RFID 태그 리더부(110)와 이동체(200)에 부착된 RFID 태그의 인식 속도를 확인하여 이동체(200)의 위치를 확인한다.Accordingly, if the scan result value is not extracted in the previous region infrared scanning step S 121, the position value of the RFID reader unit 110 located at the start point of the recognition area I is checked, The position of the moving object 200 is confirmed by checking the recognition speed of the RFID tag attached to the moving object 110 and the moving object 200. [

본 발명에서는 인식영역(I) 내에 이동체(200)가 존재할 경우 이동체(200)의 깊이맵이 크게 변동되는 특징에 따라 생성된 깊이맵의 패턴 변화에 따라 이동체(200)를 인식하며, 이동체가 복수로 구비되며 상기 RFID 태그 인식단계(S 110)에서 두 개의 이동체(200)를 동시에 인식하였으나 이후 동적 객체 검출단계 및 적외선 스캔시 하나의 이동체만 검출될 경우 상기 이동체(200)가 나란히 존재한 것으로 판단하게 된다.According to the present invention, when the moving object 200 exists in the recognition area I, the moving object 200 is recognized according to the pattern change of the depth map generated according to the feature that the depth map of the moving object 200 largely fluctuates. And recognizes the two mobile objects 200 simultaneously in the RFID tag recognition step S 110. However, if only one mobile object is detected during the dynamic object detection step and the infrared scan, it is determined that the mobile objects 200 exist side by side .

본 발명의 권리는 위에서 설명된 실시 예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.It is to be understood that the invention is not limited to the disclosed embodiment, but is capable of many modifications and variations within the scope of the appended claims. It is self-evident.

110: RFID 리더부 120: 적외선방출부
130: 적외선카메라부 140: RGB카메라부
150: 제어부 151: 객체감지모듈
152: 위치확인모듈 153: 콘텐츠생성모듈
160: 데이터베이스 200: 이동체
210: RFID 태그 220: 디스플레이부
I: 인식영역
110: RFID reader unit 120: infrared ray emitting unit
130 infrared camera unit 140 RGB camera unit
150: control unit 151: object detection module
152: Position confirmation module 153: Content creation module
160: database 200: mobile object
210: RFID tag 220:
I: recognition area

Claims (5)

RFID 태그(210)가 부착된 이동체(200)가 이동하는 구간에 연속적으로 설정되는 복수의 인식영역(I)으로 이루어진 구간영역 내의 이동체 인식 시스템에 있어서,
상기 인식영역(I)의 진입부에 설치되어 상기 RFID 태그(210)를 인식하는 RFID 리더부(110);
상기 인식영역(I)으로 단위구역별 패턴을 갖는 적외선을 방출하도록 구성되는 적외선방출부(120);
상기 적외선방출부(120)로부터 방출되어 상기 이동체(200)를 통해 반사 및 왜곡되는 적외선을 스캔하는 적외선카메라부(130);
상기 인식영역(I)에 설정된 이동구간을 촬영한 영상을 통해 상기 이동체(200)의 상기 이동구간 진입을 인식하는 RGB카메라부(140);
상기 RFID 리더부(110)의 인식결과 및 상기 RGB카메라부(140)의 촬영 영상에서 동적 객체를 검출을 통해 이동체(200)가 위치하는 인식영역(I)을 확인하는 객체감지모듈(151)과, 상기 적외선방출부(120)의 방출시간과 적외선카메라부(130)의 스캔값을 통해 상기 이동체(200)의 깊이 값을 산출하고 상기 깊이 값을 깊이맵으로 변환하여 위치정보를 생성하는 위치확인모듈(152)과, 상기 객체감지모듈(151) 및 위치확인모듈(152)에서 생성된 이동체(200)가 위치하는 구간 및 위치정보를 가상공간위치정보로 변환하고 이를 기반으로 입력된 상황정보를 메타데이터화하여 콘텐츠와 연동해 데이터베이스(160)에 저장하는 콘텐츠생성모듈(153)을 구비하는 제어부(150); 로 이루어지는 것을 특징으로 하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 시스템.
In a moving object recognition system in an area including a plurality of recognition areas (I) continuously set in a section in which a mobile body (200) to which an RFID tag (210) is attached moves,
An RFID reader 110 installed at an entrance of the recognition area I to recognize the RFID tag 210;
An infrared ray emitting unit 120 configured to emit an infrared ray having a unit area pattern into the recognition area I;
An infrared camera unit 130 for scanning the infrared ray emitted from the infrared ray emitting unit 120 and reflected and distorted through the mobile 200;
An RGB camera unit 140 for recognizing the entry of the moving object 200 into the moving section through an image photographed in the moving area set in the recognition area I;
An object detection module 151 for recognizing a recognition area I in which the mobile object 200 is located through detection of a dynamic object from the recognition result of the RFID reader unit 110 and the photographed image of the RGB camera unit 140, , A depth value of the moving object (200) is calculated through the emission time of the infrared ray emitting part (120) and the scan value of the infrared camera part (130) Module 152 and section and location information on the location of the mobile object 200 generated by the object detection module 151 and the location confirmation module 152 into virtual space location information, A control unit 150 having a content generation module 153 for storing metadata in a database 160 in cooperation with a content; Wherein the moving object recognizing system comprises:
제1항에 있어서,
상기 이동체(200)는 상기 콘텐츠생성모듈(153)에서 생성된 콘텐츠를 출력하기 위해 설치된 디스플레이부(220)를 더 포함하는 것을 특징으로 하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 시스템.
The method according to claim 1,
Wherein the moving object (200) further comprises a display unit (220) installed to output the content generated by the content generation module (153).
RFID 태그(210)가 부착된 이동체(200)가 이동하는 구간에 연속적으로 설정되는 복수의 인식영역(I)으로 이루어진 구간영역 내의 이동체 인식 시스템을 통해 수행되는 구간영역 내의 이동체 인식방법에 있어서,
상기 인식영역(I)의 진입부에 설치된 RFID 리더부(110)를 통해 진입하는 이동체(200)의 RFID 태그(210)를 인식하고, 인식된 태그의 정보 및 인식시간을 확인하는 RFID 태그 인식단계(S 110);
상기 인식영역(I)에 설정된 이동구간을 촬영하는 RGB카메라부(140)로부터 이동구간 내 동적 객체를 검출하는 동적 객체 검출단계(S 120);
상기 동적 객체 검출단계(S 120)에서 동적 객체가 검출될 경우 상기 이동구간으로 단위구역별 패턴을 갖는 적외선을 방출하고, 이동체로부터 반사 및 왜곡되는 적외선을 스캔하되, 적외선의 방출시간 및 반사된 적외선의 스캔 시간을 측정하는 적외선 스캔 단계(S 130);
상기 적외선 스캔 단계의 측정값을 기반으로 이동구간에서 적외선 방출 반대편 면을 기준으로 한 깊이맵을 생성하고 이를 통해 위치정보를 생성하는 위치정보 생성단계(S 140);
이동체가 위치하는 구간 및 위치정보를 가상공간위치정보로 변환하고 이를 기반으로 입력된 상황정보를 메타데이터로 변환 후 콘텐츠와 연동해 데이터베이스에 저장하는 콘텐츠 생성단계(S 150); 로 이루어지는 것을 특징으로 하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법.
A method for recognizing a moving object in a region that is performed through a moving object recognition system in a region including a plurality of recognition regions (I) continuously set in a region where a mobile body (200) with an RFID tag (210)
An RFID tag recognition step of recognizing the RFID tag 210 of the moving object 200 entering through the RFID reader unit 110 installed at the entrance of the recognition area I and confirming the information of the recognized tag and the recognition time (S 110);
A dynamic object detection step (S 120) of detecting a dynamic object within a moving section from an RGB camera section (140) capturing a moving section set in the recognition area (I);
The dynamic object detection step S 120 is a step of detecting infrared rays having a pattern corresponding to a unit area in the moving section when a dynamic object is detected and scanning reflected and distorted infrared rays from the moving object, An infrared ray scanning step (S 130) of measuring a scanning time of the infrared ray;
A position information generating step (S 140) of generating a depth map based on a measurement value of the infrared scanning step based on a face opposite to the infrared ray emission in a moving section and generating position information through the depth map;
A content generation step (S 150) of converting the section and the position information in which the mobile body is located into virtual space position information, converting the input situation information into metadata based on the information, and storing the converted metadata in a database in cooperation with the content; The method of claim 1, wherein the moving object is a moving object.
삭제delete 제3항에 있어서,
상기 RFID 태그 인식단계(S 110) 및 동적 객체 검출단계(S 120)에서 이동체를 인식하지 못할 경우 상기 인식영역의 이전 인식영역에서 방출한 적외선의 반사 값을 스캔하는 이전구역 스캔 단계(S 121);
상기 이전구역 스캔 단계(S 121)에서 스캔 값이 산출되지 않을 경우 RFID 태그(210)를 인식한 RFID 리더부(110)의 위치 및 RFID 태그 인식속도를 확인하여 이동체의 위치를 확인하고 해당 인식영역을 적외선 스캔하는 RFID 위치확인 단계(S 122);를 더 포함하는 것을 특징으로 하는 상황정보 기반 콘텐츠 생성을 위한 구간영역 내 이동체 인식 방법.
The method of claim 3,
(S 121) for scanning the reflection value of the infrared rays emitted from the previous recognition area of the recognition area when the moving object is not recognized in the RFID tag recognition step (S 110) and the dynamic object detection step (S 120) ;
If the scan value is not calculated in the previous region scanning step S 121, the position of the RFID reader unit 110 that recognized the RFID tag 210 and the RFID tag recognition speed are checked to check the position of the mobile unit, (S 122) for performing infrared scanning of the RFID tag in the RFID tag.
KR1020140131278A 2014-09-30 2014-09-30 Method and system for recognition of moving object in the area for creation of content based on current context information KR101617540B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140131278A KR101617540B1 (en) 2014-09-30 2014-09-30 Method and system for recognition of moving object in the area for creation of content based on current context information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140131278A KR101617540B1 (en) 2014-09-30 2014-09-30 Method and system for recognition of moving object in the area for creation of content based on current context information

Publications (2)

Publication Number Publication Date
KR20160038971A KR20160038971A (en) 2016-04-08
KR101617540B1 true KR101617540B1 (en) 2016-05-03

Family

ID=55907837

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140131278A KR101617540B1 (en) 2014-09-30 2014-09-30 Method and system for recognition of moving object in the area for creation of content based on current context information

Country Status (1)

Country Link
KR (1) KR101617540B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439122B1 (en) * 2022-03-02 2022-09-01 주식회사 파이미디어랩 User location analysis monitoring system in metaverse environment
WO2023200075A1 (en) * 2022-04-12 2023-10-19 (주)서울로보틱스 Object tracking device, object tracking method, and recording medium on which program for performing object tracking method is recorded

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866459B1 (en) * 2007-07-20 2008-10-31 재단법인서울대학교산학협력재단 Location tracking system
KR101157984B1 (en) * 2011-02-01 2012-06-26 주식회사 여의시스템 Apparatus for providing location imformation and operation method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866459B1 (en) * 2007-07-20 2008-10-31 재단법인서울대학교산학협력재단 Location tracking system
KR101157984B1 (en) * 2011-02-01 2012-06-26 주식회사 여의시스템 Apparatus for providing location imformation and operation method thereof

Also Published As

Publication number Publication date
KR20160038971A (en) 2016-04-08

Similar Documents

Publication Publication Date Title
US20180349727A1 (en) Hybrid multi-camera based positioning
CN101351754B (en) Mobile device tracking
US9528828B2 (en) Method and system for determining position and orientation of a measuring instrument
US20170039727A1 (en) Methods and Systems for Detecting Moving Objects in a Sequence of Image Frames Produced by Sensors with Inconsistent Gain, Offset, and Dead Pixels
US10107899B1 (en) System and method for calibrating light intensity
US11568654B2 (en) Object recognition method and object recognition device performing the same
KR101550972B1 (en) Apparatus and Method for Extracting of Feature Point for Recognize of Obstacle using Laser Scanner
JP2007010335A (en) Vehicle position detecting device and system
US20170124365A1 (en) Real-time locating system-based bidirectional performance imaging system
US11418980B2 (en) Arrangement for, and method of, analyzing wireless local area network (WLAN) field coverage in a venue
JP2008059260A (en) Movement detection image creating device
JP6688475B2 (en) Information acquisition device, information acquisition system, autonomous mobile device, autonomous mobile device system, and position measuring method for moving body
KR101617540B1 (en) Method and system for recognition of moving object in the area for creation of content based on current context information
US20160259034A1 (en) Position estimation device and position estimation method
CN113126600A (en) Follow system and article transfer cart based on UWB
KR20150112325A (en) Obstacle detection apparatus using signal intensity and the method thereof
WO2016152288A1 (en) Material detection device, material detection method, and program
CN109612455A (en) A kind of indoor orientation method and system
US10408604B1 (en) Remote distance estimation system and method
KR101824042B1 (en) Camera-integrated laser detector and driving method thereof
WO2019049627A1 (en) Spatial recognition device, spatial recognition method, and program
JP7325297B2 (en) Wireless tag position detection system
US11935256B1 (en) Remote distance estimation system and method
Hong et al. An Indoor Location-Tracking Using Wireless Sensor Networks Cooperated with Relative Distance Finger Printing
US20230391372A1 (en) Method of detecting moving objects, device, electronic device, and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190329

Year of fee payment: 4