KR100853185B1 - Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same - Google Patents

Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same Download PDF

Info

Publication number
KR100853185B1
KR100853185B1 KR1020060110171A KR20060110171A KR100853185B1 KR 100853185 B1 KR100853185 B1 KR 100853185B1 KR 1020060110171 A KR1020060110171 A KR 1020060110171A KR 20060110171 A KR20060110171 A KR 20060110171A KR 100853185 B1 KR100853185 B1 KR 100853185B1
Authority
KR
South Korea
Prior art keywords
information
thing
image
location
sensor network
Prior art date
Application number
KR1020060110171A
Other languages
Korean (ko)
Other versions
KR20080041932A (en
Inventor
이재영
유원필
안효성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060110171A priority Critical patent/KR100853185B1/en
Publication of KR20080041932A publication Critical patent/KR20080041932A/en
Application granted granted Critical
Publication of KR100853185B1 publication Critical patent/KR100853185B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0029Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement being specially adapted for wireless interrogation of grouped or bundled articles tagged with wireless record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/50Service provisioning or reconfiguring

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법 및 그 장치는 사물이 제공하는 데이터를 기초로 위치를 인식하고 측정하는 장치가 영상정보와 무선 센서네트워크를 이용하여 사물을 인식하고 측위하는 방법에 있어서, 위치를 측정하고자 하는 사물의 아이디를 획득한 후 그 아이디를 기초로 상기 사물의 정보를 획득하는 단계; 상기 사물에 부착된 전자태그와의 무선통신을 이용하여 상기 사물의 위치를 추정하는 단계; 상기 추정된 사물의 위치 근처의 영상을 획득하는 단계; 및 상기 획득된 영상으로부터 상기 사물의 위치를 재산정하는 단계;를 포함하는 것을 특징으로 하며, 공간 내에 존재하는 다양한 사물들의 ID와 정확한 위치정보를 파악할 수 있으므로 이를 바탕으로 사물 조작, 배달 등 지능적인 로봇 서비스 개발에 응용될 수 있다.Object recognition and positioning method using the image information and the wireless sensor network according to the present invention and the device is a device for recognizing and measuring the location based on the data provided by the object recognizes the object using the image information and wireless sensor network A method of positioning, the method comprising: obtaining an ID of an object for which a position is to be measured and acquiring information of the object based on the ID; Estimating the location of the thing using wireless communication with the electronic tag attached to the thing; Acquiring an image near the estimated position of the object; And repositioning the location of the object from the acquired image. Since the ID and the accurate location information of various objects existing in the space can be grasped, an intelligent robot such as an object manipulation and delivery can be identified. It can be applied to service development.

이동로봇 (Mobile robot), 무선 센서네트워크 (Wireless sensor network), 로봇 비전 (Robot vision)사물 인식 (Object recognition), 사물 측위 (Object localization), 센서 융합 (Sensor fusion) Mobile robot, Wireless sensor network, Robot vision Object recognition, Object localization, Sensor fusion

Description

영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법 그리고 그 장치{Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same}Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same}

도 1은 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of an object recognition and positioning apparatus using image information and a wireless sensor network according to the present invention.

도 2는 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법 및 그 장치가 적용되는 시스템의 구성을 보여주는 도면이다.2 is a diagram illustrating a method of recognizing and positioning an object using image information and a wireless sensor network and a system to which the apparatus is applied according to the present invention.

도 3은 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법의 과정을 보여주는 흐름도이다.3 is a flowchart illustrating a process of object recognition and positioning using image information and a wireless sensor network according to the present invention.

도 4는 사물 추정위치의 오차범위 및 로봇 카메라에서의 가시 범위를 보여주는 도면이다.4 is a diagram illustrating an error range of an estimated object position and a visible range of a robot camera.

본 발명은 서비스 환경에 존재하는 사물들을 인식하고 각 사물들의 위치를 파악하기 위한 방법 및 그 장치에 관한 것으로서, 보다 상세하게는 위치를 파악하고자 하는 사물과 무선통신을 통하여 그 사물의 아이디를 획득한 후 상기 사물의 정보를 저장하고 있는 데이터베이스로 정보를 요청하여 수신한 후, 로봇을 포함하는 장치로부터 상기 사물의 영상을 획득하여 획득한 정보와 합쳐 정확한 인식 및 그 위치를 측정하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing objects existing in a service environment and determining the location of each object, and more particularly, to obtain an ID of the object through wireless communication with the object to be located. After requesting and receiving information from a database that stores the information of the thing, and after receiving the image of the object from the device including the robot and the information obtained by measuring the accurate recognition and its location to It is about.

로봇이 인간에게 유용한 서비스를 제공하기 위해서는 서비스 공간에 대한 환경인지가 필요하며 특히 공간 내에 존재하는 사물들을 인식하고 위치정보를 파악하는 것이 중요하다. 예를 들어 로봇이 인간에게 음료수를 배달하기 위해서는 먼저 음료수의 존재 여부를 인식해야 하며 다음으로 음료수까지 접근하기 위해 위치정보를 파악해야 한다. In order for robots to provide useful services to humans, it is necessary to be aware of the environment of the service space, and in particular, it is important to recognize objects in the space and to grasp the location information. For example, in order for a robot to deliver a drink to a human being, the robot must first recognize the presence of a drink and then grasp the location information to access the drink.

사물을 인식하고 위치를 파악하기 위한 전통적인 방법은 카메라를 이용한 영상인식 기술이다. 통상적으로 영상인식 기술은 각 사물에 대하여 미리 영상 DB를 구축하여 저장해놓고 새로 들어온 입력 영상과 비교하여 사물을 인식하는 방법을 사용한다. 영상에서 사물 인식 및 검출에 성공하면 두 대의 카메라를 사용한 스테레오 매칭(stereo matching) 등의 방법을 사용하여 사물의 위치정보는 비교적 정확하게 산출할 수 있다. 이러한 영상인식 방법은 공장과 같이 잘 구조화되고 고정된 환경에서는 성공적으로 적용되어 왔다. 그러나 로봇의적용 환경이 산업용 로봇에서 가정, 공공기관, 사무실과 같이 구조화되지 않고 복잡한 일반 환경으로 확대 변화되어 감에 따라 영상인식 기술만을 이용한 환경 및 사물 인식에는 한계를 갖는다. 인식해야 할 사물의 종류 및 개수가 증가함에 따라 비교해야 할 DB 영상의 수도 증가하기 때문에 비교에 따른 연산시간이 증가하고 잘못된 인식 또는 검출을 할 확률 또한 증가하는 문제점을 갖는다. 또한 카메라의 시야는 한정되어 있기 때문에 로봇 이 활동하는 서비스 공간이 넓을 경우에 로봇이 일일이 이동하면서 사물을 찾는 것은 매우 비효율적이다.The traditional method for recognizing and locating objects is image recognition technology using a camera. In general, image recognition technology uses a method of constructing and storing an image DB for each object in advance and comparing the object with a newly input image. If the object is successfully recognized and detected in the image, the location information of the object may be calculated relatively accurately by using a stereo matching method using two cameras. This image recognition method has been successfully applied in a well structured and fixed environment such as a factory. However, as the application environment of robots is changed from industrial robots to unstructured and complex general environments such as homes, public institutions, and offices, there is a limit to environment and object recognition using only image recognition technology. As the number and type of objects to be recognized increases, the number of DB images to be compared increases, so that the computation time increases according to the comparison and the probability of false recognition or detection also increases. In addition, since the field of view of the camera is limited, it is very inefficient to find objects while the robot moves one by one when the service space where the robot is active is large.

사물을 인식하고 위치를 파악하기 위한 다른 방법으로 최근에 활발하게 연구되고 있는 무선통신 및 센서네트워크 기술이 있다. RFID 시스템은 적은 시설투자와 적은 관리 비용으로 위치를 인식할 수 있는 시스템이다. RFID시스템은 태그(Tag), 리더기(reader), 데이터 처리부로 시스템이 구성되어 있다. 태그에는 태그 고유의 ID(identity)가 전파를 통해서 주위로 전달되고, 리더기는 그 신호를 수신하여 데이터 처리 시스템에서 물체를 최종적으로 해석한다. RFID의 단점은 태그에서 나오는 신호의 세기가 시간에 따라 느리게 변하며 전파의 전달 시간을 계산하는 것이 어렵다는 점이다. 따라서 RFID만을 이용하여 위치를 결정하기는 힘들다.Another method for recognizing and locating objects is wireless communication and sensor network technology, which is being actively researched recently. The RFID system is a system that can recognize the location with low facility investment and low management cost. The RFID system is composed of a tag, a reader, and a data processor. The tag's unique identity is transmitted around by radio waves, and the reader receives the signal and finally interprets the object in the data processing system. The disadvantage of RFID is that the strength of the signal from the tag changes slowly over time and it is difficult to calculate the propagation time of the radio waves. Therefore, it is difficult to determine the location using only RFID.

무선 센서네트워크 기반에 의한 위치결정 방법으로는 UWB(ultra wideband, IEEE 802.15.4a)신호를 이용한 방법과, ZigBee(IEEE 802.15.3a), WLAN(IEEE 802.11)을 이용하는 방법들이 있다. UWB 시스템은 극단적으로 짧은 펄스를 이용하여 처음으로 도착한 펄스를 추출한 후, 수신기들간의 도착 시각 차이를 이용하여 물체의 위치를 삼각 측량법에 의해서 추정한다. 이 방법의 장점은 상대적으로 먼 거리에서 위치 인식이 가능하고, 벽이나, 칸막이 등으로 막힌 공간에서도 UWB신호의 강력한 전파 투시력으로 인하여 물체의 위치를 대략적으로 결정할 수 있으며, 다른 전파에 비하여 상대적으로 multi-pathing이나, 산란, 회절 등에 영향을 덜 받는다는 점이다. Positioning methods based on the wireless sensor network include a method using an ultra wideband (UWB) signal and a method using a ZigBee (IEEE 802.15.3a) and a WLAN (IEEE 802.11). The UWB system extracts the first arriving pulse using an extremely short pulse, and then estimates the position of the object by triangulation method using the arrival time difference between the receivers. The advantage of this method is that the position can be recognized at a relatively long distance, and the position of the object can be determined roughly due to the strong propagation power of the UWB signal even in a space blocked by walls or partitions, and compared with other radio waves. It is less affected by pathing, scattering, or diffraction.

그에 반하여 UWB의 단점으로는 신호를 수신할 수신기가 벽의 고정된 위치에 부착되어야 한다는 점과 이로 인하여 설치에 많은 장비가 필요하며, 세분화된 지역의 위치 결정이 어렵다는 단점을 가진다. ZigBee의 경우 주로 도달한 신호의 강도를 이용하며, ZigBee 송/수신기가 필요하다. 일반적으로 ZigBee의 경우 3~6미터 정도 위치 정밀도를 보장하는 것으로 알려졌다. WLAN의 경우 역시 3~6미터 정도 위치 정밀도를 제공해주며, WLAN의 전파 환경에 맞는 억세스포인트(Access point)가 필요하다. WLAN의 장점은 기존의 무선 인터넷 망을 이용하기 때문에 설치 비용이 저렴하지만, WLAN의 경우 전파의 패턴과 강도 등을 비교해서 물체의 위치를 결정하기 때문에 사전에 전파맵을 작성해야 하며, 이는 WLAN의 경우 많은 설치 시간과 수동적이며 반복적인 수작업을 요구한다. 전파맵의 경우 환경의 변화에 영향 받기 쉽기 때문에 정밀한 위치 결정이 불가능하다는 단점도 있다.On the other hand, the disadvantage of UWB is that the receiver to receive the signal has to be attached to a fixed location on the wall, which requires a lot of equipment for installation, and it is difficult to locate the subdivided area. ZigBee mainly uses the strength of the signal reached, and ZigBee transmitter / receiver is required. In general, ZigBee is known to guarantee position accuracy of about 3 to 6 meters. WLANs also offer position accuracy of about 3 to 6 meters and require an access point suitable for WLAN propagation environments. The advantage of WLAN is that installation cost is low because it uses the existing wireless internet network. However, in case of WLAN, the position of object is determined by comparing the pattern and intensity of radio waves. This requires a lot of installation time and manual and repetitive manual work. In the case of the propagation map, it is easy to be affected by changes in the environment, which makes it impossible to precisely determine the location.

정리하면, 상기한 바와 같이 로봇의 서비스 공간내에서 사물들을 인식하고 정확한 위치를 파악하는 것은 지능형 서비스를 위해 매우 중요하나 넓은 공간에서 영상인식 만을 사용하여 사물을 찾는 것은 시간이 많이 소요되고 현재의 영상처리 기술로는 잘못된 인식을 할 확률이 높은 편이다. 반면에 무선 통신네트워크 기술을 이용하면 사물의 ID를 쉽게 인식할 수 있지만 전파 특성 상 정확한 위치정보를 제공할 수 없고 2~3m 내외의 대략적인 위치정보만을 제공할 수 있는 문제점이 있다.In summary, as described above, it is very important for intelligent services to recognize objects in the service space of the robot and to identify the exact location. However, it is time consuming to find objects using only image recognition in a large space. As a processing technique, there is a high probability of false recognition. On the other hand, the wireless communication network technology can easily recognize the ID of the thing, but there is a problem that can not provide accurate location information due to the propagation characteristics and can provide only approximate location information of about 2 ~ 3m.

본 발명이 이루고자 하는 기술적 과제는 상기의 문제점을 해결하기 위하여 안출된 것으로서, 영상인식 기술에 무선센서 네트워크 기술을 접목하여 영상처리에 따른 불확실성을 제거하고 연산량을 줄임으로써 효율적으로 공간에 존재하는 사물 들의 위치정보를 정확하게 파악할 수 있는 방법 및 그 장치를 제공하는데 있다. The technical problem to be solved by the present invention is to solve the above problems, by combining wireless sensor network technology with image recognition technology to remove the uncertainty due to image processing and reduce the amount of calculation of objects present in the space efficiently The present invention provides a method and an apparatus capable of accurately identifying location information.

상기의 기술적 과제를 이루기 위하여 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법은 사물이 제공하는 데이터를 기초로 위치를 인식하고 측정하는 장치가 영상정보와 무선 센서네트워크를 이용하여 사물을 인식하고 측위하는 방법에 있어서, 위치를 측정하고자 하는 사물의 아이디를 획득한 후 그 아이디를 기초로 상기 사물의 정보를 획득하는 단계; 상기 사물에 부착된 전자태그와의 무선통신을 이용하여 상기 사물의 위치를 추정하는 단계; 상기 추정된 사물의 위치 근처의 영상을 획득하는 단계; 및 상기 획득된 영상으로부터 상기 사물의 위치를 재산정하는 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above technical problem, the object recognition and positioning method using the image information and the wireless sensor network according to the present invention uses an image information and a wireless sensor network as a device for recognizing and measuring a location based on data provided by the object. A method for recognizing and positioning a thing, the method comprising: obtaining an ID of an object for measuring a location and obtaining information of the object based on the ID; Estimating the location of the thing using wireless communication with the electronic tag attached to the thing; Acquiring an image near the estimated position of the object; And repositioning the position of the object from the acquired image.

상기의 기술적 과제를 이루기 위하여 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치는 사물의 정보를 저장하며, 요청에 따라 제공하는 데이터베이스; 및 상기 사물을 인식한 후 상기 데이터베이스가 제공하는 상기 사물의 정보를 획득하고, 무선통신을 통해 상기 사물의 위치를 추정하고, 상기 추정된 사물의 위치 근처의 영상을 획득하여 상기 사물의 정보 및 영상을 기초로 상기 사물의 위치를 재산정하는 무선 위치 인식부;를 포함하는 것을 특징으로 한다.In order to achieve the above technical problem, the object recognition and positioning apparatus using the image information and the wireless sensor network according to the present invention includes a database that stores information of a thing and provides it on request; And recognizing the thing, acquiring the information of the thing provided by the database, estimating the location of the thing through wireless communication, and acquiring an image near the estimated location of the thing to obtain the information and the image of the thing. And a wireless location recognizing unit to redefine the location of the object based on the location of the object.

이하, 첨부된 도면을 참조하면서 본 발명의 바람직한 일 실시예를 상세하게 설명하도록 한다. 도 1은 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치의 구성을 보여주는 블록도이다. 도 2는 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법 및 그 장치가 적용되는 시스템의 구성을 보여주는 도면이다. 한편 도 3은 본 발명에 의한 영상정보 와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법의 과정을 보여주는 흐름도이며, 도 4는 사물 추정위치의 오차범위 및 로봇 카메라에서의 가시 범위를 보여주는 도면이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 is a block diagram showing the configuration of an object recognition and positioning apparatus using image information and a wireless sensor network according to the present invention. 2 is a diagram illustrating a method of recognizing and positioning an object using image information and a wireless sensor network and a system to which the apparatus is applied according to the present invention. Meanwhile, FIG. 3 is a flowchart illustrating a process of a method for recognizing and locating an object using image information and a wireless sensor network according to the present invention, and FIG. 4 is a view illustrating an error range of an object estimation position and a visible range in a robot camera.

먼저 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치의 구성을 살펴본다. 무선 위치 인식부(110)는 로봇(130)에 포함될 수 도 있으며, 혹은 별도의 장치로 구성되어 로봇(130)과 연동되어 동작할 수도 있다. 무선 위치 인식부(110)는 사물의 위치를 측정하는 기능을 수행한다. 즉 사물의 ID를 이용하여 데이터베이스(120)에 기 저장되어 있는 사물에 대한 정보 데이터를 이용하여 로봇(130)이 제공하는 카메라 영상에서 해당 사물을 검출한 후 상기 로봇(130)이 제공하는 영상과 비교하여 정확한 위치를 산출하는데, 이를 위하여 세부적으로는 정보수집부(111), 영상 수집부(113), 위치계산부(115)로 구성된다. 정보수집부(111)는 위치를 측정하고자하는 사물의 아이디를 획득한 후 그 아이디를 기초로 데이터 베이스(120)가 제공하는 사물의 정보를 획득한다. 영상수집부(113)는 상기 로봇으로부터 영상을 수신하며, 위치계산부(115)는 사물의 위치를 추정한 후 상기 수신된 영상을 기초로 사물의 위치를 계산하게 된다.First, the configuration of the object recognition and positioning device using the image information and the wireless sensor network according to the present invention will be described. The wireless location recognition unit 110 may be included in the robot 130 or may be configured as a separate device to operate in conjunction with the robot 130. The wireless location recognition unit 110 performs a function of measuring the location of the thing. That is, after detecting the object from the camera image provided by the robot 130 using information data about the object previously stored in the database 120 using the ID of the object, the image provided by the robot 130 and Comparing to calculate the exact position, for this purpose is composed of the information collecting unit 111, the image collecting unit 113, the position calculating unit 115. The information collecting unit 111 obtains the ID of the thing to measure the position and then obtains the information of the thing provided by the database 120 based on the ID. The image collecting unit 113 receives an image from the robot, and the position calculating unit 115 estimates the position of the object and calculates the position of the object based on the received image.

한편 데이터베이스(120)는 상기 사물의 정보를 저장하며, 상기 무선 위치 인식부(110)의 요청이 있으면 그 정보를 제공한다. 한편 로봇(130)은 사물에 대한 영상을 획득하여 상기 무선 위치 인식부(110)로 제공하게 된다. 한편 상기 정보수집부(111)는 상기 사물에 부착된 전자태그와의 무선 통신을 이용하여 사물의 아이디를 획득한다. Meanwhile, the database 120 stores the information of the thing, and provides the information when requested by the wireless location recognition unit 110. Meanwhile, the robot 130 obtains an image of an object and provides the image to the wireless location recognition unit 110. Meanwhile, the information collecting unit 111 obtains the ID of the thing by using wireless communication with the electronic tag attached to the thing.

도 1과 같은 본 발명의 구성이 적용되는 예를 도 2를 참조하면서 살펴본다. 본 발명의 위치인식 시스템은 네트워크에 연결된 이동로봇(230)에 부착되는 카메라, 사물(240)에 부착되는 전자태그(tag), 전자태그와의 무선통신을 통해서 전자태그의 ID와 대략적인 위치를 추정할 수 있는 무선 위치인식 네트워크(210,localization network), 각 사물에 대한 정보를 저장하고 있는 데이터베이스(220,Database) 시스템, 사물에 대한 정보를 이용하여 카메라로 획득한 영상으로부터 사물을 검출하고 위치정보를 산출하는 연산모듈(도 1의 110)로 구성되며, 이 연산모듈은 위에서 언급한 바와 같이 로봇(130) 내부에 장착될 수도 있고 별도의 모듈(장치)로 구성될 수도 있으며, 이하 같다. 사물에 부착되는 전자태그에는 고유의 식별자 ID가 포함되며 외부로부터의 특정 신호에 반응하여 자신의 ID를 외부로 알려줄 수 있는 기능(broadcasting)을 가진다.An example in which the configuration of the present invention as shown in FIG. 1 is applied will be described with reference to FIG. 2. The position recognition system of the present invention detects an ID and an approximate location of an electronic tag through wireless communication with a camera attached to a mobile robot 230 connected to a network, an electronic tag attached to an object 240, and an electronic tag. Using a localization network (210, localization network) that can be estimated, a database system (220, which stores information about each object), and detecting and locating objects from an image acquired by a camera using information about the objects It is composed of a calculation module for calculating information (110 of FIG. 1), which may be mounted inside the robot 130 or may be configured as a separate module (apparatus) as described above, as follows. The electronic tag attached to the thing includes a unique identifier ID and has a function of broadcasting its ID to the outside in response to a specific signal from the outside.

무선 위치인식 네트워크는 전자태그와의 무선통신을 통해 전자태그의 ID를 식별하고 또한 위치를 산출할 수 있는 기능을 갖는다. 이러한 무선 통신을 이용한 전자태그의 위치인식 방법으로는 전파신호의 도착 시각 차이 및 전파의 수신 방향을 같이 이용하여 위치를 추정하는 UWB(ultrawideband, IEEE 802.15.4a) 방식, 전파신호의 수신강도를 이용하여 위치를 추정하는 ZigBee(IEEE 802.15.3a) 방식, 또는 각 지점에서 전파의 분포특성을 이용하는 WLAN(IEEE 802.11) 방식 중 어느 것을 사용해도 무방하나 이상적으로는 벽이나, 장애물 등에 대한 투과력이 뛰어나고 multi-path fading이나 산란, 회절 등에 영향을 덜 받는 UWB 방식을 사용하는 것이 바람직하다.The wireless location recognition network has a function of identifying an ID of an electronic tag and calculating a location through wireless communication with the electronic tag. The position recognition method of the electronic tag using the wireless communication uses the UWB (ultrawideband, IEEE 802.15.4a) method of estimating the position by using the arrival time difference of the radio signal and the reception direction of the radio wave, and the reception intensity of the radio signal. Either the ZigBee (IEEE 802.15.3a) method for estimating the location or the WLAN (IEEE 802.11) method using the distribution characteristics of the radio waves at each point may be used, but ideally has excellent permeability against walls and obstacles and multi It is preferable to use the UWB method which is less susceptible to path fading, scattering and diffraction.

데이터베이스 시스템에는 각 사물에 대한 정보가 저장되며 전자태그에 부여된 식별자 ID를 키 인덱스(key index)로 하여 구분된다. 사물에 대한 정보에는 영상처리를 통해 사물을 인식하기 위해 필요한 데이터들이 저장되며 구체적으로는 사물에 대해 미리 등록된 영상 데이터, 영상 특징량, 또는 크기, 형태 등 기타 부가적인 정보들이 저장될 수 있다. 이러한 사물 정보는 사용자가 수작업으로 데이터베이스에 등록시켜 주어도 무방하지만, 이상적으로는 사물(특히 상업적 제품)을 제조한 회사에서 각 사물에 대한 정보를 제공하고 사용자는 식별자 ID를 이용하여 웹(web)을 통해 사물 DB에 접근할 수 있다.In the database system, information about each thing is stored and distinguished by using an identifier ID assigned to an electronic tag as a key index. Information about a thing may be stored in the information on the thing through image processing, and specifically, additional data such as image data, image feature amount, size, shape, etc. registered in advance about the thing may be stored. This thing information can be registered manually in the database, but ideally, the company that manufactures the thing (especially a commercial product) provides information about each thing, and the user uses the identifier ID to access the web. You can access the thing DB through this.

연산 모듈에서는 사물에 대한 DB 정보를 이용하여 카메라 영상에서 해당 사물을 검출한다. 일반적인 환경에서 사물을 인식하는 경우에는 사물의 놓여진 자세(pitch, roll, yaw), 카메라와의 거리, 사물과 카메라 방향과의 위치 관계(시점), 외부 조명 관계에 따라 영상에서 나타나는 사물의 형태 및 크기가 다양하게 변화될 수 있기 때문에 템플릿매칭(template matching) 등의 방법은 적용할 수 없다. 따라서, 통상적으로 영상에서 시점, 크기, 조명 등에 강인한 특징 벡터들을 추출하여 DB에 저장된 영상들의 특징 벡터들과 비교하는 방법을 사용한다(참조: Lowe, D.G.., "Object recognition from local scale-invariant features," In ICCV, pp.1150-1157, 1999년도). 영상에서 사물 인식 및 검출에 성공하면 두 대의 카메라를 사용한 스테레오 매칭(stereo matching) 등의 방법을 사용하여 사물의 위치정보를 비교적 정확하게 산출할 수 있다.The operation module detects the corresponding object from the camera image by using the DB information about the object. When the object is recognized in a general environment, the shape of the object appears in the image according to the posture of the object (pitch, roll, yaw), the distance from the camera, the positional relationship between the object and the camera direction (viewpoint), and the external lighting relationship. Since the size may vary, a method such as template matching is not applicable. Therefore, in general, a method of extracting feature vectors robust to a viewpoint, a size, an illumination, etc. from an image and comparing the feature vectors of images stored in a DB is used (see Lowe, DG., “Object recognition from local scale-invariant features”). , "In ICCV, pp. 1150-1157, 1999). When object recognition and detection are successful in an image, location information of an object may be relatively accurately calculated using a stereo matching method using two cameras.

다음으로 도 3을 참조하면서 본 발명에 따른 사물의 위치인식 과정을 상세히 설명한다. 위치인식 과정은 크게 보면 사물의 ID 및 사물의 정보를 획득하는 단계(S310), 무선 통신을 이용한 사물의 위치를 추정하는 단계(S320), 이동하는 로봇으로부터 사물의 영상을 획득하는 단계(S330), 영상을 인식한 후 위치를 산출하는 단계(S340)로 구성된다. 이하 자세히 살펴본다.Next, the position recognition process of the thing according to the present invention will be described in detail with reference to FIG. 3. The location recognition process is largely obtained by obtaining an ID of the object and information of the object (S310), estimating the position of the object using wireless communication (S320), and obtaining an image of the object from the moving robot (S330). After the recognition of the image, and calculating the position (S340). Take a closer look below.

먼저, 사물의 ID 및 사물의 정보를 획득하는 단계(S310)에서는 무선 위치인식 시스템(공간에 설치되며 전자태그와 무선 통신이 가능한 송수신기를 포함하며 도 1의 구성을 가진다)에서 공간에 존재하는 전자태그들을 검출하기 위하여 공간상에 특정 신호를 방출한다(broadcasting). 각 사물에 부착된 전자태그들은 특정 신호에 반응하여 자신의 ID를 회신한다. 그러면 무선 위치인식 시스템에서는 수신된 신호를 분석하여 공간상에 존재하는 사물들의 ID를 파악할 수 있다. 그 다음으로, 파악된 ID를 이용하여 데이터베이스 시스템에 접근하여 사물에 대한 정보를 가져온다. 가져온 사물 정보 데이터는 이후 영상인식 단계에서 사물을 검출하는데 사용되며, 추가적으로 사용자에서 공간상에 존재하는 사물들의 목록을 제시하는데 이용될 수 있다. First, in step S310 of obtaining the ID of the thing and the information of the thing, the electronic present in the space in the wireless location recognition system (including a transceiver installed in the space and capable of wireless communication with the electronic tag and has the configuration of FIG. 1) Broadcast a specific signal in space to detect tags. The electronic tags attached to each object return their ID in response to a specific signal. Then, the wireless location recognition system may analyze the received signal to determine the IDs of objects existing in the space. Next, we use the identified ID to access the database system to get information about things. The imported object information data is used to detect the object in the image recognition step later, and may be used to present a list of objects existing in the space.

사물위치 추정 단계(S320)에서는 UWB 등의 무선통신에 기반한 위치인식 방법을 사용하여 전자태그의 위치, 즉, 전자태그가 부착된 사물의 대략적인 위치정보를 산출한다. 현재, UWB의 경우 약 2~3m 내외의 위치 정확도로 위치인식을 할 수 있는 것으로 알려져 있다. 정확한 위치를 산출하기 위한 자료를 제공하기 위하여 로봇은 위에서 추정된 사물 위치 정보를 이용하여 사물 근처까지 이동한다. 무선통신을 이용한 사물위치 추정 결과는 부정확(2~3m)하기 때문에 정확히 사물 앞에서 멈출 수 가 없는 문제가 있다. 그러나, 로봇은 사물이 존재하는 쪽을 바라보고 접근하기 때문에 로봇이 사물을 지나치지 않는다면 사물은 로봇을 기준으로 전방에 있게 된다. 즉, 로봇이 바라보는 방향을 기준으로 ±90도 내에 위치한다. 만일 로봇이 추정된 사물의 위치보다 전방에서 멈춘다면 사물이 존재하는 범위각은 훨씬 줄어들게 된다. 로봇이 멈추는 지점은 무선 통신에 의한 위치추정의 정확도(또는 error boundary), 사용된 카메라의 시야각(렌즈에 의해 결정됨), 영상인식으로 사물 검출이 가능한 카메라와 사물과의 최대 거리(사용된 카메라 이미지 센서의 해상도, 사물과 카메라의 거리에 의해 결정됨) 등을 고려하여 다양하게 결정될 수 있다.In the object position estimating step (S320), the position of the electronic tag, that is, the approximate position information of the object with the electronic tag is calculated using a position recognition method based on wireless communication such as UWB. At present, it is known that UWB can recognize the position with a position accuracy of about 2 ~ 3m. In order to provide data for calculating the exact position, the robot moves to the vicinity of the object using the object position information estimated above. The object position estimation result using wireless communication is inaccurate (2 ~ 3m), so there is a problem that it cannot stop in front of the object. However, since the robot looks and approaches the object, the object is in front of the robot unless the robot passes the object. That is, it is located within ± 90 degrees from the direction of the robot. If the robot stops in front of the estimated position of the object, the range angle at which the object exists is much smaller. The point where the robot stops is the accuracy (or error boundary) of the position estimation by wireless communication, the viewing angle of the camera used (determined by the lens), the maximum distance between the camera and the object that can detect the object through image recognition (the used camera image). It may be determined in various ways in consideration of the resolution of the sensor, the distance between the object and the camera).

하나의 예시로서, 도 4에 도시된 바와 같이, 추정된 사물의 위치를 p, 무선통신을 이용한 위치추정의 오차한계를 e, 영상에서 사물 검출이 가능한 카메라와 사물 간의 최대 거리를 d 라고 하고 로봇이 사물의 추정 위치 지점을 정면으로 바라보면서 일직선상으로 이동한다고 가정 했을 때, 로봇이 사물을 인식할 수 있는 위치는 p-e-d 부터 p+e-d 사이이다(단, 로봇과 지점 p를 잇는 일직선 상에서 p에서 로봇쪽으로 k만큼 떨어진 지점을 p-k, 반대반향으로 k만큼 떨어진 지점을 p+k로 표시한다).As an example, as shown in FIG. 4, the estimated position of the object is p, the error limit of position estimation using wireless communication is e, the maximum distance between the camera and the object that can detect the object in the image is d, and the robot Assuming that the robot moves in a straight line while looking directly at the estimated location of the object, the position at which the robot can recognize the object is between ped and p + ed (but at p on the straight line between the robot and point p). Pk points k away from the robot, and p + k points away k in the opposite direction).

카메라의 시야가 넓다면 로봇이 p-e 지점에서부터 사물을 검출하는 것이 좋으나 일반적으로 카메라의 시야 θ는 한정되어 있기 때문에 도 4에서와 같이 카메라의 시야각과 추정 위치의 오차 boundary가 접하는 지점에서부터(이를 지점 R이라 하자) 사물 검출을 시도해야 사물이 검출되지 않는 경우를 방지할수 있다. 따라서 지점 R부터 시작하여 지점 p+e-d 까지 일정한 간격으로 로봇을 이동시키면서 사물 검출을 시도하는 것이 바람직하다. 만일 로봇에 초음파 센서 등의 전방 장애물을 감지할 수 있는 거리센서가 장착되어 있을 경우에는 이상적으로 지점 p+e-d 까지 진행하기 전에라도 도중에 장애물이 감지되면 장애물과 부딪히지 않을 정도까지만 진행하는 방법을 사용할 수 있다.If the camera's field of view is wide, it is recommended that the robot detects the object from the point pe, but in general, since the field of view θ of the camera is limited, as shown in FIG. Attempting to detect a thing can prevent a case from not being detected. Therefore, it is desirable to try to detect objects by moving the robot at regular intervals starting from point R to point p + e-d. If the robot is equipped with a distance sensor that can detect a forward obstacle such as an ultrasonic sensor, ideally, if the obstacle is detected in the middle even before proceeding to the point p + ed, the method can proceed only to the extent that it will not hit the obstacle. have.

다음으로, 영상인식 단계(S330)에서는 카메라 영상과 사물의 ID를 이용하여 획득된 사물 정보를 비교하여 해당 사물을 영상에서 검출하게 된다. 이 때, 이미 사물의 ID를 알고 있기 때문에 영상인식 문제는 영상에서의 단순한 검출 문제로 치환되며 이로 인해 영상처리에 따른 연산시간과 오류 가능성을 최소화할 수 있다. 기존의 일반적인 영상인식 문제에서는 입력 영상과 데이터베이스(DB) 상에 등록되어 있는 모든 사물 데이터들과 비교를 하기 때문에 시간이 많이 소요되고 또한 잘못된 인식 가능성도 상대적으로 높게 된다. 그러나 사물에 부착된 전자태그로부터 사물의 ID를 정확하게 알 수 있기 때문에 본 발명에 따르면 DB에 있는 모든 사물 데이터와 비교 연산을 수행할 필요가 없고, 해당 사물의 데이터와만 비교를 수행하면 되기 때문에 영상처리 신뢰도를 현저하게 높일 수 있다.Next, in the image recognition step (S330), the object is detected from the image by comparing the object information obtained by using the camera image and the ID of the object. At this time, since the ID of the object is already known, the image recognition problem is replaced by a simple detection problem in the image, thereby minimizing the computation time and the possibility of error due to the image processing. In the conventional general image recognition problem, since it compares the input image and all the object data registered in the database (DB), it takes a lot of time and the possibility of false recognition is relatively high. However, since the ID of the thing can be accurately known from the electronic tag attached to the thing, according to the present invention, there is no need to perform a comparison operation with all the thing data in the DB, and only the data of the thing needs to be compared to the image. The processing reliability can be significantly increased.

마지막으로, 정밀 위치산출 단계(S340)에서는 상기 영상인식 단계(S330)에서 검출된 사물의 영상에서의 위치 정보와 함께 카메라와 사물간의 거리를 별도 장치 및 과정을 통해 측정함으로써 계산된다. 영상정보를 이용하여 산출하는 위치정보는 수 cm 내외로 매우 정밀하기 때문에 카메라에 비해 상대적으로 사물의 3차원 위치를 산출하는 것은 아주 기본적인 연산으로서 영상에서 사물의 영역만 검출된다면 매우 손쉽게 산출될 수 있다. 예를 들어, 카메라 2대를 사용한 스테레오 매 칭(stereo matching)을 이용한 삼각 측량 방법 등을 사용할 수 있으며 이러한 방법들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 쉽게 알 수 있으므로 구체적인 수식 및 과정에 대한 설명은 생략하기로 한다.Finally, in the precise position calculation step (S340) is calculated by measuring the distance between the camera and the object together with the position information in the image of the object detected in the image recognition step (S330) through a separate device and process. Since the position information calculated using the image information is very precise within a few centimeters, calculating the three-dimensional position of the object is relatively basic compared to the camera, and it can be calculated very easily if only the region of the object is detected in the image. . For example, a triangulation method using stereo matching using two cameras can be used, and these methods can be easily understood by those skilled in the art to which the present invention belongs. The description of the process will be omitted.

이상의 각 단계를 거쳐 무선위치인식부(110) 혹은 이동로봇(무선위치인식부를 탑재한 경우)은 서비스 공간 내에 존재하는 각 사물들의 ID를 파악하여 사물을 정확하게 인식 할 수 있고, 또한 위치 정보를 정밀하게 파악할 수 있다.Through each of the above steps, the wireless location recognition unit 110 or the mobile robot (when the wireless location recognition unit is mounted) can recognize the IDs of the objects present in the service space to accurately recognize the objects, and also accurately locate the location information. I can figure it out.

본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.The object recognition and positioning method using the image information and the wireless sensor network according to the present invention can also be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD_ROM, magnetic tape, floppy disks, and optical data storage, and may also include those implemented in the form of carrier waves (e.g., transmission over the Internet). . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, optimal embodiments have been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not intended to limit the scope of the present invention as defined in the claims or the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

이상에서 설명한 바와 같이 본 발명에 의한 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법 및 그 장치의 효과는 다음과 같이 요약될 수 있다. 첫째, 본 발명은 현재 영상인식 기술로는 복잡하게 해결해야 하는 사물 인식 및 위치 결정을 센서 네트워크와 영상기술을 융합하여 해결할 수 있다. 이 방법의 장점은 계산 시간을 줄일 수 있고, 현재 영상인식 기술로는 오류 가능성이 많은 영상 인식 문제를 전자태그를 이용한 ID 인식을 이용하여 쉽게 해결한다는 점이다. 또한 넓은 공간에서 임의의 위치에 놓여진 사물의 위치를 정밀하게 측정할 수 있다. As described above, the object recognition and positioning method using the image information and the wireless sensor network according to the present invention and the effects of the apparatus can be summarized as follows. First, the present invention can be solved by fusing the sensor network and the image technology to recognize the object recognition and position determination that must be complicated by the current image recognition technology. The advantage of this method is that the computation time can be shortened, and current image recognition technology can easily solve the image recognition problem that has a high possibility of error by using ID recognition using electronic tags. In addition, it is possible to precisely measure the position of the object placed in an arbitrary position in a large space.

둘째, 본 발명에서 제시한 방법은 센서 네트워크가 설치된 실내에서 사물의 위치를 결정하도록 이용될 수 있기 때문에 병원, 학교, 사무실 등 실제 다양한 분야에서 응용되어 이용될 수 있다. 따라서 본 발명은 로봇의 지능 향상에 크게 기여할 것이며, 로봇의 상황 인식 능력을 획기적으로 향상 시킬 것으로 예상된다. 또한 사물의 정확한 위치정보를 파악할 수 있기 때문에 이를 기반으로 배달 서비스, 물건 정리 등 다양한 지능형 로봇 서비스 창출이 가능해진다.Second, since the method proposed in the present invention can be used to determine the location of things in a room where a sensor network is installed, it can be used in various fields such as hospitals, schools, and offices. Therefore, the present invention will greatly contribute to improving the intelligence of the robot, and is expected to significantly improve the robot's situational awareness. In addition, since accurate location information of objects can be identified, various intelligent robot services such as delivery service and object arrangement can be created based on this.

Claims (11)

사물이 제공하는 데이터를 기초로 위치를 인식하고 측정하는 장치가 영상정보와 무선 센서네트워크를 이용하여 사물을 인식하고 측위하는 방법에 있어서,In the method for recognizing and positioning the object using the image information and the wireless sensor network, the device for recognizing and measuring the location based on the data provided by the object, (a) 위치를 측정하고자 하는 사물의 아이디를 획득한 후 상기 아이디를 기초로 상기 사물의 정보를 획득하는 단계;(a) acquiring the ID of the thing to measure the position and then obtaining the information of the thing based on the ID; (b) 상기 사물에 부착된 전자태그와의 무선통신을 이용하여 상기 사물의 위치를 추정하는 단계;(b) estimating the location of the thing using wireless communication with the electronic tag attached to the thing; (c) 상기 추정된 사물의 위치 근처의 영상을 획득하는 단계; 및(c) acquiring an image near the estimated position of the object; And (d) 상기 획득된 사물의 정보를 기초로 상기 획득된 영상에서의 상기 사물의 위치정보를 검출하여 상기 사물의 위치를 재산정하는 단계;를 포함하는 것을 특징으로 하는 영상정보와 무선 센서 네트워크를 이용한 사물 인식 및 측위 방법.(d) repositioning the object by detecting the location information of the object in the acquired image based on the acquired object information; and using the image information and the wireless sensor network Object recognition and positioning method. 제1항에 있어서, 상기 (a) 단계는The method of claim 1, wherein step (a) 상기 사물에 부착된 전자태그와의 무선 통신을 이용하여 상기 아이디를 획득하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법.The object recognition and positioning method using the image information and the wireless sensor network, characterized in that for obtaining the ID using wireless communication with the electronic tag attached to the thing. 제1항에 있어서, 상기 무선 통신은The method of claim 1, wherein the wireless communication is UWB, ZigBee,Wi-Fi를 포함하는 무선 통신 방식을 사용하여 이루어지는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법.Object recognition and positioning method using the image information and the wireless sensor network, characterized in that using a wireless communication method including UWB, ZigBee, Wi-Fi. 삭제delete 제1항에 있어서, 상기 (d)단계는The method of claim 1, wherein step (d) 상기 추정된 사물의 위치를 이용하여 상기 장치가 상기 사물의 근처까지 이동한 후에 카메라로 영상을 획득하고, 그 획득된 영상에서의 상기 사물의 위치정보를 검출하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법.Image information and a wireless sensor, characterized in that for acquiring an image with a camera after the device moves to the vicinity of the object using the estimated position of the object, and detecting the position information of the object in the acquired image. Object recognition and positioning method using network. 제1항에 있어서, 상기 (d)단계는The method of claim 1, wherein step (d) 상기 추정된 위치 근처의 영상에서의 상기 사물의 위치정보를 검출한 후에, 스테레오 정합 방법을 이용하여 상기 사물의 위치를 재산출하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 방법.After detecting the position information of the object in the image near the estimated position, the object recognition and positioning method using the image information and the wireless sensor network, characterized in that the position of the object is recalculated using a stereo matching method. . 사물의 정보를 저장하며, 요청에 따라 제공하는 데이터베이스; 및A database that stores information of a thing and provides it according to a request; And 상기 사물을 인식한 후 상기 데이터베이스가 제공하는 상기 사물의 정보를 획득하고, 무선통신을 통해 상기 사물의 위치를 추정하고, 상기 추정된 위치 근처의 영상을 획득하여 상기 사물의 정보 및 상기 영상을 기초로 상기 사물의 위치를 재산정하는 무선 위치 인식부;를 포함하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치.After recognizing the thing, the information of the thing provided by the database is obtained, the location of the thing is estimated through wireless communication, and an image near the estimated position is obtained, based on the information of the thing and the image. Wireless location recognition unit for re-defining the location of the thing to the object and object recognition and positioning using a wireless sensor network and image information. 제7항에 있어서, 상기 무선 위치 인식부는The method of claim 7, wherein the wireless location recognition unit 상기 획득된 사물의 정보를 기초로 상기 획득된 영상에서의 상기 사물의 위치정보를 검출하여 상기 사물의 정확한 위치를 산출하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치.The object recognition and positioning apparatus using the image information and the wireless sensor network, characterized in that for calculating the exact position of the object by detecting the position information of the object in the obtained image based on the obtained object information. 제7항에 있어서, 상기 무선 위치 인식부는The method of claim 7, wherein the wireless location recognition unit 상기 사물의 아이디를 획득한 후 그 아이디를 기초로 상기 사물의 정보를 획득하는 정보수집부;An information collecting unit which obtains information of the thing based on the ID after obtaining the ID of the thing; 상기 사물에 부착된 전자태그와의 무선통신을 이용하여 상기 사물의 위치를 추정하는 위치계산부; 및A position calculator for estimating the position of the thing using wireless communication with the electronic tag attached to the thing; And 상기 추정된 위치 근처의 영상을 획득하는 영상수신부;를 포함하고,And an image receiver configured to acquire an image near the estimated position. 상기 위치계산부는 상기 획득된 영상을 기초로 스테레오 매칭을 포함하는 방법을 적용하여 상기 사물의 위치를 재산정하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치.And the location calculator re-determines the location of the thing by applying a method including stereo matching based on the acquired image. 제9항에 있어서, 상기 정보수집부는The method of claim 9, wherein the information collecting unit 상기 사물에 부착된 전자태그와의 무선 통신을 이용하여 상기 아이디를 획득하는 것을 특징으로 하는 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위 장치.The object recognition and positioning device using the image information and the wireless sensor network, characterized in that to obtain the ID by using wireless communication with the electronic tag attached to the thing. 제1항 내지 제3항, 제5항 및 제6항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시킬 수 있는 프로그램을 기록한 컴퓨터가 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program capable of executing the method according to any one of claims 1 to 3, 5 and 6.
KR1020060110171A 2006-11-08 2006-11-08 Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same KR100853185B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060110171A KR100853185B1 (en) 2006-11-08 2006-11-08 Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060110171A KR100853185B1 (en) 2006-11-08 2006-11-08 Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same

Publications (2)

Publication Number Publication Date
KR20080041932A KR20080041932A (en) 2008-05-14
KR100853185B1 true KR100853185B1 (en) 2008-08-20

Family

ID=39648872

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060110171A KR100853185B1 (en) 2006-11-08 2006-11-08 Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same

Country Status (1)

Country Link
KR (1) KR100853185B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101593916B1 (en) * 2009-09-10 2016-02-15 삼성전자주식회사 Appratus and method for conneting wirelee using image recognition in a mubile communication terminal
KR101517842B1 (en) * 2014-05-09 2015-05-07 한국로봇융합연구원 Auto Apparatus and Method for Tracking and Managing Logistics Deposited Specific Space
KR101706281B1 (en) * 2015-05-07 2017-02-13 주식회사 나노시스템즈 system for tracking photographing position

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050015490A (en) * 2003-08-06 2005-02-21 한국생산기술연구원 Autonomy moving transport apparatus for fitting and cognizing environment by smart tag and method for controlling thereof
KR20060064908A (en) * 2004-12-09 2006-06-14 한국전자통신연구원 Method for mobile robot localization and navigation using rfid, and system for thereof
KR20060091124A (en) * 2005-02-14 2006-08-18 에스케이 텔레콤주식회사 Method and system for managing ward by using rfid
KR20060102389A (en) * 2005-03-23 2006-09-27 한국생산기술연구원 Stereo vision system and control method for object search and recognition of the robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050015490A (en) * 2003-08-06 2005-02-21 한국생산기술연구원 Autonomy moving transport apparatus for fitting and cognizing environment by smart tag and method for controlling thereof
KR20060064908A (en) * 2004-12-09 2006-06-14 한국전자통신연구원 Method for mobile robot localization and navigation using rfid, and system for thereof
KR20060091124A (en) * 2005-02-14 2006-08-18 에스케이 텔레콤주식회사 Method and system for managing ward by using rfid
KR20060102389A (en) * 2005-03-23 2006-09-27 한국생산기술연구원 Stereo vision system and control method for object search and recognition of the robot

Also Published As

Publication number Publication date
KR20080041932A (en) 2008-05-14

Similar Documents

Publication Publication Date Title
JP4968960B2 (en) Adaptive target positioning method, device, system, and target tracking method using the system by integrating TOA (arrival time) and RSS (received signal strength)
US8731239B2 (en) Systems and methods for tracking objects under occlusion
KR101349980B1 (en) Real time location system and method for making a location information based on finger printing
Taneja et al. Analysis of three indoor localization technologies for supporting operations and maintenance field tasks
US20160139238A1 (en) System and method for rfid indoor localization
CN107437044B (en) Mine moving target tracking and positioning method
KR100682869B1 (en) Location tracking system and method
CN102928813A (en) RSSI (Received Signal Strength Indicator) weighted centroid algorithm-based passive RFID (Radio Frequency Identification Device) label locating method
KR101600190B1 (en) Indoor positioning apparatus considering environmental parameters and method thereof
Geng et al. Indoor tracking with RFID systems
CN109934031B (en) LOS/NLOS distinguishing method and system based on RFID system
JPWO2009096358A1 (en) POSITION DETECTION DEVICE, POSITION DETECTION METHOD, AND POSITION DETECTION PROGRAM
JP6977787B2 (en) Sensor information integration system, sensor information integration method and program
Krukowski et al. RFID-based positioning for building management systems
Teo et al. Autonomous mobile robot navigation via RFID signal strength sensing
Llorca et al. Recognizing individuals in groups in outdoor environments combining stereo vision, RFID and BLE
Liu et al. A novel indoor localization system based on passive RFID technology
KR100853185B1 (en) Object recognition and localization method using both vision information and wireless sensor network and apparatus using the same
KR100811887B1 (en) Apparatus and method for providing selectively position information having steps accuracy in autonomous mobile robot
KR100857248B1 (en) Apparatus and method for creating location and Apparatus and method recognizing location of mobile object
Oktem et al. An indoor navigation aid designed for visually impaired people
US10228440B2 (en) Positioning system and method
Fernandez-Llorca et al. Comparison between UHF RFID and BLE for stereo-based tag association in outdoor scenarios
Tanbo et al. Active RFID attached object clustering method based on RSSI series for finding lost objects
Choi Accurate and cost efficient object localization using passive UHF RFID

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121214

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130905

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140822

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150724

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160516

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180517

Year of fee payment: 11