KR101920465B1 - System and method for object identification in outdoor environment - Google Patents

System and method for object identification in outdoor environment Download PDF

Info

Publication number
KR101920465B1
KR101920465B1 KR1020170033616A KR20170033616A KR101920465B1 KR 101920465 B1 KR101920465 B1 KR 101920465B1 KR 1020170033616 A KR1020170033616 A KR 1020170033616A KR 20170033616 A KR20170033616 A KR 20170033616A KR 101920465 B1 KR101920465 B1 KR 101920465B1
Authority
KR
South Korea
Prior art keywords
information
image
mobile terminal
unit
subject
Prior art date
Application number
KR1020170033616A
Other languages
Korean (ko)
Other versions
KR20180106055A (en
Inventor
김창열
Original Assignee
주식회사 엑사스코프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엑사스코프 filed Critical 주식회사 엑사스코프
Priority to KR1020170033616A priority Critical patent/KR101920465B1/en
Publication of KR20180106055A publication Critical patent/KR20180106055A/en
Application granted granted Critical
Publication of KR101920465B1 publication Critical patent/KR101920465B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G06K9/4652
    • G06K9/481
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/60Subscription-based services using application servers or record carriers, e.g. SIM application toolkits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 연관정보 제공 시스템을 개시한다. 보다 상세하게는, 모바일 단말기를 이용하여 피사체를 촬영하고, 그 식별결과에 기초하여 증강현실(AR) 서비스를 제공하는 정보제공 서버를 포함하는 연관정보 제공 시스템 및 방법에 관한 것이다.
본 발명의 실시예에 따르면, 각 인식 대상당 하나의 참조 이미지가 아닌 다양한 환경을 고려하여 획득된 복수의 참조 이미지를 이용하되, 특정점 정보에 기초하여 영상인식절차를 수행하도록 함으로써, 증강현실 서비스의 영상인식의 정확도를 비약적으로 개선할 수 있는 효과가 있다.
The present invention discloses an associated information providing system. More particularly, the present invention relates to an associated information providing system and an information providing server including an information providing server that photographs a subject using a mobile terminal and provides an augmented reality (AR) service based on the identification result.
According to the embodiment of the present invention, by using a plurality of reference images obtained in consideration of various environments rather than one reference image per each recognition object, by performing the image recognition procedure based on the specific point information, It is possible to remarkably improve the accuracy of image recognition.

Figure R1020170033616
Figure R1020170033616

Description

실외환경에서의 피사체 식별 시스템 및 방법{System and method for object identification in outdoor environment}BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to a system and method for identifying an object in an outdoor environment,

본 발명은 피사체 식별 시스템에 관한 것으로, 특히 모바일 단말기를 이용하여 피사체를 촬영하고, 그 식별결과에 기초하여 증강현실(AR) 서비스를 제공하는 정보제공 서버를 포함하는 실외환경에서의 피사체 식별 시스템 및 방법에 관한 것이다.The present invention relates to an object identifying system, and more particularly, to an object identifying system in an outdoor environment including an information providing server that photographs a subject using a mobile terminal and provides an augmented reality (AR) ≪ / RTI >

전자정보기술의 발전에 따라, 스마트폰과 같은 휴대가 용이한 모바일 단말기를 이용하여 주변상황을 실시간으로 반영함으로써, 실감나면서도 유익한 정보를 제공하는 다양한 형태의 증강현실 어플리케이션(AR Application) 프로그램 및 증강현실 서비스가 제안되고 있다.In accordance with the development of electronic information technology, a variety of forms of AR application program and enhancement that provide realistic and informative information by reflecting the surrounding situation in real time by using a portable mobile terminal such as a smart phone Real service is being proposed.

도 1a 및 도 1b를 참조하면, 종래 모바일 단말기의 증강현실 서비스는 사용자가 자신이 소지한 모바일 단말기(1)를 통해 주변의 상점(4)등에 설치된 간판(5)을 피사체로서 촬영하면 영상인식기술에 기반한 식별수단에 의해 해당 상점(4)을 식별하고, 화면(2)상에 간판(5)을 증강(6)하여 표시하며, 해당 상점의 주요 상품, 쿠폰, 이벤트 및 마케팅 등, 상점과 관련된 다양한 연관정보(8)를 제공한다. 1A and 1B, when a user takes a signboard 5 installed in a nearby store 4 or the like as a subject through a mobile terminal 1 owned by the user, (6) on the screen (2) to identify the shop (4) by means of an identification means based on the shop (2), to display the main merchandise, coupon, event and marketing of the store And provides various association information 8.

이러한 증강현실 어플리케이션 프로그램에서 성능을 좌우하는 핵심기술은 스마트폰으로 간판을 찍었을 때, 해당 간판(5)을 정확 및 신속하게 인식하는 기술이라 할 수 있다.The core technology that determines the performance in such augmented reality application program is a technology that recognizes the signboard 5 accurately and quickly when a signboard is taken by a smartphone.

특히, 종래기술에서는 주변의 상점(4)들을 인식하기 위해, 정보제공의 대상이 되는 모든 상점의 간판(5)들을 촬영된 이미지 파일들을 서버에 미리 저장 해두고, 사용자가 찍은 간판 영상을 질의 이미지(Query image)라고 하면, 질의 이미지를 서버에 저장된 다수의 참조 이미지(Reference image)들과 비교하여 가장 높은 유사도를 갖는 참조 이미지를 찾음으로써 해당 간판(5) 및 상점(4)을 인식하게 되며, 인식된 상점(4)의 연관정보(8)를 모바일 단말기(1)의 화면(2)에 증강시켜 사용자에게 제공하게 된다.Particularly, in the prior art, in order to recognize the shops 4 in the vicinity, the signboards 5 of all the stores to be provided with information are stored in advance in the server, and a billboard image taken by the user is stored in the query image The query image is compared with a plurality of reference images stored in the server to find a reference image having the highest degree of similarity to recognize the corresponding signboard 5 and store 4, The association information 8 of the recognized store 4 is augmented on the screen 2 of the mobile terminal 1 and is provided to the user.

전술한 방식에 의하면, 간판을 인식하기 위해, 각 상점마다 간판에 대한 하나의 이미지를 참조 이미지로 이용하거나, 또는 복수의 상점에 대한 간판들이 하나의 이미지에 함께 포함된 참조 이미지를 이용하게 된다. According to the above-described method, in order to recognize a signboard, one image for a signboard is used as a reference image for each store, or a reference image including signboards for a plurality of stores together in one image is used.

따라서, 종래 기술에 따른 증강현실 서비스에서는 상점마다 간판에 대한 하나의 이미지를 참조 이미지로 이용함에 따라, 그 참조 이미지가 생성될 때의 환경과 질의 이미지가 생성될 때의 주변환경이 다른 경우, 영상인식의 정확도가 매우 낮아지게 되는 문제점이 있다.Accordingly, in the augmented reality service according to the prior art, when one image for a signboard is used as a reference image for each store, when the environment when the reference image is generated and the surrounding environment when the query image is generated, There is a problem that the accuracy of recognition becomes very low.

일 예로서, 특정 상점은 화창한 날씨의 환경에서 찍은 간판에 대한 이미지가 참조 이미지로 등록되었다고 하면, 눈이나 비가 오거나 또는 야간에 촬영을 통해 질의 이미지로 영상인식을 시도할 경우, 실패할 확률이 현저하게 높아지게 된다.For example, if an image of a signboard taken in an environment of a sunny weather is registered as a reference image in a specific shop, the probability of failing is conspicuous when the user attempts to recognize the image as a query image through eyes, rain, .

전술한 바와 같이, 종래 기술에 따른 증강현실 서비스에서는 피사체인 각 상점의 간판이 한 장의 참조 이미지로 등록됨에 따라, 날씨, 조명 및 시간 등의 주변환경에 따라 영상인식의 정확도가 상이하게 되며, 이는 정상적인 서비스를 제공하는 데 부정적인 영향을 주게 된다.As described above, in the augmented reality service according to the related art, since the signboard of each shop as a subject is registered as a single reference image, the accuracy of image recognition becomes different depending on the surrounding environment such as weather, illumination, and time, It has a negative impact on providing normal service.

한국등록특허공보 제10-1423196호(등록일자: 2014.07.18.)Korean Registered Patent No. 10-1423196 (Registration date: July 18, 2014) 한국공개특허공보 제10-2010-0083961호(공개일자: 2010.07.23.)Korean Patent Publication No. 10-2010-0083961 (published date: July 23, 2010)

본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 스마트폰과 같은 모바일 단말기를 이용하여 주변의 피사체를 촬영하여 증강현실 서비스를 제공함에 있어서, 복수의 참조 이미지를 이용한 검색정보 데이터베이스를 구축하고 특징점 정보에 기초하여 영상인식절차를 수행함으로써, 피사체의 영상인식 정확도를 비약적으로 개선하여 안정적인 증강현실 서비스를 제공하는데 과제가 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a search information database using a plurality of reference images in augmenting reality service by photographing a nearby object using a mobile terminal such as a smart phone, There is a problem in providing a stable augmented reality service by drastically improving the accuracy of image recognition of a subject by performing an image recognition procedure based on minutia information.

또한, 본 발명은 다수의 모바일 단말기로부터 각 피사체와 관련된 추가 이미지를 수집하여 데이터베이스를 갱신함으로써 영상인식의 정확도가 더욱 개선되고, 고품질의 증강현실 서비스를 구현할 수 있는 실외환경에서의 피사체 식별 시스템 및 방법을 제공하는데 과제가 있다.In addition, the present invention provides an object identification system and method in an outdoor environment capable of realizing a high-quality augmented reality service, in which the accuracy of image recognition is further improved by collecting additional images related to each object from a plurality of mobile terminals and updating the database There is a challenge.

전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템은 피사체를 촬영하여 이미지를 생성하고, 상기 이미지를 이용하여 상기 피사체에 대한 연관정보를 요청하는 어플리케이션 프로그램이 설치된 하나 이상의 모바일 단말기; 및 정보통신망을 통해 상기 모바일 단말기로부터 상기 연관정보를 요청 받으면, 상기 이미지에 대한 특징점 정보를 산출하고, 상기 특징점 정보와, 데이터베이스에 구축된 서로 다른 환경에서 촬영한 상기 피사체에 대한 하나 이상의 특징점 정보를 포함하는 검색정보를 비교함으로써 상기 피사체에 대한 연관정보를 추출하여 상기 모바일 단말기에 제공하는 정보제공 서버를 포함할 수 있다.In order to solve the above-described problems, an object identification system in an outdoor environment according to an embodiment of the present invention includes an application program for photographing a subject to generate an image, and requesting association information on the subject using the image One or more mobile terminals; And when the association information is requested from the mobile terminal through the information communication network, the feature point information about the image is calculated, and the feature point information and at least one feature point information about the photographed subject in different environments And an information providing server for extracting association information on the object by comparing the search information with the search information and providing the extracted information to the mobile terminal.

전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 방법은 모바일 단말기와 연동하는 정보제공 서버를 이용한 연관정보 제공 방법으로서, 상기 모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계; 상기 이미지에 대한 특징점 정보를 생성하는 단계; 상기 특징점 정보와, 데이터베이스에 구축된 서로 다른 환경에서 촬영한 상기 피사체에 대한 하나 이상의 특징점 정보를 포함하는 검색정보를 비교하여 상기 피사체에 대한 연관정보를 추출하는 단계; 및 추출된 연관정보를 상기 모바일 단말기에 제공하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of identifying an object in an outdoor environment, the method comprising: displaying an image generated by photographing a subject from the mobile terminal, Receiving a request for providing association information using the association information; Generating minutia information for the image; Extracting association information for the subject by comparing the minutia information with search information including at least one minutia information about the photographed subject in different environments; And providing the extracted association information to the mobile terminal.

본 발명의 실시예에 따르면, 각 인식 대상당 하나의 참조 이미지가 아닌 다양한 환경을 고려하여 획득된 복수의 참조 이미지를 이용하되, 특정점 정보에 기초하여 영상인식절차를 수행하도록 함으로써, 증강현실 서비스의 영상인식의 정확도를 비약적으로 개선할 수 있는 효과가 있다.According to the embodiment of the present invention, by using a plurality of reference images obtained in consideration of various environments rather than one reference image per each recognition object, by performing the image recognition procedure based on the specific point information, It is possible to remarkably improve the accuracy of image recognition.

또한, 본 발명의 실시예에 따르면, 시스템 설정자뿐만 아니라, 회원 가입된 다수의 사용자들에 의한 각 피사체와 관련된 추가 이미지 및 데이터를 수집하여 데이터베이스를 갱신함으로써 영상인식의 정확도가 더욱 개선된 실외환경에서의 피사체 식별 시스템 및 방법을 제공할 수 있는 효과가 있다.According to the embodiment of the present invention, not only the system configurator but also additional images and data related to each subject by a plurality of registered users are collected and updated in the database, thereby improving the accuracy of image recognition in an outdoor environment There is an effect that a subject identification system and method of the present invention can be provided.

도 1a 및 도 1b은 종래 모바일 단말기의 증강현실 서비스의 일 예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 전체 구조를 개략적으로 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 모바일 장치의 구조를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램의 구조를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 정보제공 서버의 구조를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 나타낸 도면이다.
도 7a 내지 도 7c는 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스의 영상인식 방법을 설명하기 위한 도면이다.
도 8a 및 도 8b는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램이 제공하는 화면의 일 예를 나타낸 도면이다.
1A and 1B are views showing an example of augmented reality service of a conventional mobile terminal.
2 is a diagram schematically showing an overall structure of an object identifying system in an outdoor environment according to an embodiment of the present invention.
3 is a diagram illustrating a structure of a mobile device according to an embodiment of the present invention.
4 is a diagram illustrating a structure of an application program of a mobile terminal according to an embodiment of the present invention.
5 is a diagram illustrating a structure of an information providing server of a subject identifying system in an outdoor environment according to an embodiment of the present invention.
6 is a view illustrating a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention.
7A to 7C are views for explaining an image recognition method of an image processing unit and a database according to an embodiment of the present invention.
8A and 8B are views showing an example of a screen provided by the application program of the mobile terminal according to the embodiment of the present invention.

설명에 앞서, 명세서 전체에서 어떤 부분이 어떤 구성요소를 "구비" 또는 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부(Unit)" 및 "...모듈(module)" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어, 소프트웨어 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Prior to the description, when an element is referred to as being "comprising" or "including" an element throughout the specification, it is to be understood that the element may be further comprised of other elements . Also, the terms " unit " and " module ", etc. in the specification mean units for processing at least one function or operation, Software. ≪ / RTI >

또한, 본 명세서에서 "실시예"라는 용어는 예시, 사례 또는 도해의 역할을 하는 것을 의미하나, 발명의 대상은 그러한 예에 의해 제한되지 않는다. 또한, "포함하는", "구비하는", "갖는" 및 다른 유사한 용어가 사용되고 있으나, 청구범위에서 사용되는 경우 임의의 추가적인 또는 다른 구성요소를 배제하지 않는 개방적인 전환어(Transition word)로서 "포함하는(Comprising)"이라는 용어와 유사한 방식으로 포괄적으로 사용된다.Furthermore, the term " embodiment " is used herein to mean serving as an example, instance, or illustration, but the subject matter of the invention is not limited by such example. It is also to be understood that the terms " including, " " having, " and other similar terms are used, but that they do not exclude any additional or different components when used in the claims, Quot; is < / RTI > used in a manner similar to the term " Comprising ".

본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현될 수 있거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)" 및 "...모듈(module)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 또한, 본 발명에서는 단말기를 포함하는 시스템에서 실행되는 프로그램 및 하드웨어 모두가 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented with hardware or software, or may be implemented with a combination of both, where appropriate. As used herein, terms such as " Unit " and " module " are likewise equally applicable to computer-related entities such as hardware, a combination of hardware and software, Can be treated as equivalents. Further, in the present invention, both programs and hardware executed in a system including a terminal can be configured in units of modules, and can be recorded in one physical memory, or distributed among two or more memories and recording media.

이하, 도면을 참조하여 본 발명의 바람직한 실시예에 따른 실외환경에서의 피사체 식별 시스템 및 방법을 설명한다. Hereinafter, a system and method for identifying an object in an outdoor environment according to a preferred embodiment of the present invention will be described with reference to the drawings.

도 2는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 전체 구조를 개략적으로 나타낸 도면이다.2 is a diagram schematically showing an overall structure of an object identifying system in an outdoor environment according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 피사체 식별 시스템은 피사체를 촬영하여 이미지를 생성하고, 이미지를 이용하여 피사체에 대한 연관정보를 요청하는 어플리케이션 프로그램이 설치된 하나 이상의 모바일 단말기(100) 및, 정보통신망을 통해 모바일 단말기(100)로부터 연관정보를 요청 받으면, 이미지에 대한 특징점 정보를 산출하고, 그 이미지에 대한 특징점 정보와, 데이터베이스에 구축된 피사체에 대한 특징점 정보를 포함한 검색정보를 비교하여 피사체를 식별한 후, 해당 피사체에 대한 연관정보를 추출하여 모바일 단말기(100)에 제공하는 정보제공 서버(300)를 포함할 수 있다.Referring to FIG. 2, the object identifying system of the present invention includes at least one mobile terminal 100 installed with an application program for photographing a subject to generate an image, and requesting association information on the subject using the image, When the association information is requested from the mobile terminal 100, minutia information about the image is calculated, and minutia information about the image is compared with search information including minutia information about the object constructed in the database to identify the object And an information providing server 300 for extracting association information about the subject and providing the extracted information to the mobile terminal 100. [

모바일 단말기(100)는 증강현실 서비스를 제공하는 어플리케이션 프로그램이 설치되며, 사용자가 주변상황을 실시간으로 촬영할 수 있는 카메라 모듈과 정보통신망에 접속하여 정보제공 서버(300)와 데이터를 송수신할 수 있는 통신모듈을 탑재하고 있다. 특히, 모바일 단말기(100)는 연결된 정보제공 서버(300)에 실시간으로 이미지 및 위치정보를 업로드(Upload)하여 그에 따른 연관정보를 수신함으로써 증강현실 서비스를 제공하게 된다. 이러한 기능을 수행하기 위해 모바일 단말기(100)로는 전술한 모듈들이 탑재된 스마트폰과 같은 휴대용 단말기, 태블릿 PC 또는 노트북 등의 휴대가 용이한 컴퓨팅 장치가 이용될 수 있다.The mobile terminal 100 is provided with an application program for providing an augmented reality service. The mobile terminal 100 includes a camera module that allows a user to photograph the surrounding situation in real time, a communication module that connects to the information communication network and communicates data with the information providing server 300 Module. In particular, the mobile terminal 100 provides the augmented reality service by uploading image and location information to the connected information providing server 300 in real time and receiving the associated information. In order to perform such a function, a portable device such as a portable terminal such as a smart phone, a tablet PC, or a notebook computer having the above-described modules mounted thereon may be used as the mobile terminal 100.

정보제공 서버(300)는 모바일 단말기(100)와 연동하여 요청에 따라, 위치정보 및 이미지를 이용하여 현재 모바일 단말기(100)의 위치를 판단하고, 이미지를 영상인식 기법을 통해 분석하여 포함된 피사체를 식별하며, 식별된 피사체에 대한 연관정보를 추출하여 모바일 단말기(100)에 제공하는 역할을 한다. The information providing server 300 interlocks with the mobile terminal 100 to determine the position of the mobile terminal 100 using the location information and the image according to the request, analyzes the image through the image recognition technique, Extracts association information on the identified object, and provides the extracted information to the mobile terminal 100.

이러한 기능을 원활히 수행하기 위해, 정보제공 서버(300)는 다수의 사용자에 대한 회원관리, 이미지에 대한 영상인식 기법 적용을 통한 연관정보의 추출 및 제공 등의 기능을 지연 없이 처리할 수 있도록 고사양의 마이크로프로 세서 및 대용량의 데이터 저장공간을 구비하는 컴퓨팅 장치인 것이 바람직하다.In order to smoothly perform such functions, the information providing server 300 has a high-level function such as member management for a large number of users, processing of extracting and providing related information through application of image recognition techniques to images, A microprocessor, and a computing device having a large amount of data storage space.

특히, 정보제공 서버(300)는 연관정보 추출 시 하나의 피사체에 대하여 관련된 다수의 참조 이미지를 이용하여 구축된 데이터베이스를 포함하고 있다.In particular, the information providing server 300 includes a database constructed by using a plurality of reference images related to one subject when extracting association information.

상세하게는, 시스템 운용자는 피사체인 상점 등의 간판에 대하여 주간, 야간, 날씨, 조명 및 각도 등의 촬영환경을 달리하여 촬영한 다수의 참조 이미지를 준비하고, 정보제공 서버(300)의 데이터베이스에 그 참조 이미지들에 공통적으로 포함되는 특징점들에 기초하여 산출된 특징점 정보를 저장한다. 여기서, 특징점들은 각 이미지내 등장하는 모서리 및 골짜기 등의 형상에 대응된다.More specifically, the system operator prepares a plurality of reference images photographed with different shooting environments such as day, night, weather, lighting, and angle with respect to a signboard of a shop or the like as a subject, And stores the minutia information calculated based on the minutiae points commonly included in the reference images. Here, the minutiae correspond to shapes of edges and valleys appearing in each image.

이에 따라, 정보제공 서버(300)는 서비스 제공시 모바일 단말기(100)로부터 수신한 질의 이미지의 특징점 정보를 산출하고, 참조 이미지에 대한 데이터베이스에 저장된 특징점 정보와 비교함으로써 피사체에 대한 연관정보를 추출하는 것을 특징으로 한다. 여기서, 특징점 정보는 이미지의 특징점 주변의 색상변화를 벡터값으로 산출한 것이다.Accordingly, the information providing server 300 calculates the minutia information of the query image received from the mobile terminal 100 when the service is provided, and extracts association information on the object by comparing the minutia information with the minutia information stored in the database of the reference image . Herein, the minutia information is obtained by calculating the color change around the minutiae point of the image as a vector value.

전술한 구조에 따라, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템은 어플리케이션 프로그램이 설치된 다수의 모바일 단말기에 증강현실 서비스를 제공하되, 그로부터 촬영된 이미지의 특징점 정보를 통해 다수의 참조 이미지에 의한 영상인식 절차를 수행함으로써, 고품질의 서비스를 제공할 수 있다.According to the above-described structure, the object identifying system in the outdoor environment according to the embodiment of the present invention provides augmented reality service to a plurality of mobile terminals provided with application programs, It is possible to provide a high-quality service.

이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템에 포함되는 모바일 장치의 구조를 설명한다.Hereinafter, a structure of a mobile device included in an object identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.

도 3은 본 발명의 실시예에 따른 모바일 장치의 구조를 나타낸 도면이다.3 is a diagram illustrating a structure of a mobile device according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 모바일 단말기(100)는 일 방향에 위치한 피사체를 촬영하여 상기 이미지를 생성하는 카메라 모듈(110), 외부의 GPS 시스템으로부터 GPS 신호를 수신하는 GPS 모듈(120), 정보통신망을 통해 정보제공 서버(300)에 접속하여 이미지 및 위치정보를 송신하고, 연관정보를 수신하는 통신모듈(130), 어플리케이션 프로그램(200)의 실행 시, 사용자에 의한 조작을 입력받는 입력모듈(140), 이미지 및 어플리케이션 프로그램(200)의 실행화면을 표시하는 출력모듈(150), 어플리케이션 프로그램(200)이 기록되는 메모리(160) 및 상기 어플리케이션 프로그램을 실행하는 AP(170)을 포함할 수 있다.3, the mobile terminal 100 of the present invention includes a camera module 110 for photographing a subject located in one direction to generate the image, a GPS module 120 for receiving GPS signals from an external GPS system, A communication module 130 for connecting to the information providing server 300 through the information communication network and transmitting image and position information and receiving the related information, an input module 130 for receiving operations by the user when executing the application program 200, An output module 150 for displaying an execution screen of the image and application program 200, a memory 160 for storing the application program 200, and an AP 170 for executing the application program. have.

카메라 모듈(110)은 사용자의 조작에 따라 피사체를 실시간으로 촬영하여 인식대상이 되는 이미지를 생성하는 역할을 한다. 이러한 카메라 모듈(110)은 렌즈, 발광소자 및 이미지 센서 등으로 구성될 수 있다. The camera module 110 photographs a subject in real time according to a user's operation and generates an image to be recognized. The camera module 110 may include a lens, a light emitting device, and an image sensor.

GPS 모듈(120)은 현재 모바일 단말기(100)의 위치를 파악할 수 있도록 외부의 GPS 위성 등으로부터 GPS 신호를 수신하는 역할을 한다. 특히 GPS 모듈(120)에 의해 수신된 GPS 신호는 본 발명의 어플리케이션 프로그램(200)에 의해 제공되는 증강현실 서비스에서 현재 위치에 따라 주변의 피사체를 식별하는 데 활용되게 된다.The GPS module 120 receives a GPS signal from an external GPS satellite or the like so that the position of the mobile terminal 100 can be grasped. Particularly, the GPS signal received by the GPS module 120 is used to identify a nearby object according to the current position in the augmented reality service provided by the application program 200 of the present invention.

통신모듈(130)은 정보통신망을 통해 정보제공 서버와 연결되어 데이터통신을 수행하는 역할을 한다. 특히 통신모듈(130)은 어플리케이션 프로그램의 요청에 따라 현재 촬영중인 이미지 및 GPS 신호에 대응하는 위치신호를 송신하고, 이를 이용한 영상인식에 따른 연관정보를 수신하여 어플리케이션 프로그램이 증강현실 서비스를 제공할 수 있도록 한다.The communication module 130 is connected to an information providing server through an information communication network and performs data communication. In particular, the communication module 130 transmits a position signal corresponding to an image currently being photographed and a GPS signal at the request of an application program, receives association information according to image recognition using the position signal, and provides an augmented reality service .

입력모듈(140)은 사용자의 조작을 입력받아 어플리케이션 프로그램의 구동에 반영하는 역할을 한다. 사용자는 출력모듈(150) 화면 내 표시되는 기능 중 어느 하나를 선택하여 본 발명의 증강현실 서비스를 제공받을 수 있으며 추가정보를 입력할 수 있다.The input module 140 plays a role of receiving a user's operation and reflecting it in the driving of the application program. The user can select one of the functions displayed on the screen of the output module 150 to receive the augmented reality service of the present invention and input additional information.

이러한 입력모듈(140)은 모바일 단말기(100)에 탑재되는 버튼뿐만 아니라, 출력모듈(150)과 일체형으로 구성되어 사용자의 터치를 인식하는 터치패널 형태로 구현될 수 있다.The input module 140 may be integrated with the output module 150 as well as a button mounted on the mobile terminal 100, and may be implemented as a touch panel that recognizes the user's touch.

출력모듈(150)은 모바일 단말기(100)의 구동에 따른 화면 및 음향을 출력하는 역할을 하며, 디스플레이 장치 및 스피커를 포함할 수 있다. 특히, 본 발명의 출력모듈(150)은 어플리케이션 프로그램이 구성하는 화면을 그래픽 유저 인터페이스(GUI)를 포함하여 표시하고, 촬영에 따라 증강된 주변 및 연관정보에 대한 화면을 제공하게 된다. The output module 150 outputs a screen and sound according to the driving of the mobile terminal 100, and may include a display device and a speaker. In particular, the output module 150 of the present invention displays a screen constituted by an application program including a graphical user interface (GUI), and provides a screen for enhanced peripheral and related information according to the photographing.

이러한 출력모듈(150)은 소형의 휴대용 컴퓨팅 장치에 적합한 소형의 액정표시소자(LCD), 전기영동소자(EPD) 및 유기전계발광소자(OLED)등으로 구현될 수 있다.The output module 150 may be implemented as a small-sized liquid crystal display device (LCD), an electrophoretic device (EPD), and an organic electroluminescent device (OLED) suitable for small portable computing devices.

메모리(160)는 모바일 단말기(100)를 구동하기 위한 운영체제(OS) 및 기타 프로그램과, 본 발명의 실시예에 따른 어플리케이션 프로그램(200)이 기록될 수 있으며, 그 종류에 따라 프로그램의 실행 시 프로세스가 상주될 수 있다.The memory 160 may store an operating system (OS) and other programs for driving the mobile terminal 100 and an application program 200 according to an embodiment of the present invention. Lt; / RTI >

이러한 메모리(160)는 통상의 컴퓨팅 장치에 구비되는 메모리에 대응하며, 판독 전용 메모리(ROM) 및 랜덤 액세스 메모리(RAM) 등으로 구성될 수 있다.Such a memory 160 corresponds to a memory provided in a conventional computing device, and may be constituted by a read only memory (ROM) and a random access memory (RAM) or the like.

또한, 어플리케이션 프로그램(200)은 이와 관련된 기능을 각각 수행하기 위한 복수의 구성부를 포함할 수 있다. 어플리케이션 프로그램(200)의 구성에 대한 상세한 설명은 후술한다. In addition, the application program 200 may include a plurality of components for performing respective functions related thereto. The configuration of the application program 200 will be described later in detail.

AP(170)는 AP(Application Processor)는 중앙처리장치(CPU) 및 그래픽처리장치(GPU) 등이 포함된 휴대용 단말기에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(160)에 저장된 OS 및 기타 프로그램과, 본 발명의 어플리케이션 프로그램(200)을 실행하여 증강현실 서비스를 제공하고 모바일 단말기(100)에 탑재된 각 모듈들을 제어하는 역할을 한다. AP 170 may be a system on chip (SOC) suitable for a portable terminal including a central processing unit (CPU) and a graphics processing unit (GPU) Other programs and the application program 200 of the present invention to provide the augmented reality service and to control each module mounted on the mobile terminal 100. [

전술한 구조에 따라, 본 발명의 실시예에 따른 연관정보 제공 시스템의 모바일 단말기는 사용자 주변의 상점 간판과 같은 피사체를 촬영하고 실시간으로 그에 대한 정확도가 개선된 연관정보를 표시할 수 있다.According to the above-described structure, the mobile terminal of the related information providing system according to the embodiment of the present invention can photograph a subject such as a shop signboard around the user and display the related information with improved accuracy in real time.

이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 모바일 장치에 설치되는 어플리케이션 프로그램을 설명한다.Hereinafter, an application program installed in a mobile device of an object identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.

도 4는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램의 구조를 나타낸 도면이다.4 is a diagram illustrating a structure of an application program of a mobile terminal according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 어플리케이션 프로그램(200)은 카메라 모듈(110)로부터 이미지를 획득하는 획득부(210), GPS 모듈(120)로부터 GPS 신호를 획득하고, GPS 신호에 대응하여 이미지가 획득된 위치정보를 생성하는 위치 판단부(220), 통신모듈(130)을 통해 정보제공 서버와 데이터를 송수신하는 단말 통신부(230), 사용자의 조작을 입력받고, 실행화면을 제공하는 인터페이스 제공부(240) 및, 단말 통신부(230)로부터 수신한 연관정보를 상기 실행화면 내 증강현실 방식으로 추가하는 연관정보 제공부(250)를 포함할 수 있다.4, an application program 200 of the present invention acquires a GPS signal from an acquiring unit 210, a GPS module 120 that acquires an image from a camera module 110, A position determination unit 220 for generating the acquired position information, a terminal communication unit 230 for transmitting and receiving data to and from the information providing server through the communication module 130, an interface providing unit 230 for receiving the operation of the user, (240), and an association information providing unit (250) for adding the association information received from the terminal communication unit (230) to the in-progress augmented reality method.

또한, 본 발명의 실시예에 따른 어플리케이션 프로그램(200)은 사용자로부터 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하고, 정보제공 서버에 제공하는 사용자 참여부(270)를 더 포함할 수 있다.In addition, the application program 200 according to the embodiment of the present invention may further include a user participation unit 270 for receiving the additional image and data related to the subject from the user, generating the participation information, and providing the participation information to the information providing server have.

이미지 획득부(210)는 카메라 모듈(110)에 의해 생성된 이미지를 수신하는 역할을 하고, 위치 판단부(220)는 GPS 모듈(120)에 의해 수신된 GPS 신호에 대응하여 현재 모바일 단말기의 위치를 판단하는 역할을 한다. The image acquisition unit 210 receives the image generated by the camera module 110 and the position determination unit 220 determines the position of the current mobile terminal in response to the GPS signal received by the GPS module 120. [ .

단말 통신부(230)는 통신모듈(130)을 통해 정보통신망에 접속하여 정보제공 서버와 데이터 통신함으로써 증강현실 서비스를 제공하기 위한 각종 데이터를 송수신하는 역할을 한다. The terminal communication unit 230 is connected to the information communication network through the communication module 130 and performs data communication with the information providing server to transmit and receive various data for providing the augmented reality service.

인터페이스 제공부(240)는 입력모듈(140)을 통해 입력되는 사용자의 조작을 전달받아 어플리케이션 프로그램(200)이 실행에 반영하는 역할을 한다. The interface providing unit 240 receives the operation of the user input through the input module 140 and reflects the operation of the application program 200 in execution.

연관정보 제공부(250)는 어플리케이션 프로그램의 실행에 따라 피사체에 대한 연관정보를 제공하는 역할을 하는 것으로, 카메라 모듈(110)이 활성화되고 그로부터 촬영된 이미지가 이미지 획득부(210)에 전달되면 위치좌표 정보와 함께 이미지를 단말 통신부(230)를 통해 정보저공 서버로 송신하고, 그로부터 연관정보를 수신하면 이를 인터페이스 제공부(240)를 통해 출력모듈로 출력하게 된다.When the camera module 110 is activated and an image photographed therefrom is transmitted to the image acquisition unit 210, the association information providing unit 250 provides the association information to the image acquisition unit 210, When the coordinate information is transmitted to the information low-floor server through the terminal communication unit 230 and the related information is received, the image is output to the output module through the interface providing unit 240.

또한, 본 발명의 어플리케이션 프로그램(200)은 사용자들의 적극적인 참여를 유도하기 위해 사용자 참여부(270)를 포함할 수 있으며, 사용자 참여부(270)는 사용자에 의해 입력되는 피사체에 대한 추가 이미지 및 관련된 내용에 대응하여 참여정보를 생성하고, 이를 단말 통신부(230)를 통해 정보제공 서버에 송신할 수 있다.In addition, the application program 200 of the present invention may include a user participation unit 270 to induce active participation of users, and the user participation unit 270 may include additional images related to the subject input by the user and related And transmits the generated participation information to the information providing server through the terminal communication unit 230. [

전술한 구조에 따라, 본 발명의 어플리케이션 프로그램은 모바일 단말기에 구비된 각 모듈들에 요청하여 정보제공 서버와의 데이터 통신을 통해 연관정보를 수신 및 제공할 수 있다.According to the above-described structure, the application program of the present invention can request and request the respective modules provided in the mobile terminal to receive and provide association information through data communication with the information providing server.

이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템에 포함되는 정보제공 서버를 설명한다.Hereinafter, an information providing server included in a subject identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.

도 5는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 정보제공 서버의 구조를 나타낸 도면이다.5 is a diagram illustrating a structure of an information providing server of a subject identifying system in an outdoor environment according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 정보제공 서버(300)는 모바일 단말기(100)와 데이터를 송수신하는 서버 통신부(310), 모바일 단말기(100)로부터 수신되는 이미지 및 위치정보에 대응하여 연관정보를 생성 및 제공하는 연관정보 관리부(320), 이미지의 특징점 주변의 색상변화를 벡터값으로 산출한 특징점 정보를 생성하는 이미지 처리부(330), 특징점 정보와, 다수의 참조 이미지를 이용하여 생성한 특징점 정보를 포함하는 검색정보를 비교하여 이미지에 대한 연관정보를 추출하는 이미지 판단부(340) 및 검색정보가 저장된 데이터베이스(350)를 포함할 수 있다.5, an information providing server 300 according to an exemplary embodiment of the present invention includes a server communication unit 310 for transmitting and receiving data to and from a mobile terminal 100, An associative information management unit 320 for generating and providing association information, an image processing unit 330 for generating minutia information in which a color change around the minutiae point of the image is calculated as a vector value, minutia information, and a plurality of reference images An image determination unit 340 for comparing the search information including the generated minutia information and extracting association information about the image, and a database 350 in which search information is stored.

뿐만 아니라, 본 발명의 실시예에 따른 정보제공 서버(300)는 모바일 단말기(100)로부터 참여정보가 수신되면, 참여정보를 사용자별로 수집하는 참여정보 수집부(360) 및, 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 데이터베이스(350) 내 연관정보를 갱신하는 데이터 갱신부(370)를 포함할 수 있다.In addition, the information providing server 300 according to the embodiment of the present invention includes a participation information collection unit 360 for collecting participation information for each user when the participation information is received from the mobile terminal 100, And a data updating unit 370 for updating association information in the database 350 using one or more additional images and data.

서버 통신부(310)는 정보통신망을 통해 모바일 단말기(100)와 연결되며, 그의 연관정보 요청에 따라 이미지를 수신하고, 그 회신으로서 연관정보를 모바일 단말기(100)에 송신하는 역할을 한다.The server communication unit 310 is connected to the mobile terminal 100 through the information communication network and receives the image in response to the association information request and transmits the association information to the mobile terminal 100 as the response.

또한, 서버 통신부(310)는 증강현실 서비스를 제공하기 위한 각종 데이터를 송수신할 수 있다.In addition, the server communication unit 310 can transmit and receive various data for providing the augmented reality service.

연관정보 관리부(320)는 정보제공 서버(300)가 모바일 단말기(100)로부터 연관정보 제공을 요청받으면, 이미지 처리부(330)를 통해 수신한 이미지에 대한 특징점 정보를 생성하고, 이미지 판단부(340)로부터 그 특징점 정보에 기초하여 식별된 피사체에 대한 연관정보를 전달받아, 서버 통신부(310)를 통해 제공하게 된다.When the information providing server 300 is requested to provide association information from the mobile terminal 100, the association information management unit 320 generates minutia information about the image received through the image processing unit 330 and transmits the minutia information to the image determination unit 340 And receives the association information on the identified object based on the minutia information, and provides the association information through the server communication unit 310.

이미지 처리부(330)는 수신된 이미지에 대한 특징점 정보를 생성하는 역할을 한다. 특징점 정보는 대상 이미지의 특징점 주변의 복수의 화소간 벡터값을 산출한 것으로서, 이를 통해 이미지의 특성을 판단할 수 있으며, 데이터베이스에 구축된 다양한 피사체들에 대한 검색정보와의 비교대상으로 이용된다.The image processing unit 330 generates minutia information about the received image. The feature point information is obtained by calculating a vector value between a plurality of pixels around a feature point of a target image. The feature point information can be used to determine characteristics of an image and is used as a comparison object with search information on various objects constructed in the database.

이를 위해, 이미지 처리부(330)는 이미지 특징점에 포함된 각 화소들의 계조값을 수치화하는 색상값 추출기(331), 각 계조값 간의 관계에 대응하여 벡터값을 산출하는 벡터 환산기(332) 를 포함할 수 있다.To this end, the image processing unit 330 includes a color value extractor 331 for digitizing the tone value of each pixel included in the image feature point, and a vector converter 332 for calculating a vector value corresponding to the relationship between the tone values can do.

이미지 판단부(340)는 이미지 처리부(330)에 의해 해당 이미지의 특징점 정보와 데이터베이스(350)에 저장된 다수의 피사체의 이미지에 대한 특징점이 정의된 검색정보를 비교하여 동일 또는 유사범주에 속하면 그의 관련정보를 추출하게 된다. 여기서, 이미지 판단부(340)는 위치정보에 대응하여 검색정보를 우선 특정하고, 특정된 검색정보 중에서 매칭되는 피사체를 최종 선택하게 된다.The image determining unit 340 compares the feature point information of the image with the search information defining the feature points of the images of the plurality of subjects stored in the database 350 by the image processing unit 330, The related information is extracted. Here, the image determining unit 340 first specifies search information corresponding to the position information, and finally selects a matching subject among the specified search information.

데이터베이스(350)는 다수의 피사체에 대해 미리 산출된 특징점 정보를 포함하는 검색정보가 저장되어 있다. 이러한 데이터베이스(350)의 테이블에는 각 피사체의 식별코드, 특징점 정보, 연관정보 및 위치 데이터 등의 필드가 저장되어 있어, 피사체가 식별되면 그에 속한 연관정보가 추출되게 된다. The database 350 stores search information including minutia information calculated in advance for a plurality of subjects. In the table of the database 350, fields such as an identification code, minutia information, association information, and position data of each object are stored. When a subject is identified, association information belonging to the object is extracted.

즉, 본 발명에서는 하나의 피사체에 대하여 질의 이미지 및 참조 이미지가 존재할 수 있고, 현재 검색하고자 하는 질의 이미지에 대한 특징점 정보와 데이터베이스(350)에 미리 구축된 참조 이미지에 대한 특징점 정보를 서로 비교하여 해당 피사체를 식별하는 것을 특징으로 한다.That is, in the present invention, a query image and a reference image may exist for one subject, minutia information about a query image to be searched at present and minutia information about a reference image constructed in advance in the database 350 are compared with each other, Thereby identifying a subject.

또한, 데이터베이스(350)에는 정보제공 서버(300)의 구동을 위한 설정값 및 기타 데이터들이 저장될 수 있다.Also, in the database 350, setting values and other data for driving the information providing server 300 may be stored.

한편, 본 발명의 실시예에 따른 정보제공 서버(300)는 사용자의 참여를 독려하고, 이러한 구성으로서, 참여정보 수집부(360)는 다수의 모바일 단말기(100)로부터 송신되는 참여정보를 수집하는 역할을 한다. 여기서, 참여정보는 사용자들에 의해 생성된 소정의 피사체에 대한 하나 이상의 추가 이미지 및 그 피사체에 대한 관련 데이터를 포함할 수 있다. Meanwhile, the information providing server 300 according to the embodiment of the present invention encourages the participation of the user. In this configuration, the participation information collection unit 360 collects participation information transmitted from a plurality of mobile terminals 100 It plays a role. Here, the participation information may include one or more additional images for a predetermined subject created by users and related data for the subject.

그리고, 데이터 갱신부(370)는 수집된 참여정보를 이용하여 데이터베이스 내 정보를 갱신하는 역할을 한다. The data updating unit 370 updates the information in the database using the collected participation information.

또한, 도시되어 있지는 않지만 정보제공 서버(300)는 다수의 사용자에 대한 회원등록, 관리 및 인증 등의 절차를 처리하는 회원 관리부를 더 포함할 수 있다.Also, although not shown, the information providing server 300 may further include a member management unit that processes a membership registration, management, and authentication procedures for a plurality of users.

전술한 구조에 따라, 본 발명의 실시예에 따른 정보제공 서버는, 하나 이상의 모바일 단말기로부터 연관정보의 제공을 요청받으면, 그로부터 제공되는 이미지의 특징점 정보를 산출하고 이를 데이터베이스에 구축된 복수의 추가 이미지의 특징점 정보를 포함하는 검색정보와 비교하여 보다 정확한 영상인식을 수행하여 그 이미지에 해당하는 연관정보를 모바일 단말기에 제공할 수 있다.According to the above structure, when the information providing server according to the embodiment of the present invention is requested to provide association information from one or more mobile terminals, the information providing server calculates the minutia information of the image provided therefrom, It is possible to provide the mobile terminal with the association information corresponding to the image by performing more accurate image recognition as compared with the search information including the minutia information of the image.

이하, 도면을 참조하여 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 설명한다.Hereinafter, a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention will be described with reference to the drawings.

도 6은 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 나타낸 도면이다.6 is a view illustrating a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 피사체 식별 방법은 모바일 단말기와 연동하는 정보제공 서버를 이용한 피사체 식별 방법으로서, 모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계(S100), 이미지에 대한 특징점 정보를 생성하는 단계(S110), 특징점 정보를 이용하여 데이터베이스에 구축된 피사체에 대한 연관정보를 추출하는 단계(S120) 및, 추출된 연관정보를 모바일 단말기에 제공하는 단계(S130)를 포함할 수 있다.Referring to FIG. 6, a method for identifying a subject according to an exemplary embodiment of the present invention is a method for identifying a subject using an information providing server linked to a mobile terminal, the method comprising: receiving a request for providing association information using an image generated by capturing a subject from a mobile terminal (S110) generating minutia information about the image, extracting association information about the object constructed in the database using the minutia information (S120), and providing the extracted minutia information to the mobile terminal S130).

모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계(S100)는, 정보제공 서버의 서버 통신부가 정보통신망을 통해 회원 등록된 모바일 단말기로부터 관련정보 제공을 요청받는 단계로서, 피사체를 촬영하여 생성된 이미지를 수신하게 된다. The step S100 of receiving the association information using the generated image by photographing the subject from the mobile terminal is a step in which the server communication unit of the information providing server receives a request for providing related information from the mobile terminal registered as a member through the information communication network , And receives the generated image by photographing the subject.

다음으로, 이미지에 대한 특징점 정보를 생성하는 단계(S110)는 연관정보 관리부가 수신한 이미지에 대하여 이미지 처리부를 통해 특징점 정보를 생성하는 단계이다.Next, the step of generating minutia information for the image (S110) is a step of generating minutia information through the image processing unit with respect to the image received by the related information management unit.

특히, 전술한 S110 단계는, 색상값 추출기가 이미지 특징점에 포함된 각 화소들의 계조값을 수치화하는 단계와, 벡터 환산기가 각 계조값간의 관계에 대응하여 벡터값을 산출하는 단계를 포함할 수 있다.In particular, in the above-described step S110, the color value extractor may include a step of quantizing the tone value of each pixel included in the image feature point, and a step of calculating a vector value corresponding to the relationship between the tone values of the vector converter .

이어서, 특징점 정보를 이용하여 데이터 베이스에 구축된 피사체에 대한 연관정보를 추출하는 단계(S120)는, 정보제공 서버의 이미지 판단부가 생성된 특징점 정보에 기초하여 데이터베이스를 참조함으로써, 해당 피사체를 식별하여 그에 대한 연관정보를 추출하는 단계이다.Subsequently, the step of extracting association information on the object constructed in the database using the minutia information is performed by referring to the database based on the minutia information generated by the image determination section of the information providing server, thereby identifying the corresponding object And extracting association information therefor.

추출된 연관정보를 모바일 단말기에 제공하는 단계(S130)는 연관정보 관리부가 S120 단계에서 추출된 연관정보를 서버 통신부를 통해 모바일 단말기로 제공하는 단계이다.In operation S130, the extracted association information is provided to the mobile terminal. In operation S130, the association information manager provides the association information extracted in operation S120 to the mobile terminal through the server communication unit.

한편, 도시되어 있지는 않지만 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 방법에서는 회원 가입된 다수의 사용자들의 참여에 따라, 모바일 단말기가 사용자로부터 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하는 단계, 모바일 단말기로부터 참여정보를 수신하는 단계, 참여정보가 수신되면, 참여정보를 사용자별로 수집하는 단계 및, 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 데이터베이스 내 연관정보를 갱신하는 단계를 포함할 수 있다.Meanwhile, although not shown, in the method of identifying an object in an outdoor environment according to an exemplary embodiment of the present invention, a mobile terminal receives additional images and data related to a subject from a user in accordance with participation of a plurality of registered users, The method includes the steps of: generating association information from a mobile terminal; collecting participation information for each user when participation information is received; updating association information in the database using one or more additional images and data included in the participation information; .

또한, 시스템 설정자는 적극적으로 사용자들의 참여를 독려하고, 혜택을 주기 위해, 참여횟수 등에 따라 가상의 포인트를 부여할 수 있다.In addition, the system configurator can actively encourage the participation of users and give virtual points according to the number of participation, etc. in order to benefit.

전술한 단계에 따라, 다수의 모바일 단말기에 증강현실 서비스를 제공하되, 그로부터 촬영된 이미지의 특징점 정보를 통해 다수의 참조 이미지에 의한 영상인 절차를 수행하여 각 모바일 단말기에 증강현실 서비스를 제공하게 된다.According to the above-described steps, the augmented reality service is provided to a plurality of mobile terminals, and the augmented reality service is provided to each mobile terminal by performing a procedure that is an image based on a plurality of reference images through the feature point information of an image photographed therefrom .

이하, 도면을 참조하여 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스를 이용한 영상인식 방법을 설명한다.Hereinafter, an image recognition method using an image processing unit and a database according to an embodiment of the present invention will be described with reference to the drawings.

도 7a 내지 도 7c는 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스의 영상인식 방법을 설명하기 위한 도면이다.7A to 7C are views for explaining an image recognition method of an image processing unit and a database according to an embodiment of the present invention.

도 7a 내지 도 7c를 참조하면, 본 발명의 실시예에 따르면 하나의 피사체(5)에 대하여 다수의 방향에서 촬영된 다수의 참조 이미지(a,b,c)를 이용하여 특징점 정보를 산출하고 이를 이용하여 데이터베이스를 구축할 수 있다.7A to 7C, according to an embodiment of the present invention, feature point information is calculated using a plurality of reference images (a, b, c) photographed in a plurality of directions with respect to one subject 5, You can build a database using this.

모바일 단말기에서 수신한 질의 이미지는 정면방향 뿐만 아니라, 좌우측 방향에서 촬영되거나 주변상황에 따라 외부광에 의한 왜곡과, 눈 또는 비 등의 날씨에 따른 가려짐이 발생할 수 있으며, 이에 좌측방향 이미지(a) 뿐만 아니라 정면방향 이미지(b) 및 왜곡이 발생한 이미지(c) 등을 수집하고, 이미지 처리부가 각 참조 이미지(a,b,c)들에 포함된 특징점 주변 화소들의 색상변화에 따른 벡터값을 산출하며 이에 기초하여 특징점 정보를 생성하여 데이터베이스를 구축하게 된다. The query image received by the mobile terminal may be photographed not only in the front direction but also in the right and left directions, or may be distorted due to external light and occluded due to weather such as snow or rain depending on the surrounding situation. (A), (b), (c), and the like, and the image processing unit obtains a vector value corresponding to the color change of the pixels around the feature point included in each of the reference images And generates minutia information based on the generated minutia information.

특히, 본 발명의 실시예에서 이용되는 특징점 정보는 해당 참조 이미지에 등장하는 하나 이상의 특징점에 대한 벡터값으로 이루어진다.In particular, the feature point information used in the embodiment of the present invention is made up of vector values for one or more feature points appearing in the reference image.

일 예로서, 복수의 상점 각각에 대한 간판의 특징점 정보를 데이터베이스에 등록한다고 했을 때, 상점당 하나의 참조 이미지 대한 특징점 정보를 등록할 때보다, N(N은 2 이상의 자연수)장의 참조 이미지에 대한 특징점 정보를 등록하게 되면, 데이터베이스의 크기도 N배로 늘어나게 되며, 이는 탐색방식으로 동작하는 영상인식 기술의 성능 측면에서 볼 때, 탐색 시간이 더 지연되고, 그 탐색 정확도가 더 낮아진다는 단점을 가지게 된다.For example, when the minutia information of a signboard for each of a plurality of stores is registered in the database, it is preferable that N (N is a natural number of 2 or more) When the minutia information is registered, the size of the database is increased by N times. In view of the performance of the image recognition technology operating in the search mode, the search time is further delayed and the search accuracy is lowered .

이러한 단점을 개선하기 위해, 본 발명의 실시예에서는 복수의 참조 이미지에 대하여 재현성(Repeatability)이 높은 특징점과, 변별력(distinctiveness)이 좋은 특징점 만을 특정점 정보로서 이용하게 된다.In order to solve such a disadvantage, in the embodiment of the present invention, a feature point having a high repeatability and a feature point having a good distinctiveness are used as specific point information for a plurality of reference images.

전술한 재현성이란 특정 특징점이 서로 다른 영상일지라도 동일한 위치에서 검출될 확률을 가리키는 것으로 높을수록 탐색에 유리하며, 변별력은 특정 특징점이 다른 특징점들과 큰 차이를 갖는 특성으로서 클수록 탐색에 유리하다는 것을 나타낸다.The reproducibility described above is advantageous for the search as the probability that the specific feature points are detected at the same position even if they are different from each other, and the discrimination power indicates that the feature point having a large difference from the other feature points is advantageous for the search.

상세하게는, 도 7a를 참조하면, 데이터베이스에 저장되는 참조 이미지의 특징점 정보는 해당 피사체에 대한 다양한 환경에서 촬영된 복수의 참조 이미지(a, b, c)에 포함되는 특징점을 이용하게 되는데, 복수의 참조 이미지(a, b, c)는 촬영 환경이 서로 상이하더라도 공통적으로 나타나는 재현성이 높은 벡터값(F1)이 존재하며, 그 벡터값(F1)은 특징점 정보로 이용하게 된다.7A, feature point information of a reference image stored in a database uses feature points included in a plurality of reference images (a, b, c) photographed in various environments for the subject, There is a highly reproducible vector value F1 that is common to the reference images a, b, and c, even though the imaging environments are different from each other. The vector value F1 is used as the feature point information.

또한, 하나의 피사체에 대한 복수의 참조 이미지(a, b, c)의 특징점 중, 특정 벡터값(F2)은 타 참조 이미지(b, c) 뿐만 아니라, 다른 피사체에 대한 참조 이미지에서도 나타나지 않는다고 하면, 이러한 공통되지 않은 벡터값은 변별력이 높은 유일한 값으로서 해당 피사체를 식별하는 데 활용활 수 있으므로, 본 발명의 실시예에서는 그러한 변별력이 좋은 벡터값(F2)을 상기 공통 벡터값과 더불어 특징점 정보로 이용하게 된다.Assuming that a specific vector value F2 among the minutiae points of a plurality of reference images a, b, and c for one object does not appear in the reference images for other objects as well as the other reference images b and c Since these non-common vector values can be used to identify the subject as a unique value having a high discriminating power, in the embodiment of the present invention, such a vector value F2 having such good discriminating power is used as minutia information .

그러나, 복수의 참조 이미지(a, b, c)의 특징점 중, 특정 벡터값(F3)은 타 참조 이미지(a, c)에는 나타나지 않으나, 다른 피사체에 대한 참조 이미지에는 나타난다고 하면, 이러한 벡터값(F3)은 재현성도 낮고 변별력도 낮은 값으로 판단됨에 따라 특징점 정보로 이용하지 않으며, 데이터베이스에 반영되지 않게 된다.However, if the specific vector value F3 among the minutiae points of the plurality of reference images a, b and c does not appear in the other reference images a and c but appears in the reference image for the other object, (F3) has low reproducibility and low discrimination power, it is not used as minutia information and is not reflected in the database.

따라서, 불필요한 벡터값(F3)을 제외하고, 피사체를 식별하는 데 요구되는 기본이 되는 데이터인 특징점(F1)와, 탐색성능을 향상시키기 위한 특징점(F2)을 이용하여 효율적인 데이터베이스를 구축하게 된다.Therefore, an efficient database is constructed by using the minutiae point F1, which is the basic data required to identify the subject, and the minutiae F2 to improve the search performance, except for the unnecessary vector value F3.

도 7b를 참조하면, 일예로서 이미지 처리부의 색상값 추출기는 각 참조 이미지 특징점 주변 화소들의 색상에 대하여 이미지의 표현력에 따라 8 bit의 경우 256 계조값으로 수치화하여 색상 매트릭스(MT)를 구성한다. Referring to FIG. 7B, as an example, the color value extractor of the image processing unit constructs a color matrix (MT) by digitizing the colors of the pixels around each reference image feature point into 256 tone values in the case of 8 bits according to the image expression power.

이러한 색상매트릭스(MT)에서 흑색은 O 계조, 백색은 255 계조로 표시될 수 있으며, 색상의 변화를 확인할 수 있다.In this color matrix (MT), black can be displayed in O gradation and white can be displayed in 255 gradation, and color change can be confirmed.

또한, 벡터 환산기는 색상매트릭스(MT)의 계조값의 변화량을 이용하여 벡터값을 산출하고, 이 벡터값 자체가 특징점 정보이며, 이 정보는 특징점 패턴을 나타내게 되며, 이를 이용하면 다양한 형태의 이미지(a,b,c)들을 이용하여 하나의 피사체(5)를 식별할 수 있게 된다.Also, the vector converter calculates a vector value by using the amount of change of the tone value of the color matrix (MT). The vector value itself is the minutia information, and this information represents the minutia point pattern. a, b, c of the subject 5 to identify one subject 5.

도 7c는 전술한 특징점 정보를 이용한 데이터베이스의 검색정보의 테이블(T) 구조를 예시한 것으로, 검색정보로서 하나의 피사체에 대한 테이블(T)은 피사체의 식별코드(ID), 특징점 데이터(Feature data), 연관 데이터(Relation data) 및 위치 데이터(Location data) 등의 필드를 포함할 수 있고, 이미지 판단부는 위치 데이터의 좌표값을 참조하여 식별코드를 우선 특정하고, 질의 이미지의 특징점 정보에 포함된 벡터값과, 특정된 특징점 데이터의 벡터값(V1,V2,...)을 비교하여 최종 식별코드를 판단하고, 연관 데이터를 추출하게 된다. 7C illustrates a table (T) structure of search information of a database using the above-described minutia information. As a search information, a table T for one object includes an identification code (ID) of a subject, feature data ), Association data (Relation data), and location data (Location data), and the image determination unit specifies the identification code with reference to the coordinate value of the position data, The vector value is compared with the vector values (V1, V2, ...) of the specified minutia data to determine the final identification code, and the associated data is extracted.

이하, 본 발명의 실시예에 따른 모바일 단말기에 설치되는 어플리케이션 프로그램의 실행에 따라 표시되는 화면의 일 예를 통해 본 발명의 기술적 사상을 설명한다.Hereinafter, the technical idea of the present invention will be described with reference to an example of a screen displayed according to execution of an application program installed in a mobile terminal according to an embodiment of the present invention.

도 8a 및 도 8b는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램이 제공하는 화면의 일 예를 나타낸 도면이다.8A and 8B are views showing an example of a screen provided by the application program of the mobile terminal according to the embodiment of the present invention.

도 8a 및 도 8b를 참조하면, 본 발명의 실시예에 따른 모바일 단말기(100)는 사용자의 조작에 따라 어플리케이션 프로그램이 실행되면, 모바일 단말기(100)내 탑재된 카메라 모듈(미도시)을 통해 일 방향을 실시간으로 촬영하며 이미지를 생성할 수 있고, 사용자는 자신의 원하는 상점 또는 건물 등(4)에 설치된 간판(5)을 피사체로서 촬영하여 증강현실 서비스를 제공받을 수 있다.8A and 8B, when an application program is executed according to an operation of a user, the mobile terminal 100 according to an exemplary embodiment of the present invention transmits an application program to the mobile terminal 100 through a camera module (not shown) Direction and can generate an image, and the user can receive the augmented reality service by taking the signboard 5 installed in his / her desired shop or building 4 as a subject.

여기서, 어플리케이션 프로그램은 현재 촬영을 수행하고 있는 위치정보와, 촬영에 따른 이미지를 정보제공 서버에 송신하여 연관정보를 요청하게 되고, 정보제공 서버는 그 위치정보에 따라 검색대상을 우선 특정하여 특징점 정보를 비교함으로써 간판(5)을 식별하여 연관정보를 제공한다. 이때, 모바일 단말기(100)가 수신한 연관정보는 화면(W100)의 일측에 알림창(W101) 또는 덧입혀진 형태로 표시될 수 있다.Here, the application program sends the location information that is currently being photographed and the image of the photographing to the information providing server to request the association information. The information providing server specifies the search target first according to the location information, To identify the signboard 5 and provide associated information. At this time, the association information received by the mobile terminal 100 may be displayed on the one side of the screen W100 in the form of a notification window W101 or the like.

또한, 본 발명의 실시예에 따르면, 사용자는 화면(W100)의 일측에 표시되는 사용자 참여 아이콘(W102)의 선택을 통해 증강현실 서비스에 참여할 수 있다. 사용자 참여 아이콘(W102)이 선택되면, 도 8b에 도시된 바와 같이 모바일 단말기(100)에는 사용자 참여화면(W110)이 표시될 수 있다.Also, according to the embodiment of the present invention, the user can participate in the augmented reality service through selection of the user participation icon W102 displayed on one side of the screen W100. When the user participation icon W102 is selected, the user participation screen W110 may be displayed on the mobile terminal 100 as shown in FIG. 8B.

사용자 참여화면(W110)은 모바일 단말기(100)를 통해 해당 상점에 대한 하나 이상의 이미지를 추가하는 업로드창(W111)과, 해당 간판(5)의 업체와 관련된 정보를 텍스트 형태로 입력할 수 있는 입력창(W112)을 포함할 수 있다.The user participation screen W110 includes an upload window W111 for adding one or more images of the shop through the mobile terminal 100 and an input window W111 for inputting information related to the business of the corresponding signboard 5 in a text form And a window W112.

사용자는 자신의 모바일 단말기(100)를 이용하여 입력창(W112)을 통해 해당 업체와 관련된 개인의견, 후기 및 기타정보 등을 입력할 수 있다.The user can input personal opinions, reviews, and other information related to the company through the input window W112 using the mobile terminal 100 of the user.

모바일 단말기(100)는 상기 사용자 참여화면(W110)을 통해 업로드되거나 입력된 내용을 반영하여 참여정보를 생성하고, 정보제공 서버로 송신하게 된다. The mobile terminal 100 generates participation information by reflecting contents uploaded or inputted through the user participation screen W110, and transmits the participation information to the information providing server.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.While a great many are described in the foregoing description, it should be construed as an example of preferred embodiments rather than limiting the scope of the invention. Accordingly, the invention is not to be determined by the embodiments described, but should be determined by equivalents to the claims and the appended claims.

100 : 모바일 단말기 110 : 카메라 모듈
120 : GPS 모듈 130 : 통신모듈
140 : 입력모듈 150 : 출력모듈
160 : 메모리 170 : AP
200 : 어플리케이션 프로그램 210 : 이미지 획득부
220 : 위치판단부 230 : 단말 통신부
240 : 인터페이스 제공부 250 : 연관정보 제공부
270 : 사용자 참여부 300 : 정보제공 서버
310 : 서버 통신부 320 : 연관정보 생성부
330 : 이미지 처리부 340 : 이미지 판단부
350 : 데이터베이스 360 : 참여정보 수집부
370 : 데이터 갱신부
100: mobile terminal 110: camera module
120: GPS module 130: Communication module
140: input module 150: output module
160: memory 170: AP
200: Application program 210: Image acquisition unit
220: position determination unit 230: terminal communication unit
240: interface providing unit 250: related information providing service
270: user participation unit 300: information providing server
310: server communication unit 320: association information generation unit
330: Image processing unit 340:
350: Database 360: Participation information collecting section
370:

Claims (9)

피사체를 촬영하여 이미지를 생성하고, 상기 이미지를 이용하여 상기 피사체에 대한 연관정보를 요청하는 어플리케이션 프로그램이 설치된 하나 이상의 모바일 단말기; 및
정보통신망을 통해 상기 모바일 단말기로부터 상기 연관정보를 요청 받으면, 상기 이미지에 대한 특징점 정보를 산출하고, 상기 특징점 정보와, 데이터베이스에 구축된 시간, 날씨, 조명 및 각도 중, 어느 하나가 서로 다른 환경에서 촬영된 복수의 피사체가 갖는 복수의 특징점 중 공통적으로 나타나거나, 복수의 피사체가 갖는 복수의 특징점 중, 유일하게 나타나는 하나 이상의 특징점 정보를 포함하는 검색정보를 비교함으로써 상기 피사체에 대한 연관정보를 추출하여 상기 모바일 단말기에 제공하는 정보제공 서버를 포함하고,
상기 정보제공 서버는,
상기 모바일 단말기와 데이터를 송수신하는 서버 통신부;
상기 모바일 단말기로부터 수신되는 이미지 및 위치정보에 대응하여 연관정보를 생성 및 제공하는 연관정보 관리부;
상기 이미지의 색상변화를 벡터값으로 변환하고, 상기 벡터값에 기반하여 상기 특징점 정보를 생성하는 이미지 처리부;
상기 특징점 정보와, 다수의 참조 이미지를 이용하여 생성한 검색정보를 비교하여 상기 피사체에 대한 연관정보를 추출하는 이미지 판단부; 및
상기 검색정보가 저장된 데이터베이스를 포함하고,
상기 이미지 처리부는,
상기 이미지에 포함된 각 화소들의 계조값을 수치화하여 색상 매트릭스를 구성하는 색상값 추출기; 및
상기 색상 매트릭스의 계조값의 변화량을 이용하여 상기 벡터값을 산출하는 벡터 환산기를 포함하고,
상기 검색정보의 테이블은 피사체의 식별코드, 특징점 정보, 연관 데이터 및 위치 데이터의 필드를 포함하고,
상기 이미지 판단부는,
위치 데이터의 좌표값을 참조하여 식별코드를 특정하고, 질의 이미지의 특징점 정보에 포함된 벡터값과 특정된 특징점 정보의 벡터값을 비교하여 최종 식별코드를 판단하여 연관정보를 추출하는 실외환경에서의 피사체 식별 시스템.
At least one mobile terminal installed with an application program for photographing a subject to generate an image, and requesting association information on the subject using the image; And
The method includes the steps of: calculating minutia information of the image when receiving the association information from the mobile terminal through an information communication network; and storing the minutia information in an environment in which one of time, weather, Associating information on the subject is extracted by comparing search information that is commonly displayed among a plurality of feature points of a plurality of photographed subjects or that includes one or more minutiae information that is uniquely displayed among a plurality of feature points of a plurality of subjects And an information providing server provided to the mobile terminal,
The information providing server,
A server communication unit for transmitting and receiving data to and from the mobile terminal;
An association information management unit for generating and providing association information corresponding to image and position information received from the mobile terminal;
An image processing unit for converting the color change of the image into a vector value and generating the minutia information based on the vector value;
An image determining unit for comparing the minutiae information with search information generated using a plurality of reference images and extracting association information for the subject; And
And a database in which the retrieval information is stored,
Wherein the image processing unit comprises:
A color value extractor for forming a color matrix by digitizing the tone values of the pixels included in the image; And
And a vector converter for calculating the vector value using a change amount of the tone value of the color matrix,
Wherein the table of search information includes a field of an object identification code, minutia information, association data, and position data,
The image judging unit judges,
The identification code is identified by referring to the coordinate value of the position data, the vector value included in the minutia information of the query image is compared with the vector value of the specified minutia information, and the final identification code is determined to extract the association information. Object identification system.
제 1 항에 있어서,
상기 모바일 단말기는,
일 방향에 위치한 상기 피사체를 촬영하여 상기 이미지를 생성하는 카메라 모듈;
외부의 GPS 시스템으로부터 GPS 신호를 수신하는 GPS 모듈;
정보통신망을 통해 상기 정보제공 서버에 접속하여 상기 이미지 및 위치정보를 송신하고, 상기 연관정보를 수신하는 통신모듈;
상기 어플리케이션 프로그램의 실행 시, 사용자에 의한 조작을 입력받는 입력모듈;
상기 이미지 및 어플리케이션 프로그램의 실행화면을 표시하는 출력모듈;
상기 어플리케이션 프로그램이 기록되는 메모리; 및
상기 어플리케이션 프로그램을 실행하는 AP
를 포함하는 실외환경에서의 피사체 식별 시스템.
The method according to claim 1,
The mobile terminal comprises:
A camera module for photographing the subject located in one direction and generating the image;
A GPS module for receiving a GPS signal from an external GPS system;
A communication module for accessing the information providing server through an information communication network, transmitting the image and position information, and receiving the association information;
An input module that receives an operation by a user when the application program is executed;
An output module for displaying an execution screen of the image and the application program;
A memory in which the application program is recorded; And
The AP executing the application program
Wherein the object identification system comprises:
제 2 항에 있어서,
상기 어플리케이션 프로그램은,
상기 카메라 모듈로부터 이미지를 획득하는 획득부;
상기 GPS 모듈로부터 상기 GPS 신호를 획득하고, 상기 GPS 신호에 대응하여 상기 이미지가 획득된 위치정보를 생성하는 위치 판단부;
상기 통신모듈을 통해 상기 정보제공 서버와 데이터를 송수신하는 단말 통신부;
사용자의 조작을 입력받고, 실행화면을 제공하는 인터페이스 제공부; 및
상기 단말 통신부로부터 수신한 연관정보를 상기 실행화면 내 증강현실 방식으로 추가하는 연관정보 제공부
를 포함하는 실외환경에서의 피사체 식별 시스템.
3. The method of claim 2,
The application program includes:
An acquiring unit acquiring an image from the camera module;
A position determination unit for obtaining the GPS signal from the GPS module and generating position information on which the image is acquired in correspondence with the GPS signal;
A terminal communication unit for transmitting and receiving data to and from the information providing server through the communication module;
An interface providing unit for receiving a user's operation and providing an execution screen; And
An associative information providing unit for associating the association information received from the terminal communication unit with the in-
Wherein the object identification system comprises:
제 3 항에 있어서,
상기 어플리케이션 프로그램은,
상기 카메라 모듈에 요청하여 사용자로부터 상기 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하고, 상기 정보제공 서버에 제공하는 사용자 참여부
를 더 포함하는 실외환경에서의 피사체 식별 시스템.
The method of claim 3,
The application program includes:
A user participation module for requesting the camera module to receive additional images and data related to the subject from a user to generate participation information,
Further comprising: an object recognition system for identifying an object in an outdoor environment.
삭제delete 삭제delete 제 4 항에 있어서,
상기 정보제공 서버는,
상기 모바일 단말기로부터 참여정보가 수신되면, 상기 참여정보를 사용자별로 수집하는 참여정보 수집부; 및
상기 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 상기 데이터베이스 내 검색정보를 갱신하는 데이터 갱신부
를 더 포함하는 실외환경에서의 피사체 식별 시스템.
5. The method of claim 4,
The information providing server,
A participation information collection unit for collecting the participation information for each user when the participation information is received from the mobile terminal; And
A data update unit for updating search information in the database using one or more additional images and data included in the participation information,
Further comprising: an object recognition system for identifying an object in an outdoor environment.
삭제delete 삭제delete
KR1020170033616A 2017-03-17 2017-03-17 System and method for object identification in outdoor environment KR101920465B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170033616A KR101920465B1 (en) 2017-03-17 2017-03-17 System and method for object identification in outdoor environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170033616A KR101920465B1 (en) 2017-03-17 2017-03-17 System and method for object identification in outdoor environment

Publications (2)

Publication Number Publication Date
KR20180106055A KR20180106055A (en) 2018-10-01
KR101920465B1 true KR101920465B1 (en) 2018-11-20

Family

ID=63876990

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170033616A KR101920465B1 (en) 2017-03-17 2017-03-17 System and method for object identification in outdoor environment

Country Status (1)

Country Link
KR (1) KR101920465B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100651826B1 (en) 2005-12-21 2006-12-01 주식회사 팬택 Method and apparatus for executing function by recognizing partial image in portable set having camera
KR101176743B1 (en) * 2011-02-23 2012-08-23 숭실대학교산학협력단 Apparatus and method for recognizing object, information content providing apparatus and information content managing server
JP2014059710A (en) * 2012-09-18 2014-04-03 Toshiba Corp Object detection device and object detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100651826B1 (en) 2005-12-21 2006-12-01 주식회사 팬택 Method and apparatus for executing function by recognizing partial image in portable set having camera
KR101176743B1 (en) * 2011-02-23 2012-08-23 숭실대학교산학협력단 Apparatus and method for recognizing object, information content providing apparatus and information content managing server
JP2014059710A (en) * 2012-09-18 2014-04-03 Toshiba Corp Object detection device and object detection method

Also Published As

Publication number Publication date
KR20180106055A (en) 2018-10-01

Similar Documents

Publication Publication Date Title
US10360479B2 (en) Device and method for processing metadata
CN111046744B (en) Method and device for detecting attention area, readable storage medium and terminal equipment
US10163267B2 (en) Sharing links in an augmented reality environment
CN109189879B (en) Electronic book display method and device
US9235733B2 (en) Mobile biometrics information collection and identification
CN109582880B (en) Interest point information processing method, device, terminal and storage medium
CN112036331B (en) Living body detection model training method, device, equipment and storage medium
EP2003611A9 (en) Information presentation system, information presentation terminal, and server
CN111737547A (en) Merchant information acquisition system, method, device, equipment and storage medium
US20180268453A1 (en) Composite image generation
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
KR101768914B1 (en) Geo-tagging method, geo-tagging apparatus and storage medium storing a program performing the method
CN113822263A (en) Image annotation method and device, computer equipment and storage medium
JP6047939B2 (en) Evaluation system, program
CN111353513B (en) Target crowd screening method, device, terminal and storage medium
KR101920465B1 (en) System and method for object identification in outdoor environment
CN113269730B (en) Image processing method, image processing device, computer equipment and storage medium
KR20220150060A (en) platform that provides company matching services based on user information and provides security services for them
KR101825742B1 (en) Providing method for fishing content information using the internet and communication appliances
CN110516717A (en) Method and apparatus for generating image recognition model
JP2014016843A (en) Evaluation system and program
KR102488953B1 (en) System for providing pre-owned luxury checking service using colorbook
WO2023053317A1 (en) Image matching apparatus, control method, and non-transitory computer-readable storage medium
KR20080036231A (en) Information presenting system, information presenting terminal, and server
CN115222432A (en) Method, device and equipment for generating health degree index and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant