KR101920465B1 - System and method for object identification in outdoor environment - Google Patents
System and method for object identification in outdoor environment Download PDFInfo
- Publication number
- KR101920465B1 KR101920465B1 KR1020170033616A KR20170033616A KR101920465B1 KR 101920465 B1 KR101920465 B1 KR 101920465B1 KR 1020170033616 A KR1020170033616 A KR 1020170033616A KR 20170033616 A KR20170033616 A KR 20170033616A KR 101920465 B1 KR101920465 B1 KR 101920465B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- mobile terminal
- unit
- subject
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G06K9/4652—
-
- G06K9/481—
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/60—Subscription-based services using application servers or record carriers, e.g. SIM application toolkits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/18—Service support devices; Network management devices
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
본 발명은 연관정보 제공 시스템을 개시한다. 보다 상세하게는, 모바일 단말기를 이용하여 피사체를 촬영하고, 그 식별결과에 기초하여 증강현실(AR) 서비스를 제공하는 정보제공 서버를 포함하는 연관정보 제공 시스템 및 방법에 관한 것이다.
본 발명의 실시예에 따르면, 각 인식 대상당 하나의 참조 이미지가 아닌 다양한 환경을 고려하여 획득된 복수의 참조 이미지를 이용하되, 특정점 정보에 기초하여 영상인식절차를 수행하도록 함으로써, 증강현실 서비스의 영상인식의 정확도를 비약적으로 개선할 수 있는 효과가 있다.The present invention discloses an associated information providing system. More particularly, the present invention relates to an associated information providing system and an information providing server including an information providing server that photographs a subject using a mobile terminal and provides an augmented reality (AR) service based on the identification result.
According to the embodiment of the present invention, by using a plurality of reference images obtained in consideration of various environments rather than one reference image per each recognition object, by performing the image recognition procedure based on the specific point information, It is possible to remarkably improve the accuracy of image recognition.
Description
본 발명은 피사체 식별 시스템에 관한 것으로, 특히 모바일 단말기를 이용하여 피사체를 촬영하고, 그 식별결과에 기초하여 증강현실(AR) 서비스를 제공하는 정보제공 서버를 포함하는 실외환경에서의 피사체 식별 시스템 및 방법에 관한 것이다.The present invention relates to an object identifying system, and more particularly, to an object identifying system in an outdoor environment including an information providing server that photographs a subject using a mobile terminal and provides an augmented reality (AR) ≪ / RTI >
전자정보기술의 발전에 따라, 스마트폰과 같은 휴대가 용이한 모바일 단말기를 이용하여 주변상황을 실시간으로 반영함으로써, 실감나면서도 유익한 정보를 제공하는 다양한 형태의 증강현실 어플리케이션(AR Application) 프로그램 및 증강현실 서비스가 제안되고 있다.In accordance with the development of electronic information technology, a variety of forms of AR application program and enhancement that provide realistic and informative information by reflecting the surrounding situation in real time by using a portable mobile terminal such as a smart phone Real service is being proposed.
도 1a 및 도 1b를 참조하면, 종래 모바일 단말기의 증강현실 서비스는 사용자가 자신이 소지한 모바일 단말기(1)를 통해 주변의 상점(4)등에 설치된 간판(5)을 피사체로서 촬영하면 영상인식기술에 기반한 식별수단에 의해 해당 상점(4)을 식별하고, 화면(2)상에 간판(5)을 증강(6)하여 표시하며, 해당 상점의 주요 상품, 쿠폰, 이벤트 및 마케팅 등, 상점과 관련된 다양한 연관정보(8)를 제공한다. 1A and 1B, when a user takes a
이러한 증강현실 어플리케이션 프로그램에서 성능을 좌우하는 핵심기술은 스마트폰으로 간판을 찍었을 때, 해당 간판(5)을 정확 및 신속하게 인식하는 기술이라 할 수 있다.The core technology that determines the performance in such augmented reality application program is a technology that recognizes the
특히, 종래기술에서는 주변의 상점(4)들을 인식하기 위해, 정보제공의 대상이 되는 모든 상점의 간판(5)들을 촬영된 이미지 파일들을 서버에 미리 저장 해두고, 사용자가 찍은 간판 영상을 질의 이미지(Query image)라고 하면, 질의 이미지를 서버에 저장된 다수의 참조 이미지(Reference image)들과 비교하여 가장 높은 유사도를 갖는 참조 이미지를 찾음으로써 해당 간판(5) 및 상점(4)을 인식하게 되며, 인식된 상점(4)의 연관정보(8)를 모바일 단말기(1)의 화면(2)에 증강시켜 사용자에게 제공하게 된다.Particularly, in the prior art, in order to recognize the
전술한 방식에 의하면, 간판을 인식하기 위해, 각 상점마다 간판에 대한 하나의 이미지를 참조 이미지로 이용하거나, 또는 복수의 상점에 대한 간판들이 하나의 이미지에 함께 포함된 참조 이미지를 이용하게 된다. According to the above-described method, in order to recognize a signboard, one image for a signboard is used as a reference image for each store, or a reference image including signboards for a plurality of stores together in one image is used.
따라서, 종래 기술에 따른 증강현실 서비스에서는 상점마다 간판에 대한 하나의 이미지를 참조 이미지로 이용함에 따라, 그 참조 이미지가 생성될 때의 환경과 질의 이미지가 생성될 때의 주변환경이 다른 경우, 영상인식의 정확도가 매우 낮아지게 되는 문제점이 있다.Accordingly, in the augmented reality service according to the prior art, when one image for a signboard is used as a reference image for each store, when the environment when the reference image is generated and the surrounding environment when the query image is generated, There is a problem that the accuracy of recognition becomes very low.
일 예로서, 특정 상점은 화창한 날씨의 환경에서 찍은 간판에 대한 이미지가 참조 이미지로 등록되었다고 하면, 눈이나 비가 오거나 또는 야간에 촬영을 통해 질의 이미지로 영상인식을 시도할 경우, 실패할 확률이 현저하게 높아지게 된다.For example, if an image of a signboard taken in an environment of a sunny weather is registered as a reference image in a specific shop, the probability of failing is conspicuous when the user attempts to recognize the image as a query image through eyes, rain, .
전술한 바와 같이, 종래 기술에 따른 증강현실 서비스에서는 피사체인 각 상점의 간판이 한 장의 참조 이미지로 등록됨에 따라, 날씨, 조명 및 시간 등의 주변환경에 따라 영상인식의 정확도가 상이하게 되며, 이는 정상적인 서비스를 제공하는 데 부정적인 영향을 주게 된다.As described above, in the augmented reality service according to the related art, since the signboard of each shop as a subject is registered as a single reference image, the accuracy of image recognition becomes different depending on the surrounding environment such as weather, illumination, and time, It has a negative impact on providing normal service.
본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 스마트폰과 같은 모바일 단말기를 이용하여 주변의 피사체를 촬영하여 증강현실 서비스를 제공함에 있어서, 복수의 참조 이미지를 이용한 검색정보 데이터베이스를 구축하고 특징점 정보에 기초하여 영상인식절차를 수행함으로써, 피사체의 영상인식 정확도를 비약적으로 개선하여 안정적인 증강현실 서비스를 제공하는데 과제가 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a search information database using a plurality of reference images in augmenting reality service by photographing a nearby object using a mobile terminal such as a smart phone, There is a problem in providing a stable augmented reality service by drastically improving the accuracy of image recognition of a subject by performing an image recognition procedure based on minutia information.
또한, 본 발명은 다수의 모바일 단말기로부터 각 피사체와 관련된 추가 이미지를 수집하여 데이터베이스를 갱신함으로써 영상인식의 정확도가 더욱 개선되고, 고품질의 증강현실 서비스를 구현할 수 있는 실외환경에서의 피사체 식별 시스템 및 방법을 제공하는데 과제가 있다.In addition, the present invention provides an object identification system and method in an outdoor environment capable of realizing a high-quality augmented reality service, in which the accuracy of image recognition is further improved by collecting additional images related to each object from a plurality of mobile terminals and updating the database There is a challenge.
전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템은 피사체를 촬영하여 이미지를 생성하고, 상기 이미지를 이용하여 상기 피사체에 대한 연관정보를 요청하는 어플리케이션 프로그램이 설치된 하나 이상의 모바일 단말기; 및 정보통신망을 통해 상기 모바일 단말기로부터 상기 연관정보를 요청 받으면, 상기 이미지에 대한 특징점 정보를 산출하고, 상기 특징점 정보와, 데이터베이스에 구축된 서로 다른 환경에서 촬영한 상기 피사체에 대한 하나 이상의 특징점 정보를 포함하는 검색정보를 비교함으로써 상기 피사체에 대한 연관정보를 추출하여 상기 모바일 단말기에 제공하는 정보제공 서버를 포함할 수 있다.In order to solve the above-described problems, an object identification system in an outdoor environment according to an embodiment of the present invention includes an application program for photographing a subject to generate an image, and requesting association information on the subject using the image One or more mobile terminals; And when the association information is requested from the mobile terminal through the information communication network, the feature point information about the image is calculated, and the feature point information and at least one feature point information about the photographed subject in different environments And an information providing server for extracting association information on the object by comparing the search information with the search information and providing the extracted information to the mobile terminal.
전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 방법은 모바일 단말기와 연동하는 정보제공 서버를 이용한 연관정보 제공 방법으로서, 상기 모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계; 상기 이미지에 대한 특징점 정보를 생성하는 단계; 상기 특징점 정보와, 데이터베이스에 구축된 서로 다른 환경에서 촬영한 상기 피사체에 대한 하나 이상의 특징점 정보를 포함하는 검색정보를 비교하여 상기 피사체에 대한 연관정보를 추출하는 단계; 및 추출된 연관정보를 상기 모바일 단말기에 제공하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of identifying an object in an outdoor environment, the method comprising: displaying an image generated by photographing a subject from the mobile terminal, Receiving a request for providing association information using the association information; Generating minutia information for the image; Extracting association information for the subject by comparing the minutia information with search information including at least one minutia information about the photographed subject in different environments; And providing the extracted association information to the mobile terminal.
본 발명의 실시예에 따르면, 각 인식 대상당 하나의 참조 이미지가 아닌 다양한 환경을 고려하여 획득된 복수의 참조 이미지를 이용하되, 특정점 정보에 기초하여 영상인식절차를 수행하도록 함으로써, 증강현실 서비스의 영상인식의 정확도를 비약적으로 개선할 수 있는 효과가 있다.According to the embodiment of the present invention, by using a plurality of reference images obtained in consideration of various environments rather than one reference image per each recognition object, by performing the image recognition procedure based on the specific point information, It is possible to remarkably improve the accuracy of image recognition.
또한, 본 발명의 실시예에 따르면, 시스템 설정자뿐만 아니라, 회원 가입된 다수의 사용자들에 의한 각 피사체와 관련된 추가 이미지 및 데이터를 수집하여 데이터베이스를 갱신함으로써 영상인식의 정확도가 더욱 개선된 실외환경에서의 피사체 식별 시스템 및 방법을 제공할 수 있는 효과가 있다.According to the embodiment of the present invention, not only the system configurator but also additional images and data related to each subject by a plurality of registered users are collected and updated in the database, thereby improving the accuracy of image recognition in an outdoor environment There is an effect that a subject identification system and method of the present invention can be provided.
도 1a 및 도 1b은 종래 모바일 단말기의 증강현실 서비스의 일 예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 전체 구조를 개략적으로 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 모바일 장치의 구조를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램의 구조를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 정보제공 서버의 구조를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 나타낸 도면이다.
도 7a 내지 도 7c는 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스의 영상인식 방법을 설명하기 위한 도면이다.
도 8a 및 도 8b는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램이 제공하는 화면의 일 예를 나타낸 도면이다.1A and 1B are views showing an example of augmented reality service of a conventional mobile terminal.
2 is a diagram schematically showing an overall structure of an object identifying system in an outdoor environment according to an embodiment of the present invention.
3 is a diagram illustrating a structure of a mobile device according to an embodiment of the present invention.
4 is a diagram illustrating a structure of an application program of a mobile terminal according to an embodiment of the present invention.
5 is a diagram illustrating a structure of an information providing server of a subject identifying system in an outdoor environment according to an embodiment of the present invention.
6 is a view illustrating a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention.
7A to 7C are views for explaining an image recognition method of an image processing unit and a database according to an embodiment of the present invention.
8A and 8B are views showing an example of a screen provided by the application program of the mobile terminal according to the embodiment of the present invention.
설명에 앞서, 명세서 전체에서 어떤 부분이 어떤 구성요소를 "구비" 또는 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부(Unit)" 및 "...모듈(module)" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어, 소프트웨어 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Prior to the description, when an element is referred to as being "comprising" or "including" an element throughout the specification, it is to be understood that the element may be further comprised of other elements . Also, the terms " unit " and " module ", etc. in the specification mean units for processing at least one function or operation, Software. ≪ / RTI >
또한, 본 명세서에서 "실시예"라는 용어는 예시, 사례 또는 도해의 역할을 하는 것을 의미하나, 발명의 대상은 그러한 예에 의해 제한되지 않는다. 또한, "포함하는", "구비하는", "갖는" 및 다른 유사한 용어가 사용되고 있으나, 청구범위에서 사용되는 경우 임의의 추가적인 또는 다른 구성요소를 배제하지 않는 개방적인 전환어(Transition word)로서 "포함하는(Comprising)"이라는 용어와 유사한 방식으로 포괄적으로 사용된다.Furthermore, the term " embodiment " is used herein to mean serving as an example, instance, or illustration, but the subject matter of the invention is not limited by such example. It is also to be understood that the terms " including, " " having, " and other similar terms are used, but that they do not exclude any additional or different components when used in the claims, Quot; is < / RTI > used in a manner similar to the term " Comprising ".
본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현될 수 있거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)" 및 "...모듈(module)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 또한, 본 발명에서는 단말기를 포함하는 시스템에서 실행되는 프로그램 및 하드웨어 모두가 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented with hardware or software, or may be implemented with a combination of both, where appropriate. As used herein, terms such as " Unit " and " module " are likewise equally applicable to computer-related entities such as hardware, a combination of hardware and software, Can be treated as equivalents. Further, in the present invention, both programs and hardware executed in a system including a terminal can be configured in units of modules, and can be recorded in one physical memory, or distributed among two or more memories and recording media.
이하, 도면을 참조하여 본 발명의 바람직한 실시예에 따른 실외환경에서의 피사체 식별 시스템 및 방법을 설명한다. Hereinafter, a system and method for identifying an object in an outdoor environment according to a preferred embodiment of the present invention will be described with reference to the drawings.
도 2는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 전체 구조를 개략적으로 나타낸 도면이다.2 is a diagram schematically showing an overall structure of an object identifying system in an outdoor environment according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 피사체 식별 시스템은 피사체를 촬영하여 이미지를 생성하고, 이미지를 이용하여 피사체에 대한 연관정보를 요청하는 어플리케이션 프로그램이 설치된 하나 이상의 모바일 단말기(100) 및, 정보통신망을 통해 모바일 단말기(100)로부터 연관정보를 요청 받으면, 이미지에 대한 특징점 정보를 산출하고, 그 이미지에 대한 특징점 정보와, 데이터베이스에 구축된 피사체에 대한 특징점 정보를 포함한 검색정보를 비교하여 피사체를 식별한 후, 해당 피사체에 대한 연관정보를 추출하여 모바일 단말기(100)에 제공하는 정보제공 서버(300)를 포함할 수 있다.Referring to FIG. 2, the object identifying system of the present invention includes at least one
모바일 단말기(100)는 증강현실 서비스를 제공하는 어플리케이션 프로그램이 설치되며, 사용자가 주변상황을 실시간으로 촬영할 수 있는 카메라 모듈과 정보통신망에 접속하여 정보제공 서버(300)와 데이터를 송수신할 수 있는 통신모듈을 탑재하고 있다. 특히, 모바일 단말기(100)는 연결된 정보제공 서버(300)에 실시간으로 이미지 및 위치정보를 업로드(Upload)하여 그에 따른 연관정보를 수신함으로써 증강현실 서비스를 제공하게 된다. 이러한 기능을 수행하기 위해 모바일 단말기(100)로는 전술한 모듈들이 탑재된 스마트폰과 같은 휴대용 단말기, 태블릿 PC 또는 노트북 등의 휴대가 용이한 컴퓨팅 장치가 이용될 수 있다.The
정보제공 서버(300)는 모바일 단말기(100)와 연동하여 요청에 따라, 위치정보 및 이미지를 이용하여 현재 모바일 단말기(100)의 위치를 판단하고, 이미지를 영상인식 기법을 통해 분석하여 포함된 피사체를 식별하며, 식별된 피사체에 대한 연관정보를 추출하여 모바일 단말기(100)에 제공하는 역할을 한다. The
이러한 기능을 원활히 수행하기 위해, 정보제공 서버(300)는 다수의 사용자에 대한 회원관리, 이미지에 대한 영상인식 기법 적용을 통한 연관정보의 추출 및 제공 등의 기능을 지연 없이 처리할 수 있도록 고사양의 마이크로프로 세서 및 대용량의 데이터 저장공간을 구비하는 컴퓨팅 장치인 것이 바람직하다.In order to smoothly perform such functions, the
특히, 정보제공 서버(300)는 연관정보 추출 시 하나의 피사체에 대하여 관련된 다수의 참조 이미지를 이용하여 구축된 데이터베이스를 포함하고 있다.In particular, the
상세하게는, 시스템 운용자는 피사체인 상점 등의 간판에 대하여 주간, 야간, 날씨, 조명 및 각도 등의 촬영환경을 달리하여 촬영한 다수의 참조 이미지를 준비하고, 정보제공 서버(300)의 데이터베이스에 그 참조 이미지들에 공통적으로 포함되는 특징점들에 기초하여 산출된 특징점 정보를 저장한다. 여기서, 특징점들은 각 이미지내 등장하는 모서리 및 골짜기 등의 형상에 대응된다.More specifically, the system operator prepares a plurality of reference images photographed with different shooting environments such as day, night, weather, lighting, and angle with respect to a signboard of a shop or the like as a subject, And stores the minutia information calculated based on the minutiae points commonly included in the reference images. Here, the minutiae correspond to shapes of edges and valleys appearing in each image.
이에 따라, 정보제공 서버(300)는 서비스 제공시 모바일 단말기(100)로부터 수신한 질의 이미지의 특징점 정보를 산출하고, 참조 이미지에 대한 데이터베이스에 저장된 특징점 정보와 비교함으로써 피사체에 대한 연관정보를 추출하는 것을 특징으로 한다. 여기서, 특징점 정보는 이미지의 특징점 주변의 색상변화를 벡터값으로 산출한 것이다.Accordingly, the
전술한 구조에 따라, 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템은 어플리케이션 프로그램이 설치된 다수의 모바일 단말기에 증강현실 서비스를 제공하되, 그로부터 촬영된 이미지의 특징점 정보를 통해 다수의 참조 이미지에 의한 영상인식 절차를 수행함으로써, 고품질의 서비스를 제공할 수 있다.According to the above-described structure, the object identifying system in the outdoor environment according to the embodiment of the present invention provides augmented reality service to a plurality of mobile terminals provided with application programs, It is possible to provide a high-quality service.
이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템에 포함되는 모바일 장치의 구조를 설명한다.Hereinafter, a structure of a mobile device included in an object identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.
도 3은 본 발명의 실시예에 따른 모바일 장치의 구조를 나타낸 도면이다.3 is a diagram illustrating a structure of a mobile device according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 모바일 단말기(100)는 일 방향에 위치한 피사체를 촬영하여 상기 이미지를 생성하는 카메라 모듈(110), 외부의 GPS 시스템으로부터 GPS 신호를 수신하는 GPS 모듈(120), 정보통신망을 통해 정보제공 서버(300)에 접속하여 이미지 및 위치정보를 송신하고, 연관정보를 수신하는 통신모듈(130), 어플리케이션 프로그램(200)의 실행 시, 사용자에 의한 조작을 입력받는 입력모듈(140), 이미지 및 어플리케이션 프로그램(200)의 실행화면을 표시하는 출력모듈(150), 어플리케이션 프로그램(200)이 기록되는 메모리(160) 및 상기 어플리케이션 프로그램을 실행하는 AP(170)을 포함할 수 있다.3, the
카메라 모듈(110)은 사용자의 조작에 따라 피사체를 실시간으로 촬영하여 인식대상이 되는 이미지를 생성하는 역할을 한다. 이러한 카메라 모듈(110)은 렌즈, 발광소자 및 이미지 센서 등으로 구성될 수 있다. The
GPS 모듈(120)은 현재 모바일 단말기(100)의 위치를 파악할 수 있도록 외부의 GPS 위성 등으로부터 GPS 신호를 수신하는 역할을 한다. 특히 GPS 모듈(120)에 의해 수신된 GPS 신호는 본 발명의 어플리케이션 프로그램(200)에 의해 제공되는 증강현실 서비스에서 현재 위치에 따라 주변의 피사체를 식별하는 데 활용되게 된다.The
통신모듈(130)은 정보통신망을 통해 정보제공 서버와 연결되어 데이터통신을 수행하는 역할을 한다. 특히 통신모듈(130)은 어플리케이션 프로그램의 요청에 따라 현재 촬영중인 이미지 및 GPS 신호에 대응하는 위치신호를 송신하고, 이를 이용한 영상인식에 따른 연관정보를 수신하여 어플리케이션 프로그램이 증강현실 서비스를 제공할 수 있도록 한다.The
입력모듈(140)은 사용자의 조작을 입력받아 어플리케이션 프로그램의 구동에 반영하는 역할을 한다. 사용자는 출력모듈(150) 화면 내 표시되는 기능 중 어느 하나를 선택하여 본 발명의 증강현실 서비스를 제공받을 수 있으며 추가정보를 입력할 수 있다.The
이러한 입력모듈(140)은 모바일 단말기(100)에 탑재되는 버튼뿐만 아니라, 출력모듈(150)과 일체형으로 구성되어 사용자의 터치를 인식하는 터치패널 형태로 구현될 수 있다.The
출력모듈(150)은 모바일 단말기(100)의 구동에 따른 화면 및 음향을 출력하는 역할을 하며, 디스플레이 장치 및 스피커를 포함할 수 있다. 특히, 본 발명의 출력모듈(150)은 어플리케이션 프로그램이 구성하는 화면을 그래픽 유저 인터페이스(GUI)를 포함하여 표시하고, 촬영에 따라 증강된 주변 및 연관정보에 대한 화면을 제공하게 된다. The
이러한 출력모듈(150)은 소형의 휴대용 컴퓨팅 장치에 적합한 소형의 액정표시소자(LCD), 전기영동소자(EPD) 및 유기전계발광소자(OLED)등으로 구현될 수 있다.The
메모리(160)는 모바일 단말기(100)를 구동하기 위한 운영체제(OS) 및 기타 프로그램과, 본 발명의 실시예에 따른 어플리케이션 프로그램(200)이 기록될 수 있으며, 그 종류에 따라 프로그램의 실행 시 프로세스가 상주될 수 있다.The
이러한 메모리(160)는 통상의 컴퓨팅 장치에 구비되는 메모리에 대응하며, 판독 전용 메모리(ROM) 및 랜덤 액세스 메모리(RAM) 등으로 구성될 수 있다.Such a
또한, 어플리케이션 프로그램(200)은 이와 관련된 기능을 각각 수행하기 위한 복수의 구성부를 포함할 수 있다. 어플리케이션 프로그램(200)의 구성에 대한 상세한 설명은 후술한다. In addition, the
AP(170)는 AP(Application Processor)는 중앙처리장치(CPU) 및 그래픽처리장치(GPU) 등이 포함된 휴대용 단말기에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(160)에 저장된 OS 및 기타 프로그램과, 본 발명의 어플리케이션 프로그램(200)을 실행하여 증강현실 서비스를 제공하고 모바일 단말기(100)에 탑재된 각 모듈들을 제어하는 역할을 한다.
전술한 구조에 따라, 본 발명의 실시예에 따른 연관정보 제공 시스템의 모바일 단말기는 사용자 주변의 상점 간판과 같은 피사체를 촬영하고 실시간으로 그에 대한 정확도가 개선된 연관정보를 표시할 수 있다.According to the above-described structure, the mobile terminal of the related information providing system according to the embodiment of the present invention can photograph a subject such as a shop signboard around the user and display the related information with improved accuracy in real time.
이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 모바일 장치에 설치되는 어플리케이션 프로그램을 설명한다.Hereinafter, an application program installed in a mobile device of an object identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.
도 4는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램의 구조를 나타낸 도면이다.4 is a diagram illustrating a structure of an application program of a mobile terminal according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 어플리케이션 프로그램(200)은 카메라 모듈(110)로부터 이미지를 획득하는 획득부(210), GPS 모듈(120)로부터 GPS 신호를 획득하고, GPS 신호에 대응하여 이미지가 획득된 위치정보를 생성하는 위치 판단부(220), 통신모듈(130)을 통해 정보제공 서버와 데이터를 송수신하는 단말 통신부(230), 사용자의 조작을 입력받고, 실행화면을 제공하는 인터페이스 제공부(240) 및, 단말 통신부(230)로부터 수신한 연관정보를 상기 실행화면 내 증강현실 방식으로 추가하는 연관정보 제공부(250)를 포함할 수 있다.4, an
또한, 본 발명의 실시예에 따른 어플리케이션 프로그램(200)은 사용자로부터 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하고, 정보제공 서버에 제공하는 사용자 참여부(270)를 더 포함할 수 있다.In addition, the
이미지 획득부(210)는 카메라 모듈(110)에 의해 생성된 이미지를 수신하는 역할을 하고, 위치 판단부(220)는 GPS 모듈(120)에 의해 수신된 GPS 신호에 대응하여 현재 모바일 단말기의 위치를 판단하는 역할을 한다. The
단말 통신부(230)는 통신모듈(130)을 통해 정보통신망에 접속하여 정보제공 서버와 데이터 통신함으로써 증강현실 서비스를 제공하기 위한 각종 데이터를 송수신하는 역할을 한다. The
인터페이스 제공부(240)는 입력모듈(140)을 통해 입력되는 사용자의 조작을 전달받아 어플리케이션 프로그램(200)이 실행에 반영하는 역할을 한다. The
연관정보 제공부(250)는 어플리케이션 프로그램의 실행에 따라 피사체에 대한 연관정보를 제공하는 역할을 하는 것으로, 카메라 모듈(110)이 활성화되고 그로부터 촬영된 이미지가 이미지 획득부(210)에 전달되면 위치좌표 정보와 함께 이미지를 단말 통신부(230)를 통해 정보저공 서버로 송신하고, 그로부터 연관정보를 수신하면 이를 인터페이스 제공부(240)를 통해 출력모듈로 출력하게 된다.When the
또한, 본 발명의 어플리케이션 프로그램(200)은 사용자들의 적극적인 참여를 유도하기 위해 사용자 참여부(270)를 포함할 수 있으며, 사용자 참여부(270)는 사용자에 의해 입력되는 피사체에 대한 추가 이미지 및 관련된 내용에 대응하여 참여정보를 생성하고, 이를 단말 통신부(230)를 통해 정보제공 서버에 송신할 수 있다.In addition, the
전술한 구조에 따라, 본 발명의 어플리케이션 프로그램은 모바일 단말기에 구비된 각 모듈들에 요청하여 정보제공 서버와의 데이터 통신을 통해 연관정보를 수신 및 제공할 수 있다.According to the above-described structure, the application program of the present invention can request and request the respective modules provided in the mobile terminal to receive and provide association information through data communication with the information providing server.
이하, 도면을 참조하여 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템에 포함되는 정보제공 서버를 설명한다.Hereinafter, an information providing server included in a subject identification system in an outdoor environment according to an embodiment of the present invention will be described with reference to the drawings.
도 5는 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 시스템의 정보제공 서버의 구조를 나타낸 도면이다.5 is a diagram illustrating a structure of an information providing server of a subject identifying system in an outdoor environment according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 실시예에 따른 정보제공 서버(300)는 모바일 단말기(100)와 데이터를 송수신하는 서버 통신부(310), 모바일 단말기(100)로부터 수신되는 이미지 및 위치정보에 대응하여 연관정보를 생성 및 제공하는 연관정보 관리부(320), 이미지의 특징점 주변의 색상변화를 벡터값으로 산출한 특징점 정보를 생성하는 이미지 처리부(330), 특징점 정보와, 다수의 참조 이미지를 이용하여 생성한 특징점 정보를 포함하는 검색정보를 비교하여 이미지에 대한 연관정보를 추출하는 이미지 판단부(340) 및 검색정보가 저장된 데이터베이스(350)를 포함할 수 있다.5, an
뿐만 아니라, 본 발명의 실시예에 따른 정보제공 서버(300)는 모바일 단말기(100)로부터 참여정보가 수신되면, 참여정보를 사용자별로 수집하는 참여정보 수집부(360) 및, 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 데이터베이스(350) 내 연관정보를 갱신하는 데이터 갱신부(370)를 포함할 수 있다.In addition, the
서버 통신부(310)는 정보통신망을 통해 모바일 단말기(100)와 연결되며, 그의 연관정보 요청에 따라 이미지를 수신하고, 그 회신으로서 연관정보를 모바일 단말기(100)에 송신하는 역할을 한다.The
또한, 서버 통신부(310)는 증강현실 서비스를 제공하기 위한 각종 데이터를 송수신할 수 있다.In addition, the
연관정보 관리부(320)는 정보제공 서버(300)가 모바일 단말기(100)로부터 연관정보 제공을 요청받으면, 이미지 처리부(330)를 통해 수신한 이미지에 대한 특징점 정보를 생성하고, 이미지 판단부(340)로부터 그 특징점 정보에 기초하여 식별된 피사체에 대한 연관정보를 전달받아, 서버 통신부(310)를 통해 제공하게 된다.When the
이미지 처리부(330)는 수신된 이미지에 대한 특징점 정보를 생성하는 역할을 한다. 특징점 정보는 대상 이미지의 특징점 주변의 복수의 화소간 벡터값을 산출한 것으로서, 이를 통해 이미지의 특성을 판단할 수 있으며, 데이터베이스에 구축된 다양한 피사체들에 대한 검색정보와의 비교대상으로 이용된다.The
이를 위해, 이미지 처리부(330)는 이미지 특징점에 포함된 각 화소들의 계조값을 수치화하는 색상값 추출기(331), 각 계조값 간의 관계에 대응하여 벡터값을 산출하는 벡터 환산기(332) 를 포함할 수 있다.To this end, the
이미지 판단부(340)는 이미지 처리부(330)에 의해 해당 이미지의 특징점 정보와 데이터베이스(350)에 저장된 다수의 피사체의 이미지에 대한 특징점이 정의된 검색정보를 비교하여 동일 또는 유사범주에 속하면 그의 관련정보를 추출하게 된다. 여기서, 이미지 판단부(340)는 위치정보에 대응하여 검색정보를 우선 특정하고, 특정된 검색정보 중에서 매칭되는 피사체를 최종 선택하게 된다.The
데이터베이스(350)는 다수의 피사체에 대해 미리 산출된 특징점 정보를 포함하는 검색정보가 저장되어 있다. 이러한 데이터베이스(350)의 테이블에는 각 피사체의 식별코드, 특징점 정보, 연관정보 및 위치 데이터 등의 필드가 저장되어 있어, 피사체가 식별되면 그에 속한 연관정보가 추출되게 된다. The
즉, 본 발명에서는 하나의 피사체에 대하여 질의 이미지 및 참조 이미지가 존재할 수 있고, 현재 검색하고자 하는 질의 이미지에 대한 특징점 정보와 데이터베이스(350)에 미리 구축된 참조 이미지에 대한 특징점 정보를 서로 비교하여 해당 피사체를 식별하는 것을 특징으로 한다.That is, in the present invention, a query image and a reference image may exist for one subject, minutia information about a query image to be searched at present and minutia information about a reference image constructed in advance in the
또한, 데이터베이스(350)에는 정보제공 서버(300)의 구동을 위한 설정값 및 기타 데이터들이 저장될 수 있다.Also, in the
한편, 본 발명의 실시예에 따른 정보제공 서버(300)는 사용자의 참여를 독려하고, 이러한 구성으로서, 참여정보 수집부(360)는 다수의 모바일 단말기(100)로부터 송신되는 참여정보를 수집하는 역할을 한다. 여기서, 참여정보는 사용자들에 의해 생성된 소정의 피사체에 대한 하나 이상의 추가 이미지 및 그 피사체에 대한 관련 데이터를 포함할 수 있다. Meanwhile, the
그리고, 데이터 갱신부(370)는 수집된 참여정보를 이용하여 데이터베이스 내 정보를 갱신하는 역할을 한다. The
또한, 도시되어 있지는 않지만 정보제공 서버(300)는 다수의 사용자에 대한 회원등록, 관리 및 인증 등의 절차를 처리하는 회원 관리부를 더 포함할 수 있다.Also, although not shown, the
전술한 구조에 따라, 본 발명의 실시예에 따른 정보제공 서버는, 하나 이상의 모바일 단말기로부터 연관정보의 제공을 요청받으면, 그로부터 제공되는 이미지의 특징점 정보를 산출하고 이를 데이터베이스에 구축된 복수의 추가 이미지의 특징점 정보를 포함하는 검색정보와 비교하여 보다 정확한 영상인식을 수행하여 그 이미지에 해당하는 연관정보를 모바일 단말기에 제공할 수 있다.According to the above structure, when the information providing server according to the embodiment of the present invention is requested to provide association information from one or more mobile terminals, the information providing server calculates the minutia information of the image provided therefrom, It is possible to provide the mobile terminal with the association information corresponding to the image by performing more accurate image recognition as compared with the search information including the minutia information of the image.
이하, 도면을 참조하여 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 설명한다.Hereinafter, a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention will be described with reference to the drawings.
도 6은 본 발명의 실시예에 따른 정보제공 서버를 이용한 실외환경에서의 피사체 식별 방법을 나타낸 도면이다.6 is a view illustrating a method of identifying an object in an outdoor environment using an information providing server according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 피사체 식별 방법은 모바일 단말기와 연동하는 정보제공 서버를 이용한 피사체 식별 방법으로서, 모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계(S100), 이미지에 대한 특징점 정보를 생성하는 단계(S110), 특징점 정보를 이용하여 데이터베이스에 구축된 피사체에 대한 연관정보를 추출하는 단계(S120) 및, 추출된 연관정보를 모바일 단말기에 제공하는 단계(S130)를 포함할 수 있다.Referring to FIG. 6, a method for identifying a subject according to an exemplary embodiment of the present invention is a method for identifying a subject using an information providing server linked to a mobile terminal, the method comprising: receiving a request for providing association information using an image generated by capturing a subject from a mobile terminal (S110) generating minutia information about the image, extracting association information about the object constructed in the database using the minutia information (S120), and providing the extracted minutia information to the mobile terminal S130).
모바일 단말기로부터 피사체를 촬영하여 생성된 이미지를 이용한 연관정보의 제공을 요청받는 단계(S100)는, 정보제공 서버의 서버 통신부가 정보통신망을 통해 회원 등록된 모바일 단말기로부터 관련정보 제공을 요청받는 단계로서, 피사체를 촬영하여 생성된 이미지를 수신하게 된다. The step S100 of receiving the association information using the generated image by photographing the subject from the mobile terminal is a step in which the server communication unit of the information providing server receives a request for providing related information from the mobile terminal registered as a member through the information communication network , And receives the generated image by photographing the subject.
다음으로, 이미지에 대한 특징점 정보를 생성하는 단계(S110)는 연관정보 관리부가 수신한 이미지에 대하여 이미지 처리부를 통해 특징점 정보를 생성하는 단계이다.Next, the step of generating minutia information for the image (S110) is a step of generating minutia information through the image processing unit with respect to the image received by the related information management unit.
특히, 전술한 S110 단계는, 색상값 추출기가 이미지 특징점에 포함된 각 화소들의 계조값을 수치화하는 단계와, 벡터 환산기가 각 계조값간의 관계에 대응하여 벡터값을 산출하는 단계를 포함할 수 있다.In particular, in the above-described step S110, the color value extractor may include a step of quantizing the tone value of each pixel included in the image feature point, and a step of calculating a vector value corresponding to the relationship between the tone values of the vector converter .
이어서, 특징점 정보를 이용하여 데이터 베이스에 구축된 피사체에 대한 연관정보를 추출하는 단계(S120)는, 정보제공 서버의 이미지 판단부가 생성된 특징점 정보에 기초하여 데이터베이스를 참조함으로써, 해당 피사체를 식별하여 그에 대한 연관정보를 추출하는 단계이다.Subsequently, the step of extracting association information on the object constructed in the database using the minutia information is performed by referring to the database based on the minutia information generated by the image determination section of the information providing server, thereby identifying the corresponding object And extracting association information therefor.
추출된 연관정보를 모바일 단말기에 제공하는 단계(S130)는 연관정보 관리부가 S120 단계에서 추출된 연관정보를 서버 통신부를 통해 모바일 단말기로 제공하는 단계이다.In operation S130, the extracted association information is provided to the mobile terminal. In operation S130, the association information manager provides the association information extracted in operation S120 to the mobile terminal through the server communication unit.
한편, 도시되어 있지는 않지만 본 발명의 실시예에 따른 실외환경에서의 피사체 식별 방법에서는 회원 가입된 다수의 사용자들의 참여에 따라, 모바일 단말기가 사용자로부터 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하는 단계, 모바일 단말기로부터 참여정보를 수신하는 단계, 참여정보가 수신되면, 참여정보를 사용자별로 수집하는 단계 및, 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 데이터베이스 내 연관정보를 갱신하는 단계를 포함할 수 있다.Meanwhile, although not shown, in the method of identifying an object in an outdoor environment according to an exemplary embodiment of the present invention, a mobile terminal receives additional images and data related to a subject from a user in accordance with participation of a plurality of registered users, The method includes the steps of: generating association information from a mobile terminal; collecting participation information for each user when participation information is received; updating association information in the database using one or more additional images and data included in the participation information; .
또한, 시스템 설정자는 적극적으로 사용자들의 참여를 독려하고, 혜택을 주기 위해, 참여횟수 등에 따라 가상의 포인트를 부여할 수 있다.In addition, the system configurator can actively encourage the participation of users and give virtual points according to the number of participation, etc. in order to benefit.
전술한 단계에 따라, 다수의 모바일 단말기에 증강현실 서비스를 제공하되, 그로부터 촬영된 이미지의 특징점 정보를 통해 다수의 참조 이미지에 의한 영상인 절차를 수행하여 각 모바일 단말기에 증강현실 서비스를 제공하게 된다.According to the above-described steps, the augmented reality service is provided to a plurality of mobile terminals, and the augmented reality service is provided to each mobile terminal by performing a procedure that is an image based on a plurality of reference images through the feature point information of an image photographed therefrom .
이하, 도면을 참조하여 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스를 이용한 영상인식 방법을 설명한다.Hereinafter, an image recognition method using an image processing unit and a database according to an embodiment of the present invention will be described with reference to the drawings.
도 7a 내지 도 7c는 본 발명의 실시예에 따른 이미지 처리부 및 데이터베이스의 영상인식 방법을 설명하기 위한 도면이다.7A to 7C are views for explaining an image recognition method of an image processing unit and a database according to an embodiment of the present invention.
도 7a 내지 도 7c를 참조하면, 본 발명의 실시예에 따르면 하나의 피사체(5)에 대하여 다수의 방향에서 촬영된 다수의 참조 이미지(a,b,c)를 이용하여 특징점 정보를 산출하고 이를 이용하여 데이터베이스를 구축할 수 있다.7A to 7C, according to an embodiment of the present invention, feature point information is calculated using a plurality of reference images (a, b, c) photographed in a plurality of directions with respect to one
모바일 단말기에서 수신한 질의 이미지는 정면방향 뿐만 아니라, 좌우측 방향에서 촬영되거나 주변상황에 따라 외부광에 의한 왜곡과, 눈 또는 비 등의 날씨에 따른 가려짐이 발생할 수 있으며, 이에 좌측방향 이미지(a) 뿐만 아니라 정면방향 이미지(b) 및 왜곡이 발생한 이미지(c) 등을 수집하고, 이미지 처리부가 각 참조 이미지(a,b,c)들에 포함된 특징점 주변 화소들의 색상변화에 따른 벡터값을 산출하며 이에 기초하여 특징점 정보를 생성하여 데이터베이스를 구축하게 된다. The query image received by the mobile terminal may be photographed not only in the front direction but also in the right and left directions, or may be distorted due to external light and occluded due to weather such as snow or rain depending on the surrounding situation. (A), (b), (c), and the like, and the image processing unit obtains a vector value corresponding to the color change of the pixels around the feature point included in each of the reference images And generates minutia information based on the generated minutia information.
특히, 본 발명의 실시예에서 이용되는 특징점 정보는 해당 참조 이미지에 등장하는 하나 이상의 특징점에 대한 벡터값으로 이루어진다.In particular, the feature point information used in the embodiment of the present invention is made up of vector values for one or more feature points appearing in the reference image.
일 예로서, 복수의 상점 각각에 대한 간판의 특징점 정보를 데이터베이스에 등록한다고 했을 때, 상점당 하나의 참조 이미지 대한 특징점 정보를 등록할 때보다, N(N은 2 이상의 자연수)장의 참조 이미지에 대한 특징점 정보를 등록하게 되면, 데이터베이스의 크기도 N배로 늘어나게 되며, 이는 탐색방식으로 동작하는 영상인식 기술의 성능 측면에서 볼 때, 탐색 시간이 더 지연되고, 그 탐색 정확도가 더 낮아진다는 단점을 가지게 된다.For example, when the minutia information of a signboard for each of a plurality of stores is registered in the database, it is preferable that N (N is a natural number of 2 or more) When the minutia information is registered, the size of the database is increased by N times. In view of the performance of the image recognition technology operating in the search mode, the search time is further delayed and the search accuracy is lowered .
이러한 단점을 개선하기 위해, 본 발명의 실시예에서는 복수의 참조 이미지에 대하여 재현성(Repeatability)이 높은 특징점과, 변별력(distinctiveness)이 좋은 특징점 만을 특정점 정보로서 이용하게 된다.In order to solve such a disadvantage, in the embodiment of the present invention, a feature point having a high repeatability and a feature point having a good distinctiveness are used as specific point information for a plurality of reference images.
전술한 재현성이란 특정 특징점이 서로 다른 영상일지라도 동일한 위치에서 검출될 확률을 가리키는 것으로 높을수록 탐색에 유리하며, 변별력은 특정 특징점이 다른 특징점들과 큰 차이를 갖는 특성으로서 클수록 탐색에 유리하다는 것을 나타낸다.The reproducibility described above is advantageous for the search as the probability that the specific feature points are detected at the same position even if they are different from each other, and the discrimination power indicates that the feature point having a large difference from the other feature points is advantageous for the search.
상세하게는, 도 7a를 참조하면, 데이터베이스에 저장되는 참조 이미지의 특징점 정보는 해당 피사체에 대한 다양한 환경에서 촬영된 복수의 참조 이미지(a, b, c)에 포함되는 특징점을 이용하게 되는데, 복수의 참조 이미지(a, b, c)는 촬영 환경이 서로 상이하더라도 공통적으로 나타나는 재현성이 높은 벡터값(F1)이 존재하며, 그 벡터값(F1)은 특징점 정보로 이용하게 된다.7A, feature point information of a reference image stored in a database uses feature points included in a plurality of reference images (a, b, c) photographed in various environments for the subject, There is a highly reproducible vector value F1 that is common to the reference images a, b, and c, even though the imaging environments are different from each other. The vector value F1 is used as the feature point information.
또한, 하나의 피사체에 대한 복수의 참조 이미지(a, b, c)의 특징점 중, 특정 벡터값(F2)은 타 참조 이미지(b, c) 뿐만 아니라, 다른 피사체에 대한 참조 이미지에서도 나타나지 않는다고 하면, 이러한 공통되지 않은 벡터값은 변별력이 높은 유일한 값으로서 해당 피사체를 식별하는 데 활용활 수 있으므로, 본 발명의 실시예에서는 그러한 변별력이 좋은 벡터값(F2)을 상기 공통 벡터값과 더불어 특징점 정보로 이용하게 된다.Assuming that a specific vector value F2 among the minutiae points of a plurality of reference images a, b, and c for one object does not appear in the reference images for other objects as well as the other reference images b and c Since these non-common vector values can be used to identify the subject as a unique value having a high discriminating power, in the embodiment of the present invention, such a vector value F2 having such good discriminating power is used as minutia information .
그러나, 복수의 참조 이미지(a, b, c)의 특징점 중, 특정 벡터값(F3)은 타 참조 이미지(a, c)에는 나타나지 않으나, 다른 피사체에 대한 참조 이미지에는 나타난다고 하면, 이러한 벡터값(F3)은 재현성도 낮고 변별력도 낮은 값으로 판단됨에 따라 특징점 정보로 이용하지 않으며, 데이터베이스에 반영되지 않게 된다.However, if the specific vector value F3 among the minutiae points of the plurality of reference images a, b and c does not appear in the other reference images a and c but appears in the reference image for the other object, (F3) has low reproducibility and low discrimination power, it is not used as minutia information and is not reflected in the database.
따라서, 불필요한 벡터값(F3)을 제외하고, 피사체를 식별하는 데 요구되는 기본이 되는 데이터인 특징점(F1)와, 탐색성능을 향상시키기 위한 특징점(F2)을 이용하여 효율적인 데이터베이스를 구축하게 된다.Therefore, an efficient database is constructed by using the minutiae point F1, which is the basic data required to identify the subject, and the minutiae F2 to improve the search performance, except for the unnecessary vector value F3.
도 7b를 참조하면, 일예로서 이미지 처리부의 색상값 추출기는 각 참조 이미지 특징점 주변 화소들의 색상에 대하여 이미지의 표현력에 따라 8 bit의 경우 256 계조값으로 수치화하여 색상 매트릭스(MT)를 구성한다. Referring to FIG. 7B, as an example, the color value extractor of the image processing unit constructs a color matrix (MT) by digitizing the colors of the pixels around each reference image feature point into 256 tone values in the case of 8 bits according to the image expression power.
이러한 색상매트릭스(MT)에서 흑색은 O 계조, 백색은 255 계조로 표시될 수 있으며, 색상의 변화를 확인할 수 있다.In this color matrix (MT), black can be displayed in O gradation and white can be displayed in 255 gradation, and color change can be confirmed.
또한, 벡터 환산기는 색상매트릭스(MT)의 계조값의 변화량을 이용하여 벡터값을 산출하고, 이 벡터값 자체가 특징점 정보이며, 이 정보는 특징점 패턴을 나타내게 되며, 이를 이용하면 다양한 형태의 이미지(a,b,c)들을 이용하여 하나의 피사체(5)를 식별할 수 있게 된다.Also, the vector converter calculates a vector value by using the amount of change of the tone value of the color matrix (MT). The vector value itself is the minutia information, and this information represents the minutia point pattern. a, b, c of the subject 5 to identify one
도 7c는 전술한 특징점 정보를 이용한 데이터베이스의 검색정보의 테이블(T) 구조를 예시한 것으로, 검색정보로서 하나의 피사체에 대한 테이블(T)은 피사체의 식별코드(ID), 특징점 데이터(Feature data), 연관 데이터(Relation data) 및 위치 데이터(Location data) 등의 필드를 포함할 수 있고, 이미지 판단부는 위치 데이터의 좌표값을 참조하여 식별코드를 우선 특정하고, 질의 이미지의 특징점 정보에 포함된 벡터값과, 특정된 특징점 데이터의 벡터값(V1,V2,...)을 비교하여 최종 식별코드를 판단하고, 연관 데이터를 추출하게 된다. 7C illustrates a table (T) structure of search information of a database using the above-described minutia information. As a search information, a table T for one object includes an identification code (ID) of a subject, feature data ), Association data (Relation data), and location data (Location data), and the image determination unit specifies the identification code with reference to the coordinate value of the position data, The vector value is compared with the vector values (V1, V2, ...) of the specified minutia data to determine the final identification code, and the associated data is extracted.
이하, 본 발명의 실시예에 따른 모바일 단말기에 설치되는 어플리케이션 프로그램의 실행에 따라 표시되는 화면의 일 예를 통해 본 발명의 기술적 사상을 설명한다.Hereinafter, the technical idea of the present invention will be described with reference to an example of a screen displayed according to execution of an application program installed in a mobile terminal according to an embodiment of the present invention.
도 8a 및 도 8b는 본 발명의 실시예에 따른 모바일 단말기의 어플리케이션 프로그램이 제공하는 화면의 일 예를 나타낸 도면이다.8A and 8B are views showing an example of a screen provided by the application program of the mobile terminal according to the embodiment of the present invention.
도 8a 및 도 8b를 참조하면, 본 발명의 실시예에 따른 모바일 단말기(100)는 사용자의 조작에 따라 어플리케이션 프로그램이 실행되면, 모바일 단말기(100)내 탑재된 카메라 모듈(미도시)을 통해 일 방향을 실시간으로 촬영하며 이미지를 생성할 수 있고, 사용자는 자신의 원하는 상점 또는 건물 등(4)에 설치된 간판(5)을 피사체로서 촬영하여 증강현실 서비스를 제공받을 수 있다.8A and 8B, when an application program is executed according to an operation of a user, the
여기서, 어플리케이션 프로그램은 현재 촬영을 수행하고 있는 위치정보와, 촬영에 따른 이미지를 정보제공 서버에 송신하여 연관정보를 요청하게 되고, 정보제공 서버는 그 위치정보에 따라 검색대상을 우선 특정하여 특징점 정보를 비교함으로써 간판(5)을 식별하여 연관정보를 제공한다. 이때, 모바일 단말기(100)가 수신한 연관정보는 화면(W100)의 일측에 알림창(W101) 또는 덧입혀진 형태로 표시될 수 있다.Here, the application program sends the location information that is currently being photographed and the image of the photographing to the information providing server to request the association information. The information providing server specifies the search target first according to the location information, To identify the
또한, 본 발명의 실시예에 따르면, 사용자는 화면(W100)의 일측에 표시되는 사용자 참여 아이콘(W102)의 선택을 통해 증강현실 서비스에 참여할 수 있다. 사용자 참여 아이콘(W102)이 선택되면, 도 8b에 도시된 바와 같이 모바일 단말기(100)에는 사용자 참여화면(W110)이 표시될 수 있다.Also, according to the embodiment of the present invention, the user can participate in the augmented reality service through selection of the user participation icon W102 displayed on one side of the screen W100. When the user participation icon W102 is selected, the user participation screen W110 may be displayed on the
사용자 참여화면(W110)은 모바일 단말기(100)를 통해 해당 상점에 대한 하나 이상의 이미지를 추가하는 업로드창(W111)과, 해당 간판(5)의 업체와 관련된 정보를 텍스트 형태로 입력할 수 있는 입력창(W112)을 포함할 수 있다.The user participation screen W110 includes an upload window W111 for adding one or more images of the shop through the
사용자는 자신의 모바일 단말기(100)를 이용하여 입력창(W112)을 통해 해당 업체와 관련된 개인의견, 후기 및 기타정보 등을 입력할 수 있다.The user can input personal opinions, reviews, and other information related to the company through the input window W112 using the
모바일 단말기(100)는 상기 사용자 참여화면(W110)을 통해 업로드되거나 입력된 내용을 반영하여 참여정보를 생성하고, 정보제공 서버로 송신하게 된다. The
상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.While a great many are described in the foregoing description, it should be construed as an example of preferred embodiments rather than limiting the scope of the invention. Accordingly, the invention is not to be determined by the embodiments described, but should be determined by equivalents to the claims and the appended claims.
100 : 모바일 단말기 110 : 카메라 모듈
120 : GPS 모듈 130 : 통신모듈
140 : 입력모듈 150 : 출력모듈
160 : 메모리 170 : AP
200 : 어플리케이션 프로그램 210 : 이미지 획득부
220 : 위치판단부 230 : 단말 통신부
240 : 인터페이스 제공부 250 : 연관정보 제공부
270 : 사용자 참여부 300 : 정보제공 서버
310 : 서버 통신부 320 : 연관정보 생성부
330 : 이미지 처리부 340 : 이미지 판단부
350 : 데이터베이스 360 : 참여정보 수집부
370 : 데이터 갱신부100: mobile terminal 110: camera module
120: GPS module 130: Communication module
140: input module 150: output module
160: memory 170: AP
200: Application program 210: Image acquisition unit
220: position determination unit 230: terminal communication unit
240: interface providing unit 250: related information providing service
270: user participation unit 300: information providing server
310: server communication unit 320: association information generation unit
330: Image processing unit 340:
350: Database 360: Participation information collecting section
370:
Claims (9)
정보통신망을 통해 상기 모바일 단말기로부터 상기 연관정보를 요청 받으면, 상기 이미지에 대한 특징점 정보를 산출하고, 상기 특징점 정보와, 데이터베이스에 구축된 시간, 날씨, 조명 및 각도 중, 어느 하나가 서로 다른 환경에서 촬영된 복수의 피사체가 갖는 복수의 특징점 중 공통적으로 나타나거나, 복수의 피사체가 갖는 복수의 특징점 중, 유일하게 나타나는 하나 이상의 특징점 정보를 포함하는 검색정보를 비교함으로써 상기 피사체에 대한 연관정보를 추출하여 상기 모바일 단말기에 제공하는 정보제공 서버를 포함하고,
상기 정보제공 서버는,
상기 모바일 단말기와 데이터를 송수신하는 서버 통신부;
상기 모바일 단말기로부터 수신되는 이미지 및 위치정보에 대응하여 연관정보를 생성 및 제공하는 연관정보 관리부;
상기 이미지의 색상변화를 벡터값으로 변환하고, 상기 벡터값에 기반하여 상기 특징점 정보를 생성하는 이미지 처리부;
상기 특징점 정보와, 다수의 참조 이미지를 이용하여 생성한 검색정보를 비교하여 상기 피사체에 대한 연관정보를 추출하는 이미지 판단부; 및
상기 검색정보가 저장된 데이터베이스를 포함하고,
상기 이미지 처리부는,
상기 이미지에 포함된 각 화소들의 계조값을 수치화하여 색상 매트릭스를 구성하는 색상값 추출기; 및
상기 색상 매트릭스의 계조값의 변화량을 이용하여 상기 벡터값을 산출하는 벡터 환산기를 포함하고,
상기 검색정보의 테이블은 피사체의 식별코드, 특징점 정보, 연관 데이터 및 위치 데이터의 필드를 포함하고,
상기 이미지 판단부는,
위치 데이터의 좌표값을 참조하여 식별코드를 특정하고, 질의 이미지의 특징점 정보에 포함된 벡터값과 특정된 특징점 정보의 벡터값을 비교하여 최종 식별코드를 판단하여 연관정보를 추출하는 실외환경에서의 피사체 식별 시스템.At least one mobile terminal installed with an application program for photographing a subject to generate an image, and requesting association information on the subject using the image; And
The method includes the steps of: calculating minutia information of the image when receiving the association information from the mobile terminal through an information communication network; and storing the minutia information in an environment in which one of time, weather, Associating information on the subject is extracted by comparing search information that is commonly displayed among a plurality of feature points of a plurality of photographed subjects or that includes one or more minutiae information that is uniquely displayed among a plurality of feature points of a plurality of subjects And an information providing server provided to the mobile terminal,
The information providing server,
A server communication unit for transmitting and receiving data to and from the mobile terminal;
An association information management unit for generating and providing association information corresponding to image and position information received from the mobile terminal;
An image processing unit for converting the color change of the image into a vector value and generating the minutia information based on the vector value;
An image determining unit for comparing the minutiae information with search information generated using a plurality of reference images and extracting association information for the subject; And
And a database in which the retrieval information is stored,
Wherein the image processing unit comprises:
A color value extractor for forming a color matrix by digitizing the tone values of the pixels included in the image; And
And a vector converter for calculating the vector value using a change amount of the tone value of the color matrix,
Wherein the table of search information includes a field of an object identification code, minutia information, association data, and position data,
The image judging unit judges,
The identification code is identified by referring to the coordinate value of the position data, the vector value included in the minutia information of the query image is compared with the vector value of the specified minutia information, and the final identification code is determined to extract the association information. Object identification system.
상기 모바일 단말기는,
일 방향에 위치한 상기 피사체를 촬영하여 상기 이미지를 생성하는 카메라 모듈;
외부의 GPS 시스템으로부터 GPS 신호를 수신하는 GPS 모듈;
정보통신망을 통해 상기 정보제공 서버에 접속하여 상기 이미지 및 위치정보를 송신하고, 상기 연관정보를 수신하는 통신모듈;
상기 어플리케이션 프로그램의 실행 시, 사용자에 의한 조작을 입력받는 입력모듈;
상기 이미지 및 어플리케이션 프로그램의 실행화면을 표시하는 출력모듈;
상기 어플리케이션 프로그램이 기록되는 메모리; 및
상기 어플리케이션 프로그램을 실행하는 AP
를 포함하는 실외환경에서의 피사체 식별 시스템.The method according to claim 1,
The mobile terminal comprises:
A camera module for photographing the subject located in one direction and generating the image;
A GPS module for receiving a GPS signal from an external GPS system;
A communication module for accessing the information providing server through an information communication network, transmitting the image and position information, and receiving the association information;
An input module that receives an operation by a user when the application program is executed;
An output module for displaying an execution screen of the image and the application program;
A memory in which the application program is recorded; And
The AP executing the application program
Wherein the object identification system comprises:
상기 어플리케이션 프로그램은,
상기 카메라 모듈로부터 이미지를 획득하는 획득부;
상기 GPS 모듈로부터 상기 GPS 신호를 획득하고, 상기 GPS 신호에 대응하여 상기 이미지가 획득된 위치정보를 생성하는 위치 판단부;
상기 통신모듈을 통해 상기 정보제공 서버와 데이터를 송수신하는 단말 통신부;
사용자의 조작을 입력받고, 실행화면을 제공하는 인터페이스 제공부; 및
상기 단말 통신부로부터 수신한 연관정보를 상기 실행화면 내 증강현실 방식으로 추가하는 연관정보 제공부
를 포함하는 실외환경에서의 피사체 식별 시스템.3. The method of claim 2,
The application program includes:
An acquiring unit acquiring an image from the camera module;
A position determination unit for obtaining the GPS signal from the GPS module and generating position information on which the image is acquired in correspondence with the GPS signal;
A terminal communication unit for transmitting and receiving data to and from the information providing server through the communication module;
An interface providing unit for receiving a user's operation and providing an execution screen; And
An associative information providing unit for associating the association information received from the terminal communication unit with the in-
Wherein the object identification system comprises:
상기 어플리케이션 프로그램은,
상기 카메라 모듈에 요청하여 사용자로부터 상기 피사체와 관련된 추가 이미지 및 데이터를 입력받아 참여정보를 생성하고, 상기 정보제공 서버에 제공하는 사용자 참여부
를 더 포함하는 실외환경에서의 피사체 식별 시스템.The method of claim 3,
The application program includes:
A user participation module for requesting the camera module to receive additional images and data related to the subject from a user to generate participation information,
Further comprising: an object recognition system for identifying an object in an outdoor environment.
상기 정보제공 서버는,
상기 모바일 단말기로부터 참여정보가 수신되면, 상기 참여정보를 사용자별로 수집하는 참여정보 수집부; 및
상기 참여정보에 포함된 하나 이상의 추가 이미지 및 데이터를 이용하여 상기 데이터베이스 내 검색정보를 갱신하는 데이터 갱신부
를 더 포함하는 실외환경에서의 피사체 식별 시스템.
5. The method of claim 4,
The information providing server,
A participation information collection unit for collecting the participation information for each user when the participation information is received from the mobile terminal; And
A data update unit for updating search information in the database using one or more additional images and data included in the participation information,
Further comprising: an object recognition system for identifying an object in an outdoor environment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170033616A KR101920465B1 (en) | 2017-03-17 | 2017-03-17 | System and method for object identification in outdoor environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170033616A KR101920465B1 (en) | 2017-03-17 | 2017-03-17 | System and method for object identification in outdoor environment |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180106055A KR20180106055A (en) | 2018-10-01 |
KR101920465B1 true KR101920465B1 (en) | 2018-11-20 |
Family
ID=63876990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170033616A KR101920465B1 (en) | 2017-03-17 | 2017-03-17 | System and method for object identification in outdoor environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101920465B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100651826B1 (en) | 2005-12-21 | 2006-12-01 | 주식회사 팬택 | Method and apparatus for executing function by recognizing partial image in portable set having camera |
KR101176743B1 (en) * | 2011-02-23 | 2012-08-23 | 숭실대학교산학협력단 | Apparatus and method for recognizing object, information content providing apparatus and information content managing server |
JP2014059710A (en) * | 2012-09-18 | 2014-04-03 | Toshiba Corp | Object detection device and object detection method |
-
2017
- 2017-03-17 KR KR1020170033616A patent/KR101920465B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100651826B1 (en) | 2005-12-21 | 2006-12-01 | 주식회사 팬택 | Method and apparatus for executing function by recognizing partial image in portable set having camera |
KR101176743B1 (en) * | 2011-02-23 | 2012-08-23 | 숭실대학교산학협력단 | Apparatus and method for recognizing object, information content providing apparatus and information content managing server |
JP2014059710A (en) * | 2012-09-18 | 2014-04-03 | Toshiba Corp | Object detection device and object detection method |
Also Published As
Publication number | Publication date |
---|---|
KR20180106055A (en) | 2018-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10360479B2 (en) | Device and method for processing metadata | |
CN111046744B (en) | Method and device for detecting attention area, readable storage medium and terminal equipment | |
US10163267B2 (en) | Sharing links in an augmented reality environment | |
CN109189879B (en) | Electronic book display method and device | |
US9235733B2 (en) | Mobile biometrics information collection and identification | |
CN109582880B (en) | Interest point information processing method, device, terminal and storage medium | |
CN112036331B (en) | Living body detection model training method, device, equipment and storage medium | |
EP2003611A9 (en) | Information presentation system, information presentation terminal, and server | |
CN111737547A (en) | Merchant information acquisition system, method, device, equipment and storage medium | |
US20180268453A1 (en) | Composite image generation | |
US10748000B2 (en) | Method, electronic device, and recording medium for notifying of surrounding situation information | |
KR101768914B1 (en) | Geo-tagging method, geo-tagging apparatus and storage medium storing a program performing the method | |
CN113822263A (en) | Image annotation method and device, computer equipment and storage medium | |
JP6047939B2 (en) | Evaluation system, program | |
CN111353513B (en) | Target crowd screening method, device, terminal and storage medium | |
KR101920465B1 (en) | System and method for object identification in outdoor environment | |
CN113269730B (en) | Image processing method, image processing device, computer equipment and storage medium | |
KR20220150060A (en) | platform that provides company matching services based on user information and provides security services for them | |
KR101825742B1 (en) | Providing method for fishing content information using the internet and communication appliances | |
CN110516717A (en) | Method and apparatus for generating image recognition model | |
JP2014016843A (en) | Evaluation system and program | |
KR102488953B1 (en) | System for providing pre-owned luxury checking service using colorbook | |
WO2023053317A1 (en) | Image matching apparatus, control method, and non-transitory computer-readable storage medium | |
KR20080036231A (en) | Information presenting system, information presenting terminal, and server | |
CN115222432A (en) | Method, device and equipment for generating health degree index and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |