KR102388230B1 - Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor - Google Patents

Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR102388230B1
KR102388230B1 KR1020210090749A KR20210090749A KR102388230B1 KR 102388230 B1 KR102388230 B1 KR 102388230B1 KR 1020210090749 A KR1020210090749 A KR 1020210090749A KR 20210090749 A KR20210090749 A KR 20210090749A KR 102388230 B1 KR102388230 B1 KR 102388230B1
Authority
KR
South Korea
Prior art keywords
information
representative
image
virtual space
unit
Prior art date
Application number
KR1020210090749A
Other languages
Korean (ko)
Other versions
KR20210092707A (en
Inventor
나승원
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020210090749A priority Critical patent/KR102388230B1/en
Publication of KR20210092707A publication Critical patent/KR20210092707A/en
Application granted granted Critical
Publication of KR102388230B1 publication Critical patent/KR102388230B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

본 발명은 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로서, 더욱 상세히는 객체에 대하여 다각도에서 촬영한 이미지 각각에 대한 특징을 추출하여 저장하고, 해당 특징을 기초로 사용자가 질의하는 객체에 대한 정확한 인식을 통해 객체 관련 정보를 제공하는 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다. 본 발명은 실제 촬영된 대표 이미지 뿐만 아니라 대표 이미지를 기준으로 보간된 보간 이미지로부터 추출된 특징정보를 추가적으로 이용하여 사용자가 객체의 질의를 위해 생성한 쿼리이미지로부터 추출된 특징정보와 비교함으로써, 쿼리이미지에 대응되는 객체의 인식 범위를 넓힐 수 있으며 이를 통해 객체 인식 정확도를 크게 높여 객체와 관련된 정보 제공의 정확도 및 신뢰도를 높이는 효과가 있다.The present invention relates to a system and method for providing an object recognition service, an apparatus for the same, and a computer program recorded thereon. To a system and method for providing object recognition service that provides object-related information through accurate recognition of an object that a user queries based on, and an apparatus and a computer program therefor are recorded. The present invention compares the feature information extracted from the query image generated by the user for querying the object by additionally using the feature information extracted from the interpolated image interpolated based on the representative image as well as the actual photographed representative image. It is possible to broaden the recognition range of an object corresponding to

Description

객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체{Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor}An object recognition service providing system and method, and an apparatus and a computer program recorded therefor, TECHNICAL FIELD

본 발명은 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로서, 더욱 상세히는 객체에 대하여 다각도에서 촬영한 이미지 각각에 대한 특징을 추출하여 저장하고, 해당 특징을 기초로 사용자가 질의하는 객체에 대한 정확한 인식을 통해 객체 관련 정보를 제공하는 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to a system and method for providing an object recognition service, an apparatus for the same, and a computer program recorded thereon. To a system and method for providing object recognition service that provides object-related information through accurate recognition of an object that a user queries based on, and an apparatus and a computer program therefor are recorded.

이미지 프로세스의 발전과 더불어 객체의 정확한 인식을 통해 객체와 관련된 다양한 정보를 제공하는 서비스가 다양하게 등장하고 있다. 이와 같은 서비스는 주로 다수의 객체에 대한 정보를 저장하며, 수많은 객체 중에서 사용자가 질의하는 객체를 다른 객체와 구분하는 것이 요구되기 때문에 객체 인식의 정확도를 높이는 것이 무엇보다 중요하다.With the development of the image process, various services that provide various information related to objects through accurate recognition of objects are emerging. Such a service mainly stores information about a number of objects, and since it is required to distinguish an object that a user queries from among many objects, it is most important to increase the accuracy of object recognition.

기존의 객체 인식 프로세스는 2차원적인 이미지에 한정하여 단순 이미지 비교를 통해 객체를 구분하는 방식이 대부분이므로, 서비스 제공자 측에 저장된 이미지와 사용자가 질의하는 이미지의 촬영각도가 상이한 경우 객체의 인식 정확도가 하락하며, 이에 따라 객체 관련 정보를 정확히 제공하는데 어려움이 있다.The existing object recognition process is limited to two-dimensional images and mostly uses a method of classifying objects through simple image comparison. As it declines, it is difficult to accurately provide object-related information.

따라서, 사용자가 질의하는 객체에 대한 정확한 인식을 통해 객체 관련 정보제공에 대한 정확도를 높이기 위한 대안이 요구되고 있다.Accordingly, there is a demand for an alternative for improving the accuracy of providing object-related information through accurate recognition of the object the user is querying.

한국공개특허 제10-2011-0136028호 [발명의 명칭: 가상 점을 통해 객체를 인식하는 증강현실 장치]Korean Patent Laid-Open Patent No. 10-2011-0136028 [Title of the invention: Augmented reality device for recognizing objects through virtual dots]

본 발명은 다수의 각도에서 촬영된 객체의 특징정보를 저장하고, 사용자가 질의하는 객체에 대한 특징정보와 상호 비교하여 일치하는 특징정보를 기초로 객체를 식별하며, 다수의 각도에서 촬영된 객체의 특징정보를 기초로 특정 각도에서 유추되는 객체의 특징정보를 생성하여 저장함으로써 사용자가 질의하는 객체의 인식 정확도를 높이도록 하는데 그 목적이 있다.The present invention stores characteristic information of an object photographed from a plurality of angles, compares it with characteristic information about an object that a user queries, and identifies an object based on matching characteristic information, The purpose of this is to increase the recognition accuracy of the object inquired by the user by generating and storing the characteristic information of the object inferred from a specific angle based on the characteristic information.

또한, 본 발명은 사용자가 질의하는 객체에 대한 이미지로부터 추출된 특징정보와 일치하는 미리 저장된 특징정보가 존재하지 않는 경우 사용자 장치의 촬영각도를 조정하도록 유도하여 미리 저장된 특징정보에 대응되는 각도와 일치시켜 매칭이 이루어지도록 함으로써 객체 인식 정확도를 높이는데 그 목적이 있다.In addition, the present invention induces the user to adjust the shooting angle of the user device when there is no pre-stored feature information that matches the feature information extracted from the image for the object the user is querying to match the angle corresponding to the pre-stored feature information The purpose of this is to increase the object recognition accuracy by allowing matching to occur.

본 발명의 실시예에 따른 객체 인식 서비스 제공 장치는 영상으로부터 특징정보를 추출하는 객체 특징 추출부, 객체에 대하여 대표각도에서 촬영된 하나 이상의 대표 이미지와 객체 특징 추출부를 통해 각 대표 이미지에 대하여 추출된 대표 특징정보를 객체 관련 정보에 매칭하여 저장하는 제 1 저장부, 제 1 저장부의 각 대표 이미지를 기준으로 가상 공간 상에 매핑되는 보간 이미지를 생성하고, 보간 이미지로부터 객체 특징 추출부를 통해 보간 특징정보를 생성하는 가상공간 매핑부, 가상공간 매핑부가 생성한 보간 이미지와 보간 특징정보를 객체 관련 정보와 매칭하여 저장하는 제 2 저장부 및 사용자 장치로부터 객체의 촬영에 따른 쿼리 이미지를 수신하고, 쿼리 이미지로부터 특징을 추출하여 제 1 저장부와 비교한 후 미리 설정된 기준치 이상 일치되는 대표 특징정보에 매칭된 객체 관련 정보를 제공하며, 기준치 이상 일치되는 대표 특징정보가 없는 경우 제 2 저장부와 비교하여 기준치 이상 일치되는 보간 특징정보에 매칭된 객체 관련 정보를 제공하는 비교부를 포함할 수 있다.The object recognition service providing apparatus according to an embodiment of the present invention includes an object feature extracting unit for extracting feature information from an image, one or more representative images photographed at a representative angle with respect to the object, and an object feature extracting unit extracted for each representative image. A first storage unit that matches and stores representative characteristic information with object-related information, generates an interpolated image mapped on a virtual space based on each representative image of the first storage unit, and interpolates characteristic information from the interpolated image through an object characteristic extraction unit Receives a query image according to the shooting of an object from the virtual space mapping unit generating After extracting a feature from the first storage unit and comparing it with the first storage unit, object-related information matched with representative characteristic information matching more than a preset reference value is provided. It may include a comparator for providing object-related information matched to the interpolation characteristic information that matches the above.

본 발명과 관련된 일 예로서, 가상공간 매핑부는 대표 이미지의 대표 각도에 대응되는 가상공간의 위치정보를 상호 매핑시켜 대표 이미지를 가상 공간 상에 모델링하는 것을 특징으로 할 수 있다.As an example related to the present invention, the virtual space mapping unit may be characterized in that the representative image is modeled in the virtual space by mapping the position information of the virtual space corresponding to the representative angle of the representative image.

본 발명과 관련된 일 예로서, 가상공간 매핑부는 가상공간 상의 모델링된 각 대표 이미지의 위치정보를 기초로 가상공간 상에서 서로 다른 대표 이미지 사이에 매핑되어 서로 다른 대표 이미지 사이를 보간하는 보간 이미지를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the virtual space mapping unit is mapped between different representative images in a virtual space based on position information of each modeled representative image in the virtual space to generate an interpolated image that interpolates between different representative images. can be characterized as

본 발명과 관련된 일 예로서, 비교부는 제 1 및 제 2 저장부를 통해 미리 설정된 기준치 이상 일치되는 특징정보가 없는 경우 가상공간 매핑부와 연동하여 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 제 1 및 제 2 저장부 중 어느 하나에 저장된 특징정보를 추출하고, 추출된 특징정보에 대응되는 대표 또는 보간 이미지에 대한 가상공간 상의 위치정보와 쿼리 이미지에 대한 가상공간 상의 위치정보의 차이를 연산하여 차이에 따른 이동정보를 생성한 후 사용자 장치로 전송하는 것을 특징으로 할 수 있다.As an example related to the present invention, when there is no feature information that matches a preset reference value or more through the first and second storage units, the comparison unit works with the virtual space mapping unit to obtain a first query image whose similarity with object feature information of the query image is greater than or equal to a preset value. Extracting the feature information stored in any one of the first and second storage units, calculating the difference between the location information on the virtual space for the representative or interpolated image corresponding to the extracted feature information and the location information on the virtual space for the query image After generating the movement information according to the difference, it may be characterized in that it is transmitted to the user device.

본 발명과 관련된 일 예로서, 비교부는 쿼리이미지의 촬영각도에 대한 각도정보를 수신하여 가상공간 상의 위치정보와 매핑시킨 후 쿼리이미지에 대한 위치정보를 생성하며, 가상공간 상에서 쿼리이미지의 위치정보를 추출된 특징정보에 대응되는 대표 또는 보간 이미지의 위치정보와 일치시키기 위한 이동방향 및 이동거리에 대한 이동정보를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the comparator receives angle information about the shooting angle of the query image, maps it with location information in a virtual space, generates location information for the query image, and compares the location information of the query image in the virtual space. It may be characterized in that the movement information for the movement direction and movement distance to match the position information of the representative or interpolated image corresponding to the extracted feature information is generated.

본 발명의 실시예에 따른 객체 인식 서비스 제공을 위한 사용자 장치는 객체에 대한 영상을 촬영하는 카메라부, 카메라부로부터 촬영된 영상에 대한 특징정보를 추출하는 객체 특징 추출부, 객체에 대하여 하나 이상의 대표각도에서 촬영된 하나 이상의 대표 이미지와 객체 특징 추출부를 통해 각 대표 이미지로부터 추출된 대표 특징정보를 객체 관련 정보와 매칭하여 저장하는 제 1 저장부, 제 1 저장부의 대표 이미지를 기준으로 가상 공간 상에 매핑되는 하나 이상의 보간 이미지를 생성하고, 각 보간 이미지로부터 객체 특징 추출부를 통해 보간 특징정보를 생성하는 가상공간 매핑부, 가상공간 매핑부가 생성한 보간 이미지와 보간 특징정보를 객체 관련 정보와 매칭하여 저장하는 제 2 저장부 및 카메라부로부터 객체의 촬영에 따른 쿼리 이미지를 수신하고, 쿼리 이미지로부터 객체 특징 추출부를 통해 특징을 추출하여 제 1 저장부와 비교한 후 미리 설정된 기준치 이상 일치되는 대표 특징정보에 매칭된 객체 관련 정보를 제공하며, 기준치 이상 일치되지 않는 경우 제 2 저장부와 비교하여 기준치 이상 일치되는 보간 특징정보에 매칭된 객체 관련 정보를 제공하는 비교부를 포함할 수 있다.A user device for providing an object recognition service according to an embodiment of the present invention includes a camera unit for photographing an image of an object, an object feature extraction unit for extracting characteristic information about an image photographed from the camera unit, and one or more representatives of the object A first storage unit that matches and stores one or more representative images photographed at an angle and representative characteristic information extracted from each representative image through an object feature extraction unit with object-related information, in a virtual space based on the representative image of the first storage unit Creates one or more interpolated images to be mapped, and stores the interpolated image and interpolation feature information generated by the virtual space mapping unit and the virtual space mapping unit that generate interpolation characteristic information from each interpolated image through the object feature extraction unit by matching object-related information Receives a query image according to the shooting of an object from the second storage unit and the camera unit, extracts features from the query image through the object feature extraction unit, compares it with the first storage unit, and returns to representative characteristic information that matches a preset reference value or more It may include a comparison unit that provides matched object-related information, and provides object-related information matched to interpolation characteristic information that matches the reference value or more by comparing it with the second storage unit when it does not match the reference value or more.

본 발명과 관련된 일 예로서, 비교부는 제 1 및 제 2 저장부와의 비교를 통해 일치되는 객체가 없는 경우 가상공간 매핑부와 연동하여 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 제 1 및 제 2 저장부 중 어느 하나에 저장된 특징정보를 추출하고, 추출된 특징정보에 대응되는 대표 또는 보간 이미지에 대한 가상공간 상의 위치정보와 쿼리 이미지에 대한 가상공간 상의 위치정보의 차이를 연산한 후 차이에 따른 이동정보를 생성하여 출력부를 통해 출력하는 것을 특징으로 할 수 있다.As an example related to the present invention, when there is no matching object through comparison with the first and second storage units, the comparator interworks with the virtual space mapping unit to obtain a first query image whose similarity with object characteristic information of the query image is equal to or greater than a preset value. and extracting the feature information stored in any one of the second storage unit, calculating the difference between the location information on the virtual space for the representative or interpolated image corresponding to the extracted feature information and the location information on the virtual space for the query image It may be characterized in that movement information according to the difference is generated and outputted through an output unit.

본 발명의 실시예에 따른 객체 인식 서비스 제공 방법은 객체 인식 서비스 제공 장치가 사용자 장치로부터 객체에 대한 쿼리 이미지를 수신하여 객체 특징정보를 추출하는 단계, 객체 인식 서비스 제공 장치가 객체에 대하여 복수의 대표각도에서 촬영된 복수의 대표 이미지 및 각 대표 이미지에 대한 대표 특징정보가 객체 관련 정보와 매칭되어 저장된 제 1 저장부와 객체 특징정보를 상호 비교하여 미리 설정된 기준치 이상 일치하는 대표 특징정보에 매칭된 객체 관련 정보를 제공하는 단계, 기준치 이상 일치하지 않는 경우 객체 인식 서비스 제공 장치가 대표 이미지를 기준으로 가상 공간 상에 매핑되는 하나 이상의 보간 이미지 및 각 보간 이미지에 대한 보간 특징정보가 객체 관련 정보와 매칭되어 저장된 제 2 저장부와 객체 특징정보를 상호 비교하여 미리 설정된 기준치 이상 일치되는 보간 특징정보에 매칭된 객체 관련 정보를 제공하는 단계를 포함할 수 있다.A method for providing an object recognition service according to an embodiment of the present invention includes the steps of: an object recognition service providing apparatus receiving a query image for an object from a user device and extracting object characteristic information; A plurality of representative images photographed at an angle and representative characteristic information for each representative image are matched with the object-related information and the first storage unit and the object characteristic information are compared with each other, and the object matched with the representative characteristic information matching more than a preset reference value In the step of providing related information, if it does not match more than the reference value, the object recognition service providing device matches one or more interpolated images mapped in the virtual space based on the representative image and the interpolation characteristic information for each interpolated image is matched with the object related information The method may include comparing the stored second storage unit with the object characteristic information to provide object-related information matched to interpolation characteristic information that matches a preset reference value or more.

본 발명과 관련된 일 예로서, 객체 인식 서비스 제공 장치는 제 1 및 제 2 저장부에 객체 특징정보와 미리 설정된 기준치 이상 일치되는 특징정보가 없는 경우 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 제 1 및 제 2 저장부 중 어느 하나에 저장된 특징정보를 추출하고, 추출된 특징정보에 대응되는 대표 또는 보간 이미지에 대한 가상공간 상의 위치정보와 쿼리 이미지에 대한 가상공간 상의 위치정보의 차이를 연산하여 차이에 따른 이동정보를 생성한 후 사용자 장치로 전송하는 단계를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, in the object recognition service providing apparatus, when there is no feature information matching the object feature information and the preset reference value or more in the first and second storage units, the similarity to the object feature information of the query image is greater than or equal to a preset value Extracting the characteristic information stored in any one of the first and second storage units, and calculating the difference between the position information in the virtual space for the representative or interpolated image corresponding to the extracted characteristic information and the position information in the virtual space for the query image The method may further include generating movement information according to the difference and then transmitting the generated movement information to the user device.

본 발명의 실시예에 따른 객체 인식 서비스 제공 시스템은 객체에 대한 쿼리이미지를 생성하여 전송하는 사용자 장치 및 사용자 장치로부터 수신된 쿼리이미지에 대한 객체 특징정보를 추출하며, 객체 특징정보를 객체에 대하여 대표각도에서 촬영된 하나 이상의 대표 이미지와 각 대표 이미지로부터 추출된 대표 특징정보가 객체 관련 정보와 매칭되어 저장된 제 1 저장부와 비교한 후 미리 설정된 기준치 이상 일치되는 대표 특징정보에 매칭된 객체 관련 정보를 제공하며, 기준치 이상 일치되지 않는 경우 제 1 저장부의 대표 이미지를 기준으로 가상 공간 상에 매핑되는 하나 이상의 보간 이미지 및 각 보간 이미지에 대한 특징정보가 객체 관련 정보와 매칭되어 저장된 제 2 저장부와 비교하여 미리 설정된 기준치 이상 일치되는 보간 특징정보에 매칭된 객체 관련 정보를 제공하는 객체 인식 서비스 제공 장치를 포함할 수 있다.The object recognition service providing system according to an embodiment of the present invention extracts object characteristic information about a query image received from a user device and a user device that generates and transmits a query image for an object, and represents the object characteristic information for the object One or more representative images photographed at an angle and representative characteristic information extracted from each representative image are matched with object-related information and compared with the stored first storage unit, and object-related information matched with representative characteristic information that matches more than a preset reference value provided, and if it does not match by more than a reference value, one or more interpolated images mapped in the virtual space based on the representative image of the first storage unit and feature information for each interpolated image are compared with the stored second storage unit by matching object-related information and an apparatus for providing an object recognition service providing object-related information matched to interpolation characteristic information matching a preset reference value or more.

본 발명은 실제 촬영된 대표 이미지 뿐만 아니라 대표 이미지를 기준으로 보간된 보간 이미지로부터 추출된 특징정보를 추가적으로 이용하여 사용자가 객체의 질의를 위해 생성한 쿼리이미지로부터 추출된 특징정보와 비교함으로써, 쿼리이미지에 대응되는 객체의 인식 범위를 넓힐 수 있으며 이를 통해 객체 인식 정확도를 크게 높여 객체와 관련된 정보 제공의 정확도 및 신뢰도를 높이는 효과가 있다.The present invention compares the feature information extracted from the query image generated by the user for querying the object by additionally using the feature information extracted from the interpolated image interpolated based on the representative image as well as the actual photographed representative image. It is possible to broaden the recognition range of an object corresponding to

또한, 본 발명은 사용자 장치로부터 수신되는 쿼리이미지에 포함된 객체와 유사한 객체를 DB에서 찾을 수 없는 경우 쿼리 이미지와 유사하다고 판단되는 객체에 대한 대표 또는 보간 이미지의 촬영각도로 조정하기 위한 이동정보를 사용자 장치로 제공한 후 이동정보에 따른 촬영각도에서 재촬영된 쿼리 이미지를 다시 인식하여 대표 또는 보간 이미지의 촬영각도와 동일한 촬영 각도에서 쿼리이미지에 대하여 더욱 정확한 객체 인식이 이루어질 수 있으며, 이를 통해 객체 인식의 정확도 및 신뢰도를 크게 향상시킬 수 있다.In addition, the present invention provides movement information for adjusting the shooting angle of the representative or interpolated image for the object determined to be similar to the query image when an object similar to the object included in the query image received from the user device cannot be found in the DB. After being provided to the user device, the re-photographed query image is recognized at the shooting angle according to the movement information, so that more accurate object recognition can be achieved for the query image at the same shooting angle as the representative or interpolated image. It can greatly improve the accuracy and reliability of recognition.

도 1은 본 발명의 실시예에 따른 객체 인식 서비스 제공 시스템의 구성도.
도 2는 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 상세 구성도.
도 3은 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 대표 이미지에 대한 가상공간 매핑 과정을 도시한 예시도.
도 4는 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 가상공간 상에 매핑되는 보간 이미지의 생성에 대한 예시도.
도 5는 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 보간 이미지에 대한 특징정보 추출 과정을 도시한 구성도.
도 6은 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 제 1 및 제 2 DB 관리에 대한 구성 예시도.
도 7은 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 사용자가 제공한 쿼리이미지로부터 객체 인식을 통한 객체 관련 정보 제공에 대한 구성도.
도 8은 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치의 객체 인식 실패시 사용자 장치의 촬영각도 조정을 유도하기 위한 구성 예시도.
도 9는 본 발명의 실시예에 따른 객체 인식 서비스 제공을 위한 사용자 장치의 구성도.
도 10은 본 발명의 실시예에 따른 객체 인식 서비스 제공 방법에 대한 순서도.
1 is a block diagram of an object recognition service providing system according to an embodiment of the present invention;
2 is a detailed configuration diagram of an apparatus for providing an object recognition service according to an embodiment of the present invention;
3 is an exemplary diagram illustrating a virtual space mapping process for a representative image of an apparatus for providing an object recognition service according to an embodiment of the present invention.
4 is an exemplary diagram illustrating generation of an interpolated image mapped on a virtual space of an apparatus for providing an object recognition service according to an embodiment of the present invention;
5 is a block diagram illustrating a process of extracting feature information for an interpolated image of an apparatus for providing an object recognition service according to an embodiment of the present invention.
6 is an exemplary configuration diagram for management of first and second DBs of an apparatus for providing object recognition services according to an embodiment of the present invention;
7 is a configuration diagram for providing object-related information through object recognition from a query image provided by a user of the apparatus for providing object recognition service according to an embodiment of the present invention;
8 is an exemplary configuration diagram for inducing adjustment of a shooting angle of a user device when an object recognition service providing apparatus fails to recognize an object according to an embodiment of the present invention;
9 is a block diagram of a user device for providing an object recognition service according to an embodiment of the present invention;
10 is a flowchart of a method for providing an object recognition service according to an embodiment of the present invention;

이하, 도면을 참고하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 실시예에 따른 객체 인식 서비스 제공 시스템의 구성도로서, 해당 시스템은 도시된 바와 같이 카메라를 통해 객체를 촬영하여 객체에 대한 쿼리이미지를 생성한 후 통신망을 통해 전송하는 사용자 장치(100)와, 사용자 장치(100)로부터 통신망을 통해 쿼리이미지를 수신하고, 쿼리이미지로부터 객체를 인식하여 객체 관련 정보를 제공하는 객체 인식 서비스 제공 장치(200)를 포함할 수 있다.1 is a block diagram of a system for providing an object recognition service according to an embodiment of the present invention, wherein the system captures an object through a camera, generates a query image for the object, and transmits the image through a communication network. It may include 100 and an object recognition service providing apparatus 200 that receives a query image from the user device 100 through a communication network, recognizes an object from the query image, and provides object-related information.

이때, 통신망은 널리 알려진 다양한 통신방식이 적용될 수 있다. 또한, 각 사용자 장치(100)는 내비게이션 단말기, 태블릿 PC(Tablet PC), 랩톱(Laptop), 스마트폰(Smart Phone), 개인휴대용 정보단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기(Mobile Communication Terminal) 등을 포함할 수 있으며, 객체 인식 서비스 제공 장치(200)는 서버로 구성될 수 있다.In this case, various well-known communication methods may be applied to the communication network. In addition, each user device 100 includes a navigation terminal, a tablet PC, a laptop, a smart phone, a personal digital assistant (PDA), and a mobile communication terminal. ) and the like, and the object recognition service providing apparatus 200 may be configured as a server.

객체 인식 서비스 제공 장치(200)는 사용자 장치(100)로부터 수신된 쿼리이미지에 대한 특징정보를 추출하며, 객체에 대하여 서로 상이한 대표각도에서 촬영된 하나 이상의 대표 이미지와 각 대표 이미지로부터 추출된 특징정보가 객체와 연동하여 저장된 제 1 DB와 쿼리이미지의 특징정보를 비교한 후 미리 설정된 기준치 이상 일치하는 특징정보를 추출하고, 추출된 특징정보에 대응되는 객체 관련 정보를 사용자 장치(100)로 전송하여 제공할 수 있다.The object recognition service providing apparatus 200 extracts feature information about the query image received from the user device 100, and features information extracted from one or more representative images photographed at different representative angles for the object and each representative image. After comparing the characteristic information of the query image with the first DB stored in conjunction with the object, extracts the characteristic information that matches a preset reference value or more, and transmits the object-related information corresponding to the extracted characteristic information to the user device 100 can provide

또한, 객체 인식 서비스 제공 장치(200)는 제 1 DB와 쿼리이미지 사이의 특징정보 비교를 통해 일치되는 특징정보가 없는 경우 제 1 DB의 대표 이미지를 기준으로 가상 공간 상에 매핑되는 하나 이상의 보간 이미지와 각 보간 이미지에 대한 특징정보가 객체와 연동하여 저장된 제 2 DB를 비교하여 유사도가 미리 설정된 수치 이상인 특징정보를 추출하여, 추출되는 특징정보에 대응되는 객체 관련 정보를 사용자 장치(100)로 전송하여 제공할 수 있다.In addition, the object recognition service providing apparatus 200 provides one or more interpolated images mapped on the virtual space based on the representative image of the first DB when there is no matching characteristic information through comparison of characteristic information between the first DB and the query image. and a second DB in which the characteristic information for each interpolated image is stored in conjunction with the object to extract characteristic information having a similarity greater than or equal to a preset numerical value, and to transmit object-related information corresponding to the extracted characteristic information to the user device 100 can be provided.

이와 같이 객체 인식 서비스 제공 장치(200)는 실제 촬영된 대표 이미지 뿐만 아니라 대표 이미지를 기준으로 보간된 보간 이미지로부터 추출된 특징정보를 추가적으로 이용하여 쿼리이미지로부터 추출된 특징정보와 비교함으로써, 쿼리이미지에 대응되는 객체의 인식 범위를 넓힐 수 있으며 이를 통해 객체 인식 정확도를 크게 높일 수 있다.In this way, the object recognition service providing apparatus 200 compares the feature information extracted from the query image by additionally using the feature information extracted from the interpolated image interpolated based on the representative image as well as the actual photographed representative image, to obtain the query image. It is possible to widen the recognition range of the corresponding object, thereby greatly increasing the object recognition accuracy.

도 2는 본 발명의 실시예에 따른 객체 인식 서비스 제공 장치(200)의 상세 구성도로서, 도시된 바와 같이 객체 특징 추출부(210), 가상공간 매핑부(220), 비교부(230)를 포함할 수 있다.2 is a detailed configuration diagram of an object recognition service providing apparatus 200 according to an embodiment of the present invention. As shown, an object feature extraction unit 210 , a virtual space mapping unit 220 , and a comparison unit 230 are included. may include

객체 특징 추출부(210)는 도 3(a)에 도시된 바와 같이 파노라마 촬영 등과 같이 다수의 대표각도에서 객체에 대하여 촬영된 복수의 대표 이미지와 객체 관련 정보가 매칭 저장된 제 1 DB(240)로부터 각 대표 이미지를 추출하여 각 대표 이미지에 대한 미리 설정된 알고리즘에 따라 특징정보를 추출할 수 있다.As shown in FIG. 3(a), the object feature extraction unit 210 stores a plurality of representative images photographed for an object from a plurality of representative angles, such as panoramic photographing, and object-related information from the first DB 240 in which matching is stored. By extracting each representative image, it is possible to extract feature information according to a preset algorithm for each representative image.

이때, 객체 특징 추출부(210)는 이미 널리 알려진 다양한 객체 특징 추출 알고리즘을 적용할 수 있으며, 이러한 알고리즘의 일례로, SIFT(Scale Invariant Feature Transform), HOG(Histogram of Oriented Gradient), Haar-like Feature, Ferns, LBP(Local Binary Pattern), MCT(Modified Census Transform) 등이 적용될 수 있다.In this case, the object feature extraction unit 210 may apply various well-known object feature extraction algorithms. Examples of such algorithms include SIFT (Scale Invariant Feature Transform), HOG (Histogram of Oriented Gradient), Haar-like Feature. , Ferns, LBP (Local Binary Pattern), MCT (Modified Census Transform), etc. may be applied.

또한, 객체 관련 정보는 객체와 관련된 식별번호(ID 등), 상품 정보, 제조사 정보 등을 포함할 수 있으며, 대표 이미지는 촬영된 대표각도에 대한 정보를 포함하거나 대표각도와 매칭되어 제 1 DB(240)에 저장될 수 있다. 여기서, 대표각도는 촬영각도를 의미할 수 있으며, 미리 설정된 중심점에서 X, Y, Z 방향으로 기울어진 각도를 의미할 수 있다.In addition, the object-related information may include an identification number (ID, etc.) related to the object, product information, manufacturer information, etc., and the representative image contains information about the representative angle taken or is matched with the representative angle in the first DB ( 240) can be stored. Here, the representative angle may mean a photographing angle, and may mean an angle inclined in the X, Y, and Z directions from a preset central point.

한편, 객체 특징 추출부(210)는 대표 이미지로부터 추출된 대표 특징정보를 제 1 DB에 객체 관련 정보 및 각 대표 이미지와 매칭하여 저장할 수 있다.Meanwhile, the object feature extraction unit 210 may match and store the representative feature information extracted from the representative image with the object-related information and each representative image in the first DB.

또한, 가상공간 매핑부(220)는 도 3(b)에 도시된 바와 같이 각 대표각도를 미리 설정된 가상공간 상의 위치정보와 매핑하여 대표 이미지를 가상공간 상에 모델링 할 수 있다.In addition, the virtual space mapping unit 220 may model the representative image in the virtual space by mapping each representative angle with preset position information in the virtual space, as shown in FIG. 3B .

이때, 가상공간은 대표 이미지의 촬영 각도에 따른 현실공간에서의 카메라 위치가 반영된 모델일 수 있으며, 이를 통해 3차원 공간에서 카메라의 촬영 위치를 가상공간 상에 매핑하여 표현할 수 있다.In this case, the virtual space may be a model in which the camera position in the real space according to the photographing angle of the representative image is reflected, and through this, the photographing position of the camera in the three-dimensional space may be mapped and expressed on the virtual space.

일례로, 가상공간 매핑부(220)는 대표 이미지의 촬영시 측정된 대표각도에 대응되는 가상공간 상의 위치를 상호 매핑하여 대표각도를 X, Y, Z 좌표로서 가상공간의 위치정보로 변환할 수 있으며, 이를 통해 3차원 형태의 가상 공간 상에 대표 이미지를 매핑시켜 모델링할 수 있다. As an example, the virtual space mapping unit 220 maps positions in the virtual space corresponding to the representative angles measured when the representative image is captured, and converts the representative angles as X, Y, Z coordinates into position information in the virtual space. Through this, a representative image can be mapped and modeled on a three-dimensional virtual space.

이를 통해, 가상공간 매핑부(220)는 가상공간 상의 위치정보를 기초로 가상공간 상에서 각 위치정보 사이에 위치하는 중간 위치정보에 대하여 중간 위치정보와 인접한 서로 다른 위치정보에 대응되는 대표 이미지 사이를 보간하는 보간 이미지를 생성할 수 있다.Through this, the virtual space mapping unit 220 determines between the intermediate position information and the representative image corresponding to different adjacent position information with respect to the intermediate position information located between each position information in the virtual space based on the position information in the virtual space. You can create an interpolated image that interpolates.

이때, 가상공간 매핑부(220)는 중간 위치정보와 위치정보 사이에 위치하는 다른 중간 위치정보에 대하여 중간 위치정보에 대응되어 생성된 보간 이미지와 위치정보에 대응되는 대표 이미지를 보간하는 다른 보간 이미지를 생성할 수 있다.In this case, the virtual space mapping unit 220 interpolates an interpolated image generated corresponding to the intermediate location information and a representative image corresponding to the location information with respect to other intermediate location information positioned between the intermediate location information and the location information. can create

일례로, 도 4에 도시된 바와 같이 가상공간 매핑부(220)는 촬영 2의 대표각도에서 촬영된 대표 이미지를 가상 공간상에서 대표각도에 대응되는 위치정보에 매핑하고, 촬영 3의 대표각도에서 촬영된 대표 이미지를 가상 공간상에서 대표각도에 대응되는 위치에 매핑하여 모델링할 수 있다.For example, as shown in FIG. 4 , the virtual space mapping unit 220 maps the representative image photographed at the representative angle of photographing 2 to location information corresponding to the representative angle in the virtual space, and photographing at the representative angle of photographing 3 The representative image can be modeled by mapping it to a position corresponding to the representative angle in the virtual space.

이후, 가상공간 매핑부(220)는 촬영 2의 대표각도와 촬영 3의 대표각도에 각각 대응되는 위치정보 사이의 중간 위치정보에 대응되는 대표 이미지 사이를 보간하는 보간 이미지를 가상공간의 중간 위치정보에 매핑하여 생성할 수 있다. 일례로, 촬영 2의 대표각도가 도시된 바와 같이 45도이며, 촬영 3의 대표각도가 90도인 경우 가상공간 매핑부(220)는 가상공간의 위치정보를 기초로 대표각도인 45도 및 90도의 중간각도(60도)에 대한 위치정보에 매핑되는 보간 이미지를 생성할 수 있다.Then, the virtual space mapping unit 220 interpolates the interpolated image between the representative image corresponding to the intermediate position information between the position information corresponding to the representative angle of photographing 2 and the representative angle of photographing 3, respectively, the intermediate position information in the virtual space. It can be created by mapping to . For example, if the representative angle of photographing 2 is 45 degrees as shown, and the representative angle of photographing 3 is 90 degrees, the virtual space mapping unit 220 sets the representative angles of 45 degrees and 90 degrees based on the location information of the virtual space. An interpolated image mapped to position information for an intermediate angle (60 degrees) can be generated.

이를 통해, 가상공간 매핑부(220)는 가상 공간 상의 X,Y,Z 좌표값를 가진 다수의 위치정보에 각각 매핑되는 대표 이미지 및 보간 이미지를 생성할 수 있다.Through this, the virtual space mapping unit 220 may generate a representative image and an interpolated image each mapped to a plurality of pieces of location information having X, Y, and Z coordinate values in a virtual space.

다음, 가상공간 매핑부(220)는 도 5에 도시된 바와 같이 생성된 보간 이미지 각각에 대하여 객체 특징 추출부(210)를 통해 보간 특징정보를 추출하여 생성할 수 있으며, 추출된 보간 특징정보, 보간 이미지 및 객체 관련 정보를 상호 매칭하여 제 2 DB(250)에 저장할 수 있다.Next, the virtual space mapping unit 220 may extract and generate interpolation characteristic information through the object characteristic extraction unit 210 for each of the generated interpolated images as shown in FIG. 5 , the extracted interpolation characteristic information, The interpolated image and object-related information may be matched with each other and stored in the second DB 250 .

이를 통해, 도 6에 도시된 바와 같이 제 1 DB(240)에는 객체 관련 정보와 하나 이상의 대표 특징정보(PK1~PK10)가 매칭되어 저장될 수 있으며, 제 2 DB(250)에는 하나 이상의 보간 이미지를 통해 추출된 하나 이상의 보간 특징정보(Sub PK1~Sub PK50)가 객체 관련 정보와 매칭되어 저장될 수 있다.Through this, as shown in FIG. 6 , object-related information and one or more representative characteristic information PK1 to PK10 may be matched and stored in the first DB 240 , and one or more interpolated images may be stored in the second DB 250 . One or more interpolation feature information (Sub PK1 to Sub PK50) extracted through ? may be matched with object-related information and stored.

상술한 바와 같은 구성을 통해, 가상공간 매핑부(220)는 대표 이미지를 가상 공간에 매핑하여 서로 다른 인접한 대표 이미지 사이를 보간하는 다수의 보간 이미지를 생성한 후 각 보간 이미지에 대한 특징정보를 추출함으로써, 다양한 각도에서 유추되는 객체에 대한 특징정보를 생성할 수 있으며 객체의 인식 범위를 크게 확장시킬 수 있다.Through the configuration as described above, the virtual space mapping unit 220 maps the representative image to the virtual space to generate a plurality of interpolated images interpolating between different adjacent representative images, and then extracts feature information for each interpolated image. By doing so, it is possible to generate characteristic information about an object inferred from various angles and greatly expand the recognition range of the object.

한편, 비교부(230)는 도 7에 도시된 바와 같이 사용자 장치(100)로부터 카메라를 통해 촬영된 객체에 대한 쿼리이미지를 수신하여, 사용자 장치(100)가 쿼리이미지를 통해 질의하는 객체에 대한 정보를 제공할 수 있다.On the other hand, as shown in FIG. 7 , the comparator 230 receives a query image for an object photographed through a camera from the user device 100, information can be provided.

일례로, 도시된 바와 같이 비교부(230)는 쿼리이미지 수신시 객체 특징 추출부(220)와 연동하여 쿼리이미지에 포함된 객체에 대한 객체 특징정보를 추출할 수 있으며, 객체 특징정보를 제 1 DB(240)에 서로 다른 객체별로 저장된 특징정보와 비교하여 미리 설정된 기준치 이상 일치하는 대표 특징정보에 매칭된 객체 관련 정보를 제 1 DB(240)로부터 추출하여 사용자 장치(100)로 전송할 수 있다.For example, as shown, the comparison unit 230 may extract object characteristic information for an object included in the query image by interworking with the object characteristic extraction unit 220 upon receiving the query image, and set the object characteristic information to the first Compared with the characteristic information stored for each object in the DB 240 , object-related information matched with representative characteristic information matching a preset reference value or more may be extracted from the first DB 240 and transmitted to the user device 100 .

이때, 제 1 DB(240)에서 객체 특징정보와 미리 설정된 기준치 이상 일치하는 대표 특징정보가 제 1 DB(240)에 존재하지 않는 경우 비교부(230)는 제 2 DB(250)에 객체별로 저장된 보간 특징정보와 객체 특징정보를 상호 비교하여 미리 설정된 기준치 이상 일치하는 보간 특징정보에 매칭된 객체 관련 정보를 추출하여 사용자 장치(100)로 전송할 수 있다.At this time, if the representative characteristic information matching the object characteristic information and the preset reference value or more in the first DB 240 does not exist in the first DB 240 , the comparison unit 230 stores the object characteristic information in the second DB 250 for each object. The interpolation characteristic information and the object characteristic information are compared to each other, and object-related information matched with the interpolation characteristic information matching a preset reference value or more may be extracted and transmitted to the user device 100 .

이와 같이, 비교부(230)는 대표 이미지로부터 추출된 특징정보를 기초로 객체를 인식할 수 없는 경우에도 대표 이미지를 보간하기 위한 보간 이미지로부터 추출된 특징정보를 이용하여 쿼리 이미지의 특징정보와 비교함으로써, 대표각도가 아닌 다른 각도에서 촬영된 이미지에 대해서도 객체 인식율을 크게 높일 수 있다.As such, the comparison unit 230 compares the feature information of the query image with the feature information extracted from the interpolation image for interpolating the representative image even when the object cannot be recognized based on the feature information extracted from the representative image. By doing so, it is possible to significantly increase the object recognition rate even for images taken from angles other than the representative angle.

더하여, 비교부(230)는 도 8에 도시된 바와 같이 객체 특징 추출부(210)를 통해 추출된 쿼리이미지에 대한 객체 특징정보와 미리 설정된 기준치 이상 일치하는 대표 특징정보 및 보간 특징정보가 제 1 및 제 2 DB(240, 250)에 모두 존재하지 않는 경우 유사도가 기설정된 수치 이상인 대표 또는 보간 특징정보에 대응되는 대표 또는 보간 이미지를 제 1 및 제 2 DB(240, 250) 중 어느 하나로부터 추출할 수 있다. 이때, 유사도는 기준치와 동일한 기준일 수 있으며, 이에 따라 비교부(230)는 쿼리이미지의 객체 특징정보와 미리 설정된 수치 이상 일치하는 대표 또는 보간 특징정보에 대응되는 대표 또는 보간 이미지를 추출할 수 있다.In addition, as shown in FIG. 8 , the comparison unit 230 compares the object characteristic information for the query image extracted through the object characteristic extraction unit 210 with representative characteristic information and interpolation characteristic information that matches a preset reference value or more. And when none of the second DBs 240 and 250 exist, a representative or interpolated image corresponding to representative or interpolated feature information having a similarity greater than or equal to a preset value is extracted from any one of the first and second DBs 240 and 250 . can do. In this case, the similarity may be the same criterion as the reference value, and accordingly, the comparison unit 230 may extract a representative or interpolated image corresponding to the representative or interpolated characteristic information that matches the object characteristic information of the query image by a preset value or more.

이때, 비교부(230)는 쿼리이미지에 포함되거나 별개로 수신되는 쿼리이미지의 촬영각도에 대한 각도정보를 수신할 수 있으며, 각도정보를 가상공간 상에 매핑하여 쿼리이미지에 대응되는 위치정보를 산출할 수 있다.At this time, the comparison unit 230 may receive angle information on the shooting angle of the query image included in the query image or received separately, and calculate the position information corresponding to the query image by mapping the angle information in the virtual space. can do.

또한, 비교부(230)는 추출된 대표 또는 보간 이미지에 대응되는 가상공간 상의 위치정보와 쿼리이미지의 촬영각도에 대응되는 가상공간 상의 위치정보의 차이를 연산하며, 가상공간 상에서 쿼리이미지의 위치정보를 추출된 대표 또는 보간 이미지의 위치정보와 일치시키기 위하여 연산된 차이에 따라 생성된 이동방향에 대한 이동정보를 생성한 후 사용자 장치로 전송할 수 있다. 이때, 촬영각도는 대표 각도와 마찬가지로 중심점에서 X, Y, Z 방향으로 기울어진 각도를 의미할 수 있다.In addition, the comparison unit 230 calculates the difference between the location information in the virtual space corresponding to the extracted representative or interpolated image and the location information in the virtual space corresponding to the shooting angle of the query image, and the location information of the query image in the virtual space. In order to match the extracted representative or interpolated image with the position information of the extracted representative or interpolated image, movement information about the movement direction generated according to the calculated difference may be generated and then transmitted to the user device. In this case, the photographing angle may mean an angle inclined in the X, Y, and Z directions from the central point like the representative angle.

이때, 이동정보는 도시된 바와 같이 쿼리이미지의 위치정보에서 유사도가 미리 설정된 수치 이상인 대표 또는 보간 특징정보에 대응되는 이미지의 위치정보로 이동시키기 위한 방향 뿐만 아니라 거리를 포함할 수도 있다. 이때, 거리는 가상공간 상에서 두 위치정보 사이의 거리를 측정하여 가상공간과 실제 공간 사이의 연관관계에 따라 환산된 실제 거리일 수 있다.In this case, as shown, the movement information may include a distance as well as a direction for moving from the position information of the query image to the position information of the image corresponding to the representative or interpolated feature information whose similarity is greater than or equal to a preset value. In this case, the distance may be an actual distance converted according to a relationship between the virtual space and the real space by measuring the distance between the two location information in the virtual space.

다시 말해, 비교부(230)는 이동정보를 사용자 장치(100)로 전송하여 특징정보를 기초로 쿼리이미지에 대응되는 촬영 위치를 유사도가 기설정된 수치 이상인 대표 또는 보간 이미지에 대응되는 촬영 위치로 사용자 장치(100)를 이동시키도록 사용자를 유도하여 재촬영이 이루어지도록 할 수 있다.In other words, the comparison unit 230 transmits the movement information to the user device 100, and based on the feature information, the photographing position corresponding to the query image is set to the photographing position corresponding to the representative or interpolated image having a similarity greater than or equal to a preset value. By inducing the user to move the device 100, re-photography may be performed.

이에 따라, 비교부(230)는 이동정보에 따라 이동된 위치에서 재촬영된 쿼리이미지를 사용자 장치(100)로부터 수신한 후 추출된 객체 특징정보를 제 1 및 제 2 DB(240, 250)의 특징정보와 비교하여 미리 설정된 기준치 이상인 대표 또는 보간 특징정보가 제 1 및 제 2 DB(240, 250) 중 어느 하나에 존재하는 경우 해당 대표 또는 보간 특징정보에 대응되는 객체 관련 정보를 제공할 수 있다.Accordingly, the comparison unit 230 receives the re-photographed query image from the user device 100 at the location moved according to the movement information, and then uses the extracted object characteristic information of the first and second DBs 240 and 250 . When representative or interpolation characteristic information equal to or greater than a preset reference value is present in any one of the first and second DBs 240 and 250 compared to the characteristic information, object-related information corresponding to the representative or interpolation characteristic information can be provided. .

이와 같이, 비교부(230)는 사용자 장치(100)로부터 수신되는 쿼리이미지에 포함된 객체와 유사한 객체를 제 1 및 제 2 DB(240, 250)에서 찾을 수 없는 경우 쿼리 이미지와 유사하다고 판단되는 대표 또는 보간 이미지의 촬영각도로 조정하도록 사용자를 유도한 후 재촬영된 쿼리 이미지를 다시 인식하여 대표 또는 보간 이미지의 촬영각도와 동일한 촬영 각도에서 더욱 정확한 객체 인식이 이루어질 수 있으며, 이를 통해 객체 인식의 정확도 및 신뢰도를 크게 향상시킬 수 있다.As such, when the comparison unit 230 cannot find an object similar to the object included in the query image received from the user device 100 in the first and second DBs 240 and 250, it is determined that the object is similar to the query image. After inducing the user to adjust to the shooting angle of the representative or interpolated image, the re-photographed query image is recognized again, so that more accurate object recognition can be achieved at the same shooting angle as that of the representative or interpolated image. Accuracy and reliability can be greatly improved.

한편, 도 9에 도시된 바와 같이 상술한 객체 특징 추출부, 가상공간 매핑부 및 비교부는 사용자 장치(100)에 구성될 수도 있으며, 사용자 장치는 카메라부(110), 센서부(150), 제 1 및 제 2 메모리부(160, 170)를 더 포함할 수 있다.Meanwhile, as shown in FIG. 9 , the above-described object feature extraction unit, virtual space mapping unit, and comparator may be configured in the user device 100 , and the user device includes a camera unit 110 , a sensor unit 150 , and a first It may further include first and second memory units 160 and 170 .

이에 따라, 객체 특징 추출부(120)는 객체에 대한 영상을 촬영하는 카메라부(110)부터 촬영된 영상에 대한 특징정보를 추출할 수 있으며, 가상공간 매핑부(130)는 제 1 DB(240)와 동일한 정보가 저장된 제 1 메모리부(160)로부터 대표 이미지를 기준으로 가상 공간 상에 매핑되는 보간 이미지를 생성하며, 보간 이미지로부터 객체 특징 추출부(120)를 통해 특징정보를 추출한 후 보간 이미지와 특징정보를 객체 관련 정보와 연동하여 제 2 메모리부(170)에 저장할 수 있다.Accordingly, the object feature extraction unit 120 may extract the characteristic information of the captured image from the camera unit 110 that captures the image of the object, and the virtual space mapping unit 130 provides the first DB 240 ) generates an interpolated image mapped on the virtual space based on the representative image from the first memory unit 160 in which the same information is stored, and extracts the feature information from the interpolated image through the object feature extractor 120 and then the interpolated image and feature information may be stored in the second memory unit 170 in association with object-related information.

또한, 비교부(140)는 카메라부(110)로부터 객체의 촬영에 따른 쿼리 이미지를 수신하고, 쿼리 이미지로부터 객체 특징 추출부(120)를 통해 특징을 추출하여 제 1 메모리부(160)와 비교한 후 미리 설정된 기준치 이상 일치하는 대표 특징정보를 추출하여 대응되는 객체 관련 정보를 제공하며, 미리 설정된 기준치 이상 일치하지 않는 경우 제 2 메모리부(170)와 비교하여 미리 설정된 기준치 이상 일치하는 보간 특징정보를 추출하여 대응되는 객체 관련 정보를 제공할 수 있다.In addition, the comparison unit 140 receives a query image according to the shooting of the object from the camera unit 110 , extracts a feature from the query image through the object feature extraction unit 120 , and compares it with the first memory unit 160 . After extracting representative characteristic information that matches more than a preset reference value, the corresponding object-related information is provided. can be extracted to provide corresponding object-related information.

더하여, 비교부(140)는 제 1 및 제 2 메모리부(160, 170)를 통해 미리 설정된 기준치 이상 일치되는 객체가 없는 경우 쿼리 이미지의 특징정보와 제 1 및 제 2 메모리부(160, 170) 중 어느 하나에 저장된 특징정보 사이의 유사도가 미리 설정된 수치 이상 일치하는 특징정보를 제 1 및 제 2 메모리부(160, 170) 중 어느 하나로부터 추출할 수 있다.In addition, when there is no object matching a preset reference value or more through the first and second memory units 160 and 170 , the comparison unit 140 compares the feature information of the query image with the first and second memory units 160 and 170 . Characteristic information in which the degree of similarity between the characteristic information stored in any one matches a predetermined value or more may be extracted from any one of the first and second memory units 160 and 170 .

이후, 비교부(140)는 쿼리이미지의 촬영시 센서부(150)를 통해 얻어지는 쿼리이미지의 촬영각도에 대한 센싱정보를 기초로 가상공간 매핑부(130)와 연동하여 쿼리 이미지의 가상공간 상의 위치정보를 산출하고, 제 1 및 제 2 메모리부(160, 170) 중 어느 하나로부터 추출된 특징정보에 대응되는 대표 또는 보간 이미지에 대한 가상공간 상의 위치정보와 일치시키기 위한 이동방향에 대한 이동정보를 산출하여 출력부(180)를 통해 출력할 수 있다.Thereafter, the comparator 140 interworks with the virtual space mapping unit 130 based on the sensing information on the shooting angle of the query image obtained through the sensor unit 150 when the query image is captured in the virtual space of the query image. Calculate information and obtain movement information on the movement direction to match the position information in the virtual space for the representative or interpolated image corresponding to the feature information extracted from any one of the first and second memory units 160 and 170 It can be calculated and outputted through the output unit 180 .

이를 통해, 사용자가 대표 또는 보간 이미지에 대응되는 촬영각도로 이동시키도록 유도하여 객체 인식율을 크게 향상시킬 수 있다.Through this, the object recognition rate can be greatly improved by inducing the user to move to a shooting angle corresponding to the representative or interpolated image.

도 10은 본 발명의 실시예에 따른 객체 인식 서비스 제공 방법에 대한 순서도로서, 객체 인식 서비스 제공 장치(200)는 사용자 장치(100)로부터 객체에 대한 쿼리 이미지를 수신하여(S1) 객체 특징정보를 추출하며(S2), 객체에 대하여 복수의 대표각도에서 촬영된 복수의 대표 이미지 및 각 대표 이미지에 대한 대표 특징정보가 객체 관련 정보와 매칭되어 저장된 제 1 DB(240)와 객체 특징정보를 상호 비교하여(S3), 객체 특징정보와 미리 설정된 기준치 이상 일치되는 대표 특징정보에 매칭된 객체 관련 정보를 제공할 수 있다(S4, S5, S6).10 is a flowchart of a method for providing an object recognition service according to an embodiment of the present invention. The apparatus 200 for providing an object recognition service receives a query image for an object from the user device 100 (S1) and provides object characteristic information. Extracting (S2), a plurality of representative images photographed from a plurality of representative angles with respect to the object, and the representative characteristic information for each representative image are matched with the object-related information, and the stored first DB 240 and the object characteristic information are compared with each other Thus (S3), it is possible to provide object-related information matched to the representative characteristic information that matches the object characteristic information and the preset reference value or more (S4, S5, S6).

이때, 제 1 DB(240)와의 비교에 따라 미리 설정된 기준치 이상 일치되는 대표 특징정보가 없는 경우(S4) 객체 인식 서비스 제공 장치(200)는 대표 이미지를 기준으로 가상 공간 상에 매핑되는 하나 이상의 보간 이미지 및 각 보간 이미지에 대한 보간 특징정보가 객체 관련 정보와 매칭되어 저장된 제 2 DB(250)와 객체 특징정보를 상호 비교할 수 있다(S7).At this time, when there is no representative characteristic information that matches a preset reference value or more according to comparison with the first DB 240 (S4), the object recognition service providing apparatus 200 interpolates one or more interpolations mapped on the virtual space based on the representative image The image and the interpolation characteristic information for each interpolated image are matched with the object-related information, and the stored second DB 250 may be compared with the object characteristic information (S7).

이에 따라, 객체 인식 서비스 제공 장치(200)는 객체 특징정보와 미리 설정된 기준치 이상 일치되는 보간 특징정보에 매칭된 객체 관련 정보를 제공할 수 있다(S6, S8, S9).Accordingly, the object recognition service providing apparatus 200 may provide object-related information matched to the object characteristic information and the interpolation characteristic information matching the preset reference value or more (S6, S8, S9).

한편, 객체 인식 서비스 제공 장치(200)는 제 1 및 제 2 DB(240, 250)에 객체 특징정보와 미리 설정된 기준치 이상 일치되는 특징정보가 없는 경우(S8) 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 제 1 및 제 2 DB(240, 250) 중 어느 하나에 저장된 특징정보를 추출하고(S10), 추출된 특징정보에 대응되는 대표 또는 보간 이미지에 대한 가상공간 상의 위치정보와 쿼리 이미지에 대한 가상공간 상의 위치정보의 차이를 연산하여 차이에 따른 이동정보를 생성한 후 사용자 장치(100)로 전송할 수 있다(S11).On the other hand, the object recognition service providing apparatus 200 is similar to the object characteristic information of the query image when there is no characteristic information matching the object characteristic information and the preset reference value or more in the first and second DBs 240 and 250 (S8). Extracting feature information stored in any one of the first and second DBs 240 and 250 equal to or greater than a preset value (S10), and location information and query image in virtual space for a representative or interpolated image corresponding to the extracted feature information After calculating the difference in the location information on the virtual space, movement information according to the difference may be generated and then transmitted to the user device 100 (S11).

본 발명의 실시예에 따른 객체 인식 서비스 제공 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 사용자 장치, 객체 인식 서비스 제공 장치 등에 의하여 읽혀지고 실행됨으로써 객체 인식 서비스 제공 방법을 구현할 수 있다.The method for providing an object recognition service according to an embodiment of the present invention can be written as a computer program, and codes and code segments constituting the computer program can be easily inferred by a computer programmer in the art. In addition, the corresponding computer program is stored in a computer readable media, and is read and executed by a computer, a user device according to an embodiment of the present invention, an object recognition service providing device, etc., thereby providing an object recognition service method can be implemented.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 객체 인식 서비스 제공 방법을 구현하는 컴퓨터 프로그램은 사용자 장치, 객체 인식 서비스 제공 장치의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 객체 인식 서비스 제공 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 사용자 장치, 객체 인식 서비스 제공 장치에 장착될 수도 있다.The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium. The computer program for implementing the method for providing an object recognition service according to an embodiment of the present invention may be stored and installed in a user device and an internal memory of the apparatus for providing an object recognition service. Alternatively, an external memory such as a smart card storing and installing a computer program for implementing the method for providing an object recognition service according to an embodiment of the present invention may be mounted on a user device or an apparatus for providing an object recognition service through an interface.

이상에서는 본 발명에 따른 바람직한 실시예들에 대하여 도시하고 또한 설명하였다. 그러나 본 발명은 상술한 실시예에 한정되지 아니하며, 특허 청구의 범위에서 첨부하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능할 것이다.In the above, preferred embodiments according to the present invention have been shown and described. However, the present invention is not limited to the above-described embodiments, and without departing from the gist of the present invention appended in the claims, any person skilled in the art to which the invention pertains will be able to implement various modifications. .

본 발명은 실제 촬영된 대표 이미지 뿐만 아니라 대표 이미지를 기준으로 보간된 보간 이미지로부터 추출된 특징정보를 추가적으로 이용하여 사용자가 객체의 질의를 위해 생성한 쿼리이미지로부터 추출된 특징정보와 비교함으로써, 쿼리이미지에 대응되는 객체의 인식 범위를 넓힐 수 있으며 이를 통해 객체 인식 정확도를 크게 높여 객체와 관련된 정보 제공의 정확도 및 신뢰도를 높이는 것으로서, 각종 검색 서비스 시스템, 마케팅 서비스 시스템, 오픈 마켓 시스템 등과 같은 다양한 분야에 광범위하게 적용될 수 있다.The present invention compares the feature information extracted from the query image generated by the user for querying the object by additionally using the feature information extracted from the interpolated image interpolated based on the representative image as well as the actual photographed representative image. It is possible to broaden the recognition range of objects corresponding to can be applied

100: 사용자 장치 110: 카메라부
120: 객체특징 추출부 130: 가상공간 매핑부
140: 비교부 150: 센서부
160: 제 1 메모리부 170: 제 2 메모리부
180: 출력부 200: 객체 인식 서비스 제공 장치
210: 객체 특징 추출부 220: 가상공간 매핑부
230: 비교부 240: 제 1 DB
250: 제 2 DB
100: user device 110: camera unit
120: object feature extraction unit 130: virtual space mapping unit
140: comparison unit 150: sensor unit
160: first memory unit 170: second memory unit
180: output unit 200: object recognition service providing device
210: object feature extraction unit 220: virtual space mapping unit
230: comparison unit 240: first DB
250: second DB

Claims (3)

영상으로부터 특징정보를 추출하는 객체 특징 추출부;
객체에 대하여 대표각도에서 촬영된 하나 이상의 대표 이미지와 상기 객체 특징 추출부를 통해 상기 하나 이상의 대표 이미지 각각에 대하여 추출된 대표 특징정보를 객체 관련 정보에 매칭하여 저장하는 제 1 저장부;
상기 하나 이상의 대표 이미지 각각에 대해 상기 대표 이미지의 대표 각도에 대응되는 가상공간의 위치정보를 상호 매핑시켜 상기 대표 이미지를 상기 가상공간 상에 모델링하고, 상기 가상공간 상의 모델링된 상기 하나 이상의 대표 이미지 각각의 위치정보를 기초로 상기 가상공간 상에서 서로 다른 대표 이미지 사이에 매핑되어 상기 서로 다른 대표 이미지 사이를 보간하는 보간 이미지를 하나 이상 생성하며, 상기 하나 이상의 보간 이미지 각각으로부터 상기 객체 특징 추출부를 통해 보간 특징정보를 생성하는 가상공간 매핑부;
상기 가상공간 매핑부가 생성한 상기 보간 이미지와 보간 특징정보를 상기 객체 관련 정보와 매칭하여 저장하는 제 2 저장부; 및
사용자 장치로부터 객체의 촬영에 따른 쿼리 이미지를 수신하고, 상기 쿼리 이미지로부터 특징을 추출한 후 상기 제 1 저장부 및 상기 제 2 저장부와 비교하여 미리 설정된 기준치 이상 일치되는 특징정보가 없는 경우 상기 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 상기 제 1 및 제 2 저장부 중 어느 하나에 저장된 특징정보를 추출하고, 추출된 상기 특징정보에 대응되는 대표 또는 보간 이미지에 대한 상기 가상공간 상의 위치정보와 상기 쿼리 이미지에 대한 상기 가상공간 상의 위치정보의 차이를 연산하여 상기 차이에 따른 이동정보를 생성한 후 상기 사용자 장치로 전송하는 비교부를 포함하는 객체 인식 서비스 제공 장치.
an object feature extracting unit for extracting feature information from an image;
a first storage unit configured to match one or more representative images photographed at a representative angle with respect to an object and representative characteristic information extracted with respect to each of the one or more representative images through the object characteristic extraction unit to match object-related information;
For each of the one or more representative images, the representative image is modeled in the virtual space by mapping position information in a virtual space corresponding to the representative angle of the representative image, and each of the one or more representative images modeled in the virtual space Generates one or more interpolated images that are mapped between different representative images in the virtual space based on the location information of a virtual space mapping unit that generates information;
a second storage unit configured to match and store the interpolated image and interpolation feature information generated by the virtual space mapping unit with the object-related information; and
After receiving a query image according to the shooting of an object from a user device, extracting a feature from the query image, comparing the first storage unit and the second storage unit, and comparing the first storage unit and the second storage unit, if there is no characteristic information that matches more than a preset reference value, the query image extracts the characteristic information stored in any one of the first and second storage units having a similarity with the object characteristic information of which is equal to or greater than a preset numerical value, and location information in the virtual space for a representative or interpolated image corresponding to the extracted characteristic information and a comparison unit configured to calculate a difference between the location information in the virtual space with respect to the query image, generate movement information according to the difference, and transmit the generated movement information to the user device.
◈청구항 2은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 2 was abandoned when paying the registration fee.◈ 제 1항에 있어서,
상기 비교부는 상기 쿼리이미지의 촬영각도에 대한 각도정보를 수신하여 상기 가상공간 상의 위치정보와 매핑시킨 후 상기 쿼리이미지에 대한 위치정보를 생성하며, 상기 가상공간 상에서 상기 쿼리이미지의 위치정보를 추출된 상기 특징정보에 대응되는 대표 또는 보간 이미지의 위치정보와 일치시키기 위한 이동방향 및 이동거리에 대한 상기 이동정보를 생성하는 것을 특징으로 하는 객체 인식 서비스 제공 장치.
The method of claim 1,
The comparison unit receives the angle information on the shooting angle of the query image, maps it with the location information in the virtual space, and generates location information for the query image, and extracts the location information of the query image in the virtual space. Object recognition service providing apparatus, characterized in that for generating the movement information on the movement direction and movement distance to match the position information of the representative or interpolated image corresponding to the characteristic information.
객체에 대한 영상을 촬영하는 카메라부;
상기 카메라부로부터 촬영된 영상에 대한 특징정보를 추출하는 객체 특징 추출부;
상기 객체에 대하여 하나 이상의 대표각도에서 촬영된 하나 이상의 대표 이미지와 상기 객체 특징 추출부를 통해 상기 하나 이상의 대표 이미지 각각으로부터 추출된 대표 특징정보를 객체 관련 정보와 매칭하여 저장하는 제 1 저장부;
상기 하나 이상의 대표 이미지 각각에 대해 상기 대표 이미지의 대표 각도에 대응되는 가상공간의 위치정보를 상호 매핑시켜 상기 대표 이미지를 상기 가상공간 상에 모델링하고, 상기 가상공간 상의 모델링된 상기 하나 이상의 대표 이미지 각각의 위치정보를 기초로 상기 가상공간 상에서 서로 다른 대표 이미지 사이에 매핑되어 상기 서로 다른 대표 이미지 사이를 보간하는 보간 이미지를 하나 이상 생성하며, 상기 하나 이상의 보간 이미지 각각으로부터 상기 객체 특징 추출부를 통해 보간 특징정보를 생성하는 가상공간 매핑부;
상기 가상공간 매핑부가 생성한 상기 보간 이미지와 상기 보간 특징정보를 상기 객체 관련 정보와 매칭하여 저장하는 제 2 저장부; 및
상기 카메라부로부터 객체의 촬영에 따른 쿼리 이미지를 수신하고, 상기 쿼리 이미지로부터 특징을 추출한 후 상기 제 1 저장부 및 상기 제 2 저장부와 비교하여 미리 설정된 기준치 이상 일치되는 특징정보가 없는 경우 상기 쿼리 이미지의 객체 특징정보와 유사도가 미리 설정된 수치 이상인 상기 제 1 및 제 2 저장부 중 어느 하나에 저장된 특징정보를 추출하고, 추출된 상기 특징정보에 대응되는 대표 또는 보간 이미지에 대한 상기 가상공간 상의 위치정보와 상기 쿼리 이미지에 대한 상기 가상공간 상의 위치정보의 차이를 연산하여 상기 차이에 따른 이동정보를 생성하는 비교부를 포함하는 객체 인식 서비스 제공을 위한 사용자 장치.
a camera unit for capturing an image of an object;
an object feature extracting unit for extracting feature information about the captured image from the camera unit;
a first storage unit for matching and storing one or more representative images photographed at one or more representative angles with respect to the object and representative characteristic information extracted from each of the one or more representative images through the object characteristic extraction unit with object-related information;
For each of the one or more representative images, the representative image is modeled in the virtual space by mapping position information in a virtual space corresponding to the representative angle of the representative image, and each of the one or more representative images modeled in the virtual space Generates one or more interpolated images that are mapped between different representative images in the virtual space based on the location information of a virtual space mapping unit that generates information;
a second storage unit configured to match and store the interpolated image generated by the virtual space mapping unit and the interpolated feature information with the object related information; and
After receiving a query image according to the shooting of an object from the camera unit, extracting a feature from the query image, comparing with the first storage unit and the second storage unit, if there is no characteristic information that matches a preset reference value or more, the query Extracting characteristic information stored in any one of the first and second storage units having a similarity with object characteristic information of an image equal to or greater than a preset value, and a position in the virtual space for a representative or interpolated image corresponding to the extracted characteristic information and a comparator configured to calculate a difference between the information and the location information in the virtual space with respect to the query image and generate movement information according to the difference.
KR1020210090749A 2014-05-07 2021-07-12 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor KR102388230B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210090749A KR102388230B1 (en) 2014-05-07 2021-07-12 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140054444A KR20150127503A (en) 2014-05-07 2014-05-07 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor
KR1020210090749A KR102388230B1 (en) 2014-05-07 2021-07-12 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140054444A Division KR20150127503A (en) 2014-03-06 2014-05-07 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20210092707A KR20210092707A (en) 2021-07-26
KR102388230B1 true KR102388230B1 (en) 2022-04-19

Family

ID=54786102

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140054444A KR20150127503A (en) 2014-03-06 2014-05-07 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor
KR1020210090749A KR102388230B1 (en) 2014-05-07 2021-07-12 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020140054444A KR20150127503A (en) 2014-03-06 2014-05-07 Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (2) KR20150127503A (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101669882B1 (en) * 2016-01-14 2016-10-27 김영덕 System for providing shopping information based on augmented reality and control method thereof
WO2017122909A1 (en) * 2016-01-14 2017-07-20 주식회사 팝스라인 Terminal and control method therefor
KR102317988B1 (en) * 2016-09-22 2021-10-27 주식회사 아토즈소프트 Fish species and body length measurement method using the image
KR20180075224A (en) * 2016-12-26 2018-07-04 삼성전자주식회사 Electronic device and method for providing recognition result of object
KR101998318B1 (en) * 2017-09-06 2019-10-01 단국대학교 산학협력단 360-degree Image Generation Apparatus and Method for Synchronizing Time and Position of Object
KR102201285B1 (en) * 2018-12-18 2021-01-11 주식회사 하이쓰리디 System for editing an augmented reality image
KR20230029258A (en) 2021-08-24 2023-03-03 한국과학기술연구원 Method for updating query information for tracing target object from multi-camera and multi-camera system performing the same

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030123734A1 (en) 2001-12-28 2003-07-03 Koninklijke Philips Electronics N.V. Methods and apparatus for object recognition
US20040062435A1 (en) 1999-09-30 2004-04-01 Megumi Yamaoka Apparatus and method for image recognition
JP2006350645A (en) 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd Object detection device and learning device for the same
WO2008138802A1 (en) 2007-05-15 2008-11-20 Continental Automotive Gmbh Device for object detection in an image, and method thereof
JP2008311708A (en) 2007-06-12 2008-12-25 Nikon Corp Imaging apparatus
JP2012044251A (en) 2010-08-12 2012-03-01 Casio Comput Co Ltd Image display device and program
KR101175194B1 (en) 2011-11-08 2012-08-20 (주)올라웍스 Method, apparatus, server, and computer-readable recording medium for searching image
US20120269384A1 (en) 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images
WO2013021527A1 (en) 2011-08-05 2013-02-14 株式会社ソニー・コンピュータエンタテインメント Image processing device
US20130123734A1 (en) 2007-11-19 2013-05-16 The Procter & Gamble Company Outer Cover for a Disposable Absorbent Article
WO2013085193A1 (en) 2011-12-06 2013-06-13 경북대학교 산학협력단 Apparatus and method for enhancing user recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09200666A (en) * 1996-01-11 1997-07-31 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating and displaying image with recording position
KR100845892B1 (en) * 2006-09-27 2008-07-14 삼성전자주식회사 Method and system for mapping image objects in photo to geographic objects
KR101692764B1 (en) 2010-06-14 2017-01-05 주식회사 비즈모델라인 Method for Providing Augmented Reality by using Virtual Point

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040062435A1 (en) 1999-09-30 2004-04-01 Megumi Yamaoka Apparatus and method for image recognition
US20030123734A1 (en) 2001-12-28 2003-07-03 Koninklijke Philips Electronics N.V. Methods and apparatus for object recognition
JP2006350645A (en) 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd Object detection device and learning device for the same
US20090232403A1 (en) 2005-06-15 2009-09-17 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus and learning apparatus for the same
WO2008138802A1 (en) 2007-05-15 2008-11-20 Continental Automotive Gmbh Device for object detection in an image, and method thereof
JP2008311708A (en) 2007-06-12 2008-12-25 Nikon Corp Imaging apparatus
US20130123734A1 (en) 2007-11-19 2013-05-16 The Procter & Gamble Company Outer Cover for a Disposable Absorbent Article
JP2012044251A (en) 2010-08-12 2012-03-01 Casio Comput Co Ltd Image display device and program
US20120269384A1 (en) 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images
WO2013021527A1 (en) 2011-08-05 2013-02-14 株式会社ソニー・コンピュータエンタテインメント Image processing device
KR101175194B1 (en) 2011-11-08 2012-08-20 (주)올라웍스 Method, apparatus, server, and computer-readable recording medium for searching image
WO2013085193A1 (en) 2011-12-06 2013-06-13 경북대학교 산학협력단 Apparatus and method for enhancing user recognition

Also Published As

Publication number Publication date
KR20210092707A (en) 2021-07-26
KR20150127503A (en) 2015-11-17

Similar Documents

Publication Publication Date Title
KR102388230B1 (en) Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor
CN110411441B (en) System and method for multi-modal mapping and localization
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
US10062169B2 (en) Method of providing a descriptor for at least one feature of an image and method of matching features
JP6619634B2 (en) Image processing apparatus and image processing method
Chen et al. City-scale landmark identification on mobile devices
Chen et al. Building book inventories using smartphones
JP2019133658A (en) Positioning method, positioning device and readable storage medium
US9418313B2 (en) Method for searching for a similar image in an image database based on a reference image
KR101647803B1 (en) Face recognition method through 3-dimension face model projection and Face recognition system thereof
JP2015111339A (en) Image search system, image search apparatus, search server device, image search method, and image search program
Piciarelli Visual indoor localization in known environments
KR102434574B1 (en) Method and apparatus for recognizing a subject existed in an image based on temporal movement or spatial movement of a feature point of the image
Jiang et al. Indoor localization with a signal tree
JP5734000B2 (en) Object identification system and method, and feature point position extraction system and method
US20150254527A1 (en) Methods for 3d object recognition and registration
JP6393495B2 (en) Image processing apparatus and object recognition method
CN108335329B (en) Position detection method and device applied to aircraft and aircraft
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
JP6092012B2 (en) Object identification system and object identification method
JP5814714B2 (en) Image similarity determination device, image similarity determination method, and image similarity determination program
Xiong et al. SmartGuide: Towards single-image building localization with smartphone
Sur Robust matching in an uncertain world
JP4311278B2 (en) Object recognition method
JP6586852B2 (en) Image processing device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right