KR20080036231A - Information presenting system, information presenting terminal, and server - Google Patents

Information presenting system, information presenting terminal, and server Download PDF

Info

Publication number
KR20080036231A
KR20080036231A KR20087006704A KR20087006704A KR20080036231A KR 20080036231 A KR20080036231 A KR 20080036231A KR 20087006704 A KR20087006704 A KR 20087006704A KR 20087006704 A KR20087006704 A KR 20087006704A KR 20080036231 A KR20080036231 A KR 20080036231A
Authority
KR
South Korea
Prior art keywords
information
image
unit
analysis basic
basic information
Prior art date
Application number
KR20087006704A
Other languages
Korean (ko)
Inventor
유끼히또 후루하시
다까오 시바사끼
아끼또 사이또
유이찌로 아까쯔까
Original Assignee
올림푸스 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 올림푸스 가부시키가이샤 filed Critical 올림푸스 가부시키가이샤
Priority to KR20087006704A priority Critical patent/KR20080036231A/en
Publication of KR20080036231A publication Critical patent/KR20080036231A/en

Links

Images

Abstract

An information presenting system (10) comprises an imaging section (11) for capturing an image, a peripheral information acquiring section (14) for acquiring peripheral information, a storage section (15) for storing registration information, an analysis basic information creating section (16) for creating analysis basic information from the stored registration information according to the acquired peripheral information, and a related information acquiring section (13) for acquiring information related to the image from the captured image and the created analysis base information, and a presenting section (12) for presenting the acquired related information. The analysis basic information creating section (16) varies the analysis basic information according to at least one of the time, date, season, weather, air temperature, humidity, place, ambient brightness, average color/color distribution of the captured image, ambient noise, and type of the device.

Description

정보 제시 시스템, 정보 제시 단말기 및 서버{INFORMATION PRESENTING SYSTEM, INFORMATION PRESENTING TERMINAL, AND SERVER}Information presentation system, information presentation terminal and server {INFORMATION PRESENTING SYSTEM, INFORMATION PRESENTING TERMINAL, AND SERVER}

본 발명은, 촬상부로부터 얻어지는 화상에 관련되는 정보를 제시하는 정보 제시 시스템, 정보 제시 단말기 및 서버에 관한 것이다.The present invention relates to an information presentation system, an information presentation terminal, and a server for presenting information related to an image obtained from an imaging unit.

일본 특개 2003-15980호 공보에는, 촬영한 로고의 화상을 이용하여 서버가 대응하는 URL을 찾아내는 기술이 개시되어 있다. 즉, 이 기술에서는, 우선 휴대 기기에서, 잡지 등에 인쇄된 광고 중에 포함되는 로고 마크를 촬영한다. 다음으로, 이 촬영에 의해 취득한 로고 마크를, 인터넷을 통하여 검색 서버에 보낸다. 검색 서버는, 인터넷을 통하여 보내져 온 상기 로고 마크에 가장 가까운 로고 마크를 검색한다. 그리고, 상기 검색 서버는, 그 검색한 로고 마크에 대응하는 URL을 인터넷 경유로 상기 휴대 기기에 보낸다. 상기 휴대 기기에서는, 상기 URL에 액세스하여 홈 페이지를 열람할 수 있다.Japanese Patent Laid-Open No. 2003-15980 discloses a technique in which a server finds a corresponding URL by using an image of a photographed logo. That is, in this technique, first, a logo mark included in an advertisement printed on a magazine or the like is photographed on a portable device. Next, the logo mark acquired by this photography is sent to a search server via the Internet. The search server searches for the logo mark closest to the logo mark sent over the Internet. The search server then sends the URL corresponding to the searched logo mark to the portable device via the Internet. The portable device can access the URL and browse the home page.

또한, 일본 특개 2004-179783호 공보에는, 이용자가 ID 종별을 의식하지 않고 휴대용 클라이언트 장치로 ID를 판독하는 기술이 개시되어 있다. 즉, 이 기술에서는, 우선 휴대용 클라이언트 장치가, 카메라나 스캐너로 화상을 취득한다. 다음으로, 휴대용 클라이언트 장치는, 상기 화상이 1차원 바코드, 2차원 바코드, 전 자 워터마크가 들어간 화상, 통상 화상이어도, 상기 화상으로부터 ID를 취출한다. 그리고, 상기 휴대용 클라이언트 장치는, 상기 ID를 무선으로 외부에 있는 ID 정보 데이터베이스에 송신한다. 휴대용 클라이언트 장치는, 상기 ID 정보 데이터베이스로부터 정보를 무선으로 수취한다.Also, Japanese Patent Laid-Open No. 2004-179783 discloses a technique in which a user reads an ID with a portable client device without being aware of the ID type. That is, in this technique, the portable client device first acquires an image with a camera or a scanner. Next, the portable client device extracts the ID from the image even if the image is a one-dimensional barcode, a two-dimensional barcode, or an image containing an electronic watermark. The portable client device then wirelessly transmits the ID to an external ID information database. The portable client device wirelessly receives information from the ID information database.

여기에서, 상기 일본 특개 2003-15980호 공보에 개시된 기술에서는, 로고와 URL이 고정적으로 관련지어져 있다. 그러나, 주위의 상황, 이용하는 기기의 조건등에 상관없이, 공통의 콘텐츠나 공통의 각종 파라미터를 이용하는 것으로는 편리성이 낮아지게 된다. 예를 들면, 전기 장식에 의해, 동일한 간판이어도, 낮과 밤에서는 보이는 방법이 바뀐다. 또한, 낮과 밤에 연락처가 바뀌는 것 등도 있다. 이와 같이, 유저가 로고를 촬영한 환경에 따라 실제로 유저가 요구하고 있는 정보는 서로 다르다. 따라서, 상기 일본 특개 2003-15980호 공보에 개시된 기술에서는, 유저의 요구에 유연하게 대응하는 것은 곤란하다.Here, in the technique disclosed in Japanese Patent Laid-Open No. 2003-15980, a logo and a URL are fixedly associated with each other. However, regardless of the surrounding situation, the conditions of the device to be used, etc., the use of the common content or the common various parameters will lower convenience. For example, by the electric decoration, even if it is the same sign, the way of seeing in day and night changes. There are also changes in contacts during the day and night. In this manner, the information actually requested by the user differs depending on the environment in which the user photographs the logo. Therefore, in the technique disclosed in Japanese Patent Laid-Open No. 2003-15980, it is difficult to flexibly respond to a user's request.

또한, 상기 일본 특개 2004-179783호 공보에 개시된 기술에서는, ID를 판독하는 데에 있어서 필요로 되는 각종 화상 처리 파라미터는 장치에 고정적으로 유지되어 있는 것이 암묵의 양해로 되어 있다. 그러나, 동일 어플리케이션으로 복수의 기종, 복수의 데이터 세트를 서포트하는 경우, 인식을 위한 조건이 고정되면, 대응할 수 있는 환경이 한정되게 된다. 즉, 실제의 이용 상황에서는, 주변의 밝기나 단말기마다의 광학 성능의 차이에 따라, 파라미터를 조정하지 않으면, 안정적으로 화상 처리를 행하는 것은 곤란하다.In addition, in the technique disclosed in Japanese Patent Laid-Open No. 2004-179783, it is implicitly understood that various image processing parameters required for reading an ID are held fixed in the apparatus. However, in the case of supporting a plurality of models and a plurality of data sets in the same application, if the conditions for recognition are fixed, the corresponding environment is limited. That is, in an actual use situation, it is difficult to stably perform image processing unless the parameter is adjusted according to the difference in the brightness of the surroundings or the optical performance for each terminal.

그런데, 2개의 화상의 일치 정도를 판정하는 방법으로서, 예를 들면 「카나 자와 야스시, 카나야 켄이치 "2화상 간의 특징점 대응의 자동 탐색", 『화상 연구실』2004년 11월호(일본공업출판2)004, PP20-23」에, 이하와 같은 방법이 개시되어 있다. 우선, 입력 화상 및 비교 화상에서의 인식 요소로서의 특징점을 각각 추출한다. 그리고, 입력 화상에서의 특징점과 비교 화상에서의 특징점을 비교 대조한다. 이 특징점끼리의 비교 대조에서, 양 화상 간의 유사도의 값이, 데이터의 만족도로서 소정의 값으로 설정되어 있는 임계값을 초과할 것인지의 여부를, RANSAC법 등을 이용하여 판정한다. 그러나, 이 방법으로는, 주로 이하의 3점의 문제점이 생긴다.By the way, as a method of judging the degree of agreement between two images, for example, "Kanazawa Yasushi and Kenichi Kanaya," Automatic Detection of Feature Point Correspondence Between Two Images, "" Image Lab, November 2004 "(Japanese Industrial Publication 2) ) 004, PP20-23 ", the following method is disclosed. First, feature points as recognition elements in the input image and the comparison image are respectively extracted. And the feature point in an input image is compared and contrasted with the feature point in a comparison image. In comparison between these feature points, it is determined by using the RANSAC method or the like whether the value of the similarity between the two images exceeds a threshold set to a predetermined value as the satisfaction of the data. However, this method mainly causes the following three points.

제1 문제점은, 상기의 방법은 화상 그 자체를 비교하는 방법이기 때문에, 대상물 또는 대상물이 찍혀 있는 화상 전체를 미리 등록해 놓고, 그 위에 그 등록한 화상(비교 화상)과 입력 화상과의 비교를 행해가는 것으로 되는 점이다. 따라서, 입력 화상 또는 비교 화상에, 상정하고 있었던 대상물 이외의 대상물이 찍혀 있는 경우나, 상정하고 있었던 대상물과 유사한 대상물이 찍혀 있는 경우에는, 오인식이 생기는 경우가 있다.The first problem is that the above method is a method of comparing the images themselves, so that the entire object or the entire image on which the object is taken is registered in advance, and the registered image (comparative image) is compared with the input image thereon. It is going to be going. Therefore, when an object other than the assumed object was imprinted on the input image or the comparative image, or an object similar to the assumed object was imprinted, a false recognition may occur.

제2 문제점은, 상기의 방법에서는 대상물의 인식 시에 있어서, 비슷한 대상물이 화상 내에 찍혀 있는 경우에, 이하와 같은 문제점을 일으키는 경우가 있는 점이다. 예를 들면, OBJ1(특징점군; A, B, C)을 자사의 로고 마크로 하고 있는 S사와, OBJ2(특징점군; E, F, G)를 자사의 로고 마크로 하고 있는 M사를 상정한다. 여기에서, S사와 M사는 경합하고 있는 회사라고 한다. 이러한 경우에는, 당연히, 양자의 로고 마크의 혼동은 극력 피해야만 한다. 그러나, 상기의 방법에서는, 특 징점 A와, 특징점 E 내지 G 중 어느 하나를 동일 화상 내로부터 추출한 경우에도, OBJ1과 OBJ2와의 혼동의 기피에 배려한 특별한 로직에 의한 판정을 행하지 않는다. 따라서, 이러한 경우에는, 상기의 방법에서는 문제점이 생길 가능성이 있다.The second problem is that in the above method, the following problem may occur when a similar object is taken in an image when the object is recognized. For example, S company which makes OBJ1 (feature point group; A, B, C) its logo mark, and M company which makes OBJ2 (feature point group; E, F, G) its logo mark are assumed. Here, S company and M company are said to compete with each other. In this case, of course, confusion of both logo marks should be avoided as much as possible. However, in the above method, even when one of the feature point A and the feature points E to G is extracted from the same image, the determination is not made by special logic in consideration of avoiding confusion between OBJ1 and OBJ2. Therefore, in such a case, there exists a possibility that a problem may arise in said method.

제3 문제점은, 인식할 수 있었던 특징점의 수가 몇개인 경우에도, 인식 결과를 유저에게 전달하는 문장 표현이 동일한 점이다. 이 때문에, 예를 들면 일부의 특징점만 인식할 수 있었던 경우, 즉 입력 화상과 비교 화상과의 일치 정도가 불확정성을 포함하는 일치 정도인 경우에, 그 취지를 유저에게 전달할 수 없다.The third problem is that even when the number of feature points that can be recognized is the same, the sentence expression that delivers the recognition result to the user is the same. For this reason, for example, when only some feature points can be recognized, that is, when the degree of matching between the input image and the comparison image is a degree of matching including uncertainty, the effect cannot be transmitted to the user.

<발명의 개시><Start of invention>

본 발명은, 상기의 점을 감안하여 이루어진 것으로, 이용 환경에 의해, 상황에 따른 최적의 정보를 제시하는 것이 가능한 정보 제시 시스템, 정보 제시 단말기 및 서버를 제공하는 것을 목적으로 한다.This invention is made | formed in view of the said point, and an object of this invention is to provide the information presentation system, the information presentation terminal, and the server which can show the optimal information according to a situation by use environment.

본 발명의 정보 제시 시스템의 일 양태는,One aspect of the information presentation system of the present invention,

화상을 얻는 촬상부와,An imaging unit for obtaining an image,

주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring peripheral information,

등록 정보를 기억해 두는 기억부와,A storage unit that stores registration information,

상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여, 상기 기억부에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부와,An analysis basic information construction unit for constructing analysis basic information from the registered information stored in the storage unit based on the peripheral information acquired by the peripheral information acquisition unit;

상기 촬상부로부터 얻어지는 화상과 상기 해석 기초 정보 구축부로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부와,A related information acquisition unit for acquiring information related to the image from an image obtained from the imaging unit and analysis basic information obtained from the analysis basic information construction unit;

상기 관련 정보 취득부에서 취득한 관련 정보를 제시하는 제시부Presenting unit for presenting the relevant information obtained by the related information acquisition unit

를 구비하고,And

상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 한다.The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. It is characterized by changing.

또한, 본 발명의 정보 제시 단말기의 일 양태는,In addition, one aspect of the information presentation terminal of the present invention,

화상을 얻는 촬상부와,An imaging unit for obtaining an image,

상기 촬상부에 관련되는 주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring peripheral information related to the imaging unit;

통신 회선을 통하여 서버로부터 다운로드한 등록 정보로부터, 상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여 해석 기초 정보를 구축하는 해석 기초 정보 구축부와,An analysis basic information constructing unit for constructing analysis basic information based on the surrounding information acquired by the peripheral information obtaining unit from the registered information downloaded from the server via a communication line;

상기 촬상부로부터 얻어지는 화상과 상기 해석 기초 정보 구축부로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부와,A related information acquisition unit for acquiring information related to the image from an image obtained from the imaging unit and analysis basic information obtained from the analysis basic information construction unit;

상기 관련 정보 취득부에서 취득한 관련 정보를 제시하는 제시부Presenting unit for presenting the relevant information obtained by the related information acquisition unit

를 구비하고,And

상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 한다.The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. It is characterized by changing.

또한, 본 발명의 서버의 일 양태는,Moreover, one aspect of the server of this invention is

정보 제시 단말기로부터 통신 회선을 통하여 송신되어 오는 촬상부로부터 얻어지는 화상 및/또는 상기 촬상부에 관련되는 주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring an image obtained from an imaging unit transmitted from the information presentation terminal via a communication line and / or peripheral information related to the imaging unit;

등록 정보를 기억해 두는 기억부와,A storage unit that stores registration information,

상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여, 상기 기억부에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부An analysis basic information construction unit for constructing analysis basic information from the registered information stored in the storage unit based on the peripheral information acquired by the peripheral information acquisition unit;

를 구비하고,And

상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키고,The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. Change,

상기 해석 기초 정보 구축부에서 구축한 상기 해석 기초 정보를 상기 정보 제시 단말기에 다운로드시킴으로써, 상기 정보 제시 단말기에, 그 해석 기초 정보와 상기 촬상부로부터 얻어지는 화상으로부터 상기 화상에 관련되는 정보를 취득시켜서, 제시시키는 것을 특징으로 한다.By downloading the analysis basic information constructed by the analysis basic information construction unit to the information presentation terminal, the information presentation terminal acquires the information relating to the image from the analysis basic information and the image obtained from the imaging unit, It is characterized by presenting.

즉, 본 발명의 정보 제시 시스템, 정보 제시 단말기 및 서버에 있어서는, 주변 정보로서, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나를 이용한다. 이와 같이 하여, 상기 주변 정보에 기초하여 등록 정보로부터 해석 기초 정보를 구축한다. 그리고, 촬상부에서 촬상한 화상에 상기 해석 기초 정보를 가미하여, 상기 화상에 관련된 정보를 취득하여 제시한다.That is, in the information presentation system, the information presentation terminal, and the server of the present invention, as the surrounding information, time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient Well, at least one of the models is used. In this way, analysis basic information is constructed from registration information based on the surrounding information. Then, the analysis basic information is added to the image picked up by the imaging unit, and information related to the image is obtained and presented.

상기 주변 정보를 취득하는 주변 정보 취득부로서는, 예를 들면 이하와 같은 것이 있다. 예를 들면 상기 주변 정보로서 시각을 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 시계나, 통신 회선을 통하여 소정의 장소의 시각 정보를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 날짜를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 캘린더 정보나, 통신 회선을 통하여 소정의 장소의 날짜를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 날씨나 기온이나 습도를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 기온·습도 센서 및 그 센서의 출력으로부터 날씨를 판단하는 전자 회로나, 통신 회선을 통하여 소정의 장소의 기온·습도·날씨 정보를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 주위의 밝기를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 조도 센서나, 촬상부에서 촬상한 화상을 해석하여 조도를 구하는 해석 회로가 있다. 예를 들면 상기 주변 정보로서 취득 화상의 평균 색/색 분포를 채용하는 경우에는, 상기 주변 정보 취득부로서, 촬상부에서 촬상한 화상 정보를 해석하는 해석 회로가 있다. 예를 들면 상기 주변 정보로서 주위의 음을 채용하는 경우에는, 상기 주변 정보 취득부로서, 음량 센서가 있다. 예를 들면 상기 주변 정보로서 기종을 채용하는 경우에는, 상기 주변 정보 취득부로서, 기종 정보를 기록하는 내장 메모리가 있다.Examples of the peripheral information acquisition unit for acquiring the peripheral information include the following. For example, when time is adopted as the surrounding information, the surrounding information acquisition unit includes a built-in clock and a communication unit that obtains time information of a predetermined place through a communication line. For example, in the case of employing a date as the peripheral information, the peripheral information acquisition unit includes a built-in calendar information and a communication unit that obtains a date of a predetermined place through a communication line. For example, in the case of employing the weather, temperature, or humidity as the surrounding information, the surrounding information acquisition unit is provided with a predetermined temperature and humidity sensor and an electronic circuit for determining the weather from the output of the sensor, or via a communication line. There is communication department to get temperature, humidity, weather information of place. For example, in the case of adopting the brightness of the surroundings as the peripheral information, as the peripheral information obtaining unit, there are an illuminance sensor to be built in and an analysis circuit for analyzing the image picked up by the imaging unit to obtain illuminance. For example, when employ | adopting the average color / color distribution of an acquired image as said peripheral information, there exists an analysis circuit which analyzes the image information picked up by the imaging part as said peripheral information acquisition part. For example, when the surrounding sound is adopted as the peripheral information, there is a volume sensor as the peripheral information acquisition unit. For example, when employing a model as the peripheral information, there is an internal memory for recording model information as the peripheral information acquisition unit.

또한, 촬상부로서는, 예를 들면, CCD나 CMOS 등의 촬상 소자 및 상기 촬상 소자의 수광면 상에 결상시키는 광학계 등이 있다.Moreover, as an imaging part, there exists an imaging element, such as CCD and CMOS, and the optical system image-forming on the light receiving surface of the said imaging element, for example.

기억부로서는, 예를 들면, 내장 또는 통신 회선을 통하여 액세스 가능한 메 모리 소자나 HDD(하드 디스크 드라이브) 등이 있다.As the storage unit, for example, a memory element or an HDD (hard disk drive) or the like accessible through a built-in or communication line.

해석 기초 정보 구축부로서는, 예를 들면 내장하는 CPU 및 그 CPU 상에서 동작하는 해석 기초 정보 구축 프로그램 등이 있다.Examples of the analysis basic information constructing unit include a built-in CPU and an analysis basic information constructing program operating on the CPU.

또한, 제시부로서는, 액정이나 플라즈마 등의 디스플레이 장치 등이 있다. 또한, 필요한 정보를 발음에 의해 제시하는 경우에는 스피커 등이 있다.Moreover, as a display part, there exist display apparatuses, such as a liquid crystal and a plasma. In addition, when presenting necessary information by pronunciation, a speaker etc. are mentioned.

도 1은 본 발명의 제1 실시예에 따른 정보 제시 시스템의 블록 구성도.1 is a block diagram of an information presentation system according to a first embodiment of the present invention.

도 2는 해석 기초 정보 구축부의 동작 플로우차트를 도시하는 도면.2 is a flowchart showing an operation flowchart of an analysis basic information construction unit;

도 3은 본 발명의 제2 실시예에 따른 정보 제시 시스템의 블록 구성도.3 is a block diagram of an information presentation system according to a second embodiment of the present invention;

도 4는 정보 제시 단말기를 휴대 전화기로서 구성한 경우의 정보 제시 시스템의 구성을 도시하는 도면.4 is a diagram illustrating a configuration of an information presentation system when the information presentation terminal is configured as a mobile telephone.

도 5는 서버를 복수 이용하여, 정보 제시 단말기를 휴대 전화기로서 구성한 경우의 정보 제시 시스템의 구성을 도시하는 도면.Fig. 5 is a diagram showing the configuration of an information presentation system in the case where the information presentation terminal is configured as a mobile telephone using a plurality of servers.

도 6은 본 발명의 제3 실시예에 따른 정보 제시 시스템의 블록 구성도.6 is a block diagram of an information presentation system according to a third embodiment of the present invention;

도 7은 본 발명의 제4 실시예에 따른 정보 제시 시스템의 블록 구성도.7 is a block diagram of an information presentation system according to a fourth embodiment of the present invention;

도 8은 본 발명의 제5 실시예에 따른 정보 제시 시스템의 블록 구성도.8 is a block diagram of an information presentation system according to a fifth embodiment of the present invention;

도 9는 해석 기초 정보 구축부와 관련 정보 취득부 및 제2 관련 정보 취득부와의 관계를 설명하기 위한 도면.9 is a diagram for explaining a relationship between an analysis basic information construction unit, a related information acquisition unit, and a second related information acquisition unit;

도 10은 본 발명의 제6 실시예에 따른 검색 시스템의 구성을 도시하는 도면.10 is a diagram showing the configuration of a search system according to a sixth embodiment of the present invention;

도 11은 대상 화상의 일례를 도시하는 도면.11 is a diagram illustrating an example of a target image.

도 12는 대상 화상의 일례를 도시하는 도면.12 is a diagram illustrating an example of a target image.

도 13은 대상 화상의 일례를 도시하는 도면.13 is a diagram illustrating an example of a target image.

도 14는 대상 화상의 일례를 도시하는 도면.14 is a diagram illustrating an example of a target image.

도 15는 입력된 등록을 희망하는 대상 화상과, TP 데이터 관리 DB에 등록된 화상을 비교하여 등록하는 처리를 나타내는 플로우차트.Fig. 15 is a flowchart showing a process of comparing and registering an input target image desired to be registered with an image registered in the TP data management DB.

도 16은 분할하여 등록을 할 때에, TP 데이터 관리 DB에 등록된 화상과 유사하다고 판단한 부분을 강조하여 표시하는 표시 방법의 일례를 도시하는 도면.Fig. 16 is a diagram showing an example of a display method for highlighting and displaying a portion determined to be similar to an image registered in the TP data management DB when segmentation and registration are performed.

도 17은 TP 데이터 관리 DB에 등록된 화상 중에서, 등록을 희망하는 화상과 유사한 화상을 리스트 형식으로 유저에게 표시하는 표시 방법의 일례를 도시하는 도면.FIG. 17 is a diagram showing an example of a display method of displaying, in a list format, an image similar to an image desired to be registered among the images registered in the TP data management DB.

도 18은 TP 데이터 관리 DB에 등록된 화상 중에서, 등록을 희망하는 화상과 유사한 화상을 리스트 형식으로 유저에게 표시하는 표시 방법의 일례를 도시하는 도면.FIG. 18 is a diagram showing an example of a display method of displaying, in a list form, an image similar to an image desired to be registered among the images registered in the TP data management DB. FIG.

도 19는 등록을 희망하는 대상 화상과 유사한 화상이 TP 데이터 관리 DB 내에 복수 존재하는 경우에, 대상 화상 중 유사 부분을 순차적으로 분할 및 삭제해 가서, 최종적으로 비유사 부분을 신규 등록 부분으로서 남기는 과정을 도시하는 도면.19 shows a process of dividing and deleting similar portions sequentially in a target image, and finally leaving a dissimilar portion as a new registration portion when a plurality of images similar to the target image to be registered exist in the TP data management DB. Drawings showing.

도 20은 TP 데이터 관리 DB 내에 이미 등록된 화상을 분할하고, 재등록하는 과정을 도시하는 도면.20 is a diagram showing a process of dividing and re-registering an image already registered in the TP data management DB.

도 21A는 등록을 희망하는 대상 화상의 일부와 유사한 부분을 갖는 화상이 TP 데이터 관리 DB 내에 존재하는 경우에, 유사 부분을 서로 겹치게 하도록 합성하는 과정의 일례를 도시하는 도면.Fig. 21A is a diagram showing an example of a process of synthesizing similar parts so as to overlap each other when an image having a part similar to a part of the target image to be registered exists in the TP data management DB.

도 21B는 등록을 희망하는 대상 화상의 일부와 유사한 부분을 갖는 화상이 TP 데이터 관리 DB 내에 존재하는 경우에, 유사 부분을 서로 겹치게 하도록 합성하는 과정의 일례를 도시하는 도면.Fig. 21B is a diagram showing an example of a process of synthesizing similar parts so as to overlap each other when an image having a part similar to a part of the target image to be registered exists in the TP data management DB.

도 22는 동화상을 TP 데이터 관리 DB에 등록하는 경우에, 매칭을 이용하는 예를 도시하는 도면.Fig. 22 is a diagram showing an example of using matching when registering a moving image in the TP data management DB.

도 23은 인식 요소 동정 처리를 나타내는 플로우차트.23 is a flowchart showing a recognition element identification process.

도 24는 제12 실시예에 따른 대상물 인식 방법을 설명하는 도면.Fig. 24 is a diagram explaining an object recognition method according to the twelfth embodiment.

도 25는 제12 실시예에 따른 대상물 인식 방법을 설명하는 도면.Fig. 25 is a diagram explaining an object recognition method according to the twelfth embodiment.

도 26은 제14 실시예에서의 매칭 처리부 및 TP 데이터 관리 DB의 시스템 구성을 설명하는 도면.Fig. 26 is a diagram explaining a system configuration of a matching processing unit and a TP data management DB in the fourteenth embodiment.

도 27은 본 발명의 제15 실시예에 따른 카메라 부착 휴대 전화를 이용한 화상의 매칭 처리의 흐름을 설명하는 플로우차트.Fig. 27 is a flowchart for explaining the flow of image matching processing using the mobile phone with camera according to the fifteenth embodiment of the present invention.

도 28은 본 발명의 제15 실시예에서의 마커 화상의 표시 형태의 일례를 도시하는 도면.Fig. 28 is a diagram showing an example of the display form of the marker image in the fifteenth embodiment of the present invention.

도 29는 본 발명의 제15 실시예에서의 마커 화상의 표시 형태의 일례를 도시하는 도면.Fig. 29 is a diagram showing an example of the display form of the marker image in the fifteenth embodiment of the present invention.

<발명을 실시하기 위한 최량의 형태><Best Mode for Carrying Out the Invention>

이하, 본 발명을 실시하기 위한 최량의 형태를 도면을 참조하여 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the best form for implementing this invention is demonstrated with reference to drawings.

[제1 실시예][First Embodiment]

본 발명의 제1 실시예에 따른 정보 제시 시스템(10)은, 도 1에 도시하는 바와 같이, 촬영부(11), 관련 정보 취득부(12), 제시부(13), 주변 정보 취득부(14), 기억부(15), 해석 기초 정보 구축부(16)를 갖고 있다. 상기 촬영부(11)는, 카메라 등의 촬상부이다. 상기 관련 정보 취득부(12)는, 상기 촬영부(11)로부터 얻어지는 마커 화상이나 로고 화상과 같은 소정의 화상에 관련되는 정보를 취득한다. 상기 제시부(13)는, 그 관련 정보 취득부(12)에서 취득한 관련 정보를 제시한다. 상기 주변 정보 취득부(14)는, 상기 촬영부(11)에 관련되는 주변 정보를 취득한다. 상기 기억부(15)는, 등록 정보를 기억한다. 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보 취득부(14)에서 취득한 주변 정보에 기초하여, 상기 기억부(15)에 기억된 등록 정보로부터 해석 기초 정보를 구축한다.As shown in FIG. 1, the information presentation system 10 according to the first embodiment of the present invention includes the photographing unit 11, the related information obtaining unit 12, the presenting unit 13, and the surrounding information obtaining unit 14. ), A storage unit 15, and an analysis basic information construction unit 16. The photographing section 11 is an imaging section such as a camera. The related information acquisition unit 12 acquires information related to a predetermined image such as a marker image or a logo image obtained from the photographing unit 11. The presenting unit 13 presents the related information acquired by the related information obtaining unit 12. The peripheral information acquisition unit 14 acquires the peripheral information related to the photographing unit 11. The storage unit 15 stores registration information. The analysis basic information building unit 16 builds analysis basic information from the registration information stored in the storage unit 15 based on the peripheral information acquired by the peripheral information acquisition unit 14.

여기에서, 상기 주변 정보 취득부(14)에서 취득하는 주변 정보는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나를 포함한다. 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보에 기초하여, 상기 해석 기초 정보를 변화시킨다. 즉, 도 2에 도시하는 바와 같이, 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보 취득부(14)로부터 주변 정보를 취득한다(스텝 S1). 또한, 상기 해석 기초 정보 구축부(16)는, 그 주변 정보에 따라서, 각종 파라미터를 설정한다(스텝 S2). 이 스텝 S2과 동시에, 상기 해석 기초 정보 구축부(16)는, 상기 기억부(15)로부터 등록 정보를 선택적으로 읽어들인다(스텝 S3). 그리고, 상기 해석 기초 정보 구축부(16)는, 상기 설정한 파라미터와 읽어들인 등록 정보를 해석 기초 정보로서 통합한다(스텝 S4). 또한, 상기 해석 기초 정보 구축부(16)는, 상기 관련 정보 취득부(12)에, 상기 스텝 S4에서 구축한 해석 기초 정보를 부여한다. 상기 관련 정보 취득부(12)는, 상기 촬영부(11)로부터 얻어지는 화상과, 이 해석 기초 정보 구축부(16)로부터 공급된 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득한다.Here, the peripheral information acquired by the peripheral information acquisition unit 14 includes time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. At least one of the. The analysis basic information building unit 16 changes the analysis basic information based on the surrounding information. That is, as shown in FIG. 2, the said analysis basic information construction part 16 acquires the surrounding information from the said surrounding information acquisition part 14 (step S1). The analysis basic information construction unit 16 also sets various parameters in accordance with the surrounding information (step S2). Simultaneously with this step S2, the analysis basic information construction unit 16 selectively reads registration information from the storage unit 15 (step S3). The analysis basic information construction unit 16 then integrates the set parameter and the read registration information as analysis basic information (step S4). In addition, the analysis basic information construction unit 16 provides the related information acquisition unit 12 with the analysis basic information constructed in the step S4. The related information acquisition unit 12 acquires information related to the image from the image obtained from the photographing unit 11 and the analysis basic information supplied from the analysis basic information construction unit 16.

이러한 구성의 정보 제시 시스템(10)의 구체예로서는, 예를 들면, 이하와 같은 것이 고려된다.As a specific example of the information presentation system 10 of such a structure, the following are considered, for example.

기동 시에, 주변 정보 취득부(14)가 날짜·시각 정보를 취득하고, 해석 기초 정보 구축부(16)가, 기억부(15) 내에 있는 어드레스북으로부터 그 시각에 대응한 전화 번호를 취득하고, 상기한 바와 같이 해석 기초 정보를 구축한다. 상기 해석 기초 정보 구축부(16)에서는, 이와 같이, 미리 준비되어 있는 정보로부터 최적의 것을 선택할 수 있다. 또한, 상기 해석 기초 정보는, 출력 정보를 포함한다. 즉, 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보에 기초하여 출력 정보를 변화시킨다. 여기에서, 예를 들면 촬영부(11)에서 얼굴 사진이 있는 앨범을 촬영하면, 그 얼굴을 인식하고, 전화 번호를 표시하는 어플리케이션을 상정한다. 이 경우, 평일의 9:00∼18:00이면, 사무실의 전화 번호를 취득하고, 해석 기초 정보로 한다. 그러나, 휴일이나 평일의 18:00 이후이면, 자택의 전화 번호를 취득하고, 해석 기초 정보로 하는 것이 고려된다. 또한, 22:00 이후이면, 동일하게 자택의 전화 번호를 취득하는 것이지만, 「긴급 시에만」이라는 메시지를 추가하여, 해석 기초 정보로 하도록 하여도 된다.At the start-up, the peripheral information acquisition unit 14 acquires the date and time information, and the analysis basic information construction unit 16 acquires the telephone number corresponding to the time from the address book in the storage unit 15, As described above, analysis basic information is constructed. In the analysis basic information construction unit 16, the optimal one can be selected from the information prepared in advance. In addition, the said analysis basic information contains output information. That is, the analysis basic information construction unit 16 changes the output information based on the surrounding information. Here, for example, when the photographing unit 11 photographs an album with a face picture, it is assumed that the application recognizes the face and displays the telephone number. In this case, if it is 9: 00-18: 00 of weekdays, the telephone number of an office is acquired and it is set as analysis basic information. However, if it is after 18:00 on a holiday or weekday, it is considered to obtain a home telephone number and use it as analysis basic information. In addition, if it is after 22:00, it is similarly to acquire a home telephone number, but may add the message "only at the time of emergency", and may use it as analysis basic information.

또한, 기동 시에, 주변 정보 취득부(14)가 위치 정보를 취득하고, 상기 해석 기초 정보 구축부(16)가, 기억부(15)의 등록 정보(간판) 중, 상기 위치 정보로 나타내어지는 위치로부터 주위 1㎞ 사방에 있는 등록 정보(간판)로부터, 해석 기초 정보를 구축하도록 하여도 된다. 이 경우, 주변 정보 취득부(14)는, 위치 정보를, GPS, 통신 장치가 있는 경우에는 기지국 간의 전파 강도, 촬영 대상의 마커나 2차원 코드에 매립된 위치 정보, 예를 들면 위도 경도나 주소, 등으로부터 결정할 수 있다. 이러한 구성으로 하면, 복수의 지역에 존재하는 간판이어도, 그 장소에 대응하는 정보를 제시하는 것이 가능하게 된다. 예를 들면, 촬영부(11)에서 A사의 로고 마크를 촬영하면, 가장 가까운 수리 접수 창구가 표시되는 어플리케이션을 제공할 수 있다. 또한, 촬영부(11)에서 B 편의점의 간판을 촬영하면, 위치 정보에 기초하여 현재의 날씨나 일기 예보 정보를 취득하고, 예를 들면 「지금이라면 우산이 XXX엔, 아직 재고가 있습니다」라고 하는 바와 같은, 해당 편의점의 판촉 정보를 제시하는 어플리케이션을 제공할 수 있다. 이와 같이, 본 제1 실시예에 따른 정보 제시 시스템(10)에 의하면, 네비게이션이나 판촉이라고 한 각종 정보의 제시를 하는 것이 가능하게 된다.In addition, the peripheral information acquisition part 14 acquires positional information at the time of starting, and the said analysis basic information construction part 16 is represented by the said positional information among the registration information (signboard) of the memory | storage part 15. Moreover, as shown in FIG. Analysis basic information may be constructed from registration information (signboards) that are 1 km around from the position. In this case, the peripheral information acquisition unit 14 transmits the position information to the radio wave strength between the base stations, and the position information embedded in the marker or the two-dimensional code, for example, latitude and longitude or address, if there is a GPS or a communication device. , Etc. can be determined. With such a configuration, even if a signboard exists in a plurality of regions, it is possible to present information corresponding to the place. For example, when the photographing unit 11 photographs the logo mark of the company A, it is possible to provide an application in which the nearest repair reception window is displayed. In addition, when the photographing unit 11 photographs the signboard of the convenience store B, the current weather and the weather forecast information are acquired based on the location information, for example, "Umbrella is now in XXX yen and still in stock". As described above, an application for presenting promotion information of a corresponding convenience store may be provided. As described above, according to the information presentation system 10 according to the first embodiment, it is possible to present various types of information such as navigation and promotion.

혹은, 기동 시에, 주변 정보 취득부(14)가, 주위의 밝기 또는 촬영부(11)로부터 취득한 화상의 밝기를 취득하고, 해석 기초 정보 구축부(16)가, 그 취득한 밝기 정보에 기초하여, 화상 처리를 위한 임계값을 조정하거나, 콘트라스트 필터의 파라미터를 조정하는 등이라고 한 처리를 행할 수도 있다. 이에 의해, 촬영부(11)에서 취득한 화상이 어둑어둑한 화상이어도, 인식 대상의 마커나 얼굴 사진, 로고 마크 등을 인식 가능하게 된다. 예를 들면, 조명이 어두운 방에서 촬영한 경우, 화상의 밝기에 기초하여 2치화의 임계값을 10% 작게 한다. 이 조정에 의해, 로고나 사진의 주위가 약간 어두워져 있어도, 안정적으로 그들의 추출을 행할 수 있다. 그리고 또한, 동일하게 해석 기초 정보로서 공급되는 템플릿과 그 추출한 인식 대상으로서의 로고나 사진과의 매칭 처리를 행함으로써, 안정적으로 인식을 할 수 있게 된다.Or at the time of starting, the surrounding information acquisition part 14 acquires the brightness of the surroundings or the brightness | luminance of the image acquired from the imaging | photography part 11, and the analysis basic information construction part 16 based on the acquired brightness information. It is also possible to perform a process such as adjusting a threshold for image processing, adjusting a parameter of the contrast filter, and the like. Thereby, even if the image acquired by the imaging | photography part 11 is a dim image, the marker of a recognition object, a face photograph, a logo mark, etc. can be recognized. For example, when photographing in a dark room, the threshold of binarization is reduced by 10% based on the brightness of the image. By this adjustment, even if the circumference | surroundings of a logo and a photo are slightly dark, they can extract them stably. Similarly, the matching process between the template supplied as the analysis basic information and the logo or photograph as the extracted recognition target can be stably recognized.

또한, 기동 시에, 주변 정보 취득부(14)가, 주위의 밝기 또는 촬영부(11)로부터 취득한 화상의 밝기를 취득하고, 해석 기초 정보 구축부(16)가, 어두운 경우에는, 조명이 닿는 간판이나 빛나는 간판을 대상으로 한 등록 정보로부터 해석 기초 정보를 구축한다. 이에 의해, 어두울 때에는 보이는 방법이 변하는 간판이어도 인식 가능하게 된다. 또한, 화면 내의 컴포넌트의 색을 주위의 밝기에 따른 배색으로 조정할 수 있으므로, 정보를 보기 쉽게 제시할 수 있다.In addition, when starting, the peripheral information acquisition part 14 acquires the brightness of the surroundings or the brightness | luminance of the image acquired from the imaging | photography part 11, and when the analysis basic information construction part 16 is dark, illumination is reached. We build analysis basic information from registration information for signboard and shining signboard. Thereby, even if it is a signboard in which a visible method changes when it is dark, it becomes possible to recognize. In addition, since the color of the components in the screen can be adjusted to the color scheme according to the brightness of the surroundings, information can be presented easily.

[제2 실시예]Second Embodiment

본 발명의 제2 실시예에 따른 정보 제시 시스템은, 도 3에 도시하는 바와 같이, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 정보 제시 단말기(10A)와 서버(10B)를 통신 회선에 의해 접속한다. 이 경우, 상기 정보 제시 단말기(10A)는, 상기 촬영부(11)와 상기 관련 정보 취득부(12)와 상기 제시부(13)를 포함한다. 상기 서버(10B)는, 상기 주변 정보 취득부(14)와 상기 기억부(15)와 상기 해석 기초 정보 구축부(16)를 포함한다.The information presentation system according to the second embodiment of the present invention is divided into an information presentation terminal 10A and a server 10B, as shown in FIG. Then, the information presentation terminal 10A and the server 10B are connected by a communication line. In this case, the information presentation terminal 10A includes the photographing unit 11, the related information obtaining unit 12, and the presenting unit 13. The server 10B includes the peripheral information acquisition unit 14, the storage unit 15, and the analysis basic information construction unit 16.

또한, 정보 제시 단말기(10A)를 휴대 전화기로서 구성한 경우에는, 본 제2 실시예에 따른 정보 제시 시스템은, 예를 들면 도 4에 도시하는 바와 같은 구성으로 된다. 여기에서, 서버(10B)의 주변 정보 취득부(14)는, 정보 제시 단말기(10A)가 구비하는 센서나 GPS의 정보를 주변 정보로서 취득할뿐만 아니라, 기지국(21)이 제공하는 위치 정보나 환경 정보 등도, 주변 정보로서 취득한다.In addition, when the information presentation terminal 10A is configured as a mobile telephone, the information presentation system according to the second embodiment has a configuration as shown in FIG. 4, for example. Here, the peripheral information acquisition unit 14 of the server 10B not only acquires the sensor or GPS information included in the information presentation terminal 10A as the peripheral information, but also the position information provided by the base station 21 and the like. Environmental information and the like are also acquired as the surrounding information.

혹은, 정보 제시 단말기(10A)를 PDA 등의 인터넷 접속 기능을 갖춘 휴대형 정보 기기라고 한 경우에는, 통신 회선(20)은 인터넷을 포함한다. 이 경우에는, 정보 제시 단말기(10A)와 서버(10B)가 동일국 내에 존재한다고는 할 수 없다. 따라서, 서버(10B)의 주변 정보 취득부(14)는, 정보 제시 단말기(10A)가 구비하는 시계로부터 일시 정보를 주변 정보로서 적절히 취득하여도 된다.Alternatively, when the information presentation terminal 10A is a portable information device having an Internet connection function such as a PDA, the communication line 20 includes the Internet. In this case, the information presentation terminal 10A and the server 10B cannot be said to exist in the same station. Accordingly, the peripheral information acquisition unit 14 of the server 10B may appropriately acquire the date and time information as the peripheral information from the clock included in the information presentation terminal 10A.

이러한 구성에서는, 정보 제시 단말기(10A)의 기동 시, 혹은, 서버(10B)로부터 해석 기초 정보를 다운로드할 때에, 서버(10B) 상의 해석 기초 정보 구축부(16)에서 최적의 해석 기초 정보를 구축한다.In such a configuration, optimal analysis basic information is constructed by the analysis basic information constructing unit 16 on the server 10B when the information presentation terminal 10A is activated or when the analysis basic information is downloaded from the server 10B. do.

예를 들면, 정보 제시 단말기(10A)로서의 휴대 전화기의 기종에 따라서, 서버(10B) 상에서 2치화(화상 처리)의 임계값을 조정하여, 해석 기초 정보를 구축한다. 나아가서는, 정보 제시 단말기(10A)로서의 휴대 전화기의 기종에 따라서, 화상 처리 필터를 설정하여, 해석 기초 정보를 구축한다. 즉, 휴대 전화기는 다수의 기종이 존재하고, 각 기종마다 촬영부(11)의 광학 성능이 서로 다르다. 이 때문에, 적합한 화상 처리 파라미터를 설정하지 않으면, 안정된 화상 인식 처리를 행하는 것은 곤란하다. 예를 들면, 휴대 전화기는 기종에 따라서는, 화상이 흐려지기 때문에, 2치화의 임계값을 높은듯하게 설정하면 효과적이다. 또한, 화상이 흐려지 는 휴대 전화기의 기종에서는, 화상 처리 필터로서, 엣지 강조 필터를 설정하는 것은, 안정적인 화상 인식에 효과적이다.For example, according to the model of the mobile telephone as the information presentation terminal 10A, the threshold value of the binarization (image processing) is adjusted on the server 10B to construct analysis basic information. Furthermore, according to the model of the mobile telephone as the information presentation terminal 10A, an image processing filter is set to construct analysis basic information. That is, a plurality of models exist in the mobile phone, and the optical performance of the photographing unit 11 is different for each model. For this reason, it is difficult to perform stable image recognition processing unless an appropriate image processing parameter is set. For example, since a mobile phone has a blurred image depending on the model, it is effective to set a threshold value of binarization as high. In addition, in the model of the mobile phone whose image is blurred, setting the edge emphasis filter as the image processing filter is effective for stable image recognition.

혹은, 휴대 전화기의 기종에 따라서, 템플릿 사이즈를 조정하도록 하여도 된다. 또한, 해석 기초 정보에 편입되는 등록 정보의 수 및/또는 상호의 유사도에 따라서, 템플릿 사이즈를 조정하도록 하여도 된다. 예를 들면, 해석 기초 정보로서 통합하는 등록 정보의 상호의 유사도가 미리 설정한 값 이상인 경우에는, 템플릿 매칭을 행하기 위한 템플릿 사이즈를 종횡 2배로 하고, 그 값을 해석 기초 정보에 포함시킨다. 이와 같이 함으로써, 오인식하기 쉬운 환경이어도, 보다 고정밀도한 매칭 처리를 실현할 수 있다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 등록수에 따라서, 템플릿 사이즈를 작게 한다. 즉, 등록수가 많은 경우에는, 매칭 처리에 요하는 시간을 단축하기 위해, 오인식하지 않는 범위(상호의 유사도가 설정값 이상으로 안되는 범위)에서 템플릿 사이즈를 작게 하도록 시도한다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 템플릿의 데이터 계조를 내려도 된다. 예를 들면, 통상은 256계조의 그레이 스케일이지만, 이를 16계조로 내려도 된다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 오인식을 피하기 위해서, 매칭의 임계값을 높게 설정하여도 된다.Alternatively, the template size may be adjusted in accordance with the model of the cellular phone. Further, the template size may be adjusted according to the number of registration information incorporated in the analysis basic information and / or the similarity of each other. For example, when the similarity of mutually registered registration information to be incorporated as analysis basic information is equal to or larger than a preset value, the template size for performing template matching is doubled horizontally and the value is included in the analysis basic information. By doing in this way, more accurate matching process can be implement | achieved even in the environment which is easy to recognize. If the similarity of registration information is low, the template size is made small according to the number of registrations. In other words, when the number of registrations is large, in order to shorten the time required for the matching process, an attempt is made to reduce the template size in a range in which misrecognition is not made (a range in which the similarity of mutuality does not exceed the set value). In addition, when the similarity of registration information is low, you may lower the data gradation of a template. For example, the gray scale is usually 256 gradations, but may be reduced to 16 gradations. In addition, when the similarity of registration information is low, you may set a high threshold of matching, in order to avoid misperception.

또한, 상기 주변 정보 취득부(14), 상기 기억부(15) 및 상기 해석 기초 정보 구축부(16)를 포함하는 서버(10B)는 하나로 한정하지 않고, 복수 준비하여도 된다. 정보 제시 단말기(10A)를 휴대 전화기로 한 경우에는, 본 제2 실시예에 따른 정보 제시 시스템은, 예를 들면 도 5에 도시하는 바와 같은 구성으로 된다. 즉, 도 5에 도시하는 바와 같이, 복수의 서버(10B-1, 10B-2, 10B-3, …)가, 통신 회선(20)에 접속되는 구성의 정보 제시 시스템으로 된다. 또한, 이 통신 회선(20)은, 기지국(21)과 네트워크(22)에 의해 구성된다. 그리고, 상기 서버(10B-1 내지 10B-3, …)는, 상기 네트워크(22)에 접속되어 있다. 이러한 경우, 상기 정보 제시 단말기(10A)의 관련 정보 취득부(12)는, 그들 복수의 서버(10B-1, 10B-2, 10B-3, …)로부터 해석 기초 정보를 취득하도록 하여도 된다. 또한, 1개의 서버(10B)(예를 들면 서버(10B-1))의 해석 기초 정보 구축부(16)는, 해당 서버(10B)(예를 들면 서버(10B-1)) 이외의 적어도 하나의 서버(10B)(예를 들면 서버(10B-2, 10B-3, …))로부터 정보를 취득하고, 그들 정보를 조합한 후에, 상기 정보 제시 단말기(10A)에 송신하는 해석 기초 정보를 구축하도록 하여도 된다.Note that the server 10B including the peripheral information acquisition unit 14, the storage unit 15, and the analysis basic information construction unit 16 is not limited to one, but may be provided in plural. In the case where the information presentation terminal 10A is a mobile telephone, the information presentation system according to the second embodiment has a configuration as shown in FIG. 5, for example. That is, as shown in FIG. 5, the some server 10B-1, 10B-2, 10B-3, ... becomes an information presentation system of the structure connected to the communication line 20. As shown in FIG. In addition, this communication line 20 is constituted by the base station 21 and the network 22. The servers 10B-1 to 10B-3, ... are connected to the network 22. In such a case, the related information acquisition unit 12 of the information presentation terminal 10A may acquire analysis basic information from the plurality of servers 10B-1, 10B-2, 10B-3, .... In addition, the analysis basic information construction part 16 of one server 10B (for example, server 10B-1) is at least one other than the said server 10B (for example, server 10B-1). Acquires information from the server 10B (for example, the servers 10B-2, 10B-3, ...), and combines the information, and then constructs analysis basic information to be transmitted to the information presentation terminal 10A. You may also do so.

[제3 실시예]Third Embodiment

본 발명의 제3 실시예에 따른 정보 제시 시스템은, 상기 제2 실시예와 마찬가지로, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 상기 정보 제시 단말기(10A)와 상기 서버(10B)를 통신 회선에 의해 접속한다. 단, 본 실시예에서는, 도 6에 도시하는 바와 같이, 정보 제시 단말기(10A)는, 상기 촬영부(11), 상기 관련 정보 취득부(12), 상기 제시부(13), 상기 주변 정보 취득부(14), 및 상기 해석 기초 정보 구축부(16)를 포함한다. 상기 서버(10B)는 상기 기억부(15)만을 포함하도록 구성한다.The information presentation system according to the third embodiment of the present invention is divided into an information presentation terminal 10A and a server 10B similarly to the second embodiment. Then, the information presentation terminal 10A and the server 10B are connected by a communication line. In the present embodiment, however, as shown in FIG. 6, the information presentation terminal 10A includes the photographing section 11, the related information obtaining section 12, the presenting section 13, and the surrounding information obtaining section. (14) and the analysis basic information constructing unit 16. The server 10B is configured to include only the storage unit 15.

이러한 구성에 따르면, 서버(10B)로부터 취득한 등록 정보를 정보 제시 단말기(10A) 상에서 해석 기초 정보로서 구축하므로, 한번 등록 정보를 다운로드하면, 정보 제시 단말기(10A)의 주변 정보에 세세하게 대응시키는 것이 가능하게 된다.According to this structure, since the registration information acquired from the server 10B is constructed as analysis basic information on the information presentation terminal 10A, once the registration information is downloaded, it is possible to finely correspond to the surrounding information of the information presentation terminal 10A. Done.

[제4 실시예][Example 4]

본 발명의 제4 실시예에 따른 정보 제시 시스템도, 상기 제2 및 제3 실시예와 마찬가지로, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 상기 정보 제시 단말기(10A)와 상기 서버(10B)를 통신 회선에 의해 접속한다. 단, 본 실시예에서는, 도 7에 도시하는 바와 같이, 정보 제시 단말기(10A)는, 상기 촬영부(11)와 상기 제시부(13)만을 갖는다. 상기 서버(10B)는, 그 밖의 상기 관련 정보 취득부(12), 상기 주변 정보 취득부(14), 상기 기억부(15), 및 상기 해석 기초 정보 구축부(16)를 갖는다. 단, 도 7에 도시하는 바와 같이 서버(10B)의 주변 정보 취득부(14)는, 통신 회선을 통하여, 정보 제시 단말기(10A)가 갖는 센서 등으로부터 GPS 정보나 시간 정보, 나아가서는 밝기 등의 정보를 취득하기 위한 촬영부(11)로부터의 화상 등의 주변 정보(기지국(21)으로부터 송신되어 오는 주변 정보도 포함함)를 취득한다.The information presentation system according to the fourth embodiment of the present invention is also divided into the information presentation terminal 10A and the server 10B similarly to the second and third embodiments. Then, the information presentation terminal 10A and the server 10B are connected by a communication line. In the present embodiment, however, as shown in Fig. 7, the information presentation terminal 10A has only the photographing section 11 and the presentation section 13. The server 10B has another related information acquisition unit 12, the peripheral information acquisition unit 14, the storage unit 15, and the analysis basic information construction unit 16. However, as shown in FIG. 7, the peripheral information acquisition unit 14 of the server 10B uses a communication line such as GPS information, time information, brightness, and the like from a sensor or the like of the information presentation terminal 10A. Peripheral information (including peripheral information transmitted from the base station 21) such as an image from the photographing unit 11 for acquiring the information is acquired.

이러한 구성으로 하면, 유저는, 사전에 정보 제시 단말기(10A)에 해석 기초 정보를 다운로드할 필요가 없다. 또한, 서버(10B)는, 촬영한 화상과 함께 송신되어 오는 상기 정보 제시 단말기(10A)의 주변 정보에 대응한 최적의 해석 기초 정보에 기초하는 처리를 행할 수 있다.With such a configuration, the user does not need to download the analysis basic information to the information presentation terminal 10A in advance. In addition, the server 10B can perform processing based on the optimal analysis basic information corresponding to the peripheral information of the information presentation terminal 10A which is transmitted together with the captured image.

[제5 실시예][Example 5]

본 발명의 제5 실시예에 따른 정보 제시 시스템은, 상기 제2 실시예의 구성에서, 도 8에 도시하는 바와 같이, 서버(10B)에 상기 관련 정보 취득부(12)와 동등 한 기능을 갖는 제2 관련 정보 취득부(17)를 더 설치한 것이다. 여기에서, 상기 제2 관련 정보 취득부(17)는, 상기 관련 정보 취득부(12)가 취득한 해석 기초 정보보다도 많은 해석 기초 정보로부터 관련 정보를 취득하는 것이다.The information presentation system according to the fifth embodiment of the present invention is, in the configuration of the second embodiment, as shown in FIG. 8, having a function equivalent to that of the related information acquisition unit 12 in the server 10B. 2 The related information acquisition unit 17 is further provided. Here, the second related information acquisition unit 17 acquires the related information from more analysis basic information than the analysis basic information acquired by the related information acquisition unit 12.

즉, 본 실시예에서는, 도 8에 도시하는 바와 같이, 서버(10B)의 주변 정보 취득부(14)는, 통신 회선을 통하여, 정보 제시 단말기(10A)가 갖는 센서 등으로부터 GPS 정보나 시간 정보, 나아가서는 밝기 등의 정보를 취득하기 위한 촬영부(11)로부터의 화상 등의 주변 정보(기지국(21)으로부터 송신되어 오는 주변 정보도 포함함)를 취득한다. 그리고, 해석 기초 정보 구축부(16)는, 도 9에 도시하는 바와 같이, 주변 정보 취득부(14)가 취득한 주변 정보에 기초하여, 우선도가 높은 해석 기초 정보와, 그보다도 우선도가 낮은 제2 해석 기초 정보를 구축한다. 그리고, 상기 해석 기초 정보는, 정보 제시 단말기(10A)의 관련 정보 취득부(12)에 통신 회선을 통하여 다운로드된다. 또한, 상기 제2 해석 기초 정보는, 제2 관련 정보 취득부(17)에 공급된다.That is, in this embodiment, as shown in FIG. 8, the peripheral information acquisition part 14 of the server 10B is GPS information and time information from the sensor etc. which the information presentation terminal 10A has, etc. via a communication line. Furthermore, peripheral information (including peripheral information transmitted from the base station 21) such as an image from the photographing unit 11 for acquiring information such as brightness is acquired. And, as shown in FIG. 9, the analysis basic information building part 16 has high priority analysis basic information based on the surrounding information acquired by the surrounding information acquisition part 14, and lower priority than that. Construct the second analysis basic information. And the said analysis basic information is downloaded to the related information acquisition part 12 of 10 A of information presentation terminals via a communication line. In addition, the second analysis basic information is supplied to the second related information acquisition unit 17.

이러한 구성으로 함으로써, 상기 정보 제시 단말기(10A)의 관련 정보 취득부(12)가, 관련 정보를 취득할 수 없었던 경우에도, 상기 제2 관련 정보 취득부(17)의 결과를 상기 제시부(13)가 제시하는 것이 가능하게 된다.By setting it as such a structure, even if the related information acquisition part 12 of the said information presentation terminal 10A was unable to acquire the related information, the result of the said 2nd related information acquisition part 17 is shown in the said presentation part 13. It is possible to present.

예를 들면, 정보 제시 단말기(10A)로서 휴대 전화기를 고려한 경우, 휴대 전화기는 기종에 따라 기억 용량이 서로 다르다. 또한, 유저의 사용 방법에 의해, 이용할 수 있는 기억 용량이 서로 다르다. 또한, 기종에 따라, 처리 속도가 서로 다르다. 따라서, 기종마다 다운로드하는 해석 기초 정보의 용량을 변경함으로써, 휴대 전화기 상에서의 처리에 필요 이상의 부담을 주지 않도록 하는 것이 바람직하다. 따라서, 본 실시예에서는, 다운로드하지 않았던 해석 기초 정보는 서버(10B) 상에서 유지한다. 그리고, 서버(10B)의 제2 관련 정보 취득부(17)가, 휴대 전화기 로부터 송신되는 화상, 혹은 화상의 일부를 대상으로 하여 상기 다운로드하지 않았던 해석 기초 정보인 제2 해석 기초 정보로부터 관련 정보의 취득 처리를 행한다. 휴대 전화기 상에서 관련 정보를 취득할 수 있었던 경우에는, 그 정보를 제시부(13)에 표시한다. 한편, 휴대 전화기 상에서는 관련 정보를 취득할 수 없었지만, 서버(10B) 상에서 취득할 수 있었던 경우에는, 서버(10B) 상에서 취득한 정보를 휴대 전화기의 제시부(13) 상에서 제시한다. 혹은, 휴대 전화기 상에서도 처리하고 있지만, 서버(10B) 상의 쪽이 빠르게 정보를 취득할 수 있었던 경우에도, 서버(10B) 상에서 취득한 정보를 휴대 전화기의 제시부(13) 상에서 제시한다.For example, when the portable telephone is considered as the information presentation terminal 10A, the portable telephone has a different storage capacity depending on the model. Moreover, the available storage capacity differs according to a user's usage method. Moreover, the processing speed differs depending on the model. Therefore, it is desirable to change the capacity of the analysis basic information to be downloaded for each model so as not to put more burden on the processing on the mobile phone than necessary. Therefore, in this embodiment, analysis basic information which has not been downloaded is maintained on the server 10B. Then, the second related information acquisition unit 17 of the server 10B receives the related information from the second analysis basic information which is the analysis basic information which has not been downloaded to the image or part of the image transmitted from the mobile phone. Acquisition processing is performed. When the relevant information can be obtained on the cellular phone, the information is displayed on the presentation unit 13. On the other hand, if the relevant information could not be obtained on the mobile phone, but could be acquired on the server 10B, the information acquired on the server 10B is presented on the presentation unit 13 of the mobile phone. Alternatively, the processing is also performed on the mobile phone, but even when the information on the server 10B can quickly acquire information, the information acquired on the server 10B is presented on the presentation unit 13 of the mobile phone.

예를 들면, 휴대 전화기의 위치 정보에 기초하여 주위 500m의 템플릿 세트를 해석 기초 정보로서 취득하고, 휴대 전화기에 다운로드한다. 유저는, 이 템플릿 세트에 의해 주변의 가게의 정보를 얻으면서 거리를 산책할 수 있다. 유저가 최초로 템플릿 세트를 취득한 위치로부터 500m 이상 떨어지면, 휴대 전화기 내에 취득하고 있는 템플릿에서는 대응하는 정보를 얻을 수 없게 된다. 그러나, 본 실시예에서는, 휴대 전화기로 취득한 화상을 서버(10B)의 제2 관련 정보 취득부(17)에도 송신하고 있다. 서버(10B)에서는, 최초로 유저가 주위 500m의 템플릿 세트를 다운로드할 때에, 동시에 주위 4㎞의 템플릿 세트를 제2 관련 정보 취득부(17)에 전달하고 있다. 따라서, 유저가 휴대 전화기 내로부터 정보를 취득할 수 없어도, 서버 상의 이 제2 관련 정보 취득부(17)에서 주위 4㎞의 템플릿 세트로부터 정보를 취득할 수 있다. 서버(10B) 상에서 정보를 취득하고, 휴대 전화기 상에서 정보가 취득되어 있지 않은 경우, 서버(10B) 상에서 취득한 정보를 표시한다. 따라서, 유저는 휴대 전화기의 용량을 초과하는 영역의 템플릿 데이터를 이용할 수 있다. 또한, 이 때, 휴대 전화기에 현재의 위치에 기초하는 주위 500m의 템플릿 세트가 송신되어도 된다. 이와 같이 하면, 그 위치로부터 500m 이내는, 다시 휴대 전화기만으로 정보를 취득할 수 있으므로, 경쾌한 조작감을 실현할 수 있다.For example, based on the positional information of the mobile phone, a template set of around 500m is acquired as analysis basic information and downloaded to the mobile phone. The user can walk the streets while getting information of nearby shops by this template set. If the user is 500m or more away from the position where the user originally acquired the template set, the corresponding information cannot be obtained from the template acquired in the mobile phone. However, in the present embodiment, the image acquired by the cellular phone is also transmitted to the second related information acquisition unit 17 of the server 10B. In the server 10B, when the user first downloads a template set of around 500m, the template set of around 4 km is transferred to the second related information acquisition unit 17 at the same time. Therefore, even if the user cannot acquire the information from within the cellular phone, the second related information acquisition unit 17 on the server can acquire the information from the template set of around 4 km. Information is acquired on the server 10B, and when the information is not acquired on the cellular phone, the information acquired on the server 10B is displayed. Therefore, the user can use the template data of the area exceeding the capacity of the cellular phone. At this time, a template set of around 500 m based on the current position may be transmitted to the cellular phone. In this way, since information can be acquired again only by a mobile telephone within 500m from the position, a light feeling of operation can be realized.

이상 실시예에 의해 설명한 바와 같이, 환경이나 이용 기종 등, 각종의 정보에 기초하여, 시스템의 인식 대상으로 되는 템플릿 데이터나, 그 템플릿 데이터에 관련짓는 정보, 또한, 인식 처리 상의 각종 파라미터 등, 이용하는 정보를 절환함으로써, 이용 환경에 의해, 상황에 따른 최적의 정보를 제시할 수 있도록 된다.As described in the above embodiments, the template data to be recognized by the system, information associated with the template data, and various parameters in the recognition process are used based on various information such as environment and use model. By switching the information, it is possible to present the optimum information according to the situation according to the use environment.

이상 실시예에 기초하여 본 발명을 설명했지만, 본 발명은 전술한 실시예에 한정되는 것은 아니고, 본 발명의 요지의 범위 내에서 여러 가지 변형이나 응용이 가능한 것은 물론이다.Although this invention was demonstrated based on the above Example, this invention is not limited to the Example mentioned above, Of course, various deformation | transformation and application are possible within the scope of the summary of this invention.

예를 들면, 상기 제5 실시예에서는, 서버(10B)는 제2 관련 정보 취득부(17)를 구비하고, 해석 기초 정보 구축부(16)가 해석 기초 정보와 제2 해석 기초 정보를 구축하는 것으로 했다. 그러나, 이러한 구성에 한정되지 않고, 제3 관련 정보 취득부, 제4 관련 정보 취득부, …라고 한 복수의 관련 정보 취득부를 서버(10B)에 더 구성하고, 해석 기초 정보 구축부(16)가 제3 해석 기초 정보, 제 4해석 기초 정보, …를 더 구축하도록 하여도 된다.For example, in the fifth embodiment, the server 10B includes a second related information acquisition unit 17, and the analysis basic information construction unit 16 constructs the analysis basic information and the second analysis basic information. I did it. However, the configuration is not limited to this configuration, and the third related information acquisition unit, the fourth related information acquisition unit,. The server 10B further comprises a plurality of related information acquiring units, and the analysis basic information constructing unit 16 performs the third analysis basic information, the fourth analysis basic information,. You can also build more.

[제6 실시예][Example 6]

본 발명의 제6 실시예에 따른 검색 시스템은, 도 10에 도시하는 바와 같이, 카메라 부착 휴대 전화기나 카메라 부착 PDA 등의 카메라 부착 휴대 단말기(23)와, 검색 수단으로 구성되는 것이다. 상기 카메라 부착 휴대 단말기(23)는, 화상을 입력하는 화상 입력부(카메라)(11)와 검색 결과의 화상을 출력하는 디스플레이(26)를 포함한다. 상기 검색 수단은, 상기 화상 입력부(24)에 의해 입력된 화상을 기초로 하여, 계층 관리된 템플릿을 이용하여, 데이터베이스로부터 화상을 검색한다. 또한 여기에서, 상기 검색 수단은, 카메라 부착 휴대 단말기(23)의 휴대 어플리케이션 소프트웨어(25)와, 상기 카메라 부착 휴대 단말기(23)와 통신 가능한 서버(27)에 구성된 매칭 처리부(29)에 의해 실현된다.As shown in Fig. 10, the retrieval system according to the sixth embodiment of the present invention is composed of a camera-equipped portable terminal 23 such as a camera-equipped mobile phone or a PDA with a camera and a search means. The camera-equipped portable terminal 23 includes an image input unit (camera) 11 for inputting an image and a display 26 for outputting an image of a search result. The retrieval means retrieves an image from a database using a hierarchically managed template based on the image input by the image input unit 24. In this case, the searching means is realized by a portable application software 25 of the portable terminal 23 with a camera and a matching processing unit 29 configured in the server 27 that can communicate with the portable terminal 23 with a camera. do.

상기 서버(27)는, 또한, 복수의 템플릿이 등록되고, 그들을 계층 관리하는 템플릿(TP) 데이터 관리 데이터베이스(DB)(28)를 갖고 있다. 이 TP 데이터 관리 DB(28)에 등록되는 템플릿은, 데스크톱 퍼블리싱(DTP)(30)에서, 도 10에 도시하는 바와 같이 지면(40)에 배치한 대상 화상(41)으로부터, TP 작성부(50)에 의해 작성된 것이다.The server 27 further has a template (TP) data management database (DB) 28 in which a plurality of templates are registered and hierarchically managed them. The template registered in this TP data management DB 28 is the TP creation part 50 from the target image 41 arrange | positioned on the page 40 by desktop publishing (DTP) 30, as shown in FIG. )

즉, 본 제6 실시예에 따른 검색 시스템에서는, 미리, DTP(30)에 의해, 지면(40)에 대상 화상(41)을 인쇄함과 함께, TP 작성부(50)에서 그 대상 화상(41)의 템플릿을 작성한다. 그리고, 그 작성한 템플릿을 서버(27)의 TP 데이터 관리 DB(28)에 등록해 둔다. 또한, 등록하는 대상 화상(41)이 다수 있으면, 그러한 템플릿의 작성과 등록을 반복한다.That is, in the retrieval system according to the sixth embodiment, the target image 41 is printed on the paper sheet 40 by the DTP 30 in advance, and the target image 41 is printed by the TP creating unit 50. Create a template. The created template is registered in the TP data management DB 28 of the server 27. If there are many target images 41 to be registered, the creation and registration of such a template is repeated.

그리고, 검색을 원하는 유저가, 지면(40)으로부터 카메라 부착 휴대 단말기(23)의 화상 입력부(24)를 사용하여 대상 화상(41)을 취득하면, 휴대 어플리케이션 소프트웨어(25)는, 그 입력 화상으로부터 화상의 특징 추출을 행한다. 그리고, 휴대 어플리케이션 소프트웨어(25)는, 추출한 특징 데이터를 서버(27)의 매칭 처리부(29)에 보낸다. 그리고, 상기 매칭 처리부(29)는 TP 데이터 관리 DB(28)에 등록되어 있는 템플릿과 매칭을 행한다. 이 경우, 상위 계층의 템플릿을 이용한 템플릿 매칭에 계속해서, 하위 계층의 템플릿을 이용한 템플릿 매칭을 행하여 검색 화상을 좁혀 들어간다. 그리고, 매칭 결과가 취득되었으면, 매칭 처리부(29)는, 그 매칭 결과 정보를 카메라 부착 휴대 단말기(23)의 휴대 어플리케이션 소프트웨어(25)에 보낸다. 휴대 어플리케이션 소프트웨어(25)는 디스플레이(26)에 상기 결과 정보를 표시한다.Then, when the user who wants to search for the target image 41 is acquired from the page 40 by using the image input unit 24 of the portable terminal 23 with a camera, the portable application software 25 uses the input image. Feature extraction of the image is performed. The portable application software 25 then sends the extracted feature data to the matching processing unit 29 of the server 27. The matching processing unit 29 then matches the template registered in the TP data management DB 28. In this case, following the template matching using the template of the upper layer, template matching using the template of the lower layer is performed to narrow the search image. When the matching result is obtained, the matching processing unit 29 sends the matching result information to the portable application software 25 of the portable terminal 23 with a camera. Portable application software 25 displays the result information on display 26.

또한, 대상 화상으로서, 도 10에 도시하는 상기 대상 화상(41)과 같이 등록 영역 즉 인식 대상으로서의 영역이 명확한 대상 화상을 이용하는 경우, 이하와 같은 이점이 있다. 즉, 상기 대상 화상(41)을 상기 TP 데이터 관리 DB(28)에 등록 할 때에, 등록을 희망하는 대상 화상과, 이미 상기 TP 데이터 관리 DB(28)에 등록된 화상과의 유사도 평가를 행하고, 예를 들면 매칭에서 양 화상 간의 유사도(유사한 정도를 나타내는 수치)가 75% 이상이라는 평가 결과를 얻으면 해당 대상 화상(41)의, 상기 TP 데이터 관리 DB(28)에의 등록을 행하지 않는 것으로 함으로써, 상기 TP 데이터 관리 DB(28)에 등록된 화상과 유사한 대상 화상을 다시 등록하는 것을 방지할 수 있다. 이에 의해, 상기의 매칭에서의 오인식을 안정적으로 회피할 수 있다. 또한, 여기서는 편의적으로 등록 처리를 실행할지의 여부의 판단의 임계값을 75%로 했지만, 상기 임계값은 75%에 한하지 않는 것은 물론이다. 여기에서, 매칭에서의 유사도 판단의 임계값은, 그 매칭의 사용 환경에서 오인식을 발생시키지 않는 수치의 범위 내에서, 가능한 한 높은 값으로 설정하는 것이 바람직하다. 또한, 상기 임계값은, 시스템의 일 요소로서 정적으로 설정할 뿐만 아니라, 상기 매칭의 조건(예를 들면 촬영시의 카메라의 기울기, 조명의 안정성, 카메라의 촬영 화소수, 매칭에 이용하는 정보의 종류, 매칭의 방법 등)에 맞추어, 동적으로 설정하여도 물론 된다.Moreover, when using the target image with which the registration area | region, ie, the area | region as a recognition object, is clear like the said target image 41 shown in FIG. 10 as a target image, there are the following advantages. That is, when registering the target image 41 in the TP data management DB 28, the similarity evaluation between the target image to be registered and the image already registered in the TP data management DB 28 is performed. For example, when the evaluation result that the similarity between the two images (the numerical value indicating the similar degree) is 75% or more in matching, the target image 41 is not registered in the TP data management DB 28. It is possible to prevent re-registering the target image similar to the image registered in the TP data management DB 28. Thereby, misperception in said matching can be stably avoided. In addition, although the threshold of judgment of whether to perform a registration process is made 75% here conveniently, the threshold is not limited to 75%. Here, it is preferable to set the threshold value of the similarity judgment in matching as high as possible within the range of the numerical value which does not generate misperception in the use environment of the matching. In addition, the threshold value is not only statically set as an element of the system, but also the matching conditions (for example, the tilt of the camera at the time of shooting, the stability of the illumination, the number of pixels captured by the camera, the type of information used for the matching, It may be set dynamically according to the method of matching).

또한, 상기 TP 데이터 관리 DB(28)에의 상기 대상 화상(41)의 등록 시에, 상기 대상 화상(41)에 적당한 변형(예를 들면 노이즈 등의 부가)을 행한 후에 등록하여도 물론 된다. 이러한 적당한 변형을 가함으로써, 상기 대상 화상(41)은 실제의 카메라에서 촬영되어 취득되는 상태에 가깝게 된다. 이것은, 상기 유사도를 평가할 때에 유효하게 작용한다. 즉, 상기 적당한 변형을 가하기 전의 화상뿐만 아니라, 상기 적당한 변형을 가한 후의 화상에 관해서도 상기 유사도의 평가를 실시함으로써, 상기 유사도 평가의 정확성이 증가한다.In addition, during the registration of the target image 41 in the TP data management DB 28, the target image 41 may be registered after appropriate modification (for example, addition of noise or the like) to the target image 41. By applying such a suitable deformation, the target image 41 comes close to the state obtained by photographing with an actual camera. This works effectively when evaluating the similarity. That is, the accuracy of the similarity evaluation is increased by evaluating the similarity not only for the image before applying the appropriate deformation but also for the image after applying the appropriate deformation.

또한, 상기 적당한 변형으로서는, 예를 들면 회전, 3차원적인 아핀 변환, 확대, 축소, 색 정보의 열화, 화이트 노이즈의 부여, 각종 조명 조건에 의한 투영의 시뮬레이션 등, 각종의 화상 처리 조작을 예로 들 수 있다.Moreover, as said suitable deformation | transformation, various image processing operations, such as rotation, three-dimensional affine transformation, expansion, reduction, color information deterioration, provision of white noise, simulation of projection by various lighting conditions, are mentioned as an example, for example. Can be.

또한, 등록을 희망하는 화상과 유사한 화상이 상기 TP 데이터 관리 DB(28) 내에 존재한 경우의 처리로서는, 상기한 바와 같이 등록을 거부하는 처리에 한하지 않는다. 즉, 예를 들면 유저에 대하여, 등록을 희망하는 화상과 유사한 화상이 상기 TP 데이터 관리 DB(28) 내에 존재한다는 취지를 통지하고, 등록할지의 여부의 선택을 유저 자신에게 행하게 하여도 물론 된다. 또한, 이러한 처리는, 서로 유사한 화상에 대하여 동일한 정보를 부여할 때에서의 유효한 처리 중 하나이다.The processing in the case where an image similar to the image desired to be registered exists in the TP data management DB 28 is not limited to the processing for rejecting the registration as described above. In other words, for example, the user may be notified that an image similar to the image desired to be registered exists in the TP data management DB 28, and the user may be allowed to select whether or not to register. In addition, this processing is one of the effective processings when giving the same information with respect to mutually similar images.

또한, 상기한 바와 같은 등록을 거부하는 처리와 유저에 의한 등록의 선택 처리를, 개개의 상황에 맞추어 선택적으로 유저에게 제시하는 것도, 실제의 시스템에서는 효과적이다. 즉, 예를 들면 상기 TP 데이터 관리 DB(28)에는, 등록 권한을 갖는 복수의 어카운트가 존재하는 것으로 한다. 이 때, 일반적으로는, 유저는, 자신 이외의 어카운트에 관련되는 정보를 볼 수는 없다. 이러한 시스템에서, 예를 들면 어카운트 A가 화상 C를 상기 TP 데이터 관리 DB에 등록하자고 할 때, 그 화상 C는 어카운트 B가 이미 상기 TP 데이터 관리 DB(28)에 등록한 화상과 유사한 경우를 고려한다. 이러한 경우에는, 상기 매칭 처리부(29)는, 상기 화상 C의 등록을, 상기 TP 데이터 관리 DB(28) 내에 유사한 화상이 발견된 것을 이유로 하여 등록을 거부하는 것이 합리적이다. 또한, 예를 들면 어카운트 B가, 상기 화상 C를 다시 상기 TP 데이터 관리 DB(28)에 등록하고자 하는 경우를 고려한다. 이러한 경우에는, 상기 매칭 처리부(29)는, 어카운트 B가 이미 등록한 화상 C의 정보를 표시하고, "이 화상과 유사합니다만, 등록할까요?"라고 한 등록할지의 여부의 판단을 유저에게 맡기는 처리를 행하는 것이 합리적이다. 이와 같이, 상황에 따라서 가장 합리적인 처리를 행하여, 해당 시스템의 유저가 오인식의 리스크를 회피할 수 있도록 하는 것은 실제의 서비스 상 중요하다.It is also effective in the actual system to selectively present the above-described processing for rejecting the registration and the selection processing of the registration by the user in accordance with individual situations. That is, for example, suppose that a plurality of accounts having registration authority exist in the TP data management DB 28. At this time, generally, a user cannot see information related to accounts other than himself / herself. In such a system, for example, when account A wants to register image C with the TP data management DB, the image C considers the case where account B is similar to an image that has already been registered with the TP data management DB 28. In such a case, it is reasonable that the matching processing unit 29 rejects the registration of the image C because the similar image is found in the TP data management DB 28. Further, for example, consider a case where the account B wants to register the image C again in the TP data management DB 28. In such a case, the matching processing unit 29 displays the information of the image C already registered by the account B, and performs processing of leaving the user to decide whether or not to register, such as "This image is similar, but should it be registered?" It is reasonable to do. In this way, it is important for the actual service to perform the most rational processing according to the situation so that the user of the system can avoid the risk of misrecognition.

또한, 이러한 매칭 시스템에서, 상기 대상 화상(41)으로서 이용하는 화상은, 도 10에 도시하는 상기 대상 화상(41)과 같은 명확한 4각형의 틀에서 영역 분할된 것에 한하지 않는다. 상기 대상 화상(41)으로서는, 예를 들면 도 11 내지 도 14에 도시하는 바와 같은 구성의 대상 화상(41)으로 하여도 물론 된다. 즉, 원이나 곡선 등으로 이루어지는 임의의 형상의 틀을 갖는 대상 화상(41A)(도 11 및 도 12 참조), 틀 자체를 포함하지 않는 대상 화상(41B 및 41C)(각각 도 13 및 도 14 참조), 특정한 의장의 근방에 특정한 심벌 마크 등을 배치하는 대상 화상(41C)(도 14 참조) 등, 다양한 화상을 대상 화상으로 하여 이용할 수 있다.In addition, in such a matching system, the image used as the said target image 41 is not limited to area | region division in the form of a clear quadrangular structure like the said target image 41 shown in FIG. As the target image 41, of course, the target image 41 may be configured as shown in FIGS. 11 to 14. That is, the target image 41A (see FIGS. 11 and 12) having an arbitrary shape of a circle or curve, and the target images 41B and 41C not including the frame itself (see FIGS. 13 and 14, respectively). ) And various images, such as the target image 41C (see FIG. 14) in which a specific logo is placed in the vicinity of the specific design, can be used as the target image.

여기에서, 대상 화상으로서, 명확한 틀에 의해 인식이나 등록이 대상으로 되는 영역이 제한되어 있지 않은 대상 화상(41B 및 41C)과 같은 화상을 이용하는 경우에는, 이하와 같은 매칭을 행한다. 우선, 입력 화상 중에서 복수의 특징점을 추출한다. 그리고, 그들 특징점군을, 미리 대상물마다 상기 TP 데이터 관리 DB(28)에 등록된 특징점군과 비교 대조한다. 이 비교 대조에 의해, 동일한 대상 화상인지의 여부의 매칭을 행한다.Here, when using the same image as the target image 41B and 41C which does not restrict the area | region which recognition and registration are subject to as a target frame, the following matching is performed. First, a plurality of feature points are extracted from the input image. Then, the feature point group is compared and compared with the feature point group registered in the TP data management DB 28 for each object in advance. By this comparison comparison, matching is performed whether or not they are the same target image.

또한, 실제의 매칭 시에서는, 상기 특징점끼리의 특징량의 차이에 기초하여, 유사한 정도를 나타내는 값이 미리 설정한 임계값을 초과한 값인 경우에, 상기 매칭 처리부(29)는, 그 특징점끼리는 유사 특징점이라고 판단한다. 예를 들면, 상기 TP 데이터 관리 DB(28)에 등록된 대상물 중 소정수의 특징점이 상기 입력 화상의 대상물의 특징점과 유사하다고 판단된 대상물이, 입력 화상의 대상물과 동일하다고, 상기 매칭 처리부(29)에 의해 판단된다.In actual matching, when the value indicating similarity is a value exceeding a preset threshold value based on the difference in feature amounts between the feature points, the matching processing unit 29 is similar to the feature points. Judging from the feature point. For example, the matching processor 29 determines that a predetermined number of feature points among the objects registered in the TP data management DB 28 are similar to those of the input image. Is judged by

여기에서, 상기 특징점이란, 임의의 화상 내에서 다른 화소와의 특징량에서의 차이가 일정 레벨 이상인 점을 가리킨다. 예를 들면, 상기 차이로서는, 명암의 콘트라스트, 색, 주위의 화소의 분포, 미분 성분값, 또는 특징점끼리의 배치 등의 차이를 예로 들 수 있다. 또한, 이러한 특징점군의 비교 대조에 의한 매칭을 이용하는 경우에는, 미리 대상물마다 상기 특징점을 추출하고, 대상물마다 상기 TP 데이터 관리 DB(28)에 등록해 둔다.Here, the feature point refers to a point where the difference in feature amount with other pixels in a given image is equal to or higher than a predetermined level. For example, as said difference, difference, such as contrast of a contrast, a color, distribution of surrounding pixels, differential component value, or arrangement | positioning of feature points, is mentioned. In addition, in the case of using matching by comparison of the feature point group, the feature point is extracted for each object in advance, and registered in the TP data management DB 28 for each object.

상기한 바와 같이 특징점에 기초하는 매칭을 행하는 경우, 입력 화상과 유사한 화상이, 상기 TP 데이터 관리 DB(28)에 등록된 화상군 중에서 발견된 경우에, "등록의 거부", 또는 "유사를 승낙한 후에 등록"이라고 하는 선택지 이외에, "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록함"이라고 하는 선택지도 고려된다. 이 "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록함"이라고 하는 선택지에 의하면, 등록할 수 없는 화상의 수를 최소로 억제한 후에, 오인식을 회피 가능한 데이터베이스를 구축할 수 있다.When performing matching based on feature points as described above, when an image similar to the input image is found in the group of images registered in the TP data management DB 28, "deny of registration" or "similarity is accepted. In addition to the option of "register afterwards", the option of "subdivide and register the target image and / or registered image to be registered" is also considered. According to the option of "dividing and registering the target image and / or the registered image to be registered" with this option, after minimizing the number of images which cannot be registered, a database which can avoid misperception can be constructed. .

상기의 "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록한다"라고 하는 선택지를 고려한 경우, 예를 들면, 상기 TP 작성부(50)는, 도 15에 도시하는 플로우차트에 따라서, 입력된 등록을 희망하는 대상 화상과, TP 데이터 관리 DB(28)에 등록된 비교 화상을 매칭한다. 또한, 도 15에 도시하는 플로우차트는 설명의 편의상, "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록한다"라는 경우에만 상기 TP 작성부(50)에 의한 동작 제어를 나타내고 있다.In the case where the above-mentioned option of "the target image and / or registered image which are desired to register and / or registered image is divided | segmented" is considered, for example, the said TP creation part 50 is based on the flowchart shown in FIG. The target image inputted for registration is matched with the comparison image registered in the TP data management DB 28. In addition, the flowchart shown in FIG. 15 has shown the operation control by the said TP preparation part 50 only in the case of "it divides and registers the target image and / or registered image which you want to register" for convenience of description. .

우선, 유저에 의해 입력된 등록을 희망하는 화상인 입력 화상과, 상기 TP 데 이터 관리 DB(28)에 등록된 화상(이후, 등록 화상이라고 칭함)을 비교한다(스텝 S10). 계속해서, 상기 입력 화상과 상기 등록 화상이 유사한 화상인지의 여부를 판단한다(스텝 S11). 이 스텝 S11을 '아니오'로 분기하는 경우에는, 상기 입력 화상을 상기 TP 데이터 관리 DB(28)에 등록한다(스텝 S12). 또한, 이 스텝 S12에서는, 예를 들면 도 16에 도시하는 바와 같이, 해당 입력 화상을, 상기 TP 데이터 관리 DB(28)에 등록할지의 여부의 선택을 유저에게 맡겨도 물론 된다. 이 경우에는, 유저에 의해 입력 화상을 상기 TP 데이터 관리 DB(28)에 등록한다라는 선택이 행해진 경우에만 등록한다.First, an input image which is an image desired to be registered input by the user and an image registered in the TP data management DB 28 (hereinafter referred to as a registration image) are compared (step S10). Subsequently, it is determined whether the input image and the registered image are similar images (step S11). When the step S11 branches to NO, the input image is registered in the TP data management DB 28 (step S12). In addition, in this step S12, as shown, for example in FIG. 16, you may let a user decide whether to register the said input image in the said TP data management DB28. In this case, registration is performed only when the user selects that the input image is registered in the TP data management DB 28.

그런데, 상기 스텝 S11을 '예'로 분기하는 경우에는, 상기 입력 화상에서의 상기 등록 화상과 유사한 부분을 판정하고, 그 유사한 부분을 분할 및 삭제한다(스텝 S13). 환언하면, 이 스텝 S13은, 상기 입력 화상에서의 상기 등록 화상과 유사한 부분을 삭제한 화상을 작성하는 스텝이다.By the way, when branching said step S11 to YES, the part similar to the said registration image in the said input image is determined, and the similar part is divided and deleted (step S13). In other words, this step S13 is a step of creating an image in which a portion similar to the registered image in the input image is deleted.

그리고, 상기 스텝 S13의 처리를 끝낸 후에는, 상기 스텝 S10으로 되돌아간다. 이와 같이 하여, 상기 스텝 S10, 상기 스텝 S11, 및 상기 스텝 S13의 일련의 처리를 반복해 행함으로써, 상기 입력 화상으로부터, 상기 등록 화상과 유사한 부분을 모두 분할 및 삭제한 화상을 작성한다.After completion of the step S13, the process returns to the step S10. In this way, the series of processes of the step S10, the step S11, and the step S13 are repeatedly performed to create an image obtained by dividing and deleting all portions similar to the registered image from the input image.

또한, 분할 및 삭제에 의해 작성한 화상을 유저에게 제시할 때에, 도 16에 도시하는 바와 같은 제시 방법이 고려된다. 즉, 입력 화상과, 그 입력 화상과 유사하다고 판단한 등록 화상과의 양 화상을 제시하고, 또한 양 화상에서의 유사 판단에 사용한 부분을 명시하는 제시 방법이다. 이와 같이 도시하는 것은, 등록의 효율을 높이는 데에 있어서 효과적이다. 또한, 예를 들면 도 17 및 도 18에 도시하는 바와 같이, 입력 화상과 유사하다고 판단한 등록 화상을, 리스트 형식으로 하여 표시 함으로써, 유저에게 제시하여도 물론 된다.In addition, when presenting an image created by division and deletion to a user, a presentation method as shown in FIG. 16 is considered. That is, it is a presentation method which presents both images of an input image and the registration image judged to be similar to the input image, and specifies the part used for similar determination in both images. This illustration is effective in increasing the efficiency of registration. 17 and 18, the registration image determined to be similar to the input image may be presented to the user by displaying it in a list format.

즉, 도 17 및 도 18에 도시하는 바와 같이, 표시 화면을, 입력 화상 표시 에리어(251), 리스트 표시 에리어(253), 선택 화상 표시 에리어(255)로 3분할한다. 상기 리스트 표시 에리어(253)에서 해칭하여 나타내는 바와 같이 등록 화상을 선택하면, 상기 선택 화상 표시 에리어(255)에 그 선택 화상이 표시된다. 또한, 상기 입력 화상 표시 에리어(251)에 표시하는 입력 화상에서는, 등록 화상과의 식별 표시(도 17 및 도 18에서의 해칭 부분)가 이루어진다.That is, as shown in FIG. 17 and FIG. 18, the display screen is divided into three into an input image display area 251, a list display area 253, and a selected image display area 255. When a registered image is selected as shown by hatching in the list display area 253, the selected image is displayed on the selected image display area 255. FIG. Moreover, in the input image displayed on the said input image display area 251, identification display (hatching part in FIG. 17 and FIG. 18) with a registration image is performed.

그런데, 등록을 희망하는 입력 화상과 유사한 등록 화상이, 상기 TP 데이터 관리 DB(28) 내에 복수 존재하는 경우에는, 예를 들면 도 19에 도시하는 바와 같이, 그 유사한 부분을 순차적으로 분할 및 삭제해 가서, 최종적으로 남은 부분을 신규등록하는 입력 화상으로 하게 된다.By the way, when a plurality of registration images similar to the input image to be registered exist in the TP data management DB 28, as shown in FIG. 19, the similar portions are sequentially divided and deleted. Then, the last remaining part is used as an input image for newly registering.

이상, 등록을 희망하는 입력 화상을, 분할 및 삭제해 가는 처리를 설명했다. 그러나, 반드시 상기 입력 화상만을 분할 및 삭제할 필요는 없다. 즉, 상기 등록 화상을 분할 및 삭제하는 처리를 하여도 물론 된다. 나아가서는, 예를 들면 도 20에 도시하는 바와 같이, 쌍방을 분할하여, 이하와 같이 하여 각각의 화상을 등록하여도 된다. 우선, 입력 화상(300A)에 포함되어 있는 "ABCDEFGH"라고 하는 로고가, 등록 화상(301A)에 포함되어 있는 "ABC"라고 하는 로고와 유사하기 때문에, 입력 화상(300A)에서의 "ABC"를 분할 및 삭제하여 입력 화상(300B)으로 한다. 그 후, 입력 화상(300B)에서의 "DEFGH"라고 하는 로고가, 등록 화상(301B)에 포함되어 있는 "GHIJ"와 유사하기 때문에, 등록 화상(301B)을, "GH"만으로 이루어지는 화상(301B1)과 "IJ"만으로 이루어지는 화상(301B2)으로 분할한다. 그리고, 상기 "GH"만으로 이루어지는 화상(301B), 및 상기 "IJ"만으로 이루어지는 화상(301B2)의 양 화상을, 상기 TP 데이터 관리 DB(28)에 재등록한다. 또한, 상기 입력 화상(300B)은, 상기 분할 후, 화상(300C)으로서 상기 TP 데이터 관리 DB(28)에 등록한다.In the above, the process which divides and deletes the input image which wants to register was demonstrated. However, it is not necessarily necessary to divide and delete only the input image. That is, of course, the process of dividing and deleting the said registration image may be performed. Furthermore, as shown in FIG. 20, you may divide | segment both and register each image as follows. First, since the logo called "ABCDEFGH" included in the input image 300A is similar to the logo called "ABC" included in the registered image 301A, "ABC" in the input image 300A is selected. The image is divided and deleted into an input image 300B. After that, since the logo called "DEFGH" in the input image 300B is similar to "GHIJ" included in the registered image 301B, the image 301B1 including the registered image 301B only with "GH". ) And an image 301B2 composed only of "IJ". Then, both images of the image 301B consisting only of "GH" and the image 301B2 consisting only of "IJ" are re-registered in the TP data management DB 28. The input image 300B is also registered in the TP data management DB 28 as the image 300C after the division.

상기한 바와 같이 화상을 분할하여 등록하는 방법에 따르면, 예를 들면 이하에 기재하는 바와 같은 실제의 서비스 상에서 매우 유익한 실시예가 실현된다.According to the method of dividing and registering an image as described above, for example, a very advantageous embodiment is realized on an actual service as described below.

예를 들면, 동일 메이커에 의한 상품 또는 동일 브랜드의 상품에서는, 일반적으로는, 해당 상품의 패키지에, 해당 메이커에 의한 상품 또는 해당 브랜드의 상품에 특유의 브랜드 로고와, 해당 상품 독자적인 상품 명칭 또는 아이콘 등(이후, 상품명칭 또는 아이콘 등을 총칭하여 상품명칭이라고 칭함)이 인쇄된다. 이러한 경우에, 본 실시예에 따르면, 상기 브랜드 로고와 상기 상품 명칭을, 분할하여 상기 TP 데이터 관리 DB(28)에 등록한다. 이에 의해, 이하와 같은 효과가 생긴다.For example, in a product by the same maker or a product of the same brand, generally a brand logo peculiar to a product by the maker or a product of the brand in the package of the product concerned and the product original product name or icon Etc. (hereinafter, generic names, icons, etc. are collectively referred to as trade names) are printed. In this case, according to this embodiment, the brand logo and the product name are divided and registered in the TP data management DB 28. This produces the following effects.

예를 들면 브랜드 로고와 A라고 하는 상품 명칭이 기술되어 있는 화상이, 이미 "상품 A"로서 상기 TP 데이터 관리 DB(28)에 등록되어 있는 경우에도, 해당 브랜드 로고와 동일한 브랜드 로고와 상기 A 이외의 상품 명칭이 기술되어 있는 화상이, 상기 "상품 A"와 유사한 화상이라고 해서 등록 거부가 되지 않는다. 즉, 본 실시예에 따르면, 등록 화상인 "상품 A"를, 상기 브랜드 로고와 상기 상품 명칭 A 로 분할한다. 그리고, 상기 브랜드 로고와, 상기 상품 명칭 A를, 각각 독립적으로 재등록한다. 구체적으로는, 상기 브랜드 로고가 기술되어 있는 화상은, "브랜드 로고"로서 등록하고, 상품 명칭 A가 기술되어 있는 화상은, "상품 A의 명칭"으로서 등록한다.For example, even when the image in which the brand logo and the product name "A" are described is already registered in the TP data management DB 28 as "product A", the same brand logo as the corresponding brand logo and the above-mentioned A The image in which the product name is described is not rejected because it is an image similar to the "product A". That is, according to the present embodiment, " merchandise A " which is a registered image is divided into the brand logo and the product name A. Then, the brand logo and the product name A are respectively re-registered. Specifically, the image in which the brand logo is described is registered as a "brand logo", and the image in which the product name A is described is registered as "the name of the product A".

또한, 본 제6 실시예에서는, "조합 정보"라고 하는 개념을 도입한다. 이 조합 정보는, 이하와 같은 정보이다. 예를 들면, "브랜드 로고"과 "상품 A의 명칭"과의 조합을 "상품 A"로서 등록하는 경우를 고려한다. 이 경우에, "브랜드 로고"와 "상품 A의 명칭"과의 조합이 "상품 A"인 것을 나타내는 정보가, "조합 정보"이다. 또한, 조합 정보는, 이 경우에서 말하면, "브랜드 로고"를 나타내는 화상 및 "상품 A의 명칭"을 나타내는 화상을, 상기 TP 데이터 관리 DB(28)에 등록할 때에, 동시에 상기 TP 데이터 관리 DB(28)에 등록한다.In the sixth embodiment, the concept of "combination information" is introduced. This combination information is the following information. For example, consider a case where a combination of "brand logo" and "name of product A" is registered as "product A". In this case, the information indicating that the combination of "brand logo" and "name of goods A" is "goods A" is "combination information". In addition, in this case, when the combination information registers the image which shows the "brand logo" and the image which shows "the name of the goods A" in the said TP data management DB 28, the said TP data management DB ( 28).

또한, 등록을 희망하는 입력 화상 및/또는 등록 화상을 분할했을 때, 그 분할로 생긴 화상을 반드시 등록할 필요는 없다. 예를 들면, 중고차나 상품이 찍힌 사진에서는, 각각의 사진이 서로 유사한 배경을 갖고 있는 것이 많다. 여기에서, 예를 들면 차 A가 배경이 있는 그대로의 화상이며, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 경우를 고려한다. 이러한 경우, 상기 차 A가 찍혀 있는 사진과 유사한 배경을 갖는 차 B가 찍혀 있는 사진을, 상기 TP 데이터 관리 DB(28)에 등록하고자 하는 경우, 본 제6 실시예에 따르면, 해당 배경을 분할하여 추출할 수 있다. 이러한 경우, 유저가 특히 등록의 필요성을 느끼지 않는 경우에는, 해당 배경 부분을 등록하는 대상으로부터 벗어나는 것이 가능하도록 하여도 물론 된다. 이와 같 이 함으로써, 유저 즉 정보 제공자가, 매칭시키고자 하는 부분만을 효율적으로, 상기 TP 데이터 관리 DB(28)에 등록할 수 있다. 따라서, 입력 화상과 등록 화상과의 해당 배경 부분에서의 유사성에 기인하는 오인식이 발생하는 것을 회피할 수 있다.In addition, when dividing an input image and / or a registered image to be registered, it is not necessary to register an image resulting from the division. For example, in a photograph of a used car or a product, each photograph has a similar background. Here, for example, consider a case where the car A is an image as it is with the background and is registered in the TP data management DB 28. In this case, in the case where it is desired to register the picture on which the car B has a background similar to the picture on which the car A is taken in the TP data management DB 28, according to the sixth embodiment, the background is divided and Can be extracted. In such a case, if the user does not particularly feel the necessity of registration, it may be of course possible to deviate from the object of registering the background part. In this way, the user, that is, the information provider, can efficiently register only the portion to be matched with the TP data management DB 28. Therefore, it is possible to avoid the occurrence of misperception due to the similarity in the background portion between the input image and the registered image.

또한, "화상이 표현하는 정보"에 관해서도, 상기한 바와 같이 분할된 화상의 조합에 대응시켜서 관리하여도 물론 된다. 여기에서, 화상이 표현하는 정보로서는, 예를 들면, 화상이 대응하는 URL, 어플리케이션 내부의 리소스 ID, 음악 정보, 지도 상의 위치 정보 등을 예로 들 수 있다. 예를 들면, 도 20에 도시하는 예에서, "GHIJ"를 포함하는 화상(301B)은, 전술한 바와 같이 "GH"를 포함하는 화상(301B1)과 "IJ"를 포함하는 화상(301B2)으로 분할되어 등록되게 되지만, 화상이 표현하는 정보에 관해서는, "GH"를 포함하는 화상(301B1)과 "IJ"를 포함하는 화상(301B2)과의 집합에 대하여 부여한다고 하여도 물론 된다. 마찬가지로, 도 20에 도시하는 예에서, "ABC"와 "GH"과 "DEF"를 모두 포함하는 화상(300A)에 대하여 화상이 표현하는 정보를 부여하여도 물론 된다.The "information represented by the image" may also be managed in correspondence with the combination of the divided images as described above. Here, the information represented by the image may include, for example, a URL to which the image corresponds, a resource ID inside the application, music information, location information on a map, and the like. For example, in the example shown in FIG. 20, the image 301B containing "GHIJ" is the image 301B1 containing "GH" and the image 301B2 containing "IJ" as mentioned above. Although divided and registered, the information expressed by the image may be given to the set of the image 301B1 including "GH" and the image 301B2 containing "IJ". Similarly, in the example shown in FIG. 20, the information expressed by the image may be given to the image 300A including both "ABC", "GH", and "DEF".

즉, 화상이 표현하는 정보를, 소정의 로고를 포함하는 화상의 논리합으로서 관리하고, 소정의 논리 조건을 충족시키는 화상에만, 화상이 표현하는 정보를 부여한다. 이러한 연구에 의해, 예를 들면 입력 화상의 분할의 결과, 그 입력 화상 중에 등록 화상과 비유사한 부분이 존재하지 않았던 경우에도, 소정의 등록 화상의 집합으로서, 화상이 표현하는 정보를 부여한 후에 상기 TP 데이터 관리 DB(28)에 등록하는 것도 가능하다.That is, the information represented by the image is managed as the logical sum of the images including the predetermined logo, and the information expressed by the image is given only to the image satisfying the predetermined logical condition. According to this study, for example, even when a portion similar to the registered image does not exist in the input image as a result of the division of the input image, the TP is provided after providing information represented by the image as a set of predetermined registered images. It is also possible to register in the data management DB 28.

또한, 논리합에 한하지 않고, 보다 복잡한 논리식을 이용하는 것도 물론 가 능하다. 예를 들면, 도 20에 도시하는 입력 화상(300) 중에서 "GH"를 필수 요소(임의의 화상에 대하여, 화상이 표현하는 정보를 부여하기 위한 논리합에서의 요소)라고 한다. 그렇게 하면, 이를 관리하는 논리식으로서, "GH" AND ("ABC" OR "DEF")와 같은 기술이 가능하다. 이와 같이, 분할한 화상을 단위로 하여, 자유로운 논리식에 의해, 화상이 표현하는 정보의 관리를 행할 수 있다.It is also possible, of course, to use not only logical sums, but also more complex logical expressions. For example, "GH" in the input image 300 shown in FIG. 20 is called an essential element (element in logical sum for giving the information which an image represents with respect to an arbitrary image). By doing so, a technique such as "GH" AND ("ABC" OR "DEF") is possible as a logical expression for managing this. In this way, the information expressed by the image can be managed by a free logical expression on the basis of the divided image.

예를 들면, 필수 요소를, 촬영 대상인 대상 화상을 지시하는 심볼로서 이용함으로써, 유저에 대하여 해당 화상이 대상 화상인 것을 명시할 수 있으며, 또한 안정적인 매칭을 실현할 수 있다. 또한, 필수 요소의 주변의 영역의 특징점의 중요도를, 그 밖의 특징점보다도 높은 중요도로 되도록 가중치 부여하고, 매칭 처리에서, 이 가중치 부여를 가미하여 유사도를 판단하여도 물론 된다. 이와 같이 함으로써, 보다 안정적 또한 효율적인 매칭 처리를 실현할 수 있다.For example, by using an essential element as a symbol indicating a target image to be photographed, it is possible to specify that the image is a target image to the user, and stable matching can be realized. In addition, the importance of the feature points of the area around the essential elements may be weighted to be higher than the other feature points, and in the matching process, similarity may be determined by adding the weighting. By doing in this way, a more stable and efficient matching process can be realized.

또한, 논리식으로서 NOT의 논리식을 이용하여도 물론 된다. 예를 들면, 로고 A가 등록 화상인 경우에, 로고 B를 새롭게 등록하는 사람은, 등록 화상인 로고 A와 자신이 등록하는 로고 B를, NOT의 관계로 기술함으로써, 매칭 시에서 로고 A와 로고 B가 동시에 인식되지 않도록 할 수 있다. 이와 같이 NOT의 논리식을 이용하는 것은, 로고 A와 로고 B가 각각 서로 경합 관계에 있는 회사 등에 의해 사용되고 있는 경우 등에 유효하다. 또한, 미리 시스템에 이와 같은 경합 관계 정보를 등록해 놓고, 로고의 등록 시에, 상기 경합 관계 정보에 기초하여, 시스템이 자동적으로 소정의 로고와 경합 관계에 있는 회사 등이 사용하는 로고를 NOT의 관계로 기술하여 등록하도록 하여도 물론 된다. 여기에서, 상기 경합 관계 정보, 임의의 분야 에서의 경합 관계에 있는 회사 등이 사용하는 각종 의장의 데이터베이스이다.It is of course also possible to use a NOT expression as a logical expression. For example, when logo A is a registered image, a person who newly registers logo B describes the logo A, which is a registered image, and the logo B that he or she registers in a NOT relation, so that logo A and the logo are matched at the time of matching. You can prevent B from being recognized at the same time. Using the logical expression of NOT in this way is effective when the logo A and the logo B are each used by a company or the like that compete with each other. In addition, such contention relationship information is registered in the system in advance, and upon registration of the logo, the system automatically uses a logo that is used by a company or the like that has a contention relationship with a predetermined logo based on the contention relationship information. Of course, it may be described as a relationship and registered. Here, it is a database of various designs used by the competitive relationship information, a company in a competitive relationship in any field, and the like.

또한, 이와 같이 논리합을 이용하는 경우에는, 도 20에 도시하는 예에서의 입력 화상(300A) 중의 "DEF"와 같이, 입력 화상 중에 등록 화상에 없는 부분이 포함되어 있으면, 매칭 시의 판단이 용이해진다.In the case where the logical sum is used in this manner, when a portion not included in the registered image is included in the input image 300A of the input image 300A in the example shown in FIG. 20, determination at the time of matching becomes easy. .

이상 설명한 바와 같은 다양한 논리식에 의한 화상끼리의 관계는, 화상의 분할 과정에서 기술하여 구축하는 것이 가능한 것은 물론이다. 또한, 매칭은, 본 제6 실시예에서는, 상기 서버(20)가, 휴대 단말기(23) 상의 어플리케이션(25)과 제휴하여 행하는 구성으로 되어 있지만, 그 어플리케이션(25)에는 소위 전자 메일이 포함되는 것은 물론이다. 즉, 유저가 입력 화상을 첨부하여 서버에 전자 메일로 송신함으로써, 매칭을 행하는 것도 물론 가능하다. 이 경우, 매칭의 처리 결과는 전자 메일로 유저에게 배신된다.It goes without saying that the relationship between the images by various logical expressions as described above can be described and constructed in the image division process. In the sixth embodiment, matching is performed by the server 20 in cooperation with the application 25 on the mobile terminal 23, but the application 25 includes so-called e-mail. Of course. In other words, the user can of course perform matching by attaching an input image and sending it to the server by e-mail. In this case, the matching processing result is distributed to the user by electronic mail.

또한, 등록을 희망하는 입력 화상과 유사한 등록 화상이 발견된 경우에 취할 수 있는 처리는, 전술한 바와 같은 입력 화상 및/또는 등록 화상을 분할하는 처리에 한하지 않는다. 즉, 이하와 같은 처리도 고려된다.In addition, the process which can be taken when the registration image similar to the input image which wants to register is found is not limited to the process which divides the above-mentioned input image and / or registration image. That is, the following processing is also considered.

예를 들면, 도 21A에 도시하는 바와 같이, 입력 화상과 등록 화상이 유사하다고 판단한 경우, 그 유사한 부분을 서로 겹치게 함으로써, 입력 화상과 등록 화상을 합성하는 처리도 고려된다. 또한, 도 21B에 도시하는 바와 같이, "B"의 일부와 "C"의 일부를 포함하는 화상(402)을 입력 화상으로 하여 매칭을 행하는 경우를 고려한다. 여기에서, 상기 매칭 전에, "A"와 "B"를 포함하는 입력 화상(400)과, "A"와 "C"를 포함하는 입력 화상을 포함하는 등록 화상(401)이 합성 처리되어 있고 또한 이들 합성 화상이, 상기 TP 데이터 관리 DB(28)에 등록되어 있으면, 그 매칭을 보다 정확하게 행할 수 있다. 즉, 이러한 연구에 의해, 유저에 대하여 정확도가 높은 매칭 결과를 회신할 수 있다.For example, as shown in FIG. 21A, when it is determined that the input image and the registered image are similar, a process of synthesizing the input image and the registered image is also considered by overlapping the similar portions. In addition, as shown in FIG. 21B, the case where matching is performed using the image 402 including a part of "B" and a part of "C" as an input image is considered. Here, before the matching, the input image 400 including "A" and "B" and the registration image 401 including the input image containing "A" and "C" are synthesized. If these synthesized images are registered in the TP data management DB 28, the matching can be performed more accurately. In other words, this study can return a highly accurate matching result to the user.

또한, 입력 화상 및 /또는 등록 화상을 분할할 때에, 그 분할에 의해 생기는 각각의 화상 요소에 대하여, 분류 요소 또는 개별 요소 등이라고 한 의미 부여를 행함으로써, 해당 시스템을, 계층적인 화상 인식을 행하는 시스템으로서 운용하는 것도 가능하다. 또한, 분할에 관한 여러 가지 정보를 보유한 상기 TP 데이터 관리 DB(28)는, 각각의 분할에 의해 생긴 화상 요소를 단위로 한, 상기한 바와 같은 논리식에 의한 매칭 시에서의 판단 시에 효과적으로 이용할 수 있다.When dividing an input image and / or a registered image, each image element generated by the division is given a meaning such as a classification element or an individual element to perform hierarchical image recognition of the system. It is also possible to operate as a system. In addition, the TP data management DB 28 having various pieces of information on division can be effectively used in the determination at the time of matching by the above-described logical expressions based on the image elements generated by each division. have.

[제7 실시예][Example 7]

이하, 매칭 처리에 이용하는 템플릿 화상을 작성하는 TP 작성부에서 작성하는 템플릿으로서 동화상을 상정한 경우의 실시예를 설명한다.An embodiment in the case where a moving picture is assumed as a template to be created by a TP creating unit that creates a template image used for matching processing will be described below.

동화상은, 예를 들면 30매/초의 연속하는 정지 화상에 의해 구성되어 있다. 따라서, 상기 TP 작성부에서 작성한 템플릿을 기록하는 수단인 TP 데이터 관리 DB에, TP로서 동화상을 등록하는 경우, 그 동화상은 정지 화상의 연속한 것으로서 취급한다. 그러나, 동화상을 구성하는 정지 화상 중 모든 코마의 정지 화상을 등록할 필요는 없다. 즉, 일단 임의의 코마의 정지 화상을 상기 TP 데이터 관리 DB에 등록한 후에는, 그에 계속되는 코마의 정지 화상이, 이하에 기재하는 바와 같은 일정한 기준을 충족할 때에만, 그 코마의 정지 화상을 상기 TP 데이터 관리 DB에 다시 추가 등록하면 된다.The moving image is composed of, for example, a continuous still image of 30 sheets / second. Therefore, when a moving picture is registered as a TP in the TP data management DB, which is a means for recording a template created by the TP creating unit, the moving picture is treated as a continuous image of a still picture. However, it is not necessary to register still images of all commas among still images constituting a moving image. In other words, once the still image of any coma is registered in the TP data management DB, the still image of the coma is only displayed when the still image of the coma succeeds meets a predetermined criterion as described below. Add it again to the data management DB.

첫째, 상기 일정한 기준으로서, 상기 유사도를 이용하는 것이 고려된다. 이 경우, 일단 상기 TP 데이터 관리 DB에 등록한 코마의 정지 화상과, 그에 계속되는 코마의 정지 화상과의 유사도를 평가하고, 그 유사도가 소정값 이하로 되었을 때에만, 그 코마의 정지 화상을 상기 TP 데이터 관리 DB에 다시 추가 등록하면 된다. 그리고, 상기 유사도의 상기 소정값으로서, 예를 들면 유사도 75% 이하로서 설정하여도 된다.First, using the similarity as the constant criterion is considered. In this case, the similarity between the still image of the coma registered in the TP data management DB and the still image of the coma subsequent thereto is evaluated, and only when the similarity is equal to or less than a predetermined value, the still image of the coma is stored in the TP data. You can add it again to the management DB. As the predetermined value of the similarity, the similarity may be set to 75% or less, for example.

둘째, 상기 일정한 기준으로서, 상기 특징점의 수를 이용하는 것이 고려된다. 즉, 등록한 정지 화상 내에서 발견되고 있는 특징점의 수가, 그 등록한 정지 화상에 계속되는 정지 화상 내에서, 임의의 임계값 이하로까지 감소하면 추가 등록하는 방법이다.Second, it is considered to use the number of the feature points as the constant criterion. That is, if the number of feature points found in the registered still picture decreases to less than an arbitrary threshold value in the still picture following the registered still picture, it is a method of additional registration.

셋째, 상기 일정한 기준으로서, 상기 특징점의 이동 거리를 이용하는 것이 고려된다. 즉, 등록한 정지 화상 내에서 발견되고 있는 특징점을, 그 후에 계속되는 정지 화상 내에서 추적해가서, 그 특징점의 이동 거리가 임계값 이상으로 되면, 추가 등록하면 된다.Third, it is considered to use the moving distance of the feature point as the constant reference. That is, if the feature point found in the registered still image is traced in the still image subsequent to it, and the moving distance of the feature point becomes more than a threshold value, what is necessary is just to register further.

이상과 같은 방법에 의해, 120매의 정지 화상에 의해 구성된 동화상이어도, 실제로는 6매만을 등록하는 것만으로, 그 동화상 내에서의 임의의 위치의 원 씬을 안정적으로 매칭할 수 있는 것을, 본원 발명의 발명자는 확인하였다.According to the above method, even if the moving image is composed of 120 still images, only six images are actually registered, so that the original scene at any position within the moving image can be stably matched. The inventor confirmed.

또한, 동화상으로서 등록하는 정지 화상은, 각각의 정지 화상을 독립적으로 취급할뿐만 아니라, 그 동화상 내에서의 각각의 정지 화상의 순서 정보도 포함시켜서 상기 TP 데이터 관리 DB에 등록하면 된다. 이와 같이 하여, 또한 상기 순서 정 보를 매칭에서도 이용함으로써, 보다 안정적인 매칭이 실현되어, 오인식을 회피할 수 있다.A still image registered as a moving image may not only handle each still image independently but also include the sequence information of each still image in the moving image and register it in the TP data management DB. In this way, by using the order information also in matching, more stable matching is realized, and misrecognition can be avoided.

이하, 도 22에 도시하는 대상물 인식 시스템의 일 구성예를 참조하여, 구체적으로 설명한다. 카메라 부착 휴대 단말기(23)와 서버에서의 TP 데이터 관리 DB(28)가, 예를 들면 영상 전화의 회선으로 접속되어 있는 경우에는, 상기 카메라 부착 휴대 단말기(23)에서의 화상 입력부(도시하지 않음)로부터, 연속적으로 정지 화상이 서버에서의 상기 TP 데이터 관리 DB(28)에 송신된다. 서버에서의 매칭 처리부(도시하지 않음)가, 상기의 연속적으로 송신되는 정지 화상 내에서 정지 화상 B를 인식한 단계에서는, 아직 해당 동화상에 대응하는 등록 동화상(TP 데이터 관리 DB(28)에 등록된 동화상)을 확정할 수 없지만, 그 후에 인식한 화상이 E, G이기 때문에, 동화상(400)인 것을 확정할 수 있다.Hereinafter, with reference to one structural example of the object recognition system shown in FIG. 22, it demonstrates concretely. When the portable terminal 23 with a camera and the TP data management DB 28 in the server are connected by the line of a video telephone, for example, the image input part (not shown) in the portable terminal 23 with a camera. ) Is continuously transmitted to the TP data management DB 28 at the server. When the matching processing unit (not shown) in the server recognizes the still picture B in the continuously transmitted still picture, it is still registered in the registered moving picture (TP data management DB 28) corresponding to the moving picture. Moving picture) cannot be determined, but since the recognized images are E and G, the moving picture 400 can be determined.

또한, 동화상을 인식시키는 구성으로서는, 영상 전화와 같이 연속적으로 화상을 송신할 수 있는 방식에 한정되는 것은 아니고, 예를 들면, 카메라 부착 휴대 단말기(23)에서 동화상을 촬영하고, 이를 어플리케이션으로부터 서버(27)에 송신하여도 된다. 상기 어플리케이션은, 소위 전자 메일이어도 물론 된다. 이 경우에는, 유저가, 동화상을 첨부한 메일을, 특정한 메일 어드레스에 송신함으로써, 매칭에 요하는 데이터의 송신을 행한다. 그리고, 상기 매칭에서의 처리 결과는, 메일로 유저에게 배신된다. 또한, 상기 제6 실시예에서 설명한 화상을 분할하여 등록하는 방법은, 동화상의 경우에도 적용 가능한 것은 물론이다.In addition, the configuration of recognizing a moving image is not limited to a method that can continuously transmit an image like a video telephone. For example, the mobile terminal with a camera 23 captures a moving image, and the image is transferred from an application to a server ( 27). Of course, the application may be a so-called electronic mail. In this case, the user transmits the data required for matching by sending a mail with a moving picture to a specific mail address. The result of the matching is distributed to the user by mail. The method of dividing and registering the image described in the sixth embodiment is, of course, applicable to the case of a moving image.

[제8 실시예][Example 8]

그런데, 특징점을 이용한 화상 인식, 예를 들면 매칭 처리에서는, 화상으로부터 추출하는 특징점의 수가 많으면 많을수록, 화상의 인식을 하기 쉬워진다. 그러나, 특징점의 수가 많으면 많을수록, 매칭 처리에 시간을 요한다. 이 때문에, 매칭 처리에 있어서 유효한 특징점만을 추출하고, 그 특징점만을 등록하는 것은, 효과적인 매칭 처리를 실현한다.By the way, in image recognition using feature points, for example, matching processing, the larger the number of feature points extracted from an image, the easier it is to recognize an image. However, the larger the number of feature points, the more time is required for the matching process. For this reason, extracting only effective feature points and registering only the feature points in the matching process realizes an effective matching process.

일반적으로, 등록을 희망하는 입력 화상에 대하여 여러 가지 화상 처리를 실시함으로써, 특징점을 추출할 수 있다. 이 화상 처리로서는, 화상에 대하여 바림 효과를 주는 처리, 화상의 사이즈를 변경하는 처리를 주는 처리 등을 예로 들 수 있다. 이와 같이 하여 추출한 특징점은, 그 특징량에서, 국소적으로는 다른 화소와의 차이가 확실히 있다. 그러나, 동일 화상 내에, 유사한 특징량을 갖는 점이 복수 존재하게 되는 것을 방지할 수 없다.Generally, a feature point can be extracted by performing various image processing with respect to the input image to register. Examples of this image processing include processing that gives a blur effect to the image, processing that changes the size of the image, and the like. The feature points extracted in this way are distinctly different from other pixels locally in the feature amount. However, it cannot be prevented that a plurality of points having similar feature amounts exist in the same image.

여기에서, 화상 Z 내에 유사한 특징량을 갖는 점이 복수 존재하고 있는 경우를 고려한다. 이러한 경우, 화상 Z와, 화상 Z를 촬영한 화상과의 매칭에서, 화상 Z로부터 추출한 특징점이, 화상 Z 내의 복수의 점과 유사하다고 판단되게 된다. 이 때문에, 안정적인 매칭을 실현하는 것이 곤란하게 된다. 이와 같이, 동일 화상 내에 포함되는 유사한 특징점은, 안정적인 매칭을 저해하고, 또한 매칭의 처리 속도를 느리게 한다.Here, the case where a plurality of points having similar feature amounts exist in the image Z is considered. In this case, in matching between the image Z and the image picked up the image Z, it is determined that the feature points extracted from the image Z are similar to the plurality of points in the image Z. For this reason, it becomes difficult to implement stable matching. As such, similar feature points included in the same image inhibit stable matching and slow down the processing speed of matching.

또한, 이러한 동일 화상 내에 포함되는 서로 유사한 복수의 특징점은, 완전히 그 특징량이 동일하게 되어 있는 경우를 제외하고, 이들을 용이하게 배제할 수 없다. 이는, 동일 화상 내에서, 유사하다고 판단하기 위한 임계값을, 매칭의 유효 성에 기초하여 설정하는 것은 곤란하기 때문이다.In addition, a plurality of similar feature points included in such a same image cannot be easily excluded except when the feature amounts are completely the same. This is because, in the same image, it is difficult to set threshold values for determining similarity based on the validity of the matching.

이상과 같은 사정을 감안하여, 본 제8 실시예에서는, 등록 시에, 대상 화상에 대하여 촬영의 시뮬레이션을 실시하고, 대상 화상 자신과의 매칭에서 각 특징점의 유효성을 평가한다. 이에 의해, 등록하는 특징점을 선별하고, 최소의 수의 특징점에 의한 안정적인 매칭을 효과적으로 실현한다.In view of the above circumstances, in the eighth embodiment, at the time of registration, simulation of photographing is performed on the target image, and the validity of each feature point is evaluated in matching with the target image itself. This selects the feature points to register and effectively realizes stable matching by the minimum number of feature points.

상기 촬영의 시뮬레이션은, 회전, 확대 축소를 포함하는 2차원 및/또는 3차원의 아핀 변환, 촬영 시의 노이즈 및/또는 바림을 부여하는 처리, 촬영 사이즈에서의 화상 압축의 노이즈를 부여하는 처리, 조명 환경을 반영시키는 레벨의 조작 처리, 콘트라스트의 조작 처리, 감마 곡선의 조작 등의 처리, 색 정보의 열화 조작 처리, 색 덮어씌우기 조작의 처리 등, 일반적인 화상 처리 프로그램으로 실현할 수 있는 각종 처리를 포함한다.Simulation of the photographing may include two-dimensional and / or three-dimensional affine transformation including rotation and enlargement and reduction, a process of imparting noise and / or variation in photographing, a process of imparting noise of image compression in a photographing size, Includes various processes that can be realized by general image processing programs, such as level manipulation processing that reflects the lighting environment, contrast manipulation, gamma curve manipulation, color information deterioration manipulation, and color overlay manipulation. do.

매칭 처리에 이용하는 템플릿을 작성하는 TP 작성부(50)는, 예를 들면, 특징점 추출부, 시뮬레이션 화상군 작성부, 매칭 처리부, 및 특징점 평가부로 구성되어 있다. 이들 각 부의 기능의 상세 내용은, 이하와 같다.The TP preparation unit 50 for creating a template used for the matching process is configured of, for example, a feature point extraction unit, a simulation image group preparation unit, a matching processing unit, and a feature point evaluation unit. The detail of the function of each part is as follows.

상기 특징점 추출부에서는, 등록을 희망하는 대상 화상으로부터 특징점을 추출한다.The feature point extracting unit extracts feature points from the target image to be registered.

상기 시뮬레이션 화상군 작성부는, 상기 대상 화상에 상기 시뮬레이션을 실시하고, 적어도 1개의 시뮬레이션 화상을 작성한다. 또한, 상기 시뮬레이션 화상군 작성부는, 이들 시뮬레이션 화상군의 특징점을 추출한다.The said simulation image group creation part performs the said simulation to the said target image, and produces | generates at least 1 simulation image. The simulation image group creating unit extracts feature points of these simulation image groups.

상기 매칭 처리부는, 상기 특징점 추출부에서 추출한 특징점과, 상기 시뮬레 이션 화상군 작성부에서 추출한 특징점을 비교한다. 여기에서, 특징점의 비교에서는, 상기 특징점 추출부에서 추출한 특징점을, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 것으로서 취급하고, 각각의 시뮬레이션 화상으로부터 추출한 특징점에서 매칭을 행하여도 된다. 또한, 상기 시뮬레이션 화상군 작성부에서 추출한 특징점을, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 것으로서 취급하고, 상기 특징점 추출부에서 추출한 특징점에서 매칭을 행하여도 물론 된다.The matching processing unit compares the feature point extracted by the feature point extraction unit with the feature point extracted by the simulation image group creating unit. Here, in the comparison of the feature points, the feature points extracted by the feature point extraction unit may be treated as registered in the TP data management DB 28, and matching may be performed at the feature points extracted from each simulation image. Note that the feature points extracted by the simulation image group creating unit may be treated as registered in the TP data management DB 28, and the matching may be performed on the feature points extracted by the feature point extraction unit.

상기 특징점 평가부에서는, 상기 매칭 처리부에 의한 매칭의 처리 결과를 참조하여, 상기 특징점 추출부에서 추출한 특징점에 대하여, 실제의 매칭에 기여한 양을 관련짓는다. 그리고, 상기 기여한 양을, 상기 특징점의 질로서 취급하고, 특징점에 순위를 부여한다. 나아가서는, 임의의 임계값 이상의 질을 갖는 특징점 및/또는 상위의 일정수의 특징점만을 선별하고, 그 특징점을, 등록을 희망하는 대상 화상의 특징점이라고 한다.In the feature point evaluator, the amount contributed to the actual match is associated with the feature points extracted by the feature point extractor with reference to the matching processing result by the matching processor. The contribution amount is treated as the quality of the feature point, and the feature point is ranked. Further, only feature points having a quality equal to or greater than an arbitrary threshold value and / or a predetermined number of feature points above are selected, and the feature points are referred to as feature points of the target image to be registered.

상기한 바와 같이, 등록 대상의 특징점을 선별함으로써, 실제의 매칭 처리에 유효한 점을, 우선적으로 등록하는 것이 가능하게 된다. 따라서, 매칭의 처리 시간을 단축하고, 또한 정밀도가 높은 결과를 얻을 수 있다.As described above, by selecting the feature points to be registered, it is possible to preferentially register the points effective for the actual matching process. Therefore, the processing time of matching can be shortened and a result with high precision can be obtained.

[제9 실시예][Example 9]

본 제9 실시예에서는, 입력 화상 중에서 복수의 특징점을 추출하고, 그들 특징점으로부터 이루어지는 특징점군을, 미리 등록해 있는 대상물마다의 특징점군과 비교 대조함으로써, 동일한 대상물의 동정을 행한다.In the ninth embodiment, a plurality of feature points are extracted from the input image, and the same object is identified by comparing and comparing the feature point group formed from those feature points with the feature point group for each object registered in advance.

여기에서 말하는 화상 중의 특징점은, 다른 화소와의 차이가 일정 레벨 이상 있는 것을 가리키며, 그 특징량으로서는, 예를 들면 명암의 콘트라스트, 색, 주위의 화소의 분포, 미분 성분값, 및 특징점끼리의 배치 등을 예로 들 수 있다. 본 제9 실시예에서는, 상기 특징점을 추출한 후, 대상물마다 등록해 둔다. 그리고, 실제의 동정 시에서는, 입력 화상 중을 서치하여 특징점을 추출하고, 미리 등록되어 있는 데이터와의 비교를 행한다.The feature point in the image here indicates that the difference from other pixels is at a certain level or more, and the feature amounts include, for example, contrast of light and dark, color, distribution of surrounding pixels, differential component values, and arrangement of feature points. Etc. can be mentioned. In the ninth embodiment, the feature points are extracted and registered for each object. At the time of actual identification, the feature points are searched out in the input image, and compared with the data registered in advance.

이하, 도 23을 참조하여, 본 제9 실시예에서의 매칭 처리부에서의 동정 처리의 동작 제어의 흐름을 설명한다. 우선, 미리 등록되어 있는 대상물 Z의 인식 요소의 특징점 데이터를, 특징점군이 기록되어 있는 특징점 데이터 기억부로부터 읽어낸다(스텝 S21). 계속해서, 상기 특징점 데이터를, 특징점 데이터의 비교를 행하는 특징점 비교부에 입력한다(스텝 S22). 그리고, 상기 특징점 비교부에서, 상기 특징점 데이터와, 입력된 대상물의 특징점 데이터와의 비교 대조를 행한다(스텝 S23).The flow of operation control of identification processing in the matching processing unit in the ninth embodiment will be described below with reference to FIG. First, the feature point data of the recognition element of the target object Z registered in advance is read out from the feature point data storage unit in which the feature point group is recorded (step S21). Subsequently, the feature point data is input to the feature point comparison unit for comparing the feature point data (step S22). Then, the feature point comparison section compares and compares the feature point data with the input feature point data (step S23).

그 후, 대상물끼리의 동일성을 판단하는 동일성 판단부에서, 상기 대상물 Z와, 입력된 대상물과의 동정을 행한다(스텝 S24). 그리고, 일치하는 특징점의 개수가 소정의 값(여기서는 X개라고 함) 이상인지의 여부를 판단한다(스텝 S25). 이 스텝 S25를 '아니오'로 분기하는 경우에는, 상기 스텝 S23으로 되돌아간다. 한편, 상기 스텝 S25를 '예'로 분기하는 경우에는, 현재 비교 중인 대상물 Z의 인식 요소와, 입력된 대상물이 동일한지의 여부를 판정한다(스텝 S27).Then, in the identity determination part which judges the identity of objects, the identification of the said object Z and the input object is performed (step S24). Then, it is determined whether or not the number of coincident feature points is equal to or greater than a predetermined value (here, referred to as X) (step S25). If this step S25 branches off, it will return to said step S23. On the other hand, when branching said step S25 to YES, it is determined whether the recognition element of the object Z currently compared with the input object is the same (step S27).

그 후, 모든 인식 요소에 대한 비교를 종료하였는지의 여부를 판단한다(스텝 S28). 이 스텝 S28을 '아니오'로 분기하는 경우에는, 다음의 인식 요소의 특징점 군에서의, 특징점 데이터를, 상기 특징점 비교부에 비교 데이터로서 입력하고(스텝 S26), 상기 스텝 S23으로 되돌아간다. 그런데, 상기 스텝 S28을 '예'로 분기하는 경우에는, 일치하는 특징점의 개수가 소정의 값(여기서는 Y개라고 함) 이상인지의 여부를 판단한다(스텝 S29). 여기에서, 이 스텝 S29를 '예'로 분기하는 경우에는, 입력된 대상물과, 대상물 Z는 일치한다고 판정하고, 그 취지를 표시부 등에 표시하여 유저에게 알린다(스텝 S30). 한편, 상기 스텝 S29를 '아니오'로 분기하는 경우에는, 입력된 대상물과, 대상물 Z는 일치하지 않는다고 판정한다(스텝 S31).Thereafter, it is determined whether or not the comparison with respect to all the recognition elements has been completed (step S28). In the case where this step S28 branches to NO, the feature point data in the feature point group of the next recognition element is input as comparison data to the feature point comparison unit (step S26), and the flow returns to the step S23. By the way, in the case where the step S28 branches to YES, it is determined whether the number of matching feature points is equal to or greater than a predetermined value (herein referred to as Y) (step S29). Here, in the case where this step S29 branches to YES, it is determined that the input object and the object Z coincide, and the user is displayed on the display unit or the like to inform the user (step S30). On the other hand, when branching said step S29 to "no", it is determined that the input object and the object Z do not correspond (step S31).

또한, 실제의 동정 시에서는, 유사한 정도를 나타내는 수치(특징점끼리의 각성분의 차이)가, 미리 설정한 임계값을 초과한 경우에, 그 특징점을 유사 특징점이라고 판정한다. 그리고, 또한 복수의 특징점이 일치한 대상물을, 입력 화상의 대상물과 동일하다고 판정한다. 이 때, 입력 화상 중의 특징점군과, 미리 등록되어 있는 특징점군을, 이하와 같이 비교한다.In addition, in the case of actual identification, when the numerical value (the difference of each component between feature points) which shows similar degree exceeds the preset threshold value, it determines with the feature point as a similar feature point. Then, the object to which the plurality of feature points coincide is determined to be the same as the object of the input image. At this time, the feature point group in the input image and the feature point group registered in advance are compared as follows.

첫째, 대상물 내를 복수의 요소로 분할하여 등록해 둔다. 이에 의해, 대상물끼리의 비교 대조 시에, 복수의 요소(예를 들면 3개)를 인식하지 않으면 그 대상물을 인식했다고 하지 않는다라는 판정 로직으로 인식시킨다.First, the object is divided into a plurality of elements and registered. This makes it possible to recognize by the determination logic that the object is not recognized if a plurality of elements (for example, three) are not recognized when comparing the objects.

둘째, 대상물의 인식 시에서, 비슷한 대상물이 화상 내에 찍혀 있는 경우에, 예를 들면, OBJ1(특징점군; A, B, C)을 자사의 로고 마크로 하고 있는 S사와, OBJ2(특징점군; E, F, G)를 자사의 로고 마크로 하고 있는 M사를 상정한다. 여기에서, S사와 M사는 경합하고 있는 회사라고 한다. 이러한 경우에는, 당연히, 양자의 로고 마크의 혼동은 극력 피해야만 한다. 이러한 사정을 감안하여, 본 제9 실 시예에서는, A와 E가 동일 화면 내로부터 동시에 검출된 경우에는, 어느 쪽의 대상물 모두, 인식을 하지 않는다. 즉, 인식 판정을 엄격하게 한다.Second, in the case of recognition of an object, when a similar object is photographed in an image, for example, S company having OBJ1 (feature point group A, B, C) as its logo mark, and OBJ2 (feature point group; E, We assume M company making F, G) its logo mark. Here, S company and M company are said to compete with each other. In this case, of course, confusion of both logo marks should be avoided as much as possible. In view of such circumstances, in the ninth embodiment, when A and E are simultaneously detected from within the same screen, neither of the objects is recognized. That is, the recognition judgment is made strictly.

셋째, 종래는, 인식할 수 있었던 특징점의 수가 몇몇인 경우에도, 인식 결과를 유저에게 전달하는 문장 표현이 동일한 점이다. 이 때문에, 예를 들면 일부의 특징점만 인식할 수 있었던 경우, 즉 입력 화상과 비교 화상과의 일치 정도가 불확정성을 포함하는 일치 정도인 경우에, 그 취지를 유저에게 전달할 수 없다. 한편, 본 제9 실시예에서는, 인식 요소수가 적은 경우에는, 결과의 표시 방법(표현 방법)을 바꾸어, 불확정성을 포함하는 표현으로 한다.Third, conventionally, even when the number of feature points that can be recognized is the same, the sentence expression that delivers the recognition result to the user is the same. For this reason, for example, when only some feature points can be recognized, that is, when the degree of matching between the input image and the comparison image is a degree of matching including uncertainty, the effect cannot be transmitted to the user. On the other hand, in the ninth embodiment, when the number of recognition elements is small, the display method (expression method) of the result is changed to an expression including uncertainty.

상기의 각각의 연구에 의해, 각각 이하의 효과가 얻어진다.By each of the above studies, the following effects are obtained, respectively.

첫째, 대상물의 일부만이 일치함에 따른 오인식을 일으킬 확률을 낮게 억제할 수 있다.First, it is possible to reduce the probability of causing a misunderstanding by matching only a part of the object.

둘째, 대상물의 오인식을 특히 피하고자 하는 경우의 판정 기준을 엄격하게 할 수 있다.Second, the criterion for judging the misrecognition of the object in particular can be strictly enforced.

셋째, 대상물의 동일성 판정의 정확성이 소정의 값보다도 낮은 경우에도, 유저에 대하여 주의를 환기한 후에, 유저에 일치 판정 결과를 알릴 수 있다.Third, even when the accuracy of the identity determination of the object is lower than the predetermined value, after the user has been alerted, the user can be informed of the result of the coincidence determination.

그런데, 대상물 중의 특징점이 분할하여 등록되어 있는 대상물인 OBJ1(특징점군; A, B, C) 및 OBJ2(특징점군;E, F, G)의 경우에는, 이하와 같은 판정 로직에 의한 인식을 행한다.By the way, in the case of OBJ1 (feature point group; A, B, C) and OBJ2 (feature point group; E, F, G) which are the registered targets, the feature points in the object are divided and recognized by the following decision logic. .

첫째, A and B and C가 아니면 OBJ1 인식 성공이라고 하지 않는다.First, it is not called OBJ1 recognition success unless it is A and B and C.

즉, 인식 요소인 A, B, C로 이루어지는 OBJ1의 인식을 하는 경우에, A, B, C 어느 1개 또는 2개의 인식 상태에서는 OBJ1의 인식이 성공한다고 하는 형태로는 하지 않는다.That is, when OBJ1 consisting of A, B, and C, which are recognition elements, is recognized, the recognition of OBJ1 is not successful in one or two recognition states.

또한 이 변형예로서, A, B, C에 평가점으로서의 가중치 부여를 행한다. 예를 들면, 각각 1, 0.5, 0.3으로 가중치 부여한다. 여기에서, 합계 평가점이 1.5를 초과했을 때에 인증한다고 하면, A 및 B가 인식 요소로서 발견된 경우에는 합계 평가점이 1.5로 되므로 OBJ1을 인증한다. 한편, B 및 C가 발견된 경우에는 OBJ1은 인증하지 않는다.In addition, as this modification, A, B, and C are weighted as evaluation points. For example, the weights are 1, 0.5, and 0.3, respectively. Here, if authentication is made when the total evaluation point exceeds 1.5, the total evaluation point becomes 1.5 when A and B are found as recognition elements, so the OBJ1 is authenticated. On the other hand, when B and C are found, OBJ1 does not authenticate.

이들 인식 요소의 평가점에 대해서는, 인식 요소의 특징점과 함께 관리하는 것이 가능하다.The evaluation points of these recognition elements can be managed together with the feature points of the recognition elements.

또한, 논리식으로서, 각 요소의 우선도를 바꾸는 것도 가능하며, A and B and C 이외에도, 예를 들면 A and (B or C)나, A or (B and C)와 같은 조합이 가능하다. 이들의 예는, 인식 성공으로 하기 위해서는, 모두 A가 필수 요소인 예이다.It is also possible to change the priority of each element as a logical expression, and besides A and B and C, for example, a combination such as A and (B or C) or A or (B and C) is possible. These examples are examples in which A is an essential element in order to make recognition successful.

또한, 상기의 평가점 및 논리식의 예는, 조합하여 이용하는 것이 가능하다. 즉, 논리식의 우선도와 각 요소의 가중치 부여를 조합하여 이용할 수 있다.In addition, the said evaluation point and the example of a logical formula can be used in combination. That is, the priority of a logical expression and the weighting of each element can be combined and used.

둘째, E and A가 추출된 경우에는 결코, OBJ1도 OBJ2도 모두 인식했다고 하지 않는다.Second, when E and A are extracted, it is never said that both OBJ1 and OBJ2 are recognized.

예를 들면 OBJ1을 로고로서 이용하고 있는 S사와, OBJ2을 로고로 하고 있는 M사가 경합 관계로서, 양자의 혼동을 극력 피하고자 하는 경우, S사의 로고인 OBJ1과 M사의 로고인 OBJ2가 동일 화면 내에 찍혀 있는 경우에는, 어느쪽의 로고도 인식했다고 하지 않는다. 이 경우에는, 유저에 대하여, 인식할 수 없는 이유는, 대 상 화상이 검출되지 않고 있기 때문은 아니고, (A, B, C) 및 (E, F, G)의 양방으로부터 인식 요소가 검출되어 있기 때문이라고 하는 취지의 표시를 행한다.For example, if S company using OBJ1 as a logo and M company using OBJ2 as a competition are in a competitive relationship and want to avoid the confusion of both, S company's logo OBJ1 and M company's logo OBJ2 are in the same screen. If so, neither logo is recognized. In this case, the reason that the user cannot recognize the object is not that the target image is not detected, but the recognition elements are detected from both (A, B, C) and (E, F, G). It is displayed to the effect that there is.

이와 같이, 본 제9 실시예에서는, 서로 경합 관계에 있는 회사 등의 로고의 동정에 관해서는, 예를 들면 S사의 로고인 OBJ1만이거나 또는 M사의 로고인 OBJ2만이거나, 어느 한쪽만이 화면 내에 임의의 상태로 되었을 때에만, 해당 로고의 인식을 하도록 한다. 구체적으로는, (A, B, C) 중 어느 하나만, 또는 (E, F, G) 중 어느 하나만을, 동일 화면 내에서 검출한 경우에만, OBJ1 또는 OBJ2의 인식을 행한다. 환언하면, (A, B, C) 중 어느 하나와, (E, F, G) 중 어느 하나가 동일 화면 내에서 검출된 경우, OBJ1도 OBJ2도 모두 인식을 하지 않는다.As described above, in the ninth embodiment, regarding identification of logos of companies and the like that compete with each other, for example, only OBJ1, which is the logo of S company, or OBJ2, which is the logo of M company, only one of them is displayed on the screen. Recognize the logo only when it is in an arbitrary state. Specifically, OBJ1 or OBJ2 is recognized only when any one of (A, B, C) or only one of (E, F, G) is detected within the same screen. In other words, when either one of (A, B, C) and one of (E, F, G) are detected in the same screen, neither OBJ1 nor OBJ2 are recognized.

셋째, A and B 등 일부만이 추출된 경우에는 결과의 제시 방법을 바꾼다(불확정성을 포함하는 표현을 준수한다).Third, if only a few, such as A and B, are extracted, change the way the results are presented (observe expressions that include uncertainty).

예를 들면, OBJ1의 인식에 관해서, 인식 요소의 A, B, C의 모두를 인식할 수 있었던 경우에는 『OBJ1이 인증되었습니다』라는 강한 표현으로 인식 결과를 유저에게 제시한다. 또한, 인식 요소의 A 및 B, B 및 C 등, 2개의 인식 요소를 인식할 수 있었던 경우에는, 예를 들면 『OBJ1이라고 생각됩니다』라는 약간 확신을 약하게 한 표현으로, 인식 결과를 유저에게 제시한다. 또한 인식할 수 있었던 인식 요소가 1개이었던 경우에는, 『OBJ1이 인식되었을 가능성이 있습니다』라고 하도록, 불확정성을 포함한 표현으로 인식 결과를 유저에게 제시한다.For example, regarding the recognition of OBJ1, when all of A, B, and C of the recognition element can be recognized, the recognition result is presented to the user with a strong expression "OBJ1 has been authenticated". In addition, when two recognition elements such as A, B, B, and C of the recognition elements can be recognized, the recognition result is presented to the user in a slightly weakened expression, for example, "we think it is OBJ1." do. If there was only one element of recognition that could be recognized, the recognition result is presented to the user in an expression including uncertainty so that "OBJ1 may have been recognized."

또한, 본 제9 실시예의 변형예로서, 전술한 가중치 부여의 평가점을 이용한 경우에, 그 합계 평가점에 기초하는 인식 결과를, 유저에게 제시할 때의 표현 방법 에서의 상기한 바와 같은 연구도 고려된다. 또한, 유저에게 인식 결과를 제시할 때의 상기한 바와 같은 표현 방법의 연구는, 다양한 장면에서 적용 가능한 것은 물론이다. 예를 들면, 원하는 인식 요소 단체의 인식에서도 적용이 가능하다. 또한, 예를 들면 인식 요소 내에서의 일치 특징점의 수, 추출 특징점과 등록된 특징점과의 일치 정도에 의해, 유저에게 인식 결과를 제시할 때의 상기한 바와 같은 표현 방법을 적용할 수 있다.Further, as a modification of the ninth embodiment, when the above-described weighted evaluation points are used, the above-described studies in the expression method when presenting the recognition result based on the total evaluation points to the user are also shown. Is considered. In addition, the study of the expression method as described above when presenting the recognition result to the user is, of course, applicable to various scenes. For example, it is also applicable to the recognition of a desired recognition element group. Further, the expression method as described above when presenting the recognition result to the user can be applied, for example, by the number of matching feature points in the recognition element, and the degree of matching between the extracted feature points and the registered feature points.

또한, 본 제9 실시예를 상기 제6 실시예에 적용하는 경우에는, 상기 TP 작성부(50)는 서버(20) 상에서 동작하고 있어도 물론 된다. 또한, 상기 지면(40)은 표시면을 의미하고, 반드시 종이인 것에 한정되지 않는다. 예를 들면, 금속, 플라스틱 등의 다른 소재이어도 되고, 액정 모니터나 플라즈마 텔레비전 등과 같은 영상 표시 장치이어도 된다. 물론, 그들에 표시되는 정보는, 인간에 있어서의 가시광 영역으로 표시되는 것에 대응하고 있는 것은 당연한 것이다. 그러나, 화상 입력부에 입력 가능한 정보이면, 인간에 있어서 불가시한 정보이어도 물론 된다. 또한, 화상으로서 취득 가능한 것 모두가 대상이므로, 예를 들면, X선 화상이나 서모그래피라고 한 화상이어도 된다.In addition, in the case where the ninth embodiment is applied to the sixth embodiment, the TP creating unit 50 may be operating on the server 20. In addition, the paper 40 means a display surface, and is not necessarily limited to paper. For example, other materials, such as a metal and plastic, may be sufficient, and a video display apparatus, such as a liquid crystal monitor and a plasma television, may be sufficient. Naturally, the information displayed on them corresponds to that displayed in the visible light region in humans. However, as long as the information can be inputted to the image input unit, the information may be invisible to humans. In addition, since all that can be acquired as an image are objects, an image called an X-ray image or a thermography may be sufficient, for example.

또한, 도 10에서, 상기 화상 입력부(24)로부터 입력되는 대상 화상을 파악한 화상은, 카메라 부착 휴대 단말기로부터 서버(20)에서의 상기 매칭 처리부(29)에 송신된다. 이 때, 상기 화상 입력부(24)가 취득한 화상을 그대로 화상 데이터로서 송신하는 것은 물론, 화상을 축소하여 송신하여도 물론 된다. 또한, 해당 화상으로부터, 매칭으로 이용하는 특징 데이터를 추출하고, 이를 송신하여도 물론 된다. 나아가서는, 상기 화상과 상기 특징 데이터와의 양방을 송신한다고 하여도 물론 된다. 즉, 해당 화상으로부터 도출하는 것이 가능한 양태의 데이터이면, 어떠한 양태의 데이터를 송신해도 상관없다.10, the image which grasped the target image input from the said image input part 24 is transmitted to the matching processing part 29 in the server 20 from the portable terminal with a camera. At this time, the image obtained by the image input unit 24 may be transmitted as image data as it is, and of course, the image may be reduced and transmitted. It is also possible to extract feature data used for matching from the image and transmit it. Furthermore, it goes without saying that both the image and the feature data are transmitted. That is, as long as it is data of the aspect which can be derived from the said image, you may transmit data of what kind of aspect.

[제10 실시예][Example 10]

본 제10 실시예는, 전술한 제6 내지 제9 실시예에서, 서버가, 입력 화상과 비교 대조하기 위한 등록 화상을 기억하는 화상 기억부를 포함하는 실시예이다.In the sixth to ninth embodiments described above, the server includes an image storage unit that stores a registered image for comparison and comparison with an input image.

상기 비교 대조에 이용하는 데이터로서는, 통상적으로, 미리 또는 화상 입력시에 추출한 특징점군 데이터를 이용한다. 이 때문에, 비교 대조에 이용하는 데이터를 기억하는 기억부에 기억하는 정보도 통상은 특징점군 데이터이다. 그리고, 비교 대조의 작업에서는, 데이터의 유사성 등을 고려하여 동일성의 판정을 행한다. 이러한 경우에는, 비교 대조에 이용하는 데이터 중에 예를 들면 2개의 매우 유사한 화상이 있었던 경우, 입력 화상의 유사도의 판별이 어렵게 되는 케이스가 있다. 그 경우, 비교 대조용의 화상(특징점군을 추출한 원래 데이터; 이후, 원화상이라고 칭함)이 존재하면, 특징량의 추출 기준을 변경함으로써, 보다 정밀도가 높은 비교 대조를 행하거나, 특징점군의 추출 결과에 대하여 유저가 원화상을 사용한 목시확인을 행할 수 있다. 또한, 화상 자체쪽이, 해당 화상으로부터 추출한 특징점군 데이터보다도 용량이 작은 경우가 있다.As the data used for the comparison and verification, the feature point group data extracted in advance or at the time of image input is usually used. For this reason, the information stored in the memory | storage part which stores the data used for comparison collation is also usually characteristic point group data. In the comparison and contrasting operation, the similarity is determined in consideration of the similarity of the data and the like. In such a case, when there are two very similar images in the data used for the comparison collation, there is a case where it is difficult to determine the similarity of the input images. In that case, if there exists an image for comparison and contrast (original data from which a feature point group was extracted; hereafter called an original image), the comparison reference of a feature amount is changed and a comparative precision with high precision is performed, or the feature point group is extracted. The user can visually check the result using the original image. In addition, the image itself may have a smaller capacity than the feature point group data extracted from the image.

상기한 바와 같은 사정을 감안하여, 본 제10 실시예와 같이, 비교 대조에 이용하는 데이터로서 화상을 상정하고, 그 화상에 관한 화상 기억부를 서버에 갖게 하는 것은, 유익하다고 할 수 있다. 또한, 화상의 비교 대조 작업이 발생할 때마 다, 비교 대조에 이용하는 화상으로부터 특징점군을 추출하여도 물론 된다.In view of the above circumstances, as in the tenth embodiment, it is advantageous to assume an image as data to be used for comparison and to have the server store an image storage unit relating to the image. In addition, whenever a comparison collation operation of an image occurs, the feature point group may be extracted from the image used for comparison collation.

[제11 실시예][Example 11]

본 제11 실시예는, 전술한 제6 내지 제9 실시예에서, 서버가, 입력 화상 내의 특징점군에 대한 비교 대조 데이터로서, 특징점군 및 그 특징점군에 대응하는 화상이 기록되어 있는 장소를 나타내는 로케이션 정보를 나타내는 로케이션 기억부를 갖는 실시예이다.In the eleventh embodiment, in the sixth to ninth embodiments described above, the server indicates, as comparative contrast data for the feature point group in the input image, a place where the feature point group and an image corresponding to the feature point group are recorded. An embodiment having a location storage section for indicating location information.

예를 들면, 입력 화상 내의 특징점군과 비교 대조하기 위한 데이터로서, 화상을 기록하기 위한 화상 기록부에, 화상이나 화상으로부터 추출한 특징점군을 기록하는 경우를 고려한다. 이러한 경우, 이들 화상이나 화상으로부터 추출한 특징점군인 비교 대조에 이용하는 데이터의 사이즈가 커서, 시스템으로서 유지하는 것이 득책이 아닌 케이스가 있다. 이러한 경우, 전체의 퍼포먼스의 향상을 감안하면, 화상을 기록하는 화상 기록부를 상기 시스템 내에 갖게 하지 않는 쪽이 고려된다.For example, consider the case where the image or the feature point group extracted from the image is recorded in the image recording section for recording the image as data for comparison and comparison with the feature point group in the input image. In such a case, there is a case in which the size of data used for comparison and comparison, which is a feature point group extracted from these images and images, is large, and it is not advantageous to maintain them as a system. In such a case, considering the improvement of the overall performance, it is considered that the image recording unit for recording the image is not provided in the system.

상기한 바와 같은 사정을 감안하여, 매칭에서의 처리 결과로부터, 동일하다는 판단이 이루어진 화상이 필요해진 경우에, 그 화상을 검색하기 위한 로케이션 정보를 기록하기 위한 로케이션 기억부를, 서버에 갖게 한다. 여기에서, 상기 로케이션 정보는, 예를 들면 상기 시스템과는 다른 시스템 내에 있는 상기 화상에의 링크 정보, 네트워크 상에 있는 상기 화상에의 링크 정보, 네트워크 상에 있는 상기 화상을 추출하기 위한 키워드 등의 검색 정보 등을 예로 들 수 있다. 이러한 로케이션 정보를, 비교 대조용으로 등록된 특징점군과의 관계를 나타내는 로케이션 정보로서, 상기 로케이션 기억부에서 기록 및 관리한다. 본 제11 실시예에서는, 상기한 바와 같은 로케이션 정보 기억부를, 상기 시스템 내에 갖게 한다.In view of the above circumstances, when the image determined to be the same is needed from the processing result of matching, the server has a location storage unit for recording location information for searching for the image. Here, the location information is, for example, link information to the image in a system different from the system, link information to the image on the network, a keyword for extracting the image on the network, and the like. For example, search information. Such location information is recorded and managed in the location storage unit as location information indicating a relationship with a feature point group registered for comparison and verification. In the eleventh embodiment, the above location information storage unit is provided in the system.

[제12 실시예][Twelfth Example]

본 제12 실시예는, 전술한 제6 내지 제11 실시예에서, 입력 화상과 비교 대조하기 위한 특징점군이, 촬영 대상물 중에서의 3차원적 배치 정보를 가미한 것인 것을 특징으로 하는 실시예이다.In the twelfth embodiment, the sixth to eleventh embodiments described above are characterized in that the feature point group for comparison and contrast with the input image adds three-dimensional arrangement information in the photographing object.

즉, 본 제12 실시예에서는, 촬영 대상물 중에서의 3차원적 배치 정보를 도입한다. 여기에서, 상기 3차원적 배치 정보는, 소위 오브젝트 로컬 좌표계 상에서의 각 특징점 좌표값을 말한다. 이하, 도 24 및 도 25를 참조하여, 본 제12 실시예에 따른 대상물 인식 방법을 설명한다. 여기에서, 도 24 및 도 25에서, (1) 내지 (11)을 부여하는 점은, 각각 특징점을 나타내고 있다. 이들 특징점은, 입력 화상 내에서 추출된 특징점이다. 또한, 도 24에 도시하는 바와 같이, 이들 특징점 중 특징점 (1) 내지 (5)는 좌측에 찍히는 수목을, 또한 특징점 (6) 내지 (11)은 우측에 찍히는 가옥에서의 특징점을 각각 나타내고 있다. 여기에서, 도 25는, 도 24에 도시하는 특징점만을 뽑아내서 도시한 도면이다. 또한, 이들 특징점은, 미리 해당 촬영 대상물의 특징점군으로서, 특징점군을 등록하는 데이터베이스에 등록되어 있는 것으로 한다.That is, in the twelfth embodiment, three-dimensional arrangement information in the photographing object is introduced. Here, the three-dimensional arrangement information refers to the coordinate value of each feature point on the so-called object local coordinate system. Hereinafter, an object recognition method according to the twelfth embodiment will be described with reference to FIGS. 24 and 25. Here, in FIG. 24 and FIG. 25, the point which attaches (1)-(11) has shown the characteristic point, respectively. These feature points are the feature points extracted in the input image. In addition, as shown in FIG. 24, among these characteristic points, the characteristic points (1)-(5) have shown the tree to be photographed on the left side, and the characteristic points (6) to (11) have shown the characteristic point in the house which is taken to the right, respectively. FIG. 25 is a diagram showing only the feature points shown in FIG. 24. In addition, these feature points are registered beforehand as the feature point group of the said imaging object in the database which registers a feature point group.

여기서, 수목에서의 특징점으로서는, 그 등록 시에, 특징점 (2) 내지 (5)에 관해서는, 특징점 (1)을 원점으로 하여, 각각의 3차원 배치 정보인 3차원적 위치 즉 (X2, Y2, Z2) 내지 (X5, Y5, Z5)도 등록한다. 또한, 이러한 특징점의 3차원 위 치를 검출하는 방법으로서는, 화상적으로 검출하는 방법, 또는 측정기를 이용하여 검출하는 방법 등이 있다.Here, as the feature point in the tree, at the time of registration, with respect to the feature points (2) to (5), the feature point (1) is the origin and the three-dimensional position, that is, each of the three-dimensional arrangement information, namely (X2, Y2). , Z2) to (X5, Y5, Z5) are also registered. As a method of detecting the three-dimensional position of such a feature point, there is an image detection method or a detection method using a measuring device.

본 제12 실시예에 따르면, 상기한 바와 같이 각 특징점의 3차원적 배치 정보를, 특징점의 등록 시에 동시에 등록해 둠으로써, 이하와 같은 효과를 얻을 수 있다. 즉, 매칭 등에서의 특징점의 비교 대조에 의해 소정의 인식이 이루어진 후에, 상기 3차원적 배치 정보를 이용하여 재검증을 더 행할 수 있다. 즉, 본 제12 실시예에 따르면, 매칭에서의 오인식의 저감을 실현할 수 있다.According to the twelfth embodiment, as described above, the three-dimensional arrangement information of each feature point is simultaneously registered at the time of registration of the feature point, whereby the following effects can be obtained. That is, after a predetermined recognition is performed by comparison of feature points in matching or the like, re-verification can be further performed using the three-dimensional arrangement information. That is, according to the twelfth embodiment, it is possible to realize the reduction of misperception in matching.

또한, 상기 3차원적 배치 정보를 이용하여 재검증의 검증 방법으로서는 다양한 방법이 고려된다. 예를 들면, 상기 3차원적 배치 정보에 기초하여, 소정의 특징점을 원점으로 하여 각 특징점을 2차원 평면에 투영했을 때의 각 특징점의 위치와, 통상대로 취득하여 등록한 각 특징점의 위치를 비교 대조하여 양자의 어긋남을 구함으로써, 해당 매칭에서의 인식의 정밀도를 구하게 된다.In addition, various methods can be considered as a verification method for re-validation using the three-dimensional arrangement information. For example, based on the three-dimensional arrangement information, a comparison is performed between the position of each feature point when projecting each feature point on a two-dimensional plane with a predetermined feature point as the origin and the position of each feature point acquired and registered as usual. By calculating the deviation between the two, the accuracy of the recognition in the matching is obtained.

이 방법에 따르면, 예를 들면 입력 화상 내에서 수목의 부분으로서 인식된 특징점군 중의 특징점을 순서대로 검증해 가서, 각 점을 원점으로 하여, 그 밖의 특징점의 3차원적 배치 정보에 기초하여 2차원 평면에 투영했을 때의 각 특징점 (1) 내지 (5)의 위치가, 등록한 특징점 (1) 내지 (5)에 일치하는지의 여부를 검증한다. 이를 특징점 (1)을 원점으로 할 때, 특징점 (2)를 원점으로 할 때, … 로 하도록 모든 특징점에 대하여 행한다. 그리고, 가장 일치성이 높은 경우의 검증 시의 것을 채용한다.According to this method, for example, feature points in a group of feature points recognized as part of a tree in an input image are verified in order, and each point is the origin, and two-dimensional is based on the three-dimensional arrangement information of other feature points. It is verified whether the position of each feature point (1)-(5) at the time of projecting on a plane corresponds to the registered feature point (1)-(5). When the feature point 1 is the origin, when the feature point 2 is the origin,... This is done for all the feature points. And the thing at the time of verification in the case of the highest agreement is employ | adopted.

상기의 검증 방법에 의해, 해당 화상 입력 기기(예를 들면 카메라 등)와 촬 영 대상물과의 위치 관계를 구할 수 있다. 나아가서는, 해당 화상 입력 기기의 렌즈 파라미터(시야각, 촛점거리)를 미리 구해 둠으로써, 촬영 대상물에서의 각 특징점과, 해당 화상 입력 기기와의 거리를 구하는 것도 가능하다.By the verification method described above, the positional relationship between the image input device (for example, a camera) and the object to be photographed can be obtained. Furthermore, by obtaining the lens parameters (viewing angle, focal length) of the image input device in advance, it is also possible to obtain the distance between each feature point on the object to be photographed and the image input device.

[제13 실시예][Example 13]

본 제13 실시예에서는, 전술한 제6 내지 제12 실시예에서, 입력 화상 중에 복수의 특징점군이 추출되어 있어, 해당 입력 화상과 등록 화상과의 매칭에서 양자를 비교 대조할 때에, 특징점군 개개의 인식뿐만 아니라, 특징점군끼리의 위치 관계의 정보인 배치 정보를 가미한 인식을 행하는 실시예이다.In the thirteenth embodiment, in the sixth to twelfth embodiments described above, a plurality of feature point groups are extracted from the input image, and each feature point group is individually compared and compared in matching between the input image and the registered image. In addition to the recognition, the recognition is performed by adding the arrangement information which is the information on the positional relationship between the feature point groups.

입력 화상 내에서 특징점군이 추출되고, 비교 대조용의 특징점군과의 비교에 의해 매칭이 행해진다. 본 제13 실시예에 따르면, 수목에서의 특징점군에 속하는 특징점 (1) 내지 (5)와, 가옥에서의 특징점군에 속하는 특징점 (6) 내지 (11)과의 배치 관계로부터, 도 24에 도시하는 예에서는, 화면 내에서 수목이 가옥의 좌측에 배치되어 있는 것을 인식할 수 있다.A feature point group is extracted from the input image, and matching is performed by comparison with the feature point group for comparison and comparison. According to the thirteenth embodiment, it is shown in Fig. 24 from the arrangement relationship between the feature points (1) to (5) belonging to the feature point group in the tree and the feature points (6) to (11) belonging to the feature point group in the house. In the example, it can be recognized that the tree is arranged on the left side of the house within the screen.

본 제13 실시예에 따르면, 상기한 바와 같이 특징점의 배치 관계를 인식함으로써, 이하와 같은 배치 상태를 판별할 수 있다. 예를 들면, 도 24에 도시하는 예에서는, 수목이 좌측, 가옥이 우측에 위치하고 있는 화상은, 가옥의 정면에 마주 대하고 있는 카메라 등에 의해 촬영된 화상이다. 또한, 수목과 가옥이 화면 상에서 거의 동일한 위치에 있는 화상은, 수목과 가옥이 거의 일직선 상에 배열하는 방향, 즉 가옥의 정면에 대하여 경사 방향으로 위치하고 있는 카메라 등에 의해 촬영된 화상이다.According to the thirteenth embodiment, the following arrangement states can be determined by recognizing the arrangement relationship of the feature points as described above. For example, in the example shown in FIG. 24, the image where a tree is located to the left and a house to the right is an image picked up by the camera etc. which face the front of a house. In addition, the image where a tree and a house are located in substantially the same position on a screen is an image image | photographed by the camera etc. which are located in the direction in which a tree and a house are arrange | positioned in substantially straight line, ie, the inclination direction with respect to the front of a house.

또한, 특징점군 및 특징점의 배치의 확대 상태에 기초하여, 수목과 가옥과의 전후 관계를 구하는 것도 가능하다. 또한, 이들 대상물이 가동인 경우에는, 현재 시점에서의 배치 상태를 구하는 것이 가능하다.Moreover, it is also possible to calculate the front-rear relationship between a tree and a house based on the expanded state of arrangement | positioning of a characteristic point group and a characteristic point. In addition, when these objects are in operation, it is possible to obtain the arrangement state at the present time.

미리 상기한 바와 같은 특징점군의 배치 관계를 장면에 따라서 등록하여 두면, 마찬가지의 대상물이 배열하여 위치하고 있는 케이스에서도, 그 대상물을 식별하는 것이 가능하게 된다. 구체적으로 말하면, 예를 들면 동일한 디자인의 주택이 배열되어 있는 케이스에서, 수목이 좌측, 가옥이 우측인 케이스는 A씨의 집, 그 반대로 배치되어 있는 경우에는 B씨의 집이라고 인식할 수 있다. 또한, 동일 화면 내에 3개 이상의 특징점군이 들어가도록 하고, 또한 그 특징점군의 3차원 위치 정보도 미리 각각 기록해 둠으로서, 삼각 측량의 원리에 의해, 해당 카메라와 상기 특징점군과의 상대적 위치 관계를 상세히 구하는 것이 가능하게 된다.If the arrangement relationship of the feature point group described above is registered in accordance with the scene, the object can be identified even in a case where the same object is arranged and positioned. Specifically, for example, in a case in which houses of the same design are arranged, the case in which the tree is on the left side and the house on the right side can be recognized as Mr. A's house, and vice versa. In addition, three or more feature point groups are included in the same screen, and the three-dimensional position information of the feature point groups is also recorded in advance, and according to the principle of triangulation, the relative positional relationship between the camera and the feature point group is determined. It can be obtained in detail.

[제14 실시예][Example 14]

본 제14 실시예는, 매칭 시스템의 고속화, 또는 대량의 등록 화상에 대응하는 매칭 시스템을 실현하기 위해서, 실제로 매칭을 행하는 처리부인 매칭 처리부를클러스터링하는 것을 특징으로 하는 실시예이다.The fourteenth embodiment is an embodiment in which the matching processing unit, which is the processing unit that actually performs matching, is clustered in order to speed up the matching system or to realize a matching system corresponding to a large number of registered images.

종래의 매칭 시스템에서는, 매칭에 사용하는 화상 등을 등록하는 데이터베이스를 공통으로 한 그대로, 매칭 처리부를 병렬화하는 방법, 혹은, 데이터베이스와 매칭 처리부를, 동일한 내용인 그대로 병렬화하는 방법이 일반적이다. 이러한 방법에서는, 확실히 다수의 매칭 요구를 동시에 수취했을 때의 처리를 고속화하는 효과는 예상할 수 있다. 그러나, 대량의 등록 화상에 대한 매칭 처리를 고속화할 수 없다. 또한, 대량의 등록 화상을, 병렬화한 복수의 데이터베이스로 분할하여 저장하면, 확실히 대량의 등록 화상에 대한 매칭 처리를 고속화할 수 있다. 그러나, 분할된 등록 화상군의 매칭 결과를 최종 평가할 때에, 그 매칭에 이용하는 화상이, 반드시 분할된 등록 화상군 전체를 균일하게 평가한 후에서의 상위에 오는 화상이라고는 한할 수 없다. 따라서, 신뢰성이 높은 매칭 처리라고는 말하기 어렵다.In a conventional matching system, the method of parallelizing a matching processing unit as it is, and the method of parallelizing a database and a matching processing unit as it is, are common as long as the database which registers the image etc. used for matching is common. In this way, the effect of speeding up the process when receiving a large number of matching requests at the same time can be expected. However, it is not possible to speed up the matching process for a large number of registered images. In addition, by dividing and storing a large number of registered images into a plurality of parallelized databases, it is possible to reliably speed up the matching process for a large number of registered images. However, in the final evaluation of the matching result of the divided group of registered images, the image used for the matching is not necessarily the image which comes to a higher position after uniformly evaluating the entire group of divided images. Therefore, it is hard to say that it is a highly reliable matching process.

본 제14 실시예에서는, 분할되어 병렬화한 복수의 데이터베이스(TP 데이터 정보 DB라고 칭함)에 등록되어 있는 화상군에 관해서, 유사한 화상이 1개의 TP 데이터 정보 DB에 치우쳐서 등록되는 것이 생기지 않도록, 이하와 같이 조정한다.In the fourteenth embodiment, as to the group of images registered in a plurality of divided and parallelized databases (referred to as TP data information DBs), similar images are prevented from being registered in one TP data information DB. Adjust it together.

상기 TP 데이터 정보 DB에의 화상의 등록 시에, 등록 대상인 화상의 특징량을 추출한다. 또한, 해당 특징량은, 일정한 영역의 농담 분포이어도 되고, 특징점 이어도 된다.At the time of registering the image in the TP data information DB, the feature amount of the image to be registered is extracted. In addition, the shade may be a constant area shade or the feature point may be a feature point.

다음으로, 등록 대상인 화상과, 상기의 분할하여 병렬화한 복수의 TP 데이터 정보 DB의 기등록 화상을 매칭 처리하고, 등록 대상인 화상과 기등록 화상과의 유사도를 평가한다. 또한, 상기 매칭 처리부에 관해서도, 상기 TP 데이터 정보 DB와 마찬가지로 분할하여 병렬화하여도 된다.Next, a matching process is performed between the image to be registered and the pre-registered images of the plurality of divided and parallelized TP data information DBs to evaluate the similarity between the image to be registered and the pre-registered image. The matching processing unit may also be divided and parallelized in the same manner as in the TP data information DB.

계속해서, 상기 유사도 평가를 참조하여, 등록 대상인 화상과의 유사도가 가장 낮다고 판단한 TP 데이터 정보 DB에, 상기 등록 대상인 화상을 등록한다.Subsequently, with reference to the similarity evaluation, the image to be registered is registered in the TP data information DB which has been determined to have the lowest similarity with the image to be registered.

또한, 전술한 바와 같이, 분할 완료된 기등록 화상군에 대한 추가라고 하는 형식으로 등록 대상인 화상을 등록하는 것은 아니고, 등록 대상을 포함하는 기등록 화상군 전체를 재분할하도록 하여도 물론 된다. 또한, 일단, 분할 완료된 기등록 화상군에 대한 추가라고 하는 형식으로 등록 대상인 화상을 등록하고, 그 후, 정기적으로 화상군 전체를 재분할 처리하여도 물론 된다. 또한, 상기 재분할에서는, 유사도를 기준으로 하여, 유사한 화상이 가장 분산되어 각 TP 데이터 정보 DB에 저장 하도록 하여도 된다. 또한, 예를 들면 특징점이 다차원의 벡터로 표현되는 경우에는, 상기 재분할에서는, 특징점의 다차원 벡터 공간에서의 분산을 고려하는 것이 유효로 된다.Further, as described above, the image to be registered may not be registered in the form of addition to the divided preregistered group of images, but of course, the entire group of previously registered images including the target of registration may be subdivided. In addition, the image to be registered may be registered once in the form of addition to the previously registered group of divided images, and thereafter, the whole image group may be periodically re-divided. In the re-division, similar images may be most dispersed and stored in each TP data information DB based on the similarity. For example, when a feature point is represented by a multidimensional vector, it is effective to consider the dispersion in the multidimensional vector space of the feature point in the said repartitioning.

이와 같이, 등록을 희망하는 대상 화상을 등록하는 TP 데이터 정보 DB를 적절하게 선택함으로써, 신뢰성이 높은 매칭을 실현할 수 있다.In this manner, by selecting the TP data information DB for registering the target image to be registered appropriately, highly reliable matching can be realized.

이하, 도 26을 참조하여, 본 제14 실시예에서의 매칭 처리부 및 TP 데이터 정보 DB의 시스템 구성을 설명한다.A system configuration of the matching processing unit and the TP data information DB in the fourteenth embodiment will be described below with reference to FIG.

매칭 시에는, 우선, 매칭 대상의 데이터를, 제1 매칭 처리부(500)에 송신한다. 다음으로, 제1 매칭 처리부(500)는, 병렬화된 TP 데이터 정보 DB(520A 내지 520C)에 대응하는 제2 매칭 처리부(521A 내지 521C)에, 매칭 처리를 병렬로 의뢰한다.At the time of matching, first, the data to be matched is transmitted to the first matching processing unit 500. Next, the first matching processing unit 500 requests matching processing in parallel to the second matching processing units 521A to 521C corresponding to the parallelized TP data information DBs 520A to 520C.

다음으로, 제2 매칭 처리부(521A 내지 521C)는, 각각에 대응하는 TP 데이터 정보 DB(522A 내지 522C)에 대하여, 상기 매칭 대상의 데이터와의 매칭 처리를 실행한다.Next, the second matching processing units 521A to 521C perform matching processing with the matching target data on the corresponding TP data information DBs 522A to 522C.

다음으로, 제2 매칭 처리부(521A 내지 521C)는, 상기 매칭 처리의 결과인 매칭 결과를, 상기 제1 매칭 처리부(500)에 송신한다. 여기에서, 상기 매칭 결과는, 유사도 정보를 포함한다. 또한, 상기 매칭 결과는, 최상위의 매칭 결과만이어도 되고, 미리 결정된 일정수의 상위의 매칭 결과이어도 되고, 일정율 이상의 유사도로 된 매칭 결과이어도 된다. 여기에서, 상기 미리 결정된 일정수는, 시스템에 정적으로 설정된 수에 한하지 않는다. 예를 들면, 제1 매칭 처리부(500)가 접수하는 매칭 대상의 데이터수를, 병렬화한 TP 데이터 정보 DB의 수로 나눈 것으로 하여도 물론 된다. 이 경우, 상기 TP 데이터 정보 DB의 병렬화의 수를 변경한 경우에, 상기 미리 결정된 일정수는, 동적으로 변경되게 된다.Next, the second matching processing units 521A to 521C transmit the matching result that is the result of the matching process to the first matching processing unit 500. Here, the matching result includes similarity information. The matching result may be only the highest matching result, a predetermined predetermined number of higher matching results, or a matching result having a similarity or higher than a predetermined rate. Here, the predetermined constant number is not limited to the number statically set in the system. For example, the number of data to be matched by the first matching processing unit 500 may be divided by the number of parallelized TP data information DBs. In this case, when the number of parallelizations of the TP data information DB is changed, the predetermined constant number is changed dynamically.

그런데, 제2 매칭 처리부(521A 내지 521C)는, 상기 매칭 처리의 결과인 매칭 결과를, 상기 제1 매칭 처리부(500)에 송신한 후, 제1 매칭 처리부(500)에서는, 제2 매칭 처리부(521A 내지 521C)로부터 수신한 매칭 결과를 유사도순으로 순서 부여하고, 최종 결과를 작성한다. 또한, 제1 매칭 처리부(500)는, 제2 매칭 처리부(521A 내지 521C)로부터 수신한 매칭 결과에 대하여, 다시 매칭 처리를 행하여도 물론 된다. 그리고, 이 경우, 제2 매칭 처리부(521A 내지 521C)에서 행하는 매칭 처리보다도, 보다 상세한 특징량을 사용하는 것은, 신뢰성을 향상시키는 데에 있어서 유효하다.However, after the second matching processing units 521A to 521C transmit the matching result that is the result of the matching process to the first matching processing unit 500, the first matching processing unit 500 performs a second matching processing unit ( Matching results received from 521A to 521C are ordered in the order of similarity, and final results are created. In addition, the first matching processing unit 500 may of course perform matching processing again on the matching result received from the second matching processing units 521A to 521C. In this case, using a more detailed feature amount than the matching processing performed by the second matching processing units 521A to 521C is effective in improving reliability.

예를 들면, 제2 매칭 처리부(521A 내지 521C)에서는, 영역의 분할수가 적은 농담 데이터나, 계조가 적은 농담 데이터를 매칭 처리에 이용하여, 제1 매칭 처리부(500)에서는, 영역의 분할수가 많은 농담 데이터나, 계조가 많은 농담 데이터를 매칭 처리에 이용한다. 또한, 제2 매칭 처리부(521A 내지 521C)에서는, TP 데이터 정보 DB(522A 내지 522C)가 유지하는 일부의 특징점을 이용하여, 제1 매칭 처리부(500)에서는, 모든 특징점을 이용하는 것으로 하여도 된다. 이 경우, 상기 일부 의 특징점의 선정 방법으로서는, 특징점의 신뢰성 및/또는 유효도에 기초하여, 상위의 일정수, 혹은 일정 이상의 횟수의 것을 선택해도 되며, 랜덤하게 픽업하여도 물론 된다. 또한, 제1 매칭 처리부(500)에 의한 매칭 결과로서는, 가장 유사하다고 판단한 1개를 매칭 결과로 하여도 되고, 임의의 기준 이상의 복수를 매칭 결과로 하여도 된다. 여기에서, 상기 임의의 기준이란, 예를 들면 결과의 수이어도 되고, 유사도의 임계값이어도 된다.For example, in the second matching processing units 521A to 521C, the tone matching data having a small number of divisions of the area and the tone data having low gradation are used for the matching process, and the first matching processing unit 500 has a large number of divisions of the area. The tone data and the tone data with many gradations are used for the matching process. The second matching processing units 521A to 521C may use all the feature points in the first matching processing unit 500 by using some feature points held by the TP data information DBs 522A to 522C. In this case, the method for selecting some of the feature points may be selected based on the reliability and / or the validity of the feature points, or may be a certain number of times or more than a certain number of times. In addition, as a matching result by the 1st matching process part 500, the one determined as the most similar may be used as a matching result, and a plurality or more of arbitrary criteria may be used as a matching result. Here, the arbitrary criteria may be the number of results, for example, or may be a threshold of similarity.

또한, TP 데이터 정보 DB(522A 내지 522C)로서, TP 데이터 정보 DB가 분할되어 병렬화되어 있는 구성에서, 반드시 서버 케이스 그 자체가 병렬화되어 있을 필요는 없는 것은 물론이다.In addition, in the configuration in which the TP data information DBs are divided and parallelized as the TP data information DBs 522A to 522C, the server cases themselves do not necessarily need to be parallelized.

상기한 바와 같은 매칭 처리를 행함으로써, 본 제14 실시예에서의 분할되어 병렬화된 TP 데이터 정보 DB를 유효하게 이용할 수 있다.By performing the matching process as described above, the divided and parallelized TP data information DB in the fourteenth embodiment can be effectively used.

[제15 실시예][Example 15]

또한, 예를 들면 이하와 같은 실시예도 고려된다. 본 제15 실시예에서는, 정보 제시 단말기로서 카메라 부착 휴대 전화기를 상정한다. 그리고, 상기 카메라 부착 휴대 전화에서, 화상에서의 예를 들면 특징량의 추출 등의 특징량 처리의 일부를 행한다. 이를 실현하기 위해서, 미리 화상의 특징량 처리에 관한 어플리케이션 소프트웨어를, 상기 카메라 부착 휴대 전화기에 인스톨한다. 이하, 이러한 본 제15 실시예에 따른 카메라 부착 휴대 전화기를 이용한 화상의 매칭 처리의 흐름을, 도 27에 도시하는 플로우차트를 참조하여 설명한다.Further, for example, the following embodiments are also considered. In the fifteenth embodiment, a mobile telephone with a camera is assumed as the information presentation terminal. In the mobile phone with a camera, a part of feature amount processing such as extraction of a feature amount from an image is performed. To realize this, application software relating to the feature amount processing of the image is installed in advance in the mobile phone with camera. Hereinafter, the flow of image matching processing using the mobile phone with camera according to the fifteenth embodiment will be described with reference to the flowchart shown in FIG. 27.

우선, 유저가, 카메라 부착 휴대 전화기에서 상기 어플리케이션 소프트웨어 를 기동시키고, 카메라 기능을 이용하여 예를 들면 지면 상의 소정의 화상 또는 의장을 촬영한다(스텝 S51). 계속해서, 상기 카메라 부착 휴대 전화에서의 상기 어플리케이션에 의해, 일부의 특징량 처리(본 실시예에서는 화상으로부터의 특징량의 추출)가 실행된다(스텝 S52). 그리고, 상기 스텝 S52에서의 특징량 처리 결과(본 실시예에서는 화상으로부터 추출한 특징량;이하 마찬가지임)를, 서버에 보낸다.First, the user starts the application software on a mobile phone with a camera, and photographs, for example, a predetermined image or a design on the ground using a camera function (step S51). Subsequently, some feature amount processing (in this embodiment, extraction of the feature amount from the image) is executed by the application in the camera-equipped cellular phone (step S52). The feature amount processing result (the feature amount extracted from the image in the present embodiment; the same applies hereinafter) is sent to the server in step S52.

상기 특징량 처리 결과를 받은 서버에서의 매칭 처리부(도시하지 않음)는, 상기 특징량 처리 결과에 기초하여, 비교하기 위한 화상(비교 화상)의 특징량이 등록되어 있는 사전적 화상 데이터베이스(50)에 조회하여, 화상의 매칭 처리를 행한다(스텝 S53). 그리고, 상기 매칭 처리 결과를, 상기 카메라 부착 휴대 전화에 보낸다. 또한, 서버측에서는, 상기 사전적 화상 데이터베이스(50) 이외에, 다단계로 구성되고 또한 서로 병렬로 구성된 복수의 데이터베이스로 이루어지는 다단 및 병렬 데이터베이스(60)가 설치되어 있다. 따라서, 상기 매칭 처리에 요하는 비교 화상이 상기 사전적 화상 데이터베이스(50)에 저장되어 있지 않은 경우에는, 상기 매칭 처리부(도시하지 않음)는, 상기 다단 및 병렬 데이터베이스(60)를 검색한다.The matching processing unit (not shown) in the server that has received the feature amount processing result is stored in the dictionary image database 50 in which the feature amounts of the images (comparative images) to be compared are registered based on the feature amount processing results. Inquiry is made to match the image (step S53). Then, the matching processing result is sent to the mobile phone with camera. On the server side, in addition to the dictionary image database 50, there are provided a multi-stage and parallel database 60 composed of a plurality of databases composed of multiple stages and arranged in parallel with each other. Therefore, when the comparison image required for the matching process is not stored in the dictionary image database 50, the matching processing unit (not shown) searches the multi-stage and parallel database 60.

그리고, 상기 스텝 S53에서의 매칭 처리의 결과를 취득한 상기 카메라 부착 휴대 전화기에서, 상기 매칭 처리 결과에 대하여 미리 설정되어 있었던 동작 명령을 실행한다(스텝 S54). 여기에서, 예를 들면 상기 동작 명령이 휴대 전화용 WEB 사이트의 URL 표시이면, 상기 매칭 처리부(도시하지 않음)는, 상기 카메라 부착 휴대 전화기의 WEB 사이트 열람 어플리케이션에 상기 URL을 보내고, 상기 카메라 부착 휴대 전화기는, 상기 URL에 대응하는 WEB 사이트의 표시를 실행한다(스텝 S54).Then, in the mobile phone with camera that has obtained the result of the matching processing in step S53, the operation instruction set in advance with respect to the matching processing result is executed (step S54). Here, for example, if the operation command is a URL display of a web site for a mobile phone, the matching processing unit (not shown) sends the URL to a web site browsing application of the mobile phone with a camera, and carries the camera with the camera. The phone executes display of the WEB site corresponding to the URL (step S54).

또한, 본 제15 실시예에서는, 화상에서의 특징량의 추출은 카메라 부착 휴대 전화에서 실행하였지만, 사용하는 카메라 부착 휴대 전화의 연산 능력에 의해서는, 서버가 화상에서의 특징량의 추출을 행하여도 물론 된다.In addition, in the fifteenth embodiment, the feature amount extraction from the image is performed by the camera-equipped cellular phone. However, the server extracts the feature amount from the image by the computing capability of the camera-equipped mobile phone. Of course it is.

또한, 상기 카메라 부착 휴대 전화에서 촬영하는 대상으로서의 화상을, 예를 들면 도 28 및 도 29에 도시하는 바와 같이, 그 화상이 마커 화상인 것을 유저에게 명시하기 위해서, 각인(특정한 의장의 근방에 배치하는 특정한 심벌 마크 등)을 해당 화상의 근방에 배치하여도 된다. 여기에서, 도 28은, 마커 화상(70)의 근방에, 마커 화상을 지시하는 화살표로 이루어지는 각인(72)을 하나 배치한 예를 나타내고 있다. 또한, 도 29는, 마커 화상(70)의 근방에, 해당 마커 화상(70)을 사이에 두도록, 각인(74)을 2개 배치한 예를 나타내고 있다.In addition, in order to indicate to the user that the image as an object to be photographed by the mobile phone with the camera is, for example, a marker image, it is carved (arranged near a specific chairman). May be arranged in the vicinity of the image. Here, FIG. 28 has shown the example which arrange | positioned one marking 72 which consists of an arrow which points to a marker image in the vicinity of the marker image 70. As shown in FIG. In addition, FIG. 29 has shown the example which arrange | positioned two marking 74 in the vicinity of the marker image 70 so that the said marker image 70 may be interposed.

Claims (20)

화상을 얻는 촬상부(11)와,An imaging unit 11 for obtaining an image, 주변 정보를 취득하는 주변 정보 취득부(14)와,A peripheral information acquisition unit 14 for acquiring peripheral information, 등록 정보를 기억해 두는 기억부(15)와,A storage unit 15 that stores registration information, 상기 주변 정보 취득부(14)에서 취득한 주변 정보에 기초하여, 상기 기억부(15)에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부(16)와,An analysis basic information building unit 16 for constructing analysis basic information from the registered information stored in the storage unit 15 based on the peripheral information acquired by the peripheral information acquisition unit 14; 상기 촬상부(11)로부터 얻어지는 화상과 상기 해석 기초 정보 구축부(16)로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부(12)와,A related information acquisition unit 12 for acquiring information related to the image from an image obtained from the imaging unit 11 and analysis basic information obtained from the analysis basic information construction unit 16; 상기 관련 정보 취득부(12)에서 취득한 관련 정보를 제시하는 제시부(13)Presenting unit 13 for presenting the relevant information acquired by the related information acquisition unit 12. 를 구비하고,And 상기 해석 기초 정보 구축부(16)는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 하는 정보 제시 시스템.The analysis basic information construction unit 16 is based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. An information presentation system characterized by changing the analysis basic information. 제1항에 있어서,The method of claim 1, 상기 촬상부(11), 상기 관련 정보 취득부(12), 및 상기 제시부(13)는, 정보 제시 단말기(10A)에 구성되고,The imaging unit 11, the related information acquisition unit 12, and the presentation unit 13 are configured in an information presentation terminal 10A, 상기 주변 정보 취득부(14), 상기 기억부(15), 및 상기 해석 기초 정보 구축부(16)는, 서버(10B)에 구성되고,The peripheral information acquisition unit 14, the storage unit 15, and the analysis basic information construction unit 16 are configured in the server 10B, 상기 정보 제시 단말기(10A)는, 통신 회선(20)에 의해 상기 서버(10B)와 접속되어 있는 것을 특징으로 하는 정보 제시 시스템.The information presentation terminal (10A) is connected to the server (10B) by a communication line (20). 제2항에 있어서,The method of claim 2, 상기 정보 제시 단말기(10A)의 관련 정보 취득부(12)는, 복수의 서버(10B)로부터 해석 기초 정보를 취득하는 것을 특징으로 하는 정보 제시 시스템.The information presentation system (12) of the information presentation terminal (10A) obtains analysis basic information from a plurality of servers (10B). 제2항에 있어서,The method of claim 2, 상기 서버(10B)의 해석 기초 정보 구축부(16)는, 그 서버 이외 중 적어도 하나의 서버(10B)로부터 정보를 취득하고, 그 정보를 조합한 후에, 상기 정보 제시 단말기(10A)에 송신하는 해석 기초 정보를 더 구축하는 것을 특징으로 하는 정보 제시 시스템.The analysis basic information construction unit 16 of the server 10B acquires information from at least one server 10B other than the server, combines the information, and then transmits the information to the information presentation terminal 10A. An information presentation system characterized by further constructing analysis basic information. 제1항에 있어서,The method of claim 1, 상기 촬상부(11), 상기 관련 정보 취득부(12), 상기 주변 정보 취득부(14), 상기 해석 기초 정보 구축부(16), 및 상기 제시부(13)는, 정보 제시 단말기(10A)에 구성되고,The imaging unit 11, the related information acquisition unit 12, the peripheral information acquisition unit 14, the analysis basic information construction unit 16, and the presentation unit 13 are connected to an information presentation terminal 10A. Composed, 상기 기억부(15)는, 서버(10B)에 구성되고,The storage unit 15 is configured in the server 10B, 상기 정보 제시 단말기(10A)는, 통신 회선(20)에 의해 상기 서버(10B)와 접속되어 있는 것을 특징으로 하는 정보 제시 시스템.The information presentation terminal (10A) is connected to the server (10B) by a communication line (20). 제1항에 있어서,The method of claim 1, 상기 촬상부(11) 및 상기 제시부(13)는, 정보 제시 단말기(10A)에 구성되고,The imaging section 11 and the presentation section 13 are configured in an information presentation terminal 10A, 상기 관련 정보 취득부(12), 상기 주변 정보 취득부(14), 상기 해석 기초 정보 구축부(16), 및 상기 기억부(15)는, 서버에 구성되고,The related information acquisition unit 12, the peripheral information acquisition unit 14, the analysis basic information construction unit 16, and the storage unit 15 are configured in a server, 상기 정보 제시 단말기(10A)는, 통신 회선(20)에 의해 상기 서버(10B)와 접속되어 있는 것을 특징으로 하는 정보 제시 시스템.The information presentation terminal (10A) is connected to the server (10B) by a communication line (20). 제1항에 있어서,The method of claim 1, 상기 촬상부(11), 상기 관련 정보 취득부(12), 및 상기 제시부(13)는, 정보 제시 단말기(10A)에 구성되고,The imaging unit 11, the related information acquisition unit 12, and the presentation unit 13 are configured in an information presentation terminal 10A, 상기 주변 정보 취득부(14), 상기 해석 기초 정보 구축부(16), 및 상기 기억부(15)는, 서버(10B)에 구성되고,The peripheral information acquisition unit 14, the analysis basic information construction unit 16, and the storage unit 15 are configured in the server 10B, 상기 정보 제시 단말기(10A)는, 통신 회선(20)에 의해 상기 서버(10B)와 접속되어 있고,The information presentation terminal 10A is connected to the server 10B by a communication line 20, 상기 서버(10B)는, 상기 관련 정보 취득부(12)와 동등한 기능을 갖는 제2 관련 정보 취득부(17)를 더 갖고,The server 10B further has a second related information acquiring section 17 having the same function as the related information acquiring section 12, 상기 제2 관련 정보 취득부(17)는, 상기 관련 정보 취득부(12)가 취득한 해석 기초 정보보다도 많은 해석 기초 정보로부터 관련 정보를 취득하고, 상기 관련 정보 취득부(12)에서 관련 정보를 취득할 수 없었던 경우에도, 그 제2 관련 정보 취득부(17)의 결과를 상기 제시부(13)가 제시하는 것을 특징으로 하는 정보 제시 시스템.The second related information acquiring unit 17 acquires the related information from more analysis basic information than the analysis basic information acquired by the related information acquiring unit 12, and acquires the related information from the related information acquiring unit 12. The presenting unit (13) presents the result of the second related information acquiring unit (17) even if it cannot. 제1항에 있어서,The method of claim 1, 상기 해석 기초 정보는, 화상 처리 필터, 템플릿 사이즈, 템플릿 계조, 2치화 임계값, 매칭 임계값 중 적어도 하나를 포함하는 것을 특징으로 하는 정보 제시 시스템.And the analysis basic information includes at least one of an image processing filter, a template size, a template gradation, a binarization threshold, and a matching threshold. 제1항에 있어서,The method of claim 1, 상기 해석 기초 정보 구축부(16)는, 해석 기초 정보라고 하는 등록 정보 상호의 유사도에 기초하여, 해석 기초 정보에 포함하는 화상 처리 파라미터를 설정하는 것을 특징으로 하는 정보 제시 시스템.The analysis basic information construction unit (16) sets an image processing parameter included in the analysis basic information based on the similarity between registration information called analysis basic information. 화상을 얻는 촬상부(11)와,An imaging unit 11 for obtaining an image, 상기 촬상부(11)에 관련되는 주변 정보를 취득하는 주변 정보 취득부(14)와,A peripheral information acquisition unit 14 for acquiring peripheral information related to the imaging unit 11; 통신 회선(20)을 통하여 서버로부터 다운로드한 등록 정보로부터, 상기 주변 정보 취득부(14)에서 취득한 주변 정보에 기초하여 해석 기초 정보를 구축하는 해 석 기초 정보 구축부(16)와,An analysis basic information constructing unit 16 for constructing analysis basic information based on the surrounding information acquired by the peripheral information obtaining unit 14 from the registered information downloaded from the server via the communication line 20; 상기 촬상부(11)로부터 얻어지는 화상과 상기 해석 기초 정보 구축부(16)로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부(12)와,A related information acquisition unit 12 for acquiring information related to the image from an image obtained from the imaging unit 11 and analysis basic information obtained from the analysis basic information construction unit 16; 상기 관련 정보 취득부(12)에서 취득한 관련 정보를 제시하는 제시부(13)Presenting unit 13 for presenting the relevant information acquired by the related information acquisition unit 12. 를 구비하고,And 상기 해석 기초 정보 구축부(16)는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 하는 정보 제시 단말기.The analysis basic information construction unit 16 is based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. An information presentation terminal characterized by changing the analysis basic information. 정보 제시 단말기(10A)로부터 통신 회선(20)을 통하여 송신되어 오는 촬상부(11)로부터 얻어지는 화상 및/또는 상기 촬상부(11)에 관련되는 주변 정보를 취득하는 주변 정보 취득부(14)와,Peripheral information acquisition unit 14 for acquiring images obtained from imaging unit 11 transmitted from information presentation terminal 10A via communication line 20 and / or peripheral information related to imaging unit 11; , 등록 정보를 기억해 두는 기억부(15)와,A storage unit 15 that stores registration information, 상기 주변 정보 취득부(14)에서 취득한 주변 정보에 기초하여, 상기 기억부(15)에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부(16)An analysis basic information building unit 16 for constructing analysis basic information from the registered information stored in the storage unit 15 on the basis of the peripheral information acquired by the peripheral information acquisition unit 14; 를 구비하고,And 상기 해석 기초 정보 구축부(16)는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키고,The analysis basic information construction unit 16 is based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. Change the interpretation basic information, 상기 해석 기초 정보 구축부(16)에서 구축한 상기 해석 기초 정보를 상기 정보 제시 단말기(10A)에 다운로드시킴으로써, 상기 정보 제시 단말기(10A)에, 그 해석 기초 정보와 상기 촬상부(11)로부터 얻어지는 화상으로부터 상기 화상에 관련되는 정보를 취득시켜서, 제시시키는 것을 특징으로 하는 서버.By downloading the analysis basic information constructed by the analysis basic information construction unit 16 to the information presentation terminal 10A, the analysis basic information obtained from the analysis basic information and the imaging unit 11 is obtained in the information presentation terminal 10A. A server characterized by obtaining information related to the image from an image and presenting it. 제11항에 있어서,The method of claim 11, 상기 관련 정보 취득부(12)와 동등한 기능을 갖는 제2 관련 정보 취득부(17)를 더 구비하고,A second related information acquiring section 17 having a function equivalent to that of the related information acquiring section 12, 상기 제2 관련 정보 취득부(17)는, 상기 관련 정보 취득부(12)가 취득한 해석 기초 정보보다도 많은 해석 기초 정보로부터 관련 정보를 취득하고, 상기 관련 정보 취득부(12)에서 관련 정보를 취득할 수 없었던 경우에도, 그 제2 관련 정보 취득부(17)의 결과를 상기 정보 제시 단말기(10A)가 제시하는 것을 특징으로 하는 서버.The second related information acquiring unit 17 acquires the related information from more analysis basic information than the analysis basic information acquired by the related information acquiring unit 12, and acquires the related information from the related information acquiring unit 12. The information presentation terminal (10A) presents the result of the second related information acquisition unit (17) even if it cannot. 데이터베이스에 미리 복수의 대상물의 특징점을 기록하는 스텝(스텝 S12)과, 등록을 희망하는 입력 화상으로부터 특징점을 추출하는 스텝(스텝 S52)과, 상기 추출한 특징점을 미리 데이터베이스에 기록되어 있는 복수의 대상물의 특징점과 비교 대조하는 스텝(스텝 S10;스텝 S23)과, 상기 비교 대조하는 스텝(스텝 S10;스텝 S23)의 비교 대조 결과를 참조하여, 상기 입력 화상에서의 특징점과 상기 데이터베이스에 기록되어 있는 상기 대상물의 특징점을 동정함으로써 대상물의 인식을 행하는 스텝(스텝 S24; 스텝 S53)과, 상기 인식을 행하는 스텝(스텝 S24;스텝 S53)에서의 동정 결과를 유저에게 표시하는 스텝(스텝 S30)을 구비하는 대상물 인식 방법으로서,Step (step S12) of recording the feature points of the plurality of objects in the database in advance, step (step S52) of extracting the feature points from the input image desired to be registered, and the extracted feature points of the plurality of objects previously recorded in the database. The feature point in the input image and the object recorded in the database with reference to the comparison and contrast result of the step of comparing and comparing the feature point (Step S10; Step S23) and the comparison and matching step (Step S10; Step S23). An object having a step (step S24; step S53) for recognizing an object by identifying a feature point of the object, and a step (step S30) for displaying the identification result at the step (step S24; step S53) for performing the recognition. As a recognition method, 상기 데이터베이스에 미리 복수의 대상물의 특징점을 기록하는 스텝(스텝 S121)에서는, 대상물을 복수의 요소 대상물로 분할하여 각각의 요소 대상물에서의 특징점을 상기 데이터베이스에 등록하고, 또한 상기 인식을 행하는 스텝(스텝 S24;스텝 S53)에서는, 소정의 요소 대상물이 인식되지 않는 경우에는 대상물의 동정을 행하지 않는 것을 특징으로 하는 대상물 인식 방법.In the step (step S121) of recording the feature points of the plurality of objects in advance in the database, the object is divided into a plurality of element objects, and the feature points of each element object are registered in the database and the recognition is performed (step S121). S24; in step S53, when the predetermined element object is not recognized, the object is not identified. 제13항에 있어서,The method of claim 13, 상기 인식을 행하는 스텝(스텝 S24;스텝 S53)에서, 인식한 복수의 요소 대상물의 조합이 소정의 조합이었던 경우에는, 대상물의 동정을 행하지 않는 것을 특징으로 하는 대상물 인식 방법.In the step of performing the recognition (step S24; step S53), if the recognized combination of the plurality of element objects is a predetermined combination, the object recognition method is not performed. 제13항에 있어서,The method of claim 13, 상기 인식을 행하는 스텝(스텝 S24;스텝 S53)에서, 소정의 조합은 충족하지 않지만, 적어도 하나 이상의 상기 요소 대상물을 인식한 경우, 상기 표시하는 스텝(스텝 S30)에서, 동정 결과를, 불확정 요소를 포함하는 표현으로 유저에게 표시 하는 것을 특징으로 하는 대상물 인식 방법.In the step of performing the recognition (step S24; step S53), the predetermined combination is not satisfied, but when at least one or more of the element objects are recognized, the display result (step S30) identifies the identification result as an indeterminate element. The object recognition method characterized by displaying to a user in the expression included. 제13항에 있어서,The method of claim 13, 상기 데이터베이스에 미리 복수의 대상물의 특징점을 기록하는 스텝(스텝 S12)에서는, 상기 대상물의 화상 자체도 상기 데이터베이스에 기록하는 것을 특징으로 하는 대상물 인식 방법.In the step (step S12) of recording the feature points of the plurality of objects in advance in the database, the image itself of the object is also recorded in the database. 제13항에 있어서,The method of claim 13, 상기 데이터베이스에 미리 복수의 대상물의 특징점을 기록하는 스텝(스텝 S121)에서는, 상기 특징점과 함께, 상기 특징점과 대응하는 화상이 기록되어 있는 장소를 나타내는 로케이션 정보를, 상기 데이터베이스에 기록하는 것을 특징으로 하는 대상물 인식 방법.In step (Step S121) of recording the feature points of the plurality of objects in advance in the database, location information indicating a location where the image corresponding to the feature point is recorded is recorded in the database together with the feature points. Object recognition method. 제13항에 있어서,The method of claim 13, 상기 특징점을 추출하는 스텝(스텝 S52)에서는, 상기 특징점을, 대상물의 2차원 화상으로부터 추출하는 것을 특징으로 하는 대상물 인식 방법.In the step of extracting the feature point (step S52), the feature point is extracted from the two-dimensional image of the object. 제13항에 있어서,The method of claim 13, 상기 특징점을 추출하는 스텝(스텝 S52)에서는, 상기 특징점을, 대상물의 3차원적인 위치 관계를 나타내는 3차원적 배치 정보에 기초하여 산출하는 것을 특징 으로 하는 대상물 인식 방법.In the step of extracting the feature point (step S52), the feature point is calculated based on three-dimensional arrangement information indicating a three-dimensional positional relationship of the object. 제13항에 있어서,The method of claim 13, 상기 특징점을 추출하는 스텝(스텝 S52)에서 복수의 특징점으로부터 이루어지는 특징점군을 추출한 경우, 상기 비교 대조하는 스텝(스텝 S10;스텝 S23)에서는, 각각의 특징점군의 인식뿐만 아니라, 특징점군끼리의 위치 관계인 특징점 배치 정보를 고려한 상기 비교 대조를 행하는 것을 특징으로 하는 대상물 인식 방법.When a feature point group consisting of a plurality of feature points is extracted in the step of extracting the feature points (step S52), in the step of comparing and comparing (step S10; step S23), not only the recognition of each feature point group but also the position of the feature point groups And performing the above comparison in consideration of feature point arrangement information which is relation.
KR20087006704A 2008-03-19 2006-03-31 Information presenting system, information presenting terminal, and server KR20080036231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20087006704A KR20080036231A (en) 2008-03-19 2006-03-31 Information presenting system, information presenting terminal, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20087006704A KR20080036231A (en) 2008-03-19 2006-03-31 Information presenting system, information presenting terminal, and server

Publications (1)

Publication Number Publication Date
KR20080036231A true KR20080036231A (en) 2008-04-25

Family

ID=39574689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20087006704A KR20080036231A (en) 2008-03-19 2006-03-31 Information presenting system, information presenting terminal, and server

Country Status (1)

Country Link
KR (1) KR20080036231A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022054663A (en) * 2020-09-28 2022-04-07 楽天グループ株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022054663A (en) * 2020-09-28 2022-04-07 楽天グループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US7992181B2 (en) Information presentation system, information presentation terminal and server
US20200175054A1 (en) System and method for determining a location on multimedia content
JP5621897B2 (en) Processing method, computer program, and processing apparatus
JP5673765B2 (en) SEARCH SYSTEM, SEARCH METHOD, AND COMPUTER PROGRAM
US20100309226A1 (en) Method and system for image-based information retrieval
US20130051615A1 (en) Apparatus and method for providing applications along with augmented reality data
KR101729938B1 (en) Integrative image searching system and service method of the same
WO2016033495A2 (en) Methods and arrangements including data migration among computing platforms, e.g., through use of steganographic screen encoding
US20080270378A1 (en) Method, Apparatus and Computer Program Product for Determining Relevance and/or Ambiguity in a Search System
US20180268453A1 (en) Composite image generation
KR101042910B1 (en) Method, system and computer-readable recording medium for providing service using electronic map
CN110692081B (en) System, portable terminal device, server, program, and method for viewing confirmation
US20100142758A1 (en) Method for Providing Photographed Image-Related Information to User, and Mobile System Therefor
CN111699478A (en) Image retrieval device, image retrieval method, electronic apparatus, and control method thereof
CN108230220B (en) Watermark adding method and device
JPWO2019082381A1 (en) Image extraction apparatus, image extraction method, and image extraction program
CN111797266A (en) Image processing method and apparatus, storage medium, and electronic device
JP2007086546A (en) Advertisement printing device, advertisement printing method, and advertisement printing program
KR20080036231A (en) Information presenting system, information presenting terminal, and server
KR20210094396A (en) Application for searching service based on image and searching server therefor
KR20140068302A (en) System and Method for servicing contents using recognition of natural scene text
JP2014063300A (en) Character recognition device, character recognition processing method, and program
KR101920465B1 (en) System and method for object identification in outdoor environment
CN117435761A (en) Terminal device and method
CN113742620A (en) Method and device for accessing website by image recognition, electronic equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration
NORF Unpaid initial registration fee