KR20080036231A - Information presenting system, information presenting terminal, and server - Google Patents
Information presenting system, information presenting terminal, and server Download PDFInfo
- Publication number
- KR20080036231A KR20080036231A KR20087006704A KR20087006704A KR20080036231A KR 20080036231 A KR20080036231 A KR 20080036231A KR 20087006704 A KR20087006704 A KR 20087006704A KR 20087006704 A KR20087006704 A KR 20087006704A KR 20080036231 A KR20080036231 A KR 20080036231A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- unit
- analysis basic
- basic information
- Prior art date
Links
Images
Abstract
Description
본 발명은, 촬상부로부터 얻어지는 화상에 관련되는 정보를 제시하는 정보 제시 시스템, 정보 제시 단말기 및 서버에 관한 것이다.The present invention relates to an information presentation system, an information presentation terminal, and a server for presenting information related to an image obtained from an imaging unit.
일본 특개 2003-15980호 공보에는, 촬영한 로고의 화상을 이용하여 서버가 대응하는 URL을 찾아내는 기술이 개시되어 있다. 즉, 이 기술에서는, 우선 휴대 기기에서, 잡지 등에 인쇄된 광고 중에 포함되는 로고 마크를 촬영한다. 다음으로, 이 촬영에 의해 취득한 로고 마크를, 인터넷을 통하여 검색 서버에 보낸다. 검색 서버는, 인터넷을 통하여 보내져 온 상기 로고 마크에 가장 가까운 로고 마크를 검색한다. 그리고, 상기 검색 서버는, 그 검색한 로고 마크에 대응하는 URL을 인터넷 경유로 상기 휴대 기기에 보낸다. 상기 휴대 기기에서는, 상기 URL에 액세스하여 홈 페이지를 열람할 수 있다.Japanese Patent Laid-Open No. 2003-15980 discloses a technique in which a server finds a corresponding URL by using an image of a photographed logo. That is, in this technique, first, a logo mark included in an advertisement printed on a magazine or the like is photographed on a portable device. Next, the logo mark acquired by this photography is sent to a search server via the Internet. The search server searches for the logo mark closest to the logo mark sent over the Internet. The search server then sends the URL corresponding to the searched logo mark to the portable device via the Internet. The portable device can access the URL and browse the home page.
또한, 일본 특개 2004-179783호 공보에는, 이용자가 ID 종별을 의식하지 않고 휴대용 클라이언트 장치로 ID를 판독하는 기술이 개시되어 있다. 즉, 이 기술에서는, 우선 휴대용 클라이언트 장치가, 카메라나 스캐너로 화상을 취득한다. 다음으로, 휴대용 클라이언트 장치는, 상기 화상이 1차원 바코드, 2차원 바코드, 전 자 워터마크가 들어간 화상, 통상 화상이어도, 상기 화상으로부터 ID를 취출한다. 그리고, 상기 휴대용 클라이언트 장치는, 상기 ID를 무선으로 외부에 있는 ID 정보 데이터베이스에 송신한다. 휴대용 클라이언트 장치는, 상기 ID 정보 데이터베이스로부터 정보를 무선으로 수취한다.Also, Japanese Patent Laid-Open No. 2004-179783 discloses a technique in which a user reads an ID with a portable client device without being aware of the ID type. That is, in this technique, the portable client device first acquires an image with a camera or a scanner. Next, the portable client device extracts the ID from the image even if the image is a one-dimensional barcode, a two-dimensional barcode, or an image containing an electronic watermark. The portable client device then wirelessly transmits the ID to an external ID information database. The portable client device wirelessly receives information from the ID information database.
여기에서, 상기 일본 특개 2003-15980호 공보에 개시된 기술에서는, 로고와 URL이 고정적으로 관련지어져 있다. 그러나, 주위의 상황, 이용하는 기기의 조건등에 상관없이, 공통의 콘텐츠나 공통의 각종 파라미터를 이용하는 것으로는 편리성이 낮아지게 된다. 예를 들면, 전기 장식에 의해, 동일한 간판이어도, 낮과 밤에서는 보이는 방법이 바뀐다. 또한, 낮과 밤에 연락처가 바뀌는 것 등도 있다. 이와 같이, 유저가 로고를 촬영한 환경에 따라 실제로 유저가 요구하고 있는 정보는 서로 다르다. 따라서, 상기 일본 특개 2003-15980호 공보에 개시된 기술에서는, 유저의 요구에 유연하게 대응하는 것은 곤란하다.Here, in the technique disclosed in Japanese Patent Laid-Open No. 2003-15980, a logo and a URL are fixedly associated with each other. However, regardless of the surrounding situation, the conditions of the device to be used, etc., the use of the common content or the common various parameters will lower convenience. For example, by the electric decoration, even if it is the same sign, the way of seeing in day and night changes. There are also changes in contacts during the day and night. In this manner, the information actually requested by the user differs depending on the environment in which the user photographs the logo. Therefore, in the technique disclosed in Japanese Patent Laid-Open No. 2003-15980, it is difficult to flexibly respond to a user's request.
또한, 상기 일본 특개 2004-179783호 공보에 개시된 기술에서는, ID를 판독하는 데에 있어서 필요로 되는 각종 화상 처리 파라미터는 장치에 고정적으로 유지되어 있는 것이 암묵의 양해로 되어 있다. 그러나, 동일 어플리케이션으로 복수의 기종, 복수의 데이터 세트를 서포트하는 경우, 인식을 위한 조건이 고정되면, 대응할 수 있는 환경이 한정되게 된다. 즉, 실제의 이용 상황에서는, 주변의 밝기나 단말기마다의 광학 성능의 차이에 따라, 파라미터를 조정하지 않으면, 안정적으로 화상 처리를 행하는 것은 곤란하다.In addition, in the technique disclosed in Japanese Patent Laid-Open No. 2004-179783, it is implicitly understood that various image processing parameters required for reading an ID are held fixed in the apparatus. However, in the case of supporting a plurality of models and a plurality of data sets in the same application, if the conditions for recognition are fixed, the corresponding environment is limited. That is, in an actual use situation, it is difficult to stably perform image processing unless the parameter is adjusted according to the difference in the brightness of the surroundings or the optical performance for each terminal.
그런데, 2개의 화상의 일치 정도를 판정하는 방법으로서, 예를 들면 「카나 자와 야스시, 카나야 켄이치 "2화상 간의 특징점 대응의 자동 탐색", 『화상 연구실』2004년 11월호(일본공업출판2)004, PP20-23」에, 이하와 같은 방법이 개시되어 있다. 우선, 입력 화상 및 비교 화상에서의 인식 요소로서의 특징점을 각각 추출한다. 그리고, 입력 화상에서의 특징점과 비교 화상에서의 특징점을 비교 대조한다. 이 특징점끼리의 비교 대조에서, 양 화상 간의 유사도의 값이, 데이터의 만족도로서 소정의 값으로 설정되어 있는 임계값을 초과할 것인지의 여부를, RANSAC법 등을 이용하여 판정한다. 그러나, 이 방법으로는, 주로 이하의 3점의 문제점이 생긴다.By the way, as a method of judging the degree of agreement between two images, for example, "Kanazawa Yasushi and Kenichi Kanaya," Automatic Detection of Feature Point Correspondence Between Two Images, "" Image Lab, November 2004 "(Japanese Industrial Publication 2) ) 004, PP20-23 ", the following method is disclosed. First, feature points as recognition elements in the input image and the comparison image are respectively extracted. And the feature point in an input image is compared and contrasted with the feature point in a comparison image. In comparison between these feature points, it is determined by using the RANSAC method or the like whether the value of the similarity between the two images exceeds a threshold set to a predetermined value as the satisfaction of the data. However, this method mainly causes the following three points.
제1 문제점은, 상기의 방법은 화상 그 자체를 비교하는 방법이기 때문에, 대상물 또는 대상물이 찍혀 있는 화상 전체를 미리 등록해 놓고, 그 위에 그 등록한 화상(비교 화상)과 입력 화상과의 비교를 행해가는 것으로 되는 점이다. 따라서, 입력 화상 또는 비교 화상에, 상정하고 있었던 대상물 이외의 대상물이 찍혀 있는 경우나, 상정하고 있었던 대상물과 유사한 대상물이 찍혀 있는 경우에는, 오인식이 생기는 경우가 있다.The first problem is that the above method is a method of comparing the images themselves, so that the entire object or the entire image on which the object is taken is registered in advance, and the registered image (comparative image) is compared with the input image thereon. It is going to be going. Therefore, when an object other than the assumed object was imprinted on the input image or the comparative image, or an object similar to the assumed object was imprinted, a false recognition may occur.
제2 문제점은, 상기의 방법에서는 대상물의 인식 시에 있어서, 비슷한 대상물이 화상 내에 찍혀 있는 경우에, 이하와 같은 문제점을 일으키는 경우가 있는 점이다. 예를 들면, OBJ1(특징점군; A, B, C)을 자사의 로고 마크로 하고 있는 S사와, OBJ2(특징점군; E, F, G)를 자사의 로고 마크로 하고 있는 M사를 상정한다. 여기에서, S사와 M사는 경합하고 있는 회사라고 한다. 이러한 경우에는, 당연히, 양자의 로고 마크의 혼동은 극력 피해야만 한다. 그러나, 상기의 방법에서는, 특 징점 A와, 특징점 E 내지 G 중 어느 하나를 동일 화상 내로부터 추출한 경우에도, OBJ1과 OBJ2와의 혼동의 기피에 배려한 특별한 로직에 의한 판정을 행하지 않는다. 따라서, 이러한 경우에는, 상기의 방법에서는 문제점이 생길 가능성이 있다.The second problem is that in the above method, the following problem may occur when a similar object is taken in an image when the object is recognized. For example, S company which makes OBJ1 (feature point group; A, B, C) its logo mark, and M company which makes OBJ2 (feature point group; E, F, G) its logo mark are assumed. Here, S company and M company are said to compete with each other. In this case, of course, confusion of both logo marks should be avoided as much as possible. However, in the above method, even when one of the feature point A and the feature points E to G is extracted from the same image, the determination is not made by special logic in consideration of avoiding confusion between OBJ1 and OBJ2. Therefore, in such a case, there exists a possibility that a problem may arise in said method.
제3 문제점은, 인식할 수 있었던 특징점의 수가 몇개인 경우에도, 인식 결과를 유저에게 전달하는 문장 표현이 동일한 점이다. 이 때문에, 예를 들면 일부의 특징점만 인식할 수 있었던 경우, 즉 입력 화상과 비교 화상과의 일치 정도가 불확정성을 포함하는 일치 정도인 경우에, 그 취지를 유저에게 전달할 수 없다.The third problem is that even when the number of feature points that can be recognized is the same, the sentence expression that delivers the recognition result to the user is the same. For this reason, for example, when only some feature points can be recognized, that is, when the degree of matching between the input image and the comparison image is a degree of matching including uncertainty, the effect cannot be transmitted to the user.
<발명의 개시><Start of invention>
본 발명은, 상기의 점을 감안하여 이루어진 것으로, 이용 환경에 의해, 상황에 따른 최적의 정보를 제시하는 것이 가능한 정보 제시 시스템, 정보 제시 단말기 및 서버를 제공하는 것을 목적으로 한다.This invention is made | formed in view of the said point, and an object of this invention is to provide the information presentation system, the information presentation terminal, and the server which can show the optimal information according to a situation by use environment.
본 발명의 정보 제시 시스템의 일 양태는,One aspect of the information presentation system of the present invention,
화상을 얻는 촬상부와,An imaging unit for obtaining an image,
주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring peripheral information,
등록 정보를 기억해 두는 기억부와,A storage unit that stores registration information,
상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여, 상기 기억부에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부와,An analysis basic information construction unit for constructing analysis basic information from the registered information stored in the storage unit based on the peripheral information acquired by the peripheral information acquisition unit;
상기 촬상부로부터 얻어지는 화상과 상기 해석 기초 정보 구축부로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부와,A related information acquisition unit for acquiring information related to the image from an image obtained from the imaging unit and analysis basic information obtained from the analysis basic information construction unit;
상기 관련 정보 취득부에서 취득한 관련 정보를 제시하는 제시부Presenting unit for presenting the relevant information obtained by the related information acquisition unit
를 구비하고,And
상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 한다.The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. It is characterized by changing.
또한, 본 발명의 정보 제시 단말기의 일 양태는,In addition, one aspect of the information presentation terminal of the present invention,
화상을 얻는 촬상부와,An imaging unit for obtaining an image,
상기 촬상부에 관련되는 주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring peripheral information related to the imaging unit;
통신 회선을 통하여 서버로부터 다운로드한 등록 정보로부터, 상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여 해석 기초 정보를 구축하는 해석 기초 정보 구축부와,An analysis basic information constructing unit for constructing analysis basic information based on the surrounding information acquired by the peripheral information obtaining unit from the registered information downloaded from the server via a communication line;
상기 촬상부로부터 얻어지는 화상과 상기 해석 기초 정보 구축부로부터 얻어지는 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득하는 관련 정보 취득부와,A related information acquisition unit for acquiring information related to the image from an image obtained from the imaging unit and analysis basic information obtained from the analysis basic information construction unit;
상기 관련 정보 취득부에서 취득한 관련 정보를 제시하는 제시부Presenting unit for presenting the relevant information obtained by the related information acquisition unit
를 구비하고,And
상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키는 것을 특징으로 한다.The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. It is characterized by changing.
또한, 본 발명의 서버의 일 양태는,Moreover, one aspect of the server of this invention is
정보 제시 단말기로부터 통신 회선을 통하여 송신되어 오는 촬상부로부터 얻어지는 화상 및/또는 상기 촬상부에 관련되는 주변 정보를 취득하는 주변 정보 취득부와,A peripheral information acquisition unit for acquiring an image obtained from an imaging unit transmitted from the information presentation terminal via a communication line and / or peripheral information related to the imaging unit;
등록 정보를 기억해 두는 기억부와,A storage unit that stores registration information,
상기 주변 정보 취득부에서 취득한 주변 정보에 기초하여, 상기 기억부에 기억된 등록 정보로부터 해석 기초 정보를 구축하는 해석 기초 정보 구축부An analysis basic information construction unit for constructing analysis basic information from the registered information stored in the storage unit based on the peripheral information acquired by the peripheral information acquisition unit;
를 구비하고,And
상기 해석 기초 정보 구축부는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나에 기초하여 상기 해석 기초 정보를 변화시키고,The analysis basic information constructing unit uses the analysis basic information based on at least one of time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient sound, and model. Change,
상기 해석 기초 정보 구축부에서 구축한 상기 해석 기초 정보를 상기 정보 제시 단말기에 다운로드시킴으로써, 상기 정보 제시 단말기에, 그 해석 기초 정보와 상기 촬상부로부터 얻어지는 화상으로부터 상기 화상에 관련되는 정보를 취득시켜서, 제시시키는 것을 특징으로 한다.By downloading the analysis basic information constructed by the analysis basic information construction unit to the information presentation terminal, the information presentation terminal acquires the information relating to the image from the analysis basic information and the image obtained from the imaging unit, It is characterized by presenting.
즉, 본 발명의 정보 제시 시스템, 정보 제시 단말기 및 서버에 있어서는, 주변 정보로서, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나를 이용한다. 이와 같이 하여, 상기 주변 정보에 기초하여 등록 정보로부터 해석 기초 정보를 구축한다. 그리고, 촬상부에서 촬상한 화상에 상기 해석 기초 정보를 가미하여, 상기 화상에 관련된 정보를 취득하여 제시한다.That is, in the information presentation system, the information presentation terminal, and the server of the present invention, as the surrounding information, time, date, season, weather, temperature, humidity, place, ambient brightness, average color / color distribution of the acquired image, ambient Well, at least one of the models is used. In this way, analysis basic information is constructed from registration information based on the surrounding information. Then, the analysis basic information is added to the image picked up by the imaging unit, and information related to the image is obtained and presented.
상기 주변 정보를 취득하는 주변 정보 취득부로서는, 예를 들면 이하와 같은 것이 있다. 예를 들면 상기 주변 정보로서 시각을 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 시계나, 통신 회선을 통하여 소정의 장소의 시각 정보를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 날짜를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 캘린더 정보나, 통신 회선을 통하여 소정의 장소의 날짜를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 날씨나 기온이나 습도를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 기온·습도 센서 및 그 센서의 출력으로부터 날씨를 판단하는 전자 회로나, 통신 회선을 통하여 소정의 장소의 기온·습도·날씨 정보를 얻는 통신부가 있다. 예를 들면 상기 주변 정보로서 주위의 밝기를 채용하는 경우에는, 상기 주변 정보 취득부로서, 내장하는 조도 센서나, 촬상부에서 촬상한 화상을 해석하여 조도를 구하는 해석 회로가 있다. 예를 들면 상기 주변 정보로서 취득 화상의 평균 색/색 분포를 채용하는 경우에는, 상기 주변 정보 취득부로서, 촬상부에서 촬상한 화상 정보를 해석하는 해석 회로가 있다. 예를 들면 상기 주변 정보로서 주위의 음을 채용하는 경우에는, 상기 주변 정보 취득부로서, 음량 센서가 있다. 예를 들면 상기 주변 정보로서 기종을 채용하는 경우에는, 상기 주변 정보 취득부로서, 기종 정보를 기록하는 내장 메모리가 있다.Examples of the peripheral information acquisition unit for acquiring the peripheral information include the following. For example, when time is adopted as the surrounding information, the surrounding information acquisition unit includes a built-in clock and a communication unit that obtains time information of a predetermined place through a communication line. For example, in the case of employing a date as the peripheral information, the peripheral information acquisition unit includes a built-in calendar information and a communication unit that obtains a date of a predetermined place through a communication line. For example, in the case of employing the weather, temperature, or humidity as the surrounding information, the surrounding information acquisition unit is provided with a predetermined temperature and humidity sensor and an electronic circuit for determining the weather from the output of the sensor, or via a communication line. There is communication department to get temperature, humidity, weather information of place. For example, in the case of adopting the brightness of the surroundings as the peripheral information, as the peripheral information obtaining unit, there are an illuminance sensor to be built in and an analysis circuit for analyzing the image picked up by the imaging unit to obtain illuminance. For example, when employ | adopting the average color / color distribution of an acquired image as said peripheral information, there exists an analysis circuit which analyzes the image information picked up by the imaging part as said peripheral information acquisition part. For example, when the surrounding sound is adopted as the peripheral information, there is a volume sensor as the peripheral information acquisition unit. For example, when employing a model as the peripheral information, there is an internal memory for recording model information as the peripheral information acquisition unit.
또한, 촬상부로서는, 예를 들면, CCD나 CMOS 등의 촬상 소자 및 상기 촬상 소자의 수광면 상에 결상시키는 광학계 등이 있다.Moreover, as an imaging part, there exists an imaging element, such as CCD and CMOS, and the optical system image-forming on the light receiving surface of the said imaging element, for example.
기억부로서는, 예를 들면, 내장 또는 통신 회선을 통하여 액세스 가능한 메 모리 소자나 HDD(하드 디스크 드라이브) 등이 있다.As the storage unit, for example, a memory element or an HDD (hard disk drive) or the like accessible through a built-in or communication line.
해석 기초 정보 구축부로서는, 예를 들면 내장하는 CPU 및 그 CPU 상에서 동작하는 해석 기초 정보 구축 프로그램 등이 있다.Examples of the analysis basic information constructing unit include a built-in CPU and an analysis basic information constructing program operating on the CPU.
또한, 제시부로서는, 액정이나 플라즈마 등의 디스플레이 장치 등이 있다. 또한, 필요한 정보를 발음에 의해 제시하는 경우에는 스피커 등이 있다.Moreover, as a display part, there exist display apparatuses, such as a liquid crystal and a plasma. In addition, when presenting necessary information by pronunciation, a speaker etc. are mentioned.
도 1은 본 발명의 제1 실시예에 따른 정보 제시 시스템의 블록 구성도.1 is a block diagram of an information presentation system according to a first embodiment of the present invention.
도 2는 해석 기초 정보 구축부의 동작 플로우차트를 도시하는 도면.2 is a flowchart showing an operation flowchart of an analysis basic information construction unit;
도 3은 본 발명의 제2 실시예에 따른 정보 제시 시스템의 블록 구성도.3 is a block diagram of an information presentation system according to a second embodiment of the present invention;
도 4는 정보 제시 단말기를 휴대 전화기로서 구성한 경우의 정보 제시 시스템의 구성을 도시하는 도면.4 is a diagram illustrating a configuration of an information presentation system when the information presentation terminal is configured as a mobile telephone.
도 5는 서버를 복수 이용하여, 정보 제시 단말기를 휴대 전화기로서 구성한 경우의 정보 제시 시스템의 구성을 도시하는 도면.Fig. 5 is a diagram showing the configuration of an information presentation system in the case where the information presentation terminal is configured as a mobile telephone using a plurality of servers.
도 6은 본 발명의 제3 실시예에 따른 정보 제시 시스템의 블록 구성도.6 is a block diagram of an information presentation system according to a third embodiment of the present invention;
도 7은 본 발명의 제4 실시예에 따른 정보 제시 시스템의 블록 구성도.7 is a block diagram of an information presentation system according to a fourth embodiment of the present invention;
도 8은 본 발명의 제5 실시예에 따른 정보 제시 시스템의 블록 구성도.8 is a block diagram of an information presentation system according to a fifth embodiment of the present invention;
도 9는 해석 기초 정보 구축부와 관련 정보 취득부 및 제2 관련 정보 취득부와의 관계를 설명하기 위한 도면.9 is a diagram for explaining a relationship between an analysis basic information construction unit, a related information acquisition unit, and a second related information acquisition unit;
도 10은 본 발명의 제6 실시예에 따른 검색 시스템의 구성을 도시하는 도면.10 is a diagram showing the configuration of a search system according to a sixth embodiment of the present invention;
도 11은 대상 화상의 일례를 도시하는 도면.11 is a diagram illustrating an example of a target image.
도 12는 대상 화상의 일례를 도시하는 도면.12 is a diagram illustrating an example of a target image.
도 13은 대상 화상의 일례를 도시하는 도면.13 is a diagram illustrating an example of a target image.
도 14는 대상 화상의 일례를 도시하는 도면.14 is a diagram illustrating an example of a target image.
도 15는 입력된 등록을 희망하는 대상 화상과, TP 데이터 관리 DB에 등록된 화상을 비교하여 등록하는 처리를 나타내는 플로우차트.Fig. 15 is a flowchart showing a process of comparing and registering an input target image desired to be registered with an image registered in the TP data management DB.
도 16은 분할하여 등록을 할 때에, TP 데이터 관리 DB에 등록된 화상과 유사하다고 판단한 부분을 강조하여 표시하는 표시 방법의 일례를 도시하는 도면.Fig. 16 is a diagram showing an example of a display method for highlighting and displaying a portion determined to be similar to an image registered in the TP data management DB when segmentation and registration are performed.
도 17은 TP 데이터 관리 DB에 등록된 화상 중에서, 등록을 희망하는 화상과 유사한 화상을 리스트 형식으로 유저에게 표시하는 표시 방법의 일례를 도시하는 도면.FIG. 17 is a diagram showing an example of a display method of displaying, in a list format, an image similar to an image desired to be registered among the images registered in the TP data management DB.
도 18은 TP 데이터 관리 DB에 등록된 화상 중에서, 등록을 희망하는 화상과 유사한 화상을 리스트 형식으로 유저에게 표시하는 표시 방법의 일례를 도시하는 도면.FIG. 18 is a diagram showing an example of a display method of displaying, in a list form, an image similar to an image desired to be registered among the images registered in the TP data management DB. FIG.
도 19는 등록을 희망하는 대상 화상과 유사한 화상이 TP 데이터 관리 DB 내에 복수 존재하는 경우에, 대상 화상 중 유사 부분을 순차적으로 분할 및 삭제해 가서, 최종적으로 비유사 부분을 신규 등록 부분으로서 남기는 과정을 도시하는 도면.19 shows a process of dividing and deleting similar portions sequentially in a target image, and finally leaving a dissimilar portion as a new registration portion when a plurality of images similar to the target image to be registered exist in the TP data management DB. Drawings showing.
도 20은 TP 데이터 관리 DB 내에 이미 등록된 화상을 분할하고, 재등록하는 과정을 도시하는 도면.20 is a diagram showing a process of dividing and re-registering an image already registered in the TP data management DB.
도 21A는 등록을 희망하는 대상 화상의 일부와 유사한 부분을 갖는 화상이 TP 데이터 관리 DB 내에 존재하는 경우에, 유사 부분을 서로 겹치게 하도록 합성하는 과정의 일례를 도시하는 도면.Fig. 21A is a diagram showing an example of a process of synthesizing similar parts so as to overlap each other when an image having a part similar to a part of the target image to be registered exists in the TP data management DB.
도 21B는 등록을 희망하는 대상 화상의 일부와 유사한 부분을 갖는 화상이 TP 데이터 관리 DB 내에 존재하는 경우에, 유사 부분을 서로 겹치게 하도록 합성하는 과정의 일례를 도시하는 도면.Fig. 21B is a diagram showing an example of a process of synthesizing similar parts so as to overlap each other when an image having a part similar to a part of the target image to be registered exists in the TP data management DB.
도 22는 동화상을 TP 데이터 관리 DB에 등록하는 경우에, 매칭을 이용하는 예를 도시하는 도면.Fig. 22 is a diagram showing an example of using matching when registering a moving image in the TP data management DB.
도 23은 인식 요소 동정 처리를 나타내는 플로우차트.23 is a flowchart showing a recognition element identification process.
도 24는 제12 실시예에 따른 대상물 인식 방법을 설명하는 도면.Fig. 24 is a diagram explaining an object recognition method according to the twelfth embodiment.
도 25는 제12 실시예에 따른 대상물 인식 방법을 설명하는 도면.Fig. 25 is a diagram explaining an object recognition method according to the twelfth embodiment.
도 26은 제14 실시예에서의 매칭 처리부 및 TP 데이터 관리 DB의 시스템 구성을 설명하는 도면.Fig. 26 is a diagram explaining a system configuration of a matching processing unit and a TP data management DB in the fourteenth embodiment.
도 27은 본 발명의 제15 실시예에 따른 카메라 부착 휴대 전화를 이용한 화상의 매칭 처리의 흐름을 설명하는 플로우차트.Fig. 27 is a flowchart for explaining the flow of image matching processing using the mobile phone with camera according to the fifteenth embodiment of the present invention.
도 28은 본 발명의 제15 실시예에서의 마커 화상의 표시 형태의 일례를 도시하는 도면.Fig. 28 is a diagram showing an example of the display form of the marker image in the fifteenth embodiment of the present invention.
도 29는 본 발명의 제15 실시예에서의 마커 화상의 표시 형태의 일례를 도시하는 도면.Fig. 29 is a diagram showing an example of the display form of the marker image in the fifteenth embodiment of the present invention.
<발명을 실시하기 위한 최량의 형태><Best Mode for Carrying Out the Invention>
이하, 본 발명을 실시하기 위한 최량의 형태를 도면을 참조하여 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the best form for implementing this invention is demonstrated with reference to drawings.
[제1 실시예][First Embodiment]
본 발명의 제1 실시예에 따른 정보 제시 시스템(10)은, 도 1에 도시하는 바와 같이, 촬영부(11), 관련 정보 취득부(12), 제시부(13), 주변 정보 취득부(14), 기억부(15), 해석 기초 정보 구축부(16)를 갖고 있다. 상기 촬영부(11)는, 카메라 등의 촬상부이다. 상기 관련 정보 취득부(12)는, 상기 촬영부(11)로부터 얻어지는 마커 화상이나 로고 화상과 같은 소정의 화상에 관련되는 정보를 취득한다. 상기 제시부(13)는, 그 관련 정보 취득부(12)에서 취득한 관련 정보를 제시한다. 상기 주변 정보 취득부(14)는, 상기 촬영부(11)에 관련되는 주변 정보를 취득한다. 상기 기억부(15)는, 등록 정보를 기억한다. 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보 취득부(14)에서 취득한 주변 정보에 기초하여, 상기 기억부(15)에 기억된 등록 정보로부터 해석 기초 정보를 구축한다.As shown in FIG. 1, the
여기에서, 상기 주변 정보 취득부(14)에서 취득하는 주변 정보는, 시각, 날짜, 계절, 날씨, 기온, 습도, 장소, 주위의 밝기, 취득 화상의 평균 색/색 분포, 주위의 음, 기종 중 적어도 하나를 포함한다. 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보에 기초하여, 상기 해석 기초 정보를 변화시킨다. 즉, 도 2에 도시하는 바와 같이, 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보 취득부(14)로부터 주변 정보를 취득한다(스텝 S1). 또한, 상기 해석 기초 정보 구축부(16)는, 그 주변 정보에 따라서, 각종 파라미터를 설정한다(스텝 S2). 이 스텝 S2과 동시에, 상기 해석 기초 정보 구축부(16)는, 상기 기억부(15)로부터 등록 정보를 선택적으로 읽어들인다(스텝 S3). 그리고, 상기 해석 기초 정보 구축부(16)는, 상기 설정한 파라미터와 읽어들인 등록 정보를 해석 기초 정보로서 통합한다(스텝 S4). 또한, 상기 해석 기초 정보 구축부(16)는, 상기 관련 정보 취득부(12)에, 상기 스텝 S4에서 구축한 해석 기초 정보를 부여한다. 상기 관련 정보 취득부(12)는, 상기 촬영부(11)로부터 얻어지는 화상과, 이 해석 기초 정보 구축부(16)로부터 공급된 해석 기초 정보로부터, 상기 화상에 관련되는 정보를 취득한다.Here, the peripheral information acquired by the peripheral
이러한 구성의 정보 제시 시스템(10)의 구체예로서는, 예를 들면, 이하와 같은 것이 고려된다.As a specific example of the
기동 시에, 주변 정보 취득부(14)가 날짜·시각 정보를 취득하고, 해석 기초 정보 구축부(16)가, 기억부(15) 내에 있는 어드레스북으로부터 그 시각에 대응한 전화 번호를 취득하고, 상기한 바와 같이 해석 기초 정보를 구축한다. 상기 해석 기초 정보 구축부(16)에서는, 이와 같이, 미리 준비되어 있는 정보로부터 최적의 것을 선택할 수 있다. 또한, 상기 해석 기초 정보는, 출력 정보를 포함한다. 즉, 상기 해석 기초 정보 구축부(16)는, 상기 주변 정보에 기초하여 출력 정보를 변화시킨다. 여기에서, 예를 들면 촬영부(11)에서 얼굴 사진이 있는 앨범을 촬영하면, 그 얼굴을 인식하고, 전화 번호를 표시하는 어플리케이션을 상정한다. 이 경우, 평일의 9:00∼18:00이면, 사무실의 전화 번호를 취득하고, 해석 기초 정보로 한다. 그러나, 휴일이나 평일의 18:00 이후이면, 자택의 전화 번호를 취득하고, 해석 기초 정보로 하는 것이 고려된다. 또한, 22:00 이후이면, 동일하게 자택의 전화 번호를 취득하는 것이지만, 「긴급 시에만」이라는 메시지를 추가하여, 해석 기초 정보로 하도록 하여도 된다.At the start-up, the peripheral
또한, 기동 시에, 주변 정보 취득부(14)가 위치 정보를 취득하고, 상기 해석 기초 정보 구축부(16)가, 기억부(15)의 등록 정보(간판) 중, 상기 위치 정보로 나타내어지는 위치로부터 주위 1㎞ 사방에 있는 등록 정보(간판)로부터, 해석 기초 정보를 구축하도록 하여도 된다. 이 경우, 주변 정보 취득부(14)는, 위치 정보를, GPS, 통신 장치가 있는 경우에는 기지국 간의 전파 강도, 촬영 대상의 마커나 2차원 코드에 매립된 위치 정보, 예를 들면 위도 경도나 주소, 등으로부터 결정할 수 있다. 이러한 구성으로 하면, 복수의 지역에 존재하는 간판이어도, 그 장소에 대응하는 정보를 제시하는 것이 가능하게 된다. 예를 들면, 촬영부(11)에서 A사의 로고 마크를 촬영하면, 가장 가까운 수리 접수 창구가 표시되는 어플리케이션을 제공할 수 있다. 또한, 촬영부(11)에서 B 편의점의 간판을 촬영하면, 위치 정보에 기초하여 현재의 날씨나 일기 예보 정보를 취득하고, 예를 들면 「지금이라면 우산이 XXX엔, 아직 재고가 있습니다」라고 하는 바와 같은, 해당 편의점의 판촉 정보를 제시하는 어플리케이션을 제공할 수 있다. 이와 같이, 본 제1 실시예에 따른 정보 제시 시스템(10)에 의하면, 네비게이션이나 판촉이라고 한 각종 정보의 제시를 하는 것이 가능하게 된다.In addition, the peripheral
혹은, 기동 시에, 주변 정보 취득부(14)가, 주위의 밝기 또는 촬영부(11)로부터 취득한 화상의 밝기를 취득하고, 해석 기초 정보 구축부(16)가, 그 취득한 밝기 정보에 기초하여, 화상 처리를 위한 임계값을 조정하거나, 콘트라스트 필터의 파라미터를 조정하는 등이라고 한 처리를 행할 수도 있다. 이에 의해, 촬영부(11)에서 취득한 화상이 어둑어둑한 화상이어도, 인식 대상의 마커나 얼굴 사진, 로고 마크 등을 인식 가능하게 된다. 예를 들면, 조명이 어두운 방에서 촬영한 경우, 화상의 밝기에 기초하여 2치화의 임계값을 10% 작게 한다. 이 조정에 의해, 로고나 사진의 주위가 약간 어두워져 있어도, 안정적으로 그들의 추출을 행할 수 있다. 그리고 또한, 동일하게 해석 기초 정보로서 공급되는 템플릿과 그 추출한 인식 대상으로서의 로고나 사진과의 매칭 처리를 행함으로써, 안정적으로 인식을 할 수 있게 된다.Or at the time of starting, the surrounding
또한, 기동 시에, 주변 정보 취득부(14)가, 주위의 밝기 또는 촬영부(11)로부터 취득한 화상의 밝기를 취득하고, 해석 기초 정보 구축부(16)가, 어두운 경우에는, 조명이 닿는 간판이나 빛나는 간판을 대상으로 한 등록 정보로부터 해석 기초 정보를 구축한다. 이에 의해, 어두울 때에는 보이는 방법이 변하는 간판이어도 인식 가능하게 된다. 또한, 화면 내의 컴포넌트의 색을 주위의 밝기에 따른 배색으로 조정할 수 있으므로, 정보를 보기 쉽게 제시할 수 있다.In addition, when starting, the peripheral
[제2 실시예]Second Embodiment
본 발명의 제2 실시예에 따른 정보 제시 시스템은, 도 3에 도시하는 바와 같이, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 정보 제시 단말기(10A)와 서버(10B)를 통신 회선에 의해 접속한다. 이 경우, 상기 정보 제시 단말기(10A)는, 상기 촬영부(11)와 상기 관련 정보 취득부(12)와 상기 제시부(13)를 포함한다. 상기 서버(10B)는, 상기 주변 정보 취득부(14)와 상기 기억부(15)와 상기 해석 기초 정보 구축부(16)를 포함한다.The information presentation system according to the second embodiment of the present invention is divided into an
또한, 정보 제시 단말기(10A)를 휴대 전화기로서 구성한 경우에는, 본 제2 실시예에 따른 정보 제시 시스템은, 예를 들면 도 4에 도시하는 바와 같은 구성으로 된다. 여기에서, 서버(10B)의 주변 정보 취득부(14)는, 정보 제시 단말기(10A)가 구비하는 센서나 GPS의 정보를 주변 정보로서 취득할뿐만 아니라, 기지국(21)이 제공하는 위치 정보나 환경 정보 등도, 주변 정보로서 취득한다.In addition, when the
혹은, 정보 제시 단말기(10A)를 PDA 등의 인터넷 접속 기능을 갖춘 휴대형 정보 기기라고 한 경우에는, 통신 회선(20)은 인터넷을 포함한다. 이 경우에는, 정보 제시 단말기(10A)와 서버(10B)가 동일국 내에 존재한다고는 할 수 없다. 따라서, 서버(10B)의 주변 정보 취득부(14)는, 정보 제시 단말기(10A)가 구비하는 시계로부터 일시 정보를 주변 정보로서 적절히 취득하여도 된다.Alternatively, when the
이러한 구성에서는, 정보 제시 단말기(10A)의 기동 시, 혹은, 서버(10B)로부터 해석 기초 정보를 다운로드할 때에, 서버(10B) 상의 해석 기초 정보 구축부(16)에서 최적의 해석 기초 정보를 구축한다.In such a configuration, optimal analysis basic information is constructed by the analysis basic
예를 들면, 정보 제시 단말기(10A)로서의 휴대 전화기의 기종에 따라서, 서버(10B) 상에서 2치화(화상 처리)의 임계값을 조정하여, 해석 기초 정보를 구축한다. 나아가서는, 정보 제시 단말기(10A)로서의 휴대 전화기의 기종에 따라서, 화상 처리 필터를 설정하여, 해석 기초 정보를 구축한다. 즉, 휴대 전화기는 다수의 기종이 존재하고, 각 기종마다 촬영부(11)의 광학 성능이 서로 다르다. 이 때문에, 적합한 화상 처리 파라미터를 설정하지 않으면, 안정된 화상 인식 처리를 행하는 것은 곤란하다. 예를 들면, 휴대 전화기는 기종에 따라서는, 화상이 흐려지기 때문에, 2치화의 임계값을 높은듯하게 설정하면 효과적이다. 또한, 화상이 흐려지 는 휴대 전화기의 기종에서는, 화상 처리 필터로서, 엣지 강조 필터를 설정하는 것은, 안정적인 화상 인식에 효과적이다.For example, according to the model of the mobile telephone as the
혹은, 휴대 전화기의 기종에 따라서, 템플릿 사이즈를 조정하도록 하여도 된다. 또한, 해석 기초 정보에 편입되는 등록 정보의 수 및/또는 상호의 유사도에 따라서, 템플릿 사이즈를 조정하도록 하여도 된다. 예를 들면, 해석 기초 정보로서 통합하는 등록 정보의 상호의 유사도가 미리 설정한 값 이상인 경우에는, 템플릿 매칭을 행하기 위한 템플릿 사이즈를 종횡 2배로 하고, 그 값을 해석 기초 정보에 포함시킨다. 이와 같이 함으로써, 오인식하기 쉬운 환경이어도, 보다 고정밀도한 매칭 처리를 실현할 수 있다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 등록수에 따라서, 템플릿 사이즈를 작게 한다. 즉, 등록수가 많은 경우에는, 매칭 처리에 요하는 시간을 단축하기 위해, 오인식하지 않는 범위(상호의 유사도가 설정값 이상으로 안되는 범위)에서 템플릿 사이즈를 작게 하도록 시도한다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 템플릿의 데이터 계조를 내려도 된다. 예를 들면, 통상은 256계조의 그레이 스케일이지만, 이를 16계조로 내려도 된다. 또한, 등록 정보의 상호의 유사도가 낮은 경우에는, 오인식을 피하기 위해서, 매칭의 임계값을 높게 설정하여도 된다.Alternatively, the template size may be adjusted in accordance with the model of the cellular phone. Further, the template size may be adjusted according to the number of registration information incorporated in the analysis basic information and / or the similarity of each other. For example, when the similarity of mutually registered registration information to be incorporated as analysis basic information is equal to or larger than a preset value, the template size for performing template matching is doubled horizontally and the value is included in the analysis basic information. By doing in this way, more accurate matching process can be implement | achieved even in the environment which is easy to recognize. If the similarity of registration information is low, the template size is made small according to the number of registrations. In other words, when the number of registrations is large, in order to shorten the time required for the matching process, an attempt is made to reduce the template size in a range in which misrecognition is not made (a range in which the similarity of mutuality does not exceed the set value). In addition, when the similarity of registration information is low, you may lower the data gradation of a template. For example, the gray scale is usually 256 gradations, but may be reduced to 16 gradations. In addition, when the similarity of registration information is low, you may set a high threshold of matching, in order to avoid misperception.
또한, 상기 주변 정보 취득부(14), 상기 기억부(15) 및 상기 해석 기초 정보 구축부(16)를 포함하는 서버(10B)는 하나로 한정하지 않고, 복수 준비하여도 된다. 정보 제시 단말기(10A)를 휴대 전화기로 한 경우에는, 본 제2 실시예에 따른 정보 제시 시스템은, 예를 들면 도 5에 도시하는 바와 같은 구성으로 된다. 즉, 도 5에 도시하는 바와 같이, 복수의 서버(10B-1, 10B-2, 10B-3, …)가, 통신 회선(20)에 접속되는 구성의 정보 제시 시스템으로 된다. 또한, 이 통신 회선(20)은, 기지국(21)과 네트워크(22)에 의해 구성된다. 그리고, 상기 서버(10B-1 내지 10B-3, …)는, 상기 네트워크(22)에 접속되어 있다. 이러한 경우, 상기 정보 제시 단말기(10A)의 관련 정보 취득부(12)는, 그들 복수의 서버(10B-1, 10B-2, 10B-3, …)로부터 해석 기초 정보를 취득하도록 하여도 된다. 또한, 1개의 서버(10B)(예를 들면 서버(10B-1))의 해석 기초 정보 구축부(16)는, 해당 서버(10B)(예를 들면 서버(10B-1)) 이외의 적어도 하나의 서버(10B)(예를 들면 서버(10B-2, 10B-3, …))로부터 정보를 취득하고, 그들 정보를 조합한 후에, 상기 정보 제시 단말기(10A)에 송신하는 해석 기초 정보를 구축하도록 하여도 된다.Note that the
[제3 실시예]Third Embodiment
본 발명의 제3 실시예에 따른 정보 제시 시스템은, 상기 제2 실시예와 마찬가지로, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 상기 정보 제시 단말기(10A)와 상기 서버(10B)를 통신 회선에 의해 접속한다. 단, 본 실시예에서는, 도 6에 도시하는 바와 같이, 정보 제시 단말기(10A)는, 상기 촬영부(11), 상기 관련 정보 취득부(12), 상기 제시부(13), 상기 주변 정보 취득부(14), 및 상기 해석 기초 정보 구축부(16)를 포함한다. 상기 서버(10B)는 상기 기억부(15)만을 포함하도록 구성한다.The information presentation system according to the third embodiment of the present invention is divided into an
이러한 구성에 따르면, 서버(10B)로부터 취득한 등록 정보를 정보 제시 단말기(10A) 상에서 해석 기초 정보로서 구축하므로, 한번 등록 정보를 다운로드하면, 정보 제시 단말기(10A)의 주변 정보에 세세하게 대응시키는 것이 가능하게 된다.According to this structure, since the registration information acquired from the
[제4 실시예][Example 4]
본 발명의 제4 실시예에 따른 정보 제시 시스템도, 상기 제2 및 제3 실시예와 마찬가지로, 정보 제시 단말기(10A)와 서버(10B)로 분할된다. 그리고, 상기 정보 제시 단말기(10A)와 상기 서버(10B)를 통신 회선에 의해 접속한다. 단, 본 실시예에서는, 도 7에 도시하는 바와 같이, 정보 제시 단말기(10A)는, 상기 촬영부(11)와 상기 제시부(13)만을 갖는다. 상기 서버(10B)는, 그 밖의 상기 관련 정보 취득부(12), 상기 주변 정보 취득부(14), 상기 기억부(15), 및 상기 해석 기초 정보 구축부(16)를 갖는다. 단, 도 7에 도시하는 바와 같이 서버(10B)의 주변 정보 취득부(14)는, 통신 회선을 통하여, 정보 제시 단말기(10A)가 갖는 센서 등으로부터 GPS 정보나 시간 정보, 나아가서는 밝기 등의 정보를 취득하기 위한 촬영부(11)로부터의 화상 등의 주변 정보(기지국(21)으로부터 송신되어 오는 주변 정보도 포함함)를 취득한다.The information presentation system according to the fourth embodiment of the present invention is also divided into the
이러한 구성으로 하면, 유저는, 사전에 정보 제시 단말기(10A)에 해석 기초 정보를 다운로드할 필요가 없다. 또한, 서버(10B)는, 촬영한 화상과 함께 송신되어 오는 상기 정보 제시 단말기(10A)의 주변 정보에 대응한 최적의 해석 기초 정보에 기초하는 처리를 행할 수 있다.With such a configuration, the user does not need to download the analysis basic information to the
[제5 실시예][Example 5]
본 발명의 제5 실시예에 따른 정보 제시 시스템은, 상기 제2 실시예의 구성에서, 도 8에 도시하는 바와 같이, 서버(10B)에 상기 관련 정보 취득부(12)와 동등 한 기능을 갖는 제2 관련 정보 취득부(17)를 더 설치한 것이다. 여기에서, 상기 제2 관련 정보 취득부(17)는, 상기 관련 정보 취득부(12)가 취득한 해석 기초 정보보다도 많은 해석 기초 정보로부터 관련 정보를 취득하는 것이다.The information presentation system according to the fifth embodiment of the present invention is, in the configuration of the second embodiment, as shown in FIG. 8, having a function equivalent to that of the related
즉, 본 실시예에서는, 도 8에 도시하는 바와 같이, 서버(10B)의 주변 정보 취득부(14)는, 통신 회선을 통하여, 정보 제시 단말기(10A)가 갖는 센서 등으로부터 GPS 정보나 시간 정보, 나아가서는 밝기 등의 정보를 취득하기 위한 촬영부(11)로부터의 화상 등의 주변 정보(기지국(21)으로부터 송신되어 오는 주변 정보도 포함함)를 취득한다. 그리고, 해석 기초 정보 구축부(16)는, 도 9에 도시하는 바와 같이, 주변 정보 취득부(14)가 취득한 주변 정보에 기초하여, 우선도가 높은 해석 기초 정보와, 그보다도 우선도가 낮은 제2 해석 기초 정보를 구축한다. 그리고, 상기 해석 기초 정보는, 정보 제시 단말기(10A)의 관련 정보 취득부(12)에 통신 회선을 통하여 다운로드된다. 또한, 상기 제2 해석 기초 정보는, 제2 관련 정보 취득부(17)에 공급된다.That is, in this embodiment, as shown in FIG. 8, the peripheral
이러한 구성으로 함으로써, 상기 정보 제시 단말기(10A)의 관련 정보 취득부(12)가, 관련 정보를 취득할 수 없었던 경우에도, 상기 제2 관련 정보 취득부(17)의 결과를 상기 제시부(13)가 제시하는 것이 가능하게 된다.By setting it as such a structure, even if the related
예를 들면, 정보 제시 단말기(10A)로서 휴대 전화기를 고려한 경우, 휴대 전화기는 기종에 따라 기억 용량이 서로 다르다. 또한, 유저의 사용 방법에 의해, 이용할 수 있는 기억 용량이 서로 다르다. 또한, 기종에 따라, 처리 속도가 서로 다르다. 따라서, 기종마다 다운로드하는 해석 기초 정보의 용량을 변경함으로써, 휴대 전화기 상에서의 처리에 필요 이상의 부담을 주지 않도록 하는 것이 바람직하다. 따라서, 본 실시예에서는, 다운로드하지 않았던 해석 기초 정보는 서버(10B) 상에서 유지한다. 그리고, 서버(10B)의 제2 관련 정보 취득부(17)가, 휴대 전화기 로부터 송신되는 화상, 혹은 화상의 일부를 대상으로 하여 상기 다운로드하지 않았던 해석 기초 정보인 제2 해석 기초 정보로부터 관련 정보의 취득 처리를 행한다. 휴대 전화기 상에서 관련 정보를 취득할 수 있었던 경우에는, 그 정보를 제시부(13)에 표시한다. 한편, 휴대 전화기 상에서는 관련 정보를 취득할 수 없었지만, 서버(10B) 상에서 취득할 수 있었던 경우에는, 서버(10B) 상에서 취득한 정보를 휴대 전화기의 제시부(13) 상에서 제시한다. 혹은, 휴대 전화기 상에서도 처리하고 있지만, 서버(10B) 상의 쪽이 빠르게 정보를 취득할 수 있었던 경우에도, 서버(10B) 상에서 취득한 정보를 휴대 전화기의 제시부(13) 상에서 제시한다.For example, when the portable telephone is considered as the
예를 들면, 휴대 전화기의 위치 정보에 기초하여 주위 500m의 템플릿 세트를 해석 기초 정보로서 취득하고, 휴대 전화기에 다운로드한다. 유저는, 이 템플릿 세트에 의해 주변의 가게의 정보를 얻으면서 거리를 산책할 수 있다. 유저가 최초로 템플릿 세트를 취득한 위치로부터 500m 이상 떨어지면, 휴대 전화기 내에 취득하고 있는 템플릿에서는 대응하는 정보를 얻을 수 없게 된다. 그러나, 본 실시예에서는, 휴대 전화기로 취득한 화상을 서버(10B)의 제2 관련 정보 취득부(17)에도 송신하고 있다. 서버(10B)에서는, 최초로 유저가 주위 500m의 템플릿 세트를 다운로드할 때에, 동시에 주위 4㎞의 템플릿 세트를 제2 관련 정보 취득부(17)에 전달하고 있다. 따라서, 유저가 휴대 전화기 내로부터 정보를 취득할 수 없어도, 서버 상의 이 제2 관련 정보 취득부(17)에서 주위 4㎞의 템플릿 세트로부터 정보를 취득할 수 있다. 서버(10B) 상에서 정보를 취득하고, 휴대 전화기 상에서 정보가 취득되어 있지 않은 경우, 서버(10B) 상에서 취득한 정보를 표시한다. 따라서, 유저는 휴대 전화기의 용량을 초과하는 영역의 템플릿 데이터를 이용할 수 있다. 또한, 이 때, 휴대 전화기에 현재의 위치에 기초하는 주위 500m의 템플릿 세트가 송신되어도 된다. 이와 같이 하면, 그 위치로부터 500m 이내는, 다시 휴대 전화기만으로 정보를 취득할 수 있으므로, 경쾌한 조작감을 실현할 수 있다.For example, based on the positional information of the mobile phone, a template set of around 500m is acquired as analysis basic information and downloaded to the mobile phone. The user can walk the streets while getting information of nearby shops by this template set. If the user is 500m or more away from the position where the user originally acquired the template set, the corresponding information cannot be obtained from the template acquired in the mobile phone. However, in the present embodiment, the image acquired by the cellular phone is also transmitted to the second related
이상 실시예에 의해 설명한 바와 같이, 환경이나 이용 기종 등, 각종의 정보에 기초하여, 시스템의 인식 대상으로 되는 템플릿 데이터나, 그 템플릿 데이터에 관련짓는 정보, 또한, 인식 처리 상의 각종 파라미터 등, 이용하는 정보를 절환함으로써, 이용 환경에 의해, 상황에 따른 최적의 정보를 제시할 수 있도록 된다.As described in the above embodiments, the template data to be recognized by the system, information associated with the template data, and various parameters in the recognition process are used based on various information such as environment and use model. By switching the information, it is possible to present the optimum information according to the situation according to the use environment.
이상 실시예에 기초하여 본 발명을 설명했지만, 본 발명은 전술한 실시예에 한정되는 것은 아니고, 본 발명의 요지의 범위 내에서 여러 가지 변형이나 응용이 가능한 것은 물론이다.Although this invention was demonstrated based on the above Example, this invention is not limited to the Example mentioned above, Of course, various deformation | transformation and application are possible within the scope of the summary of this invention.
예를 들면, 상기 제5 실시예에서는, 서버(10B)는 제2 관련 정보 취득부(17)를 구비하고, 해석 기초 정보 구축부(16)가 해석 기초 정보와 제2 해석 기초 정보를 구축하는 것으로 했다. 그러나, 이러한 구성에 한정되지 않고, 제3 관련 정보 취득부, 제4 관련 정보 취득부, …라고 한 복수의 관련 정보 취득부를 서버(10B)에 더 구성하고, 해석 기초 정보 구축부(16)가 제3 해석 기초 정보, 제 4해석 기초 정보, …를 더 구축하도록 하여도 된다.For example, in the fifth embodiment, the
[제6 실시예][Example 6]
본 발명의 제6 실시예에 따른 검색 시스템은, 도 10에 도시하는 바와 같이, 카메라 부착 휴대 전화기나 카메라 부착 PDA 등의 카메라 부착 휴대 단말기(23)와, 검색 수단으로 구성되는 것이다. 상기 카메라 부착 휴대 단말기(23)는, 화상을 입력하는 화상 입력부(카메라)(11)와 검색 결과의 화상을 출력하는 디스플레이(26)를 포함한다. 상기 검색 수단은, 상기 화상 입력부(24)에 의해 입력된 화상을 기초로 하여, 계층 관리된 템플릿을 이용하여, 데이터베이스로부터 화상을 검색한다. 또한 여기에서, 상기 검색 수단은, 카메라 부착 휴대 단말기(23)의 휴대 어플리케이션 소프트웨어(25)와, 상기 카메라 부착 휴대 단말기(23)와 통신 가능한 서버(27)에 구성된 매칭 처리부(29)에 의해 실현된다.As shown in Fig. 10, the retrieval system according to the sixth embodiment of the present invention is composed of a camera-equipped portable terminal 23 such as a camera-equipped mobile phone or a PDA with a camera and a search means. The camera-equipped
상기 서버(27)는, 또한, 복수의 템플릿이 등록되고, 그들을 계층 관리하는 템플릿(TP) 데이터 관리 데이터베이스(DB)(28)를 갖고 있다. 이 TP 데이터 관리 DB(28)에 등록되는 템플릿은, 데스크톱 퍼블리싱(DTP)(30)에서, 도 10에 도시하는 바와 같이 지면(40)에 배치한 대상 화상(41)으로부터, TP 작성부(50)에 의해 작성된 것이다.The
즉, 본 제6 실시예에 따른 검색 시스템에서는, 미리, DTP(30)에 의해, 지면(40)에 대상 화상(41)을 인쇄함과 함께, TP 작성부(50)에서 그 대상 화상(41)의 템플릿을 작성한다. 그리고, 그 작성한 템플릿을 서버(27)의 TP 데이터 관리 DB(28)에 등록해 둔다. 또한, 등록하는 대상 화상(41)이 다수 있으면, 그러한 템플릿의 작성과 등록을 반복한다.That is, in the retrieval system according to the sixth embodiment, the
그리고, 검색을 원하는 유저가, 지면(40)으로부터 카메라 부착 휴대 단말기(23)의 화상 입력부(24)를 사용하여 대상 화상(41)을 취득하면, 휴대 어플리케이션 소프트웨어(25)는, 그 입력 화상으로부터 화상의 특징 추출을 행한다. 그리고, 휴대 어플리케이션 소프트웨어(25)는, 추출한 특징 데이터를 서버(27)의 매칭 처리부(29)에 보낸다. 그리고, 상기 매칭 처리부(29)는 TP 데이터 관리 DB(28)에 등록되어 있는 템플릿과 매칭을 행한다. 이 경우, 상위 계층의 템플릿을 이용한 템플릿 매칭에 계속해서, 하위 계층의 템플릿을 이용한 템플릿 매칭을 행하여 검색 화상을 좁혀 들어간다. 그리고, 매칭 결과가 취득되었으면, 매칭 처리부(29)는, 그 매칭 결과 정보를 카메라 부착 휴대 단말기(23)의 휴대 어플리케이션 소프트웨어(25)에 보낸다. 휴대 어플리케이션 소프트웨어(25)는 디스플레이(26)에 상기 결과 정보를 표시한다.Then, when the user who wants to search for the
또한, 대상 화상으로서, 도 10에 도시하는 상기 대상 화상(41)과 같이 등록 영역 즉 인식 대상으로서의 영역이 명확한 대상 화상을 이용하는 경우, 이하와 같은 이점이 있다. 즉, 상기 대상 화상(41)을 상기 TP 데이터 관리 DB(28)에 등록 할 때에, 등록을 희망하는 대상 화상과, 이미 상기 TP 데이터 관리 DB(28)에 등록된 화상과의 유사도 평가를 행하고, 예를 들면 매칭에서 양 화상 간의 유사도(유사한 정도를 나타내는 수치)가 75% 이상이라는 평가 결과를 얻으면 해당 대상 화상(41)의, 상기 TP 데이터 관리 DB(28)에의 등록을 행하지 않는 것으로 함으로써, 상기 TP 데이터 관리 DB(28)에 등록된 화상과 유사한 대상 화상을 다시 등록하는 것을 방지할 수 있다. 이에 의해, 상기의 매칭에서의 오인식을 안정적으로 회피할 수 있다. 또한, 여기서는 편의적으로 등록 처리를 실행할지의 여부의 판단의 임계값을 75%로 했지만, 상기 임계값은 75%에 한하지 않는 것은 물론이다. 여기에서, 매칭에서의 유사도 판단의 임계값은, 그 매칭의 사용 환경에서 오인식을 발생시키지 않는 수치의 범위 내에서, 가능한 한 높은 값으로 설정하는 것이 바람직하다. 또한, 상기 임계값은, 시스템의 일 요소로서 정적으로 설정할 뿐만 아니라, 상기 매칭의 조건(예를 들면 촬영시의 카메라의 기울기, 조명의 안정성, 카메라의 촬영 화소수, 매칭에 이용하는 정보의 종류, 매칭의 방법 등)에 맞추어, 동적으로 설정하여도 물론 된다.Moreover, when using the target image with which the registration area | region, ie, the area | region as a recognition object, is clear like the said
또한, 상기 TP 데이터 관리 DB(28)에의 상기 대상 화상(41)의 등록 시에, 상기 대상 화상(41)에 적당한 변형(예를 들면 노이즈 등의 부가)을 행한 후에 등록하여도 물론 된다. 이러한 적당한 변형을 가함으로써, 상기 대상 화상(41)은 실제의 카메라에서 촬영되어 취득되는 상태에 가깝게 된다. 이것은, 상기 유사도를 평가할 때에 유효하게 작용한다. 즉, 상기 적당한 변형을 가하기 전의 화상뿐만 아니라, 상기 적당한 변형을 가한 후의 화상에 관해서도 상기 유사도의 평가를 실시함으로써, 상기 유사도 평가의 정확성이 증가한다.In addition, during the registration of the
또한, 상기 적당한 변형으로서는, 예를 들면 회전, 3차원적인 아핀 변환, 확대, 축소, 색 정보의 열화, 화이트 노이즈의 부여, 각종 조명 조건에 의한 투영의 시뮬레이션 등, 각종의 화상 처리 조작을 예로 들 수 있다.Moreover, as said suitable deformation | transformation, various image processing operations, such as rotation, three-dimensional affine transformation, expansion, reduction, color information deterioration, provision of white noise, simulation of projection by various lighting conditions, are mentioned as an example, for example. Can be.
또한, 등록을 희망하는 화상과 유사한 화상이 상기 TP 데이터 관리 DB(28) 내에 존재한 경우의 처리로서는, 상기한 바와 같이 등록을 거부하는 처리에 한하지 않는다. 즉, 예를 들면 유저에 대하여, 등록을 희망하는 화상과 유사한 화상이 상기 TP 데이터 관리 DB(28) 내에 존재한다는 취지를 통지하고, 등록할지의 여부의 선택을 유저 자신에게 행하게 하여도 물론 된다. 또한, 이러한 처리는, 서로 유사한 화상에 대하여 동일한 정보를 부여할 때에서의 유효한 처리 중 하나이다.The processing in the case where an image similar to the image desired to be registered exists in the TP
또한, 상기한 바와 같은 등록을 거부하는 처리와 유저에 의한 등록의 선택 처리를, 개개의 상황에 맞추어 선택적으로 유저에게 제시하는 것도, 실제의 시스템에서는 효과적이다. 즉, 예를 들면 상기 TP 데이터 관리 DB(28)에는, 등록 권한을 갖는 복수의 어카운트가 존재하는 것으로 한다. 이 때, 일반적으로는, 유저는, 자신 이외의 어카운트에 관련되는 정보를 볼 수는 없다. 이러한 시스템에서, 예를 들면 어카운트 A가 화상 C를 상기 TP 데이터 관리 DB에 등록하자고 할 때, 그 화상 C는 어카운트 B가 이미 상기 TP 데이터 관리 DB(28)에 등록한 화상과 유사한 경우를 고려한다. 이러한 경우에는, 상기 매칭 처리부(29)는, 상기 화상 C의 등록을, 상기 TP 데이터 관리 DB(28) 내에 유사한 화상이 발견된 것을 이유로 하여 등록을 거부하는 것이 합리적이다. 또한, 예를 들면 어카운트 B가, 상기 화상 C를 다시 상기 TP 데이터 관리 DB(28)에 등록하고자 하는 경우를 고려한다. 이러한 경우에는, 상기 매칭 처리부(29)는, 어카운트 B가 이미 등록한 화상 C의 정보를 표시하고, "이 화상과 유사합니다만, 등록할까요?"라고 한 등록할지의 여부의 판단을 유저에게 맡기는 처리를 행하는 것이 합리적이다. 이와 같이, 상황에 따라서 가장 합리적인 처리를 행하여, 해당 시스템의 유저가 오인식의 리스크를 회피할 수 있도록 하는 것은 실제의 서비스 상 중요하다.It is also effective in the actual system to selectively present the above-described processing for rejecting the registration and the selection processing of the registration by the user in accordance with individual situations. That is, for example, suppose that a plurality of accounts having registration authority exist in the TP
또한, 이러한 매칭 시스템에서, 상기 대상 화상(41)으로서 이용하는 화상은, 도 10에 도시하는 상기 대상 화상(41)과 같은 명확한 4각형의 틀에서 영역 분할된 것에 한하지 않는다. 상기 대상 화상(41)으로서는, 예를 들면 도 11 내지 도 14에 도시하는 바와 같은 구성의 대상 화상(41)으로 하여도 물론 된다. 즉, 원이나 곡선 등으로 이루어지는 임의의 형상의 틀을 갖는 대상 화상(41A)(도 11 및 도 12 참조), 틀 자체를 포함하지 않는 대상 화상(41B 및 41C)(각각 도 13 및 도 14 참조), 특정한 의장의 근방에 특정한 심벌 마크 등을 배치하는 대상 화상(41C)(도 14 참조) 등, 다양한 화상을 대상 화상으로 하여 이용할 수 있다.In addition, in such a matching system, the image used as the said
여기에서, 대상 화상으로서, 명확한 틀에 의해 인식이나 등록이 대상으로 되는 영역이 제한되어 있지 않은 대상 화상(41B 및 41C)과 같은 화상을 이용하는 경우에는, 이하와 같은 매칭을 행한다. 우선, 입력 화상 중에서 복수의 특징점을 추출한다. 그리고, 그들 특징점군을, 미리 대상물마다 상기 TP 데이터 관리 DB(28)에 등록된 특징점군과 비교 대조한다. 이 비교 대조에 의해, 동일한 대상 화상인지의 여부의 매칭을 행한다.Here, when using the same image as the
또한, 실제의 매칭 시에서는, 상기 특징점끼리의 특징량의 차이에 기초하여, 유사한 정도를 나타내는 값이 미리 설정한 임계값을 초과한 값인 경우에, 상기 매칭 처리부(29)는, 그 특징점끼리는 유사 특징점이라고 판단한다. 예를 들면, 상기 TP 데이터 관리 DB(28)에 등록된 대상물 중 소정수의 특징점이 상기 입력 화상의 대상물의 특징점과 유사하다고 판단된 대상물이, 입력 화상의 대상물과 동일하다고, 상기 매칭 처리부(29)에 의해 판단된다.In actual matching, when the value indicating similarity is a value exceeding a preset threshold value based on the difference in feature amounts between the feature points, the matching
여기에서, 상기 특징점이란, 임의의 화상 내에서 다른 화소와의 특징량에서의 차이가 일정 레벨 이상인 점을 가리킨다. 예를 들면, 상기 차이로서는, 명암의 콘트라스트, 색, 주위의 화소의 분포, 미분 성분값, 또는 특징점끼리의 배치 등의 차이를 예로 들 수 있다. 또한, 이러한 특징점군의 비교 대조에 의한 매칭을 이용하는 경우에는, 미리 대상물마다 상기 특징점을 추출하고, 대상물마다 상기 TP 데이터 관리 DB(28)에 등록해 둔다.Here, the feature point refers to a point where the difference in feature amount with other pixels in a given image is equal to or higher than a predetermined level. For example, as said difference, difference, such as contrast of a contrast, a color, distribution of surrounding pixels, differential component value, or arrangement | positioning of feature points, is mentioned. In addition, in the case of using matching by comparison of the feature point group, the feature point is extracted for each object in advance, and registered in the TP
상기한 바와 같이 특징점에 기초하는 매칭을 행하는 경우, 입력 화상과 유사한 화상이, 상기 TP 데이터 관리 DB(28)에 등록된 화상군 중에서 발견된 경우에, "등록의 거부", 또는 "유사를 승낙한 후에 등록"이라고 하는 선택지 이외에, "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록함"이라고 하는 선택지도 고려된다. 이 "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록함"이라고 하는 선택지에 의하면, 등록할 수 없는 화상의 수를 최소로 억제한 후에, 오인식을 회피 가능한 데이터베이스를 구축할 수 있다.When performing matching based on feature points as described above, when an image similar to the input image is found in the group of images registered in the TP
상기의 "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록한다"라고 하는 선택지를 고려한 경우, 예를 들면, 상기 TP 작성부(50)는, 도 15에 도시하는 플로우차트에 따라서, 입력된 등록을 희망하는 대상 화상과, TP 데이터 관리 DB(28)에 등록된 비교 화상을 매칭한다. 또한, 도 15에 도시하는 플로우차트는 설명의 편의상, "등록을 희망하는 대상 화상 및/또는 등록된 화상을 분할하여 등록한다"라는 경우에만 상기 TP 작성부(50)에 의한 동작 제어를 나타내고 있다.In the case where the above-mentioned option of "the target image and / or registered image which are desired to register and / or registered image is divided | segmented" is considered, for example, the said
우선, 유저에 의해 입력된 등록을 희망하는 화상인 입력 화상과, 상기 TP 데 이터 관리 DB(28)에 등록된 화상(이후, 등록 화상이라고 칭함)을 비교한다(스텝 S10). 계속해서, 상기 입력 화상과 상기 등록 화상이 유사한 화상인지의 여부를 판단한다(스텝 S11). 이 스텝 S11을 '아니오'로 분기하는 경우에는, 상기 입력 화상을 상기 TP 데이터 관리 DB(28)에 등록한다(스텝 S12). 또한, 이 스텝 S12에서는, 예를 들면 도 16에 도시하는 바와 같이, 해당 입력 화상을, 상기 TP 데이터 관리 DB(28)에 등록할지의 여부의 선택을 유저에게 맡겨도 물론 된다. 이 경우에는, 유저에 의해 입력 화상을 상기 TP 데이터 관리 DB(28)에 등록한다라는 선택이 행해진 경우에만 등록한다.First, an input image which is an image desired to be registered input by the user and an image registered in the TP data management DB 28 (hereinafter referred to as a registration image) are compared (step S10). Subsequently, it is determined whether the input image and the registered image are similar images (step S11). When the step S11 branches to NO, the input image is registered in the TP data management DB 28 (step S12). In addition, in this step S12, as shown, for example in FIG. 16, you may let a user decide whether to register the said input image in the said TP data management DB28. In this case, registration is performed only when the user selects that the input image is registered in the TP
그런데, 상기 스텝 S11을 '예'로 분기하는 경우에는, 상기 입력 화상에서의 상기 등록 화상과 유사한 부분을 판정하고, 그 유사한 부분을 분할 및 삭제한다(스텝 S13). 환언하면, 이 스텝 S13은, 상기 입력 화상에서의 상기 등록 화상과 유사한 부분을 삭제한 화상을 작성하는 스텝이다.By the way, when branching said step S11 to YES, the part similar to the said registration image in the said input image is determined, and the similar part is divided and deleted (step S13). In other words, this step S13 is a step of creating an image in which a portion similar to the registered image in the input image is deleted.
그리고, 상기 스텝 S13의 처리를 끝낸 후에는, 상기 스텝 S10으로 되돌아간다. 이와 같이 하여, 상기 스텝 S10, 상기 스텝 S11, 및 상기 스텝 S13의 일련의 처리를 반복해 행함으로써, 상기 입력 화상으로부터, 상기 등록 화상과 유사한 부분을 모두 분할 및 삭제한 화상을 작성한다.After completion of the step S13, the process returns to the step S10. In this way, the series of processes of the step S10, the step S11, and the step S13 are repeatedly performed to create an image obtained by dividing and deleting all portions similar to the registered image from the input image.
또한, 분할 및 삭제에 의해 작성한 화상을 유저에게 제시할 때에, 도 16에 도시하는 바와 같은 제시 방법이 고려된다. 즉, 입력 화상과, 그 입력 화상과 유사하다고 판단한 등록 화상과의 양 화상을 제시하고, 또한 양 화상에서의 유사 판단에 사용한 부분을 명시하는 제시 방법이다. 이와 같이 도시하는 것은, 등록의 효율을 높이는 데에 있어서 효과적이다. 또한, 예를 들면 도 17 및 도 18에 도시하는 바와 같이, 입력 화상과 유사하다고 판단한 등록 화상을, 리스트 형식으로 하여 표시 함으로써, 유저에게 제시하여도 물론 된다.In addition, when presenting an image created by division and deletion to a user, a presentation method as shown in FIG. 16 is considered. That is, it is a presentation method which presents both images of an input image and the registration image judged to be similar to the input image, and specifies the part used for similar determination in both images. This illustration is effective in increasing the efficiency of registration. 17 and 18, the registration image determined to be similar to the input image may be presented to the user by displaying it in a list format.
즉, 도 17 및 도 18에 도시하는 바와 같이, 표시 화면을, 입력 화상 표시 에리어(251), 리스트 표시 에리어(253), 선택 화상 표시 에리어(255)로 3분할한다. 상기 리스트 표시 에리어(253)에서 해칭하여 나타내는 바와 같이 등록 화상을 선택하면, 상기 선택 화상 표시 에리어(255)에 그 선택 화상이 표시된다. 또한, 상기 입력 화상 표시 에리어(251)에 표시하는 입력 화상에서는, 등록 화상과의 식별 표시(도 17 및 도 18에서의 해칭 부분)가 이루어진다.That is, as shown in FIG. 17 and FIG. 18, the display screen is divided into three into an input
그런데, 등록을 희망하는 입력 화상과 유사한 등록 화상이, 상기 TP 데이터 관리 DB(28) 내에 복수 존재하는 경우에는, 예를 들면 도 19에 도시하는 바와 같이, 그 유사한 부분을 순차적으로 분할 및 삭제해 가서, 최종적으로 남은 부분을 신규등록하는 입력 화상으로 하게 된다.By the way, when a plurality of registration images similar to the input image to be registered exist in the TP
이상, 등록을 희망하는 입력 화상을, 분할 및 삭제해 가는 처리를 설명했다. 그러나, 반드시 상기 입력 화상만을 분할 및 삭제할 필요는 없다. 즉, 상기 등록 화상을 분할 및 삭제하는 처리를 하여도 물론 된다. 나아가서는, 예를 들면 도 20에 도시하는 바와 같이, 쌍방을 분할하여, 이하와 같이 하여 각각의 화상을 등록하여도 된다. 우선, 입력 화상(300A)에 포함되어 있는 "ABCDEFGH"라고 하는 로고가, 등록 화상(301A)에 포함되어 있는 "ABC"라고 하는 로고와 유사하기 때문에, 입력 화상(300A)에서의 "ABC"를 분할 및 삭제하여 입력 화상(300B)으로 한다. 그 후, 입력 화상(300B)에서의 "DEFGH"라고 하는 로고가, 등록 화상(301B)에 포함되어 있는 "GHIJ"와 유사하기 때문에, 등록 화상(301B)을, "GH"만으로 이루어지는 화상(301B1)과 "IJ"만으로 이루어지는 화상(301B2)으로 분할한다. 그리고, 상기 "GH"만으로 이루어지는 화상(301B), 및 상기 "IJ"만으로 이루어지는 화상(301B2)의 양 화상을, 상기 TP 데이터 관리 DB(28)에 재등록한다. 또한, 상기 입력 화상(300B)은, 상기 분할 후, 화상(300C)으로서 상기 TP 데이터 관리 DB(28)에 등록한다.In the above, the process which divides and deletes the input image which wants to register was demonstrated. However, it is not necessarily necessary to divide and delete only the input image. That is, of course, the process of dividing and deleting the said registration image may be performed. Furthermore, as shown in FIG. 20, you may divide | segment both and register each image as follows. First, since the logo called "ABCDEFGH" included in the
상기한 바와 같이 화상을 분할하여 등록하는 방법에 따르면, 예를 들면 이하에 기재하는 바와 같은 실제의 서비스 상에서 매우 유익한 실시예가 실현된다.According to the method of dividing and registering an image as described above, for example, a very advantageous embodiment is realized on an actual service as described below.
예를 들면, 동일 메이커에 의한 상품 또는 동일 브랜드의 상품에서는, 일반적으로는, 해당 상품의 패키지에, 해당 메이커에 의한 상품 또는 해당 브랜드의 상품에 특유의 브랜드 로고와, 해당 상품 독자적인 상품 명칭 또는 아이콘 등(이후, 상품명칭 또는 아이콘 등을 총칭하여 상품명칭이라고 칭함)이 인쇄된다. 이러한 경우에, 본 실시예에 따르면, 상기 브랜드 로고와 상기 상품 명칭을, 분할하여 상기 TP 데이터 관리 DB(28)에 등록한다. 이에 의해, 이하와 같은 효과가 생긴다.For example, in a product by the same maker or a product of the same brand, generally a brand logo peculiar to a product by the maker or a product of the brand in the package of the product concerned and the product original product name or icon Etc. (hereinafter, generic names, icons, etc. are collectively referred to as trade names) are printed. In this case, according to this embodiment, the brand logo and the product name are divided and registered in the TP
예를 들면 브랜드 로고와 A라고 하는 상품 명칭이 기술되어 있는 화상이, 이미 "상품 A"로서 상기 TP 데이터 관리 DB(28)에 등록되어 있는 경우에도, 해당 브랜드 로고와 동일한 브랜드 로고와 상기 A 이외의 상품 명칭이 기술되어 있는 화상이, 상기 "상품 A"와 유사한 화상이라고 해서 등록 거부가 되지 않는다. 즉, 본 실시예에 따르면, 등록 화상인 "상품 A"를, 상기 브랜드 로고와 상기 상품 명칭 A 로 분할한다. 그리고, 상기 브랜드 로고와, 상기 상품 명칭 A를, 각각 독립적으로 재등록한다. 구체적으로는, 상기 브랜드 로고가 기술되어 있는 화상은, "브랜드 로고"로서 등록하고, 상품 명칭 A가 기술되어 있는 화상은, "상품 A의 명칭"으로서 등록한다.For example, even when the image in which the brand logo and the product name "A" are described is already registered in the TP
또한, 본 제6 실시예에서는, "조합 정보"라고 하는 개념을 도입한다. 이 조합 정보는, 이하와 같은 정보이다. 예를 들면, "브랜드 로고"과 "상품 A의 명칭"과의 조합을 "상품 A"로서 등록하는 경우를 고려한다. 이 경우에, "브랜드 로고"와 "상품 A의 명칭"과의 조합이 "상품 A"인 것을 나타내는 정보가, "조합 정보"이다. 또한, 조합 정보는, 이 경우에서 말하면, "브랜드 로고"를 나타내는 화상 및 "상품 A의 명칭"을 나타내는 화상을, 상기 TP 데이터 관리 DB(28)에 등록할 때에, 동시에 상기 TP 데이터 관리 DB(28)에 등록한다.In the sixth embodiment, the concept of "combination information" is introduced. This combination information is the following information. For example, consider a case where a combination of "brand logo" and "name of product A" is registered as "product A". In this case, the information indicating that the combination of "brand logo" and "name of goods A" is "goods A" is "combination information". In addition, in this case, when the combination information registers the image which shows the "brand logo" and the image which shows "the name of the goods A" in the said TP
또한, 등록을 희망하는 입력 화상 및/또는 등록 화상을 분할했을 때, 그 분할로 생긴 화상을 반드시 등록할 필요는 없다. 예를 들면, 중고차나 상품이 찍힌 사진에서는, 각각의 사진이 서로 유사한 배경을 갖고 있는 것이 많다. 여기에서, 예를 들면 차 A가 배경이 있는 그대로의 화상이며, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 경우를 고려한다. 이러한 경우, 상기 차 A가 찍혀 있는 사진과 유사한 배경을 갖는 차 B가 찍혀 있는 사진을, 상기 TP 데이터 관리 DB(28)에 등록하고자 하는 경우, 본 제6 실시예에 따르면, 해당 배경을 분할하여 추출할 수 있다. 이러한 경우, 유저가 특히 등록의 필요성을 느끼지 않는 경우에는, 해당 배경 부분을 등록하는 대상으로부터 벗어나는 것이 가능하도록 하여도 물론 된다. 이와 같 이 함으로써, 유저 즉 정보 제공자가, 매칭시키고자 하는 부분만을 효율적으로, 상기 TP 데이터 관리 DB(28)에 등록할 수 있다. 따라서, 입력 화상과 등록 화상과의 해당 배경 부분에서의 유사성에 기인하는 오인식이 발생하는 것을 회피할 수 있다.In addition, when dividing an input image and / or a registered image to be registered, it is not necessary to register an image resulting from the division. For example, in a photograph of a used car or a product, each photograph has a similar background. Here, for example, consider a case where the car A is an image as it is with the background and is registered in the TP
또한, "화상이 표현하는 정보"에 관해서도, 상기한 바와 같이 분할된 화상의 조합에 대응시켜서 관리하여도 물론 된다. 여기에서, 화상이 표현하는 정보로서는, 예를 들면, 화상이 대응하는 URL, 어플리케이션 내부의 리소스 ID, 음악 정보, 지도 상의 위치 정보 등을 예로 들 수 있다. 예를 들면, 도 20에 도시하는 예에서, "GHIJ"를 포함하는 화상(301B)은, 전술한 바와 같이 "GH"를 포함하는 화상(301B1)과 "IJ"를 포함하는 화상(301B2)으로 분할되어 등록되게 되지만, 화상이 표현하는 정보에 관해서는, "GH"를 포함하는 화상(301B1)과 "IJ"를 포함하는 화상(301B2)과의 집합에 대하여 부여한다고 하여도 물론 된다. 마찬가지로, 도 20에 도시하는 예에서, "ABC"와 "GH"과 "DEF"를 모두 포함하는 화상(300A)에 대하여 화상이 표현하는 정보를 부여하여도 물론 된다.The "information represented by the image" may also be managed in correspondence with the combination of the divided images as described above. Here, the information represented by the image may include, for example, a URL to which the image corresponds, a resource ID inside the application, music information, location information on a map, and the like. For example, in the example shown in FIG. 20, the
즉, 화상이 표현하는 정보를, 소정의 로고를 포함하는 화상의 논리합으로서 관리하고, 소정의 논리 조건을 충족시키는 화상에만, 화상이 표현하는 정보를 부여한다. 이러한 연구에 의해, 예를 들면 입력 화상의 분할의 결과, 그 입력 화상 중에 등록 화상과 비유사한 부분이 존재하지 않았던 경우에도, 소정의 등록 화상의 집합으로서, 화상이 표현하는 정보를 부여한 후에 상기 TP 데이터 관리 DB(28)에 등록하는 것도 가능하다.That is, the information represented by the image is managed as the logical sum of the images including the predetermined logo, and the information expressed by the image is given only to the image satisfying the predetermined logical condition. According to this study, for example, even when a portion similar to the registered image does not exist in the input image as a result of the division of the input image, the TP is provided after providing information represented by the image as a set of predetermined registered images. It is also possible to register in the
또한, 논리합에 한하지 않고, 보다 복잡한 논리식을 이용하는 것도 물론 가 능하다. 예를 들면, 도 20에 도시하는 입력 화상(300) 중에서 "GH"를 필수 요소(임의의 화상에 대하여, 화상이 표현하는 정보를 부여하기 위한 논리합에서의 요소)라고 한다. 그렇게 하면, 이를 관리하는 논리식으로서, "GH" AND ("ABC" OR "DEF")와 같은 기술이 가능하다. 이와 같이, 분할한 화상을 단위로 하여, 자유로운 논리식에 의해, 화상이 표현하는 정보의 관리를 행할 수 있다.It is also possible, of course, to use not only logical sums, but also more complex logical expressions. For example, "GH" in the input image 300 shown in FIG. 20 is called an essential element (element in logical sum for giving the information which an image represents with respect to an arbitrary image). By doing so, a technique such as "GH" AND ("ABC" OR "DEF") is possible as a logical expression for managing this. In this way, the information expressed by the image can be managed by a free logical expression on the basis of the divided image.
예를 들면, 필수 요소를, 촬영 대상인 대상 화상을 지시하는 심볼로서 이용함으로써, 유저에 대하여 해당 화상이 대상 화상인 것을 명시할 수 있으며, 또한 안정적인 매칭을 실현할 수 있다. 또한, 필수 요소의 주변의 영역의 특징점의 중요도를, 그 밖의 특징점보다도 높은 중요도로 되도록 가중치 부여하고, 매칭 처리에서, 이 가중치 부여를 가미하여 유사도를 판단하여도 물론 된다. 이와 같이 함으로써, 보다 안정적 또한 효율적인 매칭 처리를 실현할 수 있다.For example, by using an essential element as a symbol indicating a target image to be photographed, it is possible to specify that the image is a target image to the user, and stable matching can be realized. In addition, the importance of the feature points of the area around the essential elements may be weighted to be higher than the other feature points, and in the matching process, similarity may be determined by adding the weighting. By doing in this way, a more stable and efficient matching process can be realized.
또한, 논리식으로서 NOT의 논리식을 이용하여도 물론 된다. 예를 들면, 로고 A가 등록 화상인 경우에, 로고 B를 새롭게 등록하는 사람은, 등록 화상인 로고 A와 자신이 등록하는 로고 B를, NOT의 관계로 기술함으로써, 매칭 시에서 로고 A와 로고 B가 동시에 인식되지 않도록 할 수 있다. 이와 같이 NOT의 논리식을 이용하는 것은, 로고 A와 로고 B가 각각 서로 경합 관계에 있는 회사 등에 의해 사용되고 있는 경우 등에 유효하다. 또한, 미리 시스템에 이와 같은 경합 관계 정보를 등록해 놓고, 로고의 등록 시에, 상기 경합 관계 정보에 기초하여, 시스템이 자동적으로 소정의 로고와 경합 관계에 있는 회사 등이 사용하는 로고를 NOT의 관계로 기술하여 등록하도록 하여도 물론 된다. 여기에서, 상기 경합 관계 정보, 임의의 분야 에서의 경합 관계에 있는 회사 등이 사용하는 각종 의장의 데이터베이스이다.It is of course also possible to use a NOT expression as a logical expression. For example, when logo A is a registered image, a person who newly registers logo B describes the logo A, which is a registered image, and the logo B that he or she registers in a NOT relation, so that logo A and the logo are matched at the time of matching. You can prevent B from being recognized at the same time. Using the logical expression of NOT in this way is effective when the logo A and the logo B are each used by a company or the like that compete with each other. In addition, such contention relationship information is registered in the system in advance, and upon registration of the logo, the system automatically uses a logo that is used by a company or the like that has a contention relationship with a predetermined logo based on the contention relationship information. Of course, it may be described as a relationship and registered. Here, it is a database of various designs used by the competitive relationship information, a company in a competitive relationship in any field, and the like.
또한, 이와 같이 논리합을 이용하는 경우에는, 도 20에 도시하는 예에서의 입력 화상(300A) 중의 "DEF"와 같이, 입력 화상 중에 등록 화상에 없는 부분이 포함되어 있으면, 매칭 시의 판단이 용이해진다.In the case where the logical sum is used in this manner, when a portion not included in the registered image is included in the
이상 설명한 바와 같은 다양한 논리식에 의한 화상끼리의 관계는, 화상의 분할 과정에서 기술하여 구축하는 것이 가능한 것은 물론이다. 또한, 매칭은, 본 제6 실시예에서는, 상기 서버(20)가, 휴대 단말기(23) 상의 어플리케이션(25)과 제휴하여 행하는 구성으로 되어 있지만, 그 어플리케이션(25)에는 소위 전자 메일이 포함되는 것은 물론이다. 즉, 유저가 입력 화상을 첨부하여 서버에 전자 메일로 송신함으로써, 매칭을 행하는 것도 물론 가능하다. 이 경우, 매칭의 처리 결과는 전자 메일로 유저에게 배신된다.It goes without saying that the relationship between the images by various logical expressions as described above can be described and constructed in the image division process. In the sixth embodiment, matching is performed by the
또한, 등록을 희망하는 입력 화상과 유사한 등록 화상이 발견된 경우에 취할 수 있는 처리는, 전술한 바와 같은 입력 화상 및/또는 등록 화상을 분할하는 처리에 한하지 않는다. 즉, 이하와 같은 처리도 고려된다.In addition, the process which can be taken when the registration image similar to the input image which wants to register is found is not limited to the process which divides the above-mentioned input image and / or registration image. That is, the following processing is also considered.
예를 들면, 도 21A에 도시하는 바와 같이, 입력 화상과 등록 화상이 유사하다고 판단한 경우, 그 유사한 부분을 서로 겹치게 함으로써, 입력 화상과 등록 화상을 합성하는 처리도 고려된다. 또한, 도 21B에 도시하는 바와 같이, "B"의 일부와 "C"의 일부를 포함하는 화상(402)을 입력 화상으로 하여 매칭을 행하는 경우를 고려한다. 여기에서, 상기 매칭 전에, "A"와 "B"를 포함하는 입력 화상(400)과, "A"와 "C"를 포함하는 입력 화상을 포함하는 등록 화상(401)이 합성 처리되어 있고 또한 이들 합성 화상이, 상기 TP 데이터 관리 DB(28)에 등록되어 있으면, 그 매칭을 보다 정확하게 행할 수 있다. 즉, 이러한 연구에 의해, 유저에 대하여 정확도가 높은 매칭 결과를 회신할 수 있다.For example, as shown in FIG. 21A, when it is determined that the input image and the registered image are similar, a process of synthesizing the input image and the registered image is also considered by overlapping the similar portions. In addition, as shown in FIG. 21B, the case where matching is performed using the
또한, 입력 화상 및 /또는 등록 화상을 분할할 때에, 그 분할에 의해 생기는 각각의 화상 요소에 대하여, 분류 요소 또는 개별 요소 등이라고 한 의미 부여를 행함으로써, 해당 시스템을, 계층적인 화상 인식을 행하는 시스템으로서 운용하는 것도 가능하다. 또한, 분할에 관한 여러 가지 정보를 보유한 상기 TP 데이터 관리 DB(28)는, 각각의 분할에 의해 생긴 화상 요소를 단위로 한, 상기한 바와 같은 논리식에 의한 매칭 시에서의 판단 시에 효과적으로 이용할 수 있다.When dividing an input image and / or a registered image, each image element generated by the division is given a meaning such as a classification element or an individual element to perform hierarchical image recognition of the system. It is also possible to operate as a system. In addition, the TP
[제7 실시예][Example 7]
이하, 매칭 처리에 이용하는 템플릿 화상을 작성하는 TP 작성부에서 작성하는 템플릿으로서 동화상을 상정한 경우의 실시예를 설명한다.An embodiment in the case where a moving picture is assumed as a template to be created by a TP creating unit that creates a template image used for matching processing will be described below.
동화상은, 예를 들면 30매/초의 연속하는 정지 화상에 의해 구성되어 있다. 따라서, 상기 TP 작성부에서 작성한 템플릿을 기록하는 수단인 TP 데이터 관리 DB에, TP로서 동화상을 등록하는 경우, 그 동화상은 정지 화상의 연속한 것으로서 취급한다. 그러나, 동화상을 구성하는 정지 화상 중 모든 코마의 정지 화상을 등록할 필요는 없다. 즉, 일단 임의의 코마의 정지 화상을 상기 TP 데이터 관리 DB에 등록한 후에는, 그에 계속되는 코마의 정지 화상이, 이하에 기재하는 바와 같은 일정한 기준을 충족할 때에만, 그 코마의 정지 화상을 상기 TP 데이터 관리 DB에 다시 추가 등록하면 된다.The moving image is composed of, for example, a continuous still image of 30 sheets / second. Therefore, when a moving picture is registered as a TP in the TP data management DB, which is a means for recording a template created by the TP creating unit, the moving picture is treated as a continuous image of a still picture. However, it is not necessary to register still images of all commas among still images constituting a moving image. In other words, once the still image of any coma is registered in the TP data management DB, the still image of the coma is only displayed when the still image of the coma succeeds meets a predetermined criterion as described below. Add it again to the data management DB.
첫째, 상기 일정한 기준으로서, 상기 유사도를 이용하는 것이 고려된다. 이 경우, 일단 상기 TP 데이터 관리 DB에 등록한 코마의 정지 화상과, 그에 계속되는 코마의 정지 화상과의 유사도를 평가하고, 그 유사도가 소정값 이하로 되었을 때에만, 그 코마의 정지 화상을 상기 TP 데이터 관리 DB에 다시 추가 등록하면 된다. 그리고, 상기 유사도의 상기 소정값으로서, 예를 들면 유사도 75% 이하로서 설정하여도 된다.First, using the similarity as the constant criterion is considered. In this case, the similarity between the still image of the coma registered in the TP data management DB and the still image of the coma subsequent thereto is evaluated, and only when the similarity is equal to or less than a predetermined value, the still image of the coma is stored in the TP data. You can add it again to the management DB. As the predetermined value of the similarity, the similarity may be set to 75% or less, for example.
둘째, 상기 일정한 기준으로서, 상기 특징점의 수를 이용하는 것이 고려된다. 즉, 등록한 정지 화상 내에서 발견되고 있는 특징점의 수가, 그 등록한 정지 화상에 계속되는 정지 화상 내에서, 임의의 임계값 이하로까지 감소하면 추가 등록하는 방법이다.Second, it is considered to use the number of the feature points as the constant criterion. That is, if the number of feature points found in the registered still picture decreases to less than an arbitrary threshold value in the still picture following the registered still picture, it is a method of additional registration.
셋째, 상기 일정한 기준으로서, 상기 특징점의 이동 거리를 이용하는 것이 고려된다. 즉, 등록한 정지 화상 내에서 발견되고 있는 특징점을, 그 후에 계속되는 정지 화상 내에서 추적해가서, 그 특징점의 이동 거리가 임계값 이상으로 되면, 추가 등록하면 된다.Third, it is considered to use the moving distance of the feature point as the constant reference. That is, if the feature point found in the registered still image is traced in the still image subsequent to it, and the moving distance of the feature point becomes more than a threshold value, what is necessary is just to register further.
이상과 같은 방법에 의해, 120매의 정지 화상에 의해 구성된 동화상이어도, 실제로는 6매만을 등록하는 것만으로, 그 동화상 내에서의 임의의 위치의 원 씬을 안정적으로 매칭할 수 있는 것을, 본원 발명의 발명자는 확인하였다.According to the above method, even if the moving image is composed of 120 still images, only six images are actually registered, so that the original scene at any position within the moving image can be stably matched. The inventor confirmed.
또한, 동화상으로서 등록하는 정지 화상은, 각각의 정지 화상을 독립적으로 취급할뿐만 아니라, 그 동화상 내에서의 각각의 정지 화상의 순서 정보도 포함시켜서 상기 TP 데이터 관리 DB에 등록하면 된다. 이와 같이 하여, 또한 상기 순서 정 보를 매칭에서도 이용함으로써, 보다 안정적인 매칭이 실현되어, 오인식을 회피할 수 있다.A still image registered as a moving image may not only handle each still image independently but also include the sequence information of each still image in the moving image and register it in the TP data management DB. In this way, by using the order information also in matching, more stable matching is realized, and misrecognition can be avoided.
이하, 도 22에 도시하는 대상물 인식 시스템의 일 구성예를 참조하여, 구체적으로 설명한다. 카메라 부착 휴대 단말기(23)와 서버에서의 TP 데이터 관리 DB(28)가, 예를 들면 영상 전화의 회선으로 접속되어 있는 경우에는, 상기 카메라 부착 휴대 단말기(23)에서의 화상 입력부(도시하지 않음)로부터, 연속적으로 정지 화상이 서버에서의 상기 TP 데이터 관리 DB(28)에 송신된다. 서버에서의 매칭 처리부(도시하지 않음)가, 상기의 연속적으로 송신되는 정지 화상 내에서 정지 화상 B를 인식한 단계에서는, 아직 해당 동화상에 대응하는 등록 동화상(TP 데이터 관리 DB(28)에 등록된 동화상)을 확정할 수 없지만, 그 후에 인식한 화상이 E, G이기 때문에, 동화상(400)인 것을 확정할 수 있다.Hereinafter, with reference to one structural example of the object recognition system shown in FIG. 22, it demonstrates concretely. When the
또한, 동화상을 인식시키는 구성으로서는, 영상 전화와 같이 연속적으로 화상을 송신할 수 있는 방식에 한정되는 것은 아니고, 예를 들면, 카메라 부착 휴대 단말기(23)에서 동화상을 촬영하고, 이를 어플리케이션으로부터 서버(27)에 송신하여도 된다. 상기 어플리케이션은, 소위 전자 메일이어도 물론 된다. 이 경우에는, 유저가, 동화상을 첨부한 메일을, 특정한 메일 어드레스에 송신함으로써, 매칭에 요하는 데이터의 송신을 행한다. 그리고, 상기 매칭에서의 처리 결과는, 메일로 유저에게 배신된다. 또한, 상기 제6 실시예에서 설명한 화상을 분할하여 등록하는 방법은, 동화상의 경우에도 적용 가능한 것은 물론이다.In addition, the configuration of recognizing a moving image is not limited to a method that can continuously transmit an image like a video telephone. For example, the mobile terminal with a
[제8 실시예][Example 8]
그런데, 특징점을 이용한 화상 인식, 예를 들면 매칭 처리에서는, 화상으로부터 추출하는 특징점의 수가 많으면 많을수록, 화상의 인식을 하기 쉬워진다. 그러나, 특징점의 수가 많으면 많을수록, 매칭 처리에 시간을 요한다. 이 때문에, 매칭 처리에 있어서 유효한 특징점만을 추출하고, 그 특징점만을 등록하는 것은, 효과적인 매칭 처리를 실현한다.By the way, in image recognition using feature points, for example, matching processing, the larger the number of feature points extracted from an image, the easier it is to recognize an image. However, the larger the number of feature points, the more time is required for the matching process. For this reason, extracting only effective feature points and registering only the feature points in the matching process realizes an effective matching process.
일반적으로, 등록을 희망하는 입력 화상에 대하여 여러 가지 화상 처리를 실시함으로써, 특징점을 추출할 수 있다. 이 화상 처리로서는, 화상에 대하여 바림 효과를 주는 처리, 화상의 사이즈를 변경하는 처리를 주는 처리 등을 예로 들 수 있다. 이와 같이 하여 추출한 특징점은, 그 특징량에서, 국소적으로는 다른 화소와의 차이가 확실히 있다. 그러나, 동일 화상 내에, 유사한 특징량을 갖는 점이 복수 존재하게 되는 것을 방지할 수 없다.Generally, a feature point can be extracted by performing various image processing with respect to the input image to register. Examples of this image processing include processing that gives a blur effect to the image, processing that changes the size of the image, and the like. The feature points extracted in this way are distinctly different from other pixels locally in the feature amount. However, it cannot be prevented that a plurality of points having similar feature amounts exist in the same image.
여기에서, 화상 Z 내에 유사한 특징량을 갖는 점이 복수 존재하고 있는 경우를 고려한다. 이러한 경우, 화상 Z와, 화상 Z를 촬영한 화상과의 매칭에서, 화상 Z로부터 추출한 특징점이, 화상 Z 내의 복수의 점과 유사하다고 판단되게 된다. 이 때문에, 안정적인 매칭을 실현하는 것이 곤란하게 된다. 이와 같이, 동일 화상 내에 포함되는 유사한 특징점은, 안정적인 매칭을 저해하고, 또한 매칭의 처리 속도를 느리게 한다.Here, the case where a plurality of points having similar feature amounts exist in the image Z is considered. In this case, in matching between the image Z and the image picked up the image Z, it is determined that the feature points extracted from the image Z are similar to the plurality of points in the image Z. For this reason, it becomes difficult to implement stable matching. As such, similar feature points included in the same image inhibit stable matching and slow down the processing speed of matching.
또한, 이러한 동일 화상 내에 포함되는 서로 유사한 복수의 특징점은, 완전히 그 특징량이 동일하게 되어 있는 경우를 제외하고, 이들을 용이하게 배제할 수 없다. 이는, 동일 화상 내에서, 유사하다고 판단하기 위한 임계값을, 매칭의 유효 성에 기초하여 설정하는 것은 곤란하기 때문이다.In addition, a plurality of similar feature points included in such a same image cannot be easily excluded except when the feature amounts are completely the same. This is because, in the same image, it is difficult to set threshold values for determining similarity based on the validity of the matching.
이상과 같은 사정을 감안하여, 본 제8 실시예에서는, 등록 시에, 대상 화상에 대하여 촬영의 시뮬레이션을 실시하고, 대상 화상 자신과의 매칭에서 각 특징점의 유효성을 평가한다. 이에 의해, 등록하는 특징점을 선별하고, 최소의 수의 특징점에 의한 안정적인 매칭을 효과적으로 실현한다.In view of the above circumstances, in the eighth embodiment, at the time of registration, simulation of photographing is performed on the target image, and the validity of each feature point is evaluated in matching with the target image itself. This selects the feature points to register and effectively realizes stable matching by the minimum number of feature points.
상기 촬영의 시뮬레이션은, 회전, 확대 축소를 포함하는 2차원 및/또는 3차원의 아핀 변환, 촬영 시의 노이즈 및/또는 바림을 부여하는 처리, 촬영 사이즈에서의 화상 압축의 노이즈를 부여하는 처리, 조명 환경을 반영시키는 레벨의 조작 처리, 콘트라스트의 조작 처리, 감마 곡선의 조작 등의 처리, 색 정보의 열화 조작 처리, 색 덮어씌우기 조작의 처리 등, 일반적인 화상 처리 프로그램으로 실현할 수 있는 각종 처리를 포함한다.Simulation of the photographing may include two-dimensional and / or three-dimensional affine transformation including rotation and enlargement and reduction, a process of imparting noise and / or variation in photographing, a process of imparting noise of image compression in a photographing size, Includes various processes that can be realized by general image processing programs, such as level manipulation processing that reflects the lighting environment, contrast manipulation, gamma curve manipulation, color information deterioration manipulation, and color overlay manipulation. do.
매칭 처리에 이용하는 템플릿을 작성하는 TP 작성부(50)는, 예를 들면, 특징점 추출부, 시뮬레이션 화상군 작성부, 매칭 처리부, 및 특징점 평가부로 구성되어 있다. 이들 각 부의 기능의 상세 내용은, 이하와 같다.The
상기 특징점 추출부에서는, 등록을 희망하는 대상 화상으로부터 특징점을 추출한다.The feature point extracting unit extracts feature points from the target image to be registered.
상기 시뮬레이션 화상군 작성부는, 상기 대상 화상에 상기 시뮬레이션을 실시하고, 적어도 1개의 시뮬레이션 화상을 작성한다. 또한, 상기 시뮬레이션 화상군 작성부는, 이들 시뮬레이션 화상군의 특징점을 추출한다.The said simulation image group creation part performs the said simulation to the said target image, and produces | generates at least 1 simulation image. The simulation image group creating unit extracts feature points of these simulation image groups.
상기 매칭 처리부는, 상기 특징점 추출부에서 추출한 특징점과, 상기 시뮬레 이션 화상군 작성부에서 추출한 특징점을 비교한다. 여기에서, 특징점의 비교에서는, 상기 특징점 추출부에서 추출한 특징점을, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 것으로서 취급하고, 각각의 시뮬레이션 화상으로부터 추출한 특징점에서 매칭을 행하여도 된다. 또한, 상기 시뮬레이션 화상군 작성부에서 추출한 특징점을, 상기 TP 데이터 관리 DB(28)에 등록되어 있는 것으로서 취급하고, 상기 특징점 추출부에서 추출한 특징점에서 매칭을 행하여도 물론 된다.The matching processing unit compares the feature point extracted by the feature point extraction unit with the feature point extracted by the simulation image group creating unit. Here, in the comparison of the feature points, the feature points extracted by the feature point extraction unit may be treated as registered in the TP
상기 특징점 평가부에서는, 상기 매칭 처리부에 의한 매칭의 처리 결과를 참조하여, 상기 특징점 추출부에서 추출한 특징점에 대하여, 실제의 매칭에 기여한 양을 관련짓는다. 그리고, 상기 기여한 양을, 상기 특징점의 질로서 취급하고, 특징점에 순위를 부여한다. 나아가서는, 임의의 임계값 이상의 질을 갖는 특징점 및/또는 상위의 일정수의 특징점만을 선별하고, 그 특징점을, 등록을 희망하는 대상 화상의 특징점이라고 한다.In the feature point evaluator, the amount contributed to the actual match is associated with the feature points extracted by the feature point extractor with reference to the matching processing result by the matching processor. The contribution amount is treated as the quality of the feature point, and the feature point is ranked. Further, only feature points having a quality equal to or greater than an arbitrary threshold value and / or a predetermined number of feature points above are selected, and the feature points are referred to as feature points of the target image to be registered.
상기한 바와 같이, 등록 대상의 특징점을 선별함으로써, 실제의 매칭 처리에 유효한 점을, 우선적으로 등록하는 것이 가능하게 된다. 따라서, 매칭의 처리 시간을 단축하고, 또한 정밀도가 높은 결과를 얻을 수 있다.As described above, by selecting the feature points to be registered, it is possible to preferentially register the points effective for the actual matching process. Therefore, the processing time of matching can be shortened and a result with high precision can be obtained.
[제9 실시예][Example 9]
본 제9 실시예에서는, 입력 화상 중에서 복수의 특징점을 추출하고, 그들 특징점으로부터 이루어지는 특징점군을, 미리 등록해 있는 대상물마다의 특징점군과 비교 대조함으로써, 동일한 대상물의 동정을 행한다.In the ninth embodiment, a plurality of feature points are extracted from the input image, and the same object is identified by comparing and comparing the feature point group formed from those feature points with the feature point group for each object registered in advance.
여기에서 말하는 화상 중의 특징점은, 다른 화소와의 차이가 일정 레벨 이상 있는 것을 가리키며, 그 특징량으로서는, 예를 들면 명암의 콘트라스트, 색, 주위의 화소의 분포, 미분 성분값, 및 특징점끼리의 배치 등을 예로 들 수 있다. 본 제9 실시예에서는, 상기 특징점을 추출한 후, 대상물마다 등록해 둔다. 그리고, 실제의 동정 시에서는, 입력 화상 중을 서치하여 특징점을 추출하고, 미리 등록되어 있는 데이터와의 비교를 행한다.The feature point in the image here indicates that the difference from other pixels is at a certain level or more, and the feature amounts include, for example, contrast of light and dark, color, distribution of surrounding pixels, differential component values, and arrangement of feature points. Etc. can be mentioned. In the ninth embodiment, the feature points are extracted and registered for each object. At the time of actual identification, the feature points are searched out in the input image, and compared with the data registered in advance.
이하, 도 23을 참조하여, 본 제9 실시예에서의 매칭 처리부에서의 동정 처리의 동작 제어의 흐름을 설명한다. 우선, 미리 등록되어 있는 대상물 Z의 인식 요소의 특징점 데이터를, 특징점군이 기록되어 있는 특징점 데이터 기억부로부터 읽어낸다(스텝 S21). 계속해서, 상기 특징점 데이터를, 특징점 데이터의 비교를 행하는 특징점 비교부에 입력한다(스텝 S22). 그리고, 상기 특징점 비교부에서, 상기 특징점 데이터와, 입력된 대상물의 특징점 데이터와의 비교 대조를 행한다(스텝 S23).The flow of operation control of identification processing in the matching processing unit in the ninth embodiment will be described below with reference to FIG. First, the feature point data of the recognition element of the target object Z registered in advance is read out from the feature point data storage unit in which the feature point group is recorded (step S21). Subsequently, the feature point data is input to the feature point comparison unit for comparing the feature point data (step S22). Then, the feature point comparison section compares and compares the feature point data with the input feature point data (step S23).
그 후, 대상물끼리의 동일성을 판단하는 동일성 판단부에서, 상기 대상물 Z와, 입력된 대상물과의 동정을 행한다(스텝 S24). 그리고, 일치하는 특징점의 개수가 소정의 값(여기서는 X개라고 함) 이상인지의 여부를 판단한다(스텝 S25). 이 스텝 S25를 '아니오'로 분기하는 경우에는, 상기 스텝 S23으로 되돌아간다. 한편, 상기 스텝 S25를 '예'로 분기하는 경우에는, 현재 비교 중인 대상물 Z의 인식 요소와, 입력된 대상물이 동일한지의 여부를 판정한다(스텝 S27).Then, in the identity determination part which judges the identity of objects, the identification of the said object Z and the input object is performed (step S24). Then, it is determined whether or not the number of coincident feature points is equal to or greater than a predetermined value (here, referred to as X) (step S25). If this step S25 branches off, it will return to said step S23. On the other hand, when branching said step S25 to YES, it is determined whether the recognition element of the object Z currently compared with the input object is the same (step S27).
그 후, 모든 인식 요소에 대한 비교를 종료하였는지의 여부를 판단한다(스텝 S28). 이 스텝 S28을 '아니오'로 분기하는 경우에는, 다음의 인식 요소의 특징점 군에서의, 특징점 데이터를, 상기 특징점 비교부에 비교 데이터로서 입력하고(스텝 S26), 상기 스텝 S23으로 되돌아간다. 그런데, 상기 스텝 S28을 '예'로 분기하는 경우에는, 일치하는 특징점의 개수가 소정의 값(여기서는 Y개라고 함) 이상인지의 여부를 판단한다(스텝 S29). 여기에서, 이 스텝 S29를 '예'로 분기하는 경우에는, 입력된 대상물과, 대상물 Z는 일치한다고 판정하고, 그 취지를 표시부 등에 표시하여 유저에게 알린다(스텝 S30). 한편, 상기 스텝 S29를 '아니오'로 분기하는 경우에는, 입력된 대상물과, 대상물 Z는 일치하지 않는다고 판정한다(스텝 S31).Thereafter, it is determined whether or not the comparison with respect to all the recognition elements has been completed (step S28). In the case where this step S28 branches to NO, the feature point data in the feature point group of the next recognition element is input as comparison data to the feature point comparison unit (step S26), and the flow returns to the step S23. By the way, in the case where the step S28 branches to YES, it is determined whether the number of matching feature points is equal to or greater than a predetermined value (herein referred to as Y) (step S29). Here, in the case where this step S29 branches to YES, it is determined that the input object and the object Z coincide, and the user is displayed on the display unit or the like to inform the user (step S30). On the other hand, when branching said step S29 to "no", it is determined that the input object and the object Z do not correspond (step S31).
또한, 실제의 동정 시에서는, 유사한 정도를 나타내는 수치(특징점끼리의 각성분의 차이)가, 미리 설정한 임계값을 초과한 경우에, 그 특징점을 유사 특징점이라고 판정한다. 그리고, 또한 복수의 특징점이 일치한 대상물을, 입력 화상의 대상물과 동일하다고 판정한다. 이 때, 입력 화상 중의 특징점군과, 미리 등록되어 있는 특징점군을, 이하와 같이 비교한다.In addition, in the case of actual identification, when the numerical value (the difference of each component between feature points) which shows similar degree exceeds the preset threshold value, it determines with the feature point as a similar feature point. Then, the object to which the plurality of feature points coincide is determined to be the same as the object of the input image. At this time, the feature point group in the input image and the feature point group registered in advance are compared as follows.
첫째, 대상물 내를 복수의 요소로 분할하여 등록해 둔다. 이에 의해, 대상물끼리의 비교 대조 시에, 복수의 요소(예를 들면 3개)를 인식하지 않으면 그 대상물을 인식했다고 하지 않는다라는 판정 로직으로 인식시킨다.First, the object is divided into a plurality of elements and registered. This makes it possible to recognize by the determination logic that the object is not recognized if a plurality of elements (for example, three) are not recognized when comparing the objects.
둘째, 대상물의 인식 시에서, 비슷한 대상물이 화상 내에 찍혀 있는 경우에, 예를 들면, OBJ1(특징점군; A, B, C)을 자사의 로고 마크로 하고 있는 S사와, OBJ2(특징점군; E, F, G)를 자사의 로고 마크로 하고 있는 M사를 상정한다. 여기에서, S사와 M사는 경합하고 있는 회사라고 한다. 이러한 경우에는, 당연히, 양자의 로고 마크의 혼동은 극력 피해야만 한다. 이러한 사정을 감안하여, 본 제9 실 시예에서는, A와 E가 동일 화면 내로부터 동시에 검출된 경우에는, 어느 쪽의 대상물 모두, 인식을 하지 않는다. 즉, 인식 판정을 엄격하게 한다.Second, in the case of recognition of an object, when a similar object is photographed in an image, for example, S company having OBJ1 (feature point group A, B, C) as its logo mark, and OBJ2 (feature point group; E, We assume M company making F, G) its logo mark. Here, S company and M company are said to compete with each other. In this case, of course, confusion of both logo marks should be avoided as much as possible. In view of such circumstances, in the ninth embodiment, when A and E are simultaneously detected from within the same screen, neither of the objects is recognized. That is, the recognition judgment is made strictly.
셋째, 종래는, 인식할 수 있었던 특징점의 수가 몇몇인 경우에도, 인식 결과를 유저에게 전달하는 문장 표현이 동일한 점이다. 이 때문에, 예를 들면 일부의 특징점만 인식할 수 있었던 경우, 즉 입력 화상과 비교 화상과의 일치 정도가 불확정성을 포함하는 일치 정도인 경우에, 그 취지를 유저에게 전달할 수 없다. 한편, 본 제9 실시예에서는, 인식 요소수가 적은 경우에는, 결과의 표시 방법(표현 방법)을 바꾸어, 불확정성을 포함하는 표현으로 한다.Third, conventionally, even when the number of feature points that can be recognized is the same, the sentence expression that delivers the recognition result to the user is the same. For this reason, for example, when only some feature points can be recognized, that is, when the degree of matching between the input image and the comparison image is a degree of matching including uncertainty, the effect cannot be transmitted to the user. On the other hand, in the ninth embodiment, when the number of recognition elements is small, the display method (expression method) of the result is changed to an expression including uncertainty.
상기의 각각의 연구에 의해, 각각 이하의 효과가 얻어진다.By each of the above studies, the following effects are obtained, respectively.
첫째, 대상물의 일부만이 일치함에 따른 오인식을 일으킬 확률을 낮게 억제할 수 있다.First, it is possible to reduce the probability of causing a misunderstanding by matching only a part of the object.
둘째, 대상물의 오인식을 특히 피하고자 하는 경우의 판정 기준을 엄격하게 할 수 있다.Second, the criterion for judging the misrecognition of the object in particular can be strictly enforced.
셋째, 대상물의 동일성 판정의 정확성이 소정의 값보다도 낮은 경우에도, 유저에 대하여 주의를 환기한 후에, 유저에 일치 판정 결과를 알릴 수 있다.Third, even when the accuracy of the identity determination of the object is lower than the predetermined value, after the user has been alerted, the user can be informed of the result of the coincidence determination.
그런데, 대상물 중의 특징점이 분할하여 등록되어 있는 대상물인 OBJ1(특징점군; A, B, C) 및 OBJ2(특징점군;E, F, G)의 경우에는, 이하와 같은 판정 로직에 의한 인식을 행한다.By the way, in the case of OBJ1 (feature point group; A, B, C) and OBJ2 (feature point group; E, F, G) which are the registered targets, the feature points in the object are divided and recognized by the following decision logic. .
첫째, A and B and C가 아니면 OBJ1 인식 성공이라고 하지 않는다.First, it is not called OBJ1 recognition success unless it is A and B and C.
즉, 인식 요소인 A, B, C로 이루어지는 OBJ1의 인식을 하는 경우에, A, B, C 어느 1개 또는 2개의 인식 상태에서는 OBJ1의 인식이 성공한다고 하는 형태로는 하지 않는다.That is, when OBJ1 consisting of A, B, and C, which are recognition elements, is recognized, the recognition of OBJ1 is not successful in one or two recognition states.
또한 이 변형예로서, A, B, C에 평가점으로서의 가중치 부여를 행한다. 예를 들면, 각각 1, 0.5, 0.3으로 가중치 부여한다. 여기에서, 합계 평가점이 1.5를 초과했을 때에 인증한다고 하면, A 및 B가 인식 요소로서 발견된 경우에는 합계 평가점이 1.5로 되므로 OBJ1을 인증한다. 한편, B 및 C가 발견된 경우에는 OBJ1은 인증하지 않는다.In addition, as this modification, A, B, and C are weighted as evaluation points. For example, the weights are 1, 0.5, and 0.3, respectively. Here, if authentication is made when the total evaluation point exceeds 1.5, the total evaluation point becomes 1.5 when A and B are found as recognition elements, so the OBJ1 is authenticated. On the other hand, when B and C are found, OBJ1 does not authenticate.
이들 인식 요소의 평가점에 대해서는, 인식 요소의 특징점과 함께 관리하는 것이 가능하다.The evaluation points of these recognition elements can be managed together with the feature points of the recognition elements.
또한, 논리식으로서, 각 요소의 우선도를 바꾸는 것도 가능하며, A and B and C 이외에도, 예를 들면 A and (B or C)나, A or (B and C)와 같은 조합이 가능하다. 이들의 예는, 인식 성공으로 하기 위해서는, 모두 A가 필수 요소인 예이다.It is also possible to change the priority of each element as a logical expression, and besides A and B and C, for example, a combination such as A and (B or C) or A or (B and C) is possible. These examples are examples in which A is an essential element in order to make recognition successful.
또한, 상기의 평가점 및 논리식의 예는, 조합하여 이용하는 것이 가능하다. 즉, 논리식의 우선도와 각 요소의 가중치 부여를 조합하여 이용할 수 있다.In addition, the said evaluation point and the example of a logical formula can be used in combination. That is, the priority of a logical expression and the weighting of each element can be combined and used.
둘째, E and A가 추출된 경우에는 결코, OBJ1도 OBJ2도 모두 인식했다고 하지 않는다.Second, when E and A are extracted, it is never said that both OBJ1 and OBJ2 are recognized.
예를 들면 OBJ1을 로고로서 이용하고 있는 S사와, OBJ2을 로고로 하고 있는 M사가 경합 관계로서, 양자의 혼동을 극력 피하고자 하는 경우, S사의 로고인 OBJ1과 M사의 로고인 OBJ2가 동일 화면 내에 찍혀 있는 경우에는, 어느쪽의 로고도 인식했다고 하지 않는다. 이 경우에는, 유저에 대하여, 인식할 수 없는 이유는, 대 상 화상이 검출되지 않고 있기 때문은 아니고, (A, B, C) 및 (E, F, G)의 양방으로부터 인식 요소가 검출되어 있기 때문이라고 하는 취지의 표시를 행한다.For example, if S company using OBJ1 as a logo and M company using OBJ2 as a competition are in a competitive relationship and want to avoid the confusion of both, S company's logo OBJ1 and M company's logo OBJ2 are in the same screen. If so, neither logo is recognized. In this case, the reason that the user cannot recognize the object is not that the target image is not detected, but the recognition elements are detected from both (A, B, C) and (E, F, G). It is displayed to the effect that there is.
이와 같이, 본 제9 실시예에서는, 서로 경합 관계에 있는 회사 등의 로고의 동정에 관해서는, 예를 들면 S사의 로고인 OBJ1만이거나 또는 M사의 로고인 OBJ2만이거나, 어느 한쪽만이 화면 내에 임의의 상태로 되었을 때에만, 해당 로고의 인식을 하도록 한다. 구체적으로는, (A, B, C) 중 어느 하나만, 또는 (E, F, G) 중 어느 하나만을, 동일 화면 내에서 검출한 경우에만, OBJ1 또는 OBJ2의 인식을 행한다. 환언하면, (A, B, C) 중 어느 하나와, (E, F, G) 중 어느 하나가 동일 화면 내에서 검출된 경우, OBJ1도 OBJ2도 모두 인식을 하지 않는다.As described above, in the ninth embodiment, regarding identification of logos of companies and the like that compete with each other, for example, only OBJ1, which is the logo of S company, or OBJ2, which is the logo of M company, only one of them is displayed on the screen. Recognize the logo only when it is in an arbitrary state. Specifically, OBJ1 or OBJ2 is recognized only when any one of (A, B, C) or only one of (E, F, G) is detected within the same screen. In other words, when either one of (A, B, C) and one of (E, F, G) are detected in the same screen, neither OBJ1 nor OBJ2 are recognized.
셋째, A and B 등 일부만이 추출된 경우에는 결과의 제시 방법을 바꾼다(불확정성을 포함하는 표현을 준수한다).Third, if only a few, such as A and B, are extracted, change the way the results are presented (observe expressions that include uncertainty).
예를 들면, OBJ1의 인식에 관해서, 인식 요소의 A, B, C의 모두를 인식할 수 있었던 경우에는 『OBJ1이 인증되었습니다』라는 강한 표현으로 인식 결과를 유저에게 제시한다. 또한, 인식 요소의 A 및 B, B 및 C 등, 2개의 인식 요소를 인식할 수 있었던 경우에는, 예를 들면 『OBJ1이라고 생각됩니다』라는 약간 확신을 약하게 한 표현으로, 인식 결과를 유저에게 제시한다. 또한 인식할 수 있었던 인식 요소가 1개이었던 경우에는, 『OBJ1이 인식되었을 가능성이 있습니다』라고 하도록, 불확정성을 포함한 표현으로 인식 결과를 유저에게 제시한다.For example, regarding the recognition of OBJ1, when all of A, B, and C of the recognition element can be recognized, the recognition result is presented to the user with a strong expression "OBJ1 has been authenticated". In addition, when two recognition elements such as A, B, B, and C of the recognition elements can be recognized, the recognition result is presented to the user in a slightly weakened expression, for example, "we think it is OBJ1." do. If there was only one element of recognition that could be recognized, the recognition result is presented to the user in an expression including uncertainty so that "OBJ1 may have been recognized."
또한, 본 제9 실시예의 변형예로서, 전술한 가중치 부여의 평가점을 이용한 경우에, 그 합계 평가점에 기초하는 인식 결과를, 유저에게 제시할 때의 표현 방법 에서의 상기한 바와 같은 연구도 고려된다. 또한, 유저에게 인식 결과를 제시할 때의 상기한 바와 같은 표현 방법의 연구는, 다양한 장면에서 적용 가능한 것은 물론이다. 예를 들면, 원하는 인식 요소 단체의 인식에서도 적용이 가능하다. 또한, 예를 들면 인식 요소 내에서의 일치 특징점의 수, 추출 특징점과 등록된 특징점과의 일치 정도에 의해, 유저에게 인식 결과를 제시할 때의 상기한 바와 같은 표현 방법을 적용할 수 있다.Further, as a modification of the ninth embodiment, when the above-described weighted evaluation points are used, the above-described studies in the expression method when presenting the recognition result based on the total evaluation points to the user are also shown. Is considered. In addition, the study of the expression method as described above when presenting the recognition result to the user is, of course, applicable to various scenes. For example, it is also applicable to the recognition of a desired recognition element group. Further, the expression method as described above when presenting the recognition result to the user can be applied, for example, by the number of matching feature points in the recognition element, and the degree of matching between the extracted feature points and the registered feature points.
또한, 본 제9 실시예를 상기 제6 실시예에 적용하는 경우에는, 상기 TP 작성부(50)는 서버(20) 상에서 동작하고 있어도 물론 된다. 또한, 상기 지면(40)은 표시면을 의미하고, 반드시 종이인 것에 한정되지 않는다. 예를 들면, 금속, 플라스틱 등의 다른 소재이어도 되고, 액정 모니터나 플라즈마 텔레비전 등과 같은 영상 표시 장치이어도 된다. 물론, 그들에 표시되는 정보는, 인간에 있어서의 가시광 영역으로 표시되는 것에 대응하고 있는 것은 당연한 것이다. 그러나, 화상 입력부에 입력 가능한 정보이면, 인간에 있어서 불가시한 정보이어도 물론 된다. 또한, 화상으로서 취득 가능한 것 모두가 대상이므로, 예를 들면, X선 화상이나 서모그래피라고 한 화상이어도 된다.In addition, in the case where the ninth embodiment is applied to the sixth embodiment, the
또한, 도 10에서, 상기 화상 입력부(24)로부터 입력되는 대상 화상을 파악한 화상은, 카메라 부착 휴대 단말기로부터 서버(20)에서의 상기 매칭 처리부(29)에 송신된다. 이 때, 상기 화상 입력부(24)가 취득한 화상을 그대로 화상 데이터로서 송신하는 것은 물론, 화상을 축소하여 송신하여도 물론 된다. 또한, 해당 화상으로부터, 매칭으로 이용하는 특징 데이터를 추출하고, 이를 송신하여도 물론 된다. 나아가서는, 상기 화상과 상기 특징 데이터와의 양방을 송신한다고 하여도 물론 된다. 즉, 해당 화상으로부터 도출하는 것이 가능한 양태의 데이터이면, 어떠한 양태의 데이터를 송신해도 상관없다.10, the image which grasped the target image input from the said
[제10 실시예][Example 10]
본 제10 실시예는, 전술한 제6 내지 제9 실시예에서, 서버가, 입력 화상과 비교 대조하기 위한 등록 화상을 기억하는 화상 기억부를 포함하는 실시예이다.In the sixth to ninth embodiments described above, the server includes an image storage unit that stores a registered image for comparison and comparison with an input image.
상기 비교 대조에 이용하는 데이터로서는, 통상적으로, 미리 또는 화상 입력시에 추출한 특징점군 데이터를 이용한다. 이 때문에, 비교 대조에 이용하는 데이터를 기억하는 기억부에 기억하는 정보도 통상은 특징점군 데이터이다. 그리고, 비교 대조의 작업에서는, 데이터의 유사성 등을 고려하여 동일성의 판정을 행한다. 이러한 경우에는, 비교 대조에 이용하는 데이터 중에 예를 들면 2개의 매우 유사한 화상이 있었던 경우, 입력 화상의 유사도의 판별이 어렵게 되는 케이스가 있다. 그 경우, 비교 대조용의 화상(특징점군을 추출한 원래 데이터; 이후, 원화상이라고 칭함)이 존재하면, 특징량의 추출 기준을 변경함으로써, 보다 정밀도가 높은 비교 대조를 행하거나, 특징점군의 추출 결과에 대하여 유저가 원화상을 사용한 목시확인을 행할 수 있다. 또한, 화상 자체쪽이, 해당 화상으로부터 추출한 특징점군 데이터보다도 용량이 작은 경우가 있다.As the data used for the comparison and verification, the feature point group data extracted in advance or at the time of image input is usually used. For this reason, the information stored in the memory | storage part which stores the data used for comparison collation is also usually characteristic point group data. In the comparison and contrasting operation, the similarity is determined in consideration of the similarity of the data and the like. In such a case, when there are two very similar images in the data used for the comparison collation, there is a case where it is difficult to determine the similarity of the input images. In that case, if there exists an image for comparison and contrast (original data from which a feature point group was extracted; hereafter called an original image), the comparison reference of a feature amount is changed and a comparative precision with high precision is performed, or the feature point group is extracted. The user can visually check the result using the original image. In addition, the image itself may have a smaller capacity than the feature point group data extracted from the image.
상기한 바와 같은 사정을 감안하여, 본 제10 실시예와 같이, 비교 대조에 이용하는 데이터로서 화상을 상정하고, 그 화상에 관한 화상 기억부를 서버에 갖게 하는 것은, 유익하다고 할 수 있다. 또한, 화상의 비교 대조 작업이 발생할 때마 다, 비교 대조에 이용하는 화상으로부터 특징점군을 추출하여도 물론 된다.In view of the above circumstances, as in the tenth embodiment, it is advantageous to assume an image as data to be used for comparison and to have the server store an image storage unit relating to the image. In addition, whenever a comparison collation operation of an image occurs, the feature point group may be extracted from the image used for comparison collation.
[제11 실시예][Example 11]
본 제11 실시예는, 전술한 제6 내지 제9 실시예에서, 서버가, 입력 화상 내의 특징점군에 대한 비교 대조 데이터로서, 특징점군 및 그 특징점군에 대응하는 화상이 기록되어 있는 장소를 나타내는 로케이션 정보를 나타내는 로케이션 기억부를 갖는 실시예이다.In the eleventh embodiment, in the sixth to ninth embodiments described above, the server indicates, as comparative contrast data for the feature point group in the input image, a place where the feature point group and an image corresponding to the feature point group are recorded. An embodiment having a location storage section for indicating location information.
예를 들면, 입력 화상 내의 특징점군과 비교 대조하기 위한 데이터로서, 화상을 기록하기 위한 화상 기록부에, 화상이나 화상으로부터 추출한 특징점군을 기록하는 경우를 고려한다. 이러한 경우, 이들 화상이나 화상으로부터 추출한 특징점군인 비교 대조에 이용하는 데이터의 사이즈가 커서, 시스템으로서 유지하는 것이 득책이 아닌 케이스가 있다. 이러한 경우, 전체의 퍼포먼스의 향상을 감안하면, 화상을 기록하는 화상 기록부를 상기 시스템 내에 갖게 하지 않는 쪽이 고려된다.For example, consider the case where the image or the feature point group extracted from the image is recorded in the image recording section for recording the image as data for comparison and comparison with the feature point group in the input image. In such a case, there is a case in which the size of data used for comparison and comparison, which is a feature point group extracted from these images and images, is large, and it is not advantageous to maintain them as a system. In such a case, considering the improvement of the overall performance, it is considered that the image recording unit for recording the image is not provided in the system.
상기한 바와 같은 사정을 감안하여, 매칭에서의 처리 결과로부터, 동일하다는 판단이 이루어진 화상이 필요해진 경우에, 그 화상을 검색하기 위한 로케이션 정보를 기록하기 위한 로케이션 기억부를, 서버에 갖게 한다. 여기에서, 상기 로케이션 정보는, 예를 들면 상기 시스템과는 다른 시스템 내에 있는 상기 화상에의 링크 정보, 네트워크 상에 있는 상기 화상에의 링크 정보, 네트워크 상에 있는 상기 화상을 추출하기 위한 키워드 등의 검색 정보 등을 예로 들 수 있다. 이러한 로케이션 정보를, 비교 대조용으로 등록된 특징점군과의 관계를 나타내는 로케이션 정보로서, 상기 로케이션 기억부에서 기록 및 관리한다. 본 제11 실시예에서는, 상기한 바와 같은 로케이션 정보 기억부를, 상기 시스템 내에 갖게 한다.In view of the above circumstances, when the image determined to be the same is needed from the processing result of matching, the server has a location storage unit for recording location information for searching for the image. Here, the location information is, for example, link information to the image in a system different from the system, link information to the image on the network, a keyword for extracting the image on the network, and the like. For example, search information. Such location information is recorded and managed in the location storage unit as location information indicating a relationship with a feature point group registered for comparison and verification. In the eleventh embodiment, the above location information storage unit is provided in the system.
[제12 실시예][Twelfth Example]
본 제12 실시예는, 전술한 제6 내지 제11 실시예에서, 입력 화상과 비교 대조하기 위한 특징점군이, 촬영 대상물 중에서의 3차원적 배치 정보를 가미한 것인 것을 특징으로 하는 실시예이다.In the twelfth embodiment, the sixth to eleventh embodiments described above are characterized in that the feature point group for comparison and contrast with the input image adds three-dimensional arrangement information in the photographing object.
즉, 본 제12 실시예에서는, 촬영 대상물 중에서의 3차원적 배치 정보를 도입한다. 여기에서, 상기 3차원적 배치 정보는, 소위 오브젝트 로컬 좌표계 상에서의 각 특징점 좌표값을 말한다. 이하, 도 24 및 도 25를 참조하여, 본 제12 실시예에 따른 대상물 인식 방법을 설명한다. 여기에서, 도 24 및 도 25에서, (1) 내지 (11)을 부여하는 점은, 각각 특징점을 나타내고 있다. 이들 특징점은, 입력 화상 내에서 추출된 특징점이다. 또한, 도 24에 도시하는 바와 같이, 이들 특징점 중 특징점 (1) 내지 (5)는 좌측에 찍히는 수목을, 또한 특징점 (6) 내지 (11)은 우측에 찍히는 가옥에서의 특징점을 각각 나타내고 있다. 여기에서, 도 25는, 도 24에 도시하는 특징점만을 뽑아내서 도시한 도면이다. 또한, 이들 특징점은, 미리 해당 촬영 대상물의 특징점군으로서, 특징점군을 등록하는 데이터베이스에 등록되어 있는 것으로 한다.That is, in the twelfth embodiment, three-dimensional arrangement information in the photographing object is introduced. Here, the three-dimensional arrangement information refers to the coordinate value of each feature point on the so-called object local coordinate system. Hereinafter, an object recognition method according to the twelfth embodiment will be described with reference to FIGS. 24 and 25. Here, in FIG. 24 and FIG. 25, the point which attaches (1)-(11) has shown the characteristic point, respectively. These feature points are the feature points extracted in the input image. In addition, as shown in FIG. 24, among these characteristic points, the characteristic points (1)-(5) have shown the tree to be photographed on the left side, and the characteristic points (6) to (11) have shown the characteristic point in the house which is taken to the right, respectively. FIG. 25 is a diagram showing only the feature points shown in FIG. 24. In addition, these feature points are registered beforehand as the feature point group of the said imaging object in the database which registers a feature point group.
여기서, 수목에서의 특징점으로서는, 그 등록 시에, 특징점 (2) 내지 (5)에 관해서는, 특징점 (1)을 원점으로 하여, 각각의 3차원 배치 정보인 3차원적 위치 즉 (X2, Y2, Z2) 내지 (X5, Y5, Z5)도 등록한다. 또한, 이러한 특징점의 3차원 위 치를 검출하는 방법으로서는, 화상적으로 검출하는 방법, 또는 측정기를 이용하여 검출하는 방법 등이 있다.Here, as the feature point in the tree, at the time of registration, with respect to the feature points (2) to (5), the feature point (1) is the origin and the three-dimensional position, that is, each of the three-dimensional arrangement information, namely (X2, Y2). , Z2) to (X5, Y5, Z5) are also registered. As a method of detecting the three-dimensional position of such a feature point, there is an image detection method or a detection method using a measuring device.
본 제12 실시예에 따르면, 상기한 바와 같이 각 특징점의 3차원적 배치 정보를, 특징점의 등록 시에 동시에 등록해 둠으로써, 이하와 같은 효과를 얻을 수 있다. 즉, 매칭 등에서의 특징점의 비교 대조에 의해 소정의 인식이 이루어진 후에, 상기 3차원적 배치 정보를 이용하여 재검증을 더 행할 수 있다. 즉, 본 제12 실시예에 따르면, 매칭에서의 오인식의 저감을 실현할 수 있다.According to the twelfth embodiment, as described above, the three-dimensional arrangement information of each feature point is simultaneously registered at the time of registration of the feature point, whereby the following effects can be obtained. That is, after a predetermined recognition is performed by comparison of feature points in matching or the like, re-verification can be further performed using the three-dimensional arrangement information. That is, according to the twelfth embodiment, it is possible to realize the reduction of misperception in matching.
또한, 상기 3차원적 배치 정보를 이용하여 재검증의 검증 방법으로서는 다양한 방법이 고려된다. 예를 들면, 상기 3차원적 배치 정보에 기초하여, 소정의 특징점을 원점으로 하여 각 특징점을 2차원 평면에 투영했을 때의 각 특징점의 위치와, 통상대로 취득하여 등록한 각 특징점의 위치를 비교 대조하여 양자의 어긋남을 구함으로써, 해당 매칭에서의 인식의 정밀도를 구하게 된다.In addition, various methods can be considered as a verification method for re-validation using the three-dimensional arrangement information. For example, based on the three-dimensional arrangement information, a comparison is performed between the position of each feature point when projecting each feature point on a two-dimensional plane with a predetermined feature point as the origin and the position of each feature point acquired and registered as usual. By calculating the deviation between the two, the accuracy of the recognition in the matching is obtained.
이 방법에 따르면, 예를 들면 입력 화상 내에서 수목의 부분으로서 인식된 특징점군 중의 특징점을 순서대로 검증해 가서, 각 점을 원점으로 하여, 그 밖의 특징점의 3차원적 배치 정보에 기초하여 2차원 평면에 투영했을 때의 각 특징점 (1) 내지 (5)의 위치가, 등록한 특징점 (1) 내지 (5)에 일치하는지의 여부를 검증한다. 이를 특징점 (1)을 원점으로 할 때, 특징점 (2)를 원점으로 할 때, … 로 하도록 모든 특징점에 대하여 행한다. 그리고, 가장 일치성이 높은 경우의 검증 시의 것을 채용한다.According to this method, for example, feature points in a group of feature points recognized as part of a tree in an input image are verified in order, and each point is the origin, and two-dimensional is based on the three-dimensional arrangement information of other feature points. It is verified whether the position of each feature point (1)-(5) at the time of projecting on a plane corresponds to the registered feature point (1)-(5). When the
상기의 검증 방법에 의해, 해당 화상 입력 기기(예를 들면 카메라 등)와 촬 영 대상물과의 위치 관계를 구할 수 있다. 나아가서는, 해당 화상 입력 기기의 렌즈 파라미터(시야각, 촛점거리)를 미리 구해 둠으로써, 촬영 대상물에서의 각 특징점과, 해당 화상 입력 기기와의 거리를 구하는 것도 가능하다.By the verification method described above, the positional relationship between the image input device (for example, a camera) and the object to be photographed can be obtained. Furthermore, by obtaining the lens parameters (viewing angle, focal length) of the image input device in advance, it is also possible to obtain the distance between each feature point on the object to be photographed and the image input device.
[제13 실시예][Example 13]
본 제13 실시예에서는, 전술한 제6 내지 제12 실시예에서, 입력 화상 중에 복수의 특징점군이 추출되어 있어, 해당 입력 화상과 등록 화상과의 매칭에서 양자를 비교 대조할 때에, 특징점군 개개의 인식뿐만 아니라, 특징점군끼리의 위치 관계의 정보인 배치 정보를 가미한 인식을 행하는 실시예이다.In the thirteenth embodiment, in the sixth to twelfth embodiments described above, a plurality of feature point groups are extracted from the input image, and each feature point group is individually compared and compared in matching between the input image and the registered image. In addition to the recognition, the recognition is performed by adding the arrangement information which is the information on the positional relationship between the feature point groups.
입력 화상 내에서 특징점군이 추출되고, 비교 대조용의 특징점군과의 비교에 의해 매칭이 행해진다. 본 제13 실시예에 따르면, 수목에서의 특징점군에 속하는 특징점 (1) 내지 (5)와, 가옥에서의 특징점군에 속하는 특징점 (6) 내지 (11)과의 배치 관계로부터, 도 24에 도시하는 예에서는, 화면 내에서 수목이 가옥의 좌측에 배치되어 있는 것을 인식할 수 있다.A feature point group is extracted from the input image, and matching is performed by comparison with the feature point group for comparison and comparison. According to the thirteenth embodiment, it is shown in Fig. 24 from the arrangement relationship between the feature points (1) to (5) belonging to the feature point group in the tree and the feature points (6) to (11) belonging to the feature point group in the house. In the example, it can be recognized that the tree is arranged on the left side of the house within the screen.
본 제13 실시예에 따르면, 상기한 바와 같이 특징점의 배치 관계를 인식함으로써, 이하와 같은 배치 상태를 판별할 수 있다. 예를 들면, 도 24에 도시하는 예에서는, 수목이 좌측, 가옥이 우측에 위치하고 있는 화상은, 가옥의 정면에 마주 대하고 있는 카메라 등에 의해 촬영된 화상이다. 또한, 수목과 가옥이 화면 상에서 거의 동일한 위치에 있는 화상은, 수목과 가옥이 거의 일직선 상에 배열하는 방향, 즉 가옥의 정면에 대하여 경사 방향으로 위치하고 있는 카메라 등에 의해 촬영된 화상이다.According to the thirteenth embodiment, the following arrangement states can be determined by recognizing the arrangement relationship of the feature points as described above. For example, in the example shown in FIG. 24, the image where a tree is located to the left and a house to the right is an image picked up by the camera etc. which face the front of a house. In addition, the image where a tree and a house are located in substantially the same position on a screen is an image image | photographed by the camera etc. which are located in the direction in which a tree and a house are arrange | positioned in substantially straight line, ie, the inclination direction with respect to the front of a house.
또한, 특징점군 및 특징점의 배치의 확대 상태에 기초하여, 수목과 가옥과의 전후 관계를 구하는 것도 가능하다. 또한, 이들 대상물이 가동인 경우에는, 현재 시점에서의 배치 상태를 구하는 것이 가능하다.Moreover, it is also possible to calculate the front-rear relationship between a tree and a house based on the expanded state of arrangement | positioning of a characteristic point group and a characteristic point. In addition, when these objects are in operation, it is possible to obtain the arrangement state at the present time.
미리 상기한 바와 같은 특징점군의 배치 관계를 장면에 따라서 등록하여 두면, 마찬가지의 대상물이 배열하여 위치하고 있는 케이스에서도, 그 대상물을 식별하는 것이 가능하게 된다. 구체적으로 말하면, 예를 들면 동일한 디자인의 주택이 배열되어 있는 케이스에서, 수목이 좌측, 가옥이 우측인 케이스는 A씨의 집, 그 반대로 배치되어 있는 경우에는 B씨의 집이라고 인식할 수 있다. 또한, 동일 화면 내에 3개 이상의 특징점군이 들어가도록 하고, 또한 그 특징점군의 3차원 위치 정보도 미리 각각 기록해 둠으로서, 삼각 측량의 원리에 의해, 해당 카메라와 상기 특징점군과의 상대적 위치 관계를 상세히 구하는 것이 가능하게 된다.If the arrangement relationship of the feature point group described above is registered in accordance with the scene, the object can be identified even in a case where the same object is arranged and positioned. Specifically, for example, in a case in which houses of the same design are arranged, the case in which the tree is on the left side and the house on the right side can be recognized as Mr. A's house, and vice versa. In addition, three or more feature point groups are included in the same screen, and the three-dimensional position information of the feature point groups is also recorded in advance, and according to the principle of triangulation, the relative positional relationship between the camera and the feature point group is determined. It can be obtained in detail.
[제14 실시예][Example 14]
본 제14 실시예는, 매칭 시스템의 고속화, 또는 대량의 등록 화상에 대응하는 매칭 시스템을 실현하기 위해서, 실제로 매칭을 행하는 처리부인 매칭 처리부를클러스터링하는 것을 특징으로 하는 실시예이다.The fourteenth embodiment is an embodiment in which the matching processing unit, which is the processing unit that actually performs matching, is clustered in order to speed up the matching system or to realize a matching system corresponding to a large number of registered images.
종래의 매칭 시스템에서는, 매칭에 사용하는 화상 등을 등록하는 데이터베이스를 공통으로 한 그대로, 매칭 처리부를 병렬화하는 방법, 혹은, 데이터베이스와 매칭 처리부를, 동일한 내용인 그대로 병렬화하는 방법이 일반적이다. 이러한 방법에서는, 확실히 다수의 매칭 요구를 동시에 수취했을 때의 처리를 고속화하는 효과는 예상할 수 있다. 그러나, 대량의 등록 화상에 대한 매칭 처리를 고속화할 수 없다. 또한, 대량의 등록 화상을, 병렬화한 복수의 데이터베이스로 분할하여 저장하면, 확실히 대량의 등록 화상에 대한 매칭 처리를 고속화할 수 있다. 그러나, 분할된 등록 화상군의 매칭 결과를 최종 평가할 때에, 그 매칭에 이용하는 화상이, 반드시 분할된 등록 화상군 전체를 균일하게 평가한 후에서의 상위에 오는 화상이라고는 한할 수 없다. 따라서, 신뢰성이 높은 매칭 처리라고는 말하기 어렵다.In a conventional matching system, the method of parallelizing a matching processing unit as it is, and the method of parallelizing a database and a matching processing unit as it is, are common as long as the database which registers the image etc. used for matching is common. In this way, the effect of speeding up the process when receiving a large number of matching requests at the same time can be expected. However, it is not possible to speed up the matching process for a large number of registered images. In addition, by dividing and storing a large number of registered images into a plurality of parallelized databases, it is possible to reliably speed up the matching process for a large number of registered images. However, in the final evaluation of the matching result of the divided group of registered images, the image used for the matching is not necessarily the image which comes to a higher position after uniformly evaluating the entire group of divided images. Therefore, it is hard to say that it is a highly reliable matching process.
본 제14 실시예에서는, 분할되어 병렬화한 복수의 데이터베이스(TP 데이터 정보 DB라고 칭함)에 등록되어 있는 화상군에 관해서, 유사한 화상이 1개의 TP 데이터 정보 DB에 치우쳐서 등록되는 것이 생기지 않도록, 이하와 같이 조정한다.In the fourteenth embodiment, as to the group of images registered in a plurality of divided and parallelized databases (referred to as TP data information DBs), similar images are prevented from being registered in one TP data information DB. Adjust it together.
상기 TP 데이터 정보 DB에의 화상의 등록 시에, 등록 대상인 화상의 특징량을 추출한다. 또한, 해당 특징량은, 일정한 영역의 농담 분포이어도 되고, 특징점 이어도 된다.At the time of registering the image in the TP data information DB, the feature amount of the image to be registered is extracted. In addition, the shade may be a constant area shade or the feature point may be a feature point.
다음으로, 등록 대상인 화상과, 상기의 분할하여 병렬화한 복수의 TP 데이터 정보 DB의 기등록 화상을 매칭 처리하고, 등록 대상인 화상과 기등록 화상과의 유사도를 평가한다. 또한, 상기 매칭 처리부에 관해서도, 상기 TP 데이터 정보 DB와 마찬가지로 분할하여 병렬화하여도 된다.Next, a matching process is performed between the image to be registered and the pre-registered images of the plurality of divided and parallelized TP data information DBs to evaluate the similarity between the image to be registered and the pre-registered image. The matching processing unit may also be divided and parallelized in the same manner as in the TP data information DB.
계속해서, 상기 유사도 평가를 참조하여, 등록 대상인 화상과의 유사도가 가장 낮다고 판단한 TP 데이터 정보 DB에, 상기 등록 대상인 화상을 등록한다.Subsequently, with reference to the similarity evaluation, the image to be registered is registered in the TP data information DB which has been determined to have the lowest similarity with the image to be registered.
또한, 전술한 바와 같이, 분할 완료된 기등록 화상군에 대한 추가라고 하는 형식으로 등록 대상인 화상을 등록하는 것은 아니고, 등록 대상을 포함하는 기등록 화상군 전체를 재분할하도록 하여도 물론 된다. 또한, 일단, 분할 완료된 기등록 화상군에 대한 추가라고 하는 형식으로 등록 대상인 화상을 등록하고, 그 후, 정기적으로 화상군 전체를 재분할 처리하여도 물론 된다. 또한, 상기 재분할에서는, 유사도를 기준으로 하여, 유사한 화상이 가장 분산되어 각 TP 데이터 정보 DB에 저장 하도록 하여도 된다. 또한, 예를 들면 특징점이 다차원의 벡터로 표현되는 경우에는, 상기 재분할에서는, 특징점의 다차원 벡터 공간에서의 분산을 고려하는 것이 유효로 된다.Further, as described above, the image to be registered may not be registered in the form of addition to the divided preregistered group of images, but of course, the entire group of previously registered images including the target of registration may be subdivided. In addition, the image to be registered may be registered once in the form of addition to the previously registered group of divided images, and thereafter, the whole image group may be periodically re-divided. In the re-division, similar images may be most dispersed and stored in each TP data information DB based on the similarity. For example, when a feature point is represented by a multidimensional vector, it is effective to consider the dispersion in the multidimensional vector space of the feature point in the said repartitioning.
이와 같이, 등록을 희망하는 대상 화상을 등록하는 TP 데이터 정보 DB를 적절하게 선택함으로써, 신뢰성이 높은 매칭을 실현할 수 있다.In this manner, by selecting the TP data information DB for registering the target image to be registered appropriately, highly reliable matching can be realized.
이하, 도 26을 참조하여, 본 제14 실시예에서의 매칭 처리부 및 TP 데이터 정보 DB의 시스템 구성을 설명한다.A system configuration of the matching processing unit and the TP data information DB in the fourteenth embodiment will be described below with reference to FIG.
매칭 시에는, 우선, 매칭 대상의 데이터를, 제1 매칭 처리부(500)에 송신한다. 다음으로, 제1 매칭 처리부(500)는, 병렬화된 TP 데이터 정보 DB(520A 내지 520C)에 대응하는 제2 매칭 처리부(521A 내지 521C)에, 매칭 처리를 병렬로 의뢰한다.At the time of matching, first, the data to be matched is transmitted to the first
다음으로, 제2 매칭 처리부(521A 내지 521C)는, 각각에 대응하는 TP 데이터 정보 DB(522A 내지 522C)에 대하여, 상기 매칭 대상의 데이터와의 매칭 처리를 실행한다.Next, the second
다음으로, 제2 매칭 처리부(521A 내지 521C)는, 상기 매칭 처리의 결과인 매칭 결과를, 상기 제1 매칭 처리부(500)에 송신한다. 여기에서, 상기 매칭 결과는, 유사도 정보를 포함한다. 또한, 상기 매칭 결과는, 최상위의 매칭 결과만이어도 되고, 미리 결정된 일정수의 상위의 매칭 결과이어도 되고, 일정율 이상의 유사도로 된 매칭 결과이어도 된다. 여기에서, 상기 미리 결정된 일정수는, 시스템에 정적으로 설정된 수에 한하지 않는다. 예를 들면, 제1 매칭 처리부(500)가 접수하는 매칭 대상의 데이터수를, 병렬화한 TP 데이터 정보 DB의 수로 나눈 것으로 하여도 물론 된다. 이 경우, 상기 TP 데이터 정보 DB의 병렬화의 수를 변경한 경우에, 상기 미리 결정된 일정수는, 동적으로 변경되게 된다.Next, the second
그런데, 제2 매칭 처리부(521A 내지 521C)는, 상기 매칭 처리의 결과인 매칭 결과를, 상기 제1 매칭 처리부(500)에 송신한 후, 제1 매칭 처리부(500)에서는, 제2 매칭 처리부(521A 내지 521C)로부터 수신한 매칭 결과를 유사도순으로 순서 부여하고, 최종 결과를 작성한다. 또한, 제1 매칭 처리부(500)는, 제2 매칭 처리부(521A 내지 521C)로부터 수신한 매칭 결과에 대하여, 다시 매칭 처리를 행하여도 물론 된다. 그리고, 이 경우, 제2 매칭 처리부(521A 내지 521C)에서 행하는 매칭 처리보다도, 보다 상세한 특징량을 사용하는 것은, 신뢰성을 향상시키는 데에 있어서 유효하다.However, after the second
예를 들면, 제2 매칭 처리부(521A 내지 521C)에서는, 영역의 분할수가 적은 농담 데이터나, 계조가 적은 농담 데이터를 매칭 처리에 이용하여, 제1 매칭 처리부(500)에서는, 영역의 분할수가 많은 농담 데이터나, 계조가 많은 농담 데이터를 매칭 처리에 이용한다. 또한, 제2 매칭 처리부(521A 내지 521C)에서는, TP 데이터 정보 DB(522A 내지 522C)가 유지하는 일부의 특징점을 이용하여, 제1 매칭 처리부(500)에서는, 모든 특징점을 이용하는 것으로 하여도 된다. 이 경우, 상기 일부 의 특징점의 선정 방법으로서는, 특징점의 신뢰성 및/또는 유효도에 기초하여, 상위의 일정수, 혹은 일정 이상의 횟수의 것을 선택해도 되며, 랜덤하게 픽업하여도 물론 된다. 또한, 제1 매칭 처리부(500)에 의한 매칭 결과로서는, 가장 유사하다고 판단한 1개를 매칭 결과로 하여도 되고, 임의의 기준 이상의 복수를 매칭 결과로 하여도 된다. 여기에서, 상기 임의의 기준이란, 예를 들면 결과의 수이어도 되고, 유사도의 임계값이어도 된다.For example, in the second
또한, TP 데이터 정보 DB(522A 내지 522C)로서, TP 데이터 정보 DB가 분할되어 병렬화되어 있는 구성에서, 반드시 서버 케이스 그 자체가 병렬화되어 있을 필요는 없는 것은 물론이다.In addition, in the configuration in which the TP data information DBs are divided and parallelized as the TP
상기한 바와 같은 매칭 처리를 행함으로써, 본 제14 실시예에서의 분할되어 병렬화된 TP 데이터 정보 DB를 유효하게 이용할 수 있다.By performing the matching process as described above, the divided and parallelized TP data information DB in the fourteenth embodiment can be effectively used.
[제15 실시예][Example 15]
또한, 예를 들면 이하와 같은 실시예도 고려된다. 본 제15 실시예에서는, 정보 제시 단말기로서 카메라 부착 휴대 전화기를 상정한다. 그리고, 상기 카메라 부착 휴대 전화에서, 화상에서의 예를 들면 특징량의 추출 등의 특징량 처리의 일부를 행한다. 이를 실현하기 위해서, 미리 화상의 특징량 처리에 관한 어플리케이션 소프트웨어를, 상기 카메라 부착 휴대 전화기에 인스톨한다. 이하, 이러한 본 제15 실시예에 따른 카메라 부착 휴대 전화기를 이용한 화상의 매칭 처리의 흐름을, 도 27에 도시하는 플로우차트를 참조하여 설명한다.Further, for example, the following embodiments are also considered. In the fifteenth embodiment, a mobile telephone with a camera is assumed as the information presentation terminal. In the mobile phone with a camera, a part of feature amount processing such as extraction of a feature amount from an image is performed. To realize this, application software relating to the feature amount processing of the image is installed in advance in the mobile phone with camera. Hereinafter, the flow of image matching processing using the mobile phone with camera according to the fifteenth embodiment will be described with reference to the flowchart shown in FIG. 27.
우선, 유저가, 카메라 부착 휴대 전화기에서 상기 어플리케이션 소프트웨어 를 기동시키고, 카메라 기능을 이용하여 예를 들면 지면 상의 소정의 화상 또는 의장을 촬영한다(스텝 S51). 계속해서, 상기 카메라 부착 휴대 전화에서의 상기 어플리케이션에 의해, 일부의 특징량 처리(본 실시예에서는 화상으로부터의 특징량의 추출)가 실행된다(스텝 S52). 그리고, 상기 스텝 S52에서의 특징량 처리 결과(본 실시예에서는 화상으로부터 추출한 특징량;이하 마찬가지임)를, 서버에 보낸다.First, the user starts the application software on a mobile phone with a camera, and photographs, for example, a predetermined image or a design on the ground using a camera function (step S51). Subsequently, some feature amount processing (in this embodiment, extraction of the feature amount from the image) is executed by the application in the camera-equipped cellular phone (step S52). The feature amount processing result (the feature amount extracted from the image in the present embodiment; the same applies hereinafter) is sent to the server in step S52.
상기 특징량 처리 결과를 받은 서버에서의 매칭 처리부(도시하지 않음)는, 상기 특징량 처리 결과에 기초하여, 비교하기 위한 화상(비교 화상)의 특징량이 등록되어 있는 사전적 화상 데이터베이스(50)에 조회하여, 화상의 매칭 처리를 행한다(스텝 S53). 그리고, 상기 매칭 처리 결과를, 상기 카메라 부착 휴대 전화에 보낸다. 또한, 서버측에서는, 상기 사전적 화상 데이터베이스(50) 이외에, 다단계로 구성되고 또한 서로 병렬로 구성된 복수의 데이터베이스로 이루어지는 다단 및 병렬 데이터베이스(60)가 설치되어 있다. 따라서, 상기 매칭 처리에 요하는 비교 화상이 상기 사전적 화상 데이터베이스(50)에 저장되어 있지 않은 경우에는, 상기 매칭 처리부(도시하지 않음)는, 상기 다단 및 병렬 데이터베이스(60)를 검색한다.The matching processing unit (not shown) in the server that has received the feature amount processing result is stored in the
그리고, 상기 스텝 S53에서의 매칭 처리의 결과를 취득한 상기 카메라 부착 휴대 전화기에서, 상기 매칭 처리 결과에 대하여 미리 설정되어 있었던 동작 명령을 실행한다(스텝 S54). 여기에서, 예를 들면 상기 동작 명령이 휴대 전화용 WEB 사이트의 URL 표시이면, 상기 매칭 처리부(도시하지 않음)는, 상기 카메라 부착 휴대 전화기의 WEB 사이트 열람 어플리케이션에 상기 URL을 보내고, 상기 카메라 부착 휴대 전화기는, 상기 URL에 대응하는 WEB 사이트의 표시를 실행한다(스텝 S54).Then, in the mobile phone with camera that has obtained the result of the matching processing in step S53, the operation instruction set in advance with respect to the matching processing result is executed (step S54). Here, for example, if the operation command is a URL display of a web site for a mobile phone, the matching processing unit (not shown) sends the URL to a web site browsing application of the mobile phone with a camera, and carries the camera with the camera. The phone executes display of the WEB site corresponding to the URL (step S54).
또한, 본 제15 실시예에서는, 화상에서의 특징량의 추출은 카메라 부착 휴대 전화에서 실행하였지만, 사용하는 카메라 부착 휴대 전화의 연산 능력에 의해서는, 서버가 화상에서의 특징량의 추출을 행하여도 물론 된다.In addition, in the fifteenth embodiment, the feature amount extraction from the image is performed by the camera-equipped cellular phone. However, the server extracts the feature amount from the image by the computing capability of the camera-equipped mobile phone. Of course it is.
또한, 상기 카메라 부착 휴대 전화에서 촬영하는 대상으로서의 화상을, 예를 들면 도 28 및 도 29에 도시하는 바와 같이, 그 화상이 마커 화상인 것을 유저에게 명시하기 위해서, 각인(특정한 의장의 근방에 배치하는 특정한 심벌 마크 등)을 해당 화상의 근방에 배치하여도 된다. 여기에서, 도 28은, 마커 화상(70)의 근방에, 마커 화상을 지시하는 화살표로 이루어지는 각인(72)을 하나 배치한 예를 나타내고 있다. 또한, 도 29는, 마커 화상(70)의 근방에, 해당 마커 화상(70)을 사이에 두도록, 각인(74)을 2개 배치한 예를 나타내고 있다.In addition, in order to indicate to the user that the image as an object to be photographed by the mobile phone with the camera is, for example, a marker image, it is carved (arranged near a specific chairman). May be arranged in the vicinity of the image. Here, FIG. 28 has shown the example which arrange | positioned one marking 72 which consists of an arrow which points to a marker image in the vicinity of the
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20087006704A KR20080036231A (en) | 2008-03-19 | 2006-03-31 | Information presenting system, information presenting terminal, and server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20087006704A KR20080036231A (en) | 2008-03-19 | 2006-03-31 | Information presenting system, information presenting terminal, and server |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20080036231A true KR20080036231A (en) | 2008-04-25 |
Family
ID=39574689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20087006704A KR20080036231A (en) | 2008-03-19 | 2006-03-31 | Information presenting system, information presenting terminal, and server |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20080036231A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022054663A (en) * | 2020-09-28 | 2022-04-07 | 楽天グループ株式会社 | Information processing device, information processing method, and program |
-
2006
- 2006-03-31 KR KR20087006704A patent/KR20080036231A/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022054663A (en) * | 2020-09-28 | 2022-04-07 | 楽天グループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7992181B2 (en) | Information presentation system, information presentation terminal and server | |
US20200175054A1 (en) | System and method for determining a location on multimedia content | |
JP5621897B2 (en) | Processing method, computer program, and processing apparatus | |
JP5673765B2 (en) | SEARCH SYSTEM, SEARCH METHOD, AND COMPUTER PROGRAM | |
US20100309226A1 (en) | Method and system for image-based information retrieval | |
US20130051615A1 (en) | Apparatus and method for providing applications along with augmented reality data | |
KR101729938B1 (en) | Integrative image searching system and service method of the same | |
WO2016033495A2 (en) | Methods and arrangements including data migration among computing platforms, e.g., through use of steganographic screen encoding | |
US20080270378A1 (en) | Method, Apparatus and Computer Program Product for Determining Relevance and/or Ambiguity in a Search System | |
US20180268453A1 (en) | Composite image generation | |
KR101042910B1 (en) | Method, system and computer-readable recording medium for providing service using electronic map | |
CN110692081B (en) | System, portable terminal device, server, program, and method for viewing confirmation | |
US20100142758A1 (en) | Method for Providing Photographed Image-Related Information to User, and Mobile System Therefor | |
CN111699478A (en) | Image retrieval device, image retrieval method, electronic apparatus, and control method thereof | |
CN108230220B (en) | Watermark adding method and device | |
JPWO2019082381A1 (en) | Image extraction apparatus, image extraction method, and image extraction program | |
CN111797266A (en) | Image processing method and apparatus, storage medium, and electronic device | |
JP2007086546A (en) | Advertisement printing device, advertisement printing method, and advertisement printing program | |
KR20080036231A (en) | Information presenting system, information presenting terminal, and server | |
KR20210094396A (en) | Application for searching service based on image and searching server therefor | |
KR20140068302A (en) | System and Method for servicing contents using recognition of natural scene text | |
JP2014063300A (en) | Character recognition device, character recognition processing method, and program | |
KR101920465B1 (en) | System and method for object identification in outdoor environment | |
CN117435761A (en) | Terminal device and method | |
CN113742620A (en) | Method and device for accessing website by image recognition, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration | ||
NORF | Unpaid initial registration fee |