WO2007004522A1 - 検索システム及び検索方法 - Google Patents

検索システム及び検索方法 Download PDF

Info

Publication number
WO2007004522A1
WO2007004522A1 PCT/JP2006/313018 JP2006313018W WO2007004522A1 WO 2007004522 A1 WO2007004522 A1 WO 2007004522A1 JP 2006313018 W JP2006313018 W JP 2006313018W WO 2007004522 A1 WO2007004522 A1 WO 2007004522A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
template
matching
search
feature
Prior art date
Application number
PCT/JP2006/313018
Other languages
English (en)
French (fr)
Inventor
Kazuo Ono
Takao Shibasaki
Yukihito Furuhashi
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP06767635A priority Critical patent/EP1772823A4/en
Priority to JP2006553381A priority patent/JPWO2007004522A1/ja
Publication of WO2007004522A1 publication Critical patent/WO2007004522A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Definitions

  • the present invention relates to a search system and a search method for searching for database power images.
  • template matching is widely known as a technique for searching an image corresponding to an input image from a database. This is because templates created by dropping each image stored in the database to a predetermined coarse resolution in advance are registered in the database, and the input images reduced to the same resolution and those templates are compared. Taking a match is a good thing.
  • the similarity table is used to manage the similarity between templates and to prevent registration of similar images.
  • the possibility of mismatching increases.
  • a method for determining a feature amount for determining a similarity from the arrangement of feature points is also known!
  • a method for determining a feature amount for determining a similarity from the arrangement of feature points is also known!
  • a matching server is parallelized, and a large number of reference data is stored.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide a search system and a search method capable of achieving a high speed and improvement in the recognition rate in a balanced manner.
  • One aspect of the search system of the present invention is an image input unit that inputs an image and a database that is hierarchically managed based on the image input by the image input unit.
  • a means for searching for images, a template matching using a template in a higher hierarchy, followed by a template matching using a template in a lower hierarchy to narrow down the search image, and a search narrowed down by the search means Output means for outputting the resulting image.
  • one aspect of the search method of the present invention is a method for searching for an image from a database.
  • An image is input, and a template in a higher hierarchy of templates that are hierarchically managed based on the input image.
  • Use template matching to search for images from the database further perform template matching using lower-level templates to narrow down the search images, and output the filtered search result images.
  • FIG. 1 is a diagram showing a configuration of a search system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a paper surface and a target image on the paper surface.
  • FIG. 3 is a diagram showing a flowchart of hierarchical template creation processing in the TP creation unit.
  • FIG. 4 is a diagram showing an example of an area division layout.
  • FIG. 5 is a diagram showing another example of the area division layout.
  • FIG. 6 is a diagram showing an example of an area division layout in which a cutout position and resolution are combined.
  • FIG. 7 is a diagram showing another example of an area division layout in which the cutout position and the resolution are combined.
  • FIG. 8 is a diagram for explaining problems of conventional template matching.
  • FIG. 9 is a diagram for explaining the effect of using a hierarchical template.
  • FIG. 10 is a flowchart of TP data management processing in the TP data management DB.
  • FIG. 11 is a diagram showing a flowchart of terminal-side operation processing in a portable application. It is.
  • FIG. 12 is a diagram showing a flowchart of matching processing in a matching processing unit.
  • FIG. 13 is a diagram showing similar target images, a layout configuration, a first layer template, and a second layer template for explaining a first specific example.
  • FIG. 14 is a diagram showing a configuration of a search system in a second specific example.
  • FIG. 15 shows the target image input image resolution, camera-equipped mobile terminal in the third specific example.
  • FIG. 4 is a diagram for explaining a TP data management DB.
  • FIG. 16 is a diagram showing a configuration of a search system in a fourth specific example.
  • FIG. 17 is a diagram showing a fixed positional relationship between the individual area and the ID area in the recognition target image.
  • FIG. 18 is a diagram showing a relative positional relationship between the individual area and the ID area in the recognition target image.
  • FIG. 19 is a diagram for explaining a display example when a plurality of matches are made in the fifth specific example.
  • FIG. 20 is a diagram for explaining another display example when a plurality of matches are made in the fifth specific example.
  • FIG. 21 is a diagram for explaining another display example when a plurality of matches are made in the fifth specific example.
  • FIG. 22 is a diagram for explaining another display example when a plurality of matches are made in the fifth specific example.
  • FIG. 23 is a diagram for explaining a display example when matching is performed in the sixth specific example.
  • FIG. 24 is a diagram for explaining another display example when matching is performed in the sixth specific example.
  • FIG. 25 is a diagram showing a state in which matching is sequentially performed according to the resolution in the eighth specific example.
  • FIG. 26 is a diagram showing the structure of the search system in the ninth specific example.
  • FIG. 27 is a flowchart for explaining the operation of the ninth specific example.
  • FIG. 28 is a flowchart for explaining the operation of the tenth example.
  • FIG. 29 is a diagram for explaining a shared data area and an individual user area.
  • FIG. 30 is a diagram showing a display example of a registration rejection message.
  • FIG. 31 is a diagram showing a display example of a registration confirmation message.
  • a search system includes a camera-equipped mobile terminal 10 such as a camera-equipped mobile phone or a camera-equipped PDA, and search means.
  • the camera-equipped mobile terminal 10 includes an image input unit (camera) 11 as an image input unit for inputting an image and a display 12 as an output unit for outputting a specific result.
  • the retrieval means retrieves the database force image based on the image input by the image input unit 11 using a hierarchically managed template.
  • This search means is realized by the mobile abrasion 13 of the camera-equipped mobile terminal 10 and the matching processing unit 21 configured in the server 20 that can communicate with the camera-equipped mobile terminal 10.
  • the server 20 further includes a template (TP) data management database (DB) 22 in which a plurality of templates are registered and hierarchically manages them.
  • the template registered in the TP data management DB 22 is a desktop publishing (DTP) 30 and is created by the TP creation unit 50 from the target image 41 arranged on the paper surface 40 as shown in FIG. That is, in the search system according to the present embodiment, the target image 41 is printed in advance on the paper surface 40 by the DTP 30 as shown in FIG. At the same time, the TP creation unit 50 creates a template of the target image 41. Then, the created template is registered in the TP data management DB 22 of the server 20 in advance. If there are many target images 41 to be registered, such template creation and registration is repeated.
  • DTP desktop publishing
  • a user who wishes to search takes in the target image 41 from the paper 40 using the image input unit 11 such as the mobile terminal 10 with camera. Then, the mobile application 13 performs image feature extraction from the input image, and sends the extracted feature data to the matching processing unit 21 of the server 20. The Upon receiving this feature data, the matching processing unit 21 performs pattern matching with the template registered in the TP data management DB 22. In this case, the template matching using the template of the upper hierarchy is followed by the template matching using the template of the lower hierarchy to narrow down the search image. If the pattern matching result is acquired, the matching processing unit 21 sends the result information to the mobile application 13 of the camera-equipped mobile terminal 10. The mobile application 13 that has received the result information displays the result information on the display 12.
  • step S11 a region division layout of the target image 41 used in each layer of the Nth-order hierarchical template desired by the user is defined.
  • the area division layout 221 indicates, for example, the cutout position of the template image of each layer. Alternatively, it may indicate the resolution of the template of each layer.
  • a combination of the cutout position and the resolution may be used. That is, in the example of the area division layout 221 shown in FIG. 6, the primary layer template 2221 in which the entire area of the image is divided into 8 ⁇ 8 segments, and the secondary area in which a quarter area of the image is divided into 8 ⁇ 8 segments.
  • the hierarchical template 2222 and the tertiary hierarchical template 2223 obtained by dividing the 1/8 region of the image into 8 ⁇ 8 segments are set to the cut-out positions so that the lower right corners thereof coincide with each other.
  • defining” an area division layout includes both a case of “creating” a new layout and a case of “selecting” an existing layout.
  • the internal counter n is set to “1” (step S12). Then, it is determined whether or not the value of the counter n is larger than N (step S13).
  • the original image is input in accordance with the area division layout 221 defined above (step S 14).
  • the input original image is image data at the image cut-out position indicated by the region division layout 221 in the target image 41.
  • feature data is created from the input original image, that is, an n-layer (n-dimensional) template is created (step S15).
  • result information to be output when the template matching results in OK for example, the URL of a specific Web site, etc. is input (step S16).
  • the feature data and the result information are registered in the feature data Z result information table 51 configured in the TP creation unit 50 (step S17).
  • step S18 Thereafter, after the value of the counter n is "+1" (step S18), the process returns to step S13 and the above steps are repeated. Thus, when the value of the counter n becomes larger than N (step S13), this TP creation process is terminated.
  • the region division layout 221 of the target image 41 used in each layer of the Nth-order hierarchical template is read from the TP creation unit 50 (step S 21).
  • the contents of the feature data Z result information table 51 corresponding to the read area division layout 221 are read (step S22).
  • the contents of the feature data Z result information table 51 read out are registered in a database provided for each template layout (step S 23). This process is repeated until all templates created by the TP creation unit 50 are completed (step S24).
  • the mobile application of the camera-equipped mobile terminal 10 is described.
  • the details of the terminal side operation processing at the network 13 and the matching processing at the matching processing unit 21 of the server 20 will be described.
  • the camera-equipped mobile terminal 10 includes a plurality of mobile applications 13. That is, there is one mobile application 13 for one template layout, and the mobile application 13 that is activated differs depending on the type of the original target image 41.
  • the mobile application 13 When a mobile application 13 corresponding to a certain target image 41 is activated, the mobile application 13 first determines the maximum template hierarchy number determined by the template layout of the mobile application 13 as an internal counter (not shown). Set to N (step S31). Then, an image obtained by photographing the target image 41 on the paper surface 40 is input by the image input unit 11 (step S32). Next, an internal counter n (not shown) for counting the hierarchy number is set to “1” (step S33).
  • feature data (n-th feature amount) of the nth layer region is extracted from the image (step S34).
  • the feature data (feature amount) is, for example, the distribution and density of feature points.
  • the extracted n-th feature amount is transmitted to the matching processing unit 21 of the server 20 together with the TP layout number m for identifying the template layout of the mobile application 13 and the current hierarchical number n ( Step S35). Thereafter, reception of result information from the matching processing unit 21 is awaited (step S36).
  • the maximum number of hierarchies is set in an internal counter N (not shown) according to the received TP layout number m (step S51). Further, the hierarchical number to be matched is set in an internal counter n (not shown) (step S52). Then, the received nth-order feature data (feature amount) is acquired (step S53). Next, pattern matching is performed between the template registered and managed in the database indicated by the received TP layout number m of the TP data management DB 22 and the acquired feature data (step S 54).
  • step S55 If there is a target data candidate by the pattern matching (step S55), a similarity check is further performed (step S56). And objects whose similarity is equal to or higher than a predetermined threshold It is determined whether or not there is one data candidate (step S57).
  • step S57 If it is determined in step S57 that there is only one target data candidate, it is registered in the feature data Z result information table 51 corresponding to the feature data of the target data candidate. Is returned to the camera-equipped mobile terminal 10 (step S58).
  • step S37 If the result information is returned from the matching processing unit 21 of the server 20 (step S37), the portable application 13 displays it on the display 12 (step S38).
  • step S57 if it is determined in step S57 that there are a plurality of target data candidates whose similarity is equal to or greater than the predetermined threshold, the value of the internal counter N is greater than the value of the internal counter n. (Step S59). If not, (n + 1) requests the camera-equipped mobile terminal 10 to transmit the next feature data (step S60).
  • step S37 When there is a transmission request for the (n + 1) next feature data from the matching processing unit 21 of the server 20 (step S37), the mobile application 13 sets the value of the internal counter N to the value of the internal counter n. It is determined whether it is greater than (step S39). If not larger, the value of the counter n is “+1” (step S40), the process returns to step S34, and the above process is repeated. As a result, the n + 1-order feature data is transmitted to the matching processing unit 21 of the server 20.
  • the matching processing unit 21 of the sano 20 performs the above-described processing on the n + 1-order feature data.
  • pattern matching is preferentially performed for the target data candidates that existed at the time of the previous pattern matching.
  • step S39 When it is determined in step S39 that the value of the internal counter N is greater than the value of the internal counter n, the mobile application 13 displays an error message or the like on the display 12 as a matching error. (Step S41), the process is terminated.
  • This specific example is an example of using a mobile phone with a camera to promote smooth mail order through the mail-order magazine Z catalog.
  • the entire target image 41 is first layer template (primary layer template 222).
  • the target image 41 is input, and the feature data of the first layer layout range is extracted by the mobile application 13, and the matching processing unit 21 of the server 20 extracts the feature data of the first layer. To perform matching processing. If there are multiple calculation results that are equal to or greater than the predetermined threshold, the feature data of the registered second layer template area is extracted and pattern matching is performed.
  • the feature extraction and pattern matching processing in each hierarchy can be shared. It is also effective to set different feature extraction. Furthermore, in the feature extraction of the first layer, for example, it is possible to divide the image into nine parts and proceed with feature extraction of only the part corresponding to the arbitrary segment, and if the designation is a mobile phone, the numeric keypad can be used. It is effective to specify such as. For example, the upper right segment is “3” and the center is “5”. After that, the second-tier database is designated by the first-tier matching engine (and database), and decision matching is performed. It is.
  • the communication during this period does not require more than lOkB in the VGA class even if it is roughly estimated. In other words, it has been found that even if it has a higher degree of definition or the number of combinations of feature points! /, It does not affect the result.
  • This is the same with the template method, and if the role power of the first layer is designed, it is sufficient to set a template with 16 X 16 segments (feature size size: 256). In that case, the feature amount is still about 2kB. is there. Therefore, even if the amount of data to be communicated is extremely low compared to the prior art, the communication capacity on the mobile line is less than lOkB, which is also effective from the viewpoint of speeding up.
  • Web pages can be accessed by anyone who knows the URL.
  • Web pages premium content
  • that only people who bought magazines such as photo collections can connect to enter the user name and password as a membership system as a means to limit browsing of the Web page.
  • this specific example makes it possible to refer to such a Web page only when the target image 41 on the paper 40 is read by the camera-equipped mobile terminal 10 having the mobile application 13.
  • the target image 41 on the paper 40 is divided into a first layer template (primary layer template 2221) and a second layer template (second layer template 2222), and the first layer template. Is associated with the premium ID. Then, the target image 41 on the paper surface 40 is input, and template matching is performed for each of the first layer template and the second layer template.
  • the server 20 requests to generate a Web page dynamically for a limited time only when the URL, which is the result information obtained as a template matching result, is the above-mentioned premier site. For this reason, the target image 41 is read from the page 40, and a Web page is generated only when a match is found, and the generated Web page can be referred to.
  • the premium server 60 is statically prepared in the Web server 70 by performing premium ID authentication processing.
  • the web page 71 it is possible to obtain the same effect as dynamically creating a web page.
  • a TP data management DB 22 When matching is performed on a mobile phone 10 with a camera such as a PDA or a mobile phone, it is possible to provide a TP data management DB 22 on the mobile device 10 side with a camera, but a large amount of reference feature data (Managing templates is often disadvantageous in terms of memory capacity and computation speed. Furthermore, since the template is frequently updated, it is necessary for the mobile terminal 10 to sequentially download the template from the server 20. Therefore, when matching images, it is advantageous in terms of memory capacity and calculation speed when matching is performed on the server 20 side. However, each time the target image 41 is input on the mobile terminal 10 side, the feature data must be transmitted to the server 20.
  • the resolution at the time of shooting the target image 41 used for calculating the feature quantity determines the recognition accuracy and matching speed. If the resolution is high, that is, the number of pixels at the time of shooting is large, the recognition accuracy is improved, but the matching speed is slowed down because the number of operations increases. Therefore, in order to perform hierarchical matching, it is effective to use the TP data management DB 22 to manage the feature quantities of each layer whose resolutions are all different in stages for the same target image 41.
  • This specific example is an example in which a camera-equipped mobile phone is used as the camera-equipped mobile terminal 10, and by capturing a pre-registered image, the image is recognized and a predetermined operation such as voice output or This is applied when starting a predetermined program or displaying a predetermined URL.
  • this method is effective when there are a large number of pre-registered images (1000 or more), and it is also effective when images with high similarity are included therein.
  • the image data is registered as V, so-called dictionary data, but it is efficient and practical to compare the feature amount of the image rather than comparing the images as they are.
  • the arrangement relation of the feature points of the image is calculated as a combination of vector quantities, and a large number of the combinations are defined as feature quantities.
  • the accuracy of this feature quantity depends on the number of feature points that appear, and if the original image has high definition, many feature points can be detected. Therefore, the feature amount is calculated on the same original image under as high a definition as possible.
  • the feature amount is calculated based on images with reduced definition for the same image material, the feature amount itself is small and capacity because the feature points are relatively small. Although the capacity is small!
  • the TP data management DB2 2 manages the feature quantities of the same target image 41 at each level. However, in each TP data management DB22, the resolution of the original image when the feature amount is calculated is different. For example, QVGA level, VGA level, XGA level, SXGA level, and so on.
  • the matching processing unit 21 that performs matching with the data management DB 22 first matches and returns a predetermined recognition result.
  • the subsequent matching processing section 21 Similar results can be expected even though there is a time difference.
  • the capacity of the feature quantity itself is large.
  • the feature quantity of the XGA class is enlarged to about 40 KB. By the low resolution matching, it is reduced to about 10 KB in advance.
  • the second and subsequent matching processing units 21 and the TP data management DB22 if only the difference from the lower resolution database is retained, a smaller database configuration is realized, which leads to faster recognition processing. .
  • the feature quantity is re-calculated by sequentially reducing the resolution, and then sequentially registered in the DB of the resolution. It is done by going.
  • the photographed image is resized in the portable application 13 of the portable terminal 10 with a camera, contrary to the case of registering the TP data management DB. To calculate the feature value. Then, it is sent to the TP data management DB 22 and matching processing unit 21 corresponding to the resolution. Thereafter, the resolution is further increased, the feature quantity is recalculated, and transmitted to the TP data management DB 22 and matching processing unit 21 corresponding to the resolution. This is repeated until the resolution at the time of shooting is reached.
  • matching with the low-resolution TP data management DB22 and the matching processing unit 21 makes it difficult to roughly identify the target object, and the TP data management DB22 and matching processing corresponding to the classification. It is possible to further match part 21. For example, if a 10,000 yen bill is entered as the target image 41, ⁇ book cover, newspaper, book coupon card, ticket, bill, poster ⁇ at low resolution, ⁇ resolution of books, cards, tickets, banknotes as resolution increases in sequence.
  • a TP data management DB 22 When matching is performed on a mobile phone 10 with a camera such as a PDA or a mobile phone, it is possible to provide a TP data management DB 22 on the mobile device 10 side with a camera, but a large amount of reference feature data (Managing templates is often disadvantageous in terms of memory capacity and computation speed. Furthermore, since the template is frequently updated, it is necessary for the mobile terminal 10 to sequentially download the template from the server 20. Therefore, when matching images, it is advantageous in terms of memory capacity and calculation speed when matching is performed on the server 20 side. However, each time the target image 41 is input on the mobile terminal 10 side, the feature data must be transmitted to the server 20.
  • the result information is acquired in an attempt to recognize the image using the feature amount, but the result information may be old or the specified destination information may be deleted.
  • the URL is written in the result information, and the power to connect to the URL has been deleted.
  • communication charges may be incurred even if the site cannot be connected. Therefore, in this specific example, as shown in FIG. 16, the image area of the recognition target image 41 is divided into an individual area 41A and an ID area 41B. Then, the feature amount in the ID area 41B is associated with the expiration date, and the expiration date such as 1 week, 1 month, 3 months, 6 months, 1 year, etc. is prepared.
  • the ID area TP data management DB 22A can be prepared on the camera-equipped mobile terminal 10 side. Before entering the TP data management DB22B for individual area via network etc. when inputting images, the ID area TP data management DB22 A held in this mobile terminal with camera 10 can be searched at high speed and the expiration date is It is possible to indicate to the user whether or not it has expired.
  • the relationship between the individual area 41A and the ID area 41B in the recognition target image 41 may be arranged at a fixed position as shown in FIG. 17, or as shown in FIG. It is okay to be placed in a place.
  • feature amount extraction is performed on one photographed image, and the server 20 is inquired.
  • a plurality of target images 41 may be included for one image.
  • the following method is effective.
  • the original image used for calculating the reference feature amount on the TP data management DB 22 side is displayed as shown in FIG.
  • the images are displayed in a part (for example, the lower part) of the display area in order from the target image 41 at the position closest to the center when inputting the image.
  • the user may not be able to determine whether 41 is recognized.
  • a character string or design such as “Get” or “Note mark” explicitly on the region where the feature amount is extracted from the target image 41 in the input image. Display the mark.
  • a card game is played using a camera-equipped mobile terminal 10 using a camera-equipped mobile phone or a PDA having a communication function that can be used in combination with a photographing device.
  • the cards arranged in the field are photographed as the target image 41, recognition is performed, and various results are provided to the user according to the recognition results.
  • a card close to a predetermined reference point such as the center of the screen is selected.
  • the mobile terminal 10 can be recognized as an instruction to the card by moving it upward in the screen. It recognizes that the card is a specific card by recognizing the design of the card, etc., and furthermore, it is expressed by image information on the screen (optical flow, card design itself, and corners and edges as a pattern). This is realized by tracking the relative movement of the card within the screen using natural feature points.
  • the mobile terminal 10 by tracking the operation of the mobile terminal 10 with the information power within the screen, it is also possible to switch the information to be output, for example, the information of the recognized card. For example, when the mobile terminal 10 is moved upward after catching the card, information on the attack or voice is presented, or when the mobile terminal 10 is rotated, the evolution information of the character described on the card is presented. It will be.
  • the selection criteria when capturing a plurality of cards are not limited to these. For example, for the one that is close to the posture at the time of registration, that is, the one registered in the front state, It may be preferentially selected that the length and breadth are almost the same and the top and bottom are the same.
  • registered images corresponding to a plurality of recognized cards may be displayed as a band-like row on a part of the screen (tab image), and these may be selected.
  • all or part of the content in the theme park can be obtained by capturing the symbols placed on the ticket, the map in the hall, the signboard near the gate, etc. with the camera-equipped mobile terminal 10. It can be stored in advance in a storage area in the mobile terminal 10.
  • This storage area may be a built-in memory or another medium such as a memory card. Of course, you may distribute memory cards with content stored.
  • the signboard By registering the signboard near the attraction or the appearance of the attraction facility, the gate, etc. as the feature area corresponding to the content, the signboard, the appearance of the facility, the gate, etc. can be viewed on the mobile terminal 10 with the camera downloaded. Or you can enjoy the corresponding content simply by shooting. For example, if you photograph a facility gate when you are queued up, you can see the explanation of the facility sent as result information in the animation of the character.
  • the game can be played in conjunction with the attractions in the facility, and as a result of the game, the score or the like may be a parameter for changing the production in the facility.
  • scores are transmitted to the server 20 etc. installed in the theme park by communication when the game is completed.
  • the login notification is completed by taking a picture of the gate again at the start of the attraction.
  • signboards such as those indicating food corners and toilets, etc.
  • signboards such as those indicating food corners and toilets, etc.
  • what is supposed to be recognized from the current approximate position of the user can be limited by using, for example, GPS or radio wave intensity between base stations.
  • GPS or radio wave intensity between base stations.
  • a user in the center of the A zone photographs a food corner sign, restaurant A and attractions B, C, D, and souvenirs where the matching candidates may be visible from that location. It can be limited to shops E and F only, greatly improving the efficiency of matching. It is possible.
  • the environment is concentrated in users, it may be impossible to ensure a sufficient communication band Z speed.
  • the coarse image information PO is sent first, followed by the difference information dPl from the PO to form the higher-resolution image P1.
  • the PO search result and then the P1 search result are communicated asynchronously to obtain the result.
  • the transmission order is changed according to the importance of each feature element. In other words, it suffices to transmit in the order of the feature element strength with the highest importance.
  • information associated with low-resolution information may be grouped information.
  • information on the server corresponding to the low resolution is also associated with the facility type, and the specific store information is associated on the server corresponding to the higher resolution information.
  • a camera-equipped mobile phone is used as the camera-equipped mobile terminal 10.
  • a mobile application 13 including the present technology is installed in advance on the camera-equipped mobile phone or downloaded at the time of sale.
  • the mobile application 13 on the mobile phone side has a function of sending a photographed image to a predetermined server that can be appropriately selected by the user, temporarily displays an answer from the server, and connects to the mobile site. Has a function of starting a browser.
  • this search system mainly includes three kinds of software group forces. That is, carrying The mobile application 13 installed in the mobile phone, the software of the matching processing unit 21 configured in the server 20, and the image registration system 80.
  • the mobile application 13 activates the camera, which is the image input unit 11 installed in the mobile phone as described above, and takes an image of the object in accordance with a user instruction (step S71). ), And sends the image to the matching processing unit 21 of the server 20 via communication (step S72).
  • preliminary processing is performed on the camera-equipped mobile terminal 10, for example, image compression, contour enhancement, contrast adjustment, feature point extraction, partial feature amount evaluation, etc., and these are combined with the original image. Z or separately sent to the server side.
  • the mobile application 13 may have an image feature amount matching function.
  • the power described above with respect to the matching processing unit 21 is based on the TP data management DB22 as a template in which the reference image group registered by the image registration system 80 is in accordance with its resolution or in stages.
  • the primary function is the function to collate with what is stored in
  • the image registration system 80 is an introductory part at the time of use in the present technology, and has a function of registering a trap image for providing information and a trap image to be searched.
  • the image registration system 80 provides what can be used in the form of a Web application. By adopting this form, the time and place restrictions for those who wish to register images are extremely reduced.
  • this image registration system 80 one of the portable applications 13 is also effective for ensuring the convenience of registration.
  • a mobile phone camera image input unit 11
  • the images taken there are registered in a specific or user-specified database (TP data management DB22) for the camera-equipped mobile terminal 10, and the images are further recorded.
  • Information that should be linked to can be registered together.
  • the URL is also the image and web server
  • the web page (content site) on the node 70 is linked, and by specifying the keyword with text, it can be set to search the site with a general search engine.
  • the registration image is transmitted from the mobile phone to the TP data management DB 22 (step S73) and registered as the second hierarchical template (secondary hierarchical template 2222).
  • second hierarchical template 2222 an image with reduced definition is regenerated from the transmitted image, and a first layer template (primary layer template 2221) is created and registered (step S74). This is because it is disadvantageous in terms of time and usage fee to transmit the same image multiple times from the mobile phone.
  • the image registration system 80 and the mobile application 13 are a piece of software on the mobile phone. This is because both software have almost the same function for taking an image on a mobile phone and sending the image to a server.
  • This software is referred to here as a registered and portable application.
  • this registration / mobile application when the mobile application 13 is launched on the mobile phone, it is possible to determine “registration” or “search” after the image is taken. It is also possible to specify a specific processing unit 21 of a specific server 20 or a specific TP data management DB 22 immediately after startup. In this case, “registration” or “search” can be designated at this timing.
  • step S72 When "search” is performed, the image is transmitted in step S72 as described above.
  • the matching processing unit 21 performs primary matching using the primary hierarchy template 2221 registered in the TP data management DB 22 (step S75), and further performs secondary matching using the secondary hierarchy template 22 22. (Step S76). Then, information associated with the matched image, for example, link destination information such as a URL is returned (step S77).
  • the mobile application 13 that has received this link destination information starts up the mobile phone browser, reads the Web page of the Web server 70 that is the link destination (step S78), and displays it (step S79).
  • the mobile phone uses base station information and GPS signals, and the matching processing unit 21 or the TP data management DB 22 is automatically used based on the location information in consideration of the location of the user. By switching, it is possible to present different information such as the same photo or poster (information that is more useful at that position).
  • an image that is very similar to an already registered image may be registered. In such a case, it is usual to evaluate the degree of similarity and reject registration if it is above a threshold.
  • the image registration system 80 when user n tries to register an image, the image registration system 80 is inputted with the image desired to be registered (step S81), and the information associated with the image is used. Some result information is entered (step S82). The image registration system 80 that has received such input performs a similarity check on all images registered in the shared data area of the TP data management DB 22 (step S83).
  • the TP data management DB 22 targets the shared data area 223, which is the entire area, as a range for searching images and a range for checking similarity.
  • This shared data area 223 is a set of individual user areas 224. Individual user area In an area 224, an image and result information for each user is registered.
  • step S84 If there is no similar image in shared data area 223 (step S84), the input image and result information are registered in individual user area 224 of user n (step S85), and the process ends.
  • Step S84 if there is a similar image in the shared data area 223 (step S84), whether or not the similar image is an image registered in the individual user area 224 of the user n. (Step S86).
  • user A registers images a—1, a-2, a—3,..., A—n
  • user B registers image b.
  • step S87 a registration rejection message as shown in FIG. 30 is displayed (step S87), and the process is terminated.
  • step S86 when user B tries to register image b ⁇ m, if similar image b ⁇ i exists, the user is the same user (step S86). Is displayed (step S88), and the user confirms whether or not to register it (step S89). If [Cancel] is selected, the process ends. If [OK] is selected, the input image and result information are registered in the individual user area 224 of the user n (step S85), and the process ends.
  • the degree of similarity approaches when the template is selected.
  • hierarchizing templates it is possible to match the templates of each layer with AND, and to reduce mismatching.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 携帯アプリケーション(13)及びマッチング処理部(21)は、画像入力部(11)で入力した画像を基にして、階層管理されたテンプレートを用いて、TPデータ管理DB(22)から画像を検索する際、上位階層のテンプレート(例えば1次階層テンプレート2221)を用いたテンプレートマッチングに続いて、下位階層のテンプレート(例えば2次階層テンプレート2222)を用いたテンプレートマッチングを行って検索画像を絞り込み、その絞り込まれた検索結果の画像をディスプレイ(12)で出力する。

Description

検索システム及び検索方法
技術分野
[0001] 本発明は、データベース力 画像を検索する検索システム及び検索方法に関する 背景技術
[0002] 従来より、入力された画像に対応する画像をデータベースから検索する手法として 、テンプレートマッチングが広く知られている。これは、データベースに蓄積された各 画像を予め所定の粗い解像度に落としたテンプレートを作成して、それらテンプレー トをデータベースに登録しておき、同様の解像度に落とした入力画像とそれらテンプ レートとのマッチングを取ると 、うものである。
[0003] し力し、そのようなテンプレートマッチングでは、似た画像をミスマッチングしてしまう 可能性がある。そこで、ミスマッチングを低減させるために、類似度テーブルによって 、テンプレート間の類似度を管理し、類似した画像の登録を防止するなどの対応を行 つている。し力しながら、登録テンプレート数が多くなればなるほど、ミスマッチングの 可能性は増大してしまう。
[0004] また、類似度を決定する特徴量を特徴点の配置から決める方法も知られて!/、る。そ して、そのような方法においては、例えば、特開 2004— 362186号公報に開示され ているように、多数のマッチング用データベースを保持し参照する場合、マッチング サーバを並列化し、多数の参照データを分割してマッチングすることで時間短縮を図 ろうとする手法が考えられて 、る。
発明の開示
[0005] しかしながら、上記特開 2004— 362186号公報に開示されているようなマッチング の並列処理については、確率的に高速化する効果はあるものの、認識 (成功)率を向 上させる効果はな 、ことが発明者らの実験で確認されて 、る。
[0006] 本発明は、上記の点に鑑みてなされたもので、高速化と認識率の向上をバランス良 く達成できる検索システム及び検索方法を提供することを目的とする。 [0007] 本発明の検索システムの一態様は、画像を入力する画像入力手段と、上記画像入 力手段で入力した画像を基にして、階層管理されたテンプレートを用いて、データべ ースから画像を検索する手段であり、上位階層のテンプレートを用いたテンプレート マッチングに続いて、下位階層のテンプレートを用いたテンプレートマッチングを行つ て検索画像を絞り込む検索手段と、上記検索手段によって絞り込まれた検索結果の 画像を出力する出力手段と、を具備することを特徴とする。
[0008] また、本発明の検索方法の一態様は、画像をデータベースから検索する方法であ り、画像を入力し、入力した画像を基にして、階層管理されたテンプレートの上位階 層のテンプレートを用いてテンプレートマッチングを行って、データベースから画像を 検索し、さらに、下位階層のテンプレートを用いたテンプレートマッチングを行って検 索画像を絞り込み、上記絞り込まれた検索結果の画像を出力する、ことを特徴とする 図面の簡単な説明
[0009] [図 1]図 1は、本発明の一実施例に係る検索システムの構成を示す図である。
[図 2]図 2は、紙面とその紙面上の対象画像を示す図である。
[図 3]図 3は、 TP作成部での階層テンプレート作成処理のフローチャートを示す図で ある。
[図 4]図 4は、領域分割レイアウトの例を示す図である。
[図 5]図 5は、領域分割レイアウトの別の例を示す図である。
[図 6]図 6は、切り出し位置と解像度とを組み合わせた領域分割レイアウトの例を示す 図である。
[図 7]図 7は、切り出し位置と解像度とを組み合わせた領域分割レイアウトの別の例を 示す図である。
[図 8]図 8は、従来のテンプレートマッチングの問題点を説明するための図である。
[図 9]図 9は、階層テンプレートを使用する効果を説明するための図である。
[図 10]図 10は、 TPデータ管理 DBでの TPデータ管理処理のフローチャートを示す 図である。
[図 11]図 11は、携帯アプリケーションでの端末側動作処理のフローチャートを示す図 である。
[図 12]図 12は、マッチング処理部でのマッチング処理のフローチャートを示す図であ る。
[図 13]図 13は、第 1具体例を説明するための、似ている対象画像、レイアウト構成、 第 1階層のテンプレート、及び第 2階層のテンプレートを示す図である。
[図 14]図 14は、第 2具体例における検索システムの構成を示す図である。
[図 15]図 15は、第 3具体例における、対象画像入力画像解像度、カメラ付携帯端末
、及び TPデータ管理 DBを説明するための図である。
[図 16]図 16は、第 4具体例における検索システムの構成を示す図である。
圆 17]図 17は、認識対象画像における個別領域と ID領域との固定位置関係を示す 図である。
圆 18]図 18は、認識対象画像における個別領域と ID領域との相対位置関係を示す 図である。
[図 19]図 19は、第 5具体例において、複数個マッチングしたときの表示例を説明する ための図である。
[図 20]図 20は、第 5具体例において、複数個マッチングしたときの別の表示例を説明 するための図である。
[図 21]図 21は、第 5具体例において、複数個マッチングしたときの更に別の表示例を 説明するための図である。
[図 22]図 22は、第 5具体例において、複数個マッチングしたときの他の表示例を説明 するための図である。
[図 23]図 23は、第 6具体例にけるマッチングしたときの表示例を説明するための図で ある。
[図 24]図 24は、第 6具体例にけるマッチングしたときの別の表示例を説明するための 図である。
[図 25]図 25は、第 8具体例において解像度に応じて順次マッチングしていく様子を 示す図である。
[図 26]図 26は、第 9具体例における検索システムの構成を示す図である。 [図 27]図 27は、第 9具体例の動作を説明するためのフローチャートを示す図である。
[図 28]図 28は、第 10具体例の動作を説明するためのフローチャートを示す図である
[図 29]図 29は、共有データ領域及び個別ユーザ領域を説明するための図である。
[図 30]図 30は、登録拒否メッセージの表示例を示す図である。
[図 31]図 31は、登録確認メッセージの表示例を示す図である。
発明を実施するための最良の形態
[0010] 以下、本発明を実施するための最良の形態を図面を参照して説明する。
[0011] 図 1に示すように、本発明の一実施例に係る検索システムは、カメラ付携帯電話機 やカメラ付 PDA等のカメラ付携帯端末 10と検索手段とから構成される。カメラ付携帯 端末 10は、画像を入力する画像入力手段としての画像入力部 (カメラ) 11と、特定結 果を出力する出力手段としてのディスプレイ 12とを含む。検索手段は、階層管理され たテンプレートを用いて、上記画像入力部 11で入力した画像を基にしてデータべ一 ス力 画像を検索するものである。この検索手段は、カメラ付携帯端末 10の携帯アブ リケーシヨン 13と、上記カメラ付携帯端末 10と通信可能なサーバ 20に構成されたマ ツチング処理部 21とによって実現される。
[0012] 上記サーバ 20は、更に、複数のテンプレートが登録され、それらを階層管理するテ ンプレート(TP)データ管理データベース(DB) 22を有して!/、る。この TPデータ管理 DB22に登録されるテンプレートは、デスクトップパブリツシング(DTP) 30で、図 2に 示すように紙面 40に配置した対象画像 41から、 TP作成部 50によって作成されたも のである。即ち、本一実施例に係る検索システムでは、予め、 DTP30によって、図 2 に示すように紙面 40に対象画像 41を印刷する。それと共に、 TP作成部 50でその対 象画像 41のテンプレートを作成する。そして、その作成したテンプレートをサーバ 20 の TPデータ管理 DB22に登録しておく。なお、登録する対象画像 41が多数あれば、 そのようなテンプレートの作成と登録を繰り返す。
[0013] 検索を望むユーザは、紙面 40からカメラ付携帯端末 10等の画像入力部 11を使つ て対象画像 41を取り込む。すると、携帯アプリケーション 13は、その入力画像から画 像の特徴抽出を行い、抽出した特徴データをサーバ 20のマッチング処理部 21に送 る。この特徴データを受けたマッチング処理部 21は、 TPデータ管理 DB22に登録さ れているテンプレートとパターンマッチングを行う。この場合、上位階層のテンプレー トを用いたテンプレートマッチングに続いて、下位階層のテンプレートを用いたテンプ レートマッチングを行って検索画像を絞り込む。そして、パターンマッチング結果が取 得されたならば、マッチング処理部 21は、その結果情報をカメラ付携帯端末 10の携 帯アプリケーション 13に送る。この結果情報を受信した携帯アプリケーション 13は、 その結果情報をディスプレイ 12に表示する。
[0014] 以下、各部の動作をより詳細に説明する。
[0015] まず、上記 TP作成部 50での階層テンプレート作成処理について、図 3を参照して 説明する。
[0016] 即ち、 TP作成部 50においては、まず、ユーザが所望の、 N次の階層テンプレート の各層で使用する対象画像 41の領域分割レイアウトを定義する (ステップ S 11)。
[0017] 図 4及び図 5に示すように、この領域分割レイアウト 221とは、例えば、各階層のテン プレートの画像の切り出し位置を示すものである。あるいは、各階層のテンプレートの 解像度を示すものであっても良い。
[0018] 更には、図 6及び図 7に示すように、切り出し位置と解像度とを組み合わせたもので あっても良い。即ち、図 6に示す領域分割レイアウト 221の例は、画像の全体領域を 8 X 8セグメントに分割した 1次階層テンプレート 2221、画像の 1/4の領域を 8 X 8セ グメントに分割した 2次階層テンプレート 2222、画像の 1/8の領域を 8 X 8セグメント に分割した 3次階層テンプレート 2223を、それらの右下を一致させるような切り出し 位置に設定した例である。また、図 7に示す領域分割レイアウト 221の例は、上記 3つ のテンプレート 2221, 2222, 2223の中心を一致させるような切り出し位置に設定し た例である。なお、図 4乃至図 7の例は N = 3場合を示している力 それに限定される ものではな!/、ことは勿論である。
[0019] 例えば、テンプレートマッチングでは、図 8に示すような似た画像をミスマッチングし てしまう可能性がある。これに対して、図 9に示すように、右下の領域のみ解像度の高 いテンプレート(2次階層テンプレート 2222)を使用すれば、ミスマッチングの可能性 を減少、させることができる。 [0020] なお、領域分割レイアウトを「定義する」とは、新たに「作成する」場合と既にあるもの を「選択する」場合との何れをも含むものである。
[0021] 而して、上記のような領域分割レイアウト 221が定義されたならば、内部カウンタ nを 「1」にセットする(ステップ S12)。そして、そのカウンタ nの値が Nよりも大きくなつてい るか否かを判別する (ステップ S 13)。
[0022] ここで、まだ Nよりも小さい場合には、上記定義した領域分割レイアウト 221に従つ て、元画像を入力する (ステップ S 14)。この場合、入力される元画像は、対象画像 4 1における上記領域分割レイアウト 221により示される画像切り出し位置の画像デー タである。そして、上記定義した領域分割レイアウト 221に従って、その入力された元 画像から特徴データを作成、つまり n層(n次元)テンプレートを作成する (ステップ S1 5)。次に、例えばテンプレートマッチングによって OKとなったときに出力すべき結果 情報、例えば特定の Webサイトの URL等を入力する (ステップ S16)。そして、それら 特徴データ及び結果情報を、該 TP作成部 50内に構成した特徴データ Z結果情報 テーブル 51に登録する(ステップ S 17)。
[0023] その後、カウンタ nの値を「 + 1」した後(ステップ S18)、上記ステップ S13に戻り、上 記ステップを繰り返し行う。こうして、カウンタ nの値が Nよりも大きくなつたならば (ステ ップ S13)、この TP作成処理を終了する。
[0024] 次に、図 10を参照して、上記サーバ 20の TPデータ管理 DB22での TPデータ管理 処理の詳細を説明する。
[0025] 即ち、 TPデータ管理 DB22では、まず、 TP作成部 50から上記 N次の階層テンプレ ートの各層で使用する対象画像 41の領域分割レイアウト 221を読み出す (ステップ S 21)。次に、その読み出した領域分割レイアウト 221に対応する特徴データ Z結果情 報テーブル 51の内容を読み出す (ステップ S22)。そして、テンプレートレイアウト毎 に設けられたデータベースに、上記読み出した領域分割レイアウト 221に従って、上 記読み出した特徴データ Z結果情報テーブル 51の内容を登録する (ステップ S 23) 。この処理を、 TP作成部 50で作成した全てのテンプレートが終了するまで (ステップ S 24)、繰り返す。
[0026] 次に、図 11及び図 12を参照して、上記カメラ付携帯端末 10の携帯アプリケーショ ン 13での端末側動作処理、及び、上記サーバ 20のマッチング処理部 21でのマッチ ング処理の詳細を説明する。なお、図 1では、携帯アプリケーション 13は一つしか図 示していないが、実際にはカメラ付携帯端末 10には複数の携帯アプリケーション 13 が存在する。即ち、一つのテンプレートレイアウトに対して一つの携帯アプリケーショ ン 13が存在し、元の対象画像 41の種類に応じて起動される携帯アプリケーション 13 が異なる。
[0027] ある対象画像 41に対応する携帯アプリケーション 13が起動されると、その携帯アブ リケーシヨン 13は、まず、当該携帯アプリケーション 13のテンプレートレイアウトによつ て決まるテンプレート最大階層数を、図示しない内部カウンタ Nにセットする (ステップ S31)。そして、画像入力部 11により紙面 40上の対象画像 41を撮影して得られた画 像を入力する (ステップ S32)。次に、階層番号をカウントする図示しない内部カウン タ nを「1」にセットする(ステップ S33)。
[0028] その後、当該携帯アプリケーション 13のテンプレートレイアウトに従って、その画像 に対し第 n階層領域の特徴データ (n次特徴量)を抽出する (ステップ S34)。ここで、 特徴データ (特徴量)とは、例えば特徴点の分布や濃度などである。そして、その抽 出した n次特徴量を、当該携帯アプリケーション 13のテンプレートレイアウトを特定す るための TPレイアウト番号 m及び現在の階層番号 nと共に、サーバ 20のマッチング 処理部 21に対して送信する (ステップ S35)。その後、そのマッチング処理部 21から の結果情報の受信待ちとなる (ステップ S36)。
[0029] サーバ 20のマッチング処理部 21においては、まず、受信した TPレイアウト番号 m に従って最大階層数を図示しない内部カウンタ Nにセットする (ステップ S51)。また、 マッチング対象の階層番号を図示しない内部カウンタ nにセットする (ステップ S52)。 そして、受信した n次の特徴データ (特徴量)を取得する (ステップ S53)。次に、上記 TPデータ管理 DB22の上記受信した TPレイアウト番号 mで示されるデータベースに 登録管理されているテンプレートと該取得した特徴データとのパターンマッチングを 行う(ステップ S 54)。
[0030] そのパターンマッチングにより、対象データ候補が有ったならば (ステップ S55)、更 に、類似度チェックを行う(ステップ S56)。そして、類似度が所定の閾値以上の対象 データ候補が一つであるか否かを判別する (ステップ S57)。
[0031] このステップ S57にお 、て、対象データ候補が一つであると判別されたならば、そ の対象データ候補の特徴データに対応して特徴データ Z結果情報テーブル 51に登 録されている結果情報を、上記カメラ付携帯端末 10に対して返信する (ステップ S58
) o
[0032] 携帯アプリケーション 13は、上記サーバ 20のマッチング処理部 21から結果情報が 返信されてきたならば (ステップ S37)、それをディスプレイ 12に表示する(ステップ S 38)。
[0033] これに対して、上記ステップ S57において、類似度が所定の閾値以上の対象デー タ候補が複数あると判別された場合には、内部カウンタ Nの値が内部カウンタ nの値 よりも大きいか否かを判別する (ステップ S59)。そして、大きくなければ、(n+ 1)次特 徴データの送信を、上記カメラ付携帯端末 10に対して要求する (ステップ S60)。
[0034] 携帯アプリケーション 13は、上記サーバ 20のマッチング処理部 21から上記(n+ 1) 次特徴データの送信要求があった場合には (ステップ S37)、内部カウンタ Nの値が 内部カウンタ nの値よりも大きいか否かを判別する (ステップ S39)。そして、大きくなけ れば、カウンタ nの値を「 + 1」して(ステップ S40)、上記ステップ S34に戻り、上記の 処理を繰り返す。これにより、 n+ 1次の特徴データがサーバ 20のマッチング処理部 21に送信されることになる。
[0035] そして、サーノ 20のマッチング処理部 21においては、その n+ 1次の特徴データに 対して上述したような処理を実行する。但しこの場合、前回のパターンマッチング時 に複数あった対象データ候補に対して優先的にパターンマッチングを行う。
[0036] こうして、一つのテンプレートにマッチングするまで、上記の処理が携帯アプリケー シヨン 13とマッチング処理部 21で繰り返される。
[0037] なお、上記ステップ S39において、内部カウンタ Nの値が内部カウンタ nの値よりも 大きいと判別された場合には、携帯アプリケーション 13は、マッチングエラーとして、 エラーメッセージ等をディスプレイ 12に表示して (ステップ S41)、処理を終了すること になる。
[0038] 以下、具体的な具体例を図面を参照して説明する。 [0039] [第 1具体例]
本具体例は、カメラ付き携帯電話機を利用して、通販雑誌 Zカタログ誌にてスムー ズな通販を進める場合の例である。
[0040] 通販雑誌 Zカタログ誌で商品とオプション品をセットで販売する場合、図 13に示す ように、紙面 40には、メイン商品(カメラ)の画像が大きぐオプション品(交換レンズや フィルム)が小さく印刷されている場合がある。このような対象画像 41の場合、類似度 が接近して判別が難しくなる。
[0041] そこで、予め、対象画像 41全体を第 1階層テンプレート(1次階層テンプレート 222
1)として登録しておき、注目領域を第 2階層テンプレート(2次階層テンプレート 222
2)として登録しておく。この結果、比較的粗い解像度で撮影した画像カゝら特徴量を 抽出 (特徴点分布方式、テンプレート濃度方式のどちらでも)した場合であっても、第 2階層のテンプレート(マッチングエンジン)を指定する意味のみであるので、誤認識 率は小さく且つ、元画像が粗 ヽので特徴量データ容量自体も小さ ヽ。
[0042] さらに、このときの第 1階層テンプレート領域と第 2階層テンプレート領域のレイァゥ ト構成 (領域分割レイアウト 221)も登録しておく。
[0043] そして、対象画像 41を入力し、携帯アプリケーション 13で第 1階層レイアウト範囲の 特徴データを抽出し、サーバ 20のマッチング処理部 21では、その抽出された第 1階 層の特徴データに対してマッチング処理を行う。所定の閾値以上の演算結果が複数 あった場合には、上記登録した第 2階層テンプレート領域の特徴データを抽出し、パ ターンマッチングを行う。
[0044] 第 1階層におけるパターンマッチングと第 2階層で行うパターンマッチングで用いる 特徴データの構成サイズ (特徴の細かさ)を同じにすると、各階層での特徴抽出ゃパ ターンマッチング処理を共通化可能であるし、異なる特徴抽出を設定しておくことも 有効である。更に、第 1階層の特徴抽出において、例えば画像を 9分割し、その任意 のセグメントに対応する部分のみの特徴量抽出を進める事も可能であり、且つその指 定を携帯電話機であれば、テンキーなどで指定することが有効である。例えば、右上 のセグメントを「3」、中央を「5」等である。この後、第 1階層のマッチングエンジン (及 びデータベース)にて所定の第 2階層データベースを指定され、決定マッチングがさ れる。しかもこの間の通信はおよそ大きく見積もっても VGAクラスで lOkB以上を必 要としない。言い換えると、それ以上の精細度、或いは特徴点の配置組み合わせ数 を持って!/、ても結果に影響しな 、事が判明して 、る。これはテンプレート方式でも同 様で、第 1階層の役割力も機能を設計すると、 16 X 16セグメント (特徴量サイズ: 256 )でのテンプレート設定でも充分であり、その場合の特徴量はやはり 2kB程度である。 従って、通信されるべき特微量にっ 、ても従来より極めて低く携帯回線上の通信容 量に関しても lOkB以下のデータであり、高速化の観点からも効果を発揮するもので ある。
[0045] [第 2具体例]
Webページは URLがわかれば誰でも参照することができる。これに対して、写真集 などの雑誌を買った人だけが接続できる Webページ (プレミアムコンテンツ)では、そ の Webページの参照を制限する手段として、会員制にして、ユーザ名及びパスヮー ドを入力する場合が多い。しかし、携帯電話機の Webサイトなどの場合、ユーザ名及 びパスワードを端末力 入力するのは非常に面倒であった。
[0046] そこで、本具体例は、紙面 40の対象画像 41を、携帯アプリケーション 13を有する カメラ付携帯端末 10で読み取った場合だけ、そのような Webページを参照できるよう にするものである。
[0047] 即ち、紙面 40上の対象画像 41に対して、第 1階層テンプレート(1次階層テンプレ ート 2221)と第 2階層テンプレート(2次階層テンプレート 2222)に分け、第 1階層テ ンプレートをプレミアム IDに関連付けておく。そして、紙面 40上の対象画像 41を入 力し、第 1階層テンプレートと第 2階層テンプレートそれぞれに対し、テンプレートマツ チングを行う。サーバ 20は、テンプレートマッチング結果として得られた結果情報で ある URLが上記のようなプレミアサイトのときだけ、時間限定で Webページを動的に 生成するように要求する。このため、紙面 40から対象画像 41を読み込んで、マッチし た場合だけ Webページが生成され、この生成された Webページを参照することがで きる。
[0048] なお、 Webページを動的に生成するとある力 図 14に示すように、プレミアムサー ノ 60がプレミアム IDの認証処理を行うことにより、 Webサーバ 70に静的に用意され た Webページ 71に対して動的にアクセス制御を行うことで、動的に Webページを生 成して 、ることと同等の効果を得られることは勿論である。
[0049] [第 3具体例]
携帯電話機上や PDAなどのカメラ付携帯端末 10でマッチングを行う場合、カメラ 付携帯端末 10側に TPデータ管理 DB22を設けることは可能であるが、携帯端末 10 側で大量に参照特徴量データ (テンプレート)を管理するのは、メモリ容量、演算速度 の面で不利な場合が多い。さらに、テンプレートは頻繁に更新されるため、テンプレ ートを携帯端末 10がサーバ 20から逐次ダウンロードする必要がある。従って、画像 のマッチングを行う場合、マッチングをサーバ 20側で行った方力 メモリ容量、演算 速度の面では有利である。しかしながら、携帯端末 10側で対象画像 41を入力する 毎に、特徴データをサーバ 20に送信しなければならない。対象画像 41の特徴点の 配置関係で特徴量を定義する方式 (Vipr)の場合、特徴量の演算に用いる対象画像 41の撮影時の解像度が認識精度とマッチング速度を決める。解像度が高い、即ち撮 影時の画素数が多くければ認識精度は向上するが、マッチング速度は演算回数が 増大するため遅くなる。従って、階層化マッチングを行うには、同一対象画像 41に対 してその解像度が段階的に全て異なる各階層の特徴量を、 TPデータ管理 DB22で 管理する構成が有効である。
[0050] 本具体例は、カメラ付携帯端末 10としてカメラ付携帯電話機を使用する例であり、 予め登録した画像を撮影することにより、その画像を認識し、所定の動作、例えば音 声出力や所定のプログラムの起動、或 、は所定の URLの表示をさせる場合に適用 するものである。特に、予め登録した画像が極めて多数(1000以上)の場合に効果 力 Sある方式であり、また、類似性の高い画像がその中に含まれている場合にも効果を 有する。
[0051] 画像を認識する場合、 V、わゆる辞書データとして画像データを登録するが、画像を そのまま比較するのではなぐ画像の特徴量を比較するのが効率が良く実際的であ る。本具体例では、画像の特徴点の配置関係をベクトル量の組み合わせとして算出 し、その多数組を特徴量として定義する。そのとき、この特徴量は、特徴点の現れる 数によってその精度が異なり、元の画像の精細度が高ければ特徴点が数多く検出可 能であるため、同じ元画像に対し、なるべく高精細な条件で特徴量を算出する。この とき、同じ画像素材に対して精細度を低下させた画像を基に特徴量を算出すると、特 徴点が比較的少なくなるため特徴量自体は小さ 、容量となる。容量が小さ!/、ことはマ ツチング精度には劣るものの、マッチング速度が高速であることや、携帯回線などで の通信速度が速い等のメリットがある。本具体例においてはここに着眼し、画像を参 照データ (テンプレート)として登録する際、同じ画像素材を登録するにしても異なる 複数の精細度から特徴量を算出し、それぞれの精細度に分割したデータベース (TP データ管理 DB22)を構成する。そのそれぞれのデータベースにはそれぞれに対応 するマッチングサーバ(マッチング処理部 21)が接続し、並列動作可能な配置とする
[0052] 例えば、図 15に示すように、多数のマッチング処理部 21と TPデータ管理 DB22が クラスタ化されネットワーク内に大方等位に存在したとする。その TPデータ管理 DB2 2には同一対象画像 41の特徴量が各階層で管理されている。但し、各 TPデータ管 理 DB22では、特徴量を算出したときの元画像の解像度が異なる。例えば、 QVGA レベル、 VGAレベル、 XGAレベル、 SXGAレベル、…のように分けられている。
[0053] このようなマッチング処理系を準備した上で、携帯電話機の画像入力部 (カメラ) 11 から、既に登録されている意匠を撮影し、携帯電話機上の携帯アプリケーション 13に より特徴点の配置関係から特徴量を算出する。このときのカメラ解像度が 200万画素 級であったとすれば、通信を介してマッチング処理部 21にて検索する場合も 200万 画素級の解像度の TPデータ管理 DB22からのデータでマッチングを行えば誤認識 率が少ない。しカゝしながら、同時に動作する低解像度 (例えば VGAクラスの解像度) の TPデータ管理 DB22でのマッチングは高速に応答するため、先に携帯電話機に 結果が送付される。このように、マッチング処理部 21を元画像の解像度別に並列配 置することは、速度的、認識精度的に有利である。
[0054] 例えば、一万円札の画像を QVG Aで入力し、その解像度レベルにおいて特徴量を 算出し、マッチング処理部 21クラスタに送られれば、当然 Q VGAレベルのテンプレ ートを蓄積した TPデータ管理 DB22に対しマッチングを行うマッチング処理部 21は 最初にマッチし、所定の認識結果を返す。そして、それ以降のマッチング処理部 21 による結果も時間差はあるものの同様の結果が期待できる。
[0055] また、この一万円札の画像を SXG Aの解像度で入力し、各マッチング処理部 21に この解像度での特徴量を送ったとすると、この場合も同様に、最初に QVGAレベル のマッチング処理部 21からマッチング結果が返ってくることが予測される。し力しなが ら、その後、 VGAレベル、 XGAレベル、 SXGAレベル、…の各マッチング処理部 21 力もわずかな時差でマッチング結果が返ってきたとき、当初「一万円札」であると言う 結果だったもの力 解像度が上がった場合に「一万円札で、番号部分に XDA3248 798PSPに相当する画像がある」という特定結果まで返してくることが可能となる。ま た、上述したとおり、高解像度マッチング処理部 21においては特徴量自体の容量が 大きぐ XGAクラスの特徴量は 40KB程度に肥大する力 予め低解像度マッチング によりおよそ 10KB程度までに小さく成る。また、 2次以降のマッチング処理部 21及 び TPデータ管理 DB22においては、より低解像データベースとの差分のみを保持す れば、より小さいデータベース構成を実現し、それは認識処理の高速化につながる。
[0056] このように、一部又は全面の解像度を同画像より算出し、実質上の階層化を実現す ることは、複数のデータベースをクラスタ的にマッチングエンジンを分散処理する場合 に比べて認識速度、認識精度の両面で効果がある。
[0057] また、この方式は、仮に当初の認識結果が誤認識(間違った認識結果)を返したと しても、後から返ってきた認識結果の方が確率的に正答で有る可能性が高いため、 訂正が可能である。
[0058] なお、 TPデータ管理 DB22への登録については、高解像度の対象画像 41の特徴 量を計算した後、順次解像度を落として特徴量を再算出して次々に当該解像度の D Bに登録して行くことで行われる。
[0059] また、高解像度で対象画像 41を撮影してマッチングを行う場合には、上記 TPデー タ管理 DB登録時とは逆に、カメラ付携帯端末 10の携帯アプリケーション 13において 撮影画像をリサイズして特徴量を計算する。そして、当該解像度に対応する TPデー タ管理 DB22及びマッチング処理部 21に送信。その後、更に解像度を上げて特徴 量を再算出し、当該解像度に対応する TPデータ管理 DB22及びマッチング処理部 21に送信する。これを、撮影時の解像度に達するまで、繰り返す。 [0060] この方法の応用として、低解像度の TPデータ管理 DB22及びマッチング処理部 21 でマッチングさせること〖こより、対象物を大まかに分無し、その分類に対応した TPデ ータ管理 DB22及びマッチング処理部 21に対してさらにマッチングを行うことも可能 である。例えば、一万円札を対象画像 41として入力した場合、低解像度では {本の 表紙,新聞,図書券カード、チケット,札,ポスター }、順次解像度が上がると {図書券 ,カード,チケット,紙幣 }、 {日本紙幣,ドル紙幣,ユーロ紙幣.元,ウォン }、{千円紙 幣札, 2千円紙幣, 5千円紙幣, 1万円紙幣 } J新 1万円紙幣、旧一万円紙幣 }、…の ように、各階層(各解像度)でのマッチング結果を使って、関連付けられた TPデータ 管理 DB22を優先的に検索することによって高速に検索を行うことが可能になる。さ らに、高解像度の検索結果の方が、精度が高いため誤認識があっても訂正が可能と なる。
[0061] [第 4具体例]
携帯電話機上や PDAなどのカメラ付携帯端末 10でマッチングを行う場合、カメラ 付携帯端末 10側に TPデータ管理 DB22を設けることは可能であるが、携帯端末 10 側で大量に参照特徴量データ (テンプレート)を管理するのは、メモリ容量、演算速度 の面で不利な場合が多い。さらに、テンプレートは頻繁に更新されるため、テンプレ ートを携帯端末 10がサーバ 20から逐次ダウンロードする必要がある。従って、画像 のマッチングを行う場合、マッチングをサーバ 20側で行った方力 メモリ容量、演算 速度の面では有利である。しかしながら、携帯端末 10側で対象画像 41を入力する 毎に、特徴データをサーバ 20に送信しなければならない。
[0062] 特徴量を用いて画像認識を行う場合、 TPデータ管理 DB22で管理する特徴量デ ータの数が増加すると、特徴量が接近したデータが増大する可能性があり、検索時 間も増加する。このため不要な特徴量データは早急に削除することが望ましい。
[0063] また、特徴量を用いて画像を認識しょうとして結果情報を取得したが、結果情報が 古かったり、指定された先の情報が削除されていたりする場合がある。例えば、結果 情報に URLが書かれていて、その URLに接続した力 その Webページが削除され ていて、接続できない場合などである。携帯電話の Webサイトなどの場合、サイトに 接続できなくても通信料金が発生する場合がある。 [0064] そこで、本具体例では、図 16に示すように、認識対象画像 41の画像領域を個別領 域 41Aと ID領域 41Bとに分ける。そして、 ID領域 41Bの特徴量を有効期限に対応さ せ、 1週間、 1ヶ月、 3ヶ月、 6ヶ月、 1年などの有効期限を用意しておく。
[0065] ID領域 41Bの特徴量は数を少なくすることが可能であり、サイズを小さくできるので 、カメラ付携帯端末 10側に ID領域 TPデータ管理 DB22Aを用意することが可能で ある。画像入力時にネットワーク等を経由して個別領域 TPデータ管理 DB22Bに検 索に行く前に、このカメラ付携帯端末 10内部に持った ID領域 TPデータ管理 DB22 Aを高速に検索可能で、有効期限が切れているか否かをユーザに示すことが可能と なる。
[0066] なお、認識対象画像 41における個別領域 41Aと ID領域 41Bとの関係は、図 17に 示すように、互いに固定位置に配置されていても良いし、図 18に示すように、相対位 置に配置されて 、ても構わな ヽ。
[0067] [第 5具体例]
携帯電話機上や PDAなどのカメラ付携帯端末 10でマッチングを行う場合、携帯端 末 10側に TPデータ管理 DB22を設けることは可能であるが、携帯端末 10側で大量 に参照特徴量 (テンプレート)を管理するのは、メモリ容量、演算速度の面で不利な 場合が多い。さらに、テンプレートは頻繁に更新されるため、テンプレートを携帯端末 10がサーバ 20から逐次ダウンロードする必要がある。従って、画像のマッチングを行 う場合、マッチングをサーバ 20側で行った方が、メモリ容量、演算速度の面では有利 である。しかしながら、携帯端末 10側で対象画像 41を入力する毎に、特徴データを サーバ 20に送信しなければならな 、。
[0068] この場合、撮影画像 1枚に対して特徴量抽出を行い、サーバ 20に問い合わせる。
このとき、 1枚の画像に対して複数の対象画像 41が含まれている場合がある。このよ うな場合、以下のような方法が有効である。
[0069] ·複数個マッチングしたとき、図 19に示すように、全ての対象画像 41の結果情報を 表示する。
[0070] '複数個マッチングしたとき、マッチングしたそれぞれの結果情報の ANひ f青報で関 連付けされた情報を表示する。例えば、「チューリップ」と「さくら」を認識したら植物図 鑑の情報を表示する。
[0071] ·複数個マッチングしたとき、図 20に示すように、どの情報を取得するかユーザに選 択させる。
[0072] ·複数個マッチングしたとき、図 21に示すように、 TPデータ管理 DB22側の参照特 徴量算出時に使用した元画像を表示させる。このとき、画像入力時に中心に最も近 い位置の対象画像 41から順に表示領域の一部(例えば下部)に表示させる。
[0073] ·複数個マッチングしたとき、図 22に示すように、中心に近い対象画像 41にマッチ する結果情報だけを表示する。
[0074] 以上の方法を可能とすることにより、ユーザの意思 (これを認識させたい)に近い操 作性を実現することができる。
[0075] [第 6具体例]
画像を認識したとき、すぐに結果情報を表示させると、入力画像中のどの対象画像
41を認識したのかユーザが判別できなくなる虞がある。
[0076] そこで、図 23及び図 24に示すように、入力画像中の対象画像 41に対して特徴量 を抽出した領域上に明示的に「Get」や「ノヽートマーク」などの文字列や意匠マーク表 示させる。
[0077] こうすることにより、認識対象画像 41をユーザに知らせ、ユーザの意思(ボタンの押 下など)により結果情報を表示させることが可能となる。
[0078] [第 7具体例]
本実施例に係る検索システムをカードゲームに適用した場合を次に説明する。
[0079] 本具体例では、カメラ付携帯端末 10として、カメラ付携帯電話機、もしくは撮影装 置と組み合わせて使用できる通信機能を持った PDA等を用いて、カードゲームを行
[0080] 即ち、フィールドに並べられたカードを対象画像 41として撮影し、認識を行!ヽ、その 認識結果に従って、様々な結果をユーザに提供するものである。
[0081] ここで、複数のカードが画面内に存在する場合、画面中央等、予め規定された基準 点に近いものが選択される。
[0082] また、画面内に複数のカードを捉えた際には、それら複数のカードの組合せによつ て、表示する情報を切り替えることができる。この場合、カードの種類としての組合せ のみならず、複数のカードの相対的な向き、また、 1つのカードであっても、画面に対 する向さや位置によって情報を切り替えることも当然可能である。
[0083] また、携帯端末 10を画面上方へ動かすことで、カードに対する指示と認識すること ができる。これは、カードの意匠等を認識することによって、特定のカードであることを 理解し、さらに、画面内の画像情報(オプティカルフローや、カードの意匠そのもの、 また絵柄としての角やエッジなどによって表現される自然特徴点等)を利用して、画 面内におけるカードの相対的な移動をトラッキングすることによって実現される。
[0084] また、携帯端末 10の動作を画面内の情報力もトラッキングすることによって、出力す る情報、例えば認識したカードの情報を切り替えることも可能である。例えば、カード を捉えた後、携帯端末 10を上方へ動かすときには、攻撃に関する情報や音声を提 示したり、携帯端末 10を回転させたときには、カードに記載されたキャラクタの進化情 報が提示されることになる。
[0085] 複数のカードを捉えた際の選択の基準となるのは、これらに限らず、例えば、登録 時の姿勢に近いもの、つまり、正面の状態で登録したものについては、画面に対して 縦横がほぼ一致し、天地も一致した状態になっているものが優先的に選択されても 良い。
[0086] また、認識した複数のカードに対応する登録画像を画面の一部に帯状の列として 表示し (タブのイメージ)、これらを選択させても良い。
[0087] また、認識した際には、「GET」等のテキストや、星印等の意匠が認識物上 Z周辺 に(リアルタイム)に表示される。または、認識した領域を線等で囲むことにより、認識 したことをユーザに提示する。認識した領域の輝度を変更することにより、光っている ように提示しても良い。さらに、音 ·音声が利用できることは勿論である。また、画面下 部 (例えば右下)に認識した対象の登録画像や名称等の関連情報を対象を捉えた力 メラの撮影画像上に重畳表示しても効果的なユーザへの提示となる。この際、画面を 一時停止させる方法をとつても良い。つまり、認識した瞬間に規定の時間だけ画面の 更新を止め、認識した状態をはっきりとユーザに提示することができる。規定の時間 が経過した後には、画面は再度更新される状態になる。 [0088] [第 8具体例]
本実施例に係る検索システムを、テーマパーク等のある限定された空間で利用す る場合の例を次に説明する。
[0089] この場合、入場時に、カメラ付携帯端末 10によって、チケット、場内地図、ゲート付 近の看板等に仕掛けられたシンボルを捉えることによって、テーマパーク内のコンテ ンッの全て、もしくは一部を予め携帯端末 10内の記憶領域に保存することができる。 この記憶領域は、内蔵メモリであっても良いし、メモリカードといった別媒体のもので あっても良い。もちろん、コンテンツを記憶させた状態のメモリカードを配布しても良い
[0090] そして、例えばマップの希望するアトラクションを画像入力部 11で撮影することによ り、結果情報として当該アトラクションに関連するコンテンツを取得できる。
[0091] アトラクション付近の看板もしくはアトラクション施設外観、ゲート等をコンテンツに対 応する特徴領域として登録しておくことにより、コンテンツをダウンロードしたカメラ付 携帯端末 10で看板や施設外観、ゲート等を眺める、もしくは撮影するだけで、対応 するコンテンツを楽しむことができる。例えば、待ち行列に並んだ際に施設のゲートを 撮影すると、結果情報として送られてくる当該施設の説明をキャラクタのアニメーショ ン等で見ることができる。また、施設内のアトラクションと連動したゲームで遊ぶことが でき、そのゲームの結果、得点等が施設内の演出を変化させるパラメータとなっても 良い。ゲームの結果、得点等は、ゲーム完了時に通信によりテーマパークに設置さ れたサーバ 20等へ送信される。また、アトラクション開始時には再度ゲートを撮影す ることで、ログイン通知が完了する。
[0092] また、テーマパーク内の看板を対象とした場合、同種の看板、例えばフードコーナ 一を示すものやトイレを示すもの等があるが、カメラ付携帯端末 10に装備された概略 位置特定装置、例えば GPSや基地局間の電波強度を利用したもの等により、利用者 の現在の概略位置カゝら認識されるはずのものを制限することができる。例えば、 Aゾ ーンの中央部にいる利用者がフードコーナーの看板を撮影した場合には、そもそも のマッチング候補をその位置から見える可能性のあるレストラン Aとアトラクション B、C 、 D、お土産ショップ E、 Fだけに制限でき、マッチングの効率を飛躍的に向上させる ことが可能である。
[0093] また、利用者が集中する環境なので、必ずしも十分な通信帯域 Z速度を確保でき ないことが考えられる。こういった状況への対応として、撮影画像を送信する際には、 粗い画像情報 POをまず送信し、続いて、より解像度の高い画像 P1を構成するため の POとの差分情報 dPlを送信する。サーノくからは POの検索結果、その後、 P1の検 索結果といった具合に、非同期に通信を行い結果を得る。非同期に行うことにより、 ユーザの使用感を損なわずに、こういった多重情報のやりとりが可能となる。画像から 抽出した特徴量を送信する際には、各特徴要素の重要度に応じて送信順位を変化 させることになる。つまり、重要度の高い特徴要素力 順に送信すれば良い。
[0094] また、多重情報に対応したマッチングサーバでは、低解像度の情報に関連付けす る情報はグループィ匕された情報であっても良い。例えば、図 25に示すように、施設の 種類を示す看板の一部に具体的店舗情報がのっているような場合、低解像度では、 店舗情報を判断することは困難である。よって、低解像度に対応するサーバ上の情 報も施設の種類を関連付けするに留め、より高解像度な情報に対応するサーバ上で 、具体的な店舗の情報を関連付けする。このように、基礎となる情報の解像度 Z情報 量に応じてマッチングサーバ上の情報密度も変化させることによって、ユーザへ順次 マッチング情報を送信する場合であっても、結果が段々と詳細になっていくことになり 、良好な使用感を提供できる。
[0095] [第 9具体例]
本実施例に係る検索システムを、通販及び現物商品のマーケティングに適用した 場合を次に説明する。
[0096] 本具体例では、カメラ付携帯端末 10として、カメラ付携帯電話機を用いるものとす る。カメラ付携帯電話機には、予め本技術を含む携帯アプリケーション 13をダウン口 ード或いは予め販売時点でインストールさせておく。
[0097] 本具体例においては、携帯電話機側の携帯アプリケーション 13は、撮影した画像 をユーザが適宜選択できる所定のサーバへ送付する機能を有し、サーバからの回答 を一旦表示し、携帯サイト接続に対してブラウザを起動する機能を有する。
[0098] 図 26に示すように、本検索システムは、主に 3種のソフトウェア群力も成る。即ち、携 帯電話機にインストールされる携帯アプリケーション 13、サーバ 20に構成されたマツ チング処理部 21のソフトウェア、及び画像登録システム 80である。
[0099] 図 27に示すように、携帯アプリケーション 13は、上述の通り携帯電話機に導入され ている画像入力部 11であるカメラを起動し、ユーザの指示により対象物の撮影を行 い (ステップ S71)、通信を介してサーバ 20のマッチング処理部 21に画像を送付する (ステップ S72)。この場合、カメラ付携帯端末 10上で予備的な処理、例えば、画像 圧縮、輪郭強調やコントラスト調整、或いは特徴点抽出や一部の特徴量評価などを 行い、これらを元の画像と併せて及び Z又は別途サーバ側に送るものである。この携 帯アプリケーション 13は、画像特徴量のマッチング機能を保有しても良い。しかしな がら、画像を特徴点群のフォーメーションやその各点群の特徴の強弱など力も特徴 量として送信し、判別はサーバ側で処理する方が基本的に処理時間上有利であるこ とが発明者らの実験で確かめられている。
[0100] マッチング処理部 21については前述されている力 これは画像登録システム 80に より登録された参照画像群がその精細度に応じ或いは精細度を段階ィ匕したテンプレ ートとして TPデータ管理 DB22に格納されたものと、照合を図る機能が第一義である
[0101] 画像登録システム 80は本技術において利用時の導入部となるもので、情報を提供 するきっかけとした ヽ画像や検索対象にした ヽ画像を登録する機能を有する。本具 体例では、この画像登録システム 80が Webアプリケーションの形態で利用可能にす るものを提供している。この形態にすることにより、画像の登録を希望する者がその登 録する時間や場所の制限が極めて少なくなる。また、本検索システムの利用に対して 画像の登録についての課金系を設定する場合に非常に課金システムを構築するの が容易となる利点もある。
[0102] 更に、この画像登録システム 80を携帯アプリケーション 13の一つにすることも更に 登録の利便性確保のために有効となる。携帯アプリケーション 13の形で携帯電話機 のカメラ (画像入力部 11)を用い、そこで撮影した画像をそのカメラ付携帯端末 10に 特定或いはユーザ指定のデータベース (TPデータ管理 DB22)に登録し、更にその 画像に紐づけるべき情報を併せて登録できる。例えば、 URLもその画像と Webサー ノ 70上の Webページ(コンテンツサイト)を紐づけるものであるし、テキストでキーヮー ドを指定しておくことで更に一般的な検索エンジンにてサイト検索を掛けるように設定 すること等も出来る。
[0103] 携帯電話機のカメラから画像を登録する場合、携帯電話機から TPデータ管理 DB 22に登録画像を送信し (ステップ S73)、それを第 2階層テンプレート(2次階層テン プレート 2222)として登録すると共に、その送信画像から精細度を下げた画像を再 生成して第 1階層テンプレート(1次階層テンプレート 2221)を作成して登録する (ス テツプ S74)。これは、携帯電話機上から同一画像を複数回送信することは時間的に も利用料金的にも不利であるためである。
[0104] このように、画像登録システム 80と携帯アプリケーション 13を、携帯電話機上で一 体のソフトウェアとして構成することが好ましい。これは、両ソフトウェアが携帯電話機 上で画像を撮影し、サーバへ画像を送付する機能がほぼ同一であるためである。こ のソフトウェアをここでは登録兼用携帯アプリケーションと呼称する。この登録兼用携 帯アプリケーションでは、携帯電話機上で携帯アプリ 13を立ち上げると、 "登録"か" 検索"かを画像撮影後に決定することが出来る。また、立ち上げ直後に特定のサー バ 20のマッチング処理部 21或いは特定の TPデータ管理 DB22を指定することも出 来る。この場合、 "登録"か"検索"をこのタイミングで指定することも可能である。
[0105] "検索"を行う場合には、上記のようにステップ S72で画像を送信する。これを受け たマッチング処理部 21では、 TPデータ管理 DB22に登録された 1次階層テンプレー ト 2221による 1次マッチングを実施し (ステップ S75)、更に、 2次階層テンプレート 22 22による 2次マッチングを実施する (ステップ S76)。そして、マッチングした画像に紐 つく情報、例えば URL等のリンク先情報を返送する (ステップ S77)。このリンク先情 報を受けた携帯アプリケーション 13は、携帯電話ブラウザを起動して、そのリンク先で ある Webサーバ 70の Webページを読み込んで (ステップ S78)、表示する(ステップ S79)。
[0106] 本検索システムを通販雑誌/カタログ誌による所謂カタログ通販で利用した場合の 追加機能例を記す。
[0107] カタログ通販では、ページ一面に個々の商品写真が列記された状態のページレイ アウトと 1枚の写真内に多種の商品を配置した場合とがある。前者の場合は、カメラ付 携帯端末 10で撮影した画像内に複数の商品写真が入ってしまうことがある。そのよう な場合、本検索システムでは、個々の商品写真に対応した特徴量の計算を行い、そ れぞれの商品名及び Zまたは URLを次の画面で表示する。この表示方法につ!、て は主に 2種の方式を採用して 、る。一つは撮影された商品の配列に併せて列挙する ものと、もう一つは撮影画像のより中心に捉えられた商品写真力 順に前記リストを列 挙するものとである。
[0108] また通販などに限らないが、携帯電話機では基地局情報や GPS信号を利用し、ュ 一ザの存在位置を勘案してマッチング処理部 21或いは TPデータ管理 DB22を自動 的に位置情報によりスィッチする事で同一の写真やポスター等力 別の情報 (その位 置でより有用な情報)を呈示することなどが可能である。
[0109] [第 10具体例]
上記第 9具体例にぉ 、て画像登録システム 80で画像を登録する際、すでに登録さ れている画像と非常に良く似た画像を登録しょうとする場合がある。このような場合、 類似度を評価し、閾値以上であれば登録を拒否するのが通常である。
[0110] しかしながら、自社の商品写真やロゴなどの似ている画像を登録しょうとした場合な ど、少しだけ異なる写真だが結果情報は一緒であるとしたい場合、画像が登録できな いと不便である。
[0111] そこで、自分たちが登録したグループの画像であれば類似度が接近していても自 分たちの責任で登録を許可することが好まし 、。
[0112] 図 28に示すように、ユーザ nが画像を登録しょうとした場合、画像登録システム 80 に対して、登録を望む画像を入力し (ステップ S81)、また、その画像に紐つく情報で ある結果情報を入力する (ステップ S82)。このような入力を受け付けた画像登録シス テム 80は、 TPデータ管理 DB22の共有データ領域に登録済みの全画像に対して類 似度のチェックを行う(ステップ S83)。
[0113] 即ち、図 29に示すように、 TPデータ管理 DB22は、画像を検索する範囲及び類似 度をチヱックする範囲として、その全ての領域である共有データ領域 223を対象とす る。この共有データ領域 223は、個別ユーザ領域 224の集合である。個別ユーザ領 域 224に、ユーザ毎の画像及び結果情報を登録するものである。
[0114] 共有データ領域 223に類似画像が無ければ (ステップ S84)、ユーザ nの個別ユー ザ領域 224へ、入力された画像及び結果情報を登録して (ステップ S85)、終了する
[0115] これに対して、共有データ領域 223に類似画像が有った場合には (ステップ S84)、 その類似画像が当該ユーザ nの個別ユーザ領域 224に登録されている画像であるの か否かを判別する (ステップ S86)。
[0116] 例えば、ユーザ Aが画像 a— 1, a- 2, a— 3, · ··, a— nを登録し、ユーザ Bが画像 b
- 1, b- 2, b- 3, · ··, b—nを登録していたとする。ここで、ユーザ Cが画像 c— mを 登録しょうとしたとき、その画像 c—mと類似する画像 b—iが既に登録されている。こ のような場合には、その登録は拒否され、図 30に示すような登録拒否のメッセージを 表示して (ステップ S87)、終了する。
[0117] これに対して、例えば、ユーザ Bが画像 b—mを登録しょうとしたとき、類似する画像 b—iが存在していたならば、同一ユーザであるので (ステップ S86)、図 31に示すよう な登録確認メッセージを表示して (ステップ S88)、ユーザがそれを登録するか否か 確認する(ステップ S89)。そして、 [Cancel]が選択されたならば、終了する。 [OK] が選択されたならば、当該ユーザ nの個別ユーザ領域 224へ、入力された画像及び 結果情報を登録して (ステップ S85)、終了する。
[0118] 以上のように、同じユーザが登録済みの画像に似ている場合、ユーザの責任で登 録を可能にする。これにより、類似した複数の画像を登録することが可能になる。これ は、立体物などを多方面力 撮影した画像を登録する場合、つまり、複数の画像で一 つまたは複数の結果情報を得る場合に有効である。
[0119] 以上、具体的な具体例と共に説明したように、本実施例に係る検索システムによれ ば、類似商品のカタログ写真のような場合、テンプレートイ匕すると類似度が接近してし まうが、テンプレートを階層化させることにより、各層のテンプレートを ANDしてマッチ ングさせることが可能となり、ミスマッチングを低減可能となる。
[0120] また、従来、多数 (例えば 1万件以上)のマッチング用参照データを参照しょうとする と、マッチングサーバを並列化し、多数の参照データを分割してマッチングすることで 時間短縮を図ろうとするやり方が考えられている力 こういったマッチングの並列処理 については確率的に高速ィ匕する効果はあるものの、認識 (成功)率を向上させる効果 は無いことが発明者らの実験で確認されている。これに対し、本実施例に係る検索シ ステムのようなツリー構造の場合は、結果的に高速化と認識率の向上をバランス良く 達成できる。
以上、一実施例に基づいて本発明を説明したが、本発明は上述した実施例に限定 されるものではなぐ本発明の要旨の範囲内で種々の変形や応用が可能なことは勿 論である。

Claims

請求の範囲
[1] 画像を入力する画像入力手段(11)と、
上記画像入力手段で入力した画像を基にして、階層管理されたテンプレートを用 いて、データベース(22)力も画像を検索する手段であり、上位階層のテンプレート( 2221)を用いたテンプレートマッチングに続いて、下位階層のテンプレート(2222) を用いたテンプレートマッチングを行って検索画像を絞り込む検索手段(13, 21)と、 上記検索手段によって絞り込まれた検索結果の画像を出力する出力手段(12)と、 を具備することを特徴とする検索システム。
[2] 上記階層管理されたテンプレートにおいて、上位階層のテンプレート(2221)と下 位階層のテンプレート(2222)は、画像の切り出し位置が異なることを特徴とする請 求項 1に記載の検索システム。
[3] 上記階層管理されたテンプレートにおいて、上位階層のテンプレート(2221)と下 位階層のテンプレート(2222)は、解像度が異なることを特徴とする請求項 1に記載 の検索システム。
[4] 画像をデータベース力 検索する方法であり、
画像 (41)を入力し、
入力した画像を基にして、階層管理されたテンプレートの上位階層のテンプレート ( 2221)を用いてテンプレートマッチングを行って、データベース(22)力も画像を検索 し、さらに、下位階層のテンプレート(2222)を用いたテンプレートマッチングを行つ て検索画像を絞り込み、
上記絞り込まれた検索結果の画像を出力する、
ことを特徴とする検索方法。
PCT/JP2006/313018 2005-06-30 2006-06-29 検索システム及び検索方法 WO2007004522A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06767635A EP1772823A4 (en) 2005-06-30 2006-06-29 SYSTEM AND METHOD OF SEARCH
JP2006553381A JPWO2007004522A1 (ja) 2005-06-30 2006-06-29 検索システム及び検索方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-192810 2005-06-30
JP2005192810 2005-06-30

Publications (1)

Publication Number Publication Date
WO2007004522A1 true WO2007004522A1 (ja) 2007-01-11

Family

ID=37604389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/313018 WO2007004522A1 (ja) 2005-06-30 2006-06-29 検索システム及び検索方法

Country Status (6)

Country Link
US (1) US20080095448A1 (ja)
EP (1) EP1772823A4 (ja)
JP (1) JPWO2007004522A1 (ja)
KR (1) KR20070118155A (ja)
CN (1) CN101010693A (ja)
WO (1) WO2007004522A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009054057A (ja) * 2007-08-29 2009-03-12 Nissha Printing Co Ltd 印刷画像を利用するコンテンツ配信システム
JP2009157511A (ja) * 2007-12-25 2009-07-16 Hiroki Azuma 動画配信装置および携帯端末
JP2009251763A (ja) * 2008-04-02 2009-10-29 Nec Corp 画像検索システム、画像検索方法、及び画象検索装置用プログラム
JP2009277045A (ja) * 2008-05-15 2009-11-26 Sharp Corp 画像処理装置、画像形成装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
JP2011192178A (ja) * 2010-03-16 2011-09-29 Denso It Laboratory Inc 画像認識装置及び画像認識方法
JP2012203458A (ja) * 2011-03-23 2012-10-22 Fuji Xerox Co Ltd 画像処理装置及びプログラム
JP2012238058A (ja) * 2011-05-10 2012-12-06 Azbil Corp 照合装置
JP2012238060A (ja) * 2011-05-10 2012-12-06 Azbil Corp 照合装置
JP2013222406A (ja) * 2012-04-18 2013-10-28 Setsuo Kimura 画像検索システム、画像検索装置およびコンピュータプログラム
JP2014531077A (ja) * 2011-10-12 2014-11-20 クアルコム,インコーポレイテッド カメラを搭載したコンピューティングデバイスを用いた偽造印刷物の検出
JP2014531664A (ja) * 2011-09-20 2014-11-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated モバイル環境における漸進的パターンマッチングのための方法および装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080140472A1 (en) * 2006-12-12 2008-06-12 Dagan Gilat Method and Computer Program Product for Modeling an Organization
JP5139716B2 (ja) * 2007-05-16 2013-02-06 キヤノン株式会社 画像検索装置及び画像検索方法
US20100042469A1 (en) * 2008-08-18 2010-02-18 Microsoft Corporation Mobile device enhanced shopping experience
US8738647B2 (en) * 2009-02-18 2014-05-27 A9.Com, Inc. Method and system for image matching
CN102073981B (zh) * 2011-02-23 2012-11-14 中国测绘科学研究院 一种关联要素限制下的点群地理实体选取方法
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
CN103034714A (zh) * 2012-12-11 2013-04-10 北京百度网讯科技有限公司 移动终端的照片分类管理方法、装置和移动终端
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
JP6360350B2 (ja) * 2013-08-08 2018-07-18 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
JP6422250B2 (ja) * 2014-07-08 2018-11-14 キヤノン株式会社 画像処理方法、画像処理装置、プログラム及び記録媒体
US10024667B2 (en) * 2014-08-01 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable earpiece for providing social and environmental awareness
US9569692B2 (en) * 2014-10-31 2017-02-14 The Nielsen Company (Us), Llc Context-based image recognition for consumer market research
GB2533284B (en) * 2014-12-11 2017-04-12 Imagination Tech Ltd Performing object detection
US11030450B2 (en) * 2018-05-31 2021-06-08 Vatbox, Ltd. System and method for determining originality of computer-generated images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63211474A (ja) * 1987-02-27 1988-09-02 Yaskawa Electric Mfg Co Ltd 階層化構造的テンプレ−ト・マツチング方法
JPH1055433A (ja) * 1996-05-06 1998-02-24 Nec Corp 画像検索方法及び画像検索装置
JPH11134346A (ja) * 1997-10-27 1999-05-21 Dainippon Printing Co Ltd 画像検索装置及び記録媒体
JP2004362186A (ja) 2003-06-04 2004-12-24 Juki Corp テンプレートマッチング方法及び装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5077805A (en) * 1990-05-07 1991-12-31 Eastman Kodak Company Hybrid feature-based and template matching optical character recognition system
US6498861B1 (en) * 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US7043061B2 (en) * 2001-06-27 2006-05-09 Laurence Hamid Swipe imager with multiple sensing arrays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63211474A (ja) * 1987-02-27 1988-09-02 Yaskawa Electric Mfg Co Ltd 階層化構造的テンプレ−ト・マツチング方法
JPH1055433A (ja) * 1996-05-06 1998-02-24 Nec Corp 画像検索方法及び画像検索装置
JPH11134346A (ja) * 1997-10-27 1999-05-21 Dainippon Printing Co Ltd 画像検索装置及び記録媒体
JP2004362186A (ja) 2003-06-04 2004-12-24 Juki Corp テンプレートマッチング方法及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ROSENFELD, A; VANDERBRUG G.J.: "Coarse-Fine Template Matching", IEEE TRANSACTIONS AND COMPUTERS, 2060519, pages 104 - 107
See also references of EP1772823A4
VANDERBRUG G.J.; ROSENFELD A.: "Two-Stage Template Matching", IEEE TRANSACTIONS AND COMPUTERS, 4060519, pages 384 - 393

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009054057A (ja) * 2007-08-29 2009-03-12 Nissha Printing Co Ltd 印刷画像を利用するコンテンツ配信システム
JP2009157511A (ja) * 2007-12-25 2009-07-16 Hiroki Azuma 動画配信装置および携帯端末
JP2009251763A (ja) * 2008-04-02 2009-10-29 Nec Corp 画像検索システム、画像検索方法、及び画象検索装置用プログラム
JP2009277045A (ja) * 2008-05-15 2009-11-26 Sharp Corp 画像処理装置、画像形成装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
US8224095B2 (en) 2008-05-15 2012-07-17 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP2011192178A (ja) * 2010-03-16 2011-09-29 Denso It Laboratory Inc 画像認識装置及び画像認識方法
JP2012203458A (ja) * 2011-03-23 2012-10-22 Fuji Xerox Co Ltd 画像処理装置及びプログラム
JP2012238058A (ja) * 2011-05-10 2012-12-06 Azbil Corp 照合装置
JP2012238060A (ja) * 2011-05-10 2012-12-06 Azbil Corp 照合装置
JP2014531664A (ja) * 2011-09-20 2014-11-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated モバイル環境における漸進的パターンマッチングのための方法および装置
US9208392B2 (en) 2011-09-20 2015-12-08 Qualcomm Incorporated Methods and apparatus for progressive pattern matching in a mobile environment
JP2014531077A (ja) * 2011-10-12 2014-11-20 クアルコム,インコーポレイテッド カメラを搭載したコンピューティングデバイスを用いた偽造印刷物の検出
JP2013222406A (ja) * 2012-04-18 2013-10-28 Setsuo Kimura 画像検索システム、画像検索装置およびコンピュータプログラム

Also Published As

Publication number Publication date
CN101010693A (zh) 2007-08-01
EP1772823A4 (en) 2007-09-19
EP1772823A1 (en) 2007-04-11
US20080095448A1 (en) 2008-04-24
JPWO2007004522A1 (ja) 2009-01-29
KR20070118155A (ko) 2007-12-13

Similar Documents

Publication Publication Date Title
WO2007004522A1 (ja) 検索システム及び検索方法
CN101292258B (zh) 混合介质环境的创建和使用的系统和方法
KR100980748B1 (ko) 혼합 미디어 환경을 생성 및 사용하는 시스템 및 방법
US20070159522A1 (en) Image-based contextual advertisement method and branded barcodes
KR101763132B1 (ko) 콘텐트 처리를 위한 방법들 및 시스템들
JP5427859B2 (ja) 画像取込及び識別のためのシステム
CN101010695A (zh) 检索系统和检索方法
JP2014241151A (ja) 画像から得られる情報のインターネットおよびその他の検索エンジンのための検索基準としての使用
US20130030961A1 (en) Image Capture and Identification System and Process
US20090319388A1 (en) Image Capture for Purchases
CN102356405A (zh) 将所呈现的广告与数字内容相关联
CN107018486A (zh) 处理视觉查询的方法和系统
EP2482210A2 (en) System and methods for creation and use of a mixed media environment
KR100925907B1 (ko) 마커 특정 장치 및 마커 특정 방법
KR20130107040A (ko) 2차원 코드와 결합된 컨텐츠를 이용한 정보 제공 서비스 시스템 및 방법
KR101840422B1 (ko) 사물 인식을 이용한 대상물 검색 시스템
CN106663112A (zh) 呈现与实体相关联的事件的信息卡
KR101116261B1 (ko) 영상 해석 장치를 이용한 컨텐츠 제공 시스템 및 방법
KR20210094396A (ko) 이미지 기반 검색 어플리케이션 및 그를 위한 검색 서버
CN103093333A (zh) 生活提醒方法
KR20010000588A (ko) 통신시스템을 이용한 클립아트 및 고화질 포토이미지다운로드 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2006553381

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2006767635

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200680000732.4

Country of ref document: CN

Ref document number: 11661644

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2006767635

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077025081

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE