WO2013175608A1 - Image analysis device, image analysis system, and image analysis method - Google Patents

Image analysis device, image analysis system, and image analysis method Download PDF

Info

Publication number
WO2013175608A1
WO2013175608A1 PCT/JP2012/063322 JP2012063322W WO2013175608A1 WO 2013175608 A1 WO2013175608 A1 WO 2013175608A1 JP 2012063322 W JP2012063322 W JP 2012063322W WO 2013175608 A1 WO2013175608 A1 WO 2013175608A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
metadata
image data
bibliographic information
unit
Prior art date
Application number
PCT/JP2012/063322
Other languages
French (fr)
Japanese (ja)
Inventor
渡邉裕樹
廣池敦
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2014516586A priority Critical patent/JP5857124B2/en
Priority to US14/402,819 priority patent/US9665798B2/en
Priority to SG11201407749TA priority patent/SG11201407749TA/en
Priority to PCT/JP2012/063322 priority patent/WO2013175608A1/en
Priority to CN201280073308.8A priority patent/CN104321802B/en
Publication of WO2013175608A1 publication Critical patent/WO2013175608A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Definitions

  • the image database 105 is a database management system for accumulating images.
  • the image database 105 not only temporarily stores data to be analyzed, but is also used for analysis processing itself as a dictionary for generating metadata. Details will be described later with reference to FIG.
  • the image analysis system 100 automatically generates the metadata of the detection target object, and uses the metadata to narrow down the image data to be subjected to the object detection process in advance, thereby reducing the processing time.
  • Step S401 The image / document input unit 107 registers the received image data and bibliographic information in the image database 105.
  • the image database 105 extracts image feature amounts from image data and registers them in association with bibliographic information.
  • the process of extracting the image feature amount may be configured to be performed by the image / document input unit 107. This step may be performed in advance before performing step S402 and subsequent steps, and need not be performed every time this flowchart is performed.
  • Step S609 The metadata generation unit 108 sorts the metadata in the order of the scores calculated in step S608, excludes metadata below the threshold value, and outputs the result.
  • Step S804 to S805 If the reliability of the candidate area 703 obtained in step S803 is equal to or less than the predetermined threshold value, the process moves to step S805, and otherwise, step S805 is skipped (S804).
  • the object region detection unit 110 adds the candidate region 703 whose reliability is a predetermined threshold value to the detection result list (S805).
  • FIG. 13 is a Venn diagram representing an analysis target for explaining how detection omissions are reduced by bibliographic information expansion processing.
  • FIG. 13A is a Venn diagram when only existing bibliographic information is used
  • FIG. 13B is a Venn diagram when expanded bibliographic information is used.
  • the image analysis apparatus 106 generates metadata of the query image 301 and the image group 1501 according to the method described in FIG. Thus, for example, it is assumed that metadata “star” is generated.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment.
  • the configuration of another embodiment can be added to the configuration of a certain embodiment. Further, with respect to a part of the configuration of each embodiment, another configuration can be added, deleted, or replaced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

The purpose of the present invention is to provide an image analysis technique enabling a detection subject to be rapidly detected from image data. This image analysis device generates metadata for a query image containing the detection subject, and using the metadata, narrows down the image data serving as the search subject beforehand and then conducts object detection.

Description

画像解析装置、画像解析システム、画像解析方法Image analysis apparatus, image analysis system, and image analysis method
 本発明は、画像データに含まれる特定の物体を検出する技術に関するものである。 The present invention relates to a technique for detecting a specific object included in image data.
 個人向け/企業内のITインフラの発展に伴い、大量のマルチメディアデータ(文書、映像・画像、音声、種々のログデータなど)が大規模なストレージに蓄積されるようになった。蓄積された大量のデータから効率的に情報を引き出すために、個々のメディアデータに関しては、様々な情報検索技術が考案され、実用化されてきた。 With the development of IT infrastructure for individuals / enterprises, a large amount of multimedia data (documents, video / images, audio, various log data, etc.) has been accumulated in large-scale storage. In order to efficiently extract information from a large amount of accumulated data, various information retrieval techniques have been devised and put into practical use for individual media data.
 マルチメディアデータに対する情報検索の例として、画像内に含まれる物体や特定の領域を検出することが考えられる。画像中の物体検出や領域特定は、文書解析における形態素解析(文書を単語に区切り、品詞を判定する手段)に相当し、画像の意味を解析する際には重要な要素技術である。 As an example of information retrieval for multimedia data, it is conceivable to detect an object or a specific area included in an image. Object detection and area specification in an image correspond to morphological analysis (means for determining a part of speech by dividing a document into words) in document analysis, and are important elemental techniques when analyzing the meaning of an image.
 画像中の物体検出手法としては、非特許文献1の手法が広く知られており、デジタルカメラや監視システムにおける顔領域検出機能として、製品化されている。非特許文献1の手法においては、検出対象の画像のサンプルを大量に集め、機械学習によって、画像の輝度値に基づく識別器を複数生成する。この識別器を連結させて画像の部分領域に対する判別器をつくり、画像中の部分領域をしらみ潰しに探索することにより、物体領域を特定する。 As a method for detecting an object in an image, the method of Non-Patent Document 1 is widely known, and has been commercialized as a face area detection function in a digital camera or a monitoring system. In the method of Non-Patent Document 1, a large number of samples of detection target images are collected, and a plurality of discriminators based on the luminance value of the image are generated by machine learning. This discriminator is connected to create a discriminator for the partial area of the image, and the object area is specified by searching for the partial area in the image.
 検出対象の物体は、現在のところ人物の顔が最も一般的である。しかし、ストレージに蓄積される幅広いコンテンツを対象とした場合、例えば、車両、動物、建物、図形、種々の物品など、多様な物体を検出対象とすることが望まれている。また、大規模なデータを処理するために、解析処理効率の向上が必要とされている。 The most common object to be detected is a human face at present. However, when targeting a wide range of contents stored in the storage, it is desired to detect various objects such as vehicles, animals, buildings, figures, and various articles. Further, in order to process large-scale data, it is necessary to improve analysis processing efficiency.
 解析処理効率の向上に関して、下記特許文献1には、物体の存在確率を利用して、物体領域を検出するための画像処理を実施する領域を限定する手法が開示されている。特許文献1の手法は、焦点距離や解像度など、撮像系の静的な情報を利用して、画像処理を実施する領域を決定するものであり、車載カメラのように撮影環境や撮影機器が限定され、構造化されたデータが管理される環境においては有効であると考えられる。 Regarding the improvement of analysis processing efficiency, Patent Document 1 below discloses a technique for limiting an area in which image processing for detecting an object area is performed using an object existence probability. The method of Patent Document 1 determines a region for performing image processing using static information of an imaging system such as a focal length and a resolution, and a shooting environment and a shooting device are limited like an in-vehicle camera. Therefore, it is considered effective in an environment where structured data is managed.
特開2010-003254号JP 2010-003254 A
 特許文献1に記載されている技術は、撮影環境がある程度特定され、画像処理の対象となるデータが構造化されていることを前提としている。しかし一般的には、撮影環境や被写体の位置は必ずしも事前に予測できるとは限らない。また、画像処理の対象となるデータがアドホックに生じる環境においては、そのデータは構造化されてないことになる。かかる環境においては、特許文献1に記載されている手法は物体を検出する時間を短縮するために有効ではないと考えられる。 The technique described in Patent Document 1 is based on the assumption that the shooting environment is specified to some extent and the data to be subjected to image processing is structured. In general, however, the shooting environment and the position of the subject cannot always be predicted in advance. Further, in an environment where data to be subjected to image processing occurs ad hoc, the data is not structured. In such an environment, it is considered that the technique described in Patent Document 1 is not effective for reducing the time for detecting an object.
 非特許文献1に記載されている技術は、例えば顔検出のように検出対象物があらかじめ定まっている場合には有効であるが、検出対象物をユーザが逐次指定するような用途においては、サンプルの収集や機械学習を都度実施する必要があるので、処理時間の観点で現実的でない。 The technique described in Non-Patent Document 1 is effective when the detection target is determined in advance, for example, as in face detection, but in applications where the user sequentially specifies the detection target, a sample is used. Collection and machine learning each time, it is not realistic from the viewpoint of processing time.
 本発明は、上記のような課題に鑑みてなされたものであり、画像データのなかから検出対象物を高速に検出することができる画像解析技術を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image analysis technique that can detect a detection target from image data at high speed.
 本発明に係る画像解析装置は、検出対象物を含むクエリ画像のメタデータを生成し、このメタデータを用いて検索対象とする画像データをあらかじめ絞り込んだ上で、物体検出を実施する。 The image analysis apparatus according to the present invention generates metadata of a query image including a detection target, and performs object detection after narrowing down image data to be searched using this metadata in advance.
 本発明に係る画像解析装置によれば、任意の物体を含む画像を大量の画像データの中から高速に抽出することができる。 The image analysis apparatus according to the present invention can extract an image including an arbitrary object from a large amount of image data at high speed.
 上記した以外の課題、構成、および効果は、以下の実施形態の説明により明らかになるであろう。 Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.
実施形態1に係る画像解析システム100の構成図である。1 is a configuration diagram of an image analysis system 100 according to Embodiment 1. FIG. 画像データベース105の構成とデータ例を示す図である。It is a figure which shows the structure and data example of the image database 105. FIG. ユーザが指定したクエリ画像のメタデータを生成し、そのメタデータによって物体検出対象を絞り込む手順を説明するデータフローを示す図である。It is a figure which shows the data flow explaining the procedure which produces | generates the metadata of the query image designated by the user, and narrows down an object detection target with the metadata. 画像解析システム100が、画像中の物体領域を特定する処理を説明するフローチャートである。It is a flowchart explaining the process which the image analysis system 100 specifies the object area | region in an image. メタデータ生成部108がクエリ画像のメタデータを生成する手順を説明する図である。It is a figure explaining the procedure in which the metadata production | generation part 108 produces | generates the metadata of a query image. メタデータ生成部108がクエリ画像301のメタデータを生成する処理手順を説明するフローチャートである。5 is a flowchart for explaining a processing procedure for generating metadata of a query image 301 by a metadata generation unit 108. 図4のステップS407における物体領域の検出方法について説明する図である。It is a figure explaining the detection method of the object area | region in step S407 of FIG. 物体領域検出部110が物体を検出する処理を説明するフローチャートである。It is a flowchart explaining the process in which the object area | region detection part 110 detects an object. 画像解析システム100が、画像中の物体領域を特定する処理における各機能部間の処理シーケンスを説明する図である。It is a figure explaining the processing sequence between each function part in the process which the image analysis system 100 specifies the object area | region in an image. 画像データベース105から指定した物体を含む画像を取得するために使用する操作画面の構成例を示す図である。It is a figure which shows the structural example of the operation screen used in order to acquire the image containing the designated object from the image database. 書誌情報を拡張する例を説明する図である。It is a figure explaining the example which expands bibliographic information. 書誌情報を拡張する処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the process which expands bibliographic information. 書誌情報の拡張処理によって検出漏れが軽減する様子を説明するための、解析対象を表すベン図である。It is a Venn diagram showing the analysis object for demonstrating a mode that detection omission is reduced by the expansion process of bibliographic information. 画像解析の処理時間とカバレッジの関係を表すチャートである。It is a chart showing the relationship between the image analysis processing time and coverage. クエリ画像に類似する画像を検索する際に用いるテンプレートを拡充することにより、物体検出の精度を上げる手法を説明する図である。It is a figure explaining the method of raising the precision of object detection by expanding the template used when searching the image similar to a query image. 実施形態4に係るコンテンツクラウドシステム1600の概略図である。It is the schematic of the content cloud system 1600 which concerns on Embodiment 4. FIG.
<実施の形態1:システム構成>
 図1は、本発明の実施形態1に係る画像解析システム100の構成図である。画像解析システム100は、大量の画像中から、ユーザが指定した任意の物体を含む画像を探索することを目的とするシステムである。画像解析システム100は、画像・文書記憶装置101、入力装置102、表示装置103、データ格納装置104、画像データベース105、画像解析装置106を備える。
<Embodiment 1: System configuration>
FIG. 1 is a configuration diagram of an image analysis system 100 according to the first embodiment of the present invention. The image analysis system 100 is a system for searching for an image including an arbitrary object designated by a user from a large number of images. The image analysis system 100 includes an image / document storage device 101, an input device 102, a display device 103, a data storage device 104, an image database 105, and an image analysis device 106.
 画像・文書記憶装置101は、画像データを保存する記憶媒体であり、コンピュータ外付けのハードディスクドライブ、NAS(Network Attached Storage)やSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。画像解析システム100が解析対象とする画像データの規模は、例えば数十万件程度の大規模を想定している。 The image / document storage device 101 is a storage medium for storing image data, and uses a storage system connected via a network such as an external hard disk drive, NAS (Network Attached Storage) or SAN (Storage Area Network). Can be configured. The scale of image data to be analyzed by the image analysis system 100 is assumed to be a large scale of, for example, several hundred thousand.
 入力装置102は、マウス、キーボード、タッチデバイスなど、ユーザ操作を画像解析装置106に伝えるための入力インタフェースである。表示装置103は、液晶ディスプレイなどの出力インタフェースであり、画像解析装置106の画像解析結果の表示、ユーザとの対話的操作などのために用いられる。データ格納装置104は、画像解析装置106の解析結果を記録するストレージであり、解析結果を上位のアプリケーションで利用するために用いられる。 The input device 102 is an input interface for transmitting user operations to the image analysis device 106 such as a mouse, a keyboard, and a touch device. The display device 103 is an output interface such as a liquid crystal display, and is used for displaying an image analysis result of the image analysis device 106, interactive operation with a user, and the like. The data storage device 104 is a storage that records the analysis result of the image analysis device 106, and is used to use the analysis result in a higher-level application.
 画像データベース105は、画像を蓄積するためのデータベース管理システムである。画像データベース105は、解析対象のデータを一時保存するだけでなく、メタデータ生成用の辞書として、解析処理自体にも利用される。詳しくは図2を用いて後述する。 The image database 105 is a database management system for accumulating images. The image database 105 not only temporarily stores data to be analyzed, but is also used for analysis processing itself as a dictionary for generating metadata. Details will be described later with reference to FIG.
 画像解析装置106は、ユーザが指定するクエリ画像に含まれる物体を、画像データベース105が格納している画像データのなかから検出する装置である。画像解析装置106は、画像・文書入力部107、メタデータ生成部108、解析対象決定部109、物体領域検出部110、操作情報入力部111、データ出力部112、を備える。 The image analysis device 106 is a device that detects an object included in a query image designated by a user from image data stored in the image database 105. The image analysis apparatus 106 includes an image / document input unit 107, a metadata generation unit 108, an analysis target determination unit 109, an object region detection unit 110, an operation information input unit 111, and a data output unit 112.
 画像・文書入力部107は、画像・文書記憶装置101から、画像データベース105に格納する画像データとそれに関連する書誌情報を読み出し、これらを対応付けて画像データベース105に格納する。また、検出対象である物体を含むクエリ画像を画像記録装置101から読み出し、メタデータ生成部108と物体領域検出部110に渡す。 The image / document input unit 107 reads out image data stored in the image database 105 and bibliographic information related thereto from the image / document storage device 101, and stores them in the image database 105 in association with each other. In addition, a query image including an object that is a detection target is read from the image recording apparatus 101 and passed to the metadata generation unit 108 and the object region detection unit 110.
 メタデータ生成部108は、画像データベース105を辞書として用いた画像認識処理によって、クエリ画像のメタデータを自動生成する。ここでメタデータとは、画像データが持つより抽象度の高いデータであり、例えば、画像を説明する単語、作成時刻、作成場所などの情報である。以下では簡略化のため、「メタデータ=単語」として説明するが、メタデータ生成部108は様々なメタデータを生成することができ。メタデータには信頼度が付与される。生成されたメタデータは、解析対象決定部109に送られる。メタデータを生成する手順については図5を用いて後述する。 The metadata generation unit 108 automatically generates the metadata of the query image by image recognition processing using the image database 105 as a dictionary. Here, the metadata is data having a higher abstraction level than the image data, for example, information such as a word describing the image, a creation time, and a creation location. In the following, for the sake of simplification, description will be made assuming that “metadata = word”, but the metadata generation unit 108 can generate various metadata. Confidence is given to the metadata. The generated metadata is sent to the analysis target determination unit 109. The procedure for generating metadata will be described later with reference to FIG.
 解析対象決定部109は、メタデータ生成部108が生成したメタデータを検索キーとして、画像データベース105が格納している書誌情報を検索し、検索キーに合致する書誌情報を持つ画像データのリストを取得する。検索キーとして用いるメタデータは、その信頼度に応じて自動的に選択してもよいし、メタデータの候補からユーザが選択してもよい。検索キーとするメタデータをユーザが選択する場合は、ユーザと画像解析装置106の間で対話的操作を実施するため、データ出力部112を介してメタデータ候補のリストや検索結果の件数などをユーザに提示する。また、操作情報入力部111から、検索キーとして用いるメタデータの指定や閾値などの検索パラメータを受け取る。この結果得られた画像リストは、解析対象の候補として物体領域検出部110に送られる。 The analysis target determination unit 109 searches the bibliographic information stored in the image database 105 using the metadata generated by the metadata generation unit 108 as a search key, and displays a list of image data having bibliographic information that matches the search key. get. Metadata used as a search key may be automatically selected according to its reliability, or may be selected by a user from metadata candidates. When the user selects metadata to be used as a search key, an interactive operation is performed between the user and the image analysis device 106. Therefore, a list of metadata candidates, the number of search results, and the like are displayed via the data output unit 112. Present to the user. Also, the operation information input unit 111 receives search parameters such as designation of metadata used as a search key and a threshold value. The image list obtained as a result is sent to the object region detection unit 110 as a candidate for analysis.
 物体領域検出部110は、画像解析処理によって、画像中から指定された物体が写っている領域の座標を特定する。検出対象とする物体は固定ではなく、ユーザが都度指定することができる。また、同時に複数の概念の物体(例えば、人の顔、車、猫、星マーク、など)を検出対象とすることができる。解析結果は、物体の矩形領域の座標(例えば、[矩形の左上隅の水平座標, 矩形の左上隅の垂直座標, 矩形の右下隅の水平座標, 矩形の右下隅の垂直座標])と「物体らしさ」を表す信頼度として、データ出力部112に送られる。この時、メタデータ生成部108が生成したメタデータを、検出された物体の意味情報として関連付けて出力することもできる。 The object area detection unit 110 identifies the coordinates of the area where the object specified in the image is captured by image analysis processing. The object to be detected is not fixed and can be specified by the user each time. In addition, a plurality of conceptual objects (for example, human faces, cars, cats, star marks, etc.) can be detected simultaneously. The result of the analysis is the coordinates of the rectangular area of the object (for example, [horizontal coordinates of the upper left corner of the rectangle, vertical coordinates of the upper left corner of the rectangle, horizontal coordinates of the lower right corner of the rectangle, vertical coordinates of the lower right corner of the rectangle)] The data is sent to the data output unit 112 as the degree of reliability representing “likeness”. At this time, the metadata generated by the metadata generation unit 108 can be output in association with the semantic information of the detected object.
 操作情報入力部111は、入力装置102からユーザ操作を受け取り、画像解析装置106にその信号を伝える。データ出力装置112は、画像解析の対象となる画像リスト、画像解析結果などを受け取り、表示装置103やデータ格納装置104に出力する。 The operation information input unit 111 receives a user operation from the input device 102 and transmits the signal to the image analysis device 106. The data output device 112 receives an image list to be subjected to image analysis, an image analysis result, and the like, and outputs them to the display device 103 and the data storage device 104.
 図2は、画像データベース105の構成とデータ例を示す図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。画像データベース105は、画像特徴量と書誌情報を関連付けて保持するデータベースであり、画像IDフィールド1051、画像データフィールド1052、画像特徴量フィールド1053、書誌情報フィールド1054を有する。 FIG. 2 is a diagram illustrating the configuration of the image database 105 and data examples. Here, a configuration example of the table format is shown, but the data format may be arbitrary. The image database 105 is a database that stores image feature amounts and bibliographic information in association with each other, and includes an image ID field 1051, an image data field 1052, an image feature amount field 1053, and a bibliographic information field 1054.
 画像IDフィールド1051は、各画像データの識別番号を保持する。画像データフィールド1052は、画像データをバイナリ形式で保持するフィールドであり、ユーザが解析結果を確認する際に用いられる。画像特徴量フィールド1053は、画像そのものの持つ色や形状などの特徴を数値化した、固定長の数値ベクトルデータを保持する。書誌情報フィールド1054は、画像に関連付けられた書誌情報(文章、カテゴリ分類、日時、場所など)を保持する。書誌情報フィールドは、必要に応じて複数のフィールドに分けてもよい。 The image ID field 1051 holds the identification number of each image data. The image data field 1052 is a field for holding image data in a binary format, and is used when the user confirms the analysis result. The image feature quantity field 1053 holds fixed-length numeric vector data in which features such as color and shape of the image itself are digitized. The bibliographic information field 1054 holds bibliographic information (sentence, category classification, date / time, location, etc.) associated with the image. The bibliographic information field may be divided into a plurality of fields as necessary.
<実施の形態1:各部の動作>
 以上、画像解析システム100の全体構成を説明した。以下では画像解析システム100の動作原理を概説した上で、各機能部の詳細動作を説明する。
<Embodiment 1: Operation of each part>
The overall configuration of the image analysis system 100 has been described above. In the following, the operation principle of the image analysis system 100 is outlined, and the detailed operation of each functional unit is described.
 画像解析システム100は、ユーザが指定したクエリ画像に含まれる物体を含む画像データを、画像認識処理を用いてデータベース105から探索するものである。単純には、画像データベース105内の全画像に対して物体検出処理を実施すればよい。しかし通常は、物体検出の処理速度は遅いため、大量の画像セットへ全件に対して物体検出処理を実施するのは、実用的でない。 The image analysis system 100 searches the database 105 for image data including an object included in the query image specified by the user using an image recognition process. Simply, the object detection process may be performed on all the images in the image database 105. However, since the processing speed of object detection is usually slow, it is not practical to perform object detection processing on a large number of image sets for all cases.
 例えば、一枚あたり0.5秒の画像認識処理が必要であると仮定すると、100万件の画像の解析には約140時間必要になる。検出対象の物体が「人の正面顔」に限定されていれば、データベース構築時に1回だけ解析処理を実施してその結果を流用すれば以後の処理時間を短縮できるが、検出対象物が固定ではなく指定された任意の物体を検出する場合においては、ユーザが検出対象物を指定してから解析処理を実施しなければならないため、応答時間が課題になる。 For example, if it is assumed that an image recognition process of 0.5 seconds per sheet is required, it takes about 140 hours to analyze 1 million images. If the object to be detected is limited to “a person's front face”, the analysis process is performed only once at the time of database construction, and the result can be used to shorten the subsequent processing time, but the detection object is fixed. However, in the case of detecting an arbitrary specified object rather than the user, it is necessary to perform an analysis process after the user specifies a detection target, so that the response time becomes a problem.
 そこで画像解析システム100は、検出対象物体のメタデータを自動生成し、そのメタデータを用いて物体検出処理の対象とする画像データをあらかじめ絞り込むことにより、処理時間を短縮することを図る。 Therefore, the image analysis system 100 automatically generates the metadata of the detection target object, and uses the metadata to narrow down the image data to be subjected to the object detection process in advance, thereby reducing the processing time.
 図3は、画像解析装置106が、ユーザが指定したクエリ画像のメタデータを生成し、そのメタデータによって物体検出対象を絞り込む手順を説明するデータフローを示す図である。画像データベース105には、図3に示すように、画像データと書誌情報が登録済みの状態であるとする。 FIG. 3 is a diagram illustrating a data flow for explaining a procedure in which the image analysis apparatus 106 generates metadata of a query image specified by the user and narrows down an object detection target based on the metadata. Assume that image data and bibliographic information are already registered in the image database 105 as shown in FIG.
 クエリ画像301は、ユーザが画像・文書入力装置107を介して入力するクエリ画像である。ここでは、クエリ画像301中にはひとつの物体(星型)のみが存在するものと仮定する。 The query image 301 is a query image that the user inputs via the image / document input device 107. Here, it is assumed that there is only one object (star shape) in the query image 301.
 メタデータ生成部108は、クエリ画像301のメタデータ302を生成する(S301)。メタデータ302は、スコア(=メタデータの信頼度)付きのリストで出力される。メタデータ302の生成についての詳細は、図5を用いて後述する。 The metadata generation unit 108 generates the metadata 302 of the query image 301 (S301). The metadata 302 is output as a list with a score (= metadata reliability). Details of generation of the metadata 302 will be described later with reference to FIG.
 解析対象決定部109は、メタデータ生成部108が生成したメタデータを検索キーにして、画像データベース105から検索キーに合致する書誌情報を検索し、条件に一致する画像データの集合303を取得する(S302)。ここでは、3つの単語「星」「五芒星」「天体」のOR検索を実施する例を示したが、必要に応じてAND検索を組み合わせることもできる。検出対象の画像と同様のメタデータを持つ画像中には、その物体が含まれる可能性が高い。 The analysis target determination unit 109 searches the bibliographic information that matches the search key from the image database 105 using the metadata generated by the metadata generation unit 108 as a search key, and acquires a set 303 of image data that matches the condition. (S302). Here, an example of performing an OR search for the three words “star”, “pentagon”, and “celestial object” has been shown, but an AND search can be combined as necessary. An image having metadata similar to that of the detection target image is likely to contain the object.
 物体領域検出部110は、クエリ画像301に含まれる物体と似た物体が、画像集合303内の各画像のどの領域に存在するかを特定する(S303)。本処理は、画像集合303に含まれる画像数に応じて処理時間が増加する。物体検出の詳細については、図7を用いて後述する。 The object area detection unit 110 specifies in which area of each image in the image set 303 an object similar to the object included in the query image 301 exists (S303). In this process, the processing time increases according to the number of images included in the image set 303. Details of the object detection will be described later with reference to FIG.
 検出結果304は、画像集合303内の各画像について、例えば、検出した物体の数、物体の位置(検出結果304内の点線矩形)、「物体らしさ」の信頼度(検出結果304内のパーセンテージ表示)とともに表される。検出された各物体の意味情報として、ステップS301で生成したメタデータを紐付けて出力してもよい。データ出力部112は、検出結果304を表示装置103上で画面表示し、またはデータ格納装置104にデータ出力する。 For each image in the image set 303, the detection result 304 is, for example, the number of detected objects, the position of the object (dotted rectangle in the detection result 304), and the reliability of “object likelihood” (in percentage display in the detection result 304). ). The metadata generated in step S301 may be linked and output as the semantic information of each detected object. The data output unit 112 displays the detection result 304 on the screen of the display device 103 or outputs the data to the data storage device 104.
 図3に示すように、画像解析システム100は、クエリ画像301のメタデータによって、検出対象物が存在する可能性の高い画像をあらかじめ絞り込んだ上で物体検出を実施するので、処理時間を短縮することができる。 As illustrated in FIG. 3, the image analysis system 100 performs object detection after narrowing down an image with a high possibility of the presence of a detection target based on the metadata of the query image 301, thereby reducing processing time. be able to.
 一方、画像の「見た目」と書誌情報は必ずしも意味的に一致するわけではない。例えば画像305のように、書誌情報は検索キーに一致するが、物体の「見た目」は異なる場合や、画像306のように画像中には「見た目」の似た物体が含まれていても、書誌情報には条件に一致する単語が含まれない場合もある。前者は無駄な画像解析処理になるため処理時間の増加の原因となり、後者は検出漏れの原因となる。検出漏れを軽減するための方法は、実施形態2で述べる。 On the other hand, the “look” of the image and the bibliographic information do not necessarily match semantically. For example, the bibliographic information matches the search key as in the image 305, but the “look” of the object is different, or even if an object similar to “look” is included in the image as in the image 306, The bibliographic information may not include words that match the conditions. The former causes useless image analysis processing, which causes an increase in processing time, and the latter causes detection failure. A method for reducing detection omission is described in Embodiment 2.
 図4は、画像解析システム100が、画像中の物体領域を特定する処理を説明するフローチャートである。以下、図4の各ステップについて説明する。 FIG. 4 is a flowchart for explaining processing in which the image analysis system 100 specifies an object region in an image. Hereinafter, each step of FIG. 4 will be described.
(図4:ステップS401)
 画像・文書入力部107は、受け取った画像データと書誌情報を画像データベース105へ登録する。画像データベース105は、画像データから画像特徴量を抽出し、書誌情報と関連付けて登録する。画像特徴量を抽出する処理は、画像・文書入力部107が実施するように構成してもよい。本ステップは、ステップS402以降を実施する前にあらかじめ実施しておけばよく、本フローチャートを実施する毎に実施する必要はない。
(FIG. 4: Step S401)
The image / document input unit 107 registers the received image data and bibliographic information in the image database 105. The image database 105 extracts image feature amounts from image data and registers them in association with bibliographic information. The process of extracting the image feature amount may be configured to be performed by the image / document input unit 107. This step may be performed in advance before performing step S402 and subsequent steps, and need not be performed every time this flowchart is performed.
(図4:ステップS402~S403)
 画像・文書入力部107は、検出対象物を含むクエリ画像を取得する(S402)。メタデータ生成部108は、クエリ画像のメタデータを生成する(S403)。詳しくは図5を用いて後述する。
(FIG. 4: Steps S402 to S403)
The image / document input unit 107 acquires a query image including the detection target (S402). The metadata generation unit 108 generates metadata of the query image (S403). Details will be described later with reference to FIG.
(図4:ステップS404)
 解析対象決定部109は、ステップS403でメタデータ生成部108が生成したメタデータの中から、物体検出の対象とする画像データを絞り込むために使用するメタデータを決定する。具体的には、メタデータの信頼度に応じて機械的に判定してもよいし(例えば信頼度の高いほうから順に所定範囲内を自動選択する)、データ出力部111を介してメタデータをユーザに提示してユーザ自身に選択させてもよい。
(FIG. 4: Step S404)
The analysis target determination unit 109 determines metadata to be used for narrowing down image data to be detected by the object from the metadata generated by the metadata generation unit 108 in step S403. Specifically, the determination may be made mechanically according to the reliability of the metadata (for example, the predetermined range is automatically selected in order from the highest reliability), and the metadata is sent via the data output unit 111. It may be presented to the user and the user himself / herself selected.
(図4:ステップS405)
 解析対象決定部109は、ステップS404で選択されたメタデータを検索キーとして用いて、画像データベース105が格納している書誌情報を検索し、検索キーに合致する画像データの集合を取得する。この画像集合が物体検出処理の対象となる。
(FIG. 4: Step S405)
The analysis target determination unit 109 searches the bibliographic information stored in the image database 105 using the metadata selected in step S404 as a search key, and acquires a set of image data that matches the search key. This set of images is a target of object detection processing.
(図4:ステップS406~ステップS408)
 画像解析装置106は、ステップS405で取得した画像集合に含まれる各画像データに対して、ステップS407を実施する。ステップS407において、物体領域検出部110は、ステップS405で取得した画像集合に含まれる画像中から、クエリ画像に含まれる物体と類似した領域を抽出する。物体領域の抽出方法については、図7を用いて後述する。
(FIG. 4: Steps S406 to S408)
The image analysis apparatus 106 performs step S407 for each image data included in the image set acquired in step S405. In step S407, the object region detection unit 110 extracts a region similar to the object included in the query image from the images included in the image set acquired in step S405. The object region extraction method will be described later with reference to FIG.
(図4:ステップS409)
 データ出力部112は、物体領域検出部110が検出した物体領域の検出結果を出力する。検出結果は処理順に出力してもよいし、検出された物体の数や信頼度を基準としてソーティングしてから出力してもよい。さらには図3の検出結果304に示すように、検出された物体の個数、検出信頼度、検出した物体領域を示す矩形、などの補足情報を合わせて出力してもよい。さらには、表示装置103を介して画面上で出力してもよいし、検出結果および上記各補足情報を記述したデータを出力してもよい。
(FIG. 4: Step S409)
The data output unit 112 outputs the detection result of the object area detected by the object area detection unit 110. The detection results may be output in the order of processing, or may be output after sorting based on the number of detected objects and reliability. Furthermore, as shown in the detection result 304 of FIG. 3, supplemental information such as the number of detected objects, detection reliability, and a rectangle indicating the detected object area may be output together. Furthermore, it may be output on the screen via the display device 103, or data describing the detection result and each of the supplementary information may be output.
(図4:ステップS410)
 検出対象である物体がこれ以上なければ(ユーザの指示がなければ)終了し、クエリ画像内に他の物体があるか、またはユーザが新たにクエリ画像を指定した場合等、別の物体を検出する場合は、ステップS402に戻って同様の処理を実施する。
(FIG. 4: Step S410)
If there are no more objects to be detected (no instruction from the user), the process ends and another object is detected, such as when there is another object in the query image or the user newly specified a query image. If so, the process returns to step S402 and the same processing is performed.
 図5は、メタデータ生成部108がクエリ画像のメタデータを生成する手順を説明する図である。以下、図5に示す各ステップについて説明する。 FIG. 5 is a diagram illustrating a procedure in which the metadata generation unit 108 generates the metadata of the query image. Hereinafter, each step shown in FIG. 5 will be described.
(図5:ステップS501)
 メタデータ生成部108は、クエリ画像301を検索キーとして、画像データベース105からこれに類似する画像を検索する。類似画像検索は、画像自体の持つ色や形状などの情報を高次元ベクトル情報として抽出し、ベクトル間距離に基づき画像間の類似性を評価することにより、類似する画像を検索する方法である。この結果、「見た目」がクエリ画像301と似た画像の集合501が得られる。さらに、画像データベース105は画像と書誌情報を関連付けて保持しているので、類似画像の集合502から、書誌情報の集合502が得られる。
(FIG. 5: Step S501)
The metadata generation unit 108 searches for similar images from the image database 105 using the query image 301 as a search key. Similar image search is a method of searching for similar images by extracting information such as color and shape of the image itself as high-dimensional vector information and evaluating the similarity between images based on the distance between vectors. As a result, a set 501 of images whose “look” is similar to the query image 301 is obtained. Further, since the image database 105 holds images and bibliographic information in association with each other, a bibliographic information set 502 is obtained from the similar image set 502.
(図5:ステップS502:手順1)
 メタデータ生成部108は、書誌情報の集合に含まれる特徴的な単語を抽出する。書誌情報として、画像の分類コードなどの整理されたデータが付与されていれば望ましいが、説明文のような文書が付与されている場合でも、その文書中には画像の意味を表現する特徴的な単語が含まれる可能性が高い。そこで本ステップにおいて、メタデータ生成部108は、各書誌情報をアトミックなデータ(最小構成単位)に分解し(例:文書から単語単位に分解)、それをメタデータと考える。以上により、クエリ画像301のメタデータを生成することができる。
(FIG. 5: Step S502: Procedure 1)
The metadata generation unit 108 extracts characteristic words included in the set of bibliographic information. Bibliographic information is desirable if organized data such as image classification codes is provided, but even if a document such as an explanatory text is attached, the document expresses the meaning of the image. There is a high possibility that the word is included. Therefore, in this step, the metadata generation unit 108 decomposes each bibliographic information into atomic data (minimum constituent unit) (for example, decomposes from a document into words), and considers it as metadata. As described above, the metadata of the query image 301 can be generated.
(図5:ステップS502:手順2)
 メタデータ生成部108は、手順1で生成したメタデータが書誌情報中で出現する頻度を数える。メタデータ生成部108は、その出現頻度を用いて、手順1で生成した各メタデータのスコアを算出する。単純に、出現頻度をメタデータのスコアとして、スコアの高い順にソーティングしてもよいし、出現頻度に重みをつけた評価指標をスコアとして用いてもよい。
(FIG. 5: Step S502: Procedure 2)
The metadata generation unit 108 counts the frequency at which the metadata generated in step 1 appears in the bibliographic information. The metadata generation unit 108 calculates the score of each metadata generated in procedure 1 using the appearance frequency. Simply, the appearance frequency may be used as the metadata score, and sorting may be performed in descending order of the score, or an evaluation index weighted to the appearance frequency may be used as the score.
(図5:ステップS502:スコア算出手法の例1)
 メタデータのスコアとして、TF-IDF(Term Frequency-Inverse Document Frequency)を用いることができる。TF-IDFは、メタデータtの頻度tf(t)と、逆文書頻度idf(t)をかけ合わせた評価指標である。逆文書頻度idf(t)は、データベースのレコード数をN、データベース全体のなかでメタデータtを含む書誌情報の頻度をdf(t)とすると、下記数1により表される。
Figure JPOXMLDOC01-appb-M000001
(FIG. 5: Step S502: Example 1 of score calculation method)
As the metadata score, TF-IDF (Term Frequency-Inverse Document Frequency) can be used. TF-IDF is an evaluation index obtained by multiplying the frequency tf (t) of the metadata t and the inverse document frequency idf (t). The reverse document frequency idf (t) is expressed by the following equation 1 where N is the number of records in the database and df (t) is the frequency of bibliographic information including metadata t in the entire database.
Figure JPOXMLDOC01-appb-M000001
(図5:ステップS502:スコア算出手法の例2)
 メタデータのスコアとして、確率的評価指標を用いてもよい。例えば、メタデータtを評価する場合は、データベース全体からランダムに画像を取得したときに、その書誌情報にメタデータtが含まれる確率をq(t)、類似画像検索結果の画像集合からランダムに画像を取得したときに、その書誌情報にメタデータtが含まれる確率をp(t)とすると、数2から数4に示すp(t)とq(t)の確率分布の差の尺度kl(t)を、メタデータのスコアとして用いることができる。
Figure JPOXMLDOC01-appb-M000002
(FIG. 5: Step S502: Example 2 of score calculation method)
A probabilistic evaluation index may be used as the metadata score. For example, when evaluating the metadata t, when an image is randomly acquired from the entire database, the probability that the bibliographic information includes the metadata t is q (t), and the image set of similar image search results is randomly selected. Assuming that the probability that the metadata t is included in the bibliographic information when the image is acquired is p (t), a measure kl of the probability distribution difference between p (t) and q (t) shown in equations 2 to 4. (T) can be used as a metadata score.
Figure JPOXMLDOC01-appb-M000002
 図6は、メタデータ生成部108がクエリ画像301のメタデータを生成する処理手順を説明するフローチャートである。以下、図6の各ステップについて説明する。 FIG. 6 is a flowchart for explaining a processing procedure in which the metadata generation unit 108 generates metadata of the query image 301. Hereinafter, each step of FIG. 6 will be described.
(図6:ステップS601~S602)
 メタデータ生成部108は、クエリ画像301の画像特徴量を計算する(S601)。メタデータ生成部108は、ステップS601で抽出した画像特徴量を検索キーとして、類似画像検索を実施する(S602)。各画像の特徴量ベクトル間の距離が小さいほど画像間の類似度が高いものとし、距離値に応じてソーティングした結果を検索結果として出力する。
(FIG. 6: Steps S601 to S602)
The metadata generation unit 108 calculates the image feature amount of the query image 301 (S601). The metadata generation unit 108 performs a similar image search using the image feature amount extracted in step S601 as a search key (S602). The smaller the distance between feature quantity vectors of each image, the higher the similarity between the images, and the result of sorting according to the distance value is output as a search result.
(図6:ステップS603~S607)
 メタデータ生成部108は、ステップS602で得られた類似画像それぞれに対して、ステップS604~S606を実施する。
(FIG. 6: Steps S603 to S607)
The metadata generation unit 108 performs steps S604 to S606 for each similar image obtained in step S602.
(図6:ステップS604~S605)
 メタデータ生成部108は、ステップS602で得られた類似画像に関連付けられた書誌情報を画像データベース105から読みだす(S604)。メタデータ生成部108は、ステップS604で取得した書誌情報をアトミックなデータに分解し、これをメタデータとする(S605)。例えば、書誌情報が文書である場合は形態素解析を実施し、単語単位に分解する。書誌情報を分解する処理は、効率化のため、画像データベース105へ文書を登録する際に、あらかじめ実施しておいてもよい。
(FIG. 6: Steps S604 to S605)
The metadata generation unit 108 reads the bibliographic information associated with the similar image obtained in step S602 from the image database 105 (S604). The metadata generation unit 108 decomposes the bibliographic information acquired in step S604 into atomic data, and uses this as metadata (S605). For example, when the bibliographic information is a document, morphological analysis is performed and the document is broken down into words. The process of decomposing bibliographic information may be performed in advance when registering a document in the image database 105 for efficiency.
(図6:ステップS606)
 メタデータ生成部108は、ステップS604で読み出した書誌情報のなかで、ステップS605で生成したメタデータが出現する頻度をカウントする。メタデータ生成部108は、ステップS603~S607の全体を通して、メタデータ毎に累積頻度を求める。このとき、画像の類似度をメタデータの頻度に反映させるため、類似度に応じて重み付けをした後、累積頻度に加算するようにしてもよい。
(FIG. 6: Step S606)
The metadata generation unit 108 counts the frequency at which the metadata generated in step S605 appears in the bibliographic information read in step S604. The metadata generation unit 108 obtains the cumulative frequency for each metadata throughout the steps S603 to S607. At this time, in order to reflect the similarity of images to the frequency of metadata, weighting may be performed according to the similarity and then added to the cumulative frequency.
(図6:ステップS608)
 メタデータ生成部108は、ステップS603~S607で求めたメタデータ毎の累積頻度を用いて、メタデータのスコアを算出する。スコアの算出手法については図5で説明した通りである。
(FIG. 6: Step S608)
The metadata generation unit 108 calculates a metadata score using the cumulative frequency for each metadata obtained in steps S603 to S607. The score calculation method is as described in FIG.
(図6:ステップS609)
 メタデータ生成部108は、ステップS608で算出したスコア順にメタデータをソーティングし、閾値以下のメタデータは除外して、出力する。
(FIG. 6: Step S609)
The metadata generation unit 108 sorts the metadata in the order of the scores calculated in step S608, excludes metadata below the threshold value, and outputs the result.
 図7は、図4のステップS407における物体領域の検出方法について説明する図である。本手法は、検出したい物体の画像をテンプレートとして、テンプレートに合致する領域を検出することにより、画像内において物体が存在する領域を検出するものである。 FIG. 7 is a diagram for explaining the object region detection method in step S407 of FIG. This method detects an area where an object exists in an image by detecting an area matching the template using an image of the object to be detected as a template.
 まず、検出したい物体の典型的な画像(テンプレート)の画像特徴量を抽出し、あらかじめテンプレートデータベース704に保存しておく。ここでいうテンプレート画像は、クエリ画像301に相当する。テンプレートデータベース704は、例えば複数の物体を検出したい場合は、それら各物体に対応する複数のテンプレート(検出対象物の画像)を保持することができる。テンプレートデータベース704が保持するテンプレートは、検出したい物体が変わる毎にリセットされる。 First, an image feature amount of a typical image (template) of an object to be detected is extracted and stored in the template database 704 in advance. The template image here corresponds to the query image 301. For example, when it is desired to detect a plurality of objects, the template database 704 can hold a plurality of templates (detection target images) corresponding to the respective objects. The template held in the template database 704 is reset every time the object to be detected changes.
 物体領域検出部110は、物体を検出する対象である入力画像701(画像データベース105内の画像)が与えられると、走査窓702の位置やサイズを変動させ、物体の候補領域703を抽出する。次に、全ての候補領域703に対して、テンプレートデータベース704内の複数のテンプレートの中から、特徴量ベクトルが候補領域703の特徴量ベクトルと最も近いものを探索する。見つかったテンプレートと候補領域703それぞれの特徴量ベクトル間距離が所定閾値以下であれば、候補領域703にはそのテンプレートの物体が含まれると判定し、その候補領域703を検出結果に加える。このとき、最近傍テンプレートと候補領域703それぞれの特徴量ベクトル間距離を、検出結果の信頼度として用いることができる。 When an input image 701 (an image in the image database 105), which is a target for detecting an object, is given, the object region detection unit 110 varies the position and size of the scanning window 702 and extracts a candidate region 703 for the object. Next, for all candidate regions 703, a search is made for a feature vector closest to the feature vector in the candidate region 703 from among a plurality of templates in the template database 704. If the distance between the feature vectors of the found template and the candidate area 703 is equal to or smaller than a predetermined threshold, it is determined that the object of the template is included in the candidate area 703, and the candidate area 703 is added to the detection result. At this time, the distance between the feature amount vectors of the nearest neighbor template and the candidate region 703 can be used as the reliability of the detection result.
 図8は、物体領域検出部110が物体を検出する処理を説明するフローチャートである。以下、図8の各ステップについて説明する。 FIG. 8 is a flowchart for explaining processing in which the object region detection unit 110 detects an object. Hereinafter, each step of FIG. 8 will be described.
(図8:ステップS800)
 物体領域検出部110は、テンプレートの特徴量を計算し、テンプレートデータベースに登録する。物体を検出する対象である入力画像701が複数あり、同じテンプレートを用いて検出処理を実施する場合は、本ステップは最初の1回のみ実施すればよい。
(FIG. 8: Step S800)
The object region detection unit 110 calculates the feature amount of the template and registers it in the template database. When there are a plurality of input images 701 that are objects to be detected, and the detection process is performed using the same template, this step may be performed only once.
(図8:ステップS801)
 物体領域検出部110は、入力画像701内の候補領域703を抽出する。候補領域703は、走査窓をステップ毎に移動し、またはサイズ変更することにより、機械的に抽出される。
(FIG. 8: Step S801)
The object area detection unit 110 extracts candidate areas 703 in the input image 701. The candidate area 703 is mechanically extracted by moving or resizing the scan window step by step.
(図8:ステップS802~S806)
 物体領域検出部110は、全ての候補領域703について、ステップS802~ステップS806を実施する。
(FIG. 8: Steps S802 to S806)
The object area detection unit 110 performs Steps S802 to S806 for all candidate areas 703.
(図8:ステップS803)
 物体領域検出部110は、候補領域703の信頼度を算出する。信頼度の算出方法としては、例えば図7で述べたように、テンプレートの特徴量と候補領域703の特徴量の間の距離を用いることができる。
(FIG. 8: Step S803)
The object area detection unit 110 calculates the reliability of the candidate area 703. As a reliability calculation method, for example, as described in FIG. 7, the distance between the feature amount of the template and the feature amount of the candidate area 703 can be used.
(図8:ステップS804~S805)
 ステップS803で求めた候補領域703の信頼度が所定閾値以下であればステップS805に移動し、それ以外であればステップS805をスキップする(S804)。物体領域検出部110は、信頼度が所定閾値である候補領域703を、検出結果リストに追加する(S805)。
(FIG. 8: Steps S804 to S805)
If the reliability of the candidate area 703 obtained in step S803 is equal to or less than the predetermined threshold value, the process moves to step S805, and otherwise, step S805 is skipped (S804). The object region detection unit 110 adds the candidate region 703 whose reliability is a predetermined threshold value to the detection result list (S805).
(図8:ステップS807)
 物体領域検出部110は、検出結果リストを出力し、本処理フローを終了する。検出結果は、入力画像701内の座標情報(例えば、[矩形の左上隅の水平座標, 矩形の左上隅の垂直座標, 矩形の右下隅の水平座標, 矩形の右下隅の垂直座標])と信頼度の組として出力される。
(FIG. 8: Step S807)
The object area detection unit 110 outputs the detection result list and ends this processing flow. The detection result is the coordinate information in the input image 701 (for example, [horizontal coordinates of the upper left corner of the rectangle, vertical coordinates of the upper left corner of the rectangle, horizontal coordinates of the lower right corner of the rectangle, vertical coordinates of the lower right corner of the rectangle]) and reliability Output as a set of degrees.
 図9は、画像解析システム100が、画像中の物体領域を特定する処理における各機能部間の処理シーケンスを説明する図である。以下、図9の各ステップについて説明する。 FIG. 9 is a diagram for explaining the processing sequence between the functional units in the processing in which the image analysis system 100 specifies the object region in the image. Hereinafter, each step of FIG. 9 will be described.
(図9:ステップS901~S902)
 ユーザは入力装置102を介して、画像データベース105に格納する画像とそれに関連付けられた文書を入力する(S901)。画像と文章の集合は、画像解析装置106を中継して画像データベース105に送られる。画像データベース105は、画像解析装置106から受け取った画像から特徴量を抽出し、文書から得られる書誌情報と関連付けて登録する(S902)。ステップS901~S902は、図4のステップS401に相当する。
(FIG. 9: Steps S901 to S902)
The user inputs an image stored in the image database 105 and a document associated therewith via the input device 102 (S901). The set of images and sentences is sent to the image database 105 via the image analysis device 106. The image database 105 extracts a feature amount from the image received from the image analysis device 106 and registers it in association with bibliographic information obtained from the document (S902). Steps S901 to S902 correspond to step S401 in FIG.
(図9:ステップS903~S906)
 ユーザは入力装置102を介して、検出したい物体の画像(クエリ画像)を入力する(S903)。画像解析装置106は、クエリ画像を検索キーとして、画像データベース105に対して類似画像検索を要求する(S904)。画像データベース105は、クエリ画像から画像特徴量を抽出し、これを用いてクエリ画像に類似する画像を検索し、類似画像とその書誌情報を画像解析装置106に返す(S905)。画像解析装置106は、画像データベース105から受け取った書誌情報を用いてクエリ画像のメタデータを生成し、そのスコアを計算する(S906)。
(FIG. 9: Steps S903 to S906)
The user inputs an image (query image) of an object to be detected via the input device 102 (S903). The image analysis apparatus 106 requests a similar image search to the image database 105 using the query image as a search key (S904). The image database 105 extracts an image feature amount from the query image, searches for an image similar to the query image using this, and returns the similar image and its bibliographic information to the image analysis device 106 (S905). The image analysis device 106 generates query image metadata using the bibliographic information received from the image database 105, and calculates the score (S906).
(図9:ステップS907~S908)
 画像解析装置106は、ステップS906で生成したメタデータとそのスコアを、表示装置103またはデータ格納装置104を介してユーザに提示する(S907)。ユーザは、メタデータ自体とそのスコアを参考に、検索対象とする画像を絞り込むために使用するメタデータを選択する(S908)。ステップS908を省略し、例えばスコアが高いほうから順にメタデータを選択するなどして、画像解析装置106が自動的にメタデータを選択することもできる。
(FIG. 9: Steps S907 to S908)
The image analysis device 106 presents the metadata generated in step S906 and its score to the user via the display device 103 or the data storage device 104 (S907). The user selects metadata to be used for narrowing down the images to be searched with reference to the metadata itself and its score (S908). The image analysis apparatus 106 can automatically select metadata by omitting step S908 and selecting metadata in order from the highest score, for example.
(図9:ステップS909~S910)
 画像解析装置106は、ステップS908でユーザが選択したメタデータを検索キーとして、書誌情報が検索キーに合致する画像を検索するように画像データベース105へ要求する(S909)。画像データベース105は、検索クエリに該当する書誌情報を検索し、それに関連付けられた画像を画像解析装置106に返す(S910)。
(FIG. 9: Steps S909 to S910)
The image analysis apparatus 106 requests the image database 105 to search for an image whose bibliographic information matches the search key using the metadata selected by the user in step S908 as a search key (S909). The image database 105 searches for bibliographic information corresponding to the search query, and returns an image associated therewith to the image analysis device 106 (S910).
(図9:ステップS911)
 画像解析装置106は、ステップS910の結果得られた各画像に対して、クエリ画像に含まれる物体を検出する処理を実施し、クエリ画像に類似した領域を特定する。検出結果は、画像中における物体の矩形領域の座標(例えば、[矩形の左上隅の水平座標, 矩形の左上隅の垂直座標, 矩形の右下隅の水平座標, 矩形の右下隅の垂直座標])と「物体らしさ」を表す信頼度で表される。検出結果は、データ出力部112を介して出力される。
(FIG. 9: Step S911)
The image analysis apparatus 106 performs a process of detecting an object included in the query image on each image obtained as a result of step S910, and specifies a region similar to the query image. The detection result is the coordinates of the rectangular area of the object in the image (for example, [horizontal coordinates of the upper left corner of the rectangle, vertical coordinates of the upper left corner of the rectangle, horizontal coordinates of the lower right corner of the rectangle, vertical coordinates of the lower right corner of the rectangle]) And the degree of reliability representing “object-likeness”. The detection result is output via the data output unit 112.
 図10は、画像データベース105から指定した物体を含む画像を取得するために使用する操作画面の構成例を示す図である。本画面は、表示装置103上で提供することができる。ユーザは、入力装置102を用いて、画面に表示されたカーソル1006を操作することにより、操作情報入力部111に操作情報を送る。 FIG. 10 is a diagram illustrating a configuration example of an operation screen used for acquiring an image including a specified object from the image database 105. This screen can be provided on the display device 103. The user operates the cursor 1006 displayed on the screen using the input device 102 to send operation information to the operation information input unit 111.
 図10の操作画面は、クエリ画像入力領域1001、類似画像検索ボタン1002、メタデータ生成ボタン1003、類似画像表示領域1004、メタデータ表示領域1007、検出対象件数表示領域1008、予想処理時間表示領域1009、検出開始/中断ボタン1010、検出結果表示領域1011を有する。 The operation screen of FIG. 10 includes a query image input area 1001, a similar image search button 1002, a metadata generation button 1003, a similar image display area 1004, a metadata display area 1007, a detection target number display area 1008, and an expected processing time display area 1009. A detection start / interrupt button 1010 and a detection result display area 1011.
 ユーザは、まず、画像・文書蓄積装置101に保存されたクエリ画像をクエリ画像入力領域1001に入力する。入力方法は、例えば、ファイルシステムのファイルパスを指定するダイアログを用いてもよいし、ドラッグ&ドロップによる直感的な入力操作にしてもよい。 First, the user inputs the query image stored in the image / document storage device 101 into the query image input area 1001. As an input method, for example, a dialog for specifying a file path of a file system may be used, or an intuitive input operation by drag and drop may be used.
 ユーザが類似画像検索ボタン1002をクリックすると、画像解析装置106はクエリ画像に類似する画像を画像データベース105から取得し、類似画像表示領域1004に表示する。画像解析装置106は、類似画像表示領域1004にされている類似画像の書誌情報を用いて、クエリ画像のメタデータを生成する。類似画像を全て用いてメタデータを生成してもよいし、ユーザが類似画像を確認した上でいずれの類似画像を使用するかを指定してもよい。ユーザは、例えばチェックボックス1005を用いて類似画像を指定する。図10に示す例では、右端の類似画像のチェックを外し、メタデータを生成する際に同画像を使用しないように指定している。 When the user clicks the similar image search button 1002, the image analysis device 106 acquires an image similar to the query image from the image database 105 and displays it in the similar image display area 1004. The image analysis apparatus 106 uses the bibliographic information of similar images displayed in the similar image display area 1004 to generate metadata of the query image. The metadata may be generated using all the similar images, or the user may specify which similar image is used after confirming the similar image. The user designates a similar image using a check box 1005, for example. In the example illustrated in FIG. 10, the similar image at the right end is unchecked, and it is specified not to use the image when generating metadata.
 メタデータ生成ボタン1003をクリックすると、メタデータ生成部108は、選択された類似画像に付随する書誌情報を用いてメタデータを生成し、メタデータ表示領域1007に表示する。メタデータ表示領域1007は、各メタデータが書誌情報内に含まれる画像の件数を併せて表示する。書誌情報の検索速度が十分に速ければ、各メタデータ単体で書誌情報を検索した場合の該当画像数を表示してもよい。 When a metadata generation button 1003 is clicked, the metadata generation unit 108 generates metadata using bibliographic information attached to the selected similar image and displays it in the metadata display area 1007. The metadata display area 1007 displays the number of images in which each metadata is included in the bibliographic information. If the search speed of bibliographic information is sufficiently high, the number of corresponding images when bibliographic information is searched for by each metadata alone may be displayed.
 ユーザは、メタデータ自体とスコア、該当画像数などを考慮して、物体検出の対象となる画像を絞り込むために用いるメタデータを選択する。ユーザは例えば、チェックボックス1012を用いてメタデータを選択する。画像解析装置106は、チェックボックス1012がクリックされるたびに書誌情報を検索し、選択されているメタデータを書誌情報内に含む画像の件数を検出対象件数表示領域1008に表示する。また、同件数の画像に対して物体検出を実施した場合に予想される処理時間を、予想処理時間表示領域1009に表示する。処理時間は、検出対象とする画像の件数に基づき概算することができる。これにより、ユーザはメタデータを効果的に選択することができる。 The user selects metadata to be used for narrowing down the images to be detected by the object in consideration of the metadata itself, the score, the number of corresponding images, and the like. For example, the user selects metadata using a check box 1012. Each time the check box 1012 is clicked, the image analysis device 106 searches the bibliographic information, and displays the number of images including the selected metadata in the bibliographic information in the detection target number display area 1008. Also, the expected processing time when the object detection is performed on the same number of images is displayed in the expected processing time display area 1009. The processing time can be estimated based on the number of images to be detected. Thereby, the user can select metadata effectively.
 検出開始/中断ボタン1010をクリックすると、解析対象決定部109は、以上の操作で選択されたメタデータを用いて物体検出の対象となる画像集合を取得し、物体領域検出部110は、その画像集合に対して物体検出を実施する。物体領域検出部110が実施する検出処理は、画像毎に独立であるため、処理の終わった画像から順に検出結果表示領域1011に表示したり、検出開始/中断ボタン1010をクリックする毎に処理を開始/中断したりすることができる。 When the detection start / interrupt button 1010 is clicked, the analysis target determination unit 109 acquires an image set that is a target for object detection using the metadata selected by the above operation, and the object region detection unit 110 displays the image. Object detection is performed on the set. Since the detection processing performed by the object region detection unit 110 is independent for each image, the detection processing is performed each time images are displayed in the detection result display region 1011 sequentially from the processed image or when the detection start / interrupt button 1010 is clicked. It can be started / interrupted.
<実施の形態1:まとめ>
 以上のように、本実施形態1に係る画像解析システム100は、クエリ画像のメタデータを書誌情報として含む画像データのみを対象として物体検出を実施する。これにより、大量の画像中から物体検出の対象とするものを効果的に絞り込み、ユーザが指定した物体を含む画像を高速に探すことができる。
<Embodiment 1: Summary>
As described above, the image analysis system 100 according to the first embodiment performs object detection only on image data including the query image metadata as bibliographic information. As a result, it is possible to effectively narrow down objects to be detected from a large number of images, and to quickly search for an image including the object designated by the user.
 本実施形態1に係る画像解析システム100は、例えば、図形商標の検索や審査において、新規に登録予定の図形が、登録済みの図形商標中で使用されていないかを判定する際に用いることができる。この場合、メタデータを生成するために必要な画像の書誌情報としては、画像の分類コードや説明文を利用することができる。 The image analysis system 100 according to the first embodiment is used, for example, in determining whether a graphic to be newly registered is not used in a registered graphic trademark in graphic trademark search or examination. it can. In this case, as the bibliographic information of the image necessary for generating the metadata, an image classification code or an explanatory note can be used.
 本実施形態1に係る画像解析システム100は、オークションサイトやショッピングサイトに適用することもできる。これにより、ユーザが指定した柄・マークを含む商品を高速に探すことができる。この場合、画像の書誌情報としては、商品のタイトルや出品者のコメントを利用することができる。 The image analysis system 100 according to the first embodiment can also be applied to an auction site or a shopping site. Thereby, the goods containing the pattern and mark designated by the user can be searched at high speed. In this case, as the bibliographic information of the image, the title of the product or the comment of the exhibitor can be used.
 本実施形態1に係る画像解析システム100は、映像コンテンツに適用することができる。これにより、著名人やランドマークが映っているシーンと、そのフレーム画像中での位置を調べることができる。この場合、画像の書誌情報としては、クローズドキャプションやテキスト化した音声などを利用することができる。 The image analysis system 100 according to the first embodiment can be applied to video content. As a result, it is possible to check the scene in which a celebrity or landmark is reflected and its position in the frame image. In this case, as the bibliographic information of the image, a closed caption or text-like voice can be used.
<実施の形態2>
 実施形態1で説明した画像解析システム100においては、解析対象決定部109が書誌情報検索によって物体検出の対象とする画像を絞り込む。そのため、実際にはユーザが指定した物体を含んでいるにもかかわらず、書誌情報が不十分な画像は、検出処理の対象にならず、解析結果として現れなくなる。以下では、書誌情報を拡張することにより、検出処理対象の漏れを軽減する方法について述べる。その他の構成は実施形態1と概ね同様であるため、以下では差異点を中心に説明する。
<Embodiment 2>
In the image analysis system 100 described in the first embodiment, the analysis target determination unit 109 narrows down images to be detected by the bibliographic information search. For this reason, an image with insufficient bibliographic information in spite of the fact that an object designated by the user is actually included is not subjected to detection processing and does not appear as an analysis result. In the following, a method for reducing leakage of detection processing targets by expanding bibliographic information will be described. Since other configurations are substantially the same as those in the first embodiment, the following description will focus on the differences.
 図11は、書誌情報を拡張する例を説明する図である。比較のため、書誌情報を拡張しない場合の検索概念図を図11(a)に示し、本実施形態2において書誌情報を拡張する場合の検索概念図を図11(b)に示した。 FIG. 11 is a diagram for explaining an example of extending bibliographic information. For comparison, FIG. 11A shows a search conceptual diagram when bibliographic information is not expanded, and FIG. 11B shows a search conceptual diagram when bibliographic information is expanded in the second embodiment.
 図11(a)に示すように、実施形態1で説明した画像解析システム100は、クエリ画像301に含まれる物体を含む画像を探すため、「星」というメタデータを条件として書誌情報を検索する。この結果、画像1101のように書誌情報に「星」が含まれていれば物体検出処理の対象になるが、画像1102のように書誌情報に「星」を含まない画像は検出対象にはならない。しかし、画像1102には実際に、クエリ画像301に類似した領域が含まれているため、画像1102は検出漏れとなってしまう。 As illustrated in FIG. 11A, the image analysis system 100 described in the first embodiment searches for bibliographic information on the basis of metadata “star” in order to search for an image including an object included in the query image 301. . As a result, if “star” is included in the bibliographic information as in the image 1101, the object is subjected to object detection processing, but an image that does not include “star” in the bibliographic information as in the image 1102 is not a detection target. . However, since the image 1102 actually includes a region similar to the query image 301, the image 1102 is not detected.
 そこで本実施形態2では、図11(b)に示すように、画像データベース105が格納している画像についてもメタデータを生成する。メタデータを生成する手法は、クエリ画像301のメタデータを生成する際に用いる手法と同じでよい。新たに生成したメタデータは、追加の書誌情報として画像データベース105に登録しておく。画像解析装置106は、物体検出の対象となる画像を絞り込む際に、追加分の書誌情報も検索対象とする。これにより、画像1103に示すように、本来は書誌情報として「星」を含まない画像も検索対象とすることができる。 Therefore, in the second embodiment, metadata is also generated for images stored in the image database 105 as shown in FIG. The method for generating the metadata may be the same as the method used when generating the metadata of the query image 301. The newly generated metadata is registered in the image database 105 as additional bibliographic information. When the image analysis device 106 narrows down the image that is the object detection target, the additional bibliographic information is also the search target. As a result, as shown in the image 1103, an image that does not originally include “star” as the bibliographic information can be a search target.
 一般に、単一物体が映っている画像に比べて、複数の物体が映っている画像は、物体のレイアウト変動による「見た目」のバリエーションが多いため、クエリ画像に類似する画像として発見される可能性は低くなる。その反面、もしクエリ画像との間の類似度が高く複数物体が映っている画像が見つかれば、その類似画像の書誌情報を転用しても情報量の劣化は少ないと考えられる。 In general, compared to an image that shows a single object, an image that shows multiple objects has more "look" variations due to variations in the layout of the object, so it can be found as an image that is similar to the query image Becomes lower. On the other hand, if an image with a high similarity between the query image and a plurality of objects is found, it is considered that there is little deterioration in the amount of information even if the bibliographic information of the similar image is transferred.
 図12は、書誌情報を拡張する処理の手順を説明するフローチャートである。本フローチャートは、画像データベース105に登録されている全画像に対して、メタデータ生成部108が実施する処理であり、ステップS1201からステップS1204の繰り返し処理である。本フローチャートは、例えばシステム負荷が小さい時間帯に実施してもよいし、画像データベース105に最初に画像を登録した直後に実施してもよい。以下、図12の各ステップについて説明する。 FIG. 12 is a flowchart for explaining a procedure of processing for extending bibliographic information. This flowchart is a process performed by the metadata generation unit 108 for all images registered in the image database 105, and is a repetition process from step S1201 to step S1204. This flowchart may be performed, for example, during a time period when the system load is low, or may be performed immediately after the first registration of an image in the image database 105. Hereinafter, each step of FIG. 12 will be described.
(図12:ステップS1202)
 メタデータ生成部108は、画像データベース105が保持している既存の書誌情報を用いて、画像データベース105内の画像のメタデータを生成する。メタデータを生成する方法は図6で示した手順と同様であるが、例えば類似度の閾値を図6よりも厳しくしたり、物体のレイアウトが変動しても変化しない画像特徴量を用いたりしてもよい。
(FIG. 12: Step S1202)
The metadata generation unit 108 uses the existing bibliographic information held in the image database 105 to generate image metadata in the image database 105. The method for generating the metadata is the same as the procedure shown in FIG. 6. For example, the similarity threshold is made stricter than in FIG. 6, or an image feature amount that does not change even when the object layout changes is used. May be.
(図12:ステップS1203)
 メタデータ生成部108は、ステップS1202で生成したメタデータを、追加の書誌情報として画像データベース105に登録する。
(FIG. 12: Step S1203)
The metadata generation unit 108 registers the metadata generated in step S1202 in the image database 105 as additional bibliographic information.
 図13は、書誌情報の拡張処理によって検出漏れが軽減する様子を説明するための、解析対象を表すベン図である。図13(a)は既存の書誌情報のみを用いた場合のベン図であり、図13(b)は拡張された書誌情報を用いた場合のベン図である。 FIG. 13 is a Venn diagram representing an analysis target for explaining how detection omissions are reduced by bibliographic information expansion processing. FIG. 13A is a Venn diagram when only existing bibliographic information is used, and FIG. 13B is a Venn diagram when expanded bibliographic information is used.
 図13(a)において、集合1301は、画像データベース105に登録された全画像の集合を表す。画像解析システム100を用いずに、ユーザが指定した物体を探す場合は、集合1301が、画像解析の処理対象となる。 13A, a set 1301 represents a set of all images registered in the image database 105. When searching for an object designated by the user without using the image analysis system 100, the set 1301 is a processing target of image analysis.
 集合1302は、ユーザが指定した「星型図形」の領域を含む画像集合であり、理想的には、画像解析システム100がこの集合を出力できればよい。 The set 1302 is an image set including an area of “star shape” designated by the user, and ideally, the image analysis system 100 only needs to be able to output this set.
 集合1303は、画像解析システム100が、自動生成した「星」というメタデータをクエリとして書誌情報検索を実施した結果、得られた画像集合である。画像解析システム100は、この集合を物体検出の処理対象とする。 The set 1303 is an image set obtained as a result of the bibliographic information search performed by the image analysis system 100 using the automatically generated metadata “star” as a query. The image analysis system 100 sets this set as an object detection processing target.
 集合1304は、「星型図形」を含む画像でありながら、書誌情報に「星」を含まないため、検出処理の対象にならず、検出漏れとなる画像集合である。 The set 1304 is an image set including a “star-shaped figure”, but does not include “star” in the bibliographic information, and thus is not an object of detection processing and is a detection omission.
 集合1305は、検出処理対象となっており、かつ、「星型図形」を含む画像であるため、検出可能な画像集合である。ただし、実際に検出できるかどうかは物体検出器自体の認識性能に依存する。物体検出器の性能を改善する方法については実施形態3の図15を用いて説明する。 The set 1305 is an image set that can be detected because it is an object to be detected and includes “star-shaped figures”. However, whether it can actually be detected depends on the recognition performance of the object detector itself. A method for improving the performance of the object detector will be described with reference to FIG. 15 of the third embodiment.
 集合1306は、書誌情報に「星」を含む画像だが、実際にはユーザの指定した「星型図形」と類似した領域を含まないため、本来は検出処理が不要な画像集合である。 The set 1306 is an image set including bibliographic information including “stars”, but actually does not include an area similar to the “star-shaped figure” designated by the user, and thus is an image set that originally does not require detection processing.
 図13(b)に示すように、書誌情報を拡張した場合、書誌情報に「星」を含む集合が大きくなる。この時、類似画像検索の結果を元に集合を拡張しているため、拡張された領域には「星型図形」が含まれる割合が高い。この結果、物体検出時間は増加するが、検出漏れを減らすことができる。 As shown in FIG. 13B, when bibliographic information is expanded, a set including “stars” in the bibliographic information becomes large. At this time, since the set is expanded based on the result of the similar image search, the expanded region has a high ratio of including “star figure”. As a result, the object detection time increases, but detection omission can be reduced.
 図14は、画像解析の処理時間とカバレッジの関係を表すチャートである。横軸は処理時間、縦軸はカバレッジを表す。カバレッジとは、図13の集合1302の何割を処理したかを表す、パーセンテージである。横軸は、検索対象とすべき全ての画像、すなわち図13の集合1302を解析対象とした場合の処理時間を100とした。 FIG. 14 is a chart showing the relationship between image analysis processing time and coverage. The horizontal axis represents processing time, and the vertical axis represents coverage. Coverage is a percentage that represents what percentage of the set 1302 of FIG. 13 has been processed. The horizontal axis represents 100 as the processing time when all images to be searched, that is, the set 1302 of FIG.
 図14において、集合1302のうち集合1305が占める割合が60%、集合1302のうち集合1304が占める割合が40%であると仮定する。書誌情報を拡張することにより、集合1302のうち集合1305が占める割合が80%、集合1302のうち集合1304が占める割合が20%になるものと仮定する。また、集合1305に対して物体検出を実施する際の処理時間は、全画像集合に対して物体検出を実施する際の処理時間の10分の1であると仮定する。 14, it is assumed that the ratio of the set 1305 in the set 1302 is 60% and the ratio of the set 1304 in the set 1302 is 40%. By extending the bibliographic information, it is assumed that the ratio of the set 1305 in the set 1302 is 80% and the ratio of the set 1304 in the set 1302 is 20%. Further, it is assumed that the processing time when performing object detection on the set 1305 is one tenth of the processing time when performing object detection on all image sets.
 直線1401は、全画像集合(集合1301)を解析対象としたときのカバレッジの推移を表す。画像データベース105からランダムに画像を取り出して処理すると、カバレッジは線形に増加していく。 A straight line 1401 represents a transition of coverage when the entire image set (set 1301) is an analysis target. When images are randomly extracted from the image database 105 and processed, the coverage increases linearly.
 折れ線1402は、実施形態1で説明した手法により、メタデータを用いて解析対象を絞り込んだ時のカバレッジの推移である。点1404までは検索対象として絞り込んだ画像に対する検出処理を示し、点1404以降は残りの画像に対しても検出処理を適用した場合を示す。点1404において、直線1401の1/10の処理時間で、60%のカバレッジを達成していることがわかる。 A broken line 1402 is a transition of coverage when the analysis target is narrowed down using metadata by the method described in the first embodiment. Up to a point 1404 shows detection processing for an image narrowed down as a search target, and after the point 1404 shows a case where detection processing is applied to the remaining images. At point 1404, it can be seen that 60% coverage is achieved in 1/10 the processing time of the straight line 1401.
 折れ線1403は、実施形態2で説明した手法により、拡張した書誌情報を用いて解析対象を絞り込んだ時のカバレッジの推移である。点1405までは検索対象として絞り込んだ画像に対する検出処理を示し、点1405以降は残りの画像に対しても検出処理を適用した場合を示す。検出処理対象が増えた分、点1405に至るまでの処理時間は点1404に比べて増加するが、カバレッジは高くなる。 A broken line 1403 is a change in coverage when the analysis target is narrowed down using the expanded bibliographic information by the method described in the second embodiment. Up to a point 1405 shows detection processing for an image narrowed down as a search target, and after the point 1405 shows a case where detection processing is applied to the remaining images. The processing time until reaching the point 1405 increases as the number of detection processing targets increases, but the coverage becomes higher.
 図14に示すように、処理時間とカバレッジはトレードオフの関係にあるため、用途に応じて、書誌情報を拡張するかどうかを決める必要がある。図形商標を審査する場合は、類似画像が一つでも見つかればよいため、処理対象を十分に絞り込んでから検出処理を実行したほうが、応答性の高いシステムになる。カバレッジを高くしたい場合は、最初は元の書誌情報だけを用いて処理し、必要に応じて追加の書誌情報を用いてもよい。 As shown in FIG. 14, since processing time and coverage are in a trade-off relationship, it is necessary to decide whether or not to expand bibliographic information depending on the application. When examining a graphic trademark, it is sufficient to find at least one similar image. Therefore, a system with higher responsiveness can be obtained by performing detection processing after sufficiently narrowing down the processing target. If it is desired to increase the coverage, processing may be performed using only the original bibliographic information at first, and additional bibliographic information may be used as necessary.
<実施の形態2:まとめ>
 以上のように、本実施形態2に係る画像解析システム100は、画像データベース105が格納している画像のメタデータを生成し、これを新たな書誌情報として画像データベース105に追加した上で、実施形態1と同様の処理を実施する。これにより、既存の書誌情報のみを用いた場合では検出漏れとなる画像も処理対象とすることができる。
<Embodiment 2: Summary>
As described above, the image analysis system 100 according to the second embodiment generates the metadata of the image stored in the image database 105 and adds it to the image database 105 as new bibliographic information. The same processing as in the first mode is performed. As a result, when only existing bibliographic information is used, an image that is not detected can be processed.
<実施の形態3>
 本発明の実施形態3では、画像解析システム100の処理における中間データを利用することにより、物体検出の精度を上げる方法を説明する。本手法は、物体検出の手法として、図7で説明したテンプレートを複数用いるものである。その他の構成は実施形態1~2と同様であるため、以下ではクエリ画像のメタデータを生成する際に複数のテンプレートを用いて類似画像を検索する点を中心に説明する。
<Embodiment 3>
In the third embodiment of the present invention, a method for improving the accuracy of object detection by using intermediate data in the processing of the image analysis system 100 will be described. This method uses a plurality of templates described in FIG. 7 as an object detection method. Since other configurations are the same as those in the first and second embodiments, the following description focuses on searching for similar images using a plurality of templates when generating metadata for a query image.
 図15は、クエリ画像に類似する画像を検索する際に用いるテンプレートを拡充することにより、物体検出の精度を上げる手法を説明する図である。以下図15を用いて、本実施形態3におけるテンプレートの拡充について説明する。 FIG. 15 is a diagram for explaining a technique for increasing the accuracy of object detection by expanding a template used when searching for an image similar to a query image. Hereinafter, the expansion of the template in the third embodiment will be described with reference to FIG.
 図7で説明した物体検出手法においては、画像の部分領域とテンプレートと類似度を調べることで物体領域を特定する。そのため、テンプレートとしてクエリ画像301のみを用いる場合、画像1505のように極端に見た目の違う星型は検出することができない。また、同じ「星」という概念であっても、画像1506のような「太陽図形」、画像1507のような「惑星図形」を検出することはできない。 In the object detection method described in FIG. 7, the object region is specified by examining the similarity between the partial region of the image and the template. Therefore, when only the query image 301 is used as a template, a star shape with extremely different appearance such as the image 1505 cannot be detected. Further, even with the same concept of “star”, it is not possible to detect a “sun figure” like the image 1506 and a “planet figure” like the image 1507.
 そこで本実施形態3に係る画像解析装置106は、処理中に生成される中間データを追加テンプレートとして用いる。具体的には、クエリ画像301のメタデータを生成する際にクエリ画像301と類似する画像として得られる画像群1501を、物体検出処理におけるテンプレートとして用いる。すなわち、ユーザが指定した物体のみならず、これに類似する物体も物体検出の対象とする。そのため本実施形態3では、メタデータ生成のために実施する類似画像検索によって得られた類似画像を用いて、検出対象とする物体のテンプレートを拡充することを図る。 Therefore, the image analysis apparatus 106 according to the third embodiment uses intermediate data generated during processing as an additional template. Specifically, an image group 1501 obtained as an image similar to the query image 301 when generating the metadata of the query image 301 is used as a template in the object detection process. That is, not only an object designated by the user but also an object similar to this is set as an object detection target. Therefore, in the third embodiment, an object template to be detected is expanded using a similar image obtained by a similar image search performed for generating metadata.
 画像解析装置106は、図6で説明した手法にしたがって、クエリ画像301に類似する画像を検索する(S601~S602)。このとき得られる画像群1501の見た目はクエリ画像301とは完全には一致しないが、ユーザが指定した物体に近いものであるため、後に物体検出を実施する際のテンプレートとして適切であると考えられる。そこで、これらの類似画像をテンプレートデータベース1504に登録する。テンプレートデータベース1504は、物体検出を実施する際に用いるテンプレートを一時的に保持するデータベースであり、クエリ画像301が変わる毎にリセットされる。 The image analysis apparatus 106 searches for an image similar to the query image 301 according to the method described in FIG. 6 (S601 to S602). Although the appearance of the image group 1501 obtained at this time does not completely match the query image 301, it is close to the object specified by the user, so it is considered suitable as a template for performing object detection later. . Therefore, these similar images are registered in the template database 1504. The template database 1504 is a database that temporarily holds a template used when performing object detection, and is reset every time the query image 301 changes.
 画像解析装置106は、図6で説明した手法にしたがって、クエリ画像301および画像群1501のメタデータを生成する。これにより、例えば「星」というメタデータが生成されたものと仮定する。 The image analysis apparatus 106 generates metadata of the query image 301 and the image group 1501 according to the method described in FIG. Thus, for example, it is assumed that metadata “star” is generated.
 画像解析装置106は、メタデータ「星」に合致する書誌情報を検索する。その結果、「星」という概念に該当する画像1503を含む画像群1505~1507が得られる。書誌情報検索の結果は、複数物体を含む画像であったり、図13で説明したようにノイズが多く含まれたりするが、例えば図10のような操作画面を用いて、ユーザの対話操作によりテンプレートを選ぶこともできる。例えば書誌情報検索によって得られた画像を操作画面上でいったん表示し、ユーザがそのなかから物体検出処理においてテンプレートとして用いる画像を選択するように構成することができる。 The image analysis device 106 searches for bibliographic information that matches the metadata “star”. As a result, image groups 1505 to 1507 including images 1503 corresponding to the concept of “star” are obtained. The result of the bibliographic information search is an image including a plurality of objects or a lot of noise as described with reference to FIG. 13. For example, the template is obtained by the user's interactive operation using the operation screen as shown in FIG. You can also choose. For example, an image obtained by bibliographic information search can be displayed once on the operation screen, and the user can select an image to be used as a template in the object detection process from among them.
 画像解析装置106は、画像群1505~1507に対して、テンプレートデータベース1504に格納されている複数のテンプレートを用いて、物体検出を実施する。例えばクエリ画像301に加えて画像群1501をテンプレートとし、さらにはユーザが操作画面上で画像1503をテンプレートとして用いる旨を指定した場合はこれもテンプレートとして用いる。これにより、クエリ画像301とは必ずしも見た目が類似していない星型領域(例えば画像1503のような太陽型や土星型)を検出することができる。 The image analysis apparatus 106 performs object detection on the image groups 1505 to 1507 using a plurality of templates stored in the template database 1504. For example, in addition to the query image 301, the image group 1501 is used as a template, and when the user designates that the image 1503 is used as a template on the operation screen, this is also used as a template. Thereby, it is possible to detect a star-shaped region that does not necessarily look similar to the query image 301 (for example, a sun-type or Saturn-type like the image 1503).
<実施の形態3:まとめ>
 以上のように、本実施形態3に係る画像解析装置106は、クエリ画像301のメタデータを生成する際に得られる類似画像や、書誌情報を検索する際に得られる画像を、物体検出のための拡張テンプレートとして用いる。これにより、概念が共通でも「見た目」の異なる物体を検出することができる。
<Embodiment 3: Summary>
As described above, the image analysis apparatus 106 according to the third embodiment uses the similar image obtained when generating the metadata of the query image 301 or the image obtained when searching the bibliographic information for object detection. Used as an extension template. This makes it possible to detect objects with different “looks” even if the concept is common.
<実施の形態4>
 本発明の実施形態4では、画像解析システム100をコンテンツクラウドシステムへ組み込んだ構成例について説明する。以下ではまず、コンテンツクラウドシステムの概要を説明し、その後、画像解析システム100を解析モジュールとしてコンテンツクラウドシステムへ組み込む方法について説明する。画像解析システム100の構成は実施形態1~3と同様である。
<Embodiment 4>
In the fourth embodiment of the present invention, a configuration example in which the image analysis system 100 is incorporated into a content cloud system will be described. Below, the outline | summary of a content cloud system is demonstrated first, Then, the method of incorporating the image analysis system 100 into a content cloud system as an analysis module is demonstrated. The configuration of the image analysis system 100 is the same as in the first to third embodiments.
 図16は、本実施形態4に係るコンテンツクラウドシステム1600の概略図である。コンテンツクラウドシステム1600は、Extract Transform Load(ETL)モジュール1603、コンテンツストレージ1604、検索エンジン1605、メタデータサーバ1606、マルチメディアサーバ1607を有する。コンテンツクラウドシステムは1つ以上のCPU、メモリ、記憶装置を備えた一般的な計算機上で動作し、システム自体は様々なモジュールで構成されている。また、それぞれのモジュールが独立した計算機で実行されることもあり、その場合、各ストレージとモジュール間はネットワーク等で接続されおり、それらを介してデータ通信を行う分散処理で実現される。 FIG. 16 is a schematic diagram of a content cloud system 1600 according to the fourth embodiment. The content cloud system 1600 includes an Extract Transform Load (ETL) module 1603, a content storage 1604, a search engine 1605, a metadata server 1606, and a multimedia server 1607. The content cloud system operates on a general computer including one or more CPUs, memories, and storage devices, and the system itself is composed of various modules. In addition, each module may be executed by an independent computer. In this case, each storage is connected to the module via a network or the like, and is realized by distributed processing in which data communication is performed via them.
 アプリケーションプログラム1608は、ネットワーク等を経由してコンテンツクラウドシステム1600に対してリクエストを送り、コンテンツクラウドシステム1600はリクエストに応じた情報をアプリケーション1608に送信する。 The application program 1608 sends a request to the content cloud system 1600 via a network or the like, and the content cloud system 1600 sends information corresponding to the request to the application 1608.
 コンテンツクラウドシステム1600は、入力として映像データ、画像データ、文書データ、音声データなどの任意の形式のデータ1601を受け取る。データ1601は、例えば、図形商標とその広報文書、ウェブサイトの画像とHTML文書、クローズドキャプションまたは音声付き映像データなどであり、構造化されたデータでもよいし非構造化データでもよい。コンテンツクラウドシステム1600へ入力されるデータはストレージ1602に一時的に蓄えられる。 The content cloud system 1600 receives data 1601 in an arbitrary format such as video data, image data, document data, and audio data as an input. The data 1601 is, for example, a graphic trademark and its publicity document, a website image and HTML document, closed caption or video data with audio, and may be structured data or unstructured data. Data input to the content cloud system 1600 is temporarily stored in the storage 1602.
 ETL1603は、ストレージ1602を監視しており、ストレージ1602へデータ1601が格納されると、そのデータに合わせた情報抽出処理モジュール16031を動作させ、抽出された情報(メタデータ)をコンテンツストレージ1604にアーカイブ化して保存する。 The ETL 1603 monitors the storage 1602. When the data 1601 is stored in the storage 1602, the ETL 1603 operates the information extraction processing module 16031 according to the data and archives the extracted information (metadata) in the content storage 1604. And save.
 情報抽出処理モジュール16031は、例えば、テキストのインデックスモジュール、画像認識モジュールなどで構成されている。メタデータの例としては、時刻、N-gramインデックス、画像認識結果(物体名、画像中の領域座標)、画像特徴量とその関連語、音声認識結果、などが該当する。情報抽出モジュール16031として、何らかの情報(メタデータ)抽出を行うプログラムすべてを用いることができ、公知の技術を採用することができるので、ここでは情報抽出処理モジュール16031の説明を省略する。必要ならば、メタデータはデータ圧縮アルゴリズムによって、データサイズを圧縮してもよい。また、ETL1603が情報を抽出したのち、データのファイル名、データ登録年月日、元データの種類、メタデータテキスト情報などをRelational Data Base(RDB)へ登録してもよい。 The information extraction processing module 16031 includes, for example, a text index module, an image recognition module, and the like. Examples of metadata include time, an N-gram index, an image recognition result (object name, region coordinates in the image), an image feature amount and related words, a voice recognition result, and the like. As the information extraction module 16031, any program for extracting some information (metadata) can be used, and a known technique can be adopted. Therefore, the description of the information extraction processing module 16031 is omitted here. If necessary, the metadata may be compressed in data size by a data compression algorithm. Further, after the ETL 1603 extracts the information, the data file name, data registration date, original data type, metadata text information, and the like may be registered in the Relational Data Base (RDB).
 コンテンツストレージ1604は、ETL1603が抽出した情報およびストレージ1602に一時的に蓄えられている処理前のデータ1601を保存する。 The content storage 1604 stores information extracted by the ETL 1603 and data 1601 before processing temporarily stored in the storage 1602.
 検索エンジン1605は、アプリケーションプログラム1608からのリクエストがあると、例えばテキスト検索であれば、ETL1603が作成したインデックスを元にテキスト検索を実施し、検索結果をアプリケーションプログラム1608に送信する。検索エンジン1605のアルゴリズムに関しては、公知の技術を適用することができる。検索エンジン1605はテキストだけでなく、画像、音声などのデータを検索するモジュールを搭載することもできる。 When there is a request from the application program 1608, the search engine 1605 performs a text search based on the index created by the ETL 1603 and transmits the search result to the application program 1608, for example, if it is a text search. A known technique can be applied to the algorithm of the search engine 1605. The search engine 1605 can include a module that searches not only text but also data such as images and sounds.
 メタデータサーバ1606は、RDBに蓄えられたメタデータを管理する。例えば、ETL1603が抽出した、データのファイル名、データ登録年月日、元データの種類、メタデータテキスト情報、などがRDBに登録されていると仮定する。アプリケーション1608からリクエストの要求があると、メタデータサーバ1606はそのリクエストに従って、RDB内の情報をアプリケーション1608に送信する。 The metadata server 1606 manages the metadata stored in the RDB. For example, it is assumed that the data file name, data registration date, original data type, metadata text information, etc. extracted by the ETL 1603 are registered in the RDB. When there is a request from the application 1608, the metadata server 1606 transmits information in the RDB to the application 1608 in accordance with the request.
 マルチメディアサーバ1607は、ETL1603が抽出したメタデータ同士の情報を互いに関連付け、グラフ形式で構造化してメタ情報を保存する。関連図付けの一例としては、ストレージ1604に蓄えられた「リンゴ」という音声認識結果に対して、元の音声ファイル、画像データ、関連語などの対応関係をネットワーク形式で表現することができる。マルチメディアサーバ1607は、アプリケーション1608からのリクエストがあると、それに応じたメタ情報をアプリケーション1608に送信する。例えば、「リンゴ」というリクエストがあると、構築されたグラフ構造に基づき、リンゴを含む画像、平均相場、アーティストの曲名、などのネットワークグラフ上で関連付けられたメタ情報を提供する。 The multimedia server 1607 associates pieces of information of the metadata extracted by the ETL 1603 with each other, stores the information in a graph format, and stores the metadata. As an example of association mapping, the correspondence relationship of the original voice file, image data, related words, and the like can be expressed in a network format with respect to the voice recognition result “apple” stored in the storage 1604. When there is a request from the application 1608, the multimedia server 1607 transmits meta information corresponding to the request to the application 1608. For example, when there is a request of “apple”, meta information associated on a network graph such as an image including an apple, an average market price, and an artist's song name is provided based on the constructed graph structure.
 コンテンツクラウドシステム1600において、画像解析システム100は、ETL1603における情報抽出処理モジュール16031として機能する。図1における画像・文書記憶装置101、データ格納装置104は、図16においては、それぞれストレージ1602、コンテンツストレージ104に対応する。また、画像解析装置106は情報抽出処理モジュール16031に相当する。ETL1603に複数の情報抽出処理モジュール16031が組み込まれる場合は、1台の計算機のリソースをシェアしてもよいし、モジュール毎に独立した計算機を用いてもよい。図1の画像データベース105は、ETL1603が情報抽出する際に必要な辞書データ16032に相当する。 In the content cloud system 1600, the image analysis system 100 functions as the information extraction processing module 16031 in the ETL 1603. The image / document storage device 101 and the data storage device 104 in FIG. 1 correspond to the storage 1602 and the content storage 104 in FIG. The image analysis device 106 corresponds to the information extraction processing module 16031. When a plurality of information extraction processing modules 16031 are incorporated in the ETL 1603, the resources of one computer may be shared, or independent computers may be used for each module. The image database 105 in FIG. 1 corresponds to dictionary data 16032 required when the ETL 1603 extracts information.
<実施の形態4:まとめ>
 以上のように、本発明に係る画像解析システム100は、コンテンツクラウドシステム1600の構成要素として適用することができる。コンテンツクラウドシステム1600は、各メディアデータに共通して利用可能なメタデータを生成することにより、メディア間にまたがって情報を統合することができる。これにより、付加価値がより高い情報をユーザへ提供することが期待される。
<Embodiment 4: Summary>
As described above, the image analysis system 100 according to the present invention can be applied as a component of the content cloud system 1600. The content cloud system 1600 can integrate information across media by generating metadata that can be commonly used for each media data. As a result, it is expected to provide information with higher added value to the user.
 本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることもできる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の構成を追加・削除・置換することもできる。 The present invention is not limited to the above-described embodiment, and includes various modifications. The above embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. A part of the configuration of one embodiment can be replaced with the configuration of another embodiment. The configuration of another embodiment can be added to the configuration of a certain embodiment. Further, with respect to a part of the configuration of each embodiment, another configuration can be added, deleted, or replaced.
 上記各構成、機能、処理部、処理手段等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の記録媒体に格納することができる。 The above components, functions, processing units, processing means, etc. may be realized in hardware by designing some or all of them, for example, with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
 100:画像解析システム、101:画像・文書入力装置、102:入力装置、103:表示装置、104:データ格納装置、105:画像データベース、106:画像解析装置、107:画像・文書入力部、108:メタデータ生成部、109:解析対象決定部、110:物体領域検出部、111:操作情報入力部、112:データ出力部、1600:コンテンツクラウドシステム、1602:ストレージ、1603:ETLモジュール、1604:コンテンツストレージ、1605:検索エンジン、1606:メタデータサーバ、1607:マルチメディアサーバ、1608:アプリケーションプログラム。 100: Image analysis system 101: Image / document input device 102: Input device 103: Display device 104: Data storage device 105: Image database 106: Image analysis device 107: Image / document input unit 108 : Metadata generation unit, 109: analysis target determination unit, 110: object region detection unit, 111: operation information input unit, 112: data output unit, 1600: content cloud system, 1602: storage, 1603: ETL module, 1604: Content storage, 1605: search engine, 1606: metadata server, 1607: multimedia server, 1608: application program.

Claims (15)

  1.  検出対象とする物体の画像を含むクエリ画像データを受け取る画像入力部と、
     画像データとその書誌情報を対応付けて保持する画像データベースを用いて前記クエリ画像データのメタデータを生成するメタデータ生成部と、
     前記画像データベースが保持している前記画像データのうち前記書誌情報が前記メタデータと合致するものを1以上抽出する解析対象決定部と、
     前記解析対象決定部が抽出した1以上の前記画像データのうち前記物体の画像を含む領域を検出する物体領域検出部と、
     前記物体領域検出部が検出した結果を出力する出力部と、
     を備えることを特徴とする画像解析装置。
    An image input unit that receives query image data including an image of an object to be detected;
    A metadata generation unit that generates metadata of the query image data using an image database that associates and holds image data and bibliographic information;
    An analysis target determining unit that extracts one or more of the image data held in the image database and whose bibliographic information matches the metadata;
    An object region detection unit for detecting a region including an image of the object among the one or more pieces of image data extracted by the analysis target determination unit;
    An output unit for outputting a result detected by the object region detection unit;
    An image analysis apparatus comprising:
  2.  前記メタデータ生成部は、
      前記画像データベースが保持している前記画像データのうち前記クエリ画像データと類似するものを検索し、その結果得られた前記画像データの前記書誌情報を用いて前記メタデータを生成する
     ことを特徴とする請求項1記載の画像解析装置。
    The metadata generation unit
    The image data stored in the image database is searched for data similar to the query image data, and the metadata is generated using the bibliographic information of the image data obtained as a result. The image analysis apparatus according to claim 1.
  3.  前記メタデータ生成部は、
      前記検索の結果得られた前記画像データの前記書誌情報のなかに前記メタデータが出現する頻度を用いて前記メタデータのスコアを算出し、
     前記解析対象決定部は、
      前記スコアを用いて、前記書誌情報と合致するものを抽出する際に検索キーとする前記メタデータを決定する
     ことを特徴とする請求項2記載の画像解析装置。
    The metadata generation unit
    A score of the metadata is calculated using a frequency at which the metadata appears in the bibliographic information of the image data obtained as a result of the search;
    The analysis target determining unit
    The image analysis apparatus according to claim 2, wherein the metadata is used as a search key when extracting a match with the bibliographic information using the score.
  4.  前記解析対象決定部は、
      前記スコアが高いほうから順に所定範囲以内の前記メタデータを検索キーとして、前記メタデータと合致する前記書誌情報に対応付けられた前記画像データを抽出する
     ことを特徴とする請求項3記載の画像解析装置。
    The analysis target determining unit
    4. The image according to claim 3, wherein the image data associated with the bibliographic information matching the metadata is extracted using the metadata within a predetermined range in order from the highest score as a search key. 5. Analysis device.
  5.  前記解析対象決定部は、
      前記メタデータのうちいずれを用いて前記書誌情報と合致するものを抽出するかを指定するメタデータ指定を受け取り、その指定された前記メタデータと合致する前記書誌情報に対応付けられた前記画像データを抽出する
     ことを特徴とする請求項3記載の画像解析装置。
    The analysis target determining unit
    The image data associated with the bibliographic information that receives the metadata designation that specifies which of the metadata is used to extract the one that matches the bibliographic information and that matches the designated metadata The image analysis device according to claim 3, wherein the image analysis device is extracted.
  6.  前記画像解析装置は、
      前記物体領域検出部が前記物体の画像を含む領域を検出する対象とする前記画像データの件数およびその検出処理時間を表示する表示部を備え、
     前記解析対象決定部は、
      前記メタデータ指定を受け取る毎に、前記件数と前記検出処理時間を再計算して前記表示部上にその再計算の結果を反映する
     ことを特徴とする請求項5記載の画像解析装置。
    The image analysis device includes:
    A display unit that displays the number of the image data to be detected by the object region detection unit and a region that includes an image of the object and a detection processing time thereof;
    The analysis target determining unit
    The image analysis apparatus according to claim 5, wherein each time the metadata designation is received, the number of cases and the detection processing time are recalculated and the result of the recalculation is reflected on the display unit.
  7.  前記メタデータ生成部は、
      前記検索の結果得られた前記画像データのうち、前記クエリ画像データと合わせて前記メタデータを生成するために用いるものを指定する類似画像指定を受け取り、
      前記画像データベースが保持している前記画像データのうち、前記クエリ画像データと類似するものおよび前記類似画像指定により指定された前記画像データと類似するものを検索し、その結果得られた前記画像データの前記書誌情報を用いて前記メタデータを生成する
     ことを特徴とする請求項2記載の画像解析装置。
    The metadata generation unit
    Receiving a similar image designation that designates one of the image data obtained as a result of the search and used to generate the metadata together with the query image data;
    The image data stored in the image database is searched for data similar to the query image data and data similar to the image data designated by the similar image designation, and the image data obtained as a result The image analysis apparatus according to claim 2, wherein the metadata is generated using the bibliographic information.
  8.  前記物体領域検出部は、
      前記画像データの部分領域の特徴量ベクトルと、前記クエリ画像データの特徴量ベクトルとの間のベクトル間距離を算出し、
      前記ベクトル間距離が所定範囲内にあるか否かにより、前記クエリ画像データ内に含まれる前記物体が前記部分領域内に含まれているか否かを判定する
     ことを特徴とする請求項1記載の画像解析装置。
    The object region detection unit
    Calculating an intervector distance between a feature vector of a partial region of the image data and a feature vector of the query image data;
    2. The method according to claim 1, wherein whether or not the object included in the query image data is included in the partial region is determined based on whether or not the inter-vector distance is within a predetermined range. Image analysis device.
  9.  前記出力部は、
      前記物体領域検出部が前記画像データ内で検出した前記物体の個数を、前記物体領域検出部が検出した結果とともに出力する
     ことを特徴とする請求項1記載の画像解析装置。
    The output unit is
    The image analysis apparatus according to claim 1, wherein the number of the objects detected in the image data by the object area detection unit is output together with a result of detection by the object area detection unit.
  10.  前記出力部は、
      前記物体領域検出部が前記画像データ内で検出した前記物体の検出信頼度を、前記物体領域検出部が検出した結果とともに出力する
     ことを特徴とする請求項1記載の画像解析装置。
    The output unit is
    The image analysis apparatus according to claim 1, wherein the detection reliability of the object detected in the image data by the object region detection unit is output together with a result detected by the object region detection unit.
  11.  前記メタデータ生成部は、
      前記画像データベースが保持している前記画像データのメタデータを、前記画像データベースが保持している他の前記画像データを用いて生成し、生成したメタデータを前記書誌情報として追加し、
     前記解析対象決定部は、
      前記メタデータが追加された前記書誌情報を用いて、前記画像データベースが保持している前記画像データのうち前記書誌情報が前記メタデータと合致するものを1以上抽出する
     ことを特徴とする請求項1記載の画像解析装置。
    The metadata generation unit
    Generating metadata of the image data held by the image database using the other image data held by the image database, adding the generated metadata as the bibliographic information,
    The analysis target determining unit
    The bibliographic information to which the metadata is added is used to extract one or more of the image data held in the image database whose bibliographic information matches the metadata. The image analysis apparatus according to 1.
  12.  前記物体領域検出部は、
      前記解析対象決定部が抽出した1以上の前記画像データのうち、
      前記物体の画像を含む領域と、前記メタデータ生成部が前記検索を実施した結果得られた前記画像データに含まれる物体の画像を含む領域と、を検出する
     ことを特徴とする請求項1記載の画像解析装置。
    The object region detection unit
    Among the one or more image data extracted by the analysis target determination unit,
    The area including the image of the object and the area including the image of the object included in the image data obtained as a result of the search performed by the metadata generation unit are detected. Image analysis device.
  13.  前記物体領域検出部は、
      前記メタデータ生成部が前記検索を実施した結果得られた前記画像データのうち、前記クエリ画像データに含まれる前記物体と合わせて検出すべき物体を含むものを指定する検出対象指定を受け取り、
      前記解析対象決定部が抽出した1以上の前記画像データのうち、
      前記物体の画像を含む領域と、前記検出対象指定により指定された前記画像データに含まれる物体の画像を含む領域と、を検出する
     ことを特徴とする請求項12記載の画像解析装置。
    The object region detection unit
    Receiving the detection target designation that designates the image data obtained as a result of the search performed by the metadata generation unit, including the object to be detected together with the object included in the query image data;
    Among the one or more image data extracted by the analysis target determination unit,
    The image analysis apparatus according to claim 12, wherein an area including the image of the object and an area including an image of the object included in the image data designated by the detection target designation are detected.
  14.  請求項1記載の画像解析装置と、
     画像データとその書誌情報を対応付けて保持する画像データベースと、
     を有し、
     前記メタデータ生成部は、前記画像データベースを用いて前記クエリ画像データのメタデータを生成する
     ことを特徴とする画像解析システム。
    An image analysis apparatus according to claim 1;
    An image database that stores image data and its bibliographic information in association with each other;
    Have
    The metadata generation unit generates metadata of the query image data using the image database.
  15.  検出対象とする物体の画像を含むクエリ画像データを受け取る画像入力ステップ、
     画像データとその書誌情報を対応付けて保持する画像データベースを用いて前記クエリ画像データのメタデータを生成するメタデータ生成ステップ、
     前記画像データベースが保持している前記画像データのうち前記書誌情報が前記メタデータと合致するものを1以上抽出する解析対象決定ステップ、
     前記解析対象決定ステップで抽出した1以上の前記画像データのうち前記物体の画像を含む領域を検出する物体領域検出ステップ、
     前記物体領域検出ステップで検出した結果を出力する出力ステップ、
     を有することを特徴とする画像解析方法。
    An image input step of receiving query image data including an image of an object to be detected;
    A metadata generation step of generating metadata of the query image data using an image database that stores image data and bibliographic information in association with each other;
    An analysis target determining step for extracting one or more of the image data held in the image database and whose bibliographic information matches the metadata;
    An object region detection step for detecting a region including an image of the object among the one or more image data extracted in the analysis target determination step;
    An output step of outputting a result detected in the object region detection step;
    An image analysis method characterized by comprising:
PCT/JP2012/063322 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method WO2013175608A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014516586A JP5857124B2 (en) 2012-05-24 2012-05-24 Image analysis apparatus, image analysis system, and image analysis method
US14/402,819 US9665798B2 (en) 2012-05-24 2012-05-24 Device and method for detecting specified objects in images using metadata
SG11201407749TA SG11201407749TA (en) 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method
PCT/JP2012/063322 WO2013175608A1 (en) 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method
CN201280073308.8A CN104321802B (en) 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063322 WO2013175608A1 (en) 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method

Publications (1)

Publication Number Publication Date
WO2013175608A1 true WO2013175608A1 (en) 2013-11-28

Family

ID=49623339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063322 WO2013175608A1 (en) 2012-05-24 2012-05-24 Image analysis device, image analysis system, and image analysis method

Country Status (5)

Country Link
US (1) US9665798B2 (en)
JP (1) JP5857124B2 (en)
CN (1) CN104321802B (en)
SG (1) SG11201407749TA (en)
WO (1) WO2013175608A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122162A1 (en) * 2014-02-14 2015-08-20 日本電気株式会社 Video search device
JP2016071503A (en) * 2014-09-29 2016-05-09 株式会社東芝 Graph display apparatus, method and program
WO2016199662A1 (en) * 2015-06-10 2016-12-15 株式会社ウイル・コーポレーション Image information processing system
JP2017033293A (en) * 2015-07-31 2017-02-09 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
JP2017513138A (en) * 2014-03-31 2017-05-25 コファックス, インコーポレイテッド Predictive analysis for scalable business process intelligence and distributed architecture
JP2018073429A (en) * 2017-11-15 2018-05-10 ヤフー株式会社 Retrieval device, retrieval method, and retrieval program
JP2019139588A (en) * 2018-02-13 2019-08-22 キヤノン株式会社 Image analysis apparatus and image analysis method
WO2020071216A1 (en) * 2018-10-03 2020-04-09 国立大学法人北海道大学 Image search device, image search method, and program for image search
KR20220080519A (en) * 2020-12-07 2022-06-14 서울과학기술대학교 산학협력단 Indoor position apparatus amd method using visual localization

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7937393B2 (en) 2005-11-28 2011-05-03 Commvault Systems, Inc. Systems and methods for classifying and transferring information in a storage network
US20200257596A1 (en) 2005-12-19 2020-08-13 Commvault Systems, Inc. Systems and methods of unified reconstruction in storage systems
US8892523B2 (en) 2012-06-08 2014-11-18 Commvault Systems, Inc. Auto summarization of content
JP2014127011A (en) * 2012-12-26 2014-07-07 Sony Corp Information processing apparatus, information processing method, and program
KR102155133B1 (en) * 2013-07-12 2020-09-11 삼성전자주식회사 Method and apparatus for displaying image
DE102014113817A1 (en) * 2013-10-15 2015-04-16 Electronics And Telecommunications Research Institute Device and method for recognizing an object in an image
WO2016069765A1 (en) * 2014-10-28 2016-05-06 WWTemplar LLC Component-based building assessment
JP6463095B2 (en) * 2014-11-25 2019-01-30 キヤノン株式会社 Image search apparatus and method
WO2016147260A1 (en) * 2015-03-13 2016-09-22 株式会社日立製作所 Image retrieval device and method for retrieving image
JP6587435B2 (en) * 2015-06-29 2019-10-09 キヤノン株式会社 Image processing apparatus, information processing method, and program
CN106028160A (en) * 2016-06-03 2016-10-12 腾讯科技(深圳)有限公司 Image data processing method and device
US10540516B2 (en) 2016-10-13 2020-01-21 Commvault Systems, Inc. Data protection within an unsecured storage environment
US11120074B2 (en) * 2016-12-06 2021-09-14 International Business Machines Corporation Streamlining citations and references
US20190251204A1 (en) 2018-02-14 2019-08-15 Commvault Systems, Inc. Targeted search of backup data using calendar event data
US10642886B2 (en) * 2018-02-14 2020-05-05 Commvault Systems, Inc. Targeted search of backup data using facial recognition
JP7119794B2 (en) * 2018-09-05 2022-08-17 トヨタ自動車株式会社 LOG DATA GENERATION METHOD, PROGRAM AND DATA STRUCTURE
US11176403B1 (en) * 2018-09-06 2021-11-16 Amazon Technologies, Inc. Filtering detected objects from an object recognition index according to extracted features
US10553085B1 (en) 2019-01-25 2020-02-04 Lghorizon, Llc Home emergency guidance and advisement system
CN113282779A (en) 2020-02-19 2021-08-20 阿里巴巴集团控股有限公司 Image searching method, device and equipment
US11043095B1 (en) 2020-06-16 2021-06-22 Lghorizon, Llc Predictive building emergency guidance and advisement system
US11583770B2 (en) 2021-03-01 2023-02-21 Lghorizon, Llc Systems and methods for machine learning-based emergency egress and advisement
US11893769B2 (en) * 2021-06-04 2024-02-06 Vade Usa, Incorporated Data collection for object detectors
US11626002B2 (en) 2021-07-15 2023-04-11 Lghorizon, Llc Building security and emergency detection and advisement system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362314A (en) * 2003-06-05 2004-12-24 Ntt Data Corp Retrieval information registration device, information retrieval device, and retrieval information registration method
JP2005275847A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image storage method and image storage device

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175829B1 (en) * 1998-04-22 2001-01-16 Nec Usa, Inc. Method and apparatus for facilitating query reformulation
US7299496B2 (en) * 2001-08-14 2007-11-20 Illinois Institute Of Technology Detection of misuse of authorized access in an information retrieval system
US8495211B2 (en) * 2002-09-26 2013-07-23 Hewlett-Packard Development Company, L.P. Network service system and mechanism for searching service registries
US7657100B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US7945099B2 (en) * 2005-05-09 2011-05-17 Like.Com System and method for use of images with recognition analysis
JP2007058605A (en) * 2005-08-24 2007-03-08 Ricoh Co Ltd Document management system
JP4429241B2 (en) * 2005-09-05 2010-03-10 キヤノン株式会社 Image processing apparatus and method
NO20054720L (en) * 2005-10-13 2007-04-16 Fast Search & Transfer Asa Information access with user-driven metadata feedback
JP2009514075A (en) * 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー How to provide users with selected content items
CN100507917C (en) * 2006-02-24 2009-07-01 佳能株式会社 Image processing apparatus, image processing method, and server and control method of the same
US8024343B2 (en) * 2006-04-07 2011-09-20 Eastman Kodak Company Identifying unique objects in multiple image collections
US20070244925A1 (en) * 2006-04-12 2007-10-18 Jean-Francois Albouze Intelligent image searching
US10042927B2 (en) * 2006-04-24 2018-08-07 Yeildbot Inc. Interest keyword identification
JP4175390B2 (en) * 2006-06-09 2008-11-05 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP5059545B2 (en) * 2007-10-23 2012-10-24 株式会社リコー Image processing apparatus and image processing method
US8069173B2 (en) * 2007-11-12 2011-11-29 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same, information processing method, and computer program
JP4921335B2 (en) * 2007-12-10 2012-04-25 キヤノン株式会社 Document processing apparatus and search method
JP2009252185A (en) * 2008-04-10 2009-10-29 Ricoh Co Ltd Information searching device, information searching method, control program, and recording medium
JP4615038B2 (en) 2008-06-23 2011-01-19 日立オートモティブシステムズ株式会社 Image processing device
KR20110118421A (en) * 2010-04-23 2011-10-31 엘지전자 주식회사 Augmented remote controller, augmented remote controller controlling method and the system for the same
KR101718891B1 (en) * 2010-01-26 2017-03-23 삼성전자주식회사 Method and apparatus for searching image
US8320644B2 (en) * 2010-06-15 2012-11-27 Apple Inc. Object detection metadata
US9361523B1 (en) * 2010-07-21 2016-06-07 Hrl Laboratories, Llc Video content-based retrieval
EP2418588A1 (en) * 2010-08-10 2012-02-15 Technische Universität München Visual localization method
US20120045132A1 (en) * 2010-08-23 2012-02-23 Sony Corporation Method and apparatus for localizing an object within an image
JP5134664B2 (en) * 2010-09-14 2013-01-30 株式会社東芝 Annotation device
KR101192439B1 (en) * 2010-11-22 2012-10-17 고려대학교 산학협력단 Apparatus and method for serching digital contents
JP5048852B2 (en) * 2011-02-25 2012-10-17 楽天株式会社 Search device, search method, search program, and computer-readable recording medium storing the program
US20120254790A1 (en) * 2011-03-31 2012-10-04 Xerox Corporation Direct, feature-based and multi-touch dynamic search and manipulation of image sets
US8839303B2 (en) * 2011-05-13 2014-09-16 Google Inc. System and method for enhancing user search results by determining a television program currently being displayed in proximity to an electronic device
WO2012176317A1 (en) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 Image recognition system-equipped interest graph collection system using relationship search
US8577131B1 (en) * 2011-07-12 2013-11-05 Google Inc. Systems and methods for visual object matching
US8625887B2 (en) * 2011-07-13 2014-01-07 Google Inc. Systems and methods for matching visual object components
US9424258B2 (en) * 2011-09-08 2016-08-23 Telefonaktiebolaget Lm Ericsson (Publ) Assigning tags to media files
US8751422B2 (en) * 2011-10-11 2014-06-10 International Business Machines Corporation Using a heuristically-generated policy to dynamically select string analysis algorithms for client queries
US9256680B2 (en) * 2012-02-02 2016-02-09 Microsoft Technology Licensing, Llc Biasing search results toward topics of interest using embedded relevance links
JP5820320B2 (en) * 2012-03-27 2015-11-24 株式会社東芝 Information processing terminal and method, and information management apparatus and method
US10685234B2 (en) * 2012-03-31 2020-06-16 Xerox Corporation Automatic and semi-automatic metadata generation via inheritance in homogeneous and heterogeneous environments
US9195717B2 (en) * 2012-06-26 2015-11-24 Google Inc. Image result provisioning based on document classification
KR20140098959A (en) * 2013-01-31 2014-08-11 한국전자통신연구원 Apparatus and method for evidence video generation
AU2014321165B2 (en) * 2013-09-11 2020-04-09 See-Out Pty Ltd Image searching method and apparatus
US10140295B2 (en) * 2014-03-29 2018-11-27 Camelot Uk Bidco Limited Method, system and software for searching, identifying, retrieving and presenting electronic documents
US20160203238A1 (en) * 2015-01-09 2016-07-14 Facebook, Inc. Suggested Keywords for Searching News-Related Content on Online Social Networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362314A (en) * 2003-06-05 2004-12-24 Ntt Data Corp Retrieval information registration device, information retrieval device, and retrieval information registration method
JP2005275847A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image storage method and image storage device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122162A1 (en) * 2014-02-14 2015-08-20 日本電気株式会社 Video search device
JP2017513138A (en) * 2014-03-31 2017-05-25 コファックス, インコーポレイテッド Predictive analysis for scalable business process intelligence and distributed architecture
JP2016071503A (en) * 2014-09-29 2016-05-09 株式会社東芝 Graph display apparatus, method and program
WO2016199662A1 (en) * 2015-06-10 2016-12-15 株式会社ウイル・コーポレーション Image information processing system
JP2017004252A (en) * 2015-06-10 2017-01-05 株式会社ウイル・コーポレーション Image information processing system
JP2017033293A (en) * 2015-07-31 2017-02-09 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
JP2018073429A (en) * 2017-11-15 2018-05-10 ヤフー株式会社 Retrieval device, retrieval method, and retrieval program
JP2019139588A (en) * 2018-02-13 2019-08-22 キヤノン株式会社 Image analysis apparatus and image analysis method
JP7208713B2 (en) 2018-02-13 2023-01-19 キヤノン株式会社 Image analysis device and image analysis method
WO2020071216A1 (en) * 2018-10-03 2020-04-09 国立大学法人北海道大学 Image search device, image search method, and program for image search
KR20220080519A (en) * 2020-12-07 2022-06-14 서울과학기술대학교 산학협력단 Indoor position apparatus amd method using visual localization
KR102449855B1 (en) * 2020-12-07 2022-10-04 서울과학기술대학교 산학협력단 Indoor position apparatus amd method using visual localization

Also Published As

Publication number Publication date
SG11201407749TA (en) 2014-12-30
JPWO2013175608A1 (en) 2016-01-12
CN104321802A (en) 2015-01-28
US20150286896A1 (en) 2015-10-08
CN104321802B (en) 2017-04-26
US9665798B2 (en) 2017-05-30
JP5857124B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5857124B2 (en) Image analysis apparatus, image analysis system, and image analysis method
JP6005837B2 (en) Image analysis apparatus, image analysis system, and image analysis method
KR101856120B1 (en) Discovery of merchants from images
JP6759844B2 (en) Systems, methods, programs and equipment that associate images with facilities
KR102422977B1 (en) Natural language image search
US11157550B2 (en) Image search based on feature values
US11580181B1 (en) Query modification based on non-textual resource context
CN108846091B (en) Information recommendation method, device and equipment
US10282374B2 (en) System and method for feature recognition and document searching based on feature recognition
CN109918555B (en) Method, apparatus, device and medium for providing search suggestions
CN107909088B (en) Method, apparatus, device and computer storage medium for obtaining training samples
KR101565759B1 (en) Method and system for detecting related topics and competition topics based on topic templates and association words, related topics and competition topics detecting device
US20150186531A1 (en) Recommended News Edition on a Map Using Geo Entities
CN113806588B (en) Method and device for searching video
WO2016107125A1 (en) Information searching method and apparatus
KR20160066216A (en) Method of detecting issue patten associated with user search word, server performing the same and storage medium storing the same
CN110737824A (en) Content query method and device
JP5484113B2 (en) Document image related information providing apparatus and document image related information acquisition system
CN107239209B (en) Photographing search method, device, terminal and storage medium
JPH11250106A (en) Method for automatically retrieving registered trademark through the use of video information of content substrate
KR101850853B1 (en) Method and apparatus of search using big data
CN112883218A (en) Image-text combined representation searching method, system, server and storage medium
US10489460B2 (en) Method and apparatus for providing local search suggestion
JP2018072873A (en) Information processing apparatus, information processing method, and program
JP3985826B2 (en) Image search method and apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12877294

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014516586

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14402819

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12877294

Country of ref document: EP

Kind code of ref document: A1