JP2007041762A - Image recognizing device - Google Patents
Image recognizing device Download PDFInfo
- Publication number
- JP2007041762A JP2007041762A JP2005223924A JP2005223924A JP2007041762A JP 2007041762 A JP2007041762 A JP 2007041762A JP 2005223924 A JP2005223924 A JP 2005223924A JP 2005223924 A JP2005223924 A JP 2005223924A JP 2007041762 A JP2007041762 A JP 2007041762A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- keyword
- position information
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像データの内容を認識する技術に関する。 The present invention relates to a technique for recognizing the contents of image data.
従来から、テキスト形式のキーワードを入力してWebページを検索するシステムが広く実用化されている。かかるシステムでは、適切なキーワードを入力することで、所望のWebページを検索することができる。こうしたキーワードによる検索手法に対して、任意の画像から種々の情報を検索する技術がある。例えば、下記特許文献1には、撮影画像の情報とその画像の撮影場所名とを関連付けて記憶したデータベースを用意し、任意の画像データを入力すると、データベースから類似画像データを検索し、検索された類似画像データに関連付けられた撮影場所名を抽出する技術が開示されている。 2. Description of the Related Art Conventionally, systems for searching Web pages by inputting text format keywords have been widely put into practical use. In such a system, a desired Web page can be searched by inputting an appropriate keyword. As a search method using such keywords, there is a technique for searching various information from an arbitrary image. For example, in Patent Document 1 below, a database that stores information related to captured images and the names of the locations where the images are captured is prepared. When arbitrary image data is input, similar image data is retrieved from the database and searched. A technique for extracting a shooting place name associated with similar image data is disclosed.
しかしながら、かかるデータベースを用いた技術では、画像データの撮影場所名の情報は抽出できるものの、撮影場所名以外の情報、例えば、被写体の名称などについては取得することができなかった。そのため、画像データの内容を表わす適切なキーワードを抽出して、画像認識を行なうことが困難であった。 However, in the technique using such a database, information on the shooting location name of the image data can be extracted, but information other than the shooting location name, such as the name of the subject, cannot be acquired. For this reason, it is difficult to extract an appropriate keyword representing the content of the image data and perform image recognition.
本発明は、適切な画像認識が難しいといった問題を踏まえ、適切な画像認識を行なう画像認識装置を提供することを目的とする。 An object of the present invention is to provide an image recognition apparatus that performs appropriate image recognition in view of the problem that appropriate image recognition is difficult.
本発明の第1の画像認識装置は、上記課題に鑑み、以下の手法を採った。すなわち、撮影位置の情報を備えた一の画像データの画像内容を表わすキーワードを、所定の検索対象から抽出する処理を実行し、画像内容を認識する画像認識装置であって、前記検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けし、データベースとして記憶する記憶手段と、前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出する画像データ入力手段と、前記取得画像データに備わった画像特徴量を抽出する画像特徴量抽出手段と、前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断する除外判断手段と、前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出するキーワード抽出手段とを備えたことを要旨としている。 In view of the above problems, the first image recognition apparatus of the present invention employs the following method. That is, an image recognition apparatus that executes processing for extracting a keyword representing the image content of one image data having photographing position information from a predetermined search target and recognizes the image content, and is the search target. For each of the plurality of target image data, an image feature amount, a keyword representing the image content, position information at which an image having the image feature amount is photographed, and an object to which the keyword is assigned is specific to a specific location A storage means for associating a position information relevance degree indicating a degree of image data and storing it as a database; and image data for inputting the one image data as acquired image data and extracting position information where the acquired image data is photographed An input means; an image feature quantity extraction means for extracting an image feature quantity included in the acquired image data; and a position of the target image data stored in the database. Whether or not to exclude the target image data from the keyword extraction processing target using the degree of report relevance, the position information of the acquired image data, and the shooting position distance obtained from the position information of the target image data An exclusion determination means for determining whether or not the target image data satisfies the predetermined condition by comparing the image feature amount of the acquired image data with the image feature amount of the target image data when the target image data is determined to be the processing target. And a keyword extracting means for extracting the keywords from the database.
また、本発明の第1の画像認識装置に対応する画像認識方法は、撮影位置の情報を備えた一の画像データの画像内容を表わすキーワードを、所定の検索対象から抽出する処理を実行し、画像内容を認識する画像認識方法であって、前記検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けして、データベースとして記憶し、前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出し、前記取得画像データに備わった画像特徴量を抽出し、前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断し、前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出することを要旨としている。 Further, an image recognition method corresponding to the first image recognition apparatus of the present invention executes a process of extracting a keyword representing the image content of one image data having shooting position information from a predetermined search target, An image recognition method for recognizing image contents, wherein for each of a plurality of target image data to be searched, an image feature amount, a keyword representing the image content, and a position where an image having the image feature amount is photographed The information and the positional information relevance indicating the degree to which the object to which the keyword is assigned is unique to a specific place are stored as a database, and the one image data is input as acquired image data, Extracting position information where the acquired image data is photographed, extracting image feature amounts included in the acquired image data, and extracting the position information function of the target image data stored in the database. And whether or not to exclude the target image data from the processing target of the keyword extraction process using the position information of the acquired image data and the distance of the photographing position obtained from the position information of the target image data. If it is determined that the image is to be processed, the image feature quantity of the acquired image data is compared with the image feature quantity of the target image data, and the keyword of the target image data satisfying a predetermined condition is determined as the database. The main point is to extract from.
本発明の第1の画像認識装置およびその画像認識方法によれば、画像特徴量、画像内容を表わすキーワード、位置情報、位置情報関連度を、対象画像データ毎に関連付けして記憶したデータベースを用意し、そのデータベースを検索して、一の取得画像データの画像特徴量から取得画像データの画像内容を示すキーワードを抽出する。したがって、取得画像データの画像内容を表わす適切なキーワードをデータベースから抽出することができる。 According to the first image recognition apparatus and image recognition method of the present invention, a database is prepared in which image feature quantities, keywords representing image contents, position information, and position information relevance are stored in association with each target image data. Then, the database is searched, and a keyword indicating the image content of the acquired image data is extracted from the image feature amount of one acquired image data. Therefore, an appropriate keyword representing the image content of the acquired image data can be extracted from the database.
また、キーワード抽出の際、位置情報関連度と撮影位置の隔たりとを用いて、対象画像データをキーワードの抽出処理の処理対象から除外するか否かを判断する。つまり、データベースの検索対象を絞り込む。したがって、検索対象を減らし、迅速な処理を行なうことができる。 Further, when extracting a keyword, it is determined whether or not to exclude the target image data from the processing target of the keyword extraction process by using the positional information relevance level and the distance between shooting positions. That is, the search target of the database is narrowed down. Therefore, it is possible to reduce the number of search targets and perform a quick process.
上記の構成を有する画像認識装置の位置情報関連度は、A)前記対象画像データ内のキーワードが付与された物体が、特定場所に固有のものであるタイプAと、B)前記対象画像データ内のキーワードが付与された物体が、特定場所に存在する程度が高く、かつ、存在する場所が限られるものであるタイプBと、C)前記対象画像データ内のキーワードが付与された物体が、特定場所に固有のものではないタイプCとの3つのタイプに応じて分類して設定され、前記除外判断手段は、前記対象画像データの位置情報関連度が前記タイプAであり、かつ、前記撮影位置の隔たりが所定量以上である場合に、当該対象画像データを前記処理対象から除外すると判断するものとしても良い。 The positional information relevance of the image recognition apparatus having the above configuration is as follows: A) Type A in which the keyword in the target image data is assigned to a specific place, and B) in the target image data An object to which the keyword is added is of a type B where the degree to which the keyword is present is high and the place where the keyword is present is limited, and C) the object to which the keyword in the target image data is assigned is specified It is classified and set according to three types, ie, type C that is not unique to the place, and the exclusion determination means has a position information relevance level of the target image data of the type A, and the shooting position When the gap is equal to or larger than a predetermined amount, it may be determined that the target image data is excluded from the processing target.
かかる画像認識装置によれば、データベースを検索する際に、位置情報関連度がタイプAであり、撮影位置の隔たりが所定量以上である対象画像データを処理対象から除外する。こうした対象画像データは、特定場所に固有のものであるため、撮影場所が近いと判断されない限り、取得画像データの画像内容がこの対象画像データの画像内容と同一もしくは類似するものである可能性は著しく低い。こうした対象画像データを処理対象から除外することで、迅速な処理を行なうことができると共に、適切なキーワードを抽出できる精度(認識精度)を向上することができる。 According to such an image recognition apparatus, when searching the database, target image data whose positional information relevance is type A and whose shooting position gap is a predetermined amount or more is excluded from the processing target. Since such target image data is specific to a specific location, there is a possibility that the image content of the acquired image data is the same as or similar to the image content of this target image data unless it is determined that the shooting location is close. Remarkably low. By excluding such target image data from the processing target, it is possible to perform quick processing and improve the accuracy (recognition accuracy) for extracting an appropriate keyword.
上記の構成を有する画像認識装置において、更に、前記記憶手段は、前記対象画像データ内のキーワードが付与された物体を撮影することができる地理的な範囲を示す領域レンジを、該対象画像データ毎に関連付けし、前記データベースとして記憶しており、前記除外判断手段は、前記取得画像データの位置情報が、前記データベースに記憶された前記対象画像データの領域レンジ内に入らない場合に、前記撮影位置の隔たりが所定以上であると判断するものとしても良い。 In the image recognition apparatus having the above-described configuration, the storage unit further sets an area range indicating a geographical range in which an object to which a keyword is assigned in the target image data can be captured for each target image data. Is stored as the database, and the exclusion determination unit is configured to detect the shooting position when the position information of the acquired image data does not fall within an area range of the target image data stored in the database. It is good also as what judges that the gap of this is more than predetermined.
かかる画像認識装置によれば、データベースに領域レンジを備え、その領域レンジを基準に撮影位置が離れているか否かを判断する。したがって、判断を容易に行なうことができる。 According to such an image recognition apparatus, an area range is provided in the database, and it is determined whether or not the shooting positions are separated based on the area range. Therefore, the determination can be easily made.
上記の構成を有する画像認識装置のキーワード抽出手段は、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とから、該取得画像データと該対象画像データとの類似または非類似の程度を示す信頼性係数を算出する信頼性係数算出部と、前記算出された信頼性係数に基づいて前記対象画像データのキーワードを抽出する抽出部とからなるものとしても良い。 The keyword extraction unit of the image recognition apparatus having the above configuration uses the image feature amount of the acquired image data and the image feature amount of the target image data to determine whether the acquired image data and the target image data are similar or dissimilar. A reliability coefficient calculation unit that calculates a reliability coefficient indicating the degree, and an extraction unit that extracts a keyword of the target image data based on the calculated reliability coefficient may be used.
かかる画像認識装置によれば、対象画像データ毎の信頼性係数を比較することで、キーワードの抽出を容易なものとすることができる。 According to such an image recognition apparatus, it is possible to easily extract a keyword by comparing the reliability coefficient for each target image data.
上記の構成を有する画像認識装置において、更に、前記キーワード抽出手段は、前記画像特徴量を用いて算出された信頼性係数に、前記位置情報関連度を加味して該信頼性係数の補正を行なう補正部を備え、前記抽出部は、前記補正された信頼性係数に基づいて前記キーワードを抽出するものとしても良い。 In the image recognition apparatus having the above-described configuration, the keyword extracting unit further corrects the reliability coefficient by adding the position information relevance to the reliability coefficient calculated using the image feature amount. A correction unit may be provided, and the extraction unit may extract the keyword based on the corrected reliability coefficient.
かかる画像認識装置によれば、補正された信頼性係数は、画像特徴量と位置情報関連度とを考慮した係数となり、この信頼性係数に基づいてキーワードを抽出する。複数の情報を基準に、取得画像データと対象画像データとの類似具合を判断するため、適切なキーワードの抽出を容易なものとすることができる。 According to such an image recognition apparatus, the corrected reliability coefficient is a coefficient that takes into consideration the image feature quantity and the position information relevance, and a keyword is extracted based on the reliability coefficient. Since the degree of similarity between the acquired image data and the target image data is determined based on a plurality of pieces of information, it is possible to easily extract an appropriate keyword.
上記の構成を有する画像認識装置の抽出部は、前記検索対象となる対象画像データ毎に求めた補正後の信頼性係数の中、該信頼性係数の最も高い該対象画像データのキーワードを抽出するものとしても良い。 The extraction unit of the image recognition apparatus having the above configuration extracts a keyword of the target image data having the highest reliability coefficient from among the corrected reliability coefficients obtained for each target image data to be searched. It is good as a thing.
かかる画像認識装置によれば、補正した信頼性係数を比較することにより、データベースの検索対象の中から最も適切と判断される一のキーワードを抽出することができる。 According to such an image recognition device, by comparing the corrected reliability coefficients, it is possible to extract one keyword that is determined to be most appropriate from the search targets of the database.
本発明の第2の画像認識装置は、検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けて記憶したデータベースを利用して、撮影位置の位置情報を備えた一の画像データの画像内容を表わすキーワードを、当該データベースから抽出する処理を実行し、画像内容を認識する画像認識装置であって、前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出する画像データ入力手段と、前記取得画像データに備わった画像特徴量を抽出する画像特徴量抽出手段と、前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断する除外判断手段と、前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出するキーワード抽出手段とを備えたことを要旨としている。 The second image recognition apparatus according to the present invention includes, for each of a plurality of target image data to be searched, an image feature amount, a keyword representing the image content, and position information at which an image having the image feature amount is captured. An image of one piece of image data having position information of a shooting position using a database that stores and associates a position information relevance level indicating the degree to which the object to which the keyword is assigned is unique to a specific place An image recognition apparatus that executes processing for extracting a keyword representing the content from the database and recognizes the image content, wherein the one image data is input as acquired image data, and the acquired image data is captured Image data input means for extracting information, image feature quantity extraction means for extracting image feature quantities included in the acquired image data, and the target image stored in the database The target image data is excluded from the processing target of the keyword extraction process using the degree of relevance of the position information of the data, the position information of the acquired image data, and the distance of the photographing position obtained from the position information of the target image data. An exclusion determination means for determining whether or not to perform processing, and when it is determined that the image is to be processed, the image feature amount of the acquired image data is compared with the image feature amount of the target image data, and the predetermined condition is satisfied. The gist of the invention is that it includes keyword extraction means for extracting keywords of the target image data from the database.
本発明の第2の画像認識装置によれば、予め用意したデータベースを用いて、一の取得画像データの画像特徴量から取得画像データの画像内容を示すキーワードを抽出する際、位置情報関連度と撮影位置の隔たりとを用いて、対象画像データをキーワードの抽出処理の処理対象から除外するか否かを判断する。したがって、検索対象を減らし、迅速な処理を行なうことができる。 According to the second image recognition apparatus of the present invention, when a keyword indicating the image content of the acquired image data is extracted from the image feature amount of one acquired image data using a database prepared in advance, Whether or not the target image data is to be excluded from the processing target of the keyword extraction process is determined using the gap between the shooting positions. Therefore, it is possible to reduce the number of search targets and perform a quick process.
本発明は、コンピュータプログラムおよびコンピュータプログラムを記録した媒体としても実装することができる。記録媒体としては、フレキシブルディスク,CD−ROM,DVD−ROM/RAM,光磁気ディスク、メモリカード、ハードディスクなどコンピュータが読取り可能な種々の媒体を利用することができる。 The present invention can also be implemented as a computer program and a medium recording the computer program. As the recording medium, various computer-readable media such as a flexible disk, a CD-ROM, a DVD-ROM / RAM, a magneto-optical disk, a memory card, and a hard disk can be used.
以下、本発明の実施の形態について、実施例に基づき以下の順序で説明する。
A.画像認識システム:
B.データベースの構築:
C.画像認識装置の構造:
D.画像認識処理:
E.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. Image recognition system:
B. Database construction:
C. Structure of image recognition device:
D. Image recognition processing:
E. Variation:
A.画像認識システム:
図1は、本発明の一実施例としての画像認識装置を含む画像認識システムを示す説明図である。この画像認識システム100は、主に、複数の撮影画像に関する情報を備えるデータベース20,データベース20を構築するデータベース作成装置10,構築されたデータベース20を利用する画像認識装置15などから構成されている。
A. Image recognition system:
FIG. 1 is an explanatory diagram showing an image recognition system including an image recognition apparatus as one embodiment of the present invention. The
データベース作成装置10は、キーワード設定部11,領域レンジ設定部12,位置情報関連度設定部13,画像特徴量抽出装置14などを備え、通信線を介してデータベース20と接続している。データベース作成装置10は、デジタルスチルカメラなどの撮像機器で撮影された複数の画像データを入力し、画像データの被写体等を表わすキーワードなど、画像データ毎に対応する種々の情報を作成する。
The
本実施例で対象となる画像データには、画像データを撮影した撮影場所の地理的な位置情報を備えている。この位置情報は、無線通信の一態様であるGPS(Global Positioning Systems)方式の通信を用いた経度、緯度の情報(GPS情報と呼ぶ)である。データベース作成装置10は、画像データのGPS情報を抽出して、画像データの情報の一部としている。なお、取り扱う画像データの位置情報は、GPS情報によるものに限らず、携帯電話の基地局の情報など、他の位置情報であっても良い。
The target image data in this embodiment includes geographical position information of the shooting location where the image data was shot. This position information is longitude and latitude information (referred to as GPS information) using communication in the GPS (Global Positioning Systems) system, which is an aspect of wireless communication. The
キーワード設定部11は、画像データの画像内容(被写体)を撮影した撮影場所の地名や、被写体の名称等をテキストで表わし、これをキーワードとして画像データに関連付けて設定する。領域レンジ設定部12は、画像データ内の被写体を撮影することが可能な領域を経緯度の数値で設定し、これを領域レンジRとして画像データに関連付けて設定する。位置情報関連度設定部13は、キーワードを付された画像データ内の被写体と、GPS情報との関連性を評価して数値化し、これを位置情報関連度PRとして画像データに関連付けて設定する。画像特徴量抽出装置14は、各画像データを入力し、所定の画像処理により画像データの画像特徴量を抽出する。
The keyword setting unit 11 expresses the place name of the shooting location where the image content (subject) of the image data is taken, the name of the subject, and the like as text, and sets this as a keyword in association with the image data. The area range setting
こうして各画像データに関連付けして設定されたGPS情報,キーワード,領域レンジR,位置情報関連度PR,画像特徴量などの画像データに関する種々の情報は、データベース20に出力される。なお、画像データに関する情報の内、キーワード,領域レンジR,位置情報関連度PRについては、ユーザが各画像データの内容を確認して設定している。
Various information relating to image data such as GPS information, keywords, region range R, position information relevance PR, and image feature amount set in association with each image data is output to the
データベース20は、所定容量の記憶領域を備えており、データベース作成装置10から入力した上記の画像データに関する情報を記憶している。本実施例のデータベース20では、各画像データと画像データに関する情報との関連付けはなされているが、画像データ自体は記憶されていない。つまり、このデータベース20は、画像データに関する種々の情報である特徴量のみを記憶したデータベースである。こうすることで、データ量を減らし、記憶容量を削減している。こうした構成のデータベース20は、通信線を介して画像認識装置15と接続されている。
The
画像認識装置15は、画像特徴量抽出装置16,識別器17,信頼性係数補正器18などを備え、任意の画像データを入力し、データベース20から、この任意の画像データに適したキーワードを抽出する。すなわち、画像認識装置15は、データベース20を辞書として用いて、任意の画像データの内容に対応するキーワードを抽出することから、任意の画像データの内容を認識する装置となる。
The
この画像認識装置15内の画像特徴量抽出装置16は、データベース作成装置10の画像特徴量抽出装置14と同様、入力した任意の画像データの画像特徴量を抽出する。画像特徴量抽出装置16は、識別器17と接続しており、抽出された画像特徴量は識別器17に出力される。
The image feature amount extraction device 16 in the
識別器17は、画像特徴量抽出装置16から画像特徴量を入力すると共に、入力した任意の画像データが備えるGPS情報を抽出し、これらに基づきデータベース20から所定条件を満たす画像特徴量,キーワードを取得する。識別器17は、入力した任意の画像データの画像特徴量と、データベース20から取得した画像特徴量とを比較し、両者の画像特徴量の類似具合を係数で表わす信頼性係数TCを算出する。識別器17は、信頼性係数補正器18とも接続しており、算出した信頼性係数TCと、データベース20から取得したキーワードを、信頼性係数補正器18へ出力する。
The
信頼性係数補正器18は、識別器17からのキーワード,信頼性係数TCと共に、識別器17で画像特徴量,キーワードを取得した画像データに対応する位置情報関連度PRも入力する。信頼性係数補正器18は、識別器17から入力した信頼性係数TCを位置情報関連度PRに基づいて補正し、補正した信頼性係数TC1に基づいて所定条件を満たすキーワードを、外部の機器(例えば、ディスプレイなどの表示装置)に出力する。
The
以上の構成の画像認識システム100において、画像認識装置15は、任意の画像データを入力すると、データベース20を利用(検索)して自動的に所定のキーワード等を抽出する。抽出されたキーワードは、上記の通り、画像データ内の被写体の名称や、撮影場所名など、画像データの内容に適合すると認定されたものである。
In the
抽出されたキーワードは、例えば、入力された画像データと関連付けて記憶され、後日の画像データの検索やキーワード毎の分類など、画像データの管理に利用することができる。 The extracted keywords are stored in association with the input image data, for example, and can be used for image data management, such as image data search at a later date and classification for each keyword.
以下、画像認識装置15の具体的態様の説明に先立って、まず、データベース20の構築について説明する。なお、以下の説明では、上記のデータベース作成装置10および画像認識装置15における各処理を、ソフトウェアプログラムで実現し、その処理プログラムをインストールしたコンピュータにより画像認識システム100を構成するものとする。
Hereinafter, prior to the description of specific modes of the
B.データベースの構築:
図2は、データベース20の構築処理の流れを示すフローチャートである。この処理は、処理プログラムをインストールしたデータベース作成装置10としてのコンピュータ(図示なし)により実行される処理である。このコンピュータは、CPU,ROM,RAM,ハードディスク等を備え、キーボード,ディスプレイ等と接続された一般的な計算機であり、複数の撮影画像を備えたデジタルスチルカメラと接続されている。キーボードを介したユーザ指示により、データベース20の構築処理は実行される。
B. Database construction:
FIG. 2 is a flowchart showing the flow of the
処理を開始すると、CPUは、デジタルスチルカメラ内の所定の画像データを入力し、画像データに対するキーワードの設定処理を実行する(ステップS200)。具体的には、入力した画像データをディスプレイ上に表示し、ユーザがキーボードを介して入力した画像内容を表わすキーワードを受け付け、これを画像データと関連付けて、ハードディスク内に記憶している。 When the process is started, the CPU inputs predetermined image data in the digital still camera, and executes a keyword setting process for the image data (step S200). Specifically, the input image data is displayed on a display, a keyword representing the image contents input by the user via the keyboard is received, and this is associated with the image data and stored in the hard disk.
キーワードの設定に続き、CPUは、入力した画像データの画像特徴量を抽出する処理を行なう(ステップS210)。本実施例では、MPEG−7において採用されている色配置(Color Layout)の手法を用いて画像特徴量を抽出している。具体的には、画像データの輝度色差信号をYCbCrの情報に変換したものである。CPUは、抽出した画像特徴量を、画像データと関連付けて、ハードディスク内に記憶する。なお、画像特徴量の抽出処理は、画像認識装置15においても同様の処理を実行するため、後の画像認識装置15の説明において詳しく説明する。
Following the keyword setting, the CPU performs a process of extracting the image feature amount of the input image data (step S210). In the present embodiment, the image feature amount is extracted by using a color layout method employed in MPEG-7. Specifically, the luminance color difference signal of the image data is converted into YCbCr information. The CPU stores the extracted image feature amount in the hard disk in association with the image data. Note that the image feature amount extraction processing is executed in the
続いて、CPUは、入力した画像データに付帯するGPS情報を抽出する(ステップS220)。そして、CPUは、抽出したGPS情報を、キーワード,画像特徴量と同様、画像データと関連付けてハードディスク内に記憶している。なお、画像データに対するGPS情報が無いような場合には、ユーザがキーボードを介して入力する。 Subsequently, the CPU extracts GPS information attached to the input image data (step S220). The CPU stores the extracted GPS information in the hard disk in association with the image data as well as the keyword and the image feature amount. In addition, when there is no GPS information for the image data, the user inputs via the keyboard.
GPS情報の抽出後、CPUは領域レンジRを設定する処理を行なう(ステップS230)。領域レンジRは、上述のように、画像データ内の被写体を撮影することが可能な領域を経緯度で表わしたものである。具体的には、図3に示すように、GPS情報による経緯度を中心に、画像データ内の被写体を撮影することができる概略の領域を設定する。例えば、GPS情報による経度、緯度が(X,Y)であり、被写体が「東京タワー」である場合に、「東京タワー」を撮影することができる範囲として(X±R,Y±R)で表現される領域を設定する。この場合のRが領域レンジRとして設定される。CPUは、ユーザが画像データ毎にキーボードを介して入力した領域レンジRを受け付け、画像データと関連付けて、ハードディスク内に記憶する。 After extracting the GPS information, the CPU performs a process of setting the area range R (step S230). As described above, the area range R represents an area in which the subject in the image data can be photographed using longitude and latitude. Specifically, as shown in FIG. 3, an approximate area where the subject in the image data can be photographed is set around the longitude and latitude according to the GPS information. For example, when the longitude and latitude according to GPS information are (X, Y) and the subject is “Tokyo Tower”, the range in which “Tokyo Tower” can be photographed is (X ± R, Y ± R). Set the area to be represented. R in this case is set as the region range R. The CPU receives the area range R input by the user via the keyboard for each image data, and stores it in the hard disk in association with the image data.
続いて、CPUは、入力した画像データの位置情報関連度PRを設定する処理を行なう(ステップS240)。上述のように、位置情報関連度PRは、キーワードを付された画像データ内の被写体と、GPS情報との関連性を評価したものである。本実施例では、所定のキーワードが付され、ディスプレイ上に表示された画像データの被写体が、特定の場所に存在する程度の高低を数値によって表わしている。CPUは、ユーザが入力した位置情報関連度PRを画像データと関連付けて、ハードディスク内に記憶する。 Subsequently, the CPU performs a process of setting the position information relevance PR of the input image data (step S240). As described above, the position information relevance PR is obtained by evaluating the relevance between the subject in the image data to which the keyword is attached and the GPS information. In this embodiment, a predetermined keyword is attached, and the numerical value indicates the level at which the subject of the image data displayed on the display is present at a specific location. The CPU stores the position information relevance PR input by the user in the hard disk in association with the image data.
位置情報関連度PRの設定に際しては、キーワードを付した画像データ内の被写体から、画像データのタイプを大きく3つ(タイプA〜C)に分類する。タイプAは、キーワードを備えた被写体が「その場所固有の対象物を示している」場合であり、タイプCは、「その場所固有の対象物ではない」場合であり、タイプBは、タイプAからタイプCの中間に相当する場合である。 When setting the position information relevance PR, the types of image data are roughly classified into three types (types A to C) from subjects in the image data to which keywords are attached. Type A is a case where the subject having the keyword “shows an object specific to the place”, type C is a case “not an object specific to the place”, and type B is type A To the middle of type C.
タイプAに分類される画像データには、0.9≦PR≦1.0の範囲の位置情報関連度PRが設定される。例えば、画像データ内の被写体が「東京タワー」であり、キーワードとして「東京タワー」が設定されている場合、「東京タワー」は「その場所固有の対象物である」ため、高い値(例えば、PR=0.95)の位置情報関連度PRが設定される。 For the image data classified as type A, the positional information relevance PR in the range of 0.9 ≦ PR ≦ 1.0 is set. For example, if the subject in the image data is “Tokyo Tower” and “Tokyo Tower” is set as the keyword, “Tokyo Tower” is “the object unique to the place”, so a high value (for example, The position information relevance PR of PR = 0.95) is set.
タイプCに分類される画像データには、PR=0の位置情報関連度PRが設定される。例えば、画像データ内の被写体が「ネコ」であり、キーワードとして「ネコ」が設定されている場合、「ネコ」は「場所に固有の対象物ではない」ため、低い値の位置情報関連度PR(PR=0)が設定される。 For image data classified as type C, a position information relevance PR of PR = 0 is set. For example, when the subject in the image data is “cat” and “cat” is set as the keyword, “cat” is “not a target unique to the place”, and therefore the position information relevance PR with a low value. (PR = 0) is set.
タイプBに分類される画像データには、0<PR<0.9の範囲の位置情報関連度PRが設定される。例えば、画像データ内の被写体が「奈良公園」の「シカ」であり、キーワードとして「シカ」が設定されている場合、「シカ」は場所に固有の対象物ではないが、「奈良公園」など、ある程度特定の場所に限られるため、所定の値(例えば、PR=0.7)の位置情報関連度PRが設定される。こうした対象としては、「飛行場」の「飛行機」,「港」の「船舶」,「動物園」の「パンダ」,「山岳公園」の「高山植物」など、場所に固有ではないものの、設備や生息域といった有効な一定の広がりをもっているものが該当する。 For the image data classified as type B, the position information relevance PR in the range of 0 <PR <0.9 is set. For example, if the subject in the image data is “deer” of “Nara Park” and “deer” is set as the keyword, “deer” is not an object specific to the place, but “Nara Park”, etc. Since the position is limited to a specific place to some extent, the position information relevance PR having a predetermined value (for example, PR = 0.7) is set. These targets include “airplanes” at “airfields”, “ships” at “ports”, “pandas” at “zoos”, “alpine plants” at “mountain parks”, although they are not specific to the place. This applies to a certain range of effective areas.
こうしてキーワード,画像特徴量,GPS情報,領域レンジR,位置情報関連度PRを設定し、一連のデータベース20の構築処理を終了する。その結果、ハードディスクには図4に示す画像データに関する種々の情報が蓄積される。
In this way, the keyword, the image feature amount, the GPS information, the area range R, and the position information relevance PR are set, and the series of
例えば、図4に示すように、画像データの内容(被写体)が東京タワーであるような場合には、位置情報関連度PRとしてPR=0.95(タイプA),GPS情報として撮影場所の経度、緯度,領域レンジRとしてR=0.012,画像特徴量としてのYCbCrの情報もしくはこれを処理した情報,キーワードとして「東京タワー」「芝公園」などが設定され、ハードディスクに蓄積される。つまり、こうした情報を記憶したハードディスクが、データベース20となる。以上の処理を経て、構築されたデータベース20を辞書として利用し、画像認識装置15は、任意の画像データの内容を認識する。
For example, as shown in FIG. 4, when the content of the image data (subject) is Tokyo Tower, the position information relevance PR is PR = 0.95 (type A), and the GPS information is the longitude of the shooting location. The latitude and area range R is set to R = 0.012, YCbCr information as an image feature amount or information obtained by processing this, and “Tokyo Tower” and “Shiba Koen” are set as keywords and stored in the hard disk. That is, the hard disk storing such information becomes the
C.画像認識装置の構造:
図5は、本発明の画像認識処理のプログラムをソフトウェアとして備えた画像認識装置15の概略構造図である。図示するように、画像認識装置15は、処理対象となる所定の画像を撮影し、その画像データを記憶したデジタルスチルカメラ27、デジタルスチルカメラ27に記憶された画像データを入力して所定の処理を施すコンピュータ30(以下、PC30と記す)、PC30により処理される画像の表示等を行なうディスプレイ40、ユーザインターフェースとしてのキーボード41やマウス42等から構成されている。
C. Structure of image recognition device:
FIG. 5 is a schematic structural diagram of an
デジタルスチルカメラ27は、撮像センサとしてのCCD,CCDを介して取り込んだ画像データに所定の画像処理を施す画像処理回路,画像データを記憶するメモリカード24などを備えると共に、GPSを用いてデジタルスチルカメラ27の地理的な位置情報を記憶するGPS機能を備えている。この機能により、画像データにはGPS情報が付加されている。
The digital
一般に、デジタルスチルカメラで取扱う画像のデータ構造は、いわゆるExif形式であり、JPEG形式の画像データを基本に、画像データを撮影した際の撮影情報、サムネイル画像など、所定の画像付加情報を、Exif規約に準拠した形式で埋め込んで構成されている。画像付加情報としては、撮影日時,撮影時の露出時間,絞り値,シャッタースピード,ISO感度,ホワイトバランスなど種々の情報が記憶されている。本実施例では、これらに加え、画像付加情報の一つとして、GPS情報が含まれている。なお、GPS情報は、Exif規約でユーザの使用量域として設定されているメーカーノートに書き込むものとしても良い。 In general, the data structure of an image handled by a digital still camera is a so-called Exif format. Based on image data in JPEG format, predetermined image additional information such as shooting information when shooting image data, thumbnail images, and the like is used. Embedded in a format that conforms to the rules. As the image additional information, various information such as the shooting date and time, the exposure time at the time of shooting, the aperture value, the shutter speed, the ISO sensitivity, and the white balance are stored. In the present embodiment, in addition to these, GPS information is included as one of the image additional information. Note that the GPS information may be written in a maker note that is set as a user's usage range according to the Exif convention.
なお、取扱う画像データは、位置情報が付与されているものであれば、デジタルスチルカメラ27からの取得に代えて、デジタルビデオカメラ21,カメラ付きの携帯電話23,メモリカード24,ハードディスク25など、撮像機器や記録媒体からの取得であっても良い。
If the image data to be handled is provided with position information, instead of obtaining from the digital
PC30は、内部にCPU31,ROM32,RAM33,ハードディスク34,I/F回路部35等を有し、各機器はそれぞれ内部バスにより接続されている。I/F回路部35は、デジタルスチルカメラ27,ディスプレイ40,キーボード41,マウス42と接続しており、こうした外部の機器とPC30とのインターフェイスとして機能している。
The
ROM32内には、所定のオペレーションシステムが記憶されており、PC30の電源投入と共に、CPU31はROM32内のオペレーションシステムOSを読み込み、起動する。
A predetermined operation system is stored in the
ハードディスク34には、オペレーションシステムOS上で動作する種々のアプリケーションプログラムがインストールされている。本実施例では、アプリケーションプログラムの一つとして、画像認識処理プログラムがインストールされている。CPU31は、キーボード41やマウス42を介したユーザ操作の指示を受け、このプログラムを読み出し、RAM33上に展開して実行する。
Various application programs that operate on the operating system OS are installed in the
D.画像認識処理:
図6は、画像認識処理のフローチャートである。この処理は、任意の画像データの内容に対応したキーワードを抽出する処理、換言すると、入力した任意の画像データの内容を認識する処理であり、キーボードを介したユーザ指示により実行される。
D. Image recognition processing:
FIG. 6 is a flowchart of the image recognition process. This process is a process of extracting a keyword corresponding to the content of arbitrary image data, in other words, a process of recognizing the content of input arbitrary image data, and is executed by a user instruction via a keyboard.
処理を開始すると、CPU31は、一の画像データを取得する(ステップS600)。具体的には、処理の開始と同時に、ディスプレイ上に表示されたデジタルスチルカメラ27内の画像の中からユーザが指定する任意の一枚に対応する画像データを取得している。
When the process is started, the
一の画像データを取得したCPU31は、その画像データに付帯する位置情報(GPS情報)を抽出する(ステップS605)。抽出されるGPS情報は、一の画像を撮影した撮影場所の経度、緯度の情報である。 CPU31 which acquired the one image data extracts the positional information (GPS information) incidental to the image data (step S605). The extracted GPS information is information on the longitude and latitude of the shooting location where one image was taken.
続いて、CPU31は、一の画像データの画像特徴量を抽出する(ステップS610)。本実施例では、上述のように、色配置の手法を用いて画像特徴量を抽出する。具体的には、CPU31は、画像データを8×8の小ブロックに分割し、各小ブロックを構成する画素データの値(R、G、B)の平均値(Rave、Gave、Bave)を各小ブロックの代表値(Rrep、Grep、Brep)として用いる。CPU31は求めた代表値を用いて8×8の画素データから構成される縮小画素データを作成する。CPU31は、作成した縮小画像データ(RGBデータ)をYCbCrデータに変換し、更に、Y、Cb、Crの各成分について離散コサイン変換(DCT)を行う。DCTによって、画像データは周波数成分に変換される。なお、離散コサイン変換は当業者において周知な変換処理であるから詳細な説明は省略する。
Subsequently, the
例えば、図7に示すように、Y、Cb、Crの各成分について8×8の係数値が算出される。すなわち、
Yc[8][8]={yc00, yc01, yc02...yc76,yc77}
Cbc[8][8]={cbc00, cbc01, cbc02...cbc76,cbc77}
Crc[8][8]={crc00, crc01, crc02...crc76,crc77}
となり、画像データ(画像)との位置関係は、例えば図7に示すとおりとなる。図7に示すように、係数値が大きくなるにつれて周波数は高くなる。
For example, as shown in FIG. 7, an 8 × 8 coefficient value is calculated for each of Y, Cb, and Cr components. That is,
Yc [8] [8] = {yc00, yc01, yc02 ... yc76, yc77}
Cbc [8] [8] = {cbc00, cbc01, cbc02 ... cbc76, cbc77}
Crc [8] [8] = {crc00, crc01, crc02 ... crc76, crc77}
Thus, the positional relationship with the image data (image) is, for example, as shown in FIG. As shown in FIG. 7, the frequency increases as the coefficient value increases.
なお、画像特徴量の取得としては、R、G、B各成分のヒストグラムを用いる手法、最大・最小輝度値および平均輝度値を用いる手法など、周知の種々の手法を用いるものとしても良い。この場合、データベース20側も同様の手法により、画像特徴量を抽出しておけば良い。
Note that various known methods such as a method using a histogram of each of R, G, and B components, a method using maximum / minimum luminance values, and an average luminance value may be used for acquiring the image feature amount. In this case, the image feature amount may be extracted by the same method on the
続いて、CPU31は、信頼性係数の基準値の初期化を行なう(ステップS620)。信頼性係数TC1は、上述のとおり、画像データの画像特徴量の類似具合を表わす指標であり、後述する処理ステップにおいて算出されるが、ここでは、まず、算出される信頼性係数TC1を評価する基準値TCmaxをゼロに設定して初期化している。
Subsequently, the
CPU31は、データベース20から一の対象を選択する(ステップS630)。上述のように、データベース20は、位置情報関連度PR,GPS情報,領域レンジR,画像特徴量,キーワードなどの種々の情報を一まとまり(情報群)として一の画像データに関連付け、複数の情報群を記憶している。このステップは、データベース20内の複数の情報群から一の情報群を選択する処理であり、間接的に一の情報群に関連付けられた画像データを選択する処理であると言える。よって、このステップでは、一の画像データが選択されるものとし、以下、選択された画像データを、ステップS600で取得した一の画像データと区別するため、「データベース画像」と呼ぶこととする。
The
データベース画像を選択したCPU31は、データベース20内の全てのデータベース画像が選択されたか否かを判断する(ステップS635)。CPU31は、選択されたデータベース画像について後述する処理を実行するとフラグを立てており、そのフラグを確認することで、選択され、処理済みか否かを判断している。
CPU31 which selected the database image judges whether all the database images in the
ステップS635で、全てのデータベース画像について選択されたと判断した(Yes)場合には、データベース20内の検索は終了したものとして、一連の画像認識処理を終了する。
If it is determined in step S635 that all database images have been selected (Yes), the search in the
他方、ステップS635で、全てのデータベース画像は選択されていないと判断した(No)場合には、選択されたデータベース画像の位置情報関連度PRを抽出し、位置情報関連度PRがどのタイプ(A〜C)に属するかを判断する(ステップS645)。 On the other hand, if it is determined in step S635 that all database images have not been selected (No), the position information relevance level PR of the selected database image is extracted, and the type (A To C) is determined (step S645).
ステップS645で、位置情報関連度PRが、タイプBまたはタイプCに該当する場合(PRが0.9よりも小さい場合)には、ステップS660へ移行する。すなわち、位置情報関連度PRがそれほど高くない(タイプAのように、その場所固有の対象物である可能性が高くない)データベース画像については、取得した一の画像データのキーワードを抽出するための検索対象とする。 If the position information relevance PR corresponds to type B or type C in step S645 (when PR is smaller than 0.9), the process proceeds to step S660. That is, for a database image whose position information relevance PR is not so high (likely type A, the possibility of being an object specific to the place is not high), a keyword for extracting one acquired image data keyword is used. Search target.
他方、ステップS645で、位置情報関連度PRが、タイプAに該当する場合(PRが0.9以上の場合)には、選択されたデータベース画像のGPS情報および領域レンジRを抽出する。そして、既に抽出してある(ステップS605)一の画像データのGPS情報による撮影場所の経度、緯度が、データベース画像の領域レンジRを加味した経度,緯度の範囲内であるか否かを判断する(ステップS655)。 On the other hand, if the position information relevance PR corresponds to type A (when PR is 0.9 or more) in step S645, the GPS information and the area range R of the selected database image are extracted. Then, it is determined whether or not the longitude and latitude of the shooting location based on the GPS information of one image data already extracted (step S605) are within the range of longitude and latitude taking into account the region range R of the database image. (Step S655).
ステップS655で、データベース画像の経度,緯度の範囲内に納まらないと判断した(No)場合には、現在選択されているデータベース画像に対して処理済みのフラグを立てて、ステップS630へ戻り、データベース20から次のデータベース画像を選択する。 If it is determined in step S655 that it does not fall within the longitude and latitude ranges of the database image (No), a processed flag is set for the currently selected database image, and the process returns to step S630 to return to the database. The next database image is selected from 20.
つまり、タイプAに分類されたデータベース画像には、その場所固有の対象物である被写体が写っていることとなるため、このデータベース画像と任意の画像データとがほぼ同じ内容であると判断するためには、両者の撮影場所が近いことが条件となる。 That is, the database image classified as type A includes a subject that is an object specific to the place, so that it is determined that the database image and arbitrary image data have almost the same content. The condition is that the shooting locations of both are close.
データベース画像の経度、緯度を中心とする領域レンジRを加味した範囲内(図3参照)に、一の画像データの撮影場所の経度,緯度が納まらないような場合には、そのデータベース画像のキーワードを抽出しても、一の画像データの画像内容を適切に表現したものとはならない。したがって、タイプAであって、経度、緯度の位置情報が条件を満たさないデータベース画像に対しては、これを検索対象から除外する処理を行なっている。 If the longitude and latitude of the shooting location of one image data does not fit within the range (see FIG. 3) that includes the region range R centered on the longitude and latitude of the database image, the keyword of the database image However, the image content of one image data is not appropriately expressed. Therefore, for a database image that is type A and whose longitude and latitude position information does not satisfy the condition, a process of excluding it from the search target is performed.
他方、ステップS655で、データベース画像の経度,緯度の範囲内に納まると判断した(Yes)場合には、ステップS660へ移行する。すなわち、タイプAであって、経度、緯度の位置情報が条件を満たす(撮影場所が近い)データベース画像についてのみ、検索対象としている。 On the other hand, if it is determined in step S655 that the database image falls within the longitude and latitude ranges (Yes), the process proceeds to step S660. That is, only database images that are of type A and satisfy the conditions of the position information of longitude and latitude (similar to the shooting location) are set as search targets.
タイプB,Cであるデータベース画像、または、タイプAであって位置情報が条件を満たすデータベース画像を検索対象としたCPU31は、データベース画像の画像特徴量を抽出し、これと、ステップS610で既に抽出してある画像データの画像特徴量とから、両画像の画像特徴量の距離Dを算出する(ステップS660)。
The
画像特徴量の距離Dは、両画像の類似度あるいは非類似度を表わし、例えば、ユークリッド距離を用いる場合には、以下の式によって算出される。 The distance D of the image feature amount represents the similarity or dissimilarity between the two images. For example, when the Euclidean distance is used, it is calculated by the following formula.
なお、Ycp,Cbcp,Crcpはデータベース画像の画像特徴量(係数)を、Ycq,Cbcq,Crcqは画像データの画像特徴量(係数)をそれぞれ示し、本実施例では、MPEG−7に採用される画像特徴量を用いているため、変数i,jは、共に0〜7(n=7)の値を採る。 Ycp, Cbcp, and Crcp indicate the image feature amount (coefficient) of the database image, and Ycq, Cbqq, and Crcq indicate the image feature amount (coefficient) of the image data. In this embodiment, the image feature amount (coefficient) is adopted in MPEG-7. Since the image feature amount is used, the variables i and j both take values of 0 to 7 (n = 7).
距離Dを算出したCPU31は、信頼性係数TCを算出する(ステップS670)。信頼性係数TCは、データベース画像の画像特徴量と画像データの画像特徴量との差、つまり、上記の距離Dに応じて決定される係数であり、両者の画像特徴量が近い(距離Dが小さい)ほど、信頼性が高いとして、係数は大きな値となる。具体的には、次式により算出される。
The
なお、Drefは、距離Dに対する一つの基準値であり、両者の画像データをほぼ同じもの(類似度が高い)であると判断できる基準値として、予め設定されている。すなわち、この式において、距離DがDref以下であり、信頼性係数TCが1を超えるような場合には、両者の画像データはほぼ同じものであると判断する。したがって、信頼性係数TCが1を超える場合には信頼性係数TC=1として設定し、信頼性係数TCの取り得る範囲を0≦TC≦1.0としている。 Dref is one reference value with respect to the distance D, and is set in advance as a reference value with which it is possible to determine that both image data are substantially the same (having high similarity). That is, in this equation, when the distance D is equal to or less than Dref and the reliability coefficient TC exceeds 1, it is determined that the two image data are substantially the same. Therefore, when the reliability coefficient TC exceeds 1, the reliability coefficient TC is set to 1, and the range that the reliability coefficient TC can take is set to 0 ≦ TC ≦ 1.0.
続いて、CPU31は、算出した信頼性係数TCの補正を行なう(ステップS680)。具体的には、位置情報関連度PRを用いて、次式により補正を行なう。
Subsequently, the
この補正は、位置関連情報度PRが大きな値である場合には、上記ステップで算出された信頼性係数TCを、より一層大きな値の信頼性係数TC1に修正し、信頼性が高い(一の画像データの画像内容を表わす適切なキーワードが付されたデータベース画像である)ことを示すものである。つまり、両者のGPS情報に基づく位置情報が近く、かつ、タイプAあるいはタイプBのデータベース画像であるような場合には、位置情報関連度PRが比較的大きな値となり、信頼性係数TC1も大きな値(1に近い値)となる。 In this correction, when the position-related information degree PR is a large value, the reliability coefficient TC calculated in the above step is corrected to a larger reliability coefficient TC1, and the reliability is high (one This is a database image with an appropriate keyword representing the image content of the image data). That is, when the position information based on the GPS information of both is close and the database image is of type A or type B, the position information relevance PR is a relatively large value and the reliability coefficient TC1 is also a large value. (Value close to 1).
なお、この信頼性係数TC1を算出する対象となるデータベース画像は、上記のステップS645,S655より、タイプB,C、または、タイプAであって位置情報が条件を満たす場合である。したがって、位置情報関連度PRが高いタイプAであっても、GPS情報に基づく位置情報から近い場所で撮影されていないと判断されたデータベース画像は、処理対象とならないため、そのまま位置情報関連度PRを用いた補正をしても何ら問題は生じない。 Note that the database image that is a target for calculating the reliability coefficient TC1 is the type B, C, or type A and the position information satisfies the conditions from Steps S645 and S655. Therefore, even if the position information relevance level PR is high, a database image that is determined not to be photographed at a location close to the position information based on GPS information is not a processing target. There is no problem even if correction is performed using.
また、データベース画像がタイプCである場合も、位置情報関連度PRがゼロで新たな信頼性係数TC1は元の信頼性係数TCのままであるため、補正上の問題はない。こうした補正を行なうことで、画像データ自体の画像特徴量の類似度は高いものの、異なる場所で撮影された全く別々の被写体である場合にも適切な信頼性係数TC1を算出することができる。 Even when the database image is type C, there is no problem in correction because the position information relevance PR is zero and the new reliability coefficient TC1 remains the original reliability coefficient TC. By performing such correction, although the degree of similarity of the image feature amount of the image data itself is high, an appropriate reliability coefficient TC1 can be calculated even when the subjects are completely different subjects photographed at different places.
続いて、CPU31は、補正した信頼性係数TC1が、現在設定されている信頼性係数の基準値TCmaxよりも大きいか否かを判断する(ステップS685)。
Subsequently, the
ステップS685で、信頼性係数TC1が基準値TCmaxよりも大きいと判断された(Yes)場合には、基準値TCmaxを信頼性係数TC1に置き換えると共に、現在の処理対象のデータベース画像のキーワードを、抽出キーワードとして一時的に記憶し(ステップS690)、ステップS630に戻って、次のデータベース画像について一連の処理を繰り返す。なお、抽出キーワードは、信頼性係数の基準値TCmaxを置き換える毎に、新たな処理対処のデータベース画像のキーワードに書き換えられる。 If it is determined in step S685 that the reliability coefficient TC1 is greater than the reference value TCmax (Yes), the reference value TCmax is replaced with the reliability coefficient TC1, and the keyword of the current database image to be processed is extracted. The keyword is temporarily stored (step S690), and the process returns to step S630 to repeat a series of processes for the next database image. The extracted keyword is rewritten to a keyword of a new database image to be processed every time the reliability coefficient reference value TCmax is replaced.
他方、ステップS685で、信頼性係数TC1が基準値TCmax以下であると判断された(No)場合には、キーワードを記憶することなく、ステップS630に戻って、次のデータベース画像について一連の処理を繰り返す。なお、ステップS685,S690の処理によりステップS630へ戻る前に、CPU31は、処理対象のデータベース画像に対して処理済のフラグを立てている。
On the other hand, if it is determined in step S685 that the reliability coefficient TC1 is equal to or less than the reference value TCmax (No), the process returns to step S630 without storing the keyword, and a series of processing is performed on the next database image. repeat. Note that the
こうして一連の処理を繰り返し、データベース20内のデータベース画像の全てについて処理した後、ステップS635からENDに抜けて、画像認識処理を終了する。この際、CPU31は、一時的に記憶された抽出キーワードをディスプレイ40上に表示する。
In this way, a series of processes are repeated, and after all the database images in the
以上の画像認識処理によれば、全てのデータベース画像に対して処理を繰り返し、信頼性係数TC1が最も高くなるデータベース画像に対応したキーワードを抽出する。したがって、任意の一の画像データの画像内容を表わす適切なキーワードを抽出することができる。 According to the above image recognition processing, the processing is repeated for all the database images, and the keyword corresponding to the database image having the highest reliability coefficient TC1 is extracted. Therefore, it is possible to extract an appropriate keyword representing the image content of any one image data.
また、本実施例の画像認識処理では、タイプAであって位置情報が所定条件を満たさないデータベース画像を検索対象から除外するなど、位置情報関連度PRに応じて検索対象を絞り込む処理を行なう。すなわち、画像特徴量を用いた類似具合を判断する前に、位置情報関連度PRを加味して、処理対象を減らすことができる。したがって、キーワードの検索速度を向上し、検索時間を短縮することができる。 Further, in the image recognition processing of the present embodiment, processing for narrowing down the search target according to the position information relevance PR is performed, such as excluding database images that are type A and whose positional information does not satisfy the predetermined condition from the search target. That is, before determining the degree of similarity using the image feature amount, it is possible to reduce the number of objects to be processed in consideration of the position information relevance level PR. Therefore, the keyword search speed can be improved and the search time can be shortened.
さらには、位置情報関連度PRに応じて検索対象を絞り込むことで、任意の一の画像データの画像内容を表わす適切なキーワードとはなり得ないデータベース画像を除外することができる。したがって、適切なキーワードを抽出する確率が向上し、任意の画像データの画像内容を認識する精度(認識率)を向上させることができる。 Furthermore, by narrowing down the search target according to the position information relevance PR, it is possible to exclude database images that cannot be appropriate keywords representing the image content of any one image data. Therefore, the probability of extracting an appropriate keyword is improved, and the accuracy (recognition rate) for recognizing the image content of arbitrary image data can be improved.
本実施例の画像認識処理では、データベース画像の画像特徴量に加え、位置情報関連度PRを考慮して補正した信頼性係数TC1を求める。すなわち、画像特徴量のみではなく、撮影された位置も近いと判断されるデータベース画像に対する信頼性を向上する補正を行なう。したがって、補正された信頼性係数TC1を単純に評価することで、適切なキーワードを抽出することができ、画像内容の認識率を向上することができる。 In the image recognition processing of the present embodiment, the reliability coefficient TC1 corrected in consideration of the position information relevance PR in addition to the image feature amount of the database image is obtained. In other words, not only the image feature amount but also the correction for improving the reliability of the database image that is determined to be close to the photographed position is performed. Therefore, by simply evaluating the corrected reliability coefficient TC1, an appropriate keyword can be extracted, and the recognition rate of the image content can be improved.
本実施例では、データベース画像を構成する画像データを大きく分類する一つの基準として、位置情報関連度PR=0.9を用いたが、PRは0.9に限るものではない。例えば、0.9よりも大きい値を基準とするものとしても良い。 In this embodiment, the positional information relevance PR = 0.9 is used as one criterion for largely classifying the image data constituting the database image. However, PR is not limited to 0.9. For example, a value larger than 0.9 may be used as a reference.
こうして画像認識処理により抽出されたキーワードは、画像データ自体(例えば、Exif形式のメーカノート)に付与するものとしても良い。こうすることで、後日の画像データの管理、分類などに有効に利用することができる。また、データベースの構築に利用するものとしても良い。 The keywords thus extracted by the image recognition processing may be assigned to the image data itself (for example, manufacturer note in Exif format). By doing so, it can be effectively used for image data management and classification at a later date. Further, it may be used for database construction.
なお、本実施例では、データベース20を画像認識装置15から独立した構成として説明したが、画像認識装置15はデータベース20を含む構成であっても良い。例えば、画像認識装置15として画像認識処理プログラムをインストールしたPC30内のハードディスク34に、図4に示す画像データに関する種々の情報を蓄積することで、ハードディスク34をデータベース20とすれば良い。かかる態様で画像認識装置15を構成しても、迅速かつ、適切なキーワードの抽出を行なうことができる。
In the present embodiment, the
E.変形例:
本実施例では、画像認識処理により、一のキーワードを抽出するものとして説明したが、複数のキーワードを抽出するものとしても良い。例えば、図6にステップS690で、順次抽出キーワードを書き換える処理に代えて、信頼性係数TC1が上位3番目までに該当する抽出キーワードを記憶し、これらを候補として抽出するものとすれば良い。抽出した複数のキーワードをディスプレイ40上に表示し、ユーザが一を選択するアプリケーションとすることで、任意の画像データに対し、より一層適切なキーワードを抽出することができる。
E. Variation:
In the present embodiment, description has been made assuming that one keyword is extracted by image recognition processing, but a plurality of keywords may be extracted. For example, in step S690 in FIG. 6, instead of the process of sequentially rewriting the extracted keywords, the extracted keywords corresponding to the third highest reliability coefficient TC1 may be stored and extracted as candidates. By displaying the plurality of extracted keywords on the
また、本実施例では、データベース20は、位置関連情報PR,GPS情報,領域レンジR,画像特徴量,キーワードなどの情報である特徴量を記憶したものとして説明したが、これらに加えて、画像データ自体を記憶しているものとしても良い。こうすることで、種々の情報と画像データとの関連付けが容易となる。
In the present embodiment, the
本実施例では、アプリケーション上でユーザが指定した1枚の画像データの処理について説明したが、デジタルスチルカメラからハードディスク上にコピーした全ての画像データについて、順次、画像認識処理を実行する態様であっても良い。こうすることで、画像認識処理におけるユーザ操作の手間を省き、利便性を向上することができる。 In the present embodiment, the processing of one piece of image data designated by the user on the application has been described. However, the image recognition processing is sequentially executed for all image data copied from the digital still camera to the hard disk. May be. By doing so, it is possible to save the user operation in the image recognition process and improve the convenience.
さらに、本実施例では、コンピュータのハードディスク上にデータベース20を構築するものとしたが、例えば、ネットワーク上のサーバにデータベース20を構築するものとしても良い。この場合、PC30のI/F回路35にネットワークとの接続機能を設ければ良い。こうすることで、大容量のデータベース20を構築することができる。
Furthermore, in this embodiment, the
以上、本発明の実施の形態について説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。本実施例では、画像認識処理はソフトウェアプログラムの態様にて実行されるが、上記の各処理(ステップ)を実行する論理回路を備えたハードウェア回路を用いるものとしても良い。こうすることで、CPU31の負荷を軽減することができると共に、より一層高速に各処理を実行することができる。
As mentioned above, although embodiment of this invention was described, this invention is not limited to such embodiment at all, Of course, it can implement with various forms within the range which does not deviate from the meaning of this invention. is there. In this embodiment, the image recognition process is executed in the form of a software program. However, a hardware circuit including a logic circuit that executes each of the above processes (steps) may be used. By doing so, the load on the
10...データベース作成装置
11...キーワード設定部
12...領域レンジ設定部
13...位置情報関連度設定部
14...画像特徴量抽出装置
15...画像認識装置
16...画像特徴量抽出装置
17...識別器
18...信頼性係数補正器
20...データベース
21...デジタルビデオカメラ
23...携帯電話
24...メモリカード
25...ハードディスク
27...デジタルスチルカメラ
30...コンピュータ
31...CPU
32...ROM
33...RAM
34...ハードディスク
35...I/F回路部
40...ディスプレイ
41...キーボード
42...マウス
100...画像認識システム
PR...位置情報関連度
R...領域レンジ
TC...信頼性係数
TC1...信頼性係数
DESCRIPTION OF
32 ... ROM
33 ... RAM
34 ...
Claims (10)
前記検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けし、データベースとして記憶する記憶手段と、
前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出する画像データ入力手段と、
前記取得画像データに備わった画像特徴量を抽出する画像特徴量抽出手段と、
前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断する除外判断手段と、
前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出するキーワード抽出手段と
を備えた画像認識装置。 An image recognition apparatus for executing processing for extracting a keyword representing image content of one image data having information on a shooting position from a predetermined search target and recognizing the image content,
For each of the plurality of target image data to be searched, an image feature amount, a keyword representing the image content, position information where an image having the image feature amount is photographed, and an object to which the keyword is assigned are specified. Storage means for associating a position information relevance level indicating a degree unique to a place and storing it as a database;
Image data input means for inputting the one image data as acquired image data and extracting position information where the acquired image data is captured;
Image feature amount extraction means for extracting an image feature amount included in the acquired image data;
Using the degree of relevance of the position information of the target image data stored in the database, the position information of the acquired image data, and the shooting position distance obtained from the position information of the target image data, the target image data is Exclusion determination means for determining whether or not to exclude from the keyword extraction process,
If it is determined that the image is to be processed, the image feature quantity of the acquired image data is compared with the image feature quantity of the target image data, and keywords of the target image data satisfying a predetermined condition are extracted from the database. An image recognition apparatus comprising: a keyword extraction unit.
前記位置情報関連度は、
A)前記対象画像データ内のキーワードが付与された物体が、特定場所に固有のものであるタイプAと、
B)前記対象画像データ内のキーワードが付与された物体が、特定場所に存在する程度が高く、かつ、存在する場所が限られるものであるタイプBと、
C)前記対象画像データ内のキーワードが付与された物体が、特定場所に固有のものではないタイプCとの3つのタイプに応じて分類して設定され、
前記除外判断手段は、前記対象画像データの位置情報関連度が前記タイプAであり、かつ、前記撮影位置の隔たりが所定量以上である場合に、当該対象画像データを前記処理対象から除外すると判断する
画像認識装置。 The image recognition apparatus according to claim 1,
The position information relevance is
A) Type A in which the object to which the keyword in the target image data is assigned is unique to a specific place;
B) Type B in which the object to which the keyword in the target image data is assigned is high in a certain place and the place where the object exists is limited;
C) The object to which the keyword in the target image data is assigned is classified and set according to three types of type C that are not unique to a specific place,
The exclusion determination unit determines to exclude the target image data from the processing target when the position information relevance of the target image data is the type A and the distance between the photographing positions is a predetermined amount or more. Image recognition device.
前記記憶手段は、前記対象画像データ内のキーワードが付与された物体を撮影することができる地理的な範囲を示す領域レンジを、該対象画像データ毎に関連付けし、前記データベースとして記憶しており、
前記除外判断手段は、前記取得画像データの位置情報が、前記データベースに記憶された前記対象画像データの領域レンジ内に入らない場合に、前記撮影位置の隔たりが所定以上であると判断する
画像認識装置。 The image recognition apparatus according to claim 2, further comprising:
The storage means associates, for each target image data, a region range indicating a geographical range in which an object to which a keyword is assigned in the target image data, and stores the range as the database.
The exclusion determination unit determines that the gap between the photographing positions is greater than or equal to a predetermined value when the position information of the acquired image data does not fall within the range of the target image data stored in the database. apparatus.
前記キーワード抽出手段は、
前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とから、該取得画像データと該対象画像データとの類似または非類似の程度を示す信頼性係数を算出する信頼性係数算出部と、
前記算出された信頼性係数に基づいて前記対象画像データのキーワードを抽出する抽出部とからなる
画像認識装置。 The image recognition device according to any one of claims 1 to 3,
The keyword extracting means includes
A reliability coefficient calculation unit that calculates a reliability coefficient indicating a degree of similarity between the acquired image data and the target image data from the image feature amount of the acquired image data and the image feature amount of the target image data When,
An image recognition apparatus comprising: an extraction unit that extracts a keyword of the target image data based on the calculated reliability coefficient.
前記キーワード抽出手段は、
前記画像特徴量を用いて算出された信頼性係数に、前記位置情報関連度を加味して該信頼性係数の補正を行なう補正部を備え、
前記抽出部は、前記補正された信頼性係数に基づいて前記キーワードを抽出する
画像認識装置。 The image recognition apparatus according to claim 4, further comprising:
The keyword extracting means includes
A correction unit that corrects the reliability coefficient by adding the position information relevance to the reliability coefficient calculated using the image feature amount;
The extraction unit is an image recognition device that extracts the keyword based on the corrected reliability coefficient.
前記抽出部は、前記検索対象となる対象画像データ毎に求めた補正後の信頼性係数の中、該信頼性係数の最も高い該対象画像データのキーワードを抽出する
画像認識装置。 The image recognition device according to claim 5,
The image recognizing apparatus, wherein the extraction unit extracts a keyword of the target image data having the highest reliability coefficient among the corrected reliability coefficients obtained for each target image data to be searched.
前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出する画像データ入力手段と、
前記取得画像データに備わった画像特徴量を抽出する画像特徴量抽出手段と、
前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断する除外判断手段と、
前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出するキーワード抽出手段と
を備えた画像認識装置。 For each of a plurality of target image data to be searched, an image feature amount, a keyword representing the image content, position information at which an image having the image feature amount is captured, and an object to which the keyword is assigned is a specific location A keyword representing the image content of one piece of image data having the position information of the photographing position is extracted from the database using a database that stores the position information relevance indicating the degree unique to the image. An image recognition apparatus that executes processing and recognizes image contents,
Image data input means for inputting the one image data as acquired image data and extracting position information where the acquired image data is captured;
Image feature amount extraction means for extracting an image feature amount included in the acquired image data;
Using the degree of relevance of the position information of the target image data stored in the database, the position information of the acquired image data, and the shooting position distance obtained from the position information of the target image data, the target image data is Exclusion determination means for determining whether or not to exclude from the keyword extraction process,
If it is determined that the image is to be processed, the image feature quantity of the acquired image data is compared with the image feature quantity of the target image data, and keywords of the target image data satisfying a predetermined condition are extracted from the database. An image recognition apparatus comprising: a keyword extraction unit.
前記検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けして、データベースとして記憶し、
前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出し、
前記取得画像データに備わった画像特徴量を抽出し、
前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断し、
前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出する
画像認識方法。 An image recognition method for recognizing image content by executing processing for extracting a keyword representing the image content of one piece of image data having information on a shooting position from a predetermined search target,
For each of the plurality of target image data to be searched, an image feature amount, a keyword representing the image content, position information where an image having the image feature amount is photographed, and an object to which the keyword is assigned are specified. Associating with the location information relevance indicating the degree unique to the place, storing it as a database,
The one image data is input as acquired image data, and position information where the acquired image data is photographed is extracted,
Extracting an image feature amount included in the acquired image data;
Using the degree of relevance of the position information of the target image data stored in the database, the position information of the acquired image data, and the shooting position distance obtained from the position information of the target image data, the target image data is Decide whether or not to exclude them from the keyword extraction process,
If it is determined that the image is to be processed, the image feature quantity of the acquired image data is compared with the image feature quantity of the target image data, and keywords of the target image data satisfying a predetermined condition are extracted from the database. Image recognition method.
前記検索対象となる複数の対象画像データ毎に、画像特徴量と、画像内容を表わすキーワードと、該画像特徴量を備えた画像が撮影される位置情報と、該キーワードが付与された物体が特定場所に固有のものである度合を示す位置情報関連度とを関連付けして、データベースとして記憶する機能と、
前記一の画像データを取得画像データとして入力し、該取得画像データが撮影される位置情報を抽出する機能と、
前記取得画像データに備わった画像特徴量を抽出する機能と、
前記データベースに記憶された前記対象画像データの位置情報関連度と、前記取得画像データの位置情報および該対象画像データの位置情報から求めた撮影位置の隔たりとを用いて、当該対象画像データを前記キーワードの抽出処理の処理対象から除外するか否かを判断する機能と、
前記処理対象にすると判断した場合に、前記取得画像データの画像特徴量と前記対象画像データの画像特徴量とを比較して、所定条件を満たす該対象画像データのキーワードを、前記データベースから抽出する機能と
を前記画像認識装置に実現させるコンピュータプログラム。 A computer program for controlling an image recognition apparatus for recognizing image content by executing processing for extracting a keyword representing the image content of one piece of image data having information on a shooting position from a predetermined search target,
For each of the plurality of target image data to be searched, an image feature amount, a keyword representing the image content, position information where an image having the image feature amount is photographed, and an object to which the keyword is assigned are specified. A function of associating a location information relevance level indicating a degree unique to a place and storing it as a database;
A function of inputting the one image data as acquired image data and extracting position information where the acquired image data is captured;
A function of extracting an image feature amount included in the acquired image data;
Using the degree of relevance of the position information of the target image data stored in the database, the position information of the acquired image data, and the shooting position distance obtained from the position information of the target image data, the target image data is A function to determine whether to exclude from the keyword extraction process,
If it is determined that the image is to be processed, the image feature quantity of the acquired image data is compared with the image feature quantity of the target image data, and keywords of the target image data satisfying a predetermined condition are extracted from the database. A computer program that causes the image recognition apparatus to realize functions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005223924A JP2007041762A (en) | 2005-08-02 | 2005-08-02 | Image recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005223924A JP2007041762A (en) | 2005-08-02 | 2005-08-02 | Image recognizing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007041762A true JP2007041762A (en) | 2007-02-15 |
JP2007041762A5 JP2007041762A5 (en) | 2008-09-11 |
Family
ID=37799695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005223924A Withdrawn JP2007041762A (en) | 2005-08-02 | 2005-08-02 | Image recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007041762A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012053776A (en) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | Display image search device, display device, display image search system, and display image search method |
JP2015032220A (en) * | 2013-08-05 | 2015-02-16 | Kddi株式会社 | Image identification device and program |
WO2020065839A1 (en) * | 2018-09-27 | 2020-04-02 | 株式会社オプティム | Object situation assessment system, object situation assessment method, and program |
CN111026896A (en) * | 2019-11-15 | 2020-04-17 | 浙江大华技术股份有限公司 | Characteristic value storage and processing method, device and storage device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000163436A (en) * | 1998-11-27 | 2000-06-16 | Toshiba Corp | System and method for information retrieval |
JP2002297648A (en) * | 2001-03-29 | 2002-10-11 | Minolta Co Ltd | Device and program for information retrieval, and recording medium |
JP2003036267A (en) * | 2001-07-23 | 2003-02-07 | Canon Inc | Information retrieval device, and information retrieval method |
JP2005100274A (en) * | 2003-09-26 | 2005-04-14 | Mazda Motor Corp | Information providing system, information retrieval device and information providing method |
-
2005
- 2005-08-02 JP JP2005223924A patent/JP2007041762A/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000163436A (en) * | 1998-11-27 | 2000-06-16 | Toshiba Corp | System and method for information retrieval |
JP2002297648A (en) * | 2001-03-29 | 2002-10-11 | Minolta Co Ltd | Device and program for information retrieval, and recording medium |
JP2003036267A (en) * | 2001-07-23 | 2003-02-07 | Canon Inc | Information retrieval device, and information retrieval method |
JP2005100274A (en) * | 2003-09-26 | 2005-04-14 | Mazda Motor Corp | Information providing system, information retrieval device and information providing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012053776A (en) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | Display image search device, display device, display image search system, and display image search method |
JP2015032220A (en) * | 2013-08-05 | 2015-02-16 | Kddi株式会社 | Image identification device and program |
WO2020065839A1 (en) * | 2018-09-27 | 2020-04-02 | 株式会社オプティム | Object situation assessment system, object situation assessment method, and program |
JPWO2020065839A1 (en) * | 2018-09-27 | 2021-08-30 | 株式会社オプティム | Object condition judgment system, object condition judgment method, and program |
CN113646800A (en) * | 2018-09-27 | 2021-11-12 | 株式会社OPTiM | Object condition determination system, object condition determination method, and program |
US11210335B2 (en) | 2018-09-27 | 2021-12-28 | Optim Corporation | System and method for judging situation of object |
CN111026896A (en) * | 2019-11-15 | 2020-04-17 | 浙江大华技术股份有限公司 | Characteristic value storage and processing method, device and storage device |
CN111026896B (en) * | 2019-11-15 | 2023-09-01 | 浙江大华技术股份有限公司 | Feature value storage and processing method, device and storage device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8520909B2 (en) | Automatic and semi-automatic image classification, annotation and tagging through the use of image acquisition parameters and metadata | |
US7663671B2 (en) | Location based image classification with map segmentation | |
US9076069B2 (en) | Registering metadata apparatus | |
JP4475547B2 (en) | Image search device, image search method, and image estimation device | |
US8144920B2 (en) | Automated location estimation using image analysis | |
US8094974B2 (en) | Picture data management apparatus and picture data management method | |
JP4457988B2 (en) | Image management apparatus, image management method, and computer program | |
KR100845892B1 (en) | Method and system for mapping image objects in photo to geographic objects | |
KR20140091554A (en) | Automatic tag generation based on image content | |
US20090123021A1 (en) | System, method, and medium indexing photos semantically | |
US8634589B2 (en) | Information processing apparatus and method for registering moving objects as metadata of an image | |
JP2007041964A (en) | Image processor | |
JP5544250B2 (en) | Display image search method | |
US8320609B2 (en) | Device and method for attaching additional information | |
US20150086123A1 (en) | Photo Grouping System, Photo Grouping Method- and Non-Transitory Computer-Readable Storage Medium | |
US20020067856A1 (en) | Image recognition apparatus, image recognition method, and recording medium | |
JP2007041762A (en) | Image recognizing device | |
JP5782035B2 (en) | Information processing apparatus, processing method, computer program, and integrated circuit | |
JP2007323382A (en) | Image recognition apparatus, image recognition method, image recognition program, and recording medium | |
JP2016075992A (en) | Imaging device, information processing device and information processing method thereof, and information processing system | |
JP2007295338A (en) | Photographing time and date estimation device, photographing time and date correction device, image photographing device, photographing time and date correction method, photographing time and date correction program, and recording medium recording program | |
JP2008242682A (en) | Automatic meta information imparting system, automatic meta information imparting method, and automatic meta information imparting program | |
JP2007058630A (en) | Image recognition device | |
JP2007122321A (en) | Identification of subject represented in image | |
Prat et al. | MapExif: an image scanning and mapping tool for investigators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080724 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20101221 |