JP2003331288A - Device and method for discriminating image - Google Patents

Device and method for discriminating image

Info

Publication number
JP2003331288A
JP2003331288A JP2002142030A JP2002142030A JP2003331288A JP 2003331288 A JP2003331288 A JP 2003331288A JP 2002142030 A JP2002142030 A JP 2002142030A JP 2002142030 A JP2002142030 A JP 2002142030A JP 2003331288 A JP2003331288 A JP 2003331288A
Authority
JP
Japan
Prior art keywords
pseudo
image data
image
amount
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002142030A
Other languages
Japanese (ja)
Inventor
Takayasu Yamaguchi
高康 山口
Minoru Takahata
実 高畑
Setsuyuki Hongo
節之 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2002142030A priority Critical patent/JP2003331288A/en
Publication of JP2003331288A publication Critical patent/JP2003331288A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To precisely discriminate similarity between image data. <P>SOLUTION: A CPU 2 provided in an information providing server 1 of the present invention divides the image data into a plurality of areas classified a color by a color, calculates a pseudo-joining quantity between the plurality of divided areas, and generates a mapping vector based on the image data, using the calculated pseudo-joining quantity between the plurality of divided areas. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像判別装置、及
び画像判別方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image discriminating apparatus and an image discriminating method.

【0002】[0002]

【従来の技術】近年、画像解析技術の発達に伴い、異な
る複数の画像データの中から、判別対象物の撮像データ
と最も類似性の高い画像データを判別する画像判別装置
が提案されている。判別処理に際しては、複数の画像デ
ータから特徴量を抽出し、この特徴量を基に、各画像デ
ータと撮像データとの類似性を判断する手法が一般的で
ある。特徴量としては、画像データ内において分割され
た各領域の周期性、形状、テクスチャ、エッジ、テクス
チャエッジ等が使用される。
2. Description of the Related Art In recent years, with the development of image analysis technology, an image discriminating apparatus has been proposed which discriminates image data having the highest similarity from the imaged data of a discrimination object from a plurality of different image data. In the discrimination processing, a method is generally used in which a feature amount is extracted from a plurality of image data and the similarity between each image data and the imaged data is determined based on the feature amount. As the feature quantity, the periodicity, shape, texture, edge, texture edge, etc. of each area divided in the image data are used.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の画像判別装置では、以下に示すような問題点があっ
た。すなわち、周期性、形状、テクスチャ、エッジ、テ
クスチャエッジ等を特徴量として使用すると、撮像デー
タの撮像位置のずれに起因する射影歪みや撮像方向の影
響を受け易い。撮像位置のずれは、携帯端末の様に、表
示画面の小さい撮像装置を用いて対象物を撮影する場合
に特に顕著である。
However, the above conventional image discriminating apparatus has the following problems. That is, when the periodicity, the shape, the texture, the edge, the texture edge, or the like is used as the feature amount, the projective distortion and the imaging direction due to the deviation of the imaging position of the imaging data are easily affected. The shift of the image pickup position is particularly remarkable when an object is photographed by using an image pickup device having a small display screen like a mobile terminal.

【0004】そこで、本発明は上記事情に鑑みて、画像
データ間における類似性の判別を精度良く行う画像判別
装置、及び画像判別方法を実現することを課題とする。
In view of the above circumstances, an object of the present invention is to realize an image discriminating apparatus and an image discriminating method for discriminating the similarity between image data with high accuracy.

【0005】[0005]

【課題を解決するための手段】上記課題を解決すべく、
本発明に係る画像判別装置は、画像データを複数の色別
の領域に分割する分割手段と、前記分割手段により分割
された複数の色別領域間の擬似接合量を算出する接合量
算出手段と、前記接合量算出手段により算出された複数
の色別領域間の擬似接合量を用いて、前記画像データか
ら写像ベクトルを生成する生成手段とを備える。
[Means for Solving the Problems] In order to solve the above problems,
An image discriminating apparatus according to the present invention includes a dividing unit that divides image data into a plurality of color-based regions, and a joining amount calculation unit that calculates a pseudo joining amount between the plurality of color-based regions divided by the dividing unit. Generating means for generating a mapping vector from the image data by using the pseudo-joint amount between the plurality of color regions calculated by the joint amount calculating means.

【0006】本発明に係る画像判別方法は、画像判別装
置が複数の画像データの類似性を判別する画像判別方法
において、画像データを複数の色別の領域に分割する分
割工程と、前記分割工程にて分割された複数の色別領域
間の擬似接合量を算出する接合量算出工程と、前記接合
量算出工程にて算出された複数の色別領域間の擬似接合
量を用いて、前記画像データから写像ベクトルを生成す
る生成工程とを含む。
According to the image discrimination method of the present invention, in the image discrimination method in which the image discrimination device discriminates the similarity of a plurality of image data, a division step of dividing the image data into a plurality of areas for each color, and the division step. The image is obtained by using a joining amount calculation step of calculating a pseudo joining amount between the plurality of color-separated regions and a pseudo joining amount between the plurality of color-separated regions calculated in the joining amount calculation step. Generating a mapping vector from the data.

【0007】本発明は、画像データを色別の領域に分割
した際における、各色別領域間の配置関係、特に擬似接
合量に着目したものである。これらの発明によれば、画
像データは複数の色別領域に分割され、これら色別領域
間の擬似接合量が算出され、当該擬似接合量を用いて前
記画像データから写像ベクトルが生成される。したがっ
て、この写像ベクトルは、画像データを構成する色別領
域間の擬似接合量が特徴量として反映されたものであ
る。
The present invention focuses on the positional relationship between the color areas when the image data is divided into the color areas, in particular, the pseudo-joint amount. According to these aspects of the invention, the image data is divided into a plurality of color-based areas, the pseudo-joint amount between these color-based areas is calculated, and a mapping vector is generated from the image data using the pseudo-joint amount. Therefore, this mapping vector reflects the amount of pseudo joining between the color-based regions that form the image data as a feature amount.

【0008】上述した写像ベクトルの生成処理を、予め
登録された複数の画像データと、類似性あるいは同一性
の判別対象となる画像データ(後述の撮像データ)とに
適用することにより、撮像データの撮像位置のずれに起
因する射影歪みや撮像方向の影響を受け難い特徴量(擬
似接合量)を利用した画像判別が可能である。具体的に
は、複数の画像データから生成された写像ベクトルを基
に、後述の判別ベクトル及びバイアスを更に生成する。
そして、当該判別ベクトルと、撮像データから生成され
た写像ベクトルとの内積をとり、このスカラ値にバイア
スを加算して二値判別を行うことにより、擬似接合量を
画像データ間の類似性判別の指標として使用する。
By applying the above-described mapping vector generation process to a plurality of image data registered in advance and image data (imaging data described later) which is a target of similarity or identity determination, It is possible to perform image discrimination using a feature amount (pseudo-joint amount) that is unlikely to be affected by the projective distortion due to the shift of the image pickup position or the image pickup direction. Specifically, a discrimination vector and a bias, which will be described later, are further generated based on the mapping vector generated from the plurality of image data.
Then, the inner product of the discriminant vector and the mapping vector generated from the imaged data is taken, and a bias is added to this scalar value to perform binary discrimination, thereby determining the pseudo-joint amount for the similarity discrimination between the image data. Use as an indicator.

【0009】これにより、画像データ間における類似性
の判別を精度良く行うことが可能となる。例えば、複数
の画像データの中から、撮像データに最も類似する画像
データを高精度に選定及び抽出できる。なお、撮像位置
のずれは、表示画面の狭い撮像装置を用いて対象物を撮
影する場合に顕著であるので、本発明は携帯端末におけ
る画像判別に特に効果的である。
This makes it possible to accurately determine the similarity between image data. For example, the image data most similar to the imaged data can be selected and extracted with high accuracy from the plurality of image data. The deviation of the imaging position is remarkable when the object is imaged by using the imaging device having a narrow display screen, and the present invention is particularly effective for the image discrimination in the mobile terminal.

【0010】本発明に係る画像判別装置において好まし
くは、前記擬似接合量は、前記画像データ上の1ピクセ
ルを基点として含む複数のピクセル内における、前記基
点の色と前記基点以外の各ピクセルの色との組合せを計
数した結果である。
In the image discriminating apparatus according to the present invention, preferably, the pseudo joining amount is a color of the base point and a color of each pixel other than the base point in a plurality of pixels including one pixel on the image data as a base point. It is the result of counting the combination with.

【0011】本発明に係る画像判別方法において好まし
くは、前記擬似接合量は、前記画像データ上の1ピクセ
ルを基点として含む複数のピクセル内における、前記基
点の色と前記基点以外の各ピクセルの色との組合せを計
数した結果である。
In the image discrimination method according to the present invention, preferably, the pseudo joining amount is a color of the base point and a color of each pixel other than the base point in a plurality of pixels including one pixel on the image data as a base point. It is the result of counting the combination with.

【0012】これらの発明によれば、前記擬似接合量
は、前記画像データ上の1ピクセルを基点として含む複
数のピクセル(後述のボックス)内における、前記基点
の色と前記基点以外の各ピクセルの色との組合せ(例え
ば、白と黒の2色で1組)を計数した結果である。画像
データ上で基点を任意のピクセルに移動させて、できる
限り多数の基点に関する擬似接合量を算出し写像ベクト
ルを生成することにより、複数の画像データ間における
類似性の判別を精度良く行うことが可能となる。
According to these aspects, the pseudo-joint amount is the color of the base point and each pixel other than the base point in a plurality of pixels (boxes described later) including one pixel on the image data as a base point. It is the result of counting the combinations with colors (for example, one set of two colors of white and black). By moving the base point to any pixel on the image data, calculating the pseudo-joint amount for as many base points as possible, and generating a mapping vector, it is possible to accurately determine the similarity between a plurality of image data. It will be possible.

【0013】本発明に係る画像判別装置において好まし
くは、前記分割手段により分割された複数の色別領域間
の擬似包括量を算出する包括量算出手段を更に備え、前
記生成手段は、前記擬似接合量と、前記包括量算出手段
により算出された複数の色別領域間の擬似包括量とを用
いて、前記画像データから写像ベクトルを生成する。
In the image discriminating apparatus according to the present invention, preferably, an inclusion amount calculation unit for calculating a pseudo inclusion amount between the plurality of color-separated areas divided by the dividing unit is further provided, and the generation unit includes the pseudo junction. A mapping vector is generated from the image data by using the amount and the pseudo inclusive amount between the plurality of color regions calculated by the inclusive amount calculating means.

【0014】本発明に係る画像判別方法において好まし
くは、画像判別装置が、前記分割工程にて分割された複
数の色別領域間の擬似包括量を算出する包括量算出工程
を更に含み、前記生成工程では、前記擬似接合量と、前
記包括量算出工程にて算出された複数の色別領域間の擬
似包括量とを用いて、前記画像データから写像ベクトル
を生成する。
In the image discriminating method according to the present invention, preferably, the image discriminating apparatus further includes a comprehensive amount calculating step of calculating a pseudo comprehensive amount between the plurality of color-based areas divided in the dividing step, and the generation is performed. In the step, a mapping vector is generated from the image data by using the pseudo joining amount and the pseudo inclusion amount between the plurality of color regions calculated in the inclusion amount calculating step.

【0015】本発明は、画像データを色別の領域に分割
した際における、各色別領域間の配置関係、特に擬似包
括量に着目したものである。これらの発明によれば、画
像データは複数の色別領域に分割され、これら色別領域
間の擬似接合量及び擬似包括量が算出され、これらを用
いて前記画像データから写像ベクトルが生成される。し
たがって、この写像ベクトルは、画像データを構成する
色別領域間の擬似接合量及び擬似包括量が特徴量として
反映されたものである。したがって、色に関する2種類
の特徴量を組み合わせることで、擬似接合量を唯一の特
徴量として使用する場合よりも判別精度が向上する。
The present invention focuses on the arrangement relationship between the color areas when the image data is divided into the color areas, in particular the pseudo comprehensive amount. According to these aspects of the invention, the image data is divided into a plurality of color-based regions, the pseudo-joint amount and the pseudo-inclusive amount between these color-based regions are calculated, and a mapping vector is generated from the image data using these. . Therefore, the mapping vector reflects the pseudo-joint amount and the pseudo-inclusive amount between the color-based regions forming the image data as the feature amount. Therefore, by combining the two types of feature amounts relating to colors, the discrimination accuracy is improved as compared with the case where the pseudo joining amount is used as the only feature amount.

【0016】本発明に係る画像判別装置において好まし
くは、前記擬似包括量は、前記複数の色別領域を複数の
閉領域として再構成すると共に前記画像データ上の1ピ
クセルを基点とした場合に、当該基点を含む閉領域と、
当該基点を中心とする所定方向の内の全方向に存在する
閉領域との組合せを計数した結果である。
In the image discriminating apparatus according to the present invention, preferably, the pseudo comprehensive amount is obtained by reconstructing the plurality of color-based areas as a plurality of closed areas and using one pixel on the image data as a base point. A closed region including the base point,
It is the result of counting the combinations with closed regions existing in all directions within the predetermined direction with the base point as the center.

【0017】本発明に係る画像判別方法において好まし
くは、前記擬似包括量は、前記複数の色別領域を複数の
閉領域として再構成すると共に前記画像データ上の1ピ
クセルを基点とした場合に、当該基点を含む閉領域と、
当該基点を中心とする所定方向の内の全方向に存在する
閉領域との組合せを計数した結果である。
In the image discriminating method according to the present invention, preferably, the pseudo comprehensive amount is obtained by reconstructing the plurality of color-based areas as a plurality of closed areas and using one pixel on the image data as a base point. A closed region including the base point,
It is the result of counting the combinations with closed regions existing in all directions within the predetermined direction with the base point as the center.

【0018】これらの発明によれば、前記擬似包括量
は、前記複数の色別領域を複数の閉領域(後述のラベ
ル)として再構成すると共に前記画像データ上の1ピク
セルを基点とした場合に、当該基点を含む閉領域と、当
該基点を中心とする所定方向(例えば、上下左右の4方
向)の内の全方向に存在する閉領域との組合せ(例え
ば、第1のラベルと第2のラベルの2つの閉領域で1
組)を計数した結果である。画像データ上で基点を任意
のピクセルに移動させて、できる限り多数の基点に関す
る擬似包括量を算出し写像ベクトルを生成することによ
り、複数の画像データ間における類似性の判別を精度良
く行うことが可能となる。
According to these aspects of the invention, the pseudo comprehensive amount is obtained when the plurality of color-based areas are reconstructed as a plurality of closed areas (labels described later) and one pixel on the image data is used as a base point. , A combination of a closed region including the base point and a closed region existing in all directions within a predetermined direction (for example, four directions of up, down, left, and right) around the base point (for example, the first label and the second label). 1 in two closed areas of label
It is the result of counting the set). By moving the base point to any pixel on the image data, calculating the pseudo-inclusive amount for as many base points as possible, and generating a mapping vector, it is possible to accurately determine the similarity between a plurality of image data. It will be possible.

【0019】本発明に係る画像判別装置において、より
好ましくは、前記画像データは、看板を撮像したデータ
である。本発明に係る画像判別方法において、より好ま
しくは、前記画像データは、看板を撮像したデータであ
る。
In the image discriminating apparatus according to the present invention, more preferably, the image data is image data of a signboard. In the image discrimination method according to the present invention, more preferably, the image data is data obtained by capturing an image of a signboard.

【0020】これらの発明によれば、前記画像データ
は、看板を撮像したデータである。人工物である看板
は、作成者が他者に情報を効果的に伝える為に複数の色
で塗り分けられていることが多い。したがって、擬似接
合量や擬似包括量の様な、配色や色の配置関係に関わる
特徴量を使用することが特に有効である。
According to these aspects of the invention, the image data is image data of a signboard. Signboards that are artifacts are often painted in multiple colors so that the creator can effectively convey information to others. Therefore, it is particularly effective to use the feature amount related to the color arrangement or the color arrangement relation such as the pseudo joining amount or the pseudo inclusion amount.

【0021】[0021]

【発明の実施の形態】以下、添付図面を参照して本発明
に係る情報提供システムについて説明する。まず、図1
は、本発明の大要を示唆すべく、本システムによって実
現する情報提供サービスを概念的に示す図である。図1
に示す様に、携帯電話10のユーザが、携帯電話10に
搭載されたカメラにより撮影された街角の看板を基に、
後述する所定の操作を実行すると、当該看板に関連する
情報が携帯電話10の表示画面に表示される。例えば、
撮像対象がレストラン広告用の看板A2である場合、レ
ストランの名称は元より、客からの評判や現在の待ち時
間等がリアルタイムにユーザに提示される。これによ
り、ユーザは、所望する情報を簡易迅速に入手できる。
DETAILED DESCRIPTION OF THE INVENTION An information providing system according to the present invention will be described below with reference to the accompanying drawings. First, Fig. 1
FIG. 3 is a diagram conceptually showing an information providing service realized by this system in order to suggest the outline of the present invention. Figure 1
As shown in, the user of the mobile phone 10 uses the signboard on the street corner photographed by the camera mounted on the mobile phone 10,
When a predetermined operation described later is executed, information related to the signboard is displayed on the display screen of the mobile phone 10. For example,
When the imaging target is the signboard A2 for restaurant advertisement, not only the name of the restaurant but also the reputation of the customer, the current waiting time, and the like are presented to the user in real time. As a result, the user can easily and quickly obtain desired information.

【0022】(第1の実施形態)以下、携帯電話10が
情報提供サーバとの通信が可能なモード(以下、「オン
ラインモード」と記す。)を本発明に係る情報提供シス
テムに適用した第1の実施形態について説明する。説明
の前提として、撮像対象を判別するために情報提供サー
バ1に予め登録された画像データと、携帯電話10によ
って撮像された判別対象となる画像データとを明確に区
別するため、前者を単に「画像データ」と記し、後者を
「撮像データ」と記す。
(First Embodiment) Hereinafter, a first mode in which a mode in which the mobile phone 10 can communicate with an information providing server (hereinafter referred to as "online mode") is applied to the information providing system according to the present invention. Will be described. As a premise of the description, in order to clearly distinguish the image data registered in advance in the information providing server 1 for determining the image capturing target and the image data to be the determination target captured by the mobile phone 10, the former is simply referred to as " The image data will be referred to as "image data", and the latter will be referred to as "imaging data".

【0023】まず、構成を説明する。図2は、本実施形
態における情報提供システム100の全体構成の一例を
示す模式図である。図2に示す様に、情報提供システム
100は、情報提供サーバ1(画像判別装置に対応)と
携帯電話10とにより概略構成されている。情報提供サ
ーバ1は、基地局B1及びネットワークNに有線接続さ
れている。更に、携帯電話10は、基地局B1と無線通
信可能である。したがって、携帯電話10は、基地局B
1及びネットワークNを経由して、情報提供サーバ1と
相互に情報の送受信が可能である。
First, the structure will be described. FIG. 2 is a schematic diagram showing an example of the overall configuration of the information providing system 100 in this embodiment. As shown in FIG. 2, the information providing system 100 is roughly configured by an information providing server 1 (corresponding to an image discrimination device) and a mobile phone 10. The information providing server 1 is wire-connected to the base station B1 and the network N. Furthermore, the mobile phone 10 can wirelessly communicate with the base station B1. Therefore, the mobile phone 10 is
It is possible to exchange information with the information providing server 1 via the network 1 and the network N.

【0024】図3を参照して情報提供サーバ1の構成を
説明する。図3は、情報提供サーバ1の機能的構成を示
すブロック図である。図3に示す様に、情報提供サーバ
1は、CPU2(分割手段、接合量算出手段、包括量算
出手段、及び生成手段に対応)、入力部3、表示部4、
通信制御部5、RAM6、及び記憶部7により構成さ
れ、各部はバスにより接続されているコンピュータであ
る。
The configuration of the information providing server 1 will be described with reference to FIG. FIG. 3 is a block diagram showing a functional configuration of the information providing server 1. As shown in FIG. 3, the information providing server 1 includes a CPU 2 (corresponding to a dividing unit, a joining amount calculating unit, a comprehensive amount calculating unit, and a generating unit), an input unit 3, a display unit 4,
The computer is composed of a communication control unit 5, a RAM 6, and a storage unit 7, and each unit is a computer connected by a bus.

【0025】CPU(Central Processing Unit)2
は、記憶部7に記憶されているプログラムを読み出して
RAM6に展開し、該プログラムに従って各部の動作を
集中制御する。また、CPU2は、RAM6に展開され
たプログラムに従って、後述する情報提供処理(図6参
照)を実行し、その処理結果をRAM6に格納すると共
に表示部4に表示させる。そして、RAM6に格納した
処理結果を記憶部7の所定の保存先に保存させる。
CPU (Central Processing Unit) 2
Reads out the program stored in the storage unit 7 and expands it in the RAM 6, and centrally controls the operation of each unit according to the program. Further, the CPU 2 executes an information providing process (see FIG. 6) described later according to the program expanded in the RAM 6, stores the processing result in the RAM 6 and displays it on the display unit 4. Then, the processing result stored in the RAM 6 is stored in a predetermined storage destination of the storage unit 7.

【0026】入力部3は、文字・数字入力キー、カーソ
ルキー、及び各種機能キー等を備えたキーボードと、ポ
インティングデバイスであるマウスと、を備えて構成さ
れ、キーボードにより押下操作されたキーの信号とマウ
スによる操作信号とを、入力信号としてCPU2に出力
する。
The input unit 3 comprises a keyboard having character / number input keys, cursor keys, various function keys, and the like, and a mouse as a pointing device, and signals of keys pressed by the keyboard. And a mouse operation signal are output to the CPU 2 as input signals.

【0027】表示部4は、LCD(Liquid Crystal Dis
play)やCRT(Cathode Ray Tube)により構成され、
CPU2から入力される表示信号の指示に従って画面上
に各種情報の表示を行う。通信制御部5は、ネットワー
クNを介して基地局B1に有線接続されており、携帯電
話10との間でデータの送受信を行う。
The display unit 4 is an LCD (Liquid Crystal Display).
play) and CRT (Cathode Ray Tube)
Various information is displayed on the screen in accordance with the instruction of the display signal input from the CPU 2. The communication control unit 5 is wire-connected to the base station B1 via the network N and transmits / receives data to / from the mobile phone 10.

【0028】RAM(Random Access Memory)6は、C
PU2により実行制御される各種処理において、記憶部
7から読み出された情報提供サーバ1で実行可能な各種
プログラム、入力若しくは出力データ、及びパラメータ
等の一時的な格納領域を形成する。
A RAM (Random Access Memory) 6 is a C
In various processes controlled to be executed by the PU 2, it forms a temporary storage area for various programs, input or output data, parameters, etc. that can be executed by the information providing server 1 and read from the storage unit 7.

【0029】記憶部7は、後述の情報提供処理の実行に
必要なプログラムを格納する。記憶部7は、データベー
ス71を備える。データベース71には、携帯電話10
により撮像対象を撮像可能な範囲(以下、「サービス範
囲」と記す。)と、撮像対象に関する関連情報とが予め
対応付けて格納されている。また、記憶部7は、撮像対
象を判別するために取得(登録)された画像データを、
サービス範囲及び関連情報と対応付けて格納する。記憶
部7は、画像データを基に算出された後述の判別ベクト
ル及びバイアスを格納する。
The storage unit 7 stores a program necessary for executing an information providing process described later. The storage unit 7 includes a database 71. The database 71 includes the mobile phone 10
A range in which the image capturing target can be captured (hereinafter, referred to as “service range”) and related information regarding the image capturing target are stored in association with each other in advance. In addition, the storage unit 7 stores the image data acquired (registered) in order to determine the imaging target,
It is stored in association with the service range and related information. The storage unit 7 stores a later-described discrimination vector and bias calculated based on the image data.

【0030】以下、図2に示した位置P1,P2,P3
にそれぞれ設置された看板A1,A2,A3を例にと
り、データベース71に格納されるサービス範囲のデー
タについて詳細に説明する。図4は、看板A1,A2,
A3のサービス範囲の位置関係を模式的に示す俯瞰図で
ある。図4に示す様に、看板A1〜A3に対応するサー
ビス範囲C1〜C3は、各看板A1〜A3の位置P1,
P2,P3を中心に規定される。撮像対象が看板やポス
ター等の平面物体の場合、可視方向や遮蔽物などの影響
からサービス範囲は一般的に扇形になるが、以下簡単の
為、円形に規定されたサービス範囲を例示して説明す
る。
Hereinafter, the positions P1, P2 and P3 shown in FIG.
The data of the service range stored in the database 71 will be described in detail by taking the signboards A1, A2, and A3 installed in the above as an example. FIG. 4 shows signboards A1, A2.
It is an overhead view which shows typically the positional relationship of the service range of A3. As shown in FIG. 4, the service ranges C1 to C3 corresponding to the signs A1 to A3 are the positions P1 of the signs A1 to A3.
It is defined around P2 and P3. When the imaging target is a flat object such as a signboard or poster, the service range is generally fan-shaped due to the effects of the viewing direction and the obstruction, but for the sake of simplicity, the service range defined as a circle will be described as an example. To do.

【0031】サービス範囲C1〜C3は、携帯電話10
による位置推定の誤差を見込んで実際の可視範囲よりも
若干拡張して設定されている。位置推定の誤差は、GP
Sを用いた場合には数m〜数十mであり、それに合わせ
てサービス範囲C1〜C3の半径を拡張する。なお、基
地局B1のセルやサービスエリアを示すカラーコードの
み用いた場合の位置推定誤差は数百m〜数kmである。
The mobile phone 10 covers the service range C1 to C3.
It is set to be slightly extended from the actual visible range in consideration of the position estimation error due to. The error of position estimation is GP
When S is used, it is several m to several tens m, and the radius of the service range C1 to C3 is expanded accordingly. The position estimation error when using only the color code indicating the cell of the base station B1 or the service area is several hundreds to several kilometers.

【0032】携帯電話の撮像装置の視野角をφ[ra
d]、看板の横幅をWm[m](撮像対象である看板の識
別記号m=1,2,3)とすると、表示画面に看板全体
が収まる距離Rmは、Rm=Wm/2tan(φ/2)[m]
により表される。また、画像データの登録時に推定され
た看板A1〜A3の位置の誤差を△Rmとし、撮像デー
タの判別時に携帯電話10又は携帯電話10及び基地局
B1により推定される看板A1〜A3の位置の誤差を△
uとすると、位置Pmに存在する看板Amのサービス範
囲Cmは、Pmを中心とした半径Rm'=Rm+△Rm+△R
u[m]の円の内部となる。
The viewing angle of the imaging device of the mobile phone is φ [ra
d], and the width of the signboard is W m [m] (identification symbol m = 1, 2, 3 of the signboard to be imaged), the distance R m where the entire signboard fits on the display screen is R m = W m / 2 tan (φ / 2) [m]
Represented by Further, the error of the positions of the signboards A1 to A3 estimated at the time of registration of the image data is ΔR m, and the positions of the signboards A1 to A3 estimated by the mobile phone 10 or the mobile phone 10 and the base station B1 at the time of determining the imaged data. Error of
When R u, coverage C m Signs A m at the position P m is the radius R m around the P m '= R m + △ R m + △ R
It becomes the inside of the circle of u [m].

【0033】続いて、図5を参照して、携帯電話10の
内部構成について詳説する。まず、構成を説明する。図
5は、携帯電話10の機能的構成を示すブロック図であ
る。図5に示す様に、携帯電話10は、制御装置11、
入力装置12、RAM13、表示装置14、記憶装置1
5、撮像装置16、無線通信装置17、GPS等の位置
推定装置18、及び音声処理装置19を備えて構成され
る。また、これら各装置は、それぞれバスを介して相互
に各種信号の入出力が可能な様に電気的に接続されてい
る。
Next, with reference to FIG. 5, the internal structure of the mobile phone 10 will be described in detail. First, the configuration will be described. FIG. 5 is a block diagram showing a functional configuration of the mobile phone 10. As shown in FIG. 5, the mobile phone 10 includes a control device 11,
Input device 12, RAM 13, display device 14, storage device 1
5, an imaging device 16, a wireless communication device 17, a position estimation device 18 such as GPS, and a voice processing device 19. Further, these respective devices are electrically connected to each other via a bus so that various signals can be input and output.

【0034】制御装置11は、ROM(Read Only Memo
ry)11aを内蔵し、ROM11aに予め記憶されてい
るプログラムを読み出してRAM13に展開し、当該プ
ログラムに従って各部を集中制御する。即ち、制御装置
11は、入力装置12からの入力信号とRAM13に展
開されたプログラムに従って、後述の情報提供処理(図
6参照)を実行し、その処理結果をRAM13に一時的
に記憶すると共に表示装置14に表示させる。そして、
RAM13に記憶された処理結果を必要に応じて記憶装
置15内の所定の領域に格納させる。
The controller 11 is a ROM (Read Only Memo).
ry) 11a is built in, a program stored in advance in the ROM 11a is read out, expanded in the RAM 13, and each unit is centrally controlled according to the program. That is, the control device 11 executes the information providing process (see FIG. 6) described later according to the input signal from the input device 12 and the program expanded in the RAM 13, and temporarily stores the processing result in the RAM 13 and displays it. Display on the device 14. And
The processing result stored in the RAM 13 is stored in a predetermined area in the storage device 15 as needed.

【0035】入力装置12は、データ及び処理の選択、
撮像対象の撮像等を指示する各種操作釦を備えて構成さ
れ、これら各種操作釦は、単独で又は組み合せて押下さ
れることにより、指示内容に応じた入力信号を制御装置
11に出力する。
The input device 12 selects data and processing,
It is configured to include various operation buttons for instructing image capturing of an image capturing target, etc. These various operation buttons are pressed individually or in combination to output an input signal according to the instruction content to the control device 11.

【0036】RAM(Random Access Memory)13は、
揮発性の半導体メモリにより構成され、制御装置11に
より実行される各種処理において、ROM11aから読
み出されたプログラムや記憶装置15から読み出された
データを一時的に格納する。また、RAM13は、表示
装置14に表示されるデータを一時的に記憶するVRA
M(Video RAM)の機能も併有する。
A RAM (Random Access Memory) 13 is
The program read from the ROM 11a and the data read from the storage device 15 are temporarily stored in various processes executed by the control device 11 and are configured by a volatile semiconductor memory. Further, the RAM 13 is a VRA that temporarily stores the data displayed on the display device 14.
It also has the function of M (Video RAM).

【0037】表示装置14は、LCD(Liquid Crystal
Display)やEL(Electro Luminescence)等により構
成され、制御装置11から入力される表示信号に従って
画面上に、画像データや関連情報の表示を行う。
The display device 14 is an LCD (Liquid Crystal).
Display), EL (Electro Luminescence), etc., and displays image data and related information on the screen according to a display signal input from the control device 11.

【0038】記憶装置15は、EEPROM(Electric
ally Erasable and Programmable ROM)等の不揮発性の
半導体メモリにより構成され、各種処理の実行に際して
必要なデータや各種処理の実行の結果生成されたデータ
等を記憶する。
The storage device 15 is an EEPROM (Electric).
ally Erasable and Programmable ROM), etc., and stores data necessary for executing various processes, data generated as a result of executing various processes, and the like.

【0039】撮像装置16は、視野角がφ[rad]に設
定された周知慣用のCCD(ChargeCoupled Diode)カ
メラ16aを有する。視野角φは、好適にはπ/2であ
る。撮像装置16は、CCDカメラ16aによって撮像
された撮像対象の画像を電気信号に変換し、撮像データ
として記憶装置15内の所定の領域に格納する。撮像装
置16は、撮像時に撮像対象を表示装置14に表示さ
せ、撮像釦(シャッタ)が押下された時点で表示装置1
4に表示されている撮像対象を撮像する。撮像対象の位
置やサイズの調整は、CCDカメラ16aあるいは携帯
電話10自体の位置を水平又は垂直方向に適宜動かすこ
とにより可能である。
The image pickup device 16 has a known CCD (Charge Coupled Diode) camera 16a whose viewing angle is set to φ [rad]. The viewing angle φ is preferably π / 2. The image pickup device 16 converts an image of an image pickup target picked up by the CCD camera 16a into an electric signal, and stores the electric signal in a predetermined area in the storage device 15 as image pickup data. The imaging device 16 displays the imaging target on the display device 14 at the time of imaging, and the display device 1 is displayed when the imaging button (shutter) is pressed.
The image pickup target displayed in 4 is imaged. The position and size of the imaging target can be adjusted by appropriately moving the position of the CCD camera 16a or the mobile phone 10 itself in the horizontal or vertical direction.

【0040】無線通信装置17は、基地局B1との無線
通信の制御を行う。詳細には、無線通信装置17は、信
号の変調及び復調を行う変復調部(図示せず)と、信号
の符号化及び復号化を行う符復号化部(図示せず)とを
有する回路であり、アンテナAを備える。アンテナA
は、携帯電話10の筐体上部に伸縮可能に設けられ、基
地局B1との間で電波の送受信を行う。
The wireless communication device 17 controls wireless communication with the base station B1. Specifically, the wireless communication device 17 is a circuit that includes a modulation / demodulation unit (not shown) that modulates and demodulates a signal, and an encoding / decoding unit (not shown) that encodes and decodes the signal. , With an antenna A. Antenna A
Is provided on the upper part of the housing of the mobile phone 10 so as to be expandable and contractible, and transmits and receives radio waves to and from the base station B1.

【0041】位置推定装置18は、GPS(Global Pos
itioning System)衛星からの電波を利用して、携帯電
話10の現在位置(緯度、経度など)を数十mの精度で
推定し、表示装置14に表示させる。位置推定技術は、
周知慣用な二次元計測技術であるので、当該技術に関す
る詳細な説明(図示を含む)は省略する。
The position estimating device 18 uses a GPS (Global Pos).
The current position (latitude, longitude, etc.) of the mobile phone 10 is estimated with a precision of several tens of meters using radio waves from a satellite, and is displayed on the display device 14. Position estimation technology
Since this is a well-known and commonly used two-dimensional measurement technique, detailed description (including illustration) of the technique is omitted.

【0042】音声処理装置19は、変換器、増幅器等に
より構成され、マイクM及びスピーカSを備える。音声
処理装置19は、通話時に、制御装置11から入力され
る音声データを変換器でアナログ信号に変換し、増幅器
を介してスピーカSから放音する。また、音声処理装置
19は、通話時に、マイクMから入力される音声信号を
変換器により無線通信可能なデジタル信号に変換し、制
御装置11に出力する。音声処理装置19は、例えば、
関連情報が音声データを含む場合に音声データを再生す
る。
The voice processing device 19 is composed of a converter, an amplifier and the like, and includes a microphone M and a speaker S. During a call, the voice processing device 19 converts voice data input from the control device 11 into an analog signal by a converter and outputs the sound from the speaker S via an amplifier. Further, the voice processing device 19 converts a voice signal input from the microphone M into a digital signal capable of wireless communication by a converter and outputs the digital signal to the control device 11 during a call. The voice processing device 19 is, for example,
Play the audio data if the related information includes the audio data.

【0043】次に、本発明に係る情報提供システム10
0の動作について説明し、併せて、本発明に係る画像判
別方法について説明する。以下に示す各工程は、情報提
供サーバ1の記憶部7あるいは携帯電話10のROM1
1aに格納されているプログラムが、CPU2或いは制
御装置11によって実行されることにより実現する。
Next, the information providing system 10 according to the present invention.
The operation of 0 will be described, and the image discrimination method according to the present invention will be described. Each process described below is performed by the storage unit 7 of the information providing server 1 or the ROM 1 of the mobile phone 10.
It is realized by the program stored in 1a being executed by the CPU 2 or the control device 11.

【0044】図6は、情報提供システム100によって
実行される情報提供処理の流れを示すフローチャートで
ある。まず、撮像対象判別用の画像データを登録する画
像学習フェーズでは、情報提供サーバ1は、撮像対象を
判別するための画像データを取得する(S1)。画像デ
ータの取得は、撮像機能を有する電子機器によって行わ
れ、好適には、携帯電話10と同等の撮像特性(画面サ
イズや視野角)を有する他の携帯電話あるいは携帯電話
10によって行われる。取得される画像データ数は、撮
像対象の判別精度を維持向上する観点から、少なくとも
2以上であることが望ましい。
FIG. 6 is a flowchart showing the flow of the information providing process executed by the information providing system 100. First, in the image learning phase of registering image data for discriminating an imaging target, the information providing server 1 acquires image data for discriminating an imaging target (S1). The acquisition of the image data is performed by an electronic device having an imaging function, and is preferably performed by another mobile phone or the mobile phone 10 having the same imaging characteristics (screen size and viewing angle) as the mobile phone 10. It is desirable that the number of pieces of image data to be acquired is at least 2 or more from the viewpoint of maintaining and improving the accuracy of discrimination of the imaging target.

【0045】S2では、情報提供サーバ1は、S1で取
得された画像データから写像ベクトルを生成する。以
下、図7を参照して、この色空間写像特徴量抽出処理に
ついて説明する。図7に示す様に、ハンバーガショップ
の看板A1(m=1に対応)の画像データが3枚(n=
1,2,3)取得され、レストランの看板A2(m=2
に対応)の画像データが4枚(n=1,2,3,4)取
得され、バイクショップの看板A3(m=3に対応)の
画像データが2枚(n=1,2)取得されている。
In S2, the information providing server 1 generates a mapping vector from the image data acquired in S1. The color space mapping feature amount extraction processing will be described below with reference to FIG. 7. As shown in FIG. 7, the image data of the signboard A1 (corresponding to m = 1) of the hamburger shop has three pieces (n =
1,2,3) are acquired, and the restaurant sign A2 (m = 2
Image data of 4 (n = 1,2,3,4) is acquired, and image data of the signboard A3 (corresponding to m = 3) of the motorcycle shop is acquired 2 (n = 1,2). ing.

【0046】ここで、mは撮像対象を識別し、nは同一
の撮像対象に関して画像データを識別する記号である。
すなわち、m=1,2,3は、撮像対象がそれぞれ看板
A1,A2,A3であることを示す。また、n=1,
2,3,4は、看板Amの画像データがP(m_1),P
(m_2),P(m_3),P(m_4)の順に取得され
たことを示す。
Here, m is a symbol for identifying an image pickup target, and n is a symbol for identifying image data for the same image pickup target.
That is, m = 1, 2, 3 indicates that the image capturing targets are the signs A1, A2, A3, respectively. Also, n = 1,
2, 3 and 4, the image data P (m_1) Signs A m, P
(M_2), P (m_3), and P (m_4) are acquired in this order.

【0047】色空間写像特徴量抽出処理は、図8に示す
様に、減色処理(S21)、擬似接合量算出処理(S2
2)、擬似包括量算出処理(S23)、及び写像ベクト
ル生成処理(S24)の各処理から成る。以下、S21
〜S24の各処理について詳細に説明する。
As shown in FIG. 8, the color space mapping feature amount extraction process includes a color reduction process (S21) and a pseudo joining amount calculation process (S2).
2), pseudo comprehensive amount calculation processing (S23), and mapping vector generation processing (S24). Below, S21
Each process of S24 to S24 will be described in detail.

【0048】S21の減色処理に関しては、周知慣用の
画像解析技術であるので、詳細な説明(数式を含む)は
省略し、好適な方法を簡略に説明する。例えば、文献"
ディジタル画像処理(長尾真,近代科学社,1978年12
月)"に記載の方法を用い、RGBの中央値を閾値とし
て、黒、青、赤、紫、緑、水、黄、白の計8色に減色す
る。これにより、図7に示す全ての画像データP(m_
n)が色別の領域に分割される。
Since the color reduction processing of S21 is a well-known and commonly used image analysis technique, detailed description (including mathematical expressions) will be omitted, and a suitable method will be briefly described. For example, the literature "
Digital image processing (Makoto Nagao, Modern Science Company, 1978 12
8), using the median value of RGB as a threshold value, and reducing the total of 8 colors of black, blue, red, purple, green, water, yellow, and white. Image data P (m_
n) is divided into areas for each color.

【0049】以下、画像データに減色処理を施す理由を
簡単に説明する。画像データの色を実際の撮像対象の色
と一致させる、あるいは画像データの色を撮像対象の作
成者の意図した色と一致させることは極めて困難であ
る。そこで、色空間写像特徴量抽出処理では、画像デー
タに対して大幅な減色処理を施し、画像データの色を大
別した後に特徴量を抽出する。この特徴量としては、各
色領域の配置関係(包括と接合)を示す特徴量を用い
る。以下、この特徴量を「色空間写像特徴量」と記す。
The reason why the color reduction processing is applied to the image data will be briefly described below. It is extremely difficult to match the color of the image data with the color of the actual image pickup target, or to match the color of the image data with the color intended by the creator of the image pickup target. Therefore, in the color space mapping feature amount extraction processing, a large amount of color reduction processing is performed on the image data to roughly classify the colors of the image data, and then the feature amount is extracted. As this feature amount, a feature amount indicating the arrangement relationship (comprehension and joining) of each color area is used. Hereinafter, this feature amount will be referred to as “color space mapping feature amount”.

【0050】S22の擬似接合量算出処理に関しては、
本発明に係る撮像対象判別を実現する上で特徴的な画像
解析技術であるので、以下図9(a),(b)を参照し
て詳細に説明する。擬似接合量算出処理とは、S21で
分割された各領域間の擬似接合量を求める処理である。
すなわち、図9(a)に示す様に、例えば、基点P
i(Xi,Yi)を左上端のピクセルとして含む3×3[p
ixel]のボックスを画像データP(m_n)上で移動さ
せ、そのボックス内の色の組合せを計数し、計数結果を
擬似接合量とする。
Regarding the pseudo-bonding amount calculation processing of S22,
Since this is a characteristic image analysis technique for realizing the discrimination of the imaging target according to the present invention, it will be described in detail below with reference to FIGS. 9 (a) and 9 (b). The pseudo-bonding amount calculation process is a process of obtaining the pseudo-bonding amount between the regions divided in S21.
That is, as shown in FIG. 9A, for example, the base point P
3 × 3 [p including i (X i , Y i ) as the upper left pixel
ixel] box is moved on the image data P (m_n), the color combinations in the box are counted, and the count result is set as the pseudo-joint amount.

【0051】具体的には、図9(b)に示すボックスに
関して擬似接合量を算出するには、以下の様になる。す
なわち、基点Piの色は黒であるので、黒を基準とし
た、黒及び黒以外の色との組合せの数を順次計数してい
く。ボックス内には白色のピクセルは3ピクセル存在す
るので、まず「黒−白」の組合せに3×WCの擬似接合
量を保持する。
Specifically, in order to calculate the pseudo-bonding amount for the box shown in FIG. 9B, the following is done. That is, since the color of the base point P i is black, the number of combinations of black and colors other than black, based on black, is sequentially counted. Because in the box white pixels exist three pixels, first - to hold a pseudo-bonding amount of 3 × W C in the combination of "black white".

【0052】なお、WCは、擬似接合量に対して任意の
重み付けを行う為に乗算される可変的な数値である。し
たがって、重み付けを行わない場合にはWC=1が代入
される。同様に、上記ボックス内には黄色、青色のピク
セルはそれぞれ3,2ピクセルずつ存在する。したがっ
て、「黒−黄」の組合せに3×WCの擬似接合量を保持
し、「黒−青」の組合せに2×WCの擬似接合量を保持
する。当該ボックスは、その全ピクセルが画像データP
(m_n)に収まる範囲内で全てのピクセルを基点Pi
して移動する。
Note that W C is a variable numerical value that is multiplied to give arbitrary weighting to the pseudo junction amount. Therefore, W C = 1 is substituted when weighting is not performed. Similarly, there are 3 and 2 yellow and blue pixels in the box. Thus, - holding the pseudo bonding amount of 3 × W C in the combination of "Black Yellow", - holding the pseudo bonding amount of 2 × W C in the combination of "Black Blue". All the pixels of the box are image data P
All pixels are moved within the range of (m_n) as the base point P i .

【0053】S23の擬似包括量算出処理に関しても、
本発明に係る撮像対象判別を実現する上で特徴的な画像
解析技術であるので、以下図10〜図12を参照して詳
説する。擬似包括量算出処理とは、S21で分割された
各領域間の擬似包括量を求める処理である。まず、情報
提供サーバ1は、分割された各領域に識別番号を付与す
ることによりラベル(閉領域)毎のエリアとして再構成
する。この結果、図10に示す様に、ラベルL1(白色
エリア)、ラベルL2(青色エリア)、ラベルL3(黄
色エリア)が生成されたものとする。なお、識別番号
は、分割された閉領域毎に付与されるので、同色のエリ
アが必ずしも同一のラベルであるとは限らない。
Regarding the pseudo inclusive amount calculation process of S23,
Since this is a characteristic image analysis technique for realizing the imaged object determination according to the present invention, it will be described in detail below with reference to FIGS. 10 to 12. The pseudo inclusion amount calculation process is a process of obtaining the pseudo inclusion amount between the regions divided in S21. First, the information providing server 1 reconfigures an area for each label (closed area) by giving an identification number to each divided area. As a result, as shown in FIG. 10, it is assumed that the label L1 (white area), the label L2 (blue area), and the label L3 (yellow area) are generated. Since the identification number is given to each of the divided closed areas, the areas of the same color do not always have the same label.

【0054】続いて、情報提供サーバ1は、基点P
i(Xi,Yi)を画像データP(m_n)上で複数の方向
(例えば、上下左右の4方向)に移動させ、複数の方向
全てに同一のラベルを検出した場合には、当該ラベルに
基点Piのラベルが擬似包括されていると判断する。そ
して、擬似包括するラベルの色と擬似包括されるラベル
の色との組合せを計数し、計数結果を擬似包括量とす
る。なお、基点Piの移動方向は、縦横に限らず斜め等
任意である。
Subsequently, the information providing server 1 determines that the base point P
When i (X i , Y i ) is moved in a plurality of directions (for example, four directions of up, down, left and right) on the image data P (m_n) and the same label is detected in all of the plurality of directions, the label It is determined that the label of the base point P i is included in pseudo. Then, the combination of the color of the pseudo-included label and the color of the pseudo-included label is counted, and the count result is set as the pseudo-included amount. The movement direction of the base point P i is not limited to vertical and horizontal directions, but may be any direction such as diagonal direction.

【0055】詳細には、図11に示す様に、基点P1
関しては、基点P1の上、下、右側には異なるラベルが
存在せず、基点P1の左側にのみ異なるラベル(ラベル
L2)が存在する。したがって、ラベルL2の識別番号
である"2"を、基点より左側に対応する項目D1に記録
する。
[0055] Specifically, as shown in FIG. 11, with respect to the base point P 1, on the base points P 1, below, there is no different labels on the right, only the different labels on the left side of the base point P 1 (label L2 ) Exists. Therefore, the identification number "2" of the label L2 is recorded in the item D1 corresponding to the left side of the base point.

【0056】図10に戻り、基点Piは、基点P1以外の
基点に関する擬似包括量を算出するため、一点鎖線の矢
印Yに示す様に画像データP(m_n)内を順次移動す
る。なお、基点Piの移動間隔は、連続的、離散的(例
えば5ピクセル間隔)の何れでもよい。また、基点Pi
は、直線的に移動するとは限らず、曲線的あるいはラン
ダムに移動するものとしてもよい。
Returning to FIG. 10, the base point P i is sequentially moved in the image data P (m_n) as indicated by the dashed line arrow Y in order to calculate the pseudo inclusion amount with respect to the base point other than the base point P 1 . The movement interval of the base points P i may be continuous or discrete (for example, 5 pixel intervals). Also, the base point P i
Does not always move linearly, but may move curvilinearly or randomly.

【0057】基点Piが図10に示す基点P2の位置に移
動すると、基点P2に関する擬似包括量算出処理が実行
される。すなわち、基点P2の上、下、左側には異なる
ラベル(ラベルL1)が存在し、基点P2の下側には異
なるラベル(ラベルL1,L3)が存在する。したがっ
て、項目D2,D3,D5には"1"が記録され、項目D
4には"1,3"が記録される。以下、基点P3〜P6に関
しても同様の処理を実行する。
When the base point P i moves to the position of the base point P 2 shown in FIG. 10, the pseudo comprehensive amount calculation process for the base point P 2 is executed. In other words, on the base point P 2, below, there are different labels (label L1) is on the left, there are different labels (labels L1, L3) on the lower side of the base point P 2. Therefore, "1" is recorded in items D2, D3, and D5, and item D
In "4", "1, 3" is recorded. Hereinafter, similar processing is executed for the base points P 3 to P 6 .

【0058】続いて、基点P1〜P6に関して、上下左右
の各方向に存在したラベルの識別番号の論理積をとり、
4方向全てに存在したラベルの識別番号を抽出する。抽
出された識別番号は、図11に示す4方向(Du&Dr&
Dd&Dl)の項目D6の対応する領域にそれぞれ格納さ
れる。
Subsequently, with respect to the base points P 1 to P 6 , the logical product of the identification numbers of the labels existing in the up, down, left and right directions is obtained,
The identification numbers of the labels existing in all four directions are extracted. The extracted identification numbers correspond to the four directions (Du & Dr &
Dd & Dl) are stored in the corresponding areas of the item D6.

【0059】例えば、基点P1に関して、上下左右の全
方向に存在したラベルは存在しないので、4方向の項目
の基点P1に対応する項目には、ラベルが存在しないこ
とを示す"−"が記録される。以下同様に、基点P2に関
して、上下左右の全方向に存在したラベルはラベルL1
であるので、4方向の項目の基点P2に対応する項目に
は、"ラベルL1"が記録される。更に、基点P5に関し
ては、上下左右の全方向に存在したラベルはラベルL
1,L2であるので、4方向の項目の基点P5に対応す
る項目には、"ラベルL1,L2"が記録される。その結
果、図11に示す様に、擬似包括するラベルと擬似包括
されるラベルとの対応関係が決定する。
For example, with respect to the base point P 1 , there is no label existing in all directions of up, down, left, and right, so that "-" indicating that there is no label is present in the item corresponding to the base point P 1 of the four directions. Will be recorded. Similarly, with respect to the base point P 2 , the labels existing in all the directions of up, down, left and right are the labels L1.
Therefore, "label L1" is recorded in the item corresponding to the base point P 2 of the items in the four directions. Further, with respect to the base point P 5 , the labels existing in all the directions of up, down, left and right are the labels L.
1 and L2, "labels L1 and L2" are recorded in the item corresponding to the base point P 5 of the items in four directions. As a result, as shown in FIG. 11, the corresponding relationship between the pseudo inclusion label and the pseudo inclusion label is determined.

【0060】図12は、基点P1〜P6に関して、擬似包
括される色と擬似包括する色との対応関係を示す図であ
る。例えば、図11のE11,E12を参照すると、ラ
ベルL2を擬似包括するラベルL1は各項目に1ずつ、
計2存在する。したがって、青色(図11のラベルL2
に対応)を擬似包括する白色(図11のラベルL1に対
応)の項目E1には、2×WOが記録(投票)される。
同様に、黄色(図11のラベルL3に対応)を擬似包括
する青色(図11のラベルL2に対応)の項目E2に
は、1×WOが記録される。なお、WOは、擬似包括量に
対して任意の重み付けを行う為に乗算される可変値であ
る。したがって、重み付けを行わない場合にはWO=1
が代入される。その結果、図12に示す様に、擬似包括
する色と擬似包括される色との対応関係が決定する。
FIG. 12 is a diagram showing a correspondence relationship between the pseudo inclusion color and the pseudo inclusion color with respect to the base points P 1 to P 6 . For example, referring to E11 and E12 in FIG. 11, the label L1 that pseudo-includes the label L2 is 1 for each item,
There are two in total. Therefore, the blue color (label L2 in FIG.
2 × W O is recorded (voted) in the white item E1 (corresponding to the label L1 in FIG. 11) that pseudo-includes (corresponding to the item).
Similarly, 1 × W O is recorded in a blue (corresponding to label L2 in FIG. 11) item E2 that pseudo-includes yellow (corresponding to label L3 in FIG. 11). Note that W O is a variable value that is multiplied to give arbitrary weighting to the pseudo inclusive amount. Therefore, when weighting is not performed, W O = 1
Is substituted. As a result, as shown in FIG. 12, the correspondence relationship between the pseudo inclusion color and the pseudo inclusion color is determined.

【0061】ここで、擬似接合量及び擬似包括量をベク
トル記述した場合の次元数について説明する。擬似接合
量をベクトル記述した場合の次元数は、k色の中から選
択される2色の組合せの数に相当する。また、同色同士
の組合せも当然に存在することを考慮して、{(k2
k)/2}+k=k(k+1)/2となる。したがっ
て、k=8の場合には、擬似接合量は36次元ベクトル
により表現される。これに対して、擬似包括量をベクト
ル記述した場合の次元数は、図12の図表から明らかな
様に、k×k=k2である。したがって、k=8の場合
には、擬似包括量は64次元ベクトルにより表現され
る。
Here, the number of dimensions when the pseudo-joint amount and the pseudo-inclusive amount are vector-described will be described. The number of dimensions when the pseudo joining amount is described by a vector corresponds to the number of combinations of two colors selected from k colors. In addition, considering that there naturally exists a combination of the same colors, {(k 2
k) / 2} + k = k (k + 1) / 2. Therefore, when k = 8, the pseudo-joint amount is represented by a 36-dimensional vector. On the other hand, the number of dimensions when the pseudo-inclusive amount is described by a vector is k × k = k 2 , as is apparent from the chart of FIG. Therefore, when k = 8, the pseudo inclusive quantity is represented by a 64-dimensional vector.

【0062】図8に戻り、S24の写像ベクトル生成処
理では、情報提供サーバ1は、S22で算出された擬似
接合量、及びS23で算出された擬似包括量にそれぞれ
重み付けの係数を乗算し、色空間写像特徴量としての写
像ベクトルV(m_n)を生成する。写像ベクトルV
(m_n)は、図7に示した様に、画像データP(m_
n)毎に1ベクトルずつ生成される。ここで、写像ベク
トルV(m_n)の次元数は、擬似接合量の次元数と擬
似包括量の次元数との和算により求められ、k=8の場
合には、36+64=100次元となる。
Returning to FIG. 8, in the mapping vector generation process of S24, the information providing server 1 multiplies the pseudo-joint amount calculated in S22 and the pseudo-inclusive amount calculated in S23 by a weighting coefficient to obtain the color. A mapping vector V (m_n) as a spatial mapping feature is generated. Mapping vector V
(M_n) is the image data P (m_n) as shown in FIG.
One vector is generated for each n). Here, the dimension number of the mapping vector V (m_n) is obtained by summing the dimension number of the pseudo-joint amount and the dimension number of the pseudo-inclusive amount, and when k = 8, 36 + 64 = 100 dimensions.

【0063】なお、情報提供サーバ1は、色空間写像特
徴量抽出処理において、S22の擬似接合量算出処理
と、S23の擬似包括量算出処理との処理の内、何れか
一方の処理のみ実行されるものとしてもよい。但し、こ
の場合における写像ベクトルV(m_n)の次元数は、
当然のことながら、算出された特徴量の次元数にのみ依
存する。すなわち、擬似接合量算出処理のみ実行された
場合には写像ベクトルV(m_n)の次元数は"k(k+
1)/2"次元、擬似包括量算出処理のみ実行された場
合には写像ベクトルV(m_n)の次元数は"k×k=k
2"により表される。
In the color space mapping feature amount extraction process, the information providing server 1 executes only one of the pseudo joint amount calculation process of S22 and the pseudo inclusion amount calculation process of S23. It may be one. However, the number of dimensions of the mapping vector V (m_n) in this case is
As a matter of course, it depends only on the number of dimensions of the calculated feature amount. That is, when only the pseudo-joint amount calculation process is executed, the number of dimensions of the mapping vector V (m_n) is "k (k +
1) / 2 "dimensions, the number of dimensions of the mapping vector V (m_n) is" k × k = k "when only the pseudo inclusive amount calculation process is executed.
2 ".

【0064】再び図6に戻り、情報提供サーバ1は、S
24で生成された写像ベクトルV(m_n)を1組(2
ベクトル)ずつ、高次元の特徴空間(以下、「高次元空
間」と記す。)に写像して、判別ベクトル及びバイアス
を生成する(S3)。写像ベクトルから判別ベクトル及
びバイアスを生成する処理に関しては、例えば、SVM
(Suport Vector Machine)、隠れマルコフモデル、ニ
ューラルネットワーク、決定木など様々な手法がある
が、本実施の形態では、汎化性能の優れ高次元ベクトル
の高速な二値判別処理に適したSVMを使用するものと
する。
Returning to FIG. 6 again, the information providing server 1 executes S
One set of mapping vectors V (m_n) generated in 24 (2
Each vector) is mapped to a high-dimensional feature space (hereinafter referred to as "high-dimensional space") to generate a discrimination vector and a bias (S3). Regarding the processing for generating the discrimination vector and the bias from the mapping vector, for example, SVM
There are various methods such as (Suport Vector Machine), hidden Markov model, neural network, and decision tree. In this embodiment, SVM suitable for high-speed binary discrimination processing of high-dimensional vector with excellent generalization performance is used. It shall be.

【0065】SVMは、文献"Support-Vector Network
s, Corinna Cortes,Vladimir Vapnik,Machine Learnin
g,20,pp.274-297,Mar.1995."等に記載の周知慣用技術で
あるので詳細な説明(数式を含む)は省略する。SVM
は、非線形の変換関数を用いて特徴ベクトル(写像ベク
トルV(m_n))を高次元空間に変換し、該高次元空
間で線形判別を行うアルゴリズムである。
SVM is based on the document "Support-Vector Network".
s, Corinna Cortes, Vladimir Vapnik, Machine Learnin
g, 20, pp.274-297, Mar. 1995. "and the like, which are well known conventional techniques, and detailed description (including mathematical formulas) is omitted.
Is an algorithm for converting a feature vector (mapping vector V (m_n)) into a high-dimensional space using a non-linear conversion function and performing linear discrimination in the high-dimensional space.

【0066】次いで、情報提供サーバ1は、図7に示す
様に、高次元空間S(m1,m2)において写像ベクトルV
(m_n)を分割する境界(図7の破線部K1〜K3)
をSVMのカーネル法により求めて、判別ベクトルVSV
(m1,m2)とバイアスb(m1,m2)を算定する。算定され
た判別ベクトル及びバイアスは、記憶部7の所定の領域
に格納される。図7において、例えば判別ベクトルVSV
(1,2)は、画像データP(1_n)と画像データP(2
_n)との何れが判別対象のデータ(撮像データ)と類
似するかを判別するためのベクトルである。バイアスb
(1,2)に関しても同様である。
Next, the information providing server 1, as shown in FIG. 7, maps the mapping vector V in the high-dimensional space S (m1, m2).
Boundary dividing (m_n) (broken lines K1 to K3 in FIG. 7)
Of the discriminant vector V SV
Calculate (m1, m2) and bias b (m1, m2). The calculated discriminant vector and bias are stored in a predetermined area of the storage unit 7. In FIG. 7, for example, the discrimination vector V SV
(1,2) is the image data P (1_n) and the image data P (2
_n) is a vector for determining which is similar to the determination target data (imaging data). Bias b
The same applies to (1,2).

【0067】なお、図7では、高次元空間S(1,2)に
おいて写像ベクトルV(1_n)と写像ベクトルV(2_
n)とを分割するという様に、1の画像データ(ハンバ
ーガの画像データ)に対応する写像ベクトルと、1の画
像データ(ナイフとフォークの画像データ)に対応する
写像ベクトルとを分割する例を示した。しかし、例え
ば、高次元空間S(1,2&3)において写像ベクトルV
(1_n)と、写像ベクトルV(2_n)及び写像ベクト
ルV(3_n)とを分割するという様に、1の画像デー
タに対応する写像ベクトルと、それ以外の画像データに
対応する写像ベクトルとを分割するものとしてもよい。
In FIG. 7, the mapping vector V (1_n) and the mapping vector V (2_2 in the high-dimensional space S (1,2) are used.
n) and an example in which a mapping vector corresponding to one image data (hamburger image data) and a mapping vector corresponding to one image data (knife and fork image data) are divided. Indicated. However, for example, in the high-dimensional space S (1,2 & 3), the mapping vector V
(1_n) is divided into the mapping vector V (2_n) and the mapping vector V (3_n), and the mapping vector corresponding to one image data and the mapping vector corresponding to other image data are divided. It may be done.

【0068】S3の処理は、必ずしも全ての画像データ
の組合せに関して行う必要はなく、サービス範囲が地理
的に重なる撮像対象の画像データの組合せに関してのみ
行えばよい。この理由を以下に説明する。複数のサービ
ス範囲が相互に重なる領域をもたない場合には、サービ
ス範囲の何れかに位置する携帯電話10のユーザが撮像
可能な看板は1つに特定される。したがって、情報提供
サーバ1に既に登録されている複数の画像データの中か
ら、撮像データに類似する画像データを判別する処理は
不要となる。このため、撮像対象を高速に判別するため
には、重なる領域の有無を判別することが有効である。
The process of S3 does not necessarily have to be performed for all combinations of image data, but may be performed only for combinations of image data of imaging targets whose service ranges geographically overlap. The reason for this will be described below. If the plurality of service ranges do not have areas that overlap each other, the number of signboards that the user of the mobile phone 10 located in any of the service ranges can image is specified as one. Therefore, the process of discriminating the image data similar to the imaged data from the plurality of image data already registered in the information providing server 1 becomes unnecessary. Therefore, it is effective to determine the presence or absence of overlapping areas in order to quickly determine the imaging target.

【0069】そこで、図13を参照して、位置Pm1,P
m2に設けられた2つの看板のサービス範囲について、重
なる領域の有無を判定する方法について説明する。Pm1
(X m1,Ym1)とPm2(Xm2,Ym2)と間の距離D
m1,m2は、Dm1,m2=√{(Xm1−Xm22+(Xm1−X
m2)}2[m]と表される。このとき、上記2つの看板
のサービス範囲の半径がそれぞれRm1',Rm2'であると
すると、これら2つの看板のサービス範囲が重なり合う
(接する場合を含む)条件は、Dm1,m2≦Rm1'+Rm2'
である。したがって、Dm1,m2≦Rm1'+Rm2'を満たす
場合にのみ、2つの看板に関して判別ベクトル及びバイ
アスの生成処理を実行すれば充分である。
Therefore, referring to FIG. 13, the position Pm1, P
m2Regarding the service range of the two signboards installed in
A method for determining the presence / absence of the area will be described. Pm1
(X m1, Ym1) And Pm2(Xm2, Ym2) And the distance D
m1, m2Is Dm1, m2= √ {(Xm1-Xm2)2+ (Xm1-X
m2)}2It is expressed as [m]. At this time, the above two signs
Radius of each service range is Rm1', Rm2'Is
Then, the service ranges of these two signs overlap.
The condition (including contact) is Dm1, m2≤ Rm1'+ Rm2'
Is. Therefore, Dm1, m2≤ Rm1'+ Rm2Meet '
Only if the discrimination vector and buy
It suffices to carry out the process of generating asbestos.

【0070】また、情報提供サーバ1は、撮像対象判別
に先立って、各画像データ間における撮像データとの類
似性を判別するためのデータとして判別ベクトル及びバ
イアスを生成し記憶部7に格納しておく。すなわち、上
述した様に、撮像対象の判別には多数の画像データP
(m_n)が必要となるが、これら全ての画像データ自
体(提示用の画像データを除く)を必ずしも格納してお
く必要はない。これにより、データの管理が容易にな
る。
Further, the information providing server 1 generates a discrimination vector and a bias as data for discriminating the similarity between the image data and the image pickup data prior to discriminating the image pickup object, and stores them in the storage unit 7. deep. That is, as described above, a large number of image data P are used to determine the imaging target.
(M_n) is required, but it is not always necessary to store all of these image data themselves (excluding image data for presentation). This facilitates data management.

【0071】また、ユーザがアクセス可能な情報の網羅
性と多様性を向上するために、撮像対象を追加(又は削
除)する場合には、撮像対象のサービス範囲と重なる領
域に関するデータ(判別ベクトル及びバイアス)のみ更
新すればよい。これにより、撮像対象の更新が容易にな
り、サービス範囲に切れ目が無く柔軟の高い情報提供シ
ステムを構築できる。
When an image pickup target is added (or deleted) in order to improve the completeness and variety of information accessible by the user, data (discrimination vector and discrimination vector) relating to an area overlapping the service range of the image pickup target is added. Only the bias) needs to be updated. As a result, it is possible to easily update the imaging target, and it is possible to construct a highly flexible information providing system with no break in the service range.

【0072】画像学習フェーズが終了すると、撮像対象
判別フェーズに移行する。まず、図6のS4では、携帯
電話10は、撮像対象としての看板A2を撮像装置16
により撮像する。看板A2は、表示装置14の表示領域
一杯に収まる様に撮像される。これにより、撮像対象と
撮像データとの相関値が高まり、撮像データを加工する
ことなく画像特徴量に変換し判別に使用することができ
る。これにより、対象判別の正解率が向上する。
When the image learning phase is completed, the process shifts to the imaging object discrimination phase. First, in step S4 of FIG. 6, the mobile phone 10 sets the signboard A2 as an image pickup target to the image pickup device 16
To image. The signboard A2 is imaged so as to fill the display area of the display device 14. Thereby, the correlation value between the imaged object and the imaged data is increased, and the imaged data can be converted into the image feature amount and used for the determination without being processed. As a result, the accuracy rate of object discrimination is improved.

【0073】撮像対象を撮像する際に、撮像対象の縦横
比が表示領域の縦横比と合わない事も懸念されるが、縦
横の内、何れか一方の辺が表示領域と合うように撮像す
れば、撮像対象の背景を含む撮像データが取得される。
画像データに関しても、画像学習フェーズにおいて、同
様の撮像方法にて取得しておくことにより、撮像データ
から撮像対象を部分的に切り出すことなく、対象判別が
可能となる。
When the image pickup target is picked up, it is feared that the aspect ratio of the image pickup target does not match the aspect ratio of the display area. However, if the image pickup is performed so that either one of the vertical and horizontal sides matches the display area. For example, the imaging data including the background of the imaging target is acquired.
Regarding image data as well, in the image learning phase, if the same image capturing method is used, the target determination can be performed without partially cutting out the image capturing target from the image capturing data.

【0074】S5では、携帯電話10は、位置推定装置
18により携帯電話10の現在位置として図14に示す
Uを推定する。S6では、携帯電話10は、S4で取
得された撮像データとS5で推定された撮像位置PU
示す位置情報とを情報提供サーバ1に送信する。なお、
位置情報は、例えばGPS座標であり、位置推定方法の
種類や位置推定誤差を含むものとしてもよい。S7で
は、情報提供サーバ1は、撮像データと位置情報とを携
帯電話10から受信する。
In S5, the mobile phone 10 estimates P U shown in FIG. 14 as the current position of the mobile phone 10 by the position estimation device 18. In S6, the mobile phone 10 transmits the image pickup data acquired in S4 and the position information indicating the image pickup position P U estimated in S5 to the information providing server 1. In addition,
The position information is, for example, GPS coordinates, and may include the type of position estimation method and position estimation error. In S7, the information providing server 1 receives the imaging data and the position information from the mobile phone 10.

【0075】S8では、情報提供サーバ1は、S7で受
信された位置情報に基づいて、位置情報の示す撮像位置
Uを含むサービス範囲C1,C2,C3を選定する。
S9では、情報提供サーバ1は、S8で選定されたサー
ビス範囲C1,C2,C3の画像データP(1_n),
P(2_n),P(3_n)に対応する判別ベクトル及び
バイアスを記憶部7から抽出する。判別ベクトル及びバ
イアスは、携帯電話10による位置推定誤差を考慮して
抽出される。これにより、撮像位置PUで撮像されるこ
とのない撮像対象に関する判別ベクトルが抽出されるこ
とがなく、判別処理の効率化を図ることができる。
In S8, the information providing server 1 selects the service ranges C1, C2, C3 including the image pickup position P U indicated by the position information, based on the position information received in S7.
In S9, the information providing server 1 determines the image data P (1_n) of the service range C1, C2, C3 selected in S8,
The discriminant vectors and biases corresponding to P (2_n) and P (3_n) are extracted from the storage unit 7. The discrimination vector and the bias are extracted in consideration of the position estimation error of the mobile phone 10. As a result, the discrimination vector regarding the imaging target that is not imaged at the imaging position P U is not extracted, and the efficiency of the discrimination process can be improved.

【0076】すなわちS9では、図14に示す様に、サ
ービス範囲C1,C2は相互に重なり合う領域を有する
ので、判別ベクトルVSV(1, 2)及びバイアスb(1,
2)が抽出される。サービス範囲C1,C3も相互に重
なり合う領域を有するので、判別ベクトルVSV(1,3)
及びバイアスb(1,3)が抽出される。同様に、サービ
ス範囲C2,C3に関しても相互に重なり合う領域を有
するので、判別ベクトルV SV(1,3)及びバイアスb
(2,3)が抽出される。
That is, in S9, as shown in FIG.
The service areas C1 and C2 have areas overlapping with each other.
Therefore, the discrimination vector VSV(1, 2) and bias b (1,
2) is extracted. Service ranges C1 and C3 also overlap each other
The discriminant vector V has an overlapping area.SV(1,3)
And the bias b (1,3) are extracted. Similarly, service
The areas C2 and C3 also have areas that overlap each other.
Therefore, the discrimination vector V SV(1,3) and bias b
(2,3) is extracted.

【0077】S10では、情報提供サーバ1は、S7で
受信された撮像データから写像ベクトルを生成する。当
該処理は、画像データと同様の色空間写像特徴量抽出処
理(S21〜S24)を撮像データに対して実行するこ
とにより可能である。詳細な処理内容については既述の
ため省略する。その結果、図15に示す様に、撮像デー
タP(cap)から写像ベクトルV(cap)が生成される。
ここで(cap)は、その記号によって示されるデータが
撮像データに関するものであることを示し、画像データ
P(m_n)に関するデータと区別したものである。
In S10, the information providing server 1 generates a mapping vector from the image pickup data received in S7. The processing can be performed by executing the same color space mapping feature amount extraction processing (S21 to S24) as the image data on the imaged data. Detailed processing contents are omitted because they have already been described. As a result, as shown in FIG. 15, a mapping vector V (cap) is generated from the imaged data P (cap).
Here, (cap) indicates that the data indicated by the symbol relates to imaging data, and is distinguished from the data regarding image data P (m_n).

【0078】なお、S10の処理、すなわち撮像データ
から写像ベクトルを生成する処理を携帯電話10が行
い、生成された写像ベクトルを情報提供サーバ1に送信
してもよい。これにより、携帯電話10の処理負荷が増
える反面、通信容量を低減できるというメリットがる。
The mobile phone 10 may perform the processing of S10, that is, the processing of generating the mapping vector from the imaged data, and transmit the generated mapping vector to the information providing server 1. As a result, the processing load of the mobile phone 10 increases, but the communication capacity can be reduced.

【0079】S11では、情報提供サーバ1は、S9で
抽出された判別ベクトルとS10で生成された写像ベク
トルとに基づいて撮像対象を判別する。具体的には、判
別ベクトルVSV(1,2)と写像ベクトルV(cap)との内
積をとってスカラ値とし、これにバイアスb(1,2)を
加算する。加算結果が0以上であれば看板A1の画像デ
ータ(1_n)に"1"が投票され、加算結果が0未満で
あれば看板A2の画像データ(2_n)に"1"が投票さ
れる。
In S11, the information providing server 1 discriminates the object to be imaged based on the discrimination vector extracted in S9 and the mapping vector generated in S10. Specifically, the scalar product is obtained by taking the inner product of the discrimination vector V SV (1,2) and the mapping vector V (cap), and the bias b (1,2) is added to this. If the addition result is 0 or more, "1" is voted for the image data (1_n) of the signboard A1, and if the addition result is less than 0, "1" is voted for the image data (2_n) of the signboard A2.

【0080】以下、判別ベクトルVSV(1,3),V
SV(2,3)に関しても、同様の処理を繰り返す。すなわ
ち、判別ベクトルVSV(1,3)と写像ベクトルV(cap)
との内積をとってバイアスb(1,3)を加算する。加算
結果が0以上であれば看板A1の画像データに更に"1"
が投票され、加算結果が0未満であれば看板A3の画像
データに"1"が投票される。更に、判別ベクトルV
SV(2,3)と写像ベクトルV(cap)との内積をとってバ
イアスb(2,3)を加算する。加算結果が0以上であれ
ば看板A2の画像データに"1"が投票され、加算結果が
0未満であれば看板A3の画像データに"1"が投票され
る。
Below, the discrimination vectors V SV (1,3), V
The same process is repeated for SV (2,3). That is, the discrimination vector V SV (1,3) and the mapping vector V (cap)
The inner product of and and the bias b (1,3) are added. If the addition result is 0 or more, "1" is added to the image data of the signboard A1.
Is voted, and if the addition result is less than 0, "1" is voted for the image data of the signboard A3. Further, the discrimination vector V
The inner product of SV (2,3) and the mapping vector V (cap) is calculated, and the bias b (2,3) is added. If the addition result is 0 or more, "1" is voted for the image data of the signboard A2, and if the addition result is less than 0, "1" is voted for the image data of the signboard A3.

【0081】上記二値判別の結果、投票数の最も多い画
像データに対応する看板が撮像対象と判別される。ここ
で、画像学習フェーズにおいて登録された画像データの
種類をMとすると、二値判別の回数はM(M−1)/2
[回]となる。したがって、本実施形態の様に3種類の
画像データが登録されている場合には、二値判別の回数
は3回となる。なお、Mが4以上である場合には、投票
数の最も多い画像データに対応する看板に限らず、例え
ば投票数が3番以内の画像データに対応する複数の看板
を撮像対象の候補として選定してもよい。
As a result of the binary discrimination, the signboard corresponding to the image data having the largest number of votes is discriminated as the image pickup object. Here, when the type of image data registered in the image learning phase is M, the number of binary discriminations is M (M-1) / 2.
[Times]. Therefore, when three types of image data are registered as in the present embodiment, the number of binary discriminations is three. When M is 4 or more, the signboard is not limited to the signboard corresponding to the image data having the largest number of votes, and a plurality of signboards corresponding to the image data having the third largest votes are selected as candidates for the imaging target. You may.

【0082】この様に、擬似接合量に基づく撮像対象の
判別、及び擬似包括量に基づく撮像対象の判別は、共に
撮像データの色に関する特徴量を利用している。したが
って、他の特徴量(周期性、形状、テクスチャ、エッ
ジ、テクスチャエッジ等)に基づく撮像対象の判別と比
較して、撮像位置のずれに起因する射影歪みや撮像方向
の影響を受け難い。特に、人工物である看板に関して
は、作成者が他者に情報を効果的に伝える為に複数の色
で塗り分けられていることが多いので、配色や色の配置
関係に関わる特徴量を使用することが好適である。ま
た、本実施の形態における撮像対象の判別に際しては、
撮像対象が何であるかを認識する必要がないので、撮像
対象を問わない。更に、擬似接合量と擬似包括量とを組
み合わせることで判別精度が向上する等の利点がある。
As described above, both the discrimination of the image pickup target based on the pseudo-joint amount and the discrimination of the image pickup target based on the pseudo inclusion amount use the feature amount regarding the color of the image pickup data. Therefore, compared to the determination of the imaging target based on other feature amounts (periodicity, shape, texture, edge, texture edge, etc.), it is less likely to be affected by the projective distortion and the imaging direction due to the deviation of the imaging position. In particular, for signboards that are artifacts, since the creators are often painted in multiple colors to effectively convey information to others, use the feature values related to the color arrangement and color arrangement relationship. Is preferred. Further, when determining the imaging target in the present embodiment,
Since it is not necessary to recognize what the imaging target is, the imaging target does not matter. Further, there is an advantage that the discrimination accuracy is improved by combining the pseudo joining amount and the pseudo inclusion amount.

【0083】撮像対象判別フェーズが終了すると、情報
提示フェーズに移行する。まず、図6のS12では、情
報提供サーバ1は、S11の判別結果に基づいて、画像
データとその関連情報をデータベース71から抽出す
る。このとき、画像データと関連情報の何れか一方のみ
抽出するものとしてもよい。S13では、情報提供サー
バ1は、抽出された画像データと関連情報とを携帯電話
10に送信する。
When the imaging object discrimination phase ends, the information presentation phase starts. First, in S12 of FIG. 6, the information providing server 1 extracts the image data and its related information from the database 71 based on the determination result of S11. At this time, only one of the image data and the related information may be extracted. In S13, the information providing server 1 transmits the extracted image data and related information to the mobile phone 10.

【0084】S14では、携帯電話10は、情報提供サ
ーバ1から送信された画像データと関連情報とを受信す
る。S15では、携帯電話10は、S14で受信された
画像データと関連情報とを表示装置14に表示させ、一
連の情報提供処理を終了する。
At S14, the mobile phone 10 receives the image data and the related information transmitted from the information providing server 1. In S15, the mobile phone 10 displays the image data and the related information received in S14 on the display device 14, and ends the series of information providing processing.

【0085】S15において表示される関連情報は、例
えば、店名、営業時間であるが、この他にもハイパーリ
ンク情報やキーワード情報を表示してもよい。ハイパー
リンク情報は、ネットワークNを経由してアドレスによ
り指定された他の情報源(Webサイト等)にアクセス
可能な情報である。キーワード情報は、関連キーワード
を利用した検索により更に多くの関連情報を取得可能な
情報である。また、関連情報を自動的にブックマークす
る機能を追加すれば、カテゴリ(例えば、関連情報がハ
ンバーガショップの場合には飲食店)による分類や管理
が可能となり、関連情報の再利用も容易になる。
The related information displayed in S15 is, for example, a store name and business hours, but other than this, hyperlink information or keyword information may be displayed. The hyperlink information is information that enables access to another information source (Web site or the like) designated by the address via the network N. The keyword information is information that allows more relevant information to be obtained by a search using the related keyword. Further, if a function of automatically bookmarking related information is added, classification and management by category (for example, a restaurant when the related information is a hamburger shop) becomes possible, and reuse of related information becomes easy.

【0086】なお、S15で提示される情報の形態は、
例えば、文字、静止画、動画、音声など任意である。提
示される情報は、上記撮像データに基づいて選定される
ので、携帯電話10のユーザは、情報の取得に際して文
字や数字のキー入力操作を行う必要がない。したがっ
て、当該操作に伴う手間や時間が節減され、所望情報の
取得時における携帯電話の操作性が向上する。
The form of the information presented in S15 is
For example, characters, still images, moving images, audio, etc. are arbitrary. Since the information to be presented is selected based on the above-mentioned image pickup data, the user of the mobile phone 10 does not need to perform a key or numeral input operation when acquiring the information. Therefore, the labor and time involved in the operation are saved, and the operability of the mobile phone at the time of obtaining the desired information is improved.

【0087】以上説明した様に、本発明に係る情報提供
システム100によれば、情報提供サーバ1のデータベ
ース71には、画像データと関連情報とが対応付けて登
録されている。情報提供サーバ1は、携帯電話10によ
って撮影された撮像データの取得に伴って当該撮像デー
タと最も類似する画像データを判別し、その画像データ
に対応する情報を検索して提示する。画像データの判別
方法としては、例えば、撮像データから取得された色領
域の接合量・包括量に基づく色空間写像特徴量を抽出
し、既存の画像データの色空間写像特徴量と比較する方
法を用いる。色空間写像特徴量は、画像歪みや撮像位置
のずれ等の影響が少ないので高精度な対象判別に資す
る。
As described above, according to the information providing system 100 of the present invention, the image data and the related information are registered in the database 71 of the information providing server 1 in association with each other. The information providing server 1 discriminates the image data most similar to the imaged data with the acquisition of the imaged data captured by the mobile phone 10, retrieves and presents the information corresponding to the image data. As a method of discriminating image data, for example, a method of extracting a color space mapping feature amount based on the joining amount / inclusive amount of color regions acquired from the imaged data and comparing it with the color space mapping feature amount of existing image data is used. To use. The color space mapping feature amount contributes to highly accurate target determination because it is less affected by image distortion, image pickup position shift, and the like.

【0088】また、携帯電話10のユーザは、所望する
情報に関する知識が不足する場合、或いは忘れた場合な
どにも、周囲の対象物を撮影して送信するという簡単な
操作で所望する情報を容易に入手できる。更に、ユーザ
が自由に携帯可能な端末によって、実世界やネットワー
ク内に混在する多種多様な情報の中から、ユーザの嗜好
や目的に合致する情報のみをタイムリーに取得できる。
その結果、情報の行き交うネットワークと携帯電話のユ
ーザとの親和性が高まり、個々人に適合する情報サービ
スを提供できる。
Further, even when the user of the mobile phone 10 lacks knowledge about desired information or forgets it, he / she can easily obtain the desired information by a simple operation of photographing and transmitting the surrounding object. Available at. Further, the terminal that the user can freely carry can timely acquire only the information that matches the taste and purpose of the user from a wide variety of information mixed in the real world and the network.
As a result, the affinity between the network where information is exchanged and the user of the mobile phone is increased, and it is possible to provide the information service that suits the individual.

【0089】情報検索の網羅性及び利便性を向上するに
は、サービスが提供される範囲は広いことが望ましい。
ところが、サービス提供範囲を広げ過ぎると、撮像対象
が増加し情報の検索時間が膨大になる。そこで、携帯電
話10により撮像対象が撮像された位置に基づいて、撮
像対象の候補数を一旦絞り込むことにより、ユーザの現
在位置と撮像データとを組み合わせた情報検索が可能と
なる。これにより、検索時間の短縮を図ったものであ
る。
In order to improve the completeness and convenience of information retrieval, it is desirable that the service is provided in a wide range.
However, if the service provision range is expanded too much, the number of imaging targets increases and the information retrieval time becomes huge. Therefore, by once narrowing down the number of candidates for the imaging target based on the position where the imaging target is imaged by the mobile phone 10, it is possible to perform an information search that combines the current position of the user and the imaging data. As a result, the search time is shortened.

【0090】撮像対象は、携帯電話10による撮像及び
電子データ化の可能な物体であればよいが、例えば、看
板やポスターが好適である。その理由は以下に示す通り
である。第1に、ユーザが選択した看板は、ユーザの嗜
好や利用目的に合致したものである可能性が高い。第2
に、看板によって宣伝されている情報は、インターネッ
ト等のネットワーク上にも関連情報が多数存在する。第
3に、看板の大半は、地理的な位置が固定されており、
位置情報の把握が容易である。第4に、可搬性の高い携
帯端末の主な利用場所として想定される屋外に多数存在
する。
The object to be imaged may be any object that can be imaged by the mobile phone 10 and converted into electronic data, and for example, a signboard or a poster is suitable. The reason is as follows. First, the signboard selected by the user is likely to match the user's taste and purpose of use. Second
In addition, as for the information advertised by the signboard, a lot of related information exists on networks such as the Internet. Third, most of the signs have a fixed geographic location,
It is easy to grasp the position information. Fourthly, there are a large number of outdoors, which are supposed to be the main places of use of highly portable mobile terminals.

【0091】(第2の実施の形態)次に、携帯電話10
が情報提供サーバ1との通信を不要とするモード(以
下、「オフラインモード」と記す。)を情報提供システ
ムに適用した第2の実施形態について説明する。
(Second Embodiment) Next, the mobile phone 10
A second embodiment in which a mode in which communication with the information providing server 1 is unnecessary (hereinafter, referred to as “offline mode”) is applied to the information providing system will be described.

【0092】前提として、オンラインモードとオフライ
ンモードとの相違点を明確にする。図16は、オンライ
ンモードとオフラインモードとの特徴を比較して、各モ
ード間の相違を示す図である。図16に示す様に、オン
ラインモードとは、情報提供サーバ1との通信が必要な
モードであり、携帯電話10によって推定された精確な
位置が情報提供サーバ1に通知されるので広域な屋外で
の使用に適している。
As a premise, the difference between the online mode and the offline mode is clarified. FIG. 16 is a diagram showing differences between the modes by comparing the features of the online mode and the offline mode. As shown in FIG. 16, the online mode is a mode in which communication with the information providing server 1 is required, and since the accurate position estimated by the mobile phone 10 is notified to the information providing server 1, it can be used outdoors in a wide area. Suitable for use.

【0093】これに対して、オフラインモードとは、情
報提供サーバ1との通信が不要なモードであり、主に特
定エリア(エリアID等の通知をトリガとして、当該エ
リア特有の関連情報が送信されるセルやサービスエリ
ア)での使用に適している。特定エリアには、建物の屋
内を含む。同時に、オフラインモードは、情報提供サー
バ1と通信できない圏外での使用をも想定したものであ
る。これら各モードを、ユーザの居所に応じて適宜切り
替えて使用することにより、本発明に係る撮像対象判別
技術を広範囲で提供できる。
On the other hand, the off-line mode is a mode in which communication with the information providing server 1 is unnecessary, and the related information peculiar to the area is mainly transmitted by using a notification of a specific area (area ID etc. as a trigger). Cell or service area). The specific area includes the inside of the building. At the same time, the offline mode is intended for use outside the service area where the information providing server 1 cannot communicate. By appropriately switching and using each of these modes according to the location of the user, it is possible to provide the imaging target determination technology according to the present invention in a wide range.

【0094】まず、第2の実施形態における情報提供シ
ステムの構成を説明する。図17は、本実施形態におけ
る情報提供システム200の全体構成の一例を示す模式
図である。図17に示す様に、情報提供システム200
は、データ提供装置201と携帯電話210(画像判別
装置に対応)とにより概略構成されている。データ提供
装置201は、アクセスポイントB201に有線接続さ
れている。更に、携帯電話210は、アクセスポイント
B201と無線通信可能である。したがって、携帯電話
210は、アクセスポイントB201を経由して、情報
提供サーバ201と相互に情報の送受信が可能である。
First, the configuration of the information providing system in the second embodiment will be described. FIG. 17 is a schematic diagram showing an example of the overall configuration of the information providing system 200 in this embodiment. As shown in FIG. 17, the information providing system 200
Is roughly configured by a data providing device 201 and a mobile phone 210 (corresponding to an image discrimination device). The data providing apparatus 201 is wire-connected to the access point B201. Furthermore, the mobile phone 210 can wirelessly communicate with the access point B201. Therefore, the mobile phone 210 can exchange information with the information providing server 201 via the access point B201.

【0095】データ提供装置201の基本的構成は、第
1の実施形態において詳細に説明した情報提供サーバ1
の構成と同様であるので、各構成部分には同列の符号を
付し、その構成の図示及び説明は省略する。すなわち、
データ提供装置201は、CPU202、入力部20
3、表示部204、通信制御部205、RAM206、
及び記憶部207により構成され、各部はバスにより接
続されている。
The basic configuration of the data providing apparatus 201 is the information providing server 1 described in detail in the first embodiment.
Since the configuration is the same as that of 1., each component is denoted by the same reference numeral, and the illustration and description of the configuration are omitted. That is,
The data providing device 201 includes a CPU 202 and an input unit 20.
3, display unit 204, communication control unit 205, RAM 206,
And a storage unit 207, and each unit is connected by a bus.

【0096】記憶部207はデータベース217を有す
る。データベース217には、特定エリアZ内で撮像可
能な全ての撮像対象A21〜A28の画像データと関連
情報とが予め対応付けて格納されている。また、データ
ベース217には、上記画像データの中から撮像データ
に類似する画像データを判別するための判別ベクトル及
びバイアス(以下、纏めて「判別データ」と記す。)が
格納されている。但し、第1の実施形態とは異なり、サ
ービス範囲を示すデータは、データベース217に格納
されていない。
The storage unit 207 has a database 217. In the database 217, image data of all the imaging targets A21 to A28 that can be imaged in the specific area Z and related information are stored in advance in association with each other. Further, the database 217 stores a discrimination vector and a bias (hereinafter collectively referred to as “discrimination data”) for discriminating image data similar to the imaged data from the image data. However, unlike the first embodiment, the data indicating the service range is not stored in the database 217.

【0097】携帯電話210の基本的構成は、位置推定
装置を備えない点を除き、第1の実施形態で詳細に説明
した携帯電話10の構成と同様であるので、各構成部分
には同列の符号を付し、その構成の図示及び説明は省略
する。すなわち、携帯電話210は、制御装置211
(分割手段、接合量算出手段、包括量算出手段、及び生
成手段に対応)、入力装置212、RAM213、表示
装置214、記憶装置215、撮像装置216、無線通
信装置217、及び音声処理装置219を備えて構成さ
れる。また、これら各装置は、それぞれバスを介して相
互に各種信号の入出力が可能な様に電気的に接続されて
いる。
The basic structure of the mobile phone 210 is the same as that of the mobile phone 10 described in detail in the first embodiment except that the position estimating device is not provided. The reference numerals are assigned and the illustration and description of the configuration are omitted. That is, the mobile phone 210 has the control device 211.
(Corresponding to the dividing unit, the joining amount calculating unit, the comprehensive amount calculating unit, and the generating unit), the input device 212, the RAM 213, the display device 214, the storage device 215, the imaging device 216, the wireless communication device 217, and the voice processing device 219. It is equipped with. Further, these respective devices are electrically connected to each other via a bus so that various signals can be input and output.

【0098】次いで、図18を参照して、本発明の第2
の実施形態における情報提供システムの動作について説
明し、併せて、本発明に係る画像判別方法について説明
する。以下に示す各工程は、記憶部207或いは制御装
置211に格納されているプログラムが、CPU202
或いは制御装置211によって実行されることにより実
現する。
Next, referring to FIG. 18, the second embodiment of the present invention will be described.
The operation of the information providing system in the embodiment will be described, and also the image discrimination method according to the present invention will be described. In each step shown below, the program stored in the storage unit 207 or the control device 211 is executed by the CPU 202.
Alternatively, it is realized by being executed by the control device 211.

【0099】T1〜T3の各処理は、第1の実施形態に
おいて詳述した図6のS1〜S3と同様であるので、そ
の説明は省略する。T4では、携帯電話210からデー
タ提供装置201に対して、データベース217に格納
されているデータの送信要求が送信される。特定エリア
Zの入口F付近に設置されたアクセスポイントB201
からは、通知情報が常時発信されている。データの送信
要求は、携帯電話210がこの通知情報を基に、撮像対
象判別用のアプリケーション(以下、「判別アプリケー
ション」と記す。)の存在を検知した場合に、携帯電話
210に自動的に送信される。なお、データの送信要求
は、携帯電話210のユーザが判別アプリケーションの
取得を指示する操作を行った場合に送信されるものとし
てもよい。
Since each processing of T1 to T3 is the same as S1 to S3 of FIG. 6 described in detail in the first embodiment, the description thereof will be omitted. At T4, a transmission request for the data stored in the database 217 is transmitted from the mobile phone 210 to the data providing apparatus 201. Access point B201 installed near entrance F of specific area Z
The notification information is always sent from. The data transmission request is automatically transmitted to the mobile phone 210 when the mobile phone 210 detects the presence of an application for discriminating an imaging target (hereinafter referred to as “discrimination application”) based on the notification information. To be done. Note that the data transmission request may be transmitted when the user of the mobile phone 210 performs an operation for instructing acquisition of the determination application.

【0100】T5では、データ提供装置201は、アク
セスポイントB201を経由したデータ送信要求の受信
に伴い、データベース217から判別アプリケーション
と判別データとを取得する。同時に、画像データと関連
情報とが対応関係を維持してデータベース217から取
得される。T6では、データ提供装置201は、判別ア
プリケーション、判別データ、画像データ、及び関連情
報を携帯電話210に送信する。
At T5, the data providing apparatus 201 acquires the discrimination application and the discrimination data from the database 217 upon receiving the data transmission request via the access point B201. At the same time, the image data and the related information are acquired from the database 217 while maintaining the corresponding relationship. At T6, the data providing apparatus 201 transmits the discrimination application, the discrimination data, the image data, and the related information to the mobile phone 210.

【0101】T7では、携帯電話210は、判別アプリ
ケーション、判別データ、画像データ、及び関連情報
を、データ提供装置201からアクセスポイントB20
1を経由して受信(ダウンロード)する。なお、これら
のデータは、携帯電話210と他の携帯電話220,2
30との間で流通させてもよい。この様な携帯電話間に
おけるデータの流通は、データの利用目的が限定されて
いる場合に特に効果的である。
At T7, the mobile phone 210 sends the discrimination application, the discrimination data, the image data, and the related information from the data providing apparatus 201 to the access point B20.
Receive via 1 (download). Note that these data are stored in the mobile phone 210 and the other mobile phones 220, 2
It may be distributed between 30 and 30. Such distribution of data between mobile phones is particularly effective when the purpose of using the data is limited.

【0102】以降、T8〜T12の各処理は、図6を参
照して説明したS4,S10,S11,S12,S15
の各処理と同様であるので、詳細な説明は省略するが、
携帯電話210は、データ提供装置201から取得した
データを用いて、携帯電話210によるオフラインの撮
像対象判別処理を行う。
After that, each processing of T8 to T12 is performed in S4, S10, S11, S12 and S15 described with reference to FIG.
Since it is the same as each processing of, the detailed description is omitted.
The mobile phone 210 uses the data acquired from the data providing apparatus 201 to perform the offline imaging target determination processing by the mobile phone 210.

【0103】本実施の形態における情報取得処理は、本
発明に係る情報提供システムのオフラインモードでの利
用を想定したものである。オフラインモードでは、利用
エリアや利用目的が限定される反面、携帯電話のユーザ
はそのエリア(特定エリアZ)に確実に存在する。した
がって、携帯電話の位置推定処理や位置情報に基づく画
像データの絞込み処理を行う必要がなく、より即時性の
高い情報取得サービスをユーザに提供できる。
The information acquisition processing in the present embodiment is intended for use in the offline mode of the information providing system according to the present invention. In the off-line mode, the use area and the use purpose are limited, but the user of the mobile phone surely exists in the area (specific area Z). Therefore, it is not necessary to perform the position estimation process of the mobile phone and the process of narrowing down the image data based on the position information, and a more immediate information acquisition service can be provided to the user.

【0104】情報取得処理は、携帯電話210側で実行
されるので、記憶容量が懸念される。この点、1の判別
データの容量を4[byte]で管理し、1対(2つ)の撮像
対象の判別ベクトルVSVを96次元、バイアスbSVをス
カラにより表現する場合、100種類の撮像対象を判別
可能な判別データの容量は、(96[次元]+1)×4[b
yte]×1002=約2[MB]となる。
Since the information acquisition process is executed on the side of the mobile phone 210, the storage capacity is a concern. In this respect, when the capacity of the discrimination data of 1 is managed by 4 [byte] and the discrimination vector V SV of one pair (two) of the imaging target is expressed in 96 dimensions and the bias b SV is expressed by the scalar, 100 kinds of imaging The capacity of the discrimination data capable of discriminating the target is (96 [dimension] +1) × 4 [b
yte] × 100 C 2 = about 2 [MB].

【0105】なお、本実施形態における記述内容は、本
発明に係る携帯端末の好適な一例であり、これに限定さ
れるものではない。例えば、携帯電話10,210は、
PDA(Personal Digital Assistance)の様に、通信
機能を有する電子機器であればよい。
The description content in this embodiment is a preferred example of the mobile terminal according to the present invention, and the present invention is not limited to this. For example, the mobile phones 10 and 210 are
Any electronic device having a communication function such as a PDA (Personal Digital Assistance) may be used.

【0106】最後に、本発明に係る情報提供及び取得技
術を実現するためのプログラム、及び当該プログラムを
記録したコンピュータ読取り可能な記録媒体(以下、単
に「記録媒体」と記す。)について説明する。記録媒体
とは、汎用コンピュータ等のハードウェア資源に備えら
れている読取り装置に対して、プログラムの記述内容に
応じて、磁気、光、電気等のエネルギーの変化状態を引
き起こし、それに対応する信号の形式で、読取り装置に
プログラムの記述内容を伝達できるものである。かかる
記録媒体としては、例えば、UIM等のICカード、磁
気ディスク、光ディスク、光磁気ディスクの様にコンピ
ュータ(携帯電話、PHS等を含む)に着脱可能に装着
されるものの他に、コンピュータに固定的に内蔵される
HD(Hard Disk)や一体に固着されたファームウェア
等の不揮発性半導体メモリなどが該当する。
Finally, a program for realizing the information providing and acquiring technique according to the present invention and a computer-readable recording medium (hereinafter, simply referred to as “recording medium”) recording the program will be described. A recording medium causes a reading device provided in a hardware resource such as a general-purpose computer to cause a change state of energy such as magnetism, light, and electricity in accordance with the description content of a program, and to generate a signal corresponding to it. In the format, the description content of the program can be transmitted to the reader. As such a recording medium, for example, an IC card such as UIM, a magnetic disk, an optical disk, a magneto-optical disk that is detachably attached to a computer (including a mobile phone, a PHS, etc.), or is fixed to the computer. A hard disk (HD) built into the hard disk, a nonvolatile semiconductor memory such as firmware fixed integrally, and the like are applicable.

【0107】また、上記プログラムは、その一部若しく
は全部を他の機器から通信回線等の伝送媒体を介して、
本発明に係る携帯端末が備える無線通信装置により受信
され、記録される構成にしてもよい。反対に、上記プロ
グラムは、本発明に係る携帯端末から伝送媒体を介して
他の機器に伝送され、インストールされる構成としても
よい。
Further, a part or all of the above-mentioned program is transmitted from another device via a transmission medium such as a communication line.
The wireless communication device included in the mobile terminal according to the present invention may receive and record the received data. On the contrary, the program may be transmitted from the mobile terminal according to the present invention to another device via a transmission medium and installed.

【0108】[0108]

【発明の効果】本発明によれば、画像データは複数の色
別領域に分割され、これら色別領域間の擬似接合量が算
出され、当該擬似接合量を用いて前記画像データから写
像ベクトルが生成される。したがって、この写像ベクト
ルは、画像データを構成する色別領域間の擬似接合量が
特徴量として少なくとも反映されたものである。
According to the present invention, the image data is divided into a plurality of color-based areas, the pseudo-joint amount between these color-based areas is calculated, and a mapping vector is calculated from the image data using the pseudo-joint amount. Is generated. Therefore, this mapping vector reflects at least the pseudo-joint amount between the color-based regions forming the image data as a feature amount.

【0109】上述した写像ベクトルの生成処理を画像デ
ータと撮像データとに適用することにより、撮像データ
の撮像位置のずれに起因する射影歪みや撮像方向の影響
を受け難くなる。その結果、画像データ間の類似性判別
を精度良く行うことが可能となる。
By applying the above-described processing of generating the mapping vector to the image data and the image pickup data, the influence of the projective distortion and the image pickup direction due to the shift of the image pickup position of the image pickup data becomes less likely to occur. As a result, it becomes possible to accurately determine the similarity between image data.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る情報提供システムによって実現す
る情報提供サービスを概念的に示す図である。
FIG. 1 is a diagram conceptually showing an information providing service realized by an information providing system according to the present invention.

【図2】第1の実施形態における情報提供システムの全
体構成の一例を示す模式図である。
FIG. 2 is a schematic diagram showing an example of the overall configuration of an information providing system in the first embodiment.

【図3】第1の実施形態における情報提供サーバの機能
的構成を示すブロック図である。
FIG. 3 is a block diagram showing a functional configuration of an information providing server according to the first embodiment.

【図4】撮像対象のサービス範囲の位置関係を模式的に
示す俯瞰図である。
FIG. 4 is a bird's-eye view schematically showing the positional relationship of the service range of the imaging target.

【図5】第1の実施形態における携帯電話の機能的構成
を示すブロック図である。
FIG. 5 is a block diagram showing a functional configuration of a mobile phone according to the first embodiment.

【図6】第1の実施形態における情報提供システムによ
って実行される情報提供処理の流れを示すフローチャー
トである。
FIG. 6 is a flowchart showing a flow of information providing processing executed by the information providing system according to the first embodiment.

【図7】画像データから判別ベクトルを算出するまでの
一連の処理を概念的に示す図である。
FIG. 7 is a diagram conceptually showing a series of processes from calculation of a discrimination vector from image data.

【図8】色空間写像特徴量抽出処理を示すフローチャー
トである。
FIG. 8 is a flowchart showing a color space mapping feature amount extraction process.

【図9】図9(a)は、擬似接合量算出処理を概念的に
示す図である。図9(b)は、擬似接合量算出処理で使
用されるボックスの一例を示す図である。
FIG. 9A is a diagram conceptually showing a pseudo joining amount calculation process. FIG. 9B is a diagram showing an example of a box used in the pseudo joining amount calculation process.

【図10】擬似包括量算出処理を概念的に示す図であ
る。
FIG. 10 is a diagram conceptually showing pseudo inclusive amount calculation processing.

【図11】擬似包括量算出処理において擬似包括するラ
ベルの識別番号と擬似包括されるラベルの識別番号との
対応関係を基点別に示す図である。
FIG. 11 is a diagram showing, for each base point, the correspondence relationship between the identification number of the pseudo inclusion label and the identification number of the pseudo inclusion label in the pseudo inclusion amount calculation process.

【図12】擬似包括量算出処理において擬似包括する色
と擬似包括される色との対応関係を示す図である。
FIG. 12 is a diagram showing a correspondence relationship between a color that is included in a pseudo manner and a color that is included in a pseudo manner in a pseudo inclusion amount calculation process.

【図13】部分的に重なる2つのサービス範囲の位置関
係を模式的に示す俯瞰図である。
FIG. 13 is an overhead view schematically showing a positional relationship between two service ranges that partially overlap with each other.

【図14】撮像対象のサービス範囲と携帯電話との位置
関係を模式的に示す俯瞰図である。
FIG. 14 is an overhead view schematically showing a positional relationship between a service range of an image pickup target and a mobile phone.

【図15】撮像データと画像データとの類似性を判別す
る一連の処理を概念的に示す図である。
FIG. 15 is a diagram conceptually showing a series of processes for determining the similarity between imaged data and image data.

【図16】オンラインモードとオフラインモードとの相
違を示す図である。
FIG. 16 is a diagram showing a difference between an online mode and an offline mode.

【図17】第2の実施形態における情報提供システムの
全体構成の一例を示す模式図である。
FIG. 17 is a schematic diagram showing an example of the overall configuration of an information providing system according to a second embodiment.

【図18】第2の実施形態における情報提供システムに
よって実行される情報取得処理の流れを示すフローチャ
ートである。
FIG. 18 is a flowchart showing a flow of information acquisition processing executed by the information providing system in the second embodiment.

【符号の説明】[Explanation of symbols]

1…情報提供サーバ、2…CPU、5…通信制御部、7
…記憶部、71…データベース、10…携帯電話、11
…制御装置、14…表示装置、16…撮像装置、18…
位置推定装置、A1〜A3…看板、C1〜C3…サービ
ス範囲、Z…特定エリア
1 ... Information providing server, 2 ... CPU, 5 ... Communication control unit, 7
… Storage, 71… Database, 10… Mobile phone, 11
... Control device, 14 ... Display device, 16 ... Imaging device, 18 ...
Position estimation device, A1 to A3 ... Signboard, C1 to C3 ... Service range, Z ... Specific area

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/60 H04N 1/40 D (72)発明者 本郷 節之 東京都千代田区永田町二丁目11番1号 株 式会社エヌ・ティ・ティ・ドコモ内 Fターム(参考) 5B057 BA11 CA01 CA16 CB01 CB17 CE09 CE10 CE17 CH01 DA08 DB06 5C077 MM03 MP08 PP32 PQ12 PQ17 PQ22 SS06 5C079 HB01 JA23 LA02 LA10 LB12 MA11 NA29 5L096 AA02 CA02 FA15 FA35 GA34 JA11 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 1/60 H04N 1/40 D (72) Inventor Setsuyuki Hongo 2-11-1, Nagatacho, Chiyoda-ku, Tokyo F term in NTT Docomo, Inc. (reference) 5B057 BA11 CA01 CA16 CB01 CB17 CE09 CE10 CE17 CH01 DA08 DB06 5C077 MM03 MP08 PP32 PQ12 PQ17 PQ22 SS06 5C079 HB01 JA23 LA02 LA10 LB12 MA11 NA29 5L096 FAA02 CA02 FA02 CA02 FA02 CA02 FA02

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】画像データを複数の色別の領域に分割する
分割手段と、 前記分割手段により分割された複数の色別領域間の擬似
接合量を算出する接合量算出手段と、 前記接合量算出手段により算出された複数の色別領域間
の擬似接合量を用いて、前記画像データから写像ベクト
ルを生成する生成手段とを備えることを特徴とする画像
判別装置。
1. A dividing unit that divides image data into a plurality of regions for each color, a joining amount calculation unit that calculates a pseudo joining amount between the plurality of color regions, which is divided by the dividing unit, and the joining amount. An image discriminating apparatus comprising: a generating unit that generates a mapping vector from the image data by using the pseudo-joint amount between the plurality of color regions calculated by the calculating unit.
【請求項2】前記擬似接合量は、前記画像データ上の1
ピクセルを基点として含む複数のピクセル内における、
前記基点の色と前記基点以外の各ピクセルの色との組合
せを計数した結果であることを特徴とする請求項1に記
載の画像判別装置。
2. The pseudo joining amount is 1 on the image data.
Within multiple pixels including the pixel as the base point,
The image discriminating apparatus according to claim 1, wherein the image discriminating apparatus is a result of counting the combination of the color of the base point and the color of each pixel other than the base point.
【請求項3】前記分割手段により分割された複数の色別
領域間の擬似包括量を算出する包括量算出手段を更に備
え、 前記生成手段は、前記擬似接合量と、前記包括量算出手
段により算出された複数の色別領域間の擬似包括量とを
用いて、前記画像データから写像ベクトルを生成するこ
とを特徴とする請求項1に記載の画像判別装置。
3. An inclusion amount calculation unit for calculating a pseudo inclusion amount between a plurality of color-separated areas divided by the dividing unit, wherein the generation unit includes the pseudo joining amount and the inclusion amount calculation unit. The image discrimination apparatus according to claim 1, wherein a mapping vector is generated from the image data by using the calculated pseudo inclusion amount between the plurality of color regions.
【請求項4】前記擬似包括量は、前記複数の色別領域を
複数の閉領域として再構成すると共に前記画像データ上
の1ピクセルを基点とした場合に、当該基点を含む閉領
域と、当該基点を中心とする所定方向の内の全方向に存
在する閉領域との組合せを計数した結果であることを特
徴とする請求項3に記載の画像判別装置。
4. The pseudo inclusion amount is a closed area including the base point when the plurality of color-based areas are reconstructed as a plurality of closed areas and one pixel on the image data is used as a base point. The image discriminating device according to claim 3, wherein the image discriminating device is a result of counting combinations with closed regions existing in all directions of a predetermined direction with the base point as a center.
【請求項5】前記画像データは、看板を撮像したデータ
であることを特徴とする請求項1〜4の何れか一項に記
載の画像判別装置。
5. The image discriminating apparatus according to claim 1, wherein the image data is data obtained by capturing an image of a signboard.
【請求項6】画像判別装置が複数の画像データの類似性
を判別する画像判別方法において、 画像データを複数の色別の領域に分割する分割工程と、 前記分割工程にて分割された複数の色別領域間の擬似接
合量を算出する接合量算出工程と、 前記接合量算出工程にて算出された複数の色別領域間の
擬似接合量を用いて、前記画像データから写像ベクトル
を生成する生成工程とを含むことを特徴とする画像判別
方法。
6. An image discriminating method in which an image discriminating apparatus discriminates the similarity of a plurality of image data, a dividing step of dividing the image data into a plurality of regions for respective colors, and a plurality of divided portions obtained in the dividing step. A mapping amount is calculated from the image data using a bonding amount calculation step of calculating a pseudo bonding amount between the color regions and a pseudo bonding amount between the plurality of color regions calculated in the bonding amount calculation step. An image discrimination method comprising: a generation step.
【請求項7】前記擬似接合量は、前記画像データ上の1
ピクセルを基点として含む複数のピクセル内における、
前記基点の色と前記基点以外の各ピクセルの色との組合
せを計数した結果であることを特徴とする請求項6に記
載の画像判別方法。
7. The pseudo joining amount is 1 on the image data.
Within multiple pixels including the pixel as the base point,
7. The image discrimination method according to claim 6, wherein the result is obtained by counting the combination of the color of the base point and the color of each pixel other than the base point.
【請求項8】前記画像判別装置が、前記分割工程にて分
割された複数の色別領域間の擬似包括量を算出する包括
量算出工程を更に含み、 前記生成工程では、前記擬似接合量と、前記包括量算出
工程にて算出された複数の色別領域間の擬似包括量とを
用いて、前記画像データから写像ベクトルを生成するこ
とを特徴とする請求項6に記載の画像判別方法。
8. The image discriminating apparatus further includes an inclusion amount calculation step of calculating a pseudo inclusion amount between the plurality of color-based areas divided in the dividing step, and in the generating step, the pseudo joining amount and The image discrimination method according to claim 6, wherein a mapping vector is generated from the image data using the pseudo inclusion amount between the plurality of color-based regions calculated in the inclusion amount calculating step.
【請求項9】前記擬似包括量は、前記複数の色別領域を
複数の閉領域として再構成すると共に前記画像データ上
の1ピクセルを基点とした場合に、当該基点を含む閉領
域と、当該基点を中心とする所定方向の内の全方向に存
在する閉領域との組合せを計数した結果であることを特
徴とする請求項8に記載の画像判別方法。
9. The pseudo inclusive amount is a closed area including the base point when the plurality of color-based areas are reconstructed as a plurality of closed areas and one pixel on the image data is used as a base point. 9. The image discriminating method according to claim 8, wherein the image discriminating method is a result of counting combinations with closed regions existing in all directions of the predetermined direction with the base point as the center.
【請求項10】前記画像データは、看板を撮像したデー
タであることを特徴とする請求項6〜9の何れか一項に
記載の画像判別方法。
10. The image discrimination method according to claim 6, wherein the image data is data obtained by capturing an image of a signboard.
JP2002142030A 2002-05-16 2002-05-16 Device and method for discriminating image Pending JP2003331288A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002142030A JP2003331288A (en) 2002-05-16 2002-05-16 Device and method for discriminating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002142030A JP2003331288A (en) 2002-05-16 2002-05-16 Device and method for discriminating image

Publications (1)

Publication Number Publication Date
JP2003331288A true JP2003331288A (en) 2003-11-21

Family

ID=29702454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002142030A Pending JP2003331288A (en) 2002-05-16 2002-05-16 Device and method for discriminating image

Country Status (1)

Country Link
JP (1) JP2003331288A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033727A (en) * 2005-07-26 2007-02-08 Fuji Xerox Co Ltd Device, method and program for processing educational material
JP2008522515A (en) * 2004-12-03 2008-06-26 イーストマン コダック カンパニー Method for distributing multimedia data to a device equipped with an image sensor
JP2012203669A (en) * 2011-03-25 2012-10-22 Sony Corp Terminal device, information processor, object identification method, program and object identification system
US8462048B2 (en) 2001-12-31 2013-06-11 Rdpa, Llc Satellite positioning system and method for determining the demographics of individuals passing retail locations
JP2015212967A (en) * 2015-07-07 2015-11-26 ソニー株式会社 Terminal device, object identification method and information processor
JP2016186817A (en) * 2016-07-13 2016-10-27 ソニー株式会社 Terminal device, object identification method, information processing apparatus, and program
JP7460061B1 (en) 2023-05-02 2024-04-02 株式会社ビバリー Image recognition system and image recognition program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8462048B2 (en) 2001-12-31 2013-06-11 Rdpa, Llc Satellite positioning system and method for determining the demographics of individuals passing retail locations
JP2008522515A (en) * 2004-12-03 2008-06-26 イーストマン コダック カンパニー Method for distributing multimedia data to a device equipped with an image sensor
JP4818274B2 (en) * 2004-12-03 2011-11-16 イーストマン コダック カンパニー Method for distributing multimedia data to a device equipped with an image sensor
JP2007033727A (en) * 2005-07-26 2007-02-08 Fuji Xerox Co Ltd Device, method and program for processing educational material
US9256796B2 (en) 2011-03-25 2016-02-09 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
JP2012203669A (en) * 2011-03-25 2012-10-22 Sony Corp Terminal device, information processor, object identification method, program and object identification system
US9971957B2 (en) 2011-03-25 2018-05-15 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
US10311333B2 (en) 2011-03-25 2019-06-04 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
US11037023B2 (en) 2011-03-25 2021-06-15 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
US11657609B2 (en) 2011-03-25 2023-05-23 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
US11961297B2 (en) 2011-03-25 2024-04-16 Sony Corporation Terminal device, information processing device, object identifying method, program, and object identifying system
JP2015212967A (en) * 2015-07-07 2015-11-26 ソニー株式会社 Terminal device, object identification method and information processor
JP2016186817A (en) * 2016-07-13 2016-10-27 ソニー株式会社 Terminal device, object identification method, information processing apparatus, and program
JP7460061B1 (en) 2023-05-02 2024-04-02 株式会社ビバリー Image recognition system and image recognition program

Similar Documents

Publication Publication Date Title
US6604049B2 (en) Spatial information using system, system for obtaining information, and server system
US8244227B2 (en) Information providing device, mobile communication device, information providing system, information providing method, and program
CN105318881A (en) Map navigation method, and apparatus and system thereof
CN101743541A (en) Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
CN104378735A (en) Indoor positioning method, client side and server
KR101738443B1 (en) Method, apparatus, and system for screening augmented reality content
WO2005069214A1 (en) Information presentation system
TWI749532B (en) Positioning method and positioning device, electronic equipment and computer readable storage medium
JP2003330953A (en) Server device, portable terminal, information provision system, information provision method, and information acquisition method
JP6985777B1 (en) Educational service provision methods and equipment using satellite images of artificial intelligence infrastructure
CN103473254A (en) Method and apparatus for storing image data
KR20120051636A (en) Presentation of a digital map
US9418351B2 (en) Automated network inventory using a user device
CN107193820B (en) Position information acquisition method, device and equipment
CN114972581A (en) Remote sensing image labeling method, device, system, equipment and storage medium
CN108388636B (en) Streetscape method for retrieving image and device based on adaptive segmentation minimum circumscribed rectangle
CN111782980B (en) Mining method, device, equipment and storage medium for map interest points
JP2003331288A (en) Device and method for discriminating image
CN109857826A (en) A kind of video camera visible range labeling system and its mask method
EP3580690B1 (en) Bayesian methodology for geospatial object/characteristic detection
KR20190029412A (en) Method for Providing Off-line Shop Information in Network, and Managing Server Used Therein
CN103188608A (en) Polychrome picture generating method, device and system based on user positions
CN109089216B (en) File transmission method and equipment based on Bluetooth transmission
CN116668580B (en) Scene recognition method, electronic device and readable storage medium
KR100340199B1 (en) Position conviction service method using position and geographic information