JP2010061408A - Image processing program and image processing system - Google Patents

Image processing program and image processing system Download PDF

Info

Publication number
JP2010061408A
JP2010061408A JP2008226525A JP2008226525A JP2010061408A JP 2010061408 A JP2010061408 A JP 2010061408A JP 2008226525 A JP2008226525 A JP 2008226525A JP 2008226525 A JP2008226525 A JP 2008226525A JP 2010061408 A JP2010061408 A JP 2010061408A
Authority
JP
Japan
Prior art keywords
color
image
color data
image processing
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008226525A
Other languages
Japanese (ja)
Inventor
Masaru Maeda
大 前田
Isao Shinohara
勲 篠原
Takashi Kaneda
尚 金田
Itsumi Majima
伊津美 間嶋
Ayumi Sato
あゆみ 佐藤
Yutaka Hosogane
豊 細金
Yuichi Murayama
裕一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyodo Printing Co Ltd
Original Assignee
Kyodo Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyodo Printing Co Ltd filed Critical Kyodo Printing Co Ltd
Priority to JP2008226525A priority Critical patent/JP2010061408A/en
Publication of JP2010061408A publication Critical patent/JP2010061408A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing program and an image processing system for avoiding the erroneous recognition of an image when using classification based on a color space. <P>SOLUTION: The image processing program of electronic equipment for extracting the features of a photographic image, and for processing the image is installed in a computer of the electronic equipment. The computer is made to execute a procedure for detecting the color data of pixels configuring a photographic image; a procedure for separating a value corresponding to brightness among the color data from a value corresponding to chrominance, and for plotting the color data in the two-dimensional coordinate space of only the value corresponding to the chrominance; and a procedure for classifying the colors of the photographic image on the basis of the coordinate position of the color data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影画像の特徴を抽出して処理する画像処理プログラム及び画像処理システムに関するものである。   The present invention relates to an image processing program and an image processing system that extract and process features of a captured image.

この撮影画像は、種々のサービスの提供に利用されている。詳しくは、昨今のカメラ機能を内蔵した携帯型電話やデジタルカメラの普及に伴い、撮影画像は、人物や風景などの記録や、時刻表の如くこれまで用紙に記録していた内容の記録のみならず、インターネットへの接続も可能にするなど、その利用範囲が広がっている。   This photographed image is used for providing various services. Specifically, with the recent spread of mobile phones and digital cameras with built-in camera functions, captured images can only be recorded on people, landscapes, etc., or on content that has been recorded on paper like timetables so far. In addition, the range of use is expanding, such as enabling connection to the Internet.

これは画像処理技術、つまり、撮影画像を認識し、この画像が有する特徴量を抽出して画像を処理する技術によって達成可能になる。そして、この認識された撮影画像のパラメータが決定されると、このパラメータとデータベースに格納されているマスタデータのパラメータとが比較され、この撮影画像に略一致したマスタデータがデータベースから検索可能になる。   This can be achieved by an image processing technique, that is, a technique for recognizing a captured image, extracting a feature amount of the image, and processing the image. When the parameter of the recognized captured image is determined, the parameter is compared with the parameter of the master data stored in the database, and the master data that substantially matches the captured image can be retrieved from the database. .

ここで、このデータベースに大量のマスタデータが登録されていると、検索に要する時間が長期に亘るし、また、正答率も低下してしまう。検索の母数が増えると、例えば撮影画像とは全く異なる特徴を有しているにも拘わらず、この撮影画像のパラメータにたまたま近い値のマスタデータを検索する可能性が増えるからである。   Here, if a large amount of master data is registered in this database, the time required for search takes a long time, and the correct answer rate also decreases. This is because, if the search parameter increases, for example, there is an increased possibility of searching for master data that happens to be close to the parameters of the photographed image even though it has completely different characteristics from the photographed image.

この場合に、撮影画像から背景などの不必要な情報を削除し、その上で特徴量を抽出しても、データベースに大量のマスタデータが登録されている以上、検索に要する時間を大幅に減らすことはできない。一方、マスタデータをデータベースに登録する際に、例えば特許文献1,2に記載の色空間(Lab表色系など)による分類を用いて絞り込めば、登録するマスタデータの量を減らすことが可能になる。   In this case, even if unnecessary information such as the background is deleted from the photographed image and then the feature amount is extracted, the time required for the search is greatly reduced as long as a large amount of master data is registered in the database. It is not possible. On the other hand, when registering master data in the database, for example, if the data is narrowed down using the classification based on the color space (Lab color system, etc.) described in Patent Documents 1 and 2, the amount of master data to be registered can be reduced. become.

特開平08−251397号公報Japanese Patent Laid-Open No. 08-251397 特開2002−271644号公報JP 2002-271644 A

ところで、上述したLab表色系は、明度(L値)と色度(ab値)とで表現されるが、この明度は画像の誤認識の要因になり、特に、携帯機器に付属のカメラ機能で撮影された画像では顕著になるとの問題がある。
なぜならば、撮影画像は周囲の光の影響を受け易いし、また、カメラ機能ではホワイトバランス(WB)による調整が可能であるものの、このWBを適性に設定するのは容易ではなく、仮に性能の劣るカメラ機能を用いた場合には、撮影画像の明度が高すぎてしまい、その色を正確に分類できなくなるからである。
By the way, the Lab color system described above is expressed by lightness (L value) and chromaticity (ab value), and this lightness causes a misrecognition of an image. There is a problem that it becomes prominent in an image taken in
This is because the photographed image is easily affected by ambient light, and the camera function can be adjusted by white balance (WB). However, it is not easy to set this WB appropriately. This is because when the inferior camera function is used, the brightness of the photographed image is too high and the color cannot be accurately classified.

換言すれば、仮に色空間による分類を用いて登録するマスタデータの量を絞り込もうとしても、この明度が分類の邪魔になって絞り込めず、これでは、やはり大量のマスタデータが登録されてしまい、検索に要する時間が長期になるのである。
そこで、本発明の目的は、上記課題を解消し、色空間による分類を用いるにあたり、画像の誤認識を回避できる画像処理プログラム及び画像処理システムを提供することである。
In other words, even if you try to narrow down the amount of master data to be registered using classification by color space, this brightness will not be able to narrow down because of the hindrance to classification. As a result, the time required for the search becomes long.
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing program and an image processing system capable of solving the above-described problems and avoiding misrecognition of images when using classification by color space.

上記目的を達成するための第1の発明は、撮影画像の特徴を抽出して画像を処理する電子機器の画像処理プログラムである。
そして、このプログラムは、電子機器のコンピュータに備えられており、コンピュータに、撮影画像を構成した画素の色データを検出する手順と、色データのうち明度に相当する値を色度に相当する値から分離し、色データを色度に相当する値のみの2次元座標空間にプロットする手順と、色データの座標位置に基づいて撮影画像の色を分類する手順とを実行させる。
A first invention for achieving the above object is an image processing program for an electronic device that extracts a feature of a captured image and processes the image.
This program is provided in the computer of the electronic device. The program detects the color data of the pixels constituting the captured image, and the value corresponding to the lightness among the color data is the value corresponding to the chromaticity. And a procedure for plotting the color data in a two-dimensional coordinate space having only a value corresponding to the chromaticity and a procedure for classifying the color of the photographed image based on the coordinate position of the color data.

第1の発明によれば、画像処理プログラムは、撮影画像の特徴を抽出して画像を処理するにあたり、コンピュータが果たす手順を特定している。
詳しくは、撮影画像を構成した画素の色データを検出し、色データのうち明度に相当する値を色度に相当する値から分離しており、色データを色度に相当する値のみの2次元座標空間にプロットしている。
According to the first aspect of the invention, the image processing program specifies a procedure performed by the computer in extracting the characteristics of the captured image and processing the image.
Specifically, the color data of the pixels constituting the photographed image is detected, and the value corresponding to lightness in the color data is separated from the value corresponding to chromaticity, and the color data is only 2 corresponding to the value corresponding to chromaticity. Plot in the dimensional coordinate space.

ここで、この明度は画像の誤認識の要因になるが、本発明では、この明度に相当する値と色度に相当する値とが分離され、この明度に相当する値は、撮影画像の色を分類する際に考慮しないことから、従来に比して誤認識を確実に回避できる。
また、色データを色度に相当する値のみで分類すれば、検索の母数が明度に相当する値も含めた場合よりも少なくて済むので、従来に比して撮影画像を速やかに検索可能になるし、検索されるデータベースの負荷も軽減できる。
Here, this lightness causes a misrecognition of the image. In the present invention, a value corresponding to this lightness and a value corresponding to chromaticity are separated, and the value corresponding to this lightness is the color of the photographed image. Therefore, erroneous recognition can be avoided more reliably than in the past.
In addition, if the color data is classified only by the value corresponding to the chromaticity, the search parameter can be reduced compared to the case where the value corresponding to the lightness is included. In addition, the load on the searched database can be reduced.

第2の発明は、第1の発明の構成において、撮影画像の色を分類する手順は、プロットした色データについて、2次元座標空間の原点からの距離、仰角、及び該空間を原点回りに等分割した範囲のうち属する色のグループをそれぞれ特定する手順と、色データを最も多く有したグループから順に順位を設定し、所定の上位グループを認定する手順と、各上位グループにつき、プロットした各色データに関する平均仰角を算出する手順と、仰角方向でみて、算出した平均仰角を挟んだ所定の下限値から上限値までの領域を色の検索対象に決定する手順とを含むことを特徴とする。   According to a second aspect of the present invention, in the configuration of the first aspect, the procedure for classifying the color of the photographed image is the distance from the origin of the two-dimensional coordinate space, the elevation angle, and the space around the origin. A procedure for identifying each color group belonging to the divided range, a procedure for setting the order in order from the group having the largest color data, and certifying a predetermined upper group, and each color data plotted for each upper group And a procedure for determining an area from a predetermined lower limit value to an upper limit value sandwiching the calculated average elevation angle as a color search target when viewed in the elevation angle direction.

第2の発明によれば、第1の発明の作用に加えてさらに、画素の色データは2次元座標空間にプロットされるが、これらは、原点からの距離、仰角、及び属する色のグループがそれぞれ特定される。そして、色データを最も多く有した上位グループを認定した後、この上位グループの他、上位グループの平均仰角を挟んだ所定の下限値から上限値までの領域も検索対象に決定されており、検索の母数の削減を図りつつも、必要となり得る色は確保でき、撮影画像の検索精度の向上に寄与する。   According to the second invention, in addition to the operation of the first invention, the color data of the pixel is plotted in a two-dimensional coordinate space, which includes a distance from the origin, an elevation angle, and a group of colors to which the pixel belongs. Each is identified. After identifying the upper group having the most color data, in addition to this upper group, the region from the predetermined lower limit value to the upper limit value sandwiching the average elevation angle of the upper group is also determined as the search target. While reducing the number of parameters, it is possible to secure colors that may be necessary, which contributes to improving the retrieval accuracy of captured images.

第3の発明は、第2の発明の構成において、距離、仰角、及び属する色のグループをそれぞれ特定する手順に続き、各グループにつき、プロットした各色データに関する原点からの平均距離を算出する手順と、算出した平均距離が原点を中心とした色の特定不能円の半径よりも短い場合に、この円の内側に属する色も検索対象に決定する手順とを実行することを特徴とする。   According to a third invention, in the configuration of the second invention, following the procedure of specifying the distance, the elevation angle, and the color group to which each belongs, a procedure for calculating an average distance from the origin for each plotted color data for each group; When the calculated average distance is shorter than the radius of the unidentifiable circle of the color centered on the origin, a procedure for determining a color belonging to the inside of the circle as a search target is executed.

第3の発明によれば、第2の発明の作用に加えてさらに、原点からの平均距離が各グループについて算出されており、この平均距離が色の特定不能円の半径よりも短い場合には、上位グループに該当しなくても、この円に属する色も検索対象に決定される。したがって、この場合にも、上述した明度に相当する値を考慮しないことに対する保証になり、撮影画像の検索精度の向上に寄与する。   According to the third invention, in addition to the operation of the second invention, the average distance from the origin is calculated for each group, and when this average distance is shorter than the radius of the unspecified color circle, Even if it does not correspond to the upper group, the color belonging to this circle is also determined as the search target. Therefore, in this case as well, this is a guarantee that the value corresponding to the above-described brightness is not taken into consideration, and contributes to improvement in the retrieval accuracy of the captured image.

第4の発明は、第1から第3の発明の構成において、色データにはLab表色系が用いられており、色データのうちL値をab値から分離し、各色データはab平面にのみプロットされていることを特徴とする。
第4の発明によれば、第1から第3の発明の作用に加えてさらに、Lab表色系は、現在あらゆる分野で最も多く用いられた表色系であり、画素の色データにLab表色系を用いれば、広範囲に亘るプログラムの利用が可能になる。
According to a fourth invention, in the configurations of the first to third inventions, the Lab color system is used for the color data, the L value of the color data is separated from the ab value, and each color data is arranged on the ab plane. It is characterized by only being plotted.
According to the fourth invention, in addition to the operations of the first to third inventions, the Lab color system is the most commonly used color system in all fields at present, and the Lab color system is used for the color data of pixels. Using a color system makes it possible to use a wide range of programs.

第5,6の発明は、携帯機器で撮影した撮影画像の特徴を抽出して画像を処理する画像処理システムである。
そして、撮影画像の色を分類する前処理部を具備しており、この前処理部は、撮影画像を構成した画素の色データを検出し、色データのうち明度に相当する値を色度に相当する値から分離するとともに、色データを色度のみの2次元座標空間でプロットしており、色データの座標位置に基づいて撮影画像の色を分類する。そして、第5の発明では、その分類結果をデータベースに格納している。
5th and 6th invention is an image processing system which extracts the characteristic of the picked-up image image | photographed with the portable apparatus, and processes an image.
The image processing apparatus includes a preprocessing unit that classifies the colors of the captured image. The preprocessing unit detects the color data of the pixels constituting the captured image, and sets a value corresponding to lightness in the color data to the chromaticity. While separating from corresponding values, the color data is plotted in a two-dimensional coordinate space of only chromaticity, and the color of the photographed image is classified based on the coordinate position of the color data. In the fifth invention, the classification result is stored in the database.

一方、第6の発明は、さらに、撮影画像の画像特徴量を抽出し、上述の前処理部で分類した色の情報も加味して撮影画像のパラメータを決定する特徴抽出部と、決定したパラメータとデータベースに格納されているマスタデータのパラメータとを比較し、撮影画像に略一致したマスタデータをデータベースから検索する認識・判断部と、検索したマスタデータの属するURLをデータベースから携帯機器に返信する出力部とを具備している。   On the other hand, the sixth invention further extracts a feature amount of the photographed image, and also includes a feature extraction unit that determines the parameter of the photographed image in consideration of the color information classified by the above-described preprocessing unit, and the determined parameter Is compared with the parameters of the master data stored in the database, and the recognition / determination unit that searches the database for master data that substantially matches the captured image, and returns the URL to which the searched master data belongs to the portable device from the database. And an output unit.

第5,6の発明によれば、画像処理システムは、前処理部が撮影画像を構成した画素の色データのうち、画像の誤認識の要因になる明度に相当する値を色度に相当する値から分離し、この色データを色度に相当する値のみの2次元座標空間でそれぞれプロットしているので、従来に比して誤認識を確実に回避可能になる。   According to the fifth and sixth inventions, in the image processing system, the value corresponding to the lightness that causes a misrecognition of the image among the color data of the pixels constituting the captured image by the preprocessing unit corresponds to the chromaticity. Since this color data is plotted in a two-dimensional coordinate space having only values corresponding to chromaticity, it is possible to avoid erroneous recognition more reliably than in the past.

また、この前処理部が色データを色度に相当する値のみで分類すれば、検索の母数が少なくて済み、システム利用者は、従来に比して撮影画像に略一致するマスタデータをデータベースから速やかに検索できる。さらに、システム管理者からみれば、検索数(誤検索も含む)が減るため、従来に比してデータベースの負荷軽減になるし、或いは、データベースの空き容量が増えるため、より多くのマスタデータをデータベースに登録できる。   Further, if this pre-processing unit classifies the color data only by the value corresponding to the chromaticity, the number of parameters for the search can be reduced, and the system user can obtain master data that substantially matches the captured image as compared with the conventional case. You can search quickly from the database. Furthermore, from the viewpoint of the system administrator, the number of searches (including erroneous searches) is reduced, so the load on the database is reduced compared to the conventional case, or the free space of the database is increased, so that more master data can be stored. Can be registered in the database.

本発明によれば、色空間による分類を用いるにあたり、明度に相当する値は撮影画像の色を分類する際に考慮されないので、画像の誤認識を確実に回避できる画像処理プログラム及び画像処理システムを提供することができる。   According to the present invention, when using classification by color space, a value corresponding to lightness is not considered when classifying the color of a photographed image, and thus an image processing program and an image processing system that can reliably avoid erroneous recognition of an image are provided. Can be provided.

以下、本発明の好適な実施の形態を図面に基づいて説明する。
図1は、本実施例に係る画像処理システムの全体構成図であり、当該システム1はネットワーク6を用いて構成され、このネットワーク6には、基地局4や、データベース10を備えた検索サーバ(電子機器)8がそれぞれ接続されている。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. The system 1 is configured using a network 6, and the network 6 includes a base station 4 and a search server (including a database 10). Electronic devices) 8 are connected to each other.

このサーバ8は、携帯機器(例えば携帯型電話)2で撮影した撮影画像の特徴をプログラムの命令にしたがって抽出し、この画像を処理する機能を有している。なお、本実施例の携帯機器2はカメラ機能を内蔵したものとして説明するが、この携帯機器2は、被写体を撮影できる限り、携帯情報端末(PDA)やノートパソコンの他、デジタルカメラなどであっても良い。   The server 8 has a function of extracting a feature of a photographed image photographed by a portable device (for example, a portable phone) 2 according to a program command and processing the image. Although the portable device 2 of the present embodiment is described as having a built-in camera function, the portable device 2 is a digital camera or the like in addition to a personal digital assistant (PDA) and a notebook computer as long as the subject can be photographed. May be.

また、本実施例のサーバ8の各種動作はコントローラ9で制御される(図2)。このコントローラ9はコンピュータとして機能する要素であり、CPUやプログラムを格納したメモリ等のハードウエア資源を有している。そして、コントローラ9は、このハードウエア資源を用いて所定のプログラムを実行する。   Various operations of the server 8 of this embodiment are controlled by the controller 9 (FIG. 2). The controller 9 is an element that functions as a computer, and has hardware resources such as a CPU and a memory that stores a program. Then, the controller 9 executes a predetermined program using this hardware resource.

より具体的には、このコントローラ9は、同図に示されるように、入力部12、前処理部14、特徴抽出部16、認識・判断部18、及び出力部20で構成される。入力部12は携帯機器2からの撮影画像を入力しており、前処理部14は、この撮影画像の背景を削除する他、後述する撮影画像の色を識別する、さらに、撮影画像を二値化画像に変換する如く、特徴を抽出する前の所定の処理を実行して特徴抽出部16に出力する。   More specifically, the controller 9 includes an input unit 12, a preprocessing unit 14, a feature extraction unit 16, a recognition / determination unit 18, and an output unit 20, as shown in FIG. The input unit 12 inputs a photographed image from the mobile device 2, and the preprocessing unit 14 deletes the background of the photographed image and identifies the color of the photographed image described later. A predetermined process before extracting the feature is executed and output to the feature extracting unit 16 so as to be converted into a converted image.

本実施例の特徴抽出部16は、二値化画像に対する画像特徴量の抽出範囲を規定し、続いて、上述した色の情報を加味して抽出範囲に対する撮影画像のパラメータを決定しており、その結果を認識・判断部18に出力する。
認識・判断部18は、撮影画像に略一致したマスタデータをデータベース10から検索して出力部20に出力しており、この出力部20は検索したマスタデータの属するURL(Universal
Resource Locator)を携帯機器2に返信する。これにより、携帯機器2は、その撮影画像に関するホームページを閲覧、具体的には、URLが動画を指していた場合には当該動画を、音楽を指していた場合には当該音楽を、また、Flashアニメーションを指していた場合には当該アニメーションをそれぞれ再生できる。
The feature extraction unit 16 of the present embodiment defines the image feature amount extraction range for the binarized image, and subsequently determines the parameters of the captured image for the extraction range in consideration of the color information described above. The result is output to the recognition / determination unit 18.
The recognition / judgment unit 18 searches the database 10 for master data that substantially matches the captured image and outputs it to the output unit 20, which outputs the URL (Universal) to which the retrieved master data belongs.
(Resource Locator) is returned to the portable device 2. As a result, the mobile device 2 browses the homepage related to the photographed image. Specifically, when the URL indicates a video, the mobile device 2 indicates the video, when the URL indicates music, the flash, and the flash. When pointing to an animation, the animation can be played back.

より詳しくは、図3は、プログラムがコントローラ9に実行させる処理を示しており、以下、上記の如く構成された画像処理システム1の本発明に係る作用について説明する。
まず、同図のステップS301では、携帯機器2がそのカメラ機能でロゴ画像(被写体)72を撮影する(図4)。本実施例のロゴ画像72は、飲料に関する文字、内容物の図形及び色の組み合わせで構成されており、印刷物70に広告としてカラーで印刷されている。
More specifically, FIG. 3 shows processing that the program causes the controller 9 to execute. Hereinafter, the operation according to the present invention of the image processing system 1 configured as described above will be described.
First, in step S301 in the figure, the portable device 2 captures a logo image (subject) 72 with its camera function (FIG. 4). The logo image 72 of the present embodiment is composed of a combination of characters related to beverages, graphics of contents, and colors, and is printed on the printed material 70 in color as an advertisement.

ここで、携帯機器2がその画面内にロゴ画像72を表示して撮影する。本実施例の撮影画像74は、ロゴ画像72を拡大・縮小した状態ではないが、左側に回転した状態で撮影されている。一方、携帯機器2は、この撮影画像74を基地局4に向けて送信し、ネットワーク6を経由して検索サーバ8に送る。なお、このサーバ8のURLは上記プログラムに予め記載されている。若しくは、印刷物70に予め記載、或いは、電子透かしを用いて印刷物70等に埋め込まれていても良い。   Here, the portable device 2 displays the logo image 72 on the screen and takes a picture. The photographed image 74 of the present embodiment is photographed in a state where the logo image 72 is not enlarged or reduced, but rotated to the left. On the other hand, the mobile device 2 transmits the captured image 74 toward the base station 4 and transmits it to the search server 8 via the network 6. The URL of the server 8 is described in advance in the program. Alternatively, it may be described in advance in the printed material 70 or embedded in the printed material 70 using a digital watermark.

ステップS302では、入力部12が撮影画像74を受け取ってメモリに記憶してステップS303に進む。
このステップS303では、前処理部14が撮影画像74の背景を削除し、その周縁を残して表示する。また、この前処理部14は、ドットマトリクス状に区画された撮影画像74の色を識別し、その後、この撮影画像74を基準値に基づいて白色及び黒色の二値化画像に変換する。
In step S302, the input unit 12 receives the captured image 74 and stores it in the memory, and the process proceeds to step S303.
In this step S303, the preprocessing unit 14 deletes the background of the captured image 74 and displays it while leaving the periphery. In addition, the preprocessing unit 14 identifies the color of the photographed image 74 partitioned in a dot matrix, and then converts the photographed image 74 into a white and black binary image based on the reference value.

具体的には、本実施例の前処理部14は、背景削除機能や二値化変換機能の他、色の識別機能を具備しており、図5に示されるように、Lab変換グルーピング部30、画像特徴量算出部40、及び判別処理部60を備えている。
まず、このLab変換グルーピング部30は、画素Lab変換部32、abデータ計算部34、及び結果返却部36で構成されている。
Specifically, the pre-processing unit 14 of the present embodiment has a color identification function in addition to a background deletion function and a binarization conversion function. As shown in FIG. The image feature amount calculation unit 40 and the discrimination processing unit 60 are provided.
First, the Lab conversion grouping unit 30 includes a pixel Lab conversion unit 32, an ab data calculation unit 34, and a result return unit 36.

このLab変換部32は、撮影画像74を構成した有効な画素の色データが例えば赤、緑、青によるRGB値で検出されていた場合には、このRGB値をLab値に変換し、その結果をabデータ計算部34に出力する。
このabデータ計算部34は、変換したLab値のうち、明度を表すL値を色度、つまり、色相及び彩度を表すab値から分離する。
The Lab conversion unit 32 converts the RGB values into Lab values when the color data of valid pixels constituting the captured image 74 is detected as RGB values of, for example, red, green, and blue. Is output to the ab data calculator 34.
The ab data calculation unit 34 separates the L value representing lightness from the converted Lab values from the ab values representing chromaticity, that is, hue and saturation.

より具体的には、abデータ計算部34は、各画素の色データを2次元座標空間であるab平面80にプロットし(図6)、a値及びb値で特定している。
このab平面80は、赤及び緑の色相を表すa軸と、黄及び青の色相を表すb軸とで構成されており、a軸の正方向が赤の彩度を示し、a軸の負方向が緑の彩度を示す。一方、b軸の正方向が黄の彩度を示しており、b軸の負方向が青の彩度を示している。
More specifically, the ab data calculation unit 34 plots the color data of each pixel on the ab plane 80 which is a two-dimensional coordinate space (FIG. 6), and specifies the a value and the b value.
The ab plane 80 includes an a-axis representing red and green hues and a b-axis representing yellow and blue hues. The positive direction of the a-axis indicates red saturation, and the negative of the a-axis. Direction indicates green saturation. On the other hand, the positive direction of the b-axis indicates yellow saturation, and the negative direction of the b-axis indicates blue saturation.

ここで、abデータ計算部34は、各画素の色データをab平面80にプロットするにあたり、ab平面80をm個のグループに区画している。本実施例では、図6に示されるように、ab平面80の原点回りに8等分割した色のグループI〜VIIIを設けている。
これにより、ab平面80にプロットされた各画素は、原点からの距離、a軸からの角度(仰角)に加えて、属するグループも特定される。なお、この距離はa軸及びb軸の各値から三平方の定理を用いて求め、また、この角度は正弦及び余弦に関する逆三角関数から求めており、0°〜360°の値で表示される。
Here, the ab data calculation unit 34 partitions the ab plane 80 into m groups when plotting the color data of each pixel on the ab plane 80. In this embodiment, as shown in FIG. 6, groups of colors I to VIII divided into eight equal parts around the origin of the ab plane 80 are provided.
As a result, each pixel plotted on the ab plane 80 is identified in addition to the distance from the origin and the angle (elevation angle) from the a axis. This distance is obtained from each value of the a-axis and b-axis using the three-square theorem, and this angle is obtained from an inverse trigonometric function related to sine and cosine, and is displayed as a value of 0 ° to 360 °. The

本実施例で云えば、上記ロゴ画像72が、薄い橙の地色に、文字が鮮やかな橙、内容物が鈍い赤、やや鮮やかな橙、及び鮮やかな黄で構成されていた場合を想定すると、仮に、撮影画像74のうち検出された1つの画素が橙の色相であったときには、この画素はab平面80の第1象限にプロットされ(図7にて×印で示す)、この点の距離s、仰角t、属するグループIIがそれぞれ特定される。   In this embodiment, it is assumed that the logo image 72 is composed of a light orange ground color, a bright orange character, a dull red content, a slightly bright orange color, and a bright yellow color. If a detected pixel of the captured image 74 has an orange hue, this pixel is plotted in the first quadrant of the ab plane 80 (indicated by a cross in FIG. 7). The distance s, the elevation angle t, and the group II to which it belongs are specified.

同様に、撮影画像74の総ての画素がab平面80にプロットされ(図8にて×印で示す)、その結果は結果返却部36から画像特徴量算出部40に出力される。
再び図5に戻り、この画像特徴量算出部40は、abデータ格納部42、グループ分類部44、上位グループ認定部46、距離・角度算出部48、及び結果返却部50で構成されている。
Similarly, all the pixels of the captured image 74 are plotted on the ab plane 80 (indicated by x in FIG. 8), and the result is output from the result return unit 36 to the image feature amount calculation unit 40.
Returning again to FIG. 5, the image feature amount calculation unit 40 includes an ab data storage unit 42, a group classification unit 44, an upper group authorization unit 46, a distance / angle calculation unit 48, and a result return unit 50.

このabデータ格納部42は、Lab変換グルーピング部30からの結果を格納し、グループ分類部44は、これら画素の格納数が多い順にグループI〜VIIIを並び替える。
上記ロゴ画像72の例で云えば、グループI〜VIIIを、図8に示された×印の多い順、例えば、グループII、グループIII、グループI、グループV、グループVIII、グループIV、グループVI、グループVIIに並び替える。
The ab data storage unit 42 stores the results from the Lab conversion grouping unit 30, and the group classification unit 44 rearranges the groups I to VIII in descending order of the number of stored pixels.
In the example of the logo image 72 described above, the groups I to VIII are assigned in the order of many X marks shown in FIG. 8, for example, group II, group III, group I, group V, group VIII, group IV, group VI. , Rearrange to group VII.

上位グループ認定部46は、まず、画素を最も多く格納したグループ、上記例で云えばグループIIを第1位、つまり、第1色目に認定する。
次いで、上位グループ認定部46は、このグループIIを除いた他のグループについて、画素の格納数の多い順に第2位〜第8位を付け、そのうち第2色目及び第3色目を認定する。
First, the upper group recognition unit 46 recognizes the group storing the largest number of pixels, that is, the group II in the above example, first, that is, the first color.
Next, the higher-level group recognition unit 46 places the second to eighth ranks in the descending order of the number of stored pixels for the other groups except for the group II, and recognizes the second and third colors.

ただし、本実施例では、第2色目は、第1色目に該当したグループの画素の格納数(例えば4000個)の7割以上(例えば2800個以上)を有しているグループであることを条件とし、同様に、第3色目は、この第2色目に該当したグループの画素の格納数(例えば2800個)の7割以上(例えば1960個以上)を有したグループであることを条件とする。格納数の少ないグループを上位に認定しないためである。   However, in the present embodiment, the second color is a group having 70% or more (for example, 2800 or more) of the number of stored pixels (for example, 4000) of the group corresponding to the first color. Similarly, it is a condition that the third color is a group having 70% or more (for example, 1960 or more) of the number of stored pixels (for example, 2800) of the group corresponding to the second color. This is because a group with a small number of storage is not recognized as a higher rank.

続いて、距離・角度算出部48は、まず、同一グループに格納された総ての画素の距離を求め、当該グループの平均距離を算出する。また、この同一グループに格納された総ての画素の角度を求め、当該グループの平均角度(平均仰角)を算出する。これら平均距離や平均角度は総てのグループについて算出され、その結果は結果返却部50に出力される。   Subsequently, the distance / angle calculation unit 48 first calculates the distances of all the pixels stored in the same group, and calculates the average distance of the group. Further, the angles of all the pixels stored in the same group are obtained, and the average angle (average elevation angle) of the group is calculated. These average distances and average angles are calculated for all groups, and the results are output to the result return unit 50.

そして、この結果返却部50は、撮影画像74の色データをデータベース10に登録する場合には、これら特定されたグループ名、平均距離、及び平均角度をデータベース10に出力する。これにより、この色データはデータベース10に保存される。
一方、結果返却部50は、撮影画像74に略一致するマスタデータをデータベース10から検索する場合には、これら特定されたグループ名、平均距離、及び平均角度を判別処理部60に出力する。
The result returning unit 50 outputs the specified group name, average distance, and average angle to the database 10 when registering the color data of the captured image 74 in the database 10. Thereby, this color data is stored in the database 10.
On the other hand, when the result returning unit 50 searches the database 10 for master data that substantially matches the captured image 74, the result returning unit 50 outputs the identified group name, average distance, and average angle to the discrimination processing unit 60.

判別処理部60は、図5に示されるように、角度比較判別部62、距離比較判別部64、及び結果返却部66で構成される。
この角度比較判別部62は、上述した第1色目〜第3色目に該当したグループを挟んだ両隣りのグループをデータベース10の検索対象に決定する。詳しくは、第1色目に該当したグループについて云えば、このグループの平均角度に所定の角度をそれぞれ加減して上限値及び下限値を求め、仰角方向でみて当該上限値から下限値までに含まれるグループ内の一部分を色の検索対象に決定する。
As illustrated in FIG. 5, the determination processing unit 60 includes an angle comparison determination unit 62, a distance comparison determination unit 64, and a result return unit 66.
The angle comparison / determination unit 62 determines the groups adjacent to each other across the groups corresponding to the first to third colors as the search targets of the database 10. Specifically, for the group corresponding to the first color, an upper limit value and a lower limit value are obtained by adding or subtracting a predetermined angle to the average angle of this group, and are included in the elevation angle direction from the upper limit value to the lower limit value. A part of the group is determined as a color search target.

上記例で云えば、図9に示されるように、第1色目に該当したグループIIの平均距離s1、平均角度t1とすれば、上限値はt1+u1、下限値はt1−u1となり、これら上限値に属するグループIIIの全体や下限値に属するグループIの全体ではなく、この図に形成された三角形の如く仰角方向でみて下限値(t1−u1)から上限値(t1+u1)までの領域91が色の検索対象になる。
なお、グループIIの両隣りに該当するグループIやグループIIIの総てを色の検索対象に決定しても良いが、上述のように上限値から下限値までの領域91を色の検索対象を決定すれば、グループ単位で色の検索対象に決定する場合に比して検索精度が向上する。これらグループIやグループIIIのうち上記平均角度t1から離れた範囲を検索対象に含めなくて済むからである。
In the above example, as shown in FIG. 9, if the average distance s1 and the average angle t1 of the group II corresponding to the first color are set, the upper limit value is t1 + u1 and the lower limit value is t1-u1, and these upper limit values The region 91 from the lower limit value (t1−u1) to the upper limit value (t1 + u1) when viewed in the elevation angle direction as in the triangle formed in this figure is not the entire group III belonging to or the entire group I belonging to the lower limit value. It becomes a search object.
Note that all the groups I and III corresponding to both sides of the group II may be determined as color search targets. However, as described above, the region 91 from the upper limit value to the lower limit value is selected as the color search target. If determined, the search accuracy is improved as compared with the case where the color search target is determined in units of groups. This is because the range apart from the average angle t1 among these groups I and III need not be included in the search target.

また、第2色目に該当したグループがグループIであったとすると、このグループIについても、その平均距離s2、平均角度t2とすれば、上限値はt2+u1、下限値はt2−u1となり、図10にて三角形で示された領域92のように、仰角方向でみてグループVIIIの一部からグループIIの一部が色の検索対象になる。   Further, if the group corresponding to the second color is group I, the upper limit value is t2 + u1 and the lower limit value is t2-u1 when the average distance s2 and average angle t2 of this group I are also shown in FIG. As shown in a region 92 indicated by a triangle at, a part of the group VIII to a part of the group II are searched for colors when viewed in the elevation direction.

さらに、第3色目に該当したグループについても同様に、360°の範囲内で上限値及び下限値を用いて範囲を決定し、この範囲に含まれる総ての色を検索対象に決定する。
続いて、距離比較判別部64は、求めた平均距離の大きさに応じてab平面における原点付近の総ての色についても検索対象に決定している。
Further, for the group corresponding to the third color, similarly, a range is determined using an upper limit value and a lower limit value within a range of 360 °, and all colors included in this range are determined as search targets.
Subsequently, the distance comparison / determination unit 64 determines all colors near the origin on the ab plane as search targets according to the obtained average distance.

具体的には、上記例で云えば、グループIの平均距離s2は図10の×印で示されるように、原点の近傍に位置する。
ここで、当該グループIについては、真に鈍い赤の画素が多く含まれているために、その平均距離が原点の近傍に位置するのか、或いは、上述したL値を考慮しなかったが故に、その平均距離が原点の近傍に位置するのかが不明になる。一方、この不明な場合を検索対象から除くのは好ましくない。
Specifically, in the above example, the average distance s2 of the group I is located in the vicinity of the origin as indicated by a cross in FIG.
Here, since the group I includes many truly dull red pixels, the average distance is located in the vicinity of the origin, or the L value described above is not considered, It is unclear whether the average distance is located near the origin. On the other hand, it is not preferable to exclude this unknown case from the search target.

そこで、本実施例では、データベース10には、色の不明確領域の判断基準として、原点を中心とした色の特定不能円が登録されており、距離比較判別部64は、上記平均距離s2がこの円の半径よりも短い場合には、上述したグループVIIIからグループII(或いは、図10にて三角形で示された領域)に加え、原点を中心とした上記半径の円も含めた領域92を規定し、当該円の内側に属する他のグループの色も検索対象に決定している。   Therefore, in this embodiment, an unspecified circle of color centered at the origin is registered in the database 10 as a criterion for determining an unclear region of color, and the distance comparison / discriminating unit 64 determines that the average distance s2 is When the radius is shorter than the radius of the circle, in addition to the above-mentioned group VIII to group II (or the region indicated by a triangle in FIG. 10), a region 92 including the circle with the radius centered on the origin is included. The colors of other groups belonging to the inside of the circle are also determined as search targets.

次に、結果返却部66は、このように識別された色の情報を特徴抽出部16に出力し、図3のステップS304に進む。
このステップS304では、特徴抽出部16が、上述した二値化画像の特徴を抽出し、これに識別された色の情報を加えて撮影画像74のパラメータを決定する。
Next, the result return unit 66 outputs the color information thus identified to the feature extraction unit 16, and proceeds to step S304 in FIG.
In step S304, the feature extraction unit 16 extracts the features of the above-described binarized image, and adds the identified color information to determine the parameters of the captured image 74.

そして、ステップS305に進み、認識・判断部18は、撮影画像74について決定したパラメータとデータベース10に格納されているマスタデータのパラメータとを比較し、撮影画像74の特徴量に最も近い値を有したマスタデータをデータベース10から検索する。その後、この決定したパラメータからロゴマークを取得できたときにはステップS306に進み、出力部20が、当該ロゴマークの属するURLを携帯機器2に返信してステップS307に進んで一連のルーチンを抜ける。この結果、携帯機器2は、このURLから広告の詳細情報を閲覧することができる。   In step S 305, the recognition / determination unit 18 compares the parameter determined for the captured image 74 with the master data parameter stored in the database 10, and has a value closest to the feature amount of the captured image 74. The master data is retrieved from the database 10. Thereafter, when the logo mark can be acquired from the determined parameters, the process proceeds to step S306, and the output unit 20 returns the URL to which the logo mark belongs to the portable device 2 and proceeds to step S307 to exit the series of routines. As a result, the mobile device 2 can browse the detailed information of the advertisement from this URL.

以上のように、本実施例によれば、画像処理プログラムは、撮影画像74の特徴を抽出して画像を処理するにあたり、サーバ8のコントローラ9が果たす手順を特定している。
詳しくは、撮影画像74を構成したドットマトリクス状の画素のRGB値を検出し、このRGB値をLab値に変換してL値をab値から分離しており、画素の色データをab平面にプロットしている。
As described above, according to the present embodiment, the image processing program specifies the procedure performed by the controller 9 of the server 8 in extracting the features of the captured image 74 and processing the image.
Specifically, the RGB values of the dot matrix pixels constituting the captured image 74 are detected, the RGB values are converted into Lab values, and the L values are separated from the ab values. Plotting.

ここで、本実施例では、L値は撮影画像74の色を分類する際に考慮しないことから、従来に比して誤認識を確実に回避できる。
また、画素の色データをab値のみで分類すれば、検索の母数がL値も含めた場合よりも少なくて済むので、従来に比して撮影画像74に略一致するマスタデータをデータベース10から速やかに検索可能になるし、検索されるデータベース10の負荷も軽減できる。或いは、より多くのマスタデータをデータベース10に登録可能になる。
Here, in this embodiment, since the L value is not considered when classifying the color of the captured image 74, erroneous recognition can be reliably avoided as compared with the conventional case.
Further, if the pixel color data is classified only by the ab value, the search parameter can be smaller than the case where the L parameter is included. Therefore, master data that substantially matches the captured image 74 as compared with the conventional case is stored in the database 10. Thus, it is possible to search quickly, and the load on the searched database 10 can be reduced. Alternatively, more master data can be registered in the database 10.

さらに、画素の色データはab平面にプロットされるが、これらは、原点からの距離、仰角、及び属する色のグループがそれぞれ特定される。そして、色データを最も多く有した上位グループを認定した後、この上位グループの他、上位グループの平均角度を挟んだ所定の下限値から上限値までの領域91,92も検索対象に決定されており、検索の母数の削減を図りつつも、必要となり得る色は確保でき、撮影画像74に略一致するマスタデータの検索精度の向上に寄与する。   Further, the pixel color data is plotted on the ab plane, which specifies the distance from the origin, the elevation angle, and the group of colors to which it belongs. Then, after identifying the upper group having the most color data, areas 91 and 92 from the predetermined lower limit value to the upper limit value sandwiching the average angle of the upper group are determined as search targets in addition to the upper group. Thus, while reducing the number of parameters for search, it is possible to secure colors that may be necessary, which contributes to improvement in search accuracy of master data that substantially matches the captured image 74.

一方、原点からの平均距離は総てのグループについて算出されており、この平均距離が色の特定不能円の半径よりも短い場合には、上位グループに該当しなくても、この円に属する色も検索対象に決定される。したがって、この場合にも、上述したL値を考慮しないことに対する保証になり、マスタデータの検索精度の向上に寄与する。   On the other hand, the average distance from the origin is calculated for all groups, and if this average distance is shorter than the radius of the unspecified color circle, even if it does not fall under the upper group, the color belonging to this circle Is also determined as a search target. Therefore, in this case as well, this is a guarantee that the above-described L value is not taken into consideration, and contributes to improvement in the search accuracy of the master data.

さらにまた、上述したLab表色系は、現在あらゆる分野で最も多く用いられた表色系であり、画素の色データにLab表色系を用いれば、広範囲に亘るプログラムの利用が可能になる。
また、このプログラムを用いた画像処理システム1によれば、システム利用者は、従来に比して撮影画像74に略一致するマスタデータをデータベース10から速やかに検索でき、この利用者にストレスを与えない。さらに、システム管理者からみれば、検索数(誤検索も含む)が減るため、従来に比してデータベース10の負荷軽減になるし、或いは、データベース10の空き容量が増えるため、より多くのマスタデータをデータベース10に登録できる。
Furthermore, the Lab color system described above is the most commonly used color system in all fields, and if the Lab color system is used for pixel color data, a wide range of programs can be used.
Further, according to the image processing system 1 using this program, the system user can quickly search the master data for the master data that substantially matches the photographed image 74 as compared with the conventional case, which gives stress to the user. Absent. Further, from the viewpoint of the system administrator, since the number of searches (including erroneous searches) is reduced, the load on the database 10 is reduced as compared with the conventional system, or the free space of the database 10 is increased, so that more masters are available. Data can be registered in the database 10.

本発明は、上記実施例に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。例えば上記実施例の各構成は、その一部を省略したり、上記とは異なるように任意に組み合わせることができる。
また、上記プログラムは、検索サーバ8のコントローラ9に備えられる他、上述した携帯機器2に備えられていても良い。
The present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the claims. For example, a part of the configurations of the above embodiments can be omitted or arbitrarily combined so as to be different from the above.
Further, the program may be provided in the portable device 2 described above in addition to the controller 9 of the search server 8.

さらに、上記実施例は、ロゴマークを検索するシステムに具現化した例で説明されているが、必ずしもこの形態に限定されるものではなく、撮影画像の色を数値化して分類する種々のシステムやプログラムに適用できる。
さらにまた、上記実施例では、検出したRGB値をLab値に変換しているが、画素の色はLab値で直接に検出されていても良い。
Furthermore, although the said Example was demonstrated in the example embodied in the system which searches a logo mark, it is not necessarily limited to this form, Various systems which classify the color of a picked-up image numerically, Applicable to programs.
Furthermore, in the above embodiment, the detected RGB value is converted into a Lab value, but the color of the pixel may be directly detected by the Lab value.

また、本発明は、このLab表色系にも限定されるものではない。すなわち、明度や輝度を色度とは別の値で完全に分離することができ、この色度を2次元座標空間にプロットできる表色系である限り、本発明は、XYZ表色系(Yが明度であり、概ね青の度合を示すZや、その他の要素を示すXが色度に相当する)、xyY表色系(Yが明度であり、色度座標を示すxやyが色度に相当する)、Luv表色系の他、HSV表色系、YUV表色系などの既知の表色系にも適用可能である。   Further, the present invention is not limited to this Lab color system. That is, as long as the color system is capable of completely separating lightness and luminance with values different from chromaticity and can plot this chromaticity in a two-dimensional coordinate space, the present invention is not limited to the XYZ color system (Y Is lightness, Z indicating the degree of blue, and X indicating other elements correspond to chromaticity), xyY color system (Y is lightness, x and y indicating chromaticity coordinates are chromaticity) In addition to the Luv color system, the present invention is also applicable to known color systems such as the HSV color system and the YUV color system.

そして、これらいずれの場合にも上記と同様に、色空間による分類を用いるにあたり、画像の誤認識を回避できるとの効果を奏する。   In any of these cases, similarly to the above, there is an effect that misrecognition of an image can be avoided when using classification by color space.

本実施例の画像処理システムを示す図である。It is a figure which shows the image processing system of a present Example. 図1の検索サーバの概略構成図である。It is a schematic block diagram of the search server of FIG. 図1のシステムによるロゴマーク検索のフローチャートである。It is a flowchart of the logo mark search by the system of FIG. 図3の撮影工程の説明図である。It is explanatory drawing of the imaging | photography process of FIG. 図3の前処理工程の制御ブロック図である。FIG. 4 is a control block diagram of the pretreatment process of FIG. 3. 図5の前処理部によるab平面座標の説明図である。It is explanatory drawing of ab plane coordinate by the pre-processing part of FIG. 図6のab平面座標に1画素の色データをプロットした図である。It is the figure which plotted the color data of 1 pixel on ab plane coordinate of FIG. 図6のab平面座標に複数の色データをプロットした図である。It is the figure which plotted several color data on ab plane coordinate of FIG. 図6のab平面座標における検索範囲の説明図である。It is explanatory drawing of the search range in ab plane coordinate of FIG. 図6のab平面座標における検索範囲の説明図である。It is explanatory drawing of the search range in ab plane coordinate of FIG.

符号の説明Explanation of symbols

1 画像処理システム
2 携帯機器(電子機器)
8 検索サーバ(電子機器)
9 コントローラ(コンピュータ)
10 データベース
14 前処理部
16 特徴抽出部
18 認識・判断部
20 出力部
74 撮影画像
80 ab平面
91,92 領域
1 Image processing system 2 Mobile device (electronic device)
8 Search server (electronic equipment)
9 Controller (computer)
DESCRIPTION OF SYMBOLS 10 Database 14 Pre-processing part 16 Feature extraction part 18 Recognition / judgment part 20 Output part 74 Photographed image 80 Ab plane 91,92 area | region

Claims (6)

撮影画像の特徴を抽出して該画像を処理する電子機器の画像処理プログラムであって、
該プログラムは、該電子機器のコンピュータに備えられており、該コンピュータに、
前記撮影画像を構成した画素の色データを検出する手順と、
該色データのうち明度に相当する値を色度に相当する値から分離し、該色データを前記色度に相当する値のみの2次元座標空間にプロットする手順と、
該色データの座標位置に基づいて前記撮影画像の色を分類する手順と
を実行させるための画像処理プログラム。
An image processing program for an electronic device that extracts a feature of a captured image and processes the image,
The program is provided in a computer of the electronic device,
A procedure for detecting color data of pixels constituting the captured image;
Separating a value corresponding to lightness from the value corresponding to chromaticity in the color data, and plotting the color data in a two-dimensional coordinate space of only a value corresponding to the chromaticity;
An image processing program for executing a procedure for classifying the color of the photographed image based on the coordinate position of the color data.
請求項1に記載の画像処理プログラムであって、
前記撮影画像の色を分類する手順は、
前記プロットした色データについて、前記2次元座標空間の原点からの距離、仰角、及び該空間を原点回りに等分割した範囲のうち属する色のグループをそれぞれ特定する手順と、
前記色データを最も多く有したグループから順に順位を設定し、所定の上位グループを認定する手順と、
該各上位グループにつき、前記プロットした各色データに関する平均仰角を算出する手順と、
前記仰角方向でみて、該算出した平均仰角を挟んだ所定の下限値から上限値までの領域を色の検索対象に決定する手順と
を含むことを特徴とする画像処理プログラム。
An image processing program according to claim 1,
The procedure for classifying the color of the captured image is as follows:
For the plotted color data, a procedure for identifying a distance from the origin of the two-dimensional coordinate space, an elevation angle, and a group of colors belonging to a range obtained by equally dividing the space around the origin;
A procedure for setting a rank in order from the group having the most color data and certifying a predetermined upper group;
For each upper group, a procedure for calculating an average elevation angle for each plotted color data;
An image processing program comprising: a procedure for determining an area from a predetermined lower limit value to an upper limit value sandwiching the calculated average elevation angle as a color search target when viewed in the elevation angle direction.
請求項2に記載の画像処理プログラムであって、
前記距離、仰角、及び属する色のグループをそれぞれ特定する手順に続き、
該各グループにつき、前記プロットした各色データに関する前記原点からの平均距離を算出する手順と、
該算出した平均距離が前記原点を中心とした色の特定不能円の半径よりも短い場合に、当該円の内側に属する色も検索対象に決定する手順と
を実行することを特徴とする画像処理プログラム。
An image processing program according to claim 2,
Following the steps of identifying the distance, elevation angle, and color group to which they belong,
For each group, a procedure for calculating an average distance from the origin for each plotted color data;
And executing a procedure for determining a color belonging to the inside of the circle as a search target when the calculated average distance is shorter than a radius of an unspecified circle of color centered on the origin. program.
請求項1から3のいずれか一項に記載の画像処理プログラムであって、
前記色データにはLab表色系が用いられており、
該色データのうちL値をab値から分離し、該各色データはab平面にのみプロットされていることを特徴とする画像処理プログラム。
An image processing program according to any one of claims 1 to 3,
Lab color system is used for the color data,
An image processing program characterized in that an L value is separated from an ab value in the color data, and each color data is plotted only on an ab plane.
携帯機器で撮影した撮影画像の特徴を抽出して該画像を処理する画像処理システムであって、
前記撮影画像の色を分類する前処理部を具備し、
該前処理部は、
前記撮影画像を構成した画素の色データを検出し、該色データのうち明度に相当する値を色度に相当する値から分離するとともに、該色データを色度のみの2次元座標空間でプロットしており、該色データの座標位置に基づいて前記撮影画像の色を分類し、その結果をデータベースに格納していることを特徴とする画像処理システム。
An image processing system that extracts features of a captured image captured by a mobile device and processes the image,
A pre-processing unit for classifying the color of the captured image;
The preprocessing unit
Detects color data of pixels constituting the photographed image, separates a value corresponding to lightness from the color data from a value corresponding to chromaticity, and plots the color data in a two-dimensional coordinate space of only chromaticity An image processing system, wherein the color of the captured image is classified based on the coordinate position of the color data, and the result is stored in a database.
携帯機器で撮影した撮影画像の特徴を抽出して該画像を処理する画像処理システムであって、
前記撮影画像の色を分類する前処理部と、
前記撮影画像の画像特徴量を抽出し、前記分類した色の情報も加味して該撮影画像のパラメータを決定する特徴抽出部と、
該決定したパラメータとデータベースに格納されているマスタデータのパラメータとを比較し、前記撮影画像に略一致したマスタデータを前記データベースから検索する認識・判断部と、
該検索したマスタデータの属するURLを前記データベースから前記携帯機器に返信する出力部とを具備し、
上述した前処理部は、
前記撮影画像を構成した画素の色データを検出し、該色データのうち明度に相当する値を色度に相当する値から分離するとともに、該色データを色度のみの2次元座標空間でプロットしており、該色データの座標位置に基づいて前記撮影画像の色を分類していることを特徴とする画像処理システム。
An image processing system that extracts features of a captured image captured by a mobile device and processes the image,
A pre-processing unit for classifying the color of the captured image;
A feature extraction unit that extracts an image feature amount of the photographed image and determines parameters of the photographed image in consideration of the classified color information;
A recognition / determination unit that compares the determined parameter with a parameter of master data stored in a database, and searches the database for master data that substantially matches the captured image;
An output unit that returns a URL to which the retrieved master data belongs from the database to the portable device;
The pre-processing unit described above
Detects color data of pixels constituting the photographed image, separates a value corresponding to lightness from the color data from a value corresponding to chromaticity, and plots the color data in a two-dimensional coordinate space of only chromaticity An image processing system, wherein the color of the captured image is classified based on the coordinate position of the color data.
JP2008226525A 2008-09-03 2008-09-03 Image processing program and image processing system Pending JP2010061408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008226525A JP2010061408A (en) 2008-09-03 2008-09-03 Image processing program and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226525A JP2010061408A (en) 2008-09-03 2008-09-03 Image processing program and image processing system

Publications (1)

Publication Number Publication Date
JP2010061408A true JP2010061408A (en) 2010-03-18

Family

ID=42188142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226525A Pending JP2010061408A (en) 2008-09-03 2008-09-03 Image processing program and image processing system

Country Status (1)

Country Link
JP (1) JP2010061408A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101208575B1 (en) 2011-04-08 2012-12-06 최상복 Inspecting method of color similarity using complementary color relationship of chromatic color and achromatic color, subject detecting method and heat treatment inspecting method using the same
CN115760740A (en) * 2022-11-10 2023-03-07 中邮通建设咨询有限公司 Image data processing method for unmanned aerial vehicle aerial photography

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101208575B1 (en) 2011-04-08 2012-12-06 최상복 Inspecting method of color similarity using complementary color relationship of chromatic color and achromatic color, subject detecting method and heat treatment inspecting method using the same
CN115760740A (en) * 2022-11-10 2023-03-07 中邮通建设咨询有限公司 Image data processing method for unmanned aerial vehicle aerial photography
CN115760740B (en) * 2022-11-10 2024-01-26 中邮通建设咨询有限公司 Unmanned aerial vehicle aerial photographing image data processing method

Similar Documents

Publication Publication Date Title
US10127441B2 (en) Systems and methods for classifying objects in digital images captured using mobile devices
WO2019169772A1 (en) Picture processing method, electronic apparatus, and storage medium
WO2020082577A1 (en) Seal anti-counterfeiting verification method, device, and computer readable storage medium
US9311531B2 (en) Systems and methods for classifying objects in digital images captured using mobile devices
US9100630B2 (en) Object detection metadata
WO2017000716A2 (en) Image management method and device, and terminal device
CN103699532B (en) Image color retrieval method and system
CN107613202B (en) Shooting method and mobile terminal
CN103810471B (en) Identify the method and apparatus and its image pickup method of file and picture
US10430457B2 (en) Image processing apparatus, image processing method, search apparatus, search method, and non-transitory computer-readable storage medium
JP2010211498A (en) Image processing program and image processing system
CN112200844A (en) Method, device, electronic equipment and medium for generating image
JP6736988B2 (en) Image retrieval system, image processing system and image retrieval program
US9411825B2 (en) Computer implemented system for handling text distracters in a visual search
CN110555471B (en) Mobile terminal and target object searching method
JP2010061408A (en) Image processing program and image processing system
Santos et al. Recognizing and exploring azulejos on historic buildings' facades by combining computer vision and geolocation in mobile augmented reality applications
CN113065010B (en) Label image management method, apparatus, computer device and storage medium
CN112069357B (en) Video resource processing method and device, electronic equipment and storage medium
Astawa et al. The impact of color space and intensity normalization to face detection performance
KR101758869B1 (en) Classification apparatus and method of multi-media contents
CN108052525B (en) Method and device for acquiring audio information, storage medium and electronic equipment
JP2007011762A (en) Area extraction apparatus and area extraction method
CN115170785B (en) Character recognition method for image, electronic device and storage medium
KR101063139B1 (en) Content-based image retrieval method and apparatus robust to size change, rotation, and cutting