JP2015122019A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2015122019A
JP2015122019A JP2013266535A JP2013266535A JP2015122019A JP 2015122019 A JP2015122019 A JP 2015122019A JP 2013266535 A JP2013266535 A JP 2013266535A JP 2013266535 A JP2013266535 A JP 2013266535A JP 2015122019 A JP2015122019 A JP 2015122019A
Authority
JP
Japan
Prior art keywords
image
image processing
degree
image feature
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013266535A
Other languages
Japanese (ja)
Other versions
JP6287176B2 (en
Inventor
正樹 石原
Masaki Ishihara
正樹 石原
松田 裕司
Yuji Matsuda
裕司 松田
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
遠藤 進
Susumu Endo
進 遠藤
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013266535A priority Critical patent/JP6287176B2/en
Publication of JP2015122019A publication Critical patent/JP2015122019A/en
Application granted granted Critical
Publication of JP6287176B2 publication Critical patent/JP6287176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To perform natural emphasis and suppression processing on the feature of images, while making the most of the original image.SOLUTION: An image processing apparatus according to an embodiment of the present invention includes an image feature extraction unit that compares images belonging to different categories from each other and extracts the feature of the images between the categories, and an image processing unit that adjusts the degree of emphasis to the feature of the images according to the degree of difference between the frequency of appearance of the feature of the images and the frequency of appearance of the similar feature of images similar to the feature of the images.

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

農業分野において、熟練農家や営農指導員などの専門家から新規就農者への伝承技術や知識共有の一つに、病害虫の見分け方がある。病害虫は、見た目が似ていても種類によって、農薬への抵抗性が異なっていたり、防除のタイミング(時期)が異なっている。このため、農薬の配布量や配布時期を正確に判断するためには、新規就農者にとって、病害虫の見分け方を正しく習得することは重要である。   In the agricultural field, one way to share knowledge and knowledge from experts such as skilled farmers and farm managers to new farmers is to identify pests. Although pests look similar, pesticide resistance and timing (time) of control differ depending on the type. For this reason, it is important for new farmers to correctly learn how to identify pests and pests in order to accurately determine the distribution amount and distribution period of pesticides.

このような中、例えば、新規就農者等が、虫を見つけた際にその場で虫の様態を確認し虫の種類を判断できるように、病害虫の見分け方の習得を効率化するための学習システムがある。当該学習システムにおいては、病害虫の種類を見分けるために重要となる外見上の画像特徴(形状や色等)と、それが現れる位置とを学習者に分かりやすく伝えるために、当該画像特徴を際立たせるような強調・抑制処理を施した画像を作成する。   Under these circumstances, for example, when a new farmer finds an insect, learning to make it easier to learn how to identify pests so that the state of the insect can be confirmed on the spot and the type of insect can be determined There is a system. In the learning system, the image features are emphasized in order to clearly convey to the learner the apparent image features (shape, color, etc.) that are important for distinguishing the types of pests and the positions where they appear. Create an image that has undergone such enhancement / suppression.

画像の強調・抑制処理に関連する技術として、例えば、画像内の注目領域と非注目領域の画像特徴(コントラスト、明るさ、彩度など)の平均値で強調や低減の度合いを決定付けたり、非注目領域に比べ注目領域内に多く現れる色相の画素数で強調度合いを決定付けることで、注目領域又は非注目領域全体に対して、強調や低減の画像処理を加える技術が挙げられる。   Techniques related to image enhancement / suppression processing include, for example, determining the degree of enhancement or reduction by the average value of image features (contrast, brightness, saturation, etc.) of the attention area and non-attention area in the image, There is a technique in which enhancement or reduction image processing is performed on the attention area or the entire non-attention area by determining the degree of enhancement based on the number of pixels of hues that appear more in the attention area than the non-attention area.

特開2012−093904号公報JP 2012-093904 A 特開2011−103640号公報JP 2011-103640 A

しかしながら、上記の強調・抑制処理に関連する技術は、注目領域(又は非注目領域)の全ての画素に同一の度合いで強調又は抑制の画像処理を行うため、元画像と比べて、注目領域(又は非注目領域)の画像特徴の全体傾向が変わってしまい、不自然な強調又は抑制となる可能性がある。   However, since the technique related to the enhancement / suppression process performs enhancement or suppression image processing at the same degree on all pixels in the attention area (or non-attention area), the attention area ( Alternatively, the overall tendency of the image features of the non-attention area) may change, resulting in unnatural enhancement or suppression.

本発明は、1つの側面において、画像特徴に対して、元画像を生かした自然な強調・抑制処理を行うことを目的とする。   In one aspect, an object of the present invention is to perform natural enhancement / suppression processing using an original image on image features.

本実施例の一態様によれば、画像の特定箇所に対し画像処理を実行する画像処理装置であって、異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出する画像特徴抽出部と、前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整する画像処理部とを有する。   According to one aspect of the present embodiment, an image processing device that performs image processing on a specific portion of an image, compares images belonging to different categories, and extracts image features between categories And an image processing unit that adjusts the degree of emphasis on the image feature in accordance with the degree of difference between the appearance frequency of the image feature and the appearance frequency of similar image features similar to the image feature.

また、上記課題を解決するための手段として、方法、プログラム、及びプログラムを記憶した記憶媒体とすることもできる。   Further, as a means for solving the above problems, a method, a program, and a storage medium storing the program can be used.

本実施例の一態様によれば、画像特徴に対して、元画像を生かした自然な強調・抑制処理を行うことができる。   According to one aspect of the present embodiment, natural enhancement / suppression processing using the original image can be performed on the image features.

ヨトウムシ類の見分け方例を示す図である。It is a figure which shows the example of how to distinguish a weevil. 学習システムの画面例を示す図である。It is a figure which shows the example of a screen of a learning system. 画像処理装置のシステム構成例を示す図である。1 is a diagram illustrating a system configuration example of an image processing apparatus. 画像処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an image processing apparatus. 画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of an image processing apparatus. 画像処理動作の一例を示す全体フローチャートである。3 is an overall flowchart illustrating an example of an image processing operation. 画像特徴の出現頻度ヒストグラム作成処理の説明図である。It is explanatory drawing of the appearance frequency histogram creation process of an image feature. カテゴリ毎のサンプル画像から得られる画像特徴の出現頻度ヒストグラム例を示す図である。It is a figure which shows the example of an appearance frequency histogram of the image feature obtained from the sample image for every category. 画像特徴の出現頻度ヒストグラム作成処理の説明図である。It is explanatory drawing of the appearance frequency histogram creation process of an image feature. 画像特徴の重要度ヒストグラム作成処理の説明図である。It is explanatory drawing of the importance histogram creation process of an image feature. 重要次元特定処理の説明図である。It is explanatory drawing of an important dimension specific process. 重要箇所特定処理の説明図である。It is explanatory drawing of an important location identification process. 重要箇所特定処理の説明図である。It is explanatory drawing of an important location identification process. 強調・抑制処理の説明図である。It is explanatory drawing of an emphasis / suppression process. 強調・抑制処理の説明図である。It is explanatory drawing of an emphasis / suppression process. 強調・抑制処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of an emphasis / suppression processing operation. 強調・抑制処理の対象例を示す図である。It is a figure which shows the example of an object of an emphasis / suppression process. 強調・抑制処理後のサンプル画像例を示す図である。It is a figure which shows the sample image example after an emphasis / suppression process.

以下、本発明の実施例について詳細に説明する。   Examples of the present invention will be described in detail below.

はじめに、病害虫の見分け方の例について説明する。   First, an example of how to identify pests will be described.

図1は、ヨトウムシ類の見分け方例を示す図である。病害虫の一例として、ヨトウムシ類には、それぞれ見た目がよく似ているタバコガ、ウワバ、ヨトウ類(ヨトウガ、ハスモンヨトウ等)、シロイチモジヨトウという種類がある。   FIG. 1 is a diagram showing an example of how to distinguish the weevil. As an example of pests, there are types of weevil such as tobacco moth, waba, weevil (Yotoga, Lotus moth, etc.) and Shirochimojito which look similar to each other.

まず、タバコガは、頻繁に多発し食害速度が速いため、防除のタイミングとしては、見つけ次第、すぐに防除を行うことが望ましい。一方、ウワバは、それほど多発しないため、それほど急いで、防除を行う必要がない。従って、防除のタイミングを判断するためには、タバコガとウワバとを正確に見分ける必要がある。   First, tobacco moth frequently occurs and has a high rate of damage, so it is desirable to control as soon as it is found. On the other hand, owaba does not occur so frequently, so it is not so hurry to control. Therefore, in order to determine the timing of control, it is necessary to accurately distinguish between tobacco and wabas.

一方、ヨトウ類とシロイチモジヨトウは、先述したタバコガとウワバに比べ農薬への耐性が強いため、難防除害虫として知られている。このため、農薬による防除以外に、フェロモンディスペンサーと呼ばれる成虫の交尾及び産卵を抑制する防除器具が有効とされる。しかし、ヨトウ類とシロイチモジヨトウは、それぞれ専用の防除器具があるため、適切な防除器具を用いるには、両者を正確に見分ける必要がある。   On the other hand, Coleoptera and Shirouchimojito are known as difficult-to-control insects because they are more resistant to pesticides than tobacco moth and ouaba. For this reason, the control apparatus which suppresses the mating and egg-laying of an adult called a pheromone dispenser other than the control by an agricultural chemical is effective. However, there is a dedicated control device for each of C. elegans and Shirouchimojito, so it is necessary to accurately distinguish between them in order to use an appropriate control device.

従来より、病害虫の見分けるための資料として、例えば、日本植物防疫協会のJPP−NETや各都道府県の農業試験場・防疫所のWebページでは、病害虫の種類毎にサンプル画像と説明文とを一覧表示したデジタル図鑑をサービス提供している。また、近年では、虫を撮影した画像から虫の種類を専門家が回答するというサービスも登場してきている。しかし、このサービスは、人力認識のため認識結果が得られるまで時間が掛かるという問題や、撮影角度などの撮影条件により撮影画像の認識精度に差がでてしまう問題がある。   Conventionally, as materials for distinguishing pests, for example, JPP-NET of the Japan Plant Protection Association and the web pages of agricultural test sites and quarantine stations in each prefecture list sample images and descriptions for each type of pest. We provide a digital picture book. In recent years, a service has also appeared in which an expert answers the type of insect from an image of the insect. However, this service has a problem that it takes time until a recognition result is obtained for human power recognition, and a problem that a difference in recognition accuracy of a photographed image depends on photographing conditions such as a photographing angle.

このような中、例えば、新規就農者等が、虫を見つけた際にその場で虫の様態を確認し虫の種類を判断できるように、病害虫の見分け方の習得を効率化するための学習システムを提供することが考えられる。   Under these circumstances, for example, when a new farmer finds an insect, learning to make it easier to learn how to identify pests so that the state of the insect can be confirmed on the spot and the type of insect can be determined It is conceivable to provide a system.

図2は、学習システムの画面例を示す図である。このような学習システムにおいては、正解を伏せた試験画像を学習者にクイズ形式で提示し、各種類のサンプル画像と比較しながら、見分けるべきポイントを学習することができる。   FIG. 2 is a diagram illustrating a screen example of the learning system. In such a learning system, it is possible to learn points to be distinguished while presenting the test image with the correct answer to the learner in a quiz format and comparing it with each type of sample image.

ここで、当該学習システムにおいては、病害虫の種類を見分けるために重要となる外見上の画像特徴(形状や色等)と、それが現れる位置とを学習者に分かりやすく伝えるために、当該画像特徴に対して、例えば、強調表示や矩形描画などの画像処理(画像加工)した学習コンテンツが必要となる。一方、病害虫は、卵〜幼虫〜サナギ〜成虫などと成長するため、同じ種類の病害虫であっても、撮影された時期に応じて様態が変化するという特徴がある。このため、成長の様態毎に、コンテンツを準備する必要があるが、そのコンテンツ量は膨大となる。したがって、人手でコンテンツを作成するには作業コストが問題となるため、コンピュータによるコンテンツの自動作成が求められる。   Here, in the learning system, in order to easily convey to the learner the apparent image features (shape, color, etc.) that are important for distinguishing the types of pests and the positions where they appear, the image features On the other hand, for example, learning content subjected to image processing (image processing) such as highlighting or rectangular drawing is required. On the other hand, since pests grow with eggs, larvae, willows, adults, and the like, even if they are the same kind of pests, there is a feature that the state changes depending on the time of photographing. For this reason, it is necessary to prepare content for each growth mode, but the amount of content becomes enormous. Therefore, since the work cost is a problem for manually creating content, automatic creation of content by a computer is required.

具体的に、コンピュータは、異なるカテゴリのサンプル画像がそれぞれ入力されると、異なるカテゴリ間で画像を比較し、特異となる画像特徴(形状や色等)とそれが現れる場所とを求め、比較対象のカテゴリに対応する当該画像特徴を際立たせるような強調・抑制処理を施した画像を作成する。   Specifically, when each sample image of a different category is input, the computer compares the images between the different categories, finds a unique image feature (shape, color, etc.) and where it appears, and compares An image that has been subjected to emphasis / suppression processing that highlights the image feature corresponding to the category is created.

本実施例では、コンピュータが、画像特徴に対して強調・抑制処理を行う際、画像特徴の出現頻度と類似画像特徴の出現頻度との差分度合いに応じて、画像特徴に対する強調処理の度合いを調整することで、元画像を生かした自然な強調・抑制処理を行う。以下、詳細に説明する。   In this embodiment, when the computer performs enhancement / suppression processing for image features, the degree of enhancement processing for image features is adjusted according to the difference between the appearance frequency of image features and the appearance frequency of similar image features. By doing so, natural enhancement / suppression processing using the original image is performed. Details will be described below.

<システム構成例>
図3は、本実施例における画像処理装置1のシステム構成例を示す図である。図3に示す画像処理装置1は、記憶装置2と接続される。
<System configuration example>
FIG. 3 is a diagram illustrating a system configuration example of the image processing apparatus 1 in the present embodiment. An image processing apparatus 1 shown in FIG. 3 is connected to a storage device 2.

画像処理装置1は、元画像に対して、強調・抑制処理を含む各種画像処理を実施する。画像処理装置1は、例えば、病害虫のカテゴリ毎(種類毎)に分類された病害虫のサンプル画像が入力されると、異なるカテゴリ間でサンプル画像を比較し、病害虫の種類を見分けるために重要となる外見上の画像特徴(形状や色等)と、それが現れる位置とを求める。画像処理装置1は、画像特徴とその位置を求めると、当該カテゴリに属する病害虫の画像特徴を際立たせるような強調・抑制処理を施した画像を生成する。強調・抑制処理は、例えば、画像特徴が形状の場合はエッジやぼかしを強調・抑制したり、画像特徴が色の場合は彩度を強調・抑制したりする。生成された画像は、例えば、病害虫の種類を見分けるための学習システム等に用いる学習コンテンツとして利用できる。   The image processing apparatus 1 performs various image processing including enhancement / suppression processing on the original image. For example, when sample images of pests classified for each category (type) of the pest are input, the image processing apparatus 1 is important for comparing the sample images between different categories and distinguishing the types of pests. The appearance image features (shape, color, etc.) and the position where they appear are obtained. When the image processing device 1 obtains the image feature and its position, the image processing device 1 generates an image that has been subjected to enhancement / suppression processing that highlights the image feature of the pest belonging to the category. The enhancement / suppression processing, for example, enhances / suppresses edges and blurring when the image feature is a shape, and emphasizes / suppresses saturation when the image feature is a color. The generated image can be used, for example, as learning content used in a learning system or the like for identifying the types of pests.

記憶装置2は、病害虫のカテゴリ毎(種類毎)に分類された病害虫のサンプル画像を予め記憶する。図3に示されるように、例えば、カテゴリAには、「ハスモンヨトウ」のサンプル画像20Aが、カテゴリBには、「シロイチモジヨトウ」のサンプル画像20Bが、カテゴリCには、「ウワバ」のサンプル画像20Cがそれぞれ記憶されている。なお、同一カテゴリ内に、同一種類の病害虫の画像を複数記憶してもよい。サンプル画像の中には、撮影条件等によっては画像特徴等がきれいに写っていない場合があり、病害虫の画像特徴を判定する際、サンプル画像の差異を吸収するためである。   The storage device 2 stores in advance sample images of pests classified for each category (type) of pests. As shown in FIG. 3, for example, a sample image 20A of “Hasmonyotou” is included in the category A, a sample image 20B of “Shiroyomoyotou” is included in the category B, and a sample image 20C of “Waba” is included in the category C. Are stored. A plurality of images of the same type of pests may be stored in the same category. This is because some sample images may not clearly show image features or the like depending on the photographing conditions and the like, and the difference between the sample images is absorbed when determining the image features of the pests.

なお、記憶装置2は、画像処理装置1に内蔵される記憶装置として構成されてもよい。   The storage device 2 may be configured as a storage device built in the image processing apparatus 1.

図4は、本実施例における画像処理装置1のハードウェア構成例を示す図である。画像処理装置1は、主要な構成として、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、インターフェース15、入力装置16、表示装置17、及び通信装置18を有する。   FIG. 4 is a diagram illustrating a hardware configuration example of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a HDD (Hard Disk Drive) 14, an interface 15, an input device 16, A display device 17 and a communication device 18 are included.

CPU11は、マイクロプロセッサ及びその周辺回路から構成され、装置全体を制御する回路である。また、ROM12は、CPU11で実行される所定の制御プログラムを格納するメモリである。また、RAM13は、CPU11がROM12に格納された所定の制御プログラムを実行して各種の制御を行うときの作業領域として使用するメモリである。   The CPU 11 is composed of a microprocessor and its peripheral circuits, and is a circuit that controls the entire apparatus. The ROM 12 is a memory that stores a predetermined control program executed by the CPU 11. The RAM 13 is a memory used as a work area when the CPU 11 executes a predetermined control program stored in the ROM 12 to perform various controls.

HDD14は、汎用のOS(Operating System)、画像処理プログラムを含む各種プログラムを含む各種情報を格納する装置であり、不揮発性の記憶装置である。   The HDD 14 is a device that stores various information including various programs including a general-purpose OS (Operating System) and an image processing program, and is a nonvolatile storage device.

インターフェース15は、外部機器と接続するためのインターフェースである。   The interface 15 is an interface for connecting to an external device.

入力装置16は、ユーザが各種入力操作を行うための装置である。入力装置16は、マウス、キーボード、表示装置17の表示画面上に重畳するように設けられたタッチパネルスイッチなどを含む。   The input device 16 is a device for a user to perform various input operations. The input device 16 includes a mouse, a keyboard, a touch panel switch provided so as to be superimposed on the display screen of the display device 17, and the like.

表示装置17は、各種データを表示画面に表示する装置である。例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)などから構成される。   The display device 17 is a device that displays various data on a display screen. For example, it is composed of LCD (Liquid Crystal Display), CRT (Cathode Ray Tube) and the like.

通信装置18は、ネットワークを介して外部機器との通信を行う装置である。有線ネットワークや無線ネットワークなど含む各種ネットワーク形態に応じた通信をサポートする。   The communication device 18 is a device that communicates with an external device via a network. Supports communication according to various network forms including wired and wireless networks.

図5は、本実施例における画像処理装置1の機能構成例を示す図である。画像処理装置1は、主な機能部として、画像特徴抽出部101、画像処理部102を有する。   FIG. 5 is a diagram illustrating a functional configuration example of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 includes an image feature extraction unit 101 and an image processing unit 102 as main functional units.

画像特徴抽出部101は、異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出するなどの処理を行う。   The image feature extraction unit 101 performs processing such as comparing images belonging to different categories and extracting image features between the categories.

画像処理部102は、画像特徴の出現頻度と、画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、画像特徴に対する強調処理の度合いを調整するなどの処理を行う。   The image processing unit 102 performs processing such as adjusting the degree of enhancement processing for image features in accordance with the degree of difference between the appearance frequency of image features and the appearance frequency of similar image features similar to the image features.

なお、上記機能部は、画像処理装置1を構成するコンピュータのCPU、ROM、RAM等のハードウェア資源上で実行されるコンピュータプログラムによって実現されるものである。また、これらの機能部は、「手段」、「モジュール」、「ユニット」、又は「回路」に読替えてもよい。   The functional unit is realized by a computer program executed on hardware resources such as a CPU, a ROM, and a RAM of a computer constituting the image processing apparatus 1. These functional units may be read as “means”, “module”, “unit”, or “circuit”.

<画像処理>
図6は、本実施例における画像処理動作の一例を示す全体フローチャートである。以下、S100〜S500の各ステップについて説明する。
<Image processing>
FIG. 6 is an overall flowchart showing an example of the image processing operation in this embodiment. Hereinafter, each step of S100-S500 is demonstrated.

(S100)
まず、S100において、画像特徴抽出部101による画像特徴の出現頻度ヒストグラム作成処理について説明する。なお、病害虫の種類を見分けるために重要となる外見上の画像特徴として、主に「形状」、「色」がある。
(S100)
First, an image feature appearance frequency histogram creation process by the image feature extraction unit 101 in S100 will be described. In addition, there are mainly “shape” and “color” as appearance image features that are important for distinguishing the types of pests.

・画像特徴が形状の場合
図7は、本実施例における画像特徴の出現頻度ヒストグラム作成処理の説明図である。以下、画像特徴が「形状」である場合について説明する。
When Image Feature is Shape FIG. 7 is an explanatory diagram of an image feature appearance frequency histogram creation process in the present embodiment. The case where the image feature is “shape” will be described below.

画像特徴の出現頻度ヒストグラム作成する手法として、一般物体認識で広く用いられているアプローチであるBag of Features(BoF)がある。画像処理装置1が実行するBoFについて説明する。   Bag of Features (BoF), which is an approach widely used in general object recognition, is used as a technique for creating an appearance frequency histogram of image features. The BoF executed by the image processing apparatus 1 will be described.

画像処理装置1において、画像特徴抽出部101は、1枚のサンプル画像から、SIFT(Scale-Invariant Feature Transform)などの特徴点(局所特徴点)を抽出する(図7の(a))。次に、画像特徴抽出部101は、抽出した特徴点から、k-means手法などによって、特徴空間上似たような特徴点(特徴量)のクラスタリングを行い、所定数のクラスタに分類する(図7の(b))。そして、画像特徴抽出部101は、得られたクラスタをVisual Wordsとすることで、コードブックを作成する(図7の(c))。   In the image processing apparatus 1, the image feature extraction unit 101 extracts feature points (local feature points) such as SIFT (Scale-Invariant Feature Transform) from one sample image ((a) in FIG. 7). Next, the image feature extraction unit 101 performs clustering of feature points (features) similar in the feature space from the extracted feature points using the k-means method or the like, and classifies them into a predetermined number of clusters (see FIG. 7 (b)). Then, the image feature extraction unit 101 creates a code book by setting the obtained cluster as Visual Words ((c) of FIG. 7).

最後に、画像特徴抽出部101は、横軸を各次元(コードブックの各Visual Words)、縦軸を各Visual Wordsのクラスタに分類された特徴点の出現頻度(出現数)としたヒストグラムを作成する(図7の(d))。このヒストグラムが、1枚のサンプル画像から得られる画像特徴(形状)の出現頻度ヒストグラムである。   Finally, the image feature extraction unit 101 creates a histogram in which the horizontal axis represents each dimension (each Visual Words in the codebook) and the vertical axis represents the appearance frequency (number of appearances) of feature points classified into each Visual Words cluster. ((D) of FIG. 7). This histogram is an appearance frequency histogram of image features (shape) obtained from one sample image.

なお、横軸の各Visual Wordsの配列は、形状の類似連続性を有する順序で、Visual Wordsを配列する。例えば、Visual Wordsが「方向(角度)及び広がり」を基準としている場合、横軸方向に対し、「方向(角度)及び広がり」の程度順に、各Visual Wordsを連続的に配列させる。これにより、前後の次元(Visual Words)は類似することになる。   In addition, the arrangement | sequence of each Visual Words of a horizontal axis arranges Visual Words in the order which has the similarity continuity of a shape. For example, when Visual Words is based on “direction (angle) and spread”, each Visual Words is continuously arranged in the order of “direction (angle) and spread” with respect to the horizontal axis direction. As a result, the front and back dimensions (Visual Words) are similar.

図8は、本実施例におけるカテゴリ毎のサンプル画像から得られる画像特徴の出現頻度ヒストグラム例を示す図である。カテゴリ毎のサンプル画像20A、20B、20Cに対し、上記(a)〜(d)の処理を経ることで、それぞれのサンプル画像から画像特徴(形状)の出現頻度ヒストグラム21A、21B、21Cを得ることができる。   FIG. 8 is a diagram illustrating an appearance frequency histogram example of image features obtained from sample images for each category in the present embodiment. The appearance frequency histograms 21A, 21B, and 21C of image features (shapes) are obtained from the sample images by performing the processes (a) to (d) on the sample images 20A, 20B, and 20C for each category. Can do.

なお、Bag of Features(BoF)に関する文献として、例えば、以下のようなものを参照することができる。
須賀晃, 滝口哲也, 有木康雄, "複数特徴量の重み付け統合による一般物体認識", MIRU2009.
・画像特徴が色の場合
図9は、本実施例における画像特徴の出現頻度ヒストグラム作成処理の説明図である。以下、画像特徴が「色」である場合について説明する。
Note that, for example, the following can be referred to as a document related to Bag of Features (BoF).
Jun Suga, Tetsuya Takiguchi, Yasuo Ariki, "General Object Recognition by Weighted Integration of Multiple Features", MIRU2009.
When Image Feature is Color FIG. 9 is an explanatory diagram of image feature appearance frequency histogram creation processing in the present embodiment. Hereinafter, a case where the image feature is “color” will be described.

まず、画像処理装置1において、画像特徴抽出部101は、1枚のサンプル画像を所定サイズのブロック領域に分割する(図9の(a))。次に、画像特徴抽出部101は、各ブロック領域の平均画素値を算出し、色空間上、その平均画素値に対応させてブロック領域を色空間にマッピングする。さらに、画像特徴抽出部101は、色空間を部分空間に分割し、分割した部分空間を、各ブロック領域が属するビンと定義する(図9の(b))。   First, in the image processing apparatus 1, the image feature extraction unit 101 divides one sample image into block regions of a predetermined size ((a) in FIG. 9). Next, the image feature extraction unit 101 calculates an average pixel value of each block area, and maps the block area to the color space in correspondence with the average pixel value in the color space. Furthermore, the image feature extraction unit 101 divides the color space into partial spaces, and defines the divided partial spaces as bins to which each block region belongs ((b) of FIG. 9).

最後に、画像特徴抽出部101は、横軸を各次元(色空間の各ビン)、縦軸を各ビンに属するブロック領域の平均画素値を出現頻度(出現数)としたヒストグラムを作成する(図9の(c))。このヒストグラムが、1枚のサンプル画像から得られる画像特徴(色)の出現頻度ヒストグラムである。   Finally, the image feature extraction unit 101 creates a histogram with the horizontal axis representing each dimension (each bin in the color space) and the vertical axis representing the average pixel value of the block area belonging to each bin (appearance frequency). (C) of FIG. This histogram is an appearance frequency histogram of image features (colors) obtained from one sample image.

なお、横軸の各ビンの配列は、色の類似連続性を有する順序で、ビンを配列する。これにより、前後の次元(ビン)は類似することになる。   The bins on the horizontal axis are arranged in the order having similar continuity of colors. As a result, the front and rear dimensions (bins) are similar.

形状の場合と同様に、カテゴリ毎のサンプル画像20A、20B、20Cに対し、上記(a)〜(c)の処理を経ることで、それぞれのサンプル画像から画像特徴(色)の出現頻度ヒストグラム(例えば、図8と同様)を得ることができる。   Similar to the case of the shape, by performing the processes (a) to (c) on the sample images 20A, 20B, and 20C for each category, the appearance frequency histogram ( For example, as in FIG.

(S200)
次に、S200において、画像特徴抽出部101による画像特徴の重要度ヒストグラム作成処理について説明する。
(S200)
Next, an image feature importance histogram creation process by the image feature extraction unit 101 in S200 will be described.

図10は、本実施例における画像特徴の重要度ヒストグラム作成処理の説明図である。本処理は、画像特徴が「形状」である場合、「色」である場合について、共通である。   FIG. 10 is an explanatory diagram of image feature importance histogram creation processing in the present embodiment. This process is common for the case where the image feature is “shape” and “color”.

画像特徴(形状、色)の重要度ヒストグラムは、2つのカテゴリ間で、出現頻度ヒストグラムの比較を行うことで作成される。具体的に、画像処理装置1において、画像特徴抽出部101は、2つのカテゴリ間で、まず一方のカテゴリにおける一つの次元(Visual words又は各ビン)から、その出現頻度を取得する。また、もう一方のカテゴリにおける対応次元(Visual words又は各ビン)から、その出現頻度を取得する。そして、画像特徴抽出部101は、両出現頻度の差分値(差分値の絶対値)を算出する。   The importance histogram of image features (shape, color) is created by comparing appearance frequency histograms between two categories. Specifically, in the image processing apparatus 1, the image feature extraction unit 101 first acquires the appearance frequency between two categories from one dimension (Visual words or each bin) in one category. Moreover, the appearance frequency is acquired from the corresponding dimension (Visual words or each bin) in the other category. Then, the image feature extraction unit 101 calculates a difference value (absolute value of the difference value) between both appearance frequencies.

次に、画像特徴抽出部101は、横軸を各次元(各Visual Words又は各ビン)、縦軸を両出現頻度の差分値としたヒストグラムを作成する。このヒストグラムが、カテゴリの異なる2枚のサンプル画像比較から得られる画像特徴の重要度ヒストグラムである。   Next, the image feature extraction unit 101 creates a histogram in which the horizontal axis represents each dimension (each Visual Words or each bin) and the vertical axis represents the difference value of both appearance frequencies. This histogram is an importance histogram of image features obtained by comparing two sample images with different categories.

画像特徴の重要度ヒストグラムは、カテゴリ間毎に作成する。従って、図10において、カテゴリAに着目した場合、カテゴリAの出現頻度ヒストグラム21Aと、カテゴリBの出現頻度ヒストグラム21Bとの比較により、カテゴリAvsBの重要度ヒストグラム22A−1が作成される。また、カテゴリAの出現頻度ヒストグラム21Aと、カテゴリCの出現頻度ヒストグラム21Cとの比較により、カテゴリAvsCの重要度ヒストグラム22A−2が作成される。   The importance histogram of image features is created for each category. Accordingly, in FIG. 10, when attention is paid to category A, the importance histogram 22A-1 of category AvsB is created by comparing the appearance frequency histogram 21A of category A and the appearance frequency histogram 21B of category B. Further, by comparing the appearance frequency histogram 21A of the category A with the appearance frequency histogram 21C of the category C, the importance histogram 22A-2 of the category AvsC is created.

同様に、カテゴリBに着目した場合、カテゴリBvsAの重要度ヒストグラム22B−1、及び、カテゴリBvsCの重要度ヒストグラム22B−2が作成される。また、カテゴリCに着目した場合、カテゴリCvsAの重要度ヒストグラム22C−1、及び、カテゴリCvsBの重要度ヒストグラム22C−2が作成される。   Similarly, when attention is paid to the category B, the importance histogram 22B-1 of the category BvsA and the importance histogram 22B-2 of the category BvsC are created. When attention is paid to category C, an importance histogram 22C-1 for category CvsA and an importance histogram 22C-2 for category CvsB are created.

(S300)
次に、S300において、画像特徴抽出部101による画像特徴の重要次元特定処理について説明する。
(S300)
Next, in S300, the important dimension specifying process of the image feature by the image feature extraction unit 101 will be described.

図11は、本実施例における重要次元特定処理の説明図である。   FIG. 11 is an explanatory diagram of the important dimension specifying process in this embodiment.

図11に示されるように、画像処理装置1において、画像特徴抽出部101は、画像特徴(形状、色)の重要度ヒストグラムを参照し、各次元(各Visual Words又は各ビン)において、その重要度が所定閾値を超えている各次元(各Visual Words又は各ビン)を、重要次元3と特定する。   As shown in FIG. 11, in the image processing apparatus 1, the image feature extraction unit 101 refers to the importance histogram of the image features (shape, color), and the importance in each dimension (each Visual Words or each bin). Each dimension (each Visual Words or each bin) whose degree exceeds a predetermined threshold is identified as an important dimension 3.

なお、重要次元3を特定するために、予め所定閾値が与えられている。重要度は、出現頻度の差分値に基づくため、ここでいう所定閾値は、出現頻度をベースに予め定められる値である。   In order to specify the important dimension 3, a predetermined threshold is given in advance. Since the importance is based on the difference value of the appearance frequency, the predetermined threshold here is a value determined in advance based on the appearance frequency.

(S400)
次に、S400において、画像特徴抽出部101による画像上の重要箇所特定処理について説明する。
(S400)
Next, in S400, the important point specifying process on the image by the image feature extraction unit 101 will be described.

・画像特徴が形状の場合
図12は、本実施例における重要箇所特定処理の説明図である。以下、画像特徴が「形状」である場合について説明する。
When Image Feature is Shape FIG. 12 is an explanatory diagram of an important point specifying process in the present embodiment. The case where the image feature is “shape” will be described below.

画像処理装置1において、画像特徴抽出部101は、画像特徴(形状)の重要度ヒストグラムにおいて、重要次元3が特定されると(図12の(e))、コードブックにおいて、重要次元3に対応するVisual Wordsを特定する(図12の(f))。次に、画像特徴抽出部101は、重要次元3に対応するVisual Wordsが属するクラスタを特定する(図12の(g))。   In the image processing apparatus 1, the image feature extraction unit 101 corresponds to the important dimension 3 in the code book when the important dimension 3 is specified in the importance histogram of the image feature (shape) ((e) in FIG. 12). Visual Words to be specified are specified ((f) in FIG. 12). Next, the image feature extraction unit 101 identifies a cluster to which Visual Words corresponding to the important dimension 3 belongs ((g) in FIG. 12).

画像特徴抽出部101は、クラスタが特定されると、サンプル画像上、当該クラスタに属する特徴点を特定する(図12の(h))。そして、画像特徴抽出部101は、サンプル画像上、特定した当該特徴点の集中箇所を含む矩形範囲を「重要箇所」と特定すると共に、重要箇所内の特徴点を「重要特徴点」と特定する(図12の(h))。なお、集中箇所は、例えば、所定ピクセル範囲に所定数以上の特徴点が存在している場合、当該所定範囲を集中箇所とすることができる。また、「重要箇所」は、一例として矩形形状とするが、円形状や楕円形状などでもよく、矩形形状のみに限定されるものではない。   When the cluster is identified, the image feature extraction unit 101 identifies feature points belonging to the cluster on the sample image ((h) in FIG. 12). Then, the image feature extraction unit 101 specifies, on the sample image, a rectangular range including the concentrated location of the identified feature point as “important location”, and identifies a feature point in the important location as “important feature point”. ((H) of FIG. 12). Note that, for example, when a predetermined number or more of feature points exist in a predetermined pixel range, the predetermined range can be set as the concentrated point. In addition, the “important portion” has a rectangular shape as an example, but may be a circular shape or an elliptical shape, and is not limited to the rectangular shape.

重要箇所特定処理は、画像特徴(形状)の重要度ヒストグラム毎に行われる。例えば、カテゴリAのサンプル画像20Aからは、サンプル画像20Bとの関係に基づく重要度ヒストグラム22A−1と、サンプル画像20Cとの関係に基づく22A−2とが作成されている(例えば、図10参照)。従って、カテゴリAのサンプル画像20Aからは、それぞれ、サンプル画像20Bとの関係に基づく「重要箇所」及び「重要特徴点」が特定されると共に、サンプル画像20Cとの関係に基づく「重要箇所」及び「重要特徴点」が特定される。そもそも、「重要箇所」及び「重要特徴点」は、2枚のサンプル画像間を比較の上、両画像の外見上の差異点に基づいて特定されるからである。   The important part specifying process is performed for each importance histogram of the image feature (shape). For example, from the sample image 20A in category A, an importance histogram 22A-1 based on the relationship with the sample image 20B and 22A-2 based on the relationship with the sample image 20C are created (see, for example, FIG. 10). ). Therefore, from the sample image 20A of category A, “important points” and “important feature points” based on the relationship with the sample image 20B are specified, and “important points” and “important points” based on the relationship with the sample image 20C, respectively. “Important feature points” are identified. In the first place, the “important part” and “important feature point” are identified based on the difference between the two images after comparing the two sample images.

・画像特徴が色の場合
図13は、本実施例における重要箇所特定処理の説明図である。以下、画像特徴が「色」である場合について説明する。
When Image Feature is Color FIG. 13 is an explanatory diagram of an important point specifying process in the present embodiment. Hereinafter, a case where the image feature is “color” will be described.

画像処理装置1において、画像特徴抽出部101は、画像特徴(色)の重要度ヒストグラムにおいて、重要次元3が特定されると(図13の(d))、色空間において、重要次元に対応するビン(部分空間)を特定する(図13の(e))。次に、画像特徴抽出部101は、重要次元3に対応するビンに属する平均画素値に対応するブロック領域を特定する(図13の(e))。   In the image processing apparatus 1, the image feature extraction unit 101 corresponds to the important dimension in the color space when the important dimension 3 is specified in the importance histogram of the image feature (color) ((d) in FIG. 13). A bin (partial space) is specified ((e) of FIG. 13). Next, the image feature extraction unit 101 specifies a block region corresponding to the average pixel value belonging to the bin corresponding to the important dimension 3 ((e) in FIG. 13).

画像特徴抽出部101は、ブロック領域が特定されると、サンプル画像上、当該ブロック領域である特徴点を特定する(図13の(f))。そして、サンプル画像上、特定した当該ブロック領域の集中箇所を含む矩形範囲を「重要箇所」と特定すると共に、重要箇所内の特徴点を「重要特徴点」と特定する(図13の(f))。なお、集中箇所は、例えば、所定ピクセル範囲に所定数以上の特徴点が存在している場合、当該所定範囲を集中箇所とすることができる。また、「重要箇所」は、一例として矩形形状とするが、円形状や楕円形状などでもよく、矩形形状のみに限定されるものではない。   When the block region is specified, the image feature extraction unit 101 specifies the feature point that is the block region on the sample image ((f) in FIG. 13). Then, on the sample image, the rectangular range including the concentrated portion of the identified block area is specified as “important place”, and the feature point in the important place is specified as “important feature point” ((f) in FIG. 13). ). Note that, for example, when a predetermined number or more of feature points exist in a predetermined pixel range, the predetermined range can be set as the concentrated point. In addition, the “important portion” has a rectangular shape as an example, but may be a circular shape or an elliptical shape, and is not limited to the rectangular shape.

以上、画像特徴(色)の重要度ヒストグラム毎に行われる。   This is performed for each image feature (color) importance histogram.

(S500)
次に、S500において、画像処理部102による画像特徴の強調・抑制処理について説明する。強調・抑制処理は、画像処理装置1の画像処理部102により実行される。
(S500)
Next, an image feature enhancement / suppression process performed by the image processing unit 102 in S500 will be described. The enhancement / suppression process is executed by the image processing unit 102 of the image processing apparatus 1.

・画像特徴が形状の場合
図14は、本実施例における強調・抑制処理の説明図である。以下、画像特徴が「形状」である場合について説明する。
FIG. 14 is an explanatory diagram of emphasis / suppression processing in the present embodiment. The case where the image feature is “shape” will be described below.

画像処理装置1において、画像処理部102は、強調・抑制処理を実行する際、画像特徴(形状)の重要度ヒストグラム及び出現頻度ヒストグラムを参照し、下記のルールに基づいて、画像処理を行う。   In the image processing apparatus 1, when executing the enhancement / suppression process, the image processing unit 102 refers to the importance histogram and the appearance frequency histogram of the image feature (shape), and performs image processing based on the following rules.

(1−1)重要度ヒストグラムを参照し、重要次元(重要度が所定閾値以上の次元)3と、当該重要次元に隣接する非重要次元(重要度が所定閾値未満の次元)4とを比較し、出現頻度ヒストグラムにおいて、対応する重要次元と非重要次元との出現頻度の差異(差分値)が小さい場合、類似する部分形状(Visual words)が多いことを意味する。類似する部分形状が多い場合には、強調度合いが大きくないと、外見上容易に識別が困難である。従って、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該重要次元に対応する画像特徴(形状)に対し、強調度合い(例えば、エッジの強調度合い)を大きくした画像処理を行う。   (1-1) Refer to the importance histogram, and compare the important dimension (dimension whose importance is a predetermined threshold or more) 3 and the non-important dimension (dimension whose importance is less than the predetermined threshold) 4 adjacent to the important dimension. In the appearance frequency histogram, if the difference in appearance frequency (difference value) between the corresponding important dimension and the non-important dimension is small, it means that there are many similar partial shapes (Visual words). In the case where there are many similar partial shapes, it is difficult to identify easily if the degree of emphasis is not large. Accordingly, the image processing unit 102 performs image processing in which the degree of enhancement (for example, the degree of edge enhancement) is increased with respect to the image feature (shape) corresponding to the important dimension as the appearance frequency difference (difference value) is smaller. Do.

(1−2)一方、重要度ヒストグラムを参照し、重要次元3と、当該重要次元に隣接する非重要次元4とを比較し、出現頻度ヒストグラムにおいて、対応する重要次元と非重要次元との出現頻度の差異(差分値)が大きい場合、類似する部分形状(Visual words)が少ないことを意味する。類似する部分形状が少ない場合には、強調度合いが小さくとも、外見上容易に識別が可能であり、逆に必要以上に強調を行ってしまうと、仕上がりの不自然さが大きくなる。従って、画像処理部102は、出現頻度の差異(差分値)が大きいほど、重要次元に対応する画像特徴(形状)に対し、強調度合い(例えば、エッジの強調度合い)を小さくした画像処理を行う。なお、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、重要次元に対応する画像特徴(形状)に対する強調処理を行わないようにしてもよい。この場合、例えば、強調度合いのパラメータは、強調処理の不実行を示す0(ゼロ)となる。   (1-2) On the other hand, referring to the importance histogram, the important dimension 3 is compared with the non-important dimension 4 adjacent to the important dimension, and the appearance of the corresponding important dimension and the non-important dimension in the appearance frequency histogram When the frequency difference (difference value) is large, it means that there are few similar partial shapes (Visual words). When there are few similar partial shapes, even if the degree of emphasis is small, it can be easily identified in appearance, and conversely, if emphasis is made more than necessary, the unnaturalness of the finish increases. Therefore, the image processing unit 102 performs image processing in which the degree of enhancement (for example, the degree of edge enhancement) is reduced with respect to the image feature (shape) corresponding to the important dimension as the appearance frequency difference (difference value) is larger. . Note that when the difference (difference value) is very large (for example, larger than a predetermined threshold value), it is possible to identify the image feature (shape) corresponding to the important dimension. It may not be possible. In this case, for example, the parameter of the enhancement degree is 0 (zero) indicating that the enhancement process is not executed.

(1−3)また、重要度ヒストグラムを参照し、非重要次元4と、当該非重要次元に隣接する重要次元3とを比較し、出現頻度ヒストグラムにおいて、対応する非重要次元と重要次元との出現頻度の差異(差分値)が小さい場合、類似する部分形状(Visual words)が多いことを意味する。類似する部分形状が多い場合には、抑制度合いが大きくないと、外見上容易に識別が困難である。従って、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該非重要次元に対応する画像特徴(形状)に対し、抑制度合い(例えば、ぼかしの強調度合い)を大きくした画像処理を行う。なお、非重要次元に対応する画像特徴(形状)は、即ち、外見上重要でない画像特徴(形状)である。このため、非重要次元に対応する画像特徴(形状)に対しては、強調処理ではなく、抑制処理を施すようにしている。   (1-3) Further, referring to the importance histogram, the non-important dimension 4 is compared with the important dimension 3 adjacent to the non-important dimension, and the corresponding non-important dimension and the important dimension are compared in the appearance frequency histogram. If the difference in appearance frequency (difference value) is small, it means that there are many similar partial shapes (Visual words). In the case where there are many similar partial shapes, it is difficult to identify easily if the degree of suppression is not large. Therefore, the image processing unit 102 increases the suppression degree (for example, the degree of blur enhancement) for the image feature (shape) corresponding to the non-critical dimension as the appearance frequency difference (difference value) is smaller. I do. The image feature (shape) corresponding to the non-important dimension is an image feature (shape) that is not important in appearance. For this reason, an image feature (shape) corresponding to an unimportant dimension is subjected to suppression processing instead of enhancement processing.

(1−4)一方、重要度ヒストグラムを参照し、非重要次元4と、当該非重要次元に隣接する重要次元3とを比較し、出現頻度ヒストグラムにおいて、対応する非重要次元と重要次元との出現頻度の差異(差分値)が大きい場合、類似する部分形状(Visual words)が少ないことを意味する。類似する部分形状が少ない場合には、抑制度合いが小さくとも、外見上容易に識別が可能であり、逆に必要以上に抑制を行ってしまうと、仕上がりの不自然さが大きくなる。従って、画像処理部102は、出現頻度の差異(差分値)が大きいほど、非重要次元に対応する画像特徴(形状)に対し、抑制度合い(例えば、ぼかしの強調度合い)を小さくした画像処理を行う。なお、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、非重要次元に対応する画像特徴(形状)に対する抑制処理を行わないようにしてもよい。この場合、例えば、抑制度合いのパラメータは、抑制処理の不実行を示す0(ゼロ)となる。   (1-4) On the other hand, referring to the importance histogram, the non-important dimension 4 is compared with the important dimension 3 adjacent to the non-important dimension, and the corresponding non-important dimension and the important dimension are compared in the appearance frequency histogram. If the difference in appearance frequency (difference value) is large, it means that there are few similar partial shapes (Visual words). When there are few similar partial shapes, even if the degree of suppression is small, it can be easily identified in appearance. Conversely, if suppression is performed more than necessary, the unnaturalness of the finish increases. Accordingly, the image processing unit 102 performs image processing in which the degree of suppression (for example, the degree of blur enhancement) is reduced with respect to the image feature (shape) corresponding to the non-important dimension as the appearance frequency difference (difference value) increases. Do. In addition, when the difference (difference value) is very large (for example, larger than a predetermined threshold value), since it can be identified sufficiently easily in appearance, the suppression process for the image feature (shape) corresponding to the non-important dimension is performed. It may not be performed. In this case, for example, the suppression degree parameter is 0 (zero) indicating that the suppression process is not executed.

(1−5)画像処理部102は、上記(1−1)〜(1−4)以外の次元については、隣接次元の強調・抑制度合を補間する画像処理を行う。   (1-5) The image processing unit 102 performs image processing for interpolating the enhancement / suppression degree of the adjacent dimension for dimensions other than the above (1-1) to (1-4).

・画像特徴が色の場合
図15は、本実施例における強調・抑制処理の説明図である。以下、画像特徴が「色」である場合について説明する。
When Image Feature is Color FIG. 15 is an explanatory diagram of enhancement / suppression processing in this embodiment. Hereinafter, a case where the image feature is “color” will be described.

画像処理装置1において、画像処理部102は、強調・抑制処理を実行する際、画像特徴(色)の重要度ヒストグラム及び出現頻度ヒストグラムを参照し、下記のルールに基づいて、画像処理を行う。   In the image processing apparatus 1, when executing the enhancement / suppression process, the image processing unit 102 refers to the importance histogram and the appearance frequency histogram of the image feature (color) and performs image processing based on the following rules.

(2−1)重要度ヒストグラムを参照し、重要次元(重要度が所定閾値以上の次元3)と、当該重要次元に隣接する非重要次元(重要度が所定閾値未満の次元)4とを比較し、出現頻度ヒストグラムにおいて、対応する重要次元と非重要次元との出現頻度の差異(差分値)が小さい場合、類似する色(ビン)が多いことを意味する。類似する色が多い場合には、強調度合いが大きくないと、外見上容易に識別が困難である。従って、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該重要次元に対応する画像特徴(色)に対し、強調度合い(例えば、彩度の強調度合い)を大きくした画像処理を行う。   (2-1) Compare the importance dimension (dimension 3 whose importance is greater than or equal to a predetermined threshold) and the non-important dimension (dimension whose importance is less than the predetermined threshold) 4 adjacent to the important dimension by referring to the importance histogram. In the appearance frequency histogram, when the difference in appearance frequency (difference value) between the corresponding important dimension and the non-important dimension is small, it means that there are many similar colors (bins). When there are a lot of similar colors, it is difficult to identify easily if the degree of emphasis is not large. Therefore, the image processing unit 102 increases the degree of enhancement (for example, the degree of saturation enhancement) for the image feature (color) corresponding to the important dimension as the appearance frequency difference (difference value) is smaller. I do.

(2−2)一方、重要度ヒストグラムを参照し、重要次元3と、当該重要次元に隣接する非重要次元4とを比較し、出現頻度ヒストグラムにおいて、対応する重要次元と非重要次元との出現頻度の差異(差分値)が大きい場合、類似する色(ビン)が少ないことを意味する。類似する色が少ない場合には、強調度合いが小さくとも、外見上容易に識別が可能であり、逆に必要以上に強調を行ってしまうと、仕上がりの不自然さが大きくなる。従って、画像処理部102は、出現頻度の差異(差分値)が大きいほど、重要次元に対応する画像特徴(色)に対し、強調度合い(例えば、彩度の強調度合い)を小さくした画像処理を行う。なお、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、重要次元に対応する画像特徴(色)に対する強調処理を行わないようにしてもよい。   (2-2) On the other hand, referring to the importance histogram, the important dimension 3 is compared with the non-important dimension 4 adjacent to the important dimension, and the appearance of the corresponding important dimension and the non-important dimension in the appearance frequency histogram If the frequency difference (difference value) is large, it means that there are few similar colors (bins). When there are few similar colors, even if the degree of emphasis is small, the appearance can be easily identified, and conversely, if emphasis is performed more than necessary, the unnaturalness of the finish increases. Therefore, the image processing unit 102 performs image processing in which the degree of enhancement (for example, the degree of saturation enhancement) is reduced with respect to the image feature (color) corresponding to the important dimension as the difference in appearance frequency (difference value) is larger. Do. Note that when the difference (difference value) is very large (for example, larger than a predetermined threshold value), it can be identified sufficiently easily in appearance, so that enhancement processing is performed on the image feature (color) corresponding to the important dimension. It may not be possible.

(2−3)また、重要度ヒストグラムを参照し、非重要次元4と、当該非重要次元に隣接する重要次元3とを比較し、出現頻度ヒストグラムにおいて、対応する非重要次元と重要次元との出現頻度の差異(差分値)が小さい場合、類似する色(ビン)が多いことを意味する。類似する色が多い場合には、抑制度合いが大きくないと、外見上容易に識別が困難である。従って、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該非重要次元に対応する画像特徴(色)に対し、抑制度合い(例えば、彩度の抑制度合い)を大きくした画像処理を行う。なお、非重要次元に対応する画像特徴(色)は、即ち、外見上重要でない画像特徴(色)である。このため、非重要次元に対応する画像特徴(色)に対しては、強調処理ではなく、抑制処理を施すようにしている。   (2-3) Further, referring to the importance histogram, the non-important dimension 4 is compared with the important dimension 3 adjacent to the non-important dimension, and the corresponding non-important dimension and the important dimension are compared in the appearance frequency histogram. If the difference in appearance frequency (difference value) is small, it means that there are many similar colors (bins). When there are a lot of similar colors, it is difficult to identify easily if the degree of suppression is not large. Accordingly, the image processing unit 102 increases the suppression degree (for example, the saturation suppression degree) with respect to the image feature (color) corresponding to the non-important dimension as the appearance frequency difference (difference value) is smaller. Process. Note that the image feature (color) corresponding to the non-important dimension is an image feature (color) that is not important in appearance. For this reason, an image feature (color) corresponding to an unimportant dimension is subjected to a suppression process instead of an enhancement process.

(2−4)一方、重要度ヒストグラムを参照し、非重要次元4と、当該非重要次元に隣接する重要次元3とを比較し、出現頻度ヒストグラムにおいて、対応する非重要次元と重要次元との出現頻度の差異(差分値)が大きい場合、類似する色(ビン)が少ないことを意味する。類似する色が少ない場合には、抑制度合いが小さくとも、外見上容易に識別が可能であり、逆に必要以上に抑制を行ってしまうと、仕上がりの不自然さが大きくなる。従って、画像処理部102は、出現頻度の差異(差分値)が大きいほど、非重要次元に対応する画像特徴(色)に対し、抑制度合い(例えば、彩度の抑制度合い)を小さくした画像処理を行う。なお、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、非重要次元に対応する画像特徴(色)に対する抑制処理を行わないようにしてもよい。   (2-4) On the other hand, referring to the importance histogram, the non-important dimension 4 is compared with the important dimension 3 adjacent to the non-important dimension, and the corresponding non-important dimension and the important dimension are compared in the appearance frequency histogram. If the difference in appearance frequency (difference value) is large, it means that there are few similar colors (bins). When there are few similar colors, even if the degree of suppression is small, it can be easily identified in appearance, and conversely, if suppression is performed more than necessary, the unnaturalness of the finish increases. Therefore, the image processing unit 102 performs image processing in which the degree of suppression (for example, the degree of suppression of saturation) is reduced with respect to the image feature (color) corresponding to the non-important dimension as the difference in appearance frequency (difference value) increases. I do. Note that when the difference (difference value) is very large (for example, larger than a predetermined threshold), it is possible to easily identify the appearance, and therefore, the suppression process for the image feature (color) corresponding to the non-important dimension is performed. It may not be performed.

(2−5)画像処理部102は、上記(2−1)〜(2−4)以外の次元については、隣接次元の強調・抑制度合を補間する画像処理を行う。   (2-5) The image processing unit 102 performs image processing for interpolating the degree of emphasis / suppression of adjacent dimensions for dimensions other than the above (2-1) to (2-4).

(強調・抑制処理フロー)
図16は、本実施例における強調・抑制処理動作の一例を示すフローチャートである。当該フローチャートは、サンプル画像の次元毎に実行される。
(Emphasis / suppression process flow)
FIG. 16 is a flowchart showing an example of the emphasis / suppression processing operation in the present embodiment. The flowchart is executed for each dimension of the sample image.

S501:画像処理装置1において、画像処理部102は、対象となる次元が重要次元か否かを判定する。重要次元は、重要度が所定閾値以上の次元である。対象となる次元が重要次元である場合、S502へ進む。対象となる次元が重要次元でない場合、次元は非重要次元であるので、S505へ進む。   S501: In the image processing apparatus 1, the image processing unit 102 determines whether the target dimension is an important dimension. The important dimension is a dimension whose importance is equal to or higher than a predetermined threshold. If the target dimension is an important dimension, the process proceeds to S502. If the target dimension is not an important dimension, the dimension is a non-important dimension, and thus the process proceeds to S505.

S502:画像処理部102は、当該重要次元が非重要次元に隣接するか否かを判定する。当該重要次元が非重要次元に隣接する場合、S503へ進む。当該重要次元が非重要次元に隣接しない場合、ENDへ進みフローチャートを終了する。なお、この場合、画像処理部102は、隣接次元の強調・抑制度合を補間する画像処理を行ってよい。   S502: The image processing unit 102 determines whether or not the important dimension is adjacent to the non-important dimension. When the important dimension is adjacent to the non-important dimension, the process proceeds to S503. If the important dimension is not adjacent to the non-important dimension, the process proceeds to END and the flowchart is ended. In this case, the image processing unit 102 may perform image processing for interpolating the degree of enhancement / suppression of adjacent dimensions.

S503:画像処理部102は、当該重要次元の出現頻度と、隣接する非重要次元の出現頻度との差分値を算出する。   S503: The image processing unit 102 calculates a difference value between the appearance frequency of the important dimension and the appearance frequency of the adjacent non-important dimension.

S504:画像処理部102は、S503で算出した出現頻度の差分値に応じて、強調度合いを調整する。   S504: The image processing unit 102 adjusts the enhancement degree according to the difference value of the appearance frequency calculated in S503.

例えば、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該重要次元に対応する画像特徴に対し、強調度合いを大きくした画像処理を行う。一方、画像処理部102は、出現頻度の差異(差分値)が大きいほど、重要次元に対応する画像特徴に対し、強調度合いを小さくした画像処理を行う。また、画像処理部102は、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、重要次元に対応する画像特徴(形状)に対する強調処理を行わないようにしてもよい。   For example, the image processing unit 102 performs image processing with a higher degree of emphasis on the image feature corresponding to the important dimension as the appearance frequency difference (difference value) is smaller. On the other hand, the image processing unit 102 performs image processing in which the degree of enhancement is reduced for the image feature corresponding to the important dimension as the appearance frequency difference (difference value) is larger. In addition, when the difference (difference value) is very large (for example, larger than a predetermined threshold value), the image processing unit 102 can be identified sufficiently easily in appearance. ) Enhancement processing may not be performed.

S505:一方、画像処理部102は、対象となる次元が非重要次元である場合、当該非重要次元が重要次元に隣接するか否かを判定する。当該非重要次元が重要次元に隣接する場合、S506へ進む。当該非重要次元が重要次元に隣接しない場合、ENDへ進みフローチャートを終了する。なお、この場合、画像処理部102は、隣接次元の強調・抑制度合を補間する画像処理を行ってよい。   S505: On the other hand, if the target dimension is a non-critical dimension, the image processing unit 102 determines whether the non-critical dimension is adjacent to the critical dimension. When the non-important dimension is adjacent to the important dimension, the process proceeds to S506. If the non-important dimension is not adjacent to the important dimension, the process proceeds to END and the flowchart ends. In this case, the image processing unit 102 may perform image processing for interpolating the degree of enhancement / suppression of adjacent dimensions.

S506:画像処理部102は、当該非重要次元の出現頻度と、隣接する重要次元の出現頻度との差分値を算出する。   S506: The image processing unit 102 calculates a difference value between the appearance frequency of the non-important dimension and the appearance frequency of the adjacent important dimension.

S507:画像処理部102は、S503で算出した出現頻度の差分値に応じて、抑制度合いを調整する。   S507: The image processing unit 102 adjusts the degree of suppression according to the difference value of the appearance frequency calculated in S503.

例えば、画像処理部102は、出現頻度の差異(差分値)が小さいほど、当該非重要次元に対応する画像特徴(に対し、抑制度合いを大きくした画像処理を行う。一方、画像処理部102は、出現頻度の差異(差分値)が大きいほど、非重要次元に対応する画像特徴対し、抑制度合いを小さくした画像処理を行う。また、画像処理部102は、差異(差分値)が非常に大きい場合(例えば、所定閾値よりも大きい場合)、外見上十分容易に識別が可能であるため、非重要次元に対応する画像特徴(形状)に対する抑制処理を行わないようにしてもよい。   For example, the smaller the appearance frequency difference (difference value), the image processing unit 102 performs image processing with a higher degree of suppression on the image feature (corresponding to the non-critical dimension). As the difference in appearance frequency (difference value) increases, image processing corresponding to the non-important dimension is performed with a reduced degree of suppression, and the image processing unit 102 has a very large difference (difference value). In such a case (for example, when it is larger than the predetermined threshold value), it is possible to identify the image feature (shape) corresponding to the non-important dimension because the identification is sufficiently easy.

図17は、本実施例における強調・抑制処理の対象例を示す図である。   FIG. 17 is a diagram illustrating a target example of emphasis / suppression processing in the present embodiment.

図17に示されるように、画像特徴が形状である場合、重要次元に対してはエッジを強調し、非重要次元に対してぼかしを強調する。一方、画像特徴が色である場合、重要次元に対しては彩度を強調し、非重要次元に対して彩度を抑制する。   As shown in FIG. 17, when the image feature is a shape, the edge is emphasized for the important dimension and the blur is emphasized for the non-important dimension. On the other hand, when the image feature is a color, the saturation is emphasized for the important dimension and the saturation is suppressed for the non-important dimension.

<強調・抑制処理後のサンプル画像>
図18は、強調・抑制処理後のサンプル画像例を示す図である。
<Sample image after enhancement / suppression processing>
FIG. 18 is a diagram illustrating an example of a sample image after the enhancement / suppression process.

図に示されるように、一般的な強調・抑制処理によれば、重要箇所(注目領域)1700−2内において、例えば、画像特徴(形状)1701−2、画像特徴(形状)1702−2、画像特徴(色)1703−2は、×2.0の強調度合いで画像処理が実行される。   As shown in the figure, according to a general emphasis / suppression process, for example, an image feature (shape) 1701-2, an image feature (shape) 1702-2, The image feature (color) 1703-2 is subjected to image processing with a degree of enhancement of x2.0.

一方、本実施例における強調・抑制処理によれば、重要箇所(注目領域)1700内において、例えば、画像特徴(形状)1701は、×1.5の強調度合いで、画像特徴(形状)1702は、×1.1の強調度合いで、画像特徴(色)1703は、×−1.5の強調度合い(×1.5の抑制度合い)で画像処理が実行される。   On the other hand, according to the emphasis / suppression processing in the present embodiment, for example, in the important part (region of interest) 1700, for example, the image feature (shape) 1701 has an enhancement degree of × 1.5, and the image feature (shape) 1702 is The image feature (color) 1703 is subjected to image processing with an enhancement degree of x-1.5 (a suppression degree of x1.5) with an enhancement degree of x1.1.

本例のサンプル画像の場合、本実施例における強調・抑制処理のように、画像特徴(形状)1701は、×1.5の強調度合いで、画像特徴(形状)1702は、×1.1の強調度合いで、画像特徴(色)1703は、×−1.5の強調度合い(×1.5の抑制度合い)で、外見上十分容易に識別が可能である。   In the case of the sample image of this example, the image feature (shape) 1701 has an enhancement degree of x1.5 and the image feature (shape) 1702 has x1.1 as in the enhancement / suppression processing in this embodiment. With the degree of enhancement, the image feature (color) 1703 can be identified sufficiently easily with an appearance degree of x-1.5 (a degree of suppression of 1.5).

これに対し、一般的な強調・抑制処理によれば、重要箇所(注目領域)1700−2内において、例えば、画像特徴(形状)1701−2、画像特徴(形状)1702−2、画像特徴(色)1703−2は、×2.0の強調度合いで画像処理が実行される。しかしながら、一般的な強調・抑制処理のように、重要箇所(注目領域)の全ての画素に同一の度合いで強調又は抑制の画像処理を行うと、元画像と比べて、重要箇所(注目領域)の画像特徴の全体傾向が変わってしまい、不自然な強調又は抑制となる可能性がある。   On the other hand, according to general emphasis / suppression processing, for example, in an important part (region of interest) 1700-2, for example, an image feature (shape) 1701-2, an image feature (shape) 1702-2, an image feature ( Color) 1703-2 is subjected to image processing with a degree of enhancement of x2.0. However, when image processing for emphasis or suppression is performed to the same degree on all the pixels in the important part (attention area) as in general enhancement / suppression processing, the important part (attention area) is compared with the original image. The overall tendency of the image features may change, leading to unnatural enhancement or suppression.

本実施例における強調・抑制処理は、サンプル画像上、画像特徴の出現頻度と画像特徴に類似する画像特徴との出現頻度に応じて(即ち、外見上の識別容易性に応じて)、強調・抑制処理の度合いを調整するため、過度な画像処理を抑制して、元画像を生かした自然な強調・抑制処理を行うことが可能である。   The emphasis / suppression processing in the present embodiment is performed in accordance with the appearance frequency of the image feature and the appearance frequency of the image feature similar to the image feature on the sample image (that is, according to the appearance discrimination). In order to adjust the degree of the suppression process, it is possible to suppress excessive image processing and perform natural enhancement / suppression processing utilizing the original image.

本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。本実施例における病害虫の例に限られず、例えば、各種の動物、植物、昆虫、魚、鳥、両生類、はちゅう類等々の例に適用することができる。またこのような生物以外にも、類似する対象物であって、一部の特徴点により、識別可能な対象物に適用することができる。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. The present invention is not limited to the examples of pests, but can be applied to examples of various animals, plants, insects, fish, birds, amphibians, honey and the like. In addition to such organisms, the present invention can be applied to similar objects that can be identified by some feature points.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出する画像特徴抽出部と、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整する画像処理部と、
を有することを特徴とする画像処理装置。
(付記2)
前記画像処理部は、
前記差分度合いが大きいほど、前記画像特徴に対する強調の度合いを小さく調整すること、
を特徴とする付記1記載の画像処理装置。
(付記3)
前記画像処理部は、
前記差分度合いが所定度合いよりも大きい場合、前記画像特徴に対する強調の度合いを、該強調の不実行を示す度合いに調整すること、
を特徴とする付記1又は2記載の画像処理装置。
(付記4)
前記画像処理部は、
前記差分度合いに応じて、前記類似画像特徴に対する抑制の度合いを調整すること、
を特徴とする付記1ないし3何れか一項記載の画像処理装置。
(付記5)
前記画像処理部は、
前記差分度合いが大きいほど、前記類似画像特徴に対する抑制の度合いを小さく調整すること、
を特徴とする付記4記載の画像処理装置。
(付記6)
前記画像処理部は、
前記差分度合いが所定度合いよりも大きい場合、前記類似画像特徴に対する抑制の度合いを、該抑制の不実行を示す度合いに調整すること、
を特徴とする付記4又は5記載の画像処理装置。
(付記7)
前記画像特徴は、少なくとも、形状特徴又は色特徴の何れかを含むこと、
を特徴とする付記1ないし6何れか一項記載の画像処理装置。
(付記8)
コンピュータにより実行される画像処理方法であって、
異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出し、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整すること、
を特徴とする画像処理方法。
(付記9)
異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出し、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整する処理を、コンピュータに実行させる画像処理プログラム。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
An image feature extraction unit that compares images belonging to different categories and extracts image features between categories;
An image processing unit that adjusts the degree of emphasis on the image feature according to the degree of difference between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature;
An image processing apparatus comprising:
(Appendix 2)
The image processing unit
Adjusting the degree of emphasis on the image feature to be smaller as the difference degree is larger;
The image processing apparatus according to appendix 1, wherein:
(Appendix 3)
The image processing unit
Adjusting the degree of emphasis on the image feature to a degree indicating non-execution of the emphasis when the difference degree is greater than a predetermined degree;
The image processing apparatus according to appendix 1 or 2, characterized by:
(Appendix 4)
The image processing unit
Adjusting the degree of suppression of the similar image feature according to the degree of difference;
The image processing apparatus according to any one of appendices 1 to 3, wherein:
(Appendix 5)
The image processing unit
Adjusting the degree of suppression of the similar image feature to be smaller as the difference degree is larger;
The image processing apparatus according to appendix 4, characterized by:
(Appendix 6)
The image processing unit
Adjusting the degree of suppression of the similar image feature to a level indicating non-execution of the suppression when the difference degree is larger than a predetermined degree;
The image processing apparatus according to appendix 4 or 5, characterized in that:
(Appendix 7)
The image feature includes at least one of a shape feature or a color feature;
The image processing apparatus according to any one of appendices 1 to 6, characterized in that:
(Appendix 8)
An image processing method executed by a computer,
Compare images belonging to different categories, extract image features between categories,
Adjusting the degree of emphasis on the image feature according to the degree of difference between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature;
An image processing method characterized by the above.
(Appendix 9)
Compare images belonging to different categories, extract image features between categories,
An image processing program for causing a computer to execute a process of adjusting a degree of emphasis on the image feature according to a difference degree between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature.

1 画像処理装置1
2 記憶装置
11 CPU
12 ROM
13 RAM
14 HDD
15 インターフェース
16 入力装置
17 表示装置
18 通信装置
101 画像特徴抽出部
102 画像処理部
1 Image processing device 1
2 Storage device 11 CPU
12 ROM
13 RAM
14 HDD
DESCRIPTION OF SYMBOLS 15 Interface 16 Input device 17 Display apparatus 18 Communication apparatus 101 Image feature extraction part 102 Image processing part

Claims (5)

異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出する画像特徴抽出部と、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整する画像処理部と、
を有することを特徴とする画像処理装置。
An image feature extraction unit that compares images belonging to different categories and extracts image features between categories;
An image processing unit that adjusts the degree of emphasis on the image feature according to the degree of difference between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature;
An image processing apparatus comprising:
前記画像処理部は、
前記差分度合いが大きいほど、前記画像特徴に対する強調の度合いを小さく調整すること、
を特徴とする請求項1記載の画像処理装置。
The image processing unit
Adjusting the degree of emphasis on the image feature to be smaller as the difference degree is larger;
The image processing apparatus according to claim 1.
前記画像処理部は、
前記差分度合いが所定度合いよりも大きい場合、前記画像特徴に対する強調の度合いを、該強調の不実行を示す度合いに調整すること、
を特徴とする請求項1又は2記載の画像処理装置。
The image processing unit
Adjusting the degree of emphasis on the image feature to a degree indicating non-execution of the emphasis when the difference degree is greater than a predetermined degree;
The image processing apparatus according to claim 1 or 2.
コンピュータにより実行される画像処理方法であって、
異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出し、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整すること、
を特徴とする画像処理方法。
An image processing method executed by a computer,
Compare images belonging to different categories, extract image features between categories,
Adjusting the degree of emphasis on the image feature according to the degree of difference between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature;
An image processing method characterized by the above.
異なるカテゴリに属する画像同士を比較し、カテゴリ間における画像特徴を抽出し、
前記画像特徴の出現頻度と、該画像特徴と類似する類似画像特徴の出現頻度との差分度合いに応じて、前記画像特徴に対する強調の度合いを調整する処理を、コンピュータに実行させる画像処理プログラム。
Compare images belonging to different categories, extract image features between categories,
An image processing program for causing a computer to execute a process of adjusting a degree of emphasis on the image feature according to a difference degree between the appearance frequency of the image feature and the appearance frequency of a similar image feature similar to the image feature.
JP2013266535A 2013-12-25 2013-12-25 Image processing apparatus, image processing method, and image processing program Active JP6287176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013266535A JP6287176B2 (en) 2013-12-25 2013-12-25 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013266535A JP6287176B2 (en) 2013-12-25 2013-12-25 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015122019A true JP2015122019A (en) 2015-07-02
JP6287176B2 JP6287176B2 (en) 2018-03-07

Family

ID=53533559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013266535A Active JP6287176B2 (en) 2013-12-25 2013-12-25 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6287176B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029982A (en) * 2011-07-28 2013-02-07 Fuji Xerox Co Ltd Image processing system and image processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029982A (en) * 2011-07-28 2013-02-07 Fuji Xerox Co Ltd Image processing system and image processing program

Also Published As

Publication number Publication date
JP6287176B2 (en) 2018-03-07

Similar Documents

Publication Publication Date Title
Zheng et al. Segmentation of green vegetation of crop canopy images based on mean shift and fisher linear discriminant
CN107392091B (en) Agricultural artificial intelligence crop detection method, mobile terminal and computer readable medium
CN109711345B (en) Flame image identification method and device and storage medium thereof
Dutta et al. Segmentation of unhealthy leaves in cruciferous crops for early disease detection using vegetative indices and Otsu thresholding of aerial images
WO2018173577A1 (en) Vegetation index calculation device, vegetation index calculation method, and computer readable recording medium
Alkhudaydi et al. An exploration of deep-learning based phenotypic analysis to detect spike regions in field conditions for UK bread wheat
Sunoj et al. Sunflower floral dimension measurements using digital image processing
US20220122347A1 (en) Automated unsupervised localization of context sensitive events in crops and computing extent thereof
Rabab et al. A template-free machine vision-based crop row detection algorithm
US11875257B2 (en) Normalization method for machine-learning and apparatus thereof
CN113837316B (en) Abnormal region detection method, device, equipment and medium based on agricultural products
WO2018073093A1 (en) Determining the grain weight of an ear
Tanahashi et al. Natsumushi: Image measuring software for entomological studies
Shete et al. Tasselgan: An application of the generative adversarial model for creating field-based maize tassel data
Kumar K et al. Detection of rice plant disease using AdaBoostSVM classifier
Rahim et al. Deep learning-based accurate grapevine inflorescence and flower quantification in unstructured vineyard images acquired using a mobile sensing platform
Ubbens et al. Autocount: Unsupervised segmentation and counting of organs in field images
Yuan et al. Sensitivity examination of YOLOv4 regarding test image distortion and training dataset attribute for apple flower bud classification
Li et al. Hybrid rice row detection at the pollination stage based on vanishing point and line-scanning method
JP6287176B2 (en) Image processing apparatus, image processing method, and image processing program
US11915480B2 (en) Image processing apparatus and image processing method
Bravo-Reyna et al. Recognition of the damage caused by the cogollero worm to the corn plant, Using artificial vision
Patil et al. An advanced method for chilli plant disease detection using image processing
Biswas et al. A novel inspection of paddy leaf disease classification using advance image processing techniques
Mahenthiran et al. Smart Pest Management: An Augmented Reality-Based Approach for an Organic Cultivation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R150 Certificate of patent or registration of utility model

Ref document number: 6287176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150