JP2015191481A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2015191481A JP2015191481A JP2014068809A JP2014068809A JP2015191481A JP 2015191481 A JP2015191481 A JP 2015191481A JP 2014068809 A JP2014068809 A JP 2014068809A JP 2014068809 A JP2014068809 A JP 2014068809A JP 2015191481 A JP2015191481 A JP 2015191481A
- Authority
- JP
- Japan
- Prior art keywords
- map
- mask
- image
- input image
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
従来、画像から主要被写体の存在する領域、すなわち注目領域を抽出する技術が知られている。例えば非特許文献1には、画像の色情報からサリエンシーマップを作成すると共に画像に対して色情報に基づくクラスタリングを行って画像を複数の領域に分割し、それら複数の領域の中からサリエンシー(注目度)の高い領域だけを抜き出すことにより、注目領域を抽出する技術が記載されている。 Conventionally, a technique for extracting a region where a main subject exists, that is, a region of interest from an image is known. For example, in Non-Patent Document 1, a saliency map is created from color information of an image and clustering based on the color information is performed on the image to divide the image into a plurality of regions. A technique for extracting a region of interest by extracting only a region having a high degree of attention) is described.
従来技術には、色情報に基づくクラスタリングの計算量が大きく処理時間を要してしまうという問題があった。 The prior art has a problem that the calculation amount of clustering based on color information is large and requires processing time.
請求項1に記載の画像処理装置は、入力画像の注目度の分布を示すマップを作成するマップ作成部と、前記入力画像のエッジ情報に基づき、注目領域の外形を示すマスクを作成するマスク作成部と、前記マップ作成部により作成された前記マップと、前記マスク作成部により作成された前記マスクとに基づいて、前記入力画像から前記注目領域を抽出する抽出部と、を備えることを特徴とする。
請求項6に記載の画像処理プログラムは、入力画像の注目度の分布を示すマップを作成するマップ作成ステップと、前記入力画像のエッジ情報に基づき、注目領域の外形を示すマスクを作成するマスク作成ステップと、前記マップ作成ステップにより作成された前記マップと、前記マスク作成ステップにより作成された前記マスクとに基づいて、前記入力画像から前記注目領域を抽出する抽出ステップと、をコンピュータに実行させることを特徴とする。
The image processing apparatus according to claim 1, wherein a map creation unit that creates a map that indicates a distribution of attention level of an input image, and a mask creation that creates a mask that indicates an outline of a region of interest based on edge information of the input image And an extraction unit that extracts the region of interest from the input image based on the map created by the map creation unit and the mask created by the mask creation unit. To do.
An image processing program according to claim 6, wherein a map creation step for creating a map showing a distribution of attention level of an input image, and a mask creation for creating a mask showing an outline of a region of interest based on edge information of the input image Causing the computer to execute a step, and an extraction step of extracting the region of interest from the input image based on the map created by the map creation step and the mask created by the mask creation step It is characterized by.
本発明によれば、注目領域を高精度に且つ高速に抽出することができる。 According to the present invention, it is possible to extract a region of interest with high accuracy and at high speed.
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る画像処理システムの構成の模式図である。画像処理システム1は、カメラ2と、画像処理装置3と、ハードディスクドライブ(HDD)4とを有する。カメラ2は、いわゆるデジタルスチルカメラであり、被写体を撮影して所定の記憶媒体に撮影画像データ(以下、単に画像と称する)を記憶する。
(First embodiment)
FIG. 1 is a schematic diagram of a configuration of an image processing system according to the first embodiment of the present invention. The image processing system 1 includes a
画像処理装置3は、カメラ2により撮影された画像を管理する装置である。画像処理装置3は、カメラ2により撮影された画像を、例えばカメラ2との間で有線や無線等によるデータ通信を行い、カメラ2から画像を取得する。画像処理装置3は、カメラ2から取得した画像を大容量の記憶媒体であるHDD4に記憶し、管理する。画像処理装置3は、HDD4に記憶されている画像を、例えばサムネイル形式で一覧表示したり、撮影日や撮影パラメータ等に基づき検索したり、不図示の表示装置に表示(再生)したり、不図示のプリンタを用いて印刷したりすることができる。
The image processing device 3 is a device that manages images taken by the
特に画像処理装置3は、カメラ2により撮影された複数の画像から、類似画像の組を自動的に検出して、それら類似画像の組を一塊の単位として管理することができる。例えば、いわゆる連写機能(連続撮影機能)や露出オートブラケット機能を用いて被写体を撮影した場合、各画像の内容は極めて類似したものになる。また、そのような特別な機能を用いずとも、利用者が画角等を固定して撮影を繰り返し行えば、やはり画像は極めて類似した内容になる。画像処理装置3は、後述する処理によって画像の主要被写体を特定し、その主要被写体がある程度一致する画像同士を1つのグループにまとめる(分類する)ことにより、利用者による操作を容易にする。利用者による操作とは、例えば削除や表示、印刷等である。つまり画像処理装置3は利用者に対して、画像の削除、表示、印刷等を、そのグループ単位でまとめて行う機能を提供する。
In particular, the image processing apparatus 3 can automatically detect a set of similar images from a plurality of images taken by the
図2は、画像処理装置3の構成を模式的に示す図である。本実施形態は、例えば、画像を記憶・分類する画像処理プログラムを図1に示すコンピュータ装置に実行させることにより、画像を記憶・分類する画像処理装置3を提供する。プログラムをパーソナルコンピュータ100に取込む場合には、パーソナルコンピュータ100のデータストレージ装置にプログラムをローディングした上で当該プログラムを実行させることにより、画像を記憶・分類する画像処理装置3として使用する。
FIG. 2 is a diagram schematically illustrating the configuration of the image processing apparatus 3. The present embodiment provides an image processing apparatus 3 for storing and classifying images by causing the computer apparatus shown in FIG. 1 to execute an image processing program for storing and classifying images. When the program is loaded into the
プログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ100にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ100へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバコンピュータ102のハードディスク装置103などにプログラムを格納しておく。このように、プログラムは記録媒体104や通信回線101を介する提供などの種々の形態のコンピュータプログラム製品として供給される。
The program may be loaded by setting a
なお、この画像処理装置3は、パーソナルコンピュータの機能として実現されることに限られず、例えば、タブレットコンピュータ、フォトビューワ、またはカメラ等の機能として実現されてもよい。また、ネットワークに接続されたサーバーの機能として実現されてもよい。 The image processing device 3 is not limited to being realized as a function of a personal computer, and may be realized as a function of a tablet computer, a photo viewer, a camera, or the like. Further, it may be realized as a function of a server connected to a network.
図3は、パーソナルコンピュータ100(図2)の機能として実現された画像処理装置3の要部構成を例示する図である。画像処理装置3は、画像分類部11と、注目領域画像作成部12と、を含む。画像分類部11は、カメラ2から入力された画像を注目領域画像作成部12に入力する。注目領域画像作成部12は、この入力画像から注目領域画像を作成して画像分類部11に出力する。注目領域画像とは、入力画像から注目領域を抽出した画像である。注目領域とは、画像全体のうち、主要被写体が存在する領域を指す。つまり注目領域画像とは、入力画像に写り込んでいる背景等、主要被写体ではない領域を除去した画像である。注目領域画像作成部12の動作については後に詳述する。
FIG. 3 is a diagram exemplifying a main part configuration of the image processing apparatus 3 realized as a function of the personal computer 100 (FIG. 2). The image processing device 3 includes an
画像分類部11は、カメラ2から入力された画像と、注目領域画像作成部12により作成された注目領域画像とを関連付けてHDD4に記憶する。この記憶に際し、画像分類部11は、この注目領域画像に類似した注目領域画像をHDD4から検索する。そして、そのような注目領域画像が見つかった場合、現に記憶しようとしている画像と、その見つかった注目領域画像に関連付けられている画像と、を同一のグループに分類する。つまり、HDD4において、互いに類似する注目領域画像を有する複数の画像は、一つのグループに分類される。
The
図4は、注目領域画像作成部12の要部構成を例示する図である。注目領域画像作成部12は、マップ作成部21と、マスク作成部22と、マスク処理部23と、抽出部24と、を含む。以下、これらの各部の働きについて順に説明する。
FIG. 4 is a diagram illustrating a main configuration of the attention area
(マップ作成部21の説明)
マップ作成部21は、入力画像の色情報に基づいて、入力画像のサリエンシーマップ(以下、単にマップと呼ぶ)を作成する。このマップは、入力画像の各画素について、その画素の注目度、すなわちその画素が注目領域に属する可能性(注目領域らしさ)を算出してその画素の位置に割り当てたマップである。つまり、このマップは、各画素位置における注目度の分布を表すマップである。本実施形態のマップ作成部21は、まず入力画像に所定の平滑化フィルタ(例えばガウシアンフィルタ)を適用したフィルタ画像を作成する。その後、入力画像とフィルタ画像とを用いて次式(1)に示す演算を行うことにより、マップを作成する。
The
ここでS(x,y)はマップにおける座標(x,y)の値(注目度)、Iμは入力画像の平均特徴量ベクトル、Iωhc(x,y)はフィルタ画像の座標(x,y)の画素の画素値ベクトルである。上式(1)は、平滑化フィルタを適用したことによる座標(x,y)の画素値の変化の絶対値を、座標(x,y)のマップの値とすることを意味する。例えば入力画像において、空など、色の変化に乏しい(周波数の低い)領域は、平滑化フィルタを適用してもあまり変化しない。従って、マップにおいて、そのような領域は注目度が低くなる。他方、主要被写体には細かなテクスチャが存在する(周波数が高い)と考えられるので、そのような領域は平滑化フィルタを適用すると入力画像から大きく変化する。従って、マップにおいて、そのような領域は注目度が高くなる。つまり本実施形態におけるマップは、入力画像の周波数マップとも言うべき特性を有している。なお、以下の説明において、マップにおける注目度は、0〜1の範囲の数値に正規化されているものとする。数値が大きいほど、注目度が大きい。すなわち、数値が大きいほど、その位置が注目領域内である可能性が高い。 Here, S (x, y) is the value (attention level) of coordinates (x, y) in the map, I μ is the average feature vector of the input image, and I ωhc (x, y) is the coordinates (x, y) of the filter image. This is a pixel value vector of the pixel y). The above equation (1) means that the absolute value of the change in the pixel value of the coordinate (x, y) due to the application of the smoothing filter is the map value of the coordinate (x, y). For example, in an input image, an area such as the sky where color change is poor (low frequency) does not change much even when a smoothing filter is applied. Therefore, such a region has a low level of attention in the map. On the other hand, since it is considered that there is a fine texture (high frequency) in the main subject, such a region changes greatly from the input image when a smoothing filter is applied. Therefore, such a region has a high degree of attention in the map. That is, the map in the present embodiment has a characteristic that can be called a frequency map of the input image. In the following description, it is assumed that the attention level in the map is normalized to a numerical value in the range of 0 to 1. The greater the number, the greater the degree of attention. That is, the larger the numerical value, the higher the possibility that the position is within the region of interest.
なお、以上に説明するマップの作成方法は、非特許文献1に記載されているサリエンシーマップの作成方法と同一である。しかしながら、マップ作成部21によるマップ(サリエンシーマップ)の作成方法は、これとは異なっていてもよい。例えば、色情報ではなく輝度情報を用いてマップを作成してもよい。また、いわゆる位相差方式の焦点検出法により、撮影画面内の各部分についていわゆるデフォーカス量を演算し、それらのデフォーカス量を撮影画面に分布させたものをマップとすることも可能である。この場合、デフォーカス量が小さいほど注目度が大きいことになる。このように、マップは画像内における注目度の分布を表すものであれば、どのような方法により作成したものであってもよい。
The map creation method described above is the same as the saliency map creation method described in Non-Patent Document 1. However, the
図5(a)に入力画像の例を示す。入力画像40には、主要被写体として人物41が写っている。また、主要被写体以外の部分(背景部分)として、空42、山43、地面44が写っている。この入力画像40から作成されたマップの例を図5(b)に示す。図5(b)では、色(ハッチング)の濃淡で注目度を表しており、薄いほど注目度が高い領域であり、濃いほど注目度が低い領域である。遠景の空の部分42はマップ50の中で注目度が最も低くなっている。遠景の山の部分43は、空の部分42よりも注目度が高いが、マップ50の全体から見ると注目度は低い。地面の部分44は、山の部分43よりも注目度が高いが、やはりマップ50の全体から見ると注目度は低い。これに対して、主要被写体である人物の部分41a、41b、41c、41dはいずれも主要被写体以外の部分よりも高い注目度を有している。具体的には、人物の鼻の部分41aは、マップ50全体で最も高い注目度を有している。また、人物の顔の部分41bと、人物の胴体の部分41cは、その次に高い注目度を有している。これに対して、人物の首回りの部分41dは、やや低めの注目度を有しているが、主要被写体以外の部分に比べて注目度は高い。
FIG. 5A shows an example of the input image. The
(マスク作成部22の説明)
マスク作成部22は、入力画像40の輝度情報に基づいて、注目領域の外形を推定する。そして、その推定した外形を表すマスクを作成する。マスク作成部22は、入力画像40をグレースケール化してエッジ情報を検出する。そして、そのエッジ情報から入力画像40の局所特徴点を検出する。このような局所特徴点の検出方法としては、SIFT(Scale Invariant Feature Transform)、SURF(Speed Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)等が知られている。マスク作成部22は、そのような周知の方法により、入力画像40の局所特徴点を検出する。図6(a)に、入力画像40に多数の局所特徴点60を重畳した例を示す。また、図6(b)には、入力画像40を取り除き、局所特徴点60のみを示す。なお、図6(a)および図6(b)では、作図の便宜上、多数の局所特徴点60の一部にのみ符号を付している。
(Description of the mask creation unit 22)
The
マスク作成部22は、このようにして検出された局所特徴点60の最外周を包括する領域71を特定する。そして、その領域71に「1」、それ以外の領域72に「0」を割り当てたマスクを作成する。図6(b)から作成されたマスクの例を図6(c)に示す。仮に局所特徴点60が主要被写体(注目領域内)にのみ存在するのであれば、ここで作成されるマスク70は、主要被写体(注目領域)の外形と完全に一致するはずである。つまり、このマスク70を入力画像40に適用すれば、主要被写体(注目領域)を入力画像40から抜き出すことができるはずである。実際には、図6(b)の局所特徴点60aのように、主要被写体(注目領域)以外の位置からも、局所特徴点60が検出されてしまう。従って、ここで作成されるマスク70も、主要被写体(注目領域)以外の部分を含む、不完全なものとなる。つまり、マスク70は、主要被写体(注目領域)の外形を推定したものである。
The
(マスク処理部23の説明)
マスク処理部23は、マップ作成部21により作成されたマップ50と、マスク作成部22により作成されたマスク70とに基づいて、処理済マップ80を作成する。図7に、処理済マップ80の作成方法を模式的に示す。図7中に(A)で示すように、マップ作成部21が入力画像40からマップ50を作成する。図7中に(B)で示すように、マスク作成部22が入力画像40からマスク70を作成する。マスク処理部23は、図7中に(C)で示すように、マップ50と、マスク70とを乗算することにより、処理済マップ80を作成する。前述の通り、マスク70の主要被写体(注目領域)と推定された部分については「1」、それ以外の部分については「0」が割り当てられている。従って、マップ50と乗算した処理済マップ80は、主要被写体(注目領域)と推定された部分については基となるマップ50内の注目度の値がそのまま含まれ、それ以外の部分については「0」が割り当てられることになる。つまり処理済マップ80においては、主要被写体(注目領域)以外の部分の注目度が0になる。
(Description of mask processing unit 23)
The
(抽出部24の説明)
抽出部24は、処理済マップ80に基づいて、入力画像40から主要被写体(注目領域)を抽出した注目領域画像を作成する。図7中に(D)で示すように、抽出部24は、入力画像40と、処理済マップ80とを乗算することにより、注目領域画像90を作成する。前述の通り、処理済マップ80の主要被写体(注目領域)以外の部分の注目度は0であるため、注目領域画像90において、そのような部分の画素値は0になる。他方、主要被写体(注目領域)の部分の画素値は、入力画像40の画素値が、0〜1の注目度に応じた量だけ減衰する(暗くなる)。具体的には、注目度が低い画素位置ほど、入力画像40の画素値から暗くなる。
(Description of the extraction unit 24)
Based on the processed
例えば図5(b)において、主要被写体である人物の部分41a〜41dはいずれも高い注目度を有している。従って、図7に示すように、注目領域画像90において、それらの部分の画素値は、入力画像40からそれほど変化していない(暗くなっていない)。他方、図5(b)において、地面の部分44には、低い注目度が割り当てられている。従って、図7に示すように、注目領域画像90において、その部分の画素値は、入力画像40から大きく下がり、黒に近い状態となっている。
For example, in FIG. 5B, the
つまり、注目領域画像90において、主要被写体(注目領域)の部分はほぼ入力画像40そのままの状態になり(輝度は若干低下する可能性がある)、それ以外の部分はほぼ黒の状態になる。注目領域でない部分は完全に黒になるわけではないが、注目領域に比べて、きわめて目立たない状態になる。このような注目領域画像90は、画像分類部11による類似画像の検索には十分なものである。
That is, in the
なお、注目領域画像90に対してレベル補正を行い、一定未満の輝度値しか有していない領域(注目度が一定未満である領域)が完全な黒になるようにしてもよい。また、注目領域画像90に対して周知のエッジ検出処理を行えば、注目領域の外形を特定することができる。ここで特定される外形は、マスク作成部22により推定される外形よりも精緻なものとなる。更に、マップ50における注目度のヒストグラムを作成し、ピーク値未満の注目度しか有していない領域を注目領域画像90から除外する(その領域の輝度値を0にする)こともできる。
Note that level correction may be performed on the
図8は、注目領域画像作成部12が実行する注目領域画像作成処理のフローチャートである。まずステップS10において、注目領域画像作成部12が入力画像40の入力を受け付ける。ステップS20でマップ作成部21が、入力画像40に基づいてマップ50を作成する。ステップS30でマスク作成部22が、入力画像40から局所特徴点60を検出する。ステップS40でマスク作成部22が、検出した局所特徴点60に基づきマスク70を作成する。ステップS50でマスク処理部23が、マップ50とマスク70とから処理済マップ80を作成する。ステップS60で抽出部24が、入力画像40と処理済マップ80とから注目領域画像90を作成する。
FIG. 8 is a flowchart of attention area image creation processing executed by the attention area
上述した第1の実施の形態による画像処理システムによれば、次の作用効果が得られる。
(1)マップ作成部21は、入力画像40の注目度の分布を示すマップ50を作成する。マスク作成部22は、入力画像40のエッジ情報に基づき、注目領域の外形を示すマスク70を作成する。抽出部24は、マップ作成部21により作成されたマップ50と、マスク作成部22により作成されたマスク70とに基づいて、入力画像40から注目領域を抽出する。このようにしたので、注目領域を高精度に且つ高速に抽出することができる。特に、非特許文献1に記載された従来技術に比べて、色情報に基づくクラスタリングという膨大な計算量が必要になる処理を行う必要がないので、注目領域を高速に抽出することができる。
According to the image processing system of the first embodiment described above, the following operational effects can be obtained.
(1) The
(2)マスク処理部23は、マップ作成部21により作成されたマップ50とマスク作成部22により作成されたマスク70との乗算処理を行うことにより処理済マップ80(マスク処理済マップ)を作成する。抽出部24は、マスク処理部23により作成した処理済マップ80と入力画像40との乗算処理を行うことにより入力画像40から注目領域を抽出する。このようにしたので、注目領域を高精度に且つ高速に抽出することができる。
(2) The
(3)マップ作成部21は、入力画像40を平滑化した平滑化画像と、入力画像40との差の絶対値を演算することにより、マップ50を作成する。このようにしたので、入力画像40における注目度の分布を精度よく演算することができる。
(3) The
(4)マスク作成部22は、入力画像40のエッジ情報から複数の局所特徴点60を検出し、複数の局所特徴点60の最外周を包括する形状を注目領域の外形と推定する。このようにしたので、注目領域の外形を精度よく容易に推定することができる。
(4) The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(変形例1)
上述した実施形態において、マスク作成部22は局所特徴点60の最外周を包括することにより注目領域の外形を推定していたが、これ以外の方法によりマスク70を作成してもよい。例えば図9(a)および図9(b)に示すように、各々の局所特徴点60の位置に、その位置を中心とする所定の大きさの正方形を配置したものをマスク70としてもよい。この場合、図9(b)に示すように、人物の部分の内部に、「0」が割り当てられた領域(領域71、72等)が生じてしまうが、多数の局所特徴点60の最外周を調べるために必要な計算量を削減することが可能になる。なお、正方形以外の図形(例えば菱形等)を配置してもよい。
(Modification 1)
In the embodiment described above, the
なお、上記の領域71、72等は、当該領域内に局所特徴点60が存在しないために生じてしまうものである。しかしながら、その領域内に局所特徴点60が存在しないということは、すなわち入力画像40のその領域内にテクスチャが存在しない(エッジが存在しない)ということである。従って、それらの領域71、72等の色は、その周囲の色と略同一であると推定することができる。そこで、最終的に作成された注目領域画像90において、それらの領域71、72をその周囲の色により塗りつぶせば、領域71、72等のように、注目領域内に生じるマスクされてしまう部分を補間することができる。
Note that the above-described
(変形例2)
例えば、マスク70により表される注目領域の外形が非常に小さい場合を考える。このとき、その注目領域内に非常に高い注目度を有する部分があると、注目領域画像90において、注目領域内のそれ以外の部分が非常に暗くなってしまう。このように、マスク作成部22により推定された注目領域の外形の大きさに応じて、注目度の領域画像90への影響の大きさが変化する。そこで、マスク処理部23が、処理済マップ80を作成するに際し、注目領域の外形に応じてマップ50に重み付けを行うようにしてもよい。具体的には、次式(2)、(3)によって、注目度S(x,y)から重み付け後の注目度S’(x,y)を演算する。
S’(x,y)=S(x,y)α ・・・(2)
α=(As/Ai)×C ・・・(3)
ここでAsはマスク70により表される注目領域の外形の面積、Aiは入力画像40の全体の面積、Cは定数である。この例のように、マスク70により表される注目領域の外形の面積が小さいほど、注目度の注目領域画像90への影響を小さくすることで、注目領域の外形の大小が注目領域画像90の鮮明さに与える影響を小さくすることができる。
(Modification 2)
For example, consider a case where the outer shape of the region of interest represented by the
S ′ (x, y) = S (x, y) α (2)
α = (As / Ai) × C (3)
Here, As is the outer area of the region of interest represented by the
(変形例3)
マップ50の作成に当たって、必ずしも入力画像40の1画素ごとに1つの注目度を割り当てる必要はない。例えば、入力画像40を4画素×4画素の領域に碁盤目状に分割し、その各々の領域に対して1つの注目度を割り当ててもよい。また、これ以外の方法で入力画像40をいくつかの領域に分割してもよい。マスク70についても同様である。
(Modification 3)
In creating the
(変形例4)
上述した実施形態では、注目領域画像90を類似画像の分類に利用する例について説明したが、本発明により作成された注目領域画像90は、これ以外の用途に利用することも可能である。例えば、注目領域画像90同士を合成することで、多数の主要被写体が集合した画像を作成することもできる。また、ある画像から抽出された注目領域画像90を風景画像と合成して、その注目領域画像90により表される主要被写体があたかもその風景の中に存在するかのような画像を作成することもできる。
(Modification 4)
In the above-described embodiment, an example in which the
本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .
1…画像処理システム、2…カメラ、3…画像処理装置、4…ハードディスクドライブ(HDD)、11…画像分類部、12…注目領域画像作成部、21…マップ作成部、22…マスク作成部、23…マスク処理部、24…抽出部 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 2 ... Camera, 3 ... Image processing apparatus, 4 ... Hard disk drive (HDD), 11 ... Image classification | category part, 12 ... Attention area image creation part, 21 ... Map creation part, 22 ... Mask creation part, 23 ... Mask processing unit, 24 ... Extraction unit
Claims (6)
前記入力画像のエッジ情報に基づき、注目領域の外形を示すマスクを作成するマスク作成部と、
前記マップ作成部により作成された前記マップと、前記マスク作成部により作成された前記マスクとに基づいて、前記入力画像から前記注目領域を抽出する抽出部と、
を備えることを特徴とする画像処理装置。 A map creation unit that creates a map that shows the distribution of the attention level of the input image;
Based on the edge information of the input image, a mask creating unit that creates a mask indicating the outer shape of the region of interest;
An extraction unit that extracts the region of interest from the input image based on the map created by the map creation unit and the mask created by the mask creation unit;
An image processing apparatus comprising:
前記抽出部は、前記マップ作成部により作成された前記マップと前記マスク作成部により作成された前記マスクとの乗算処理を行うことによりマスク処理済マップを作成し、作成した前記マスク処理済マップと前記入力画像との乗算処理を行うことにより前記入力画像から前記注目領域を抽出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The extraction unit creates a mask-processed map by multiplying the map created by the map creation unit and the mask created by the mask creation unit, and the created mask-processed map and An image processing apparatus, wherein the region of interest is extracted from the input image by performing a multiplication process with the input image.
前記マップ作成部は、前記入力画像を平滑化した平滑化画像と、前記入力画像との差の絶対値を演算することにより、前記マップを作成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The image processing apparatus, wherein the map creation unit creates the map by calculating an absolute value of a difference between a smoothed image obtained by smoothing the input image and the input image.
前記マスク作成部は、前記入力画像のエッジ情報から複数の局所特徴点を検出し、前記複数の局所特徴点の最外周を包括する形状を前記注目領域の外形と推定することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
The mask generating unit detects a plurality of local feature points from edge information of the input image, and estimates a shape including the outermost periphery of the plurality of local feature points as an outer shape of the attention area. Processing equipment.
前記マスク作成部は、前記入力画像のエッジ情報から複数の局所特徴点を検出し、前記複数の局所特徴点の各々の位置に所定形状の図形を配置した形状を前記注目領域の外形と推定することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
The mask creation unit detects a plurality of local feature points from edge information of the input image, and estimates a shape in which a figure of a predetermined shape is arranged at each position of the plurality of local feature points as an outline of the attention area An image processing apparatus.
前記入力画像のエッジ情報に基づき、注目領域の外形を示すマスクを作成するマスク作成ステップと、
前記マップ作成ステップにより作成された前記マップと、前記マスク作成ステップにより作成された前記マスクとに基づいて、前記入力画像から前記注目領域を抽出する抽出ステップと、
をコンピュータに実行させることを特徴とする画像処理プログラム。 A map creation step for creating a map showing the distribution of the attention level of the input image;
Based on the edge information of the input image, a mask creating step for creating a mask indicating the outer shape of the region of interest;
An extraction step for extracting the region of interest from the input image based on the map created by the map creation step and the mask created by the mask creation step;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068809A JP2015191481A (en) | 2014-03-28 | 2014-03-28 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068809A JP2015191481A (en) | 2014-03-28 | 2014-03-28 | Image processing apparatus and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015191481A true JP2015191481A (en) | 2015-11-02 |
Family
ID=54425912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014068809A Pending JP2015191481A (en) | 2014-03-28 | 2014-03-28 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015191481A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076924A (en) * | 2019-11-05 | 2021-05-20 | 富士通株式会社 | Analyzer, analysis program, and analysis method |
-
2014
- 2014-03-28 JP JP2014068809A patent/JP2015191481A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076924A (en) * | 2019-11-05 | 2021-05-20 | 富士通株式会社 | Analyzer, analysis program, and analysis method |
JP7351186B2 (en) | 2019-11-05 | 2023-09-27 | 富士通株式会社 | Analysis equipment, analysis program and analysis method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11222399B2 (en) | Image cropping suggestion using multiple saliency maps | |
JP7413400B2 (en) | Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic equipment and storage medium | |
CN108961303B (en) | Image processing method and device, electronic equipment and computer readable medium | |
JP6267224B2 (en) | Method and system for detecting and selecting the best pictures | |
JP5210318B2 (en) | Image processing apparatus, method, and storage medium | |
JP6798183B2 (en) | Image analyzer, image analysis method and program | |
US9704230B2 (en) | Feedback to user for indicating augmentability of an image | |
US9454712B2 (en) | Saliency map computation | |
JP2010045613A (en) | Image identifying method and imaging device | |
US11908183B2 (en) | Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system | |
JP5779089B2 (en) | Edge detection apparatus, edge detection program, and edge detection method | |
JP6755787B2 (en) | Image processing equipment, image processing methods and programs | |
WO2016009421A1 (en) | Automatic image composition | |
JP2006119817A (en) | Image processor | |
JP2010244398A (en) | Image processing apparatus and image processing program | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
US9767533B2 (en) | Image resolution enhancement based on data from related images | |
JP6542230B2 (en) | Method and system for correcting projected distortion | |
US9995905B2 (en) | Method for creating a camera capture effect from user space in a camera capture system | |
WO2015196681A1 (en) | Picture processing method and electronic device | |
JP2020061080A (en) | Image processing device, imaging device, and image processing method | |
CN110766631A (en) | Face image modification method and device, electronic equipment and computer readable medium | |
JP2015191481A (en) | Image processing apparatus and image processing program | |
JP2010224775A (en) | Eye-catch synthesizing device and method | |
EP3211600B1 (en) | Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device |