JP2007011939A - Image decision device and method therefor - Google Patents
Image decision device and method therefor Download PDFInfo
- Publication number
- JP2007011939A JP2007011939A JP2005194820A JP2005194820A JP2007011939A JP 2007011939 A JP2007011939 A JP 2007011939A JP 2005194820 A JP2005194820 A JP 2005194820A JP 2005194820 A JP2005194820 A JP 2005194820A JP 2007011939 A JP2007011939 A JP 2007011939A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gradient
- scene
- line segment
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像のシーンを判定する画像判定装置及びその方法に関する。 The present invention relates to an image determination apparatus and method for determining an image scene.
従来より、写真画像処理装置においては、写真画像のシーンに応じた補正処理が行なわれていた。例えば、建築物が撮影されたような人工物画像の場合には、一般的に、エッジやコントラストが強調されたシャープな画像が好まれるため、鮮鋭化処理等の補正処理が施され、また、自然物が撮影されたような自然画像の場合には、一般的に、鮮鋭化処理等は行なわれない。
しかし、これまで、写真画像のシーンの判定は、一部に人物の検出等のアルゴリズムが提案されてはいるが、建築物等が撮影された人工物画像であるか否かを判定するような場合には、オペレータの確認作業により写真画像毎に判定する必要があり、写真画像のシーンに応じた補正処理に多くの時間を費やすことが問題となっていた。 However, until now, some scenes in photographic images have been proposed with algorithms such as human detection, but it is determined whether or not a building or the like is an image of an artificial object. In this case, it is necessary to make a determination for each photographic image by the operator's confirmation work, and it has been a problem that a lot of time is spent on the correction processing according to the scene of the photographic image.
本発明は、上述した従来の問題点に鑑み、画像のシーンが建築物等を撮影した人工物画像であるか否かについて、オペレータを介さずに自動で判定することが可能な画像判定装置及びその方法を提供する点にある。 In view of the above-described conventional problems, the present invention provides an image determination device capable of automatically determining whether an image scene is an artifact image obtained by photographing a building or the like without using an operator, and The point is to provide such a method.
上述の目的を達成するため、本発明による画像判定装置の第一の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、画像のシーンを判定する画像判定装置であって、判定対象となる画像をグレースケール画像に変換する画像変換手段と、変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出する勾配強度算出手段と、算出された勾配強度に基づいて前記画像を二値化したエッジ画像を生成するエッジ画像生成手段と、生成されたエッジ画像に含まれる所定範囲の連続画素で構成される線分を抽出し、その特徴量を導出する特徴量導出手段と、導出された特徴量から画像のシーンを判定するシーン判定手段とを備えてなる点にある。 In order to achieve the above object, a first characteristic configuration of an image determination device according to the present invention is an image determination device for determining a scene of an image as described in claim 1 of the document of the claim, Based on the calculated gradient strength, image conversion means for converting the image to be determined into a grayscale image, gradient strength calculation means for calculating the gradient strength and gradient direction of each pixel of the converted grayscale image, and Edge image generation means for generating an edge image obtained by binarizing an image, and feature quantity derivation means for extracting a line segment composed of a predetermined range of continuous pixels included in the generated edge image and deriving the feature quantity And a scene determination means for determining the scene of the image from the derived feature amount.
画像における種々のシーンにおいて、例えば、建築物等が撮影された人工物画像に代表されるように、長く直線的な線分を多く含むシーンがある。このような場合に、上述の構成によれば、シーン判定手段が、グレースケール画像における勾配強度に基づいたエッジ画像に含まれる所定範囲の連続画素で構成される線分の特徴量から画像のシーンを判定するため、長く直線的な線分を多く含むシーンであるか否かの判定を行なうことが可能となるのである。 In various scenes in an image, for example, there are scenes including many long and straight line segments as represented by an artifact image in which a building or the like is photographed. In such a case, according to the above-described configuration, the scene determination unit uses the feature amount of the line segment including the predetermined range of continuous pixels included in the edge image based on the gradient strength in the grayscale image to generate an image scene. Therefore, it is possible to determine whether or not the scene includes many long straight line segments.
同第二の特徴構成は、同請求項2に記載した通り、上述の第一の特徴構成に加えて、前記勾配強度算出手段は、前記グレースケール画像の画素における勾配強度と、縦方向、横方向、及び45度傾斜方向の4方向に勾配方向を算出する点にある。 In the second feature configuration, as described in claim 2, in addition to the first feature configuration described above, the gradient strength calculation means includes a gradient strength, a vertical direction, a horizontal direction in a pixel of the grayscale image. The point is that the gradient direction is calculated in the four directions of the direction and the 45-degree tilt direction.
上述の構成とすることにより、エッジ画像に含まれる所定範囲の連続画素で構成される線分を、エッジ画像の画素の縦方向、横方向、及び45度傾斜方向の4方向の線分として特定することができるため、長く直線的な線分を多く含むシーンの中から、特に人工物に特有の幾何学的な線分を含むシーンであるか否かの判定を効率的に行なうことが可能となるのである。 With the above configuration, a line segment composed of a predetermined range of continuous pixels included in the edge image is specified as a line segment in four directions of the vertical direction, the horizontal direction, and the 45-degree tilt direction of the pixel of the edge image. Therefore, it is possible to efficiently determine whether or not the scene includes a geometric line segment peculiar to an artifact among scenes including many long straight line segments. It becomes.
同第三の特徴構成は、同請求項3に記載した通り、上述の第一または第二の特徴構成に加えて、前記エッジ画像生成手段は、生成したエッジ画像に含まれる線分を前記勾配方向及び前記勾配強度に基づいて選択する細線化処理手段を備えている点にある。 In the third feature configuration, as described in claim 3, in addition to the first or second feature configuration described above, the edge image generation means converts the line segment included in the generated edge image into the gradient. There is a thinning processing means for selecting based on the direction and the gradient intensity.
上述の構成によれば、細線化処理手段が生成したエッジ画像に含まれる線分を前記勾配方向及び前記勾配強度に基づいて選択するため、例えば、前記エッジ画像において同一方向に数列隣接した直線的な線分を、一列の線分となるように細線化処理することができるのである。また、若干太く緩やかに湾曲したような画像におけるグレースケール画像の勾配強度に基づいたエッジ画像では、線分の長さの異なる二列の線分が隣接しているエッジ画像となることがあるが、上述の構成によれば、このような場合には、前記二列の線分のそれぞれを短く分断するとともに、前記分断された線分毎に一列とすることができるのである。つまり、自然物に特有の若干太く緩やかに湾曲したような画像におけるグレースケール画像の勾配強度に基づいたエッジ画像が、長く直線的な線分となることを防止することができるのである。 According to the above configuration, in order to select the line segment included in the edge image generated by the thinning processing unit based on the gradient direction and the gradient intensity, for example, linear lines adjacent to several rows in the same direction in the edge image. A thin line segment can be thinned to form a line segment. In addition, an edge image based on the gradient strength of a grayscale image in an image that is slightly thick and gently curved may be an edge image in which two line segments having different lengths are adjacent to each other. According to the above-described configuration, in such a case, each of the two line segments can be divided into short lines and can be made into one line for each of the divided line segments. That is, it is possible to prevent an edge image based on the gradient strength of the grayscale image in an image that is slightly thick and gently curved, which is unique to natural objects, from becoming a long and straight line segment.
同第四の特徴構成は、同請求項4に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記特徴量導出手段は、抽出された線分の平均長さと標準偏差を特徴量として導出する点にある。 In the fourth feature configuration, in addition to any one of the first to third feature configurations described above, the feature quantity deriving unit may calculate the average length of the extracted line segment. The standard deviation is derived as a feature quantity.
上述の構成とすることにより、前記シーン判定手段は、人工物に特有の長く直線的な線分であるか否かの指標としての線分の平均長さや、前記長く直線的な線分が幾何学的な線分であるか否かの指標としての標準偏差に基づいて画像のシーンを判定することが可能となるのである。つまり、前記シーン判定手段は、長く直線的な線分を多く含むシーンであるか否か、そして、それが幾何学的な線分からなるシーンであるか否かの判定を行なうことが可能となるのである。 With the above-described configuration, the scene determination means can determine the average length of the line segment as an indicator of whether or not it is a long straight line segment unique to the artifact, It is possible to determine the scene of the image based on the standard deviation as an index of whether or not it is a geometric line segment. In other words, the scene determination means can determine whether or not the scene includes many long straight line segments, and whether or not the scene includes a geometric line segment. It is.
同第五の特徴構成は、同請求項5に記載した通り、上述の第四の特徴構成に加えて、前記特徴量導出手段は、各方向について線分を構成する画素数が所定の最大画素数よりも少ない線分であって画素数の多い順に所定数の線分を抽出し、抽出された線分の各方向の平均値の平均を前記平均長さとして導出する点にある。 In the fifth feature configuration, as described in claim 5, in addition to the fourth feature configuration described above, the feature amount deriving means may include a predetermined maximum number of pixels constituting a line segment in each direction. A predetermined number of line segments are extracted in the order of the number of pixels that is smaller than the number of pixels, and the average of the average values in the respective directions of the extracted line segments is derived as the average length.
上述の構成によれば、前記特徴量導出手段は、各方向について線分を構成する画素数が所定の最大画素数よりも少ない線分を抽出するため、例えば、地平線等の自然物に基づいた線分を省くことができ、更に、前記特徴量導出手段は、各方向について線分を構成する画素数の多い順に所定数の線分を抽出し、抽出された線分の各方向の平均値の平均を前記平均長さとして導出するため、前記平均長さを人工物に基づいた線分の特徴量としての平均長さとすることができるのである。 According to the above-described configuration, the feature amount deriving unit extracts a line segment having a line segment that is smaller than a predetermined maximum number of pixels in each direction. For example, a line based on a natural object such as a horizon line is used. The feature amount deriving means extracts a predetermined number of line segments in descending order of the number of pixels constituting the line segment in each direction, and calculates an average value of the extracted line segments in each direction. Since the average is derived as the average length, the average length can be set as the average length as the feature amount of the line segment based on the artifact.
同第六の特徴構成は、同請求項6に記載した通り、上述の第一から第五の何れかの特徴構成に加えて、前記シーン判定手段は、前記特徴量を変量とするマハラノビス汎距離に基づく判別分析により前記画像のシーンを判定する点にあり、予め設定される標本に基づいて確実に画像のシーンを判定することが可能となるのである。 In the sixth feature configuration, as described in claim 6, in addition to any one of the first to fifth feature configurations described above, the scene determination unit may include a Mahalanobis general distance using the feature amount as a variable. This is because the scene of the image is determined by discriminant analysis based on the above, and the scene of the image can be reliably determined based on a preset sample.
同第七の特徴構成は、同請求項7に記載した通り、上述の第一から第六の何れかの特徴構成に加えて、前記シーン判定手段は、判別対象となる画像が、自然物が撮影された自然画像であるか、建築物が撮影された人工物画像であるかを判定する点にあり、長く直線的な線分を多く含むシーンであるか否か、そして、それが幾何学的な線分からなるシーンであるか否かの判定を、建築物が撮影された人工物画像であるか否かとして判定することができるのである。 In the seventh feature configuration, as described in claim 7, in addition to any of the first to sixth feature configurations described above, the scene determination means captures an image to be determined as a natural object. Whether it is a natural image or a man-made image of the building, and whether it is a scene with many long straight lines, and whether it is a geometric It can be determined whether or not the scene is composed of straight line segments as whether or not the building is a man-made object image.
上述の目的を達成するため、本発明による画像判定方法の第一の特徴構成は、同請求項8に記載した通り、画像のシーンを判定する画像判定方法であって、判定対象となる画像をグレースケール画像に変換する画像変換ステップと、変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出する勾配強度算出ステップと、算出された勾配強度に基づいて前記画像を二値化したエッジ画像を生成するエッジ画像生成ステップと、生成されたエッジ画像に含まれる所定範囲の連続画素で構成される線分を抽出し、その特徴量を導出する特徴量導出ステップと、導出された特徴量から画像のシーンを判定するシーン判定ステップとからなる点にある。 In order to achieve the above object, a first characteristic configuration of an image determination method according to the present invention is an image determination method for determining a scene of an image as described in claim 8, wherein an image to be determined is selected. An image conversion step for converting to a grayscale image, a gradient strength calculation step for calculating the gradient strength and gradient direction of each pixel of the converted grayscale image, and binarization of the image based on the calculated gradient strength An edge image generating step for generating an edge image, a feature amount deriving step for extracting a line segment composed of continuous pixels within a predetermined range included in the generated edge image, and deriving the feature amount; and a derived feature And a scene determination step for determining an image scene from the quantity.
同第二の特徴構成は、同請求項9に記載した通り、上述の第一の特徴構成に加えて、前記勾配強度算出ステップにおいて、前記グレースケール画像の画素における勾配強度と、縦方向、横方向、及び45度傾斜方向の4方向の勾配方向を算出する点にある。 According to the second feature configuration, in addition to the first feature configuration described above, in the gradient strength calculation step, the gradient strength at the pixel of the grayscale image, the vertical direction, the horizontal direction, and the like. It is in the point which calculates the direction and the gradient direction of 4 directions of a 45-degree inclination direction.
同第三の特徴構成は、同請求項10に記載した通り、上述の第一または第二の特徴構成に加えて、前記エッジ画像生成ステップにおいて、生成したエッジ画像に含まれる線分を前記勾配方向及び前記勾配強度に基づいて選択する細線化処理を実施する点にある。 In the third feature configuration, in addition to the first or second feature configuration described above, in the edge image generation step, a line segment included in the generated edge image is converted into the gradient. The thinning process is selected based on the direction and the gradient strength.
同第四の特徴構成は、同請求項11に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記特徴量導出ステップにおいて、抽出された線分の平均長さと標準偏差を特徴量として導出する点にある。 In the fourth feature configuration, as described in claim 11, in addition to any one of the first to third feature configurations described above, in the feature amount derivation step, The standard deviation is derived as a feature quantity.
同第五の特徴構成は、同請求項12に記載した通り、上述の第四の特徴構成に加えて、前記特徴量導出ステップにおいて、各方向について線分を構成する画素数が所定の最大画素数よりも少ない線分であって画素数の多い順に所定数の線分を抽出し、抽出された線分の各方向の平均値の平均を前記平均長さとして導出する点にある。 In the fifth feature configuration, as described in claim 12, in addition to the fourth feature configuration described above, in the feature amount deriving step, the number of pixels constituting a line segment in each direction is a predetermined maximum pixel. A predetermined number of line segments are extracted in the order of the number of pixels that is smaller than the number of pixels, and the average of the average values in the respective directions of the extracted line segments is derived as the average length.
同第六の特徴構成は、同請求項13に記載した通り、上述の第一から第五の何れかの特徴構成に加えて、前記シーン判定ステップにおいて、前記特徴量を変量とするマハラノビス汎距離に基づく判別分析により前記画像のシーンを判定する点にある。 In the sixth feature configuration, as described in claim 13, in addition to any of the first to fifth feature configurations described above, in the scene determination step, the Mahalanobis general distance using the feature amount as a variable. The scene of the image is determined by discriminant analysis based on the above.
同第七の特徴構成は、同請求項14に記載した通り、上述の第一から第六の何れか特徴構成に加えて、前記シーン判定ステップにおいて、判別対象となる画像が、自然物が撮影された自然画像であるか、建築物が撮影された人工物画像であるかを判定する点にある。 In the seventh feature configuration, as described in claim 14, in addition to any of the first to sixth feature configurations described above, in the scene determination step, a natural object is photographed as an image to be determined. In other words, it is determined whether the image is a natural image or an artifact image obtained by photographing a building.
以上説明した通り、本発明によれば、画像のシーンが建築物等を撮影した人工物画像であるか否かについて、オペレータを介さずに自動で判定することが可能な画像判定装置及びその方法を提供することができるようになった。 As described above, according to the present invention, it is possible to automatically determine whether an image scene is an artifact image obtained by photographing a building or the like, without using an operator, and a method thereof. Can now be provided.
以下に本発明による画像判定装置が組み込まれた写真画像処理装置の実施の形態を説明する。図2に示すように、写真画像処理装置1は、印画紙Pに対して出力画像データに基づいた露光処理を行ない露光された印画紙を現像処理する写真プリンタ2と、現像済みの写真フィルムFから画像を読み込むフィルムスキャナ31やデジタルスチルカメラ等で撮影された画像データが格納されたメモリカード等の画像データ記憶メディアMから画像データを読み取るメディアドライバ32や、コントローラ33としての汎用コンピュータ等を備え、入力された元画像としての写真画像に対するプリントオーダ情報を設定入力するとともに、各種の画像補正処理を行なう操作ステーション3を備えて構成され、前記操作ステーション3で元画像から編集処理されたプリントデータが前記写真プリンタ2に出力されて所望の写真プリントが生成される。 An embodiment of a photographic image processing apparatus incorporating an image determination apparatus according to the present invention will be described below. As shown in FIG. 2, the photographic image processing apparatus 1 includes a photographic printer 2 that performs an exposure process on the photographic paper P based on output image data and develops the exposed photographic paper, and a developed photographic film F. A media driver 32 that reads image data from an image data storage medium M such as a memory card that stores image data taken by a film scanner 31 or a digital still camera that reads an image from the camera, a general-purpose computer as a controller 33, and the like The print data is set and inputted with the print order information for the inputted photographic image as the original image, and includes an operation station 3 for performing various image correction processes, and the print data edited from the original image by the operation station 3 Is output to the photographic printer 2 to produce a desired photographic print. That.
前記写真プリンタ2は、図2及び図3に示すように、ロール状の印画紙Pを収容した二系統の印画紙マガジン21と、前記印画紙マガジン21から引き出された印画紙Pを所定のプリントサイズに切断するシートカッター22と、切断後の印画紙Pの背面にコマ番号等のプリント情報を印字するバックプリント部23と、前記プリントデータに基づいて印画紙Pを露光する露光部24と、露光後の印画紙Pを現像、漂白、定着するための各処理液が充填された複数の処理槽25a、25b、25cを備えた現像処理部25が印画紙Pの搬送経路に沿って配置され、現像処理後に乾燥処理された印画紙Pが排出される横送りコンベア26と、横送りコンベア26に集積された複数枚の印画紙(写真プリント)Pがオーダー単位で仕分けられるソータ27を備えて構成される。 As shown in FIGS. 2 and 3, the photographic printer 2 has two systems of photographic paper magazines 21 containing roll-shaped photographic paper P, and photographic paper P drawn from the photographic paper magazine 21 with a predetermined print. A sheet cutter 22 that cuts into a size; a back print unit 23 that prints print information such as a frame number on the back of the cut photographic paper P; an exposure unit 24 that exposes the photographic paper P based on the print data; A development processing unit 25 including a plurality of processing tanks 25a, 25b, and 25c filled with processing solutions for developing, bleaching, and fixing the exposed photographic paper P is disposed along the transport path of the photographic paper P. The laterally-feeding conveyor 26 that discharges the photographic paper P that has been dried after the development process, and the sheet-paper (photo print) P that is stacked on the laterally-feeding conveyor 26 is sorted in order units. Configured to include the data 27.
前記露光部24には、搬送機構28によって副走査方向に搬送される印画紙Pに対して、搬送方向に直交する主走査方向に前記プリントデータに基づき変調されたRGB三色のレーザ光線束を出力して露光する露光ヘッド24aが収容されている。 The exposure unit 24 receives a laser beam bundle of RGB three colors modulated based on the print data in the main scanning direction orthogonal to the conveyance direction with respect to the photographic paper P conveyed in the sub-scanning direction by the conveyance mechanism 28. An exposure head 24a for outputting and exposing is accommodated.
前記搬送経路に沿って配置された前記露光部24や現像処理部25に応じたプロセス速度で印画紙Pを搬送する複数のローラ対でなる搬送機構28が配置され、前記露光部24の前後には印画紙Pを複列に搬送可能なチャッカー式搬送機構28aが設けられている。 A transport mechanism 28 including a plurality of roller pairs that transport the photographic printing paper P at a process speed corresponding to the exposure unit 24 and the development processing unit 25 disposed along the transport path is disposed before and after the exposure unit 24. Is provided with a chucker-type transport mechanism 28a capable of transporting photographic paper P in multiple rows.
前記操作ステーション3に設けられたコントローラ33には、汎用のオペレーティングシステムの管理下で動作し、前記写真処理装置1の各種制御が実行されるアプリケーションプログラムがインストールされ、オペレータとの操作インターフェースとしてモニタ34、キーボード35、マウス36等が接続されている。 The controller 33 provided in the operation station 3 is installed with an application program that operates under the control of a general-purpose operating system and executes various controls of the photographic processing apparatus 1, and a monitor 34 as an operation interface with the operator. A keyboard 35, a mouse 36, and the like are connected.
前記コントローラ33のハードウェア及びソフトウェアの協働により実行される写真処理プロセスを機能ブロックで説明すると、図4に示すように、前記フィルムスキャナ31やメディアドライバ32によって読み取られた写真画像データを受け取り、所定の前処理を行なって後述のメモリ41に転送する画像入力部40と、前記モニタ34の画面にプリントオーダ情報や画像編集情報を表示するとともに、それらに対して必要なデータ入力のための操作用アイコンを表示するグラフィック操作画面を生成し、或いは表示されたグラフィック操作画面に対する前記キーボード35やマウス36からの入力操作に基づいて各種の制御コマンドを生成するグラフィックユーザーインターフェース部(GUI)42と、前記画像入力部40から転送される写真画像データ及び後述の画像処理部47による補正処理後の写真画像データやそのときの補正パラメータ、更には設定されたプリントオーダ情報等が所定領域に区画されて格納されるメモリ41と、プリントオーダ情報を生成するオーダー処理部43と、前記メモリ41に格納された各写真画像データに対して濃度補正処理やコントラスト補正処理等を行なう画像処理部47と、前記グラフィックユーザーインターフェース部42からの表示コマンドに基づいて前記メモリ41に展開された画像データや各種の入出力用グラフィックデータ等を前記モニタ34に表示処理するビデオRAM等を備えた表示制御部46と、各種の補正処理が終了した最終の補正画像を前記写真プリンタ2に出力するためのプリントデータを生成するプリントデータ生成部44と、顧客のオーダーに応じて最終の補正画像をCD−R等の記憶媒体に書き込むためのファイル形式に変換するフォーマッタ部45等で構成される。 The photographic processing process executed by the cooperation of the hardware and software of the controller 33 will be described in functional blocks. As shown in FIG. 4, photographic image data read by the film scanner 31 and the media driver 32 is received. An image input unit 40 that performs predetermined preprocessing and transfers it to a memory 41, which will be described later, and print order information and image editing information are displayed on the screen of the monitor 34, and an operation for inputting necessary data for them. A graphic user interface unit (GUI) 42 for generating a graphic operation screen for displaying a user icon or generating various control commands based on input operations from the keyboard 35 and mouse 36 to the displayed graphic operation screen; Transfer from the image input unit 40 And a memory 41 in which photographic image data to be processed, photographic image data after correction processing by an image processing unit 47 to be described later, correction parameters at that time, and set print order information, etc. are partitioned and stored in a predetermined area; An order processing unit 43 that generates order information, an image processing unit 47 that performs density correction processing and contrast correction processing on each photographic image data stored in the memory 41, and a display from the graphic user interface unit 42 A display control unit 46 including a video RAM for displaying the image data and various input / output graphic data developed in the memory 41 based on the command on the monitor 34, and the final of the various correction processes. A pre-image for generating print data for outputting the corrected image to the photo printer 2 And Todeta generator 44, and the like formatter 45 which converts the final corrected image according to customer orders to a file format for writing in a storage medium such as a CD-R.
前記フィルムスキャナ31は、フィルムFに記録された画像を低解像度ではあるものの高速で読み取るプレスキャンモードと、低速ではあるものの高解像度で読み取る本スキャンモードの二モードで作動するように構成され、プレスキャンモードで読み込まれた低解像度の画像に対してプレジャッジモードで各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて本スキャンモードで読み込まれた高解像度の画像に対する最終の補正処理が実行されて前記プリンタ2に出力される。 The film scanner 31 is configured to operate in two modes: a pre-scan mode that reads an image recorded on the film F at a high speed although it has a low resolution, and a main scan mode that reads a high-resolution image at a low speed. Various correction processes are performed in the pre-judge mode on the low-resolution image read in the can mode, and the high-resolution image read in the main scan mode based on the correction parameters stored in the memory 41 at that time. The final correction process for the image is executed and output to the printer 2.
同様に、前記メディアドライバ32から読み込まれた画像ファイルには高解像度の撮影画像とそのサムネイル画像が含まれ、サムネイル画像に対して後述の各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて高解像度の撮影画像に対する最終の補正処理が実行される。尚、画像ファイルにサムネイル画像が含まれないときには、前記画像入力部40で高解像度の撮影画像からサムネイル画像が生成されて前記メモリ41に転送される。このように、低解像度の画像に対して頻繁に試行錯誤される各種の編集処理が実行されることによりコントローラ33の演算負荷が低減されるように構成されている。 Similarly, the image file read from the media driver 32 includes a high-resolution captured image and its thumbnail image, and various correction processes described later are performed on the thumbnail image. Based on the stored correction parameters, a final correction process is performed on the high-resolution captured image. When the image file does not include a thumbnail image, the image input unit 40 generates a thumbnail image from the high-resolution captured image and transfers it to the memory 41. In this way, the calculation load of the controller 33 is reduced by executing various editing processes that are frequently trial and error on low-resolution images.
前記画像処理部47は、図1に示すように、入力された画像のシーンを判定する本発明の主要部となる入力画像判定手段10と、前記入力画像判定手段10によりシーン判定された画像に対してその判定結果に基づいて、または、前記GUI42を介して前記キーボード35やマウス36からのオペレータによる操作指示に基づいて、画像の濃度補正処理や、画像のコントラスト補正処理、画像のエッジを強調しノイズを低減する鮮鋭化処理等の補正処理を行なう補正処理手段11を備えて構成されている。 As shown in FIG. 1, the image processing unit 47 includes an input image determination unit 10 that is a main part of the present invention that determines a scene of an input image, and an image whose scene is determined by the input image determination unit 10. On the other hand, based on the determination result or based on an operation instruction by the operator from the keyboard 35 or mouse 36 via the GUI 42, image density correction processing, image contrast correction processing, and image edge enhancement are emphasized. And correction processing means 11 for performing correction processing such as sharpening processing for reducing noise.
前記入力画像判定手段10は、判定対象となる画像をグレースケール画像に変換する画像変換手段12と、前記画像変換手段12により変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出する勾配強度算出手段13と、前記勾配強度算出手段13により算出された勾配強度に基づいて前記画像を二値化したエッジ画像を生成するエッジ画像生成手段14と、前記エッジ画像生成手段14により生成されたエッジ画像に含まれる所定範囲の連続画素で構成される線分を抽出しその特徴量を導出する特徴量導出手段15と、前記特徴量導出手段15により導出された特徴量から画像のシーンを判定するシーン判定手段16を備えて構成されている。 The input image determination means 10 calculates an image conversion means 12 for converting an image to be determined into a grayscale image, and a gradient strength and a gradient direction of each pixel of the grayscale image converted by the image conversion means 12. Gradient intensity calculating means 13, edge image generating means 14 for generating an edge image obtained by binarizing the image based on the gradient intensity calculated by the gradient intensity calculating means 13, and the edge image generating means 14 A feature amount deriving unit 15 for extracting a line segment composed of continuous pixels within a predetermined range included in the edge image and deriving the feature amount; and a scene of the image from the feature amount derived by the feature amount deriving unit 15. A scene determination means 16 for determination is provided.
前記画像変換手段12は、例えば、前記判定対象となる画像の各画素データを〔数1〕に基づいてR成分、G成分、B成分のそれぞれに対して重み付けをして加算した値に変換することにより、前記判定対象となる画像をグレースケール画像に変換するように構成されている。 For example, the image conversion unit 12 converts each pixel data of the image to be determined into a value obtained by weighting and adding each of the R component, the G component, and the B component based on [Equation 1]. Thus, the image to be determined is converted to a gray scale image.
尚、Y(i)は、整数に丸め処理され、また、iは各画素番号を示す。 Y (i) is rounded to an integer, and i indicates each pixel number.
前記勾配強度算出手段13は、前記画像変換手段12により変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出するもので、例えば、図5(a)に示すような、勾配強度の縦方向成分を抽出するソーベルフィルタを前記グレースケール画像の各画素データに乗算することにより前記グレースケール画像の各画素にける勾配強度の縦方向成分P1(i)を算出し、また、図5(b)に示すような、勾配強度の横方向成分を抽出するソーベルフィルタを前記グレースケール画像の各画素データに乗算することにより前記グレースケール画像の各画素における勾配強度の横方向成分P2(i)を算出し、更に、〔数2〕に基づいて前記グレースケール画像の各画素における勾配強度Pa(i)を算出するとともに、〔数3〕に基づいて前記グレースケール画像の各画素における勾配方向Sa(i)を算出するように構成されている。 The gradient intensity calculating means 13 calculates the gradient intensity and gradient direction of each pixel of the grayscale image converted by the image converting means 12, and has, for example, a gradient intensity as shown in FIG. A vertical component P1 (i) of the gradient intensity at each pixel of the grayscale image is calculated by multiplying each pixel data of the grayscale image by a Sobel filter that extracts a vertical component, and FIG. By multiplying each pixel data of the gray scale image by a Sobel filter for extracting the horizontal component of the gradient intensity as shown in (b), the horizontal component P2 of the gradient intensity at each pixel of the gray scale image ( i) is calculated, and further, gradient intensity Pa (i) at each pixel of the gray scale image is calculated based on [Equation 2], and based on [Equation 3]. Is configured to calculate the gradient direction Sa (i) in each pixel of the grayscale image are.
尚、前記勾配方向Sa(i)は、前記グレースケール画像の画素の縦方向、横方向、及び互いに交差する45度傾斜方向の4方向に分類処理されるように構成されている。例えば、−90.0≦Sa(i)<−67.5及び67.5<Sa(i)≦90.0のときには前記グレースケール画像の画素の縦方向、−22.5≦Sa(i)≦22.5のときには前記グレースケール画像の画素の横方向、−67.5≦Sa(i)<−22.5のときには前記グレースケール画像の画素の一方の45度傾斜方向、22.5≦Sa(i)<67.5のときには前記グレースケール画像の画素の他方の45度傾斜方向として分類処理することができる。 The gradient direction Sa (i) is configured to be classified into four directions, that is, a vertical direction and a horizontal direction of pixels of the gray scale image, and a 45-degree inclined direction intersecting each other. For example, when −90.0 ≦ Sa (i) <− 67.5 and 67.5 <Sa (i) ≦ 90.0, the vertical direction of the pixel of the gray scale image, −22.5 ≦ Sa (i) When ≦ 22.5, the horizontal direction of the pixels of the grayscale image, and when −67.5 ≦ Sa (i) <− 22.5, the 45 ° inclination direction of one of the pixels of the grayscale image is 22.5 ≦ When Sa (i) <67.5, the other 45 degree tilt direction of the pixels of the gray scale image can be classified.
つまり、前記勾配強度算出手段13は、前記グレースケール画像の各画素に対して、前記勾配強度Pa(i)を、前記グレースケール画像の画素の縦方向、横方向、または、互いに交差する45度傾斜方向の計4方向の何れかの勾配方向に対する勾配強度として算出するように構成されている。 That is, the gradient intensity calculation means 13 sets the gradient intensity Pa (i) for each pixel of the grayscale image at 45 degrees that intersects the vertical direction, the horizontal direction, or the pixels of the grayscale image. The gradient strength is calculated as a gradient strength for any one of the four gradient directions.
前記エッジ画像生成手段14は、前記勾配強度算出手段13により算出された勾配強度Pa(i)が所定の勾配強度閾値Pth以上となっている前記画像の画素をエッジ画素として検出し、例えば、図6(a)に示すような前記画像から、前記検出したエッジ画素とその他の画素とに区分けすることで二値化した図6(b)に示すような二値化エッジ画像を生成するように構成されている。 The edge image generation unit 14 detects, as edge pixels, pixels of the image in which the gradient intensity Pa (i) calculated by the gradient intensity calculation unit 13 is equal to or greater than a predetermined gradient intensity threshold Pth. A binarized edge image as shown in FIG. 6B is generated by dividing the detected edge pixel into other pixels from the image as shown in FIG. 6A. It is configured.
前記勾配強度閾値Pthは、前記勾配強度算出手段13により算出された勾配強度Pa(i)から得られる図7に示すような勾配強度ヒストグラムに基づいて、前記画像の画素数に対してエッジ画素として検出される画素数の割合が所定の割合となるように適宜設定することができる。尚、前記勾配強度閾値Pthは、所定の勾配強度の範囲にあることが望ましく、例えば、前記グレースケール画像が8ビットデータであった場合には、前記勾配強度閾値Pthを少なくとも100から320の範囲内に設定すれば、ノイズ等の影響を小さくすることができ好ましい。 The gradient intensity threshold value Pth is used as an edge pixel with respect to the number of pixels of the image, based on a gradient intensity histogram as shown in FIG. 7 obtained from the gradient intensity Pa (i) calculated by the gradient intensity calculating means 13. It can set suitably so that the ratio of the number of detected pixels may become a predetermined ratio. The gradient intensity threshold value Pth is preferably within a predetermined gradient intensity range. For example, when the grayscale image is 8-bit data, the gradient intensity threshold value Pth is at least in the range of 100 to 320. If it is set within the range, the influence of noise or the like can be reduced, which is preferable.
また、前記エッジ画像生成手段14は、その内部に備えた細線化処理手段17により、前記生成した二値化エッジ画像に含まれる線分を前記勾配方向及び前記勾配強度に基づいて選択するように構成されている。 Further, the edge image generation means 14 selects a line segment included in the generated binarized edge image based on the gradient direction and the gradient intensity by the thinning processing means 17 provided therein. It is configured.
詳述すると、前記細線化処理手段17は、前記二値化エッジ画像における隣接画素に前記エッジ画素が配置されていたときに、前記二つのエッジ画素における勾配方向を比較し、図8(a)、図8(b)、図8(c)、図8(d)に示すように、前記勾配方向が同一方向で、且つ、前記二つのエッジ画素が前記勾配方向と平行な方向に並んでいるようなときに、前記二つのエッジ画素のうち勾配強度の小さい方のエッジ画素をエッジ画素から省くことで、図9(a)に示すような二値化エッジ画像から、図9(b)に示すような細線化処理された二値化エッジ画像を生成するように構成されている。 More specifically, the thinning processing unit 17 compares the gradient directions of the two edge pixels when the edge pixels are arranged in adjacent pixels in the binarized edge image. 8 (b), FIG. 8 (c), and FIG. 8 (d), the gradient direction is the same direction, and the two edge pixels are aligned in a direction parallel to the gradient direction. In such a case, by omitting the edge pixel having the smaller gradient strength from the two edge pixels from the edge pixel, the binarized edge image as shown in FIG. A thinned binarized edge image is generated as shown in FIG.
つまり、前記細線化処理手段17は、同一方向に連なるエッジ画素からなる連続エッジ画素としての線分が隣接しているときに、より勾配強度の大きいエッジ画素からなる線分を選択するように構成されている。 That is, the thinning processing unit 17 is configured to select a line segment composed of edge pixels having a higher gradient strength when line segments as continuous edge pixels composed of edge pixels connected in the same direction are adjacent to each other. Has been.
ここで、前記二値化エッジ画像は、上述したように、前記勾配強度に基づいて生成されている。よって、前記連続エッジ画素としての線分における各エッジ画素の勾配方向は、大半が同一方向となっているため、上述のように、前記勾配方向が同一方向で、且つ、前記二つのエッジ画素が前記勾配方向と平行な方向に並んでいるようなときにのみ、所定のエッジ画素を省けば十分に細線化処理することが可能となる。 Here, as described above, the binarized edge image is generated based on the gradient strength. Therefore, since the gradient direction of each edge pixel in the line segment as the continuous edge pixel is mostly the same direction, as described above, the gradient direction is the same direction, and the two edge pixels are Only when they are arranged in a direction parallel to the gradient direction, the thinning process can be sufficiently performed by omitting predetermined edge pixels.
また、前記細線化処理手段17は、例えば、若干太く緩やかに湾曲したような画像に基づいて生成された図10に示すような長さの異なる二列の線分が隣接しているエッジ画像に対して、前記細線化処理を施すことで、前記二列の線分のそれぞれを短くまたは分断し、更には、前記短くまたは分断された線分を線分毎に一列とすることで、自然物に特有の若干太く緩やかに湾曲したような画像におけるグレースケール画像の勾配強度に基づいたエッジ画像が、長く直線的な線分となることを防止するように構成されている。 Further, the thinning processing unit 17 generates, for example, an edge image in which two line segments having different lengths as shown in FIG. 10 generated based on an image that is slightly thick and gently curved are adjacent to each other. On the other hand, by performing the thinning process, each of the two line segments is shortened or divided, and further, the shortened or divided line segments are arranged in a line for each line segment, so that it becomes a natural object. The edge image based on the gradient strength of the grayscale image in the characteristic slightly thick and gently curved image is prevented from becoming a long and straight line segment.
前記特徴量導出手段15は、前記エッジ画像生成手段14により最終的に生成された二値化エッジ画像、つまり、細線化処理された二値化エッジ画像に含まれる所定範囲の連続エッジ画素で構成される線分を抽出しその特徴量を導出するもので、前記二値化エッジ画像の画素の縦方向、横方向、及び、互いに交差する45度傾斜方向の計4方向に対してそれぞれランレングス行列を求めることで、前記4方向における、図11に示すような、各線分の長さとその長さになっている線分の本数との関係を示す線分長ヒストグラム(連続エッジ画素数ヒストグラム)をそれぞれ生成し、最大の線分長となっている線分から、所定の順位の線分長になっている線分までのそれぞれの平均線分長を算出し、前記算出した各平均線分長の平均値である判別平均値と、前記算出した各平均線分長の標準偏差である判別標準偏差とを特徴量として導出するように構成されている。 The feature quantity deriving unit 15 includes a binary edge image finally generated by the edge image generating unit 14, that is, a continuous edge pixel in a predetermined range included in the binarized edge image subjected to the thinning process. The line length is extracted and the feature amount is derived, and the run lengths are respectively obtained for the vertical direction, the horizontal direction, and the 45-degree inclined directions intersecting each other in the vertical direction and the horizontal direction of the pixels of the binarized edge image. By obtaining a matrix, a line segment length histogram (continuous edge pixel number histogram) showing the relationship between the length of each line segment and the number of line segments corresponding to that length as shown in FIG. 11 in the four directions. , And calculate the average line length from the line segment with the maximum line segment length to the line segment with the line segment length of the predetermined rank. The average value of The average value, is configured to derive the feature amount and the determination standard deviation is the standard deviation of the average segment length of the calculated.
つまり、前記特徴量導出手段15は、画像に人工物に特有の長く直線的な線分が含まれているか否かの指標としての判別平均値と、前記長く直線的な線分が幾何学的な線分であるか否かの指標としての標判別準偏差とを特徴量として導出するように構成されている。 That is, the feature quantity deriving unit 15 determines whether the image includes a discrimination average value as an index as to whether or not the image includes a long straight line segment peculiar to the artifact, and the long straight line segment is geometric. A standard discriminant quasi-deviation as an index as to whether or not it is a straight line segment is derived as a feature quantity.
尚、前記平均線分長を、所定の線分長閾値Cthよりも長い線分長を省いて、前記所定の線分長閾値Cth以下における最大の線分長となっている線分から、所定の順位の線分長になっている線分までの平均線分長とすれば、例えば、地平線等の自然物に基づいた線分を省くことができ、前記平均線分長をより人工物に基づいた線分の特徴量としての平均線分長とすることができ好ましい。前記線分長閾値Cthは、例えば、前記画像が256×384画素であった場合には、凡そ50程度に設定すれば、地平線等の自然物に基づいた線分を省くことができ好ましく、またこのとき、前記平均線分長は、上位30位程度の線分長の平均値とすれば、画像に人工物特有の長く直線的な線分が含まれているか否かの指標として適用する場合に適したものとなり好ましい。 The average line length is omitted from a line segment having a maximum line segment length below the predetermined line segment length threshold Cth by omitting a line segment length longer than the predetermined line segment length threshold Cth. If the average line length up to the line segment that is the rank line length is taken, for example, a line segment based on a natural object such as a horizon line can be omitted, and the average line segment length is more based on an artifact. The average line segment length as the characteristic amount of the line segment can be preferably used. For example, when the image has 256 × 384 pixels, the line segment length threshold Cth is preferably set to about 50, so that line segments based on natural objects such as the horizon can be omitted. When the average line segment length is the average value of the top 30 segment lengths, the image is applied as an index as to whether or not the image includes a long linear segment peculiar to artifacts. Suitable and preferred.
前記シーン判定手段16は、前記特徴量導出手段15により導出された特徴量としての前記判別平均値と判別標準偏差とから画像のシーンを判定するもので、予め種々のシーン毎の標本値としてのいくつかの母集団が設定され、例えば、マハラノビスの汎距離に基づいて前記導出された判別平均値と判別標準偏差が前記母集団の何れに属するかを判定し、前記判別平均値と判別標準偏差が属すると判定した母集団に対応するシーンを、前記判別対象画像におけるシーンとして判定するように構成されている。 The scene determination unit 16 determines an image scene from the discrimination average value and the discrimination standard deviation as the feature amount derived by the feature amount deriving unit 15, and preliminarily serves as sample values for various scenes. Several populations are set, for example, based on Mahalanobis's general distance, it is determined whether the derived discriminant average value and discriminant standard deviation belong to the population, and the discriminant average value and discriminant standard deviation The scene corresponding to the population determined to belong to is determined as the scene in the discrimination target image.
具体的には、前記シーン判定手段16には、予め前記母集団の一つが種々の建築物に対して撮影した人工物画像における複数の標本値としての判別平均値と判別標準偏差からなる母集団として設定され、他の母集団が建築物以外に対して撮影した画像における複数の標本値としての判別平均値と判別標準偏差からなる母集団として設定され、前記シーン判定手段16がマハラノビスの汎距離に基づいて前記特徴量の属する母集団を判定することで前記判別対象画像が建築物を撮影した人工物画像か否かを判定するように構成されている。 Specifically, the scene determination means 16 includes a population consisting of a discrimination average value and a discrimination standard deviation as a plurality of sample values in an artifact image obtained by photographing one of the populations in advance for various buildings. Is set as a population composed of a discriminant average value and discriminant standard deviation as a plurality of sample values in images taken by other populations other than buildings, and the scene judgment means 16 is set to the Mahalanobis general distance. By determining the population to which the feature amount belongs, it is configured to determine whether or not the discrimination target image is an artifact image obtained by photographing a building.
以下、画像のシーン判定の動作について図12のフローチャートに基づいて説明する。前記メモリ41に画像が記憶されると(SA1)、前記画像変換手段12は、前記画像の各画素データを前記〔数1〕に基づいてR成分、G成分、B成分のそれぞれに対して重み付けをした値の加算値に変換することにより、前記画像をグレースケール画像に変換する(SA2)。 Hereinafter, the scene determination operation of the image will be described based on the flowchart of FIG. When an image is stored in the memory 41 (SA1), the image conversion means 12 weights each pixel data of the image for each of the R component, the G component, and the B component based on the [Equation 1]. The image is converted into a grayscale image by converting it into an added value of the obtained values (SA2).
前記メモリ41に記憶された画像が前記画像変換手段12によりグレースケール画像に変換されると、前記勾配強度算出手段13は、勾配強度の縦方向成分を抽出するソーベルフィルタを前記グレースケール画像の各画素データに乗算することにより前記グレースケール画像の各画素にける勾配強度の縦方向成分P1(i)を算出する(SA3)。また、勾配強度の横方向成分を抽出するソーベルフィルタを前記グレースケール画像の各画素データに乗算することにより前記グレースケール画像の各画素における勾配強度の横方向成分P2(i)を算出する(SA4)。更に、前記〔数2〕に基づいて前記グレースケール画像の各画素における勾配強度Pa(i)を算出するとともに(SA5)、前記〔数3〕に基づいて前記グレースケール画像の各画素における勾配方向Sa(i)を算出する(SA6)。このとき、前記勾配方向Sa(i)は、前記グレースケール画像の画素の縦方向、横方向、及び45度傾斜方向の4方向に分類処理される。 When the image stored in the memory 41 is converted into a grayscale image by the image converting means 12, the gradient strength calculating means 13 applies a Sobel filter for extracting the longitudinal component of the gradient strength to the grayscale image. By multiplying each pixel data, the vertical component P1 (i) of the gradient intensity at each pixel of the gray scale image is calculated (SA3). In addition, the horizontal component P2 (i) of the gradient intensity at each pixel of the grayscale image is calculated by multiplying each pixel data of the grayscale image by a Sobel filter that extracts the horizontal component of the gradient intensity ( SA4). Further, the gradient intensity Pa (i) at each pixel of the grayscale image is calculated based on [Equation 2] (SA5), and the gradient direction at each pixel of the grayscale image is calculated based on [Equation 3]. Sa (i) is calculated (SA6). At this time, the gradient direction Sa (i) is classified into four directions, ie, a vertical direction, a horizontal direction, and a 45-degree inclined direction of the pixels of the grayscale image.
前記勾配強度算出手段13により前記グレースケール画像における勾配強度Pa(i)と勾配方向Sa(i)が算出されると、前記エッジ画像生成手段14は、前記算出された各画素の勾配強度Pa(i)に基づいて前記勾配強度ヒストグラムを生成し(SA7)、前記勾配強度ヒストグラムから前記画像の画素数に対してエッジ画素として検出される画素数の割合が所定の割合となる勾配強度閾値Pthを算出する(SA8)。そして、前記画像における前記勾配強度閾値Pth以上となっている画素をエッジ画素として検出し、前記検出したエッジ画素とその他の画素とを区分けすることで前記画像を二値化した二値化エッジ画像を生成する(SA9)。 When the gradient strength calculation unit 13 calculates the gradient strength Pa (i) and the gradient direction Sa (i) in the grayscale image, the edge image generation unit 14 calculates the gradient strength Pa (( i), the gradient intensity histogram is generated (SA7), and a gradient intensity threshold value Pth at which a ratio of the number of pixels detected as edge pixels to the number of pixels of the image from the gradient intensity histogram is a predetermined ratio is set. Calculate (SA8). Then, a binarized edge image obtained by binarizing the image by detecting pixels that are equal to or greater than the gradient intensity threshold Pth in the image as edge pixels and classifying the detected edge pixel and other pixels. Is generated (SA9).
また、前記エッジ画像生成手段14は、前記細線化処理手段17により、前記二値化エッジ画像における隣接画素に前記エッジ画素が配置されていたときに、前記二つのエッジ画素における勾配方向を比較し、前記勾配方向が同一方向で、且つ、前記二つのエッジ画素が前記勾配方向と平行な方向に並んでいるようなときに、前記二つのエッジ画素のうち勾配強度の小さい方のエッジ画素をエッジ画素から省くことで、前記二値化エッジ画像を細線化処理する(SA10)。 The edge image generation unit 14 compares the gradient directions of the two edge pixels when the thinning processing unit 17 arranges the edge pixels at adjacent pixels in the binarized edge image. When the gradient direction is the same direction and the two edge pixels are aligned in a direction parallel to the gradient direction, the edge pixel having the smaller gradient strength of the two edge pixels is edged. By omitting from the pixels, the binarized edge image is thinned (SA10).
前記特徴量導出手段15は、前記エッジ画像生成手段14により最終的に生成された二値化エッジ画像の画素の縦方向、横方向、及び、互いに交差する45度傾斜方向の計4方向に対してそれぞれランレングス行列を求めることで、前記4方向における線分長ヒストグラム(連続エッジ画素数ヒストグラム)をそれぞれ生成し(SA11)、前記所定の線分長閾値Cth以下における最大の線分長となっている線分から、所定の順位の線分長になっている線分までのそれぞれの平均線分長を算出し(SA12)、前記算出した各平均線分長の平均値である判別平均値と、前記算出した各平均線分長の標準偏差である判別標準偏差とを特徴量として導出する(SA13)。 The feature amount deriving unit 15 is configured to perform a total of four directions including a vertical direction and a horizontal direction of pixels of the binarized edge image finally generated by the edge image generating unit 14 and a 45-degree inclined direction intersecting each other. By calculating the run length matrix respectively, line segment length histograms (continuous edge pixel number histograms) in the four directions are respectively generated (SA11), and the maximum line segment length below the predetermined line segment length threshold Cth is obtained. The average line length from the line segment to the line segment having the line length of the predetermined rank is calculated (SA12), and the discriminant average value that is the average value of the calculated average line segment lengths and The calculated standard deviation, which is the standard deviation of each average line segment length, is derived as a feature amount (SA13).
前記特徴量導出手段15により特徴量としての前記判別平均値と判別標準偏差とが導出されると、前記シーン判定手段16は、予め設定されている種々の建築物に対して撮影した人工物画像における複数の標本値としての判別平均値と判別標準偏差からなる母集団と、建築物以外に対して撮影した画像における複数の標本値としての判別平均値と判別標準偏差からなる母集団とに対して、マハラノビスの汎距離に基づいて前記導出された特徴量としての前記判別平均値と判別標準偏差の判定を行うことで、前記メモリ41に記憶された画像が建築物に対して撮影した人工物画像か否かの判定を行なう(SA14)。 When the discriminant average value and discriminant standard deviation as the feature amount are derived by the feature amount deriving unit 15, the scene determining unit 16 captures artifact images taken for various preset buildings. For a population consisting of discriminant average values and discriminant standard deviations as multiple sample values, and for a population consisting of discriminant average values and discriminant standard deviations as multiple sample values in images taken for other than buildings Then, by determining the discriminant average value and discriminant standard deviation as the derived feature amount based on the Mahalanobis's general distance, the artifact stored in the memory 41 is photographed for the building. It is determined whether or not it is an image (SA14).
尚、前記補正処理手段11は、前記判定対象となった画像に対して、前記判定結果に基づいた補正処理を行なう。 The correction processing means 11 performs a correction process based on the determination result for the image to be determined.
本発明による画像判定装置または画像判定方法により、建築物が撮影された人工物画像として判定された画像を図13に示し、それ以外の画像として判定された画像を図14に示す。建築物が多く含まれているような画像に対しては、建築物が撮影された人工物画像として判定されていることが分かる。また、画像の大半に自然物が撮影されているような画像に対しては、それ以外の画像として判定されていることがわかる。 FIG. 13 shows an image determined as an artifact image obtained by photographing a building by the image determination apparatus or the image determination method according to the present invention, and FIG. 14 shows an image determined as an image other than that. It can be seen that an image containing many buildings is determined as an artifact image in which the building is photographed. Further, it can be seen that an image in which natural objects are photographed in most of the images is determined as other images.
以下、別の実施形態について説明する。上述では、前記画像変換手段12は、判定対象となる画像の各画素データを〔数1〕に基づいてR成分、G成分、B成分のそれぞれに対して重み付けをして加算した値に変換することにより、前記判定対象となる画像をグレースケール画像に変換する場合について説明したが、グレースケール画像への変換はこれに限定するものではなく、例えば、判定対象となる画像の各画素データにおけるR成分、G成分、B成分を単純平均する単純平均化法や、中央値法によりグレースケール画像へ変換してもよいし、特定の色成分のみを抽出することでグレースケール画像へ変換する構成としてもよい。適宜、判定対象となる画像の性質に応じた変換方法を適用することが可能である。 Hereinafter, another embodiment will be described. In the above description, the image conversion unit 12 converts each pixel data of the image to be determined into a value obtained by weighting and adding each of the R component, the G component, and the B component based on [Equation 1]. Thus, the case where the image to be determined is converted into a grayscale image has been described. However, the conversion to a grayscale image is not limited to this, for example, R in each pixel data of the image to be determined It may be converted to a grayscale image by a simple averaging method or a median method that simply averages the component, G component, and B component, or it may be converted to a grayscale image by extracting only a specific color component. Also good. A conversion method according to the property of the image to be determined can be applied as appropriate.
上述の実施形態では、前記勾配方向Sa(i)を、前記グレースケール画像の画素の縦方向、横方向、及び互いに交差する45度傾斜方向の4方向に分類処理した場合について説明したが、これに限定するものではなく、適宜、判定対象となる画像の性質に応じた方向に分類処理することが可能である。また、前記分類処理は4方向に限定するものではなく、適宜、判定対象となる画像の性質に応じた方向数に分類処理することが可能である。 In the above-described embodiment, the case where the gradient direction Sa (i) is classified and processed in the four directions of the vertical direction, the horizontal direction, and the 45-degree inclined direction intersecting each other has been described. However, the classification processing can be appropriately performed in the direction according to the property of the image to be determined. The classification process is not limited to four directions, and the classification process can be appropriately performed according to the number of directions according to the property of the image to be determined.
上述の実施形態では、前記細線化処理手段17により二値化エッジ画像を細線化処理した場合について説明したが、判定処理速度を重視するようなときには、前記細線化処理を省くことも可能である。 In the above-described embodiment, the case where the binarized edge image is thinned by the thinning processing unit 17 has been described. However, when the determination processing speed is important, the thinning processing can be omitted. .
尚、本発明の画像判定装置及び画像判定方法は、コンピュータ上での単なる画像の分類や、インターネットでの画像検索等にも適用することも可能である。 The image determination apparatus and image determination method of the present invention can also be applied to simple image classification on a computer, image search on the Internet, and the like.
また、上述した実施形態は、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において各ブロックの具体的構成等を適宜変更設計できることは言うまでもない。 In addition, the above-described embodiment is merely an example of the present invention, and it is needless to say that the specific configuration of each block can be changed and designed as appropriate within the scope of the effects of the present invention.
1:写真画像処理装置
10:入力画像判定手段
11:補正処理部
12:画像変換手段
13:勾配強度算出手段
14:エッジ画像生成手段
15:特徴量導出手段
16:シーン判定手段
17:細線化処理手段
1: photographic image processing apparatus 10: input image determination unit 11: correction processing unit 12: image conversion unit 13: gradient strength calculation unit 14: edge image generation unit 15: feature amount derivation unit 16: scene determination unit 17: thinning process means
Claims (14)
判定対象となる画像をグレースケール画像に変換する画像変換手段と、変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出する勾配強度算出手段と、算出された勾配強度に基づいて前記画像を二値化したエッジ画像を生成するエッジ画像生成手段と、生成されたエッジ画像に含まれる所定範囲の連続画素で構成される線分を抽出し、その特徴量を導出する特徴量導出手段と、導出された特徴量から画像のシーンを判定するシーン判定手段とを備えてなる画像判定装置。 An image determination apparatus for determining a scene of an image,
Based on the calculated gradient strength, image conversion means for converting the image to be determined into a grayscale image, gradient strength calculation means for calculating the gradient strength and gradient direction of each pixel of the converted grayscale image, and Edge image generation means for generating an edge image obtained by binarizing an image, and feature quantity derivation means for extracting a line segment composed of a predetermined range of continuous pixels included in the generated edge image and deriving the feature quantity And an image determination apparatus comprising: a scene determination unit that determines an image scene from the derived feature amount.
判定対象となる画像をグレースケール画像に変換する画像変換ステップと、変換されたグレースケール画像の各画素の勾配強度及び勾配方向を算出する勾配強度算出ステップと、算出された勾配強度に基づいて前記画像を二値化したエッジ画像を生成するエッジ画像生成ステップと、生成されたエッジ画像に含まれる所定範囲の連続画素で構成される線分を抽出し、その特徴量を導出する特徴量導出ステップと、導出された特徴量から画像のシーンを判定するシーン判定ステップとからなる画像判定方法。 An image determination method for determining an image scene,
The image conversion step for converting the image to be determined into a grayscale image, the gradient strength calculation step for calculating the gradient strength and gradient direction of each pixel of the converted grayscale image, and the calculated gradient strength based on the above An edge image generation step for generating an edge image obtained by binarizing the image, and a feature amount derivation step for extracting a line segment composed of continuous pixels within a predetermined range included in the generated edge image and deriving the feature amount And a scene determination step for determining a scene of the image from the derived feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005194820A JP2007011939A (en) | 2005-07-04 | 2005-07-04 | Image decision device and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005194820A JP2007011939A (en) | 2005-07-04 | 2005-07-04 | Image decision device and method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007011939A true JP2007011939A (en) | 2007-01-18 |
Family
ID=37750297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005194820A Pending JP2007011939A (en) | 2005-07-04 | 2005-07-04 | Image decision device and method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007011939A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055591A (en) * | 2007-08-28 | 2009-03-12 | Samsung Electronics Co Ltd | Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity |
JP2011039605A (en) * | 2009-08-06 | 2011-02-24 | Fujitsu Ltd | Device, program and method for determining image |
CN112972889A (en) * | 2017-12-29 | 2021-06-18 | 深圳硅基仿生科技有限公司 | Image processing device and method and retina stimulator |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147469A (en) * | 1994-11-18 | 1996-06-07 | Ricoh Co Ltd | Color image recognizing method |
JP2000057355A (en) * | 1998-08-06 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Area extracting device and image processor |
JP2000353242A (en) * | 1999-06-11 | 2000-12-19 | Nec Corp | Artificial object region detecting device and its method and recording medium |
JP2004287783A (en) * | 2003-03-20 | 2004-10-14 | Fuji Photo Film Co Ltd | Method and device for extracting feature amount of image |
-
2005
- 2005-07-04 JP JP2005194820A patent/JP2007011939A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08147469A (en) * | 1994-11-18 | 1996-06-07 | Ricoh Co Ltd | Color image recognizing method |
JP2000057355A (en) * | 1998-08-06 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Area extracting device and image processor |
JP2000353242A (en) * | 1999-06-11 | 2000-12-19 | Nec Corp | Artificial object region detecting device and its method and recording medium |
JP2004287783A (en) * | 2003-03-20 | 2004-10-14 | Fuji Photo Film Co Ltd | Method and device for extracting feature amount of image |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055591A (en) * | 2007-08-28 | 2009-03-12 | Samsung Electronics Co Ltd | Method and apparatus for detecting and removing pseudo-contour, method and apparatus for verifying whether pixel is contained in the contour, and method and apparatus for calculating simplicity |
US9177365B2 (en) | 2007-08-28 | 2015-11-03 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting and removing false contour, method and apparatus for verifying whether pixel in included in contour, and method and apparatus for calculating simplicity |
US9424630B2 (en) | 2007-08-28 | 2016-08-23 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting and removing false contour, method and apparatus for verifying whether pixel is included in contour, and method and apparatus for calculating simplicity |
JP2011039605A (en) * | 2009-08-06 | 2011-02-24 | Fujitsu Ltd | Device, program and method for determining image |
CN112972889A (en) * | 2017-12-29 | 2021-06-18 | 深圳硅基仿生科技有限公司 | Image processing device and method and retina stimulator |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5274495B2 (en) | How to change the document image size | |
JP6139396B2 (en) | Method and program for compressing binary image representing document | |
US9769354B2 (en) | Systems and methods of processing scanned data | |
JP4118749B2 (en) | Image processing apparatus, image processing program, and storage medium | |
US7684625B2 (en) | Image processing apparatus, image processing method, image processing program, printed matter inspection apparatus, printed matter inspection method and printed matter inspection program | |
JP4358193B2 (en) | Automatic image cropping method | |
US5892854A (en) | Automatic image registration using binary moments | |
US8331670B2 (en) | Method of detection document alteration by comparing characters using shape features of characters | |
JP2001169080A (en) | Color picture processing method, color picture processor and recording medium for the same | |
JP2004529404A (en) | Method and apparatus for analyzing images | |
JP2003219184A (en) | Imaging process for forming clear and legible binary image | |
JP2002152492A (en) | Image processing device, its method, and recording medium | |
JP2000175038A (en) | Image binary processing system on area basis | |
US11087126B2 (en) | Method to improve performance in document processing | |
JP2004336282A (en) | Image processor, image processing program and recording medium recorded with relevant program | |
US8503785B2 (en) | Dynamic response bubble attribute compensation | |
JP4165435B2 (en) | Image forming apparatus and program | |
JP2007249802A (en) | Image processor and image processing method | |
JP2021044803A (en) | Image processing device, image processing method, and program | |
JP2007011939A (en) | Image decision device and method therefor | |
US9648208B2 (en) | Method and apparatus and using an enlargement operation to reduce visually detected defects in an image | |
EP0975146A1 (en) | Locating the position and orientation of multiple objects with a smart platen | |
JP2009010853A (en) | Image correction method and image correction apparatus | |
JP4517965B2 (en) | Image processing apparatus and image processing method | |
KR100260923B1 (en) | Apparatus and method for local binarization on images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110301 |