JP2006133941A - Image processing device, image processing method, image processing program, and portable terminal - Google Patents
Image processing device, image processing method, image processing program, and portable terminal Download PDFInfo
- Publication number
- JP2006133941A JP2006133941A JP2004320201A JP2004320201A JP2006133941A JP 2006133941 A JP2006133941 A JP 2006133941A JP 2004320201 A JP2004320201 A JP 2004320201A JP 2004320201 A JP2004320201 A JP 2004320201A JP 2006133941 A JP2006133941 A JP 2006133941A
- Authority
- JP
- Japan
- Prior art keywords
- extraction
- outline
- image processing
- shape
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像中の輪郭抽出技術に類するものである。画像中の人や物・動物・建造物といった物体を抽出する際に物体の輪郭抽出の精度を保証することで、抽出結果を利用するシステム・アプリケーションが目的に応じた境界を取得することを可能とし、各種アプリケーションの品質を大きく向上させるものである。 The present invention is similar to a contour extraction technique in an image. When extracting objects such as people, objects, animals, and buildings in the image, it is possible to ensure the accuracy of object outline extraction, so that the system application that uses the extraction results can obtain the boundary according to the purpose. And greatly improve the quality of various applications.
従来の静止画から輪郭情報を得る方法(特に顔情報)としては、似顔絵を作成するためのシステムとして特許文献1が挙げられる。 As a conventional method for obtaining contour information from a still image (particularly face information), Patent Document 1 is cited as a system for creating a portrait.
また、被写体を抽出するシステムとして特許文献2が挙げられる。 Further, Patent Document 2 is cited as a system for extracting a subject.
また、顔の特徴量を抽出するシステムとして特許文献3が挙げられる。 Further, Patent Document 3 is cited as a system for extracting facial feature values.
また、顔の位置を検出する既存技術のサーベイとして非特許文献1、非特許文献2が挙げられる。
ここで、何れの場合においても、顔もしくは物体の特徴量、特に輪郭の抽出について従来よりも安定した抽出が行われることを謳っているが、抽出された結果を利用する段階において抽出結果が間違っていた場合に対する影響が考慮されておらず、「できる限り正確に抽出する」だけのアプローチとなっていた。 Here, in any case, it is said that the extraction of the feature amount of the face or object, particularly the contour, is more stable than before, but the extraction result is incorrect at the stage of using the extracted result. The effect on the situation was not considered, and the approach was to “extract as accurately as possible”.
実際の利用シーンを考えた場合、輪郭抽出結果の間違いによる影響は必ずしも無視できる程度に収まるとは限らない。特に人物の顔を用いたアプリケーションなどでは、問題は重大なものになる。 When an actual usage scene is considered, the influence due to the mistake in the contour extraction result is not always negligible. The problem is particularly serious in applications using human faces.
例えば、静止状態の顔(静止画中の顔)の輪郭などを抽出し、輪郭を用いて顔をモーフィング等で動かす例を考えると、輪郭が大きく外れている場合は論外であり、ほぼ正しく抽出できている場合においても、輪郭線に顔外部の背景が含まれているなどした場合には非常に実行時の品質が劣って見える結果となる。 For example, considering the example of extracting the contour of a stationary face (face in a still image) and moving the face by morphing using the contour, it is out of the question if the contour is greatly off, and it is extracted almost correctly Even in the case where it is made, if the background outside the face is included in the contour line, the quality at the time of execution looks very inferior.
言い換えると、輪郭を抽出する際に1ドットの狂いも無く輪郭を抽出できるのであれば何の問題も発生しないが、実用上、ある程度の誤差が発生することは避けられない。 In other words, no problem will occur if the contour can be extracted without any deviation of one dot when extracting the contour, but in practice, a certain amount of error is unavoidable.
すなわち、従来の抽出技術では誤差に対する検討が不十分であり、結果としてそれを用いたアプリケーション等を考えた場合に品質低下を招くという問題がある。 That is, the conventional extraction technique is insufficiently examined for errors, and as a result, there is a problem in that quality degradation is caused when an application using the extraction is considered.
図2の画像例(A)に対して、オブジェクトを抽出した従来例をオブジェクト抽出例(B)として模式的に示している。抽出結果を利用するアプリケーションから見ると、このような結果ではアプリケーション自身の品質低下を招きかねないが、従来は、オブジェクトの抽出に対して「どれだけの誤差を許容するか」といった観点での条件付けを行うものが存在せず、誤差の吸収は結果を利用するアプリケーションに任されていた。 A conventional example in which an object is extracted from the image example (A) in FIG. 2 is schematically shown as an object extraction example (B). From the viewpoint of the application that uses the extraction result, such a result may lead to a decrease in the quality of the application itself. Conventionally, however, the condition is specified in terms of “how much error is allowed” for object extraction. There was nothing to do, and error absorption was left to the application to use the results.
上記の従来課題を解決するために、本発明に係る画像処理装置は、画像中の物体の形状を抽出する形状抽出部を有し、前記形状抽出部は前記物体の境界に対し、所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出することができる。 In order to solve the above-described conventional problems, an image processing apparatus according to the present invention includes a shape extraction unit that extracts the shape of an object in an image, and the shape extraction unit has a predetermined amount with respect to the boundary of the object. The inside (inside) or the outside (outside) can be extracted as the contour information of the object in the range of.
本構成によって、画像処理装置が物体の輪郭を抽出する際に、物体の輪郭に対する抽出精度が事前に予測でき、その精度誤差を吸収したシステムの構築が可能となる。常に物体の内部もしくは外部を所定の量の範囲の誤差で(例えば10ピクセル以内などで)抽出することが保証されるために、アプリケーションの品質向上が期待できる。 With this configuration, when the image processing apparatus extracts the contour of the object, the extraction accuracy for the contour of the object can be predicted in advance, and a system that absorbs the accuracy error can be constructed. Since it is guaranteed that the inside or outside of the object is always extracted with an error within a predetermined amount (for example, within 10 pixels), an improvement in the quality of the application can be expected.
また、本発明に係る画像処理装置は、特に対象物を物体は特に人間の顔もしくは頭部であることとしても良い。また、対象物の大きさを用いて所定の算出式で所定の量の範囲を決定しても良く、対象物が複数であっても良い。 In the image processing apparatus according to the present invention, the object may be a human face or head. In addition, a predetermined amount range may be determined by a predetermined calculation formula using the size of the target object, and a plurality of target objects may be provided.
これらの構成により、さらに抽出精度の向上が見込め、抽出精度の予測も高まり、更なるアプリケーションの品質向上が期待できる。 With these configurations, further improvement in extraction accuracy can be expected, prediction of extraction accuracy can be improved, and further improvement in application quality can be expected.
また、本発明に係る画像処理装置は、抽出された前記輪郭を基に前記物体を変形させるための物体変形部を有しても良い。また、前記物体変形部はモーフィングもしくはアフィン変換を用いて前記物体を変形させることもできる。 The image processing apparatus according to the present invention may further include an object deforming unit for deforming the object based on the extracted outline. The object deforming unit can also deform the object using morphing or affine transformation.
これらの構成により、更に正規化された情報として物体の情報を提供することができるとともに、抽出された物体が動作しているように表示することも可能となり、アプリケーションの品質向上が期待できる。 With these configurations, it is possible to provide object information as further normalized information, and it is possible to display the extracted object as it is operating, so that improvement in application quality can be expected.
また、本発明に係る画像処理装置は抽出される物体が複数であっても良い。 The image processing apparatus according to the present invention may include a plurality of objects to be extracted.
これらの構成により、更に抽出の手間が削減され、ユーザの利便性が向上し、システム処理の高速化が期待できる。 With these configurations, it is possible to further reduce the time and effort of extraction, improve user convenience, and increase the speed of system processing.
本発明の画像処理装置によれば、抽出される物体の境界線が物体の内部もしくは外部にあることが保障される。それによりアプリケーションの目的に応じた境界を取得することが可能になり、各種アプリケーションの品質が大きく向上する。 According to the image processing apparatus of the present invention, it is ensured that the boundary line of the extracted object is inside or outside the object. As a result, it is possible to acquire a boundary according to the purpose of the application, and the quality of various applications is greatly improved.
以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
図1に、本実施の形態における画像処理装置のブロック構成を模式的に示す。
(Embodiment 1)
FIG. 1 schematically shows a block configuration of the image processing apparatus according to the present embodiment.
まず、処理対象となる原画像は画像入力部101より入力される。また、外部アプリケーションやシステム、ユーザが抽出に対して要求条件がある場合には、抽出条件入力部104を通じて入力しても良い。
First, an original image to be processed is input from the
画像入力部101及び抽出条件入力部104から入力されたデータから、概略抽出部110で、原画像中のオブジェクトの大まかな輪郭(概輪郭)が抽出される。
From the data input from the
概略抽出部110で抽出された概輪郭を基に、形状抽出部120で原画像中のオブジェクトの詳細な輪郭(詳細輪郭)が抽出される。
Based on the outline extracted by the outline extraction unit 110, the
抽出された詳細輪郭が正常かどうかを抽出結果判定部106で判定し、正常であれば抽出結果出力部108を介して、抽出結果を出力する。
Whether or not the extracted detailed contour is normal is determined by the extraction
また、正常ではないと判断された場合にも、そのまま抽出結果出力部108を介して抽出結果を出力しても良いが、抽出条件入力部104や後述する概略抽出条件決定部111、形状抽出条件決定部121に抽出精度を向上できるように、情報をフィードバックし、再度抽出を行うこともできる。
In addition, even if it is determined that it is not normal, the extraction result may be output as it is through the extraction
さて、次に概略抽出部110と形状抽出部120それぞれの内部動作を示す。
Next, the internal operations of the general extraction unit 110 and the
概略抽出部110では、概略抽出の条件を決定する概略抽出条件決定部111で、与えられた抽出要件に必要な、テンプレートのサイズなどの設定条件と、それに必要な画像処理内容を決定する。
In the rough extraction unit 110, a rough extraction
概略抽出画像処理部112では、概略抽出条件決定部111で決定された条件を基に概輪郭を抽出する為の画像処理が行われる。
The approximate extraction
概略算出部114では、概略抽出画像処理部112で処理された画像に対して、概略抽出条件決定部111で決められた設定条件で概輪郭を算出する。この際、概輪郭抽出に必要なテンプレート等のデータを、概略抽出用設定DB部113に格納しておき、必要に応じて概略算出部114がロードして利用することもできる。
The approximate calculation unit 114 calculates the approximate contour of the image processed by the approximate extraction
概略算出部114の概略抽出方法として、テンプレートマッチングやニューラルネットなどにより、オブジェクトのおおよその位置を抽出する方法などを用いることができる。もちろん、手法はこれらに限ること無く既存の任意の手法を用いることができる。 As a rough extraction method of the rough calculation unit 114, a method of extracting an approximate position of an object by template matching or a neural network can be used. Of course, the method is not limited to these, and any existing method can be used.
更に、概略算出部114が複数の抽出手法を持っていても良く、概略抽出条件決定部111が、要求条件に応じて適切な手法を都度概略算出部114で用いる概略抽出方法として選択決定しても良い。例えば、演算量の比較的大きい処理と比較的小さい処理が有った場合に、速度優先か精度優先かで選択することもできる。
Furthermore, the approximate calculation unit 114 may have a plurality of extraction methods, and the approximate extraction
概略算出部114の動作例として、テンプレートマッチングを用い輪郭抽出の対象とするオブジェクトが人物(顔)であるとした場合を、図9に模式的に示している。この例では、画像例(A)のような人物の顔を対象としている。この画像例(A)を所定の大きさでモザイク化したものが画像処理例(B)である。ここで、検出対象のテンプレートのサイズ及び粒度が検出精度(特に位置)の精度を左右する。また、サイズに応じた粒度に入力された画像を変換(モザイク化)することはテンプレートマッチングの一般的な手法であるが、ここでモザイク化する大きさ(粒度)は、概略抽出条件決定部111で決めても良い。
As an example of the operation of the rough calculation unit 114, FIG. 9 schematically illustrates a case where an object whose contour is to be extracted using template matching is a person (face). In this example, the face of a person like the image example (A) is targeted. An image processing example (B) is a mosaic of this image example (A) with a predetermined size. Here, the size and granularity of the detection target template influence the accuracy of detection accuracy (particularly position). In addition, converting (mosaicing) an image input with a granularity corresponding to the size is a general template matching method. The size (granularity) to be mosaicked here is determined by the approximate extraction
例えば、要求されている誤差範囲に応じてモザイクの粒度を決めることができる。 For example, the granularity of the mosaic can be determined according to the required error range.
たとえば、要求されている誤差精度が「プラスマイナスnピクセル」であった場合、n×nピクセル以下にモザイクサイズ及びテンプレートサイズを設定することで、テンプレートマッチングを行った際の検出位置精度を対象の「プラスマイナスnピクセル」以内に収めることができる。この際のポイントは、既存の手法を用いると、物体の(形状ではなく)概略位置を要求誤差以内に検出することが可能であるという点である。逆に言うと、要求誤差以内に物体の形状を抽出することができないことがポイントであり、本発明が解決したい課題である。 For example, when the required error accuracy is “plus or minus n pixels”, the detection position accuracy when performing template matching is set as the target by setting the mosaic size and template size to n × n pixels or less. It can fit within “plus or minus n pixels”. The point at this time is that the approximate position (not the shape) of the object can be detected within the required error using the existing method. In other words, the point is that the shape of the object cannot be extracted within the required error, which is a problem to be solved by the present invention.
要求誤差精度について、模式的に示したものが図3である。図3(A)は顔を対象とした場合の正解輪郭例を示している。正解輪郭線例302に対して、オブジェクトの高さ及び幅を基準にして一定の範囲だけ、内部に抽出限界を設定した例が図3(B)である。ここでは、オブジェクト幅推定線304として目の高さの横線を、オブジェクト高さ推定線306として鼻と眉間を結ぶ縦線を設定している。この縦横線を基準に、内部方向に所定の範囲(例えば5%)だけ内部に輪郭線を縮小したものを抽出限界領域線308として模式的に示している。同様に図4では、オブジェクト外部に限界線を設定した例を示している。
FIG. 3 schematically shows the required error accuracy. FIG. 3A shows an example of the correct contour when the face is the target. FIG. 3B shows an example in which an extraction limit is set inside a certain range with respect to the correct contour example 302 with reference to the height and width of the object. Here, a horizontal line at the eye height is set as the object width estimation line 304, and a vertical line connecting the nose and the eyebrows is set as the object
図3と同様、抽出限界領域線402はオブジェクト外部方向に所定の範囲(例えば5%)だけ拡大したものを模式的に示している。 Similar to FIG. 3, the extraction limit area line 402 schematically shows a region expanded by a predetermined range (for example, 5%) in the external direction of the object.
ユーザやシステムは、このような詳細輪郭の抽出限界を設定し、もしくはこのような抽出限界内での抽出結果出力を要求することで、出力結果を認識や認証、分類、アプリケーション、エンターテイメント向け応用、FAなどにより安定した条件で用いることが可能となる。アプリケーション例として、オブジェクトに顔を想定した場合の例を図5に示す。図5では、原画像での顔の傾きを顔傾き線A(502)で示している。顔の輪郭を抽出した後、顔を「傾ける」処理を加えた例を模式的に示した図である。先の顔傾き線A(502)が、顔傾き線B(504)になるように変形されている。ここで、アプリケーションは輪郭抽出処理に対して所定誤差範囲内での抽出処理を要求し、もしくは輪郭抽出処理が所定誤差範囲内での抽出処理結果の出力を保証することで、他の背景等への影響をより抑えた加工処理が可能となる(もしくは予め誤差範囲が予測できるので、影響が予想される範囲だけフィルタ等で表示をぼかす等の事前/事後処理を行うことができる。)。 Users and systems set such detailed contour extraction limits or request output of extraction results within such extraction limits to recognize and authenticate output results, classification, applications, entertainment applications, It can be used under stable conditions by FA or the like. FIG. 5 shows an example in which a face is assumed as an object as an application example. In FIG. 5, the face inclination in the original image is indicated by a face inclination line A (502). It is the figure which showed typically the example which added the process which "tilts" a face after extracting the outline of the face. The previous face inclination line A (502) is transformed to become the face inclination line B (504). Here, the application requests the extraction processing within the predetermined error range for the contour extraction processing, or the contour extraction processing guarantees the output of the extraction processing result within the predetermined error range, to other backgrounds etc. (Or an error range can be predicted in advance, so that pre / post processing such as blurring the display with a filter or the like can be performed only in a range where the influence is expected).
実際には、対象となるオブジェクトの形が事前に判らない場合も多い。図3や図4のように正解輪郭に対して抽出限界を設定することが困難になる場合も発生し得るが、このときは概輪郭の横幅・縦幅に対して限界値を設定することもできる。 In practice, the shape of the target object is often unknown in advance. Although it may be difficult to set the extraction limit for the correct contour as shown in FIG. 3 and FIG. 4, in this case, the limit value may be set for the horizontal width and vertical width of the general contour. it can.
なお、先に述べたようなテンプレートマッチングのサイズやテンプレートなどを変えることによる検出位置のずれを所定範囲内に収める方法と組み合わせることで、よりユーザ要求(誤差範囲要求)に対して柔軟な対応も可能でなる。 In addition, by combining with the method of keeping the detection position deviation by changing the template matching size or template as described above within the predetermined range, more flexible response to user request (error range request) is also possible It becomes possible.
図6(B)には、概輪郭に対して詳細輪郭の抽出領域を設定する場合の例を示している。概形輪郭線例602が概輪郭として抽出された場合に、概形最大横幅604と概形最大縦幅606をそれぞれ概形輪郭線例602の最も長い縦幅・横幅から算出し、それをもとに先の図3、図4の例のように所定の範囲だけ拡大縮小して抽出領域を設定することが可能である。このとき、概輪郭抽出のベースとしてテンプレートマッチを用いれば、この所定の検索範囲をテンプレートマッチによる検出位置のずれ量と組み合わせることにより、より抽出精度を高めることもできる。テンプレートによる検出精度を詳細輪郭の抽出領域の設定に対応付けるのである。例えば、図9(B)の各モザイクが8×8ピクセルの小ブロックであるとした場合、(0,0)から(7,7)の位置の画素が左上のモザイクの1ブロックを形成するが、ここでj=0〜7,k=0〜7のj,kによって(j,k)から(j+7,k+7)の位置の画素でブロックを別途モザイク画像を生成すると考える。少しずつ縦横にずれた複数のモザイク画が用意されることになる。この複数のモザイク画に対して、それぞれテンプレートマッチングを実施すると、さきの(0,0)から(7,7)を1ブロックとした場合と違った出力が得られる。この偏移分布を詳細輪郭の存在確率とみなし、例えば横方向に偏移量が少なく、縦方向に偏移量が多かった場合には、詳細領域の抽出領域を横方向には限定的に設定することにより、より精度の高い抽出が望まれる。もちろん、これは端的な例であり、詳細輪郭の抽出領域を設定がこの例に限定されるものでないことは言うまでもない。 FIG. 6B shows an example in which a detailed contour extraction region is set for a general contour. When the outline contour example 602 is extracted as the outline, the outline maximum horizontal width 604 and the outline maximum vertical width 606 are calculated from the longest vertical width and width of the outline outline example 602, respectively. At the same time, it is possible to set the extraction area by enlarging or reducing it by a predetermined range as in the examples of FIGS. At this time, if a template match is used as a base for the outline extraction, the extraction accuracy can be further improved by combining this predetermined search range with the shift amount of the detection position by the template match. This is because the detection accuracy by the template is associated with the setting of the extraction region of the detailed contour. For example, if each mosaic in FIG. 9B is a small block of 8 × 8 pixels, pixels at positions (0, 0) to (7, 7) form one block of the upper left mosaic. Here, it is assumed that a mosaic image is separately generated for a block with pixels at positions (j, k) to (j + 7, k + 7) by j and k where j = 0 to 7 and k = 0 to 7. A plurality of mosaic images that are slightly shifted vertically and horizontally are prepared. When template matching is performed on each of the plurality of mosaic images, an output different from the case where (0, 0) to (7, 7) are set to one block can be obtained. This deviation distribution is regarded as the existence probability of the detailed contour.For example, when the deviation amount is small in the horizontal direction and the deviation amount is large in the vertical direction, the extraction area of the detailed area is limited to the horizontal direction. Thus, extraction with higher accuracy is desired. Of course, this is a straightforward example, and it goes without saying that setting the extraction region of the detailed contour is not limited to this example.
ところで顔の検出については、実際には、テンプレートマッチによる検出位置の正誤を肌色情報を用いて事前判定/追加判定する例や、ニューラルネットによる検出結果をBOOSTING等の判定機を(場合によっては複数段)用いることにより高精度に位置の検出を行う例など、物体に特化した特徴を用いて、認識段階の失敗を減らすような努力が行われている。詳しくは例えば非特許文献1や非特許文献2に技術サーベイが記述されている。また、BOOSTING等の判定式設計については、例えば以下の文献に詳しい(Anil k.Jain,Robert P.W. Duin, Jianchang Mao,“Statistical Pattern Recognition: A Review”, Vol.22, No.1, pp.4−37,2000.)。 By the way, with regard to face detection, in actuality, an example of prior determination / addition determination of the correctness of the detection position by template matching using skin color information, or a determination machine such as BOOSTING (in some cases, a plurality of determination results) Efforts are being made to reduce the failure of the recognition stage by using features specific to the object, such as an example of detecting the position with high accuracy by using it. Specifically, for example, Non-Patent Document 1 and Non-Patent Document 2 describe a technical survey. In addition, the design of a judgment formula such as BOOSTING is detailed in, for example, the following documents (Anil k. Jain, Robert PW Duin, Jiangchang Mao, “Statistical Pattern Recognition: A Review”, Vol. 22, No. 22). pp. 4-37, 2000.).
しかし、上記の何れの文献で参照されている技術についても、輪郭の検出精度について言及されたものが無いことに重ねて注目されたい。 However, it should be noted again that none of the techniques referred to in any of the above-mentioned documents mentions the accuracy of contour detection.
さて、このように抽出された対象物のおおよその位置・大きさに応じて概略算出部114では概輪郭を形成する。例えば図6の概形輪郭例(A)に概形輪郭線例602のように形成する。ここで概輪郭の形成方法は任意の数学的手段を用いることができるが、例えば概形輪郭線例602のように曲線として形成しても良く、また図9の概略抽出例(C)の概略領域908のようにテンプレートに合わせた形状(この場合は8角形)にしても良い。
Now, in accordance with the approximate position and size of the object thus extracted, the approximate calculation unit 114 forms an approximate contour. For example, it is formed like the outline contour example 602 in the outline outline example (A) of FIG. Here, an arbitrary mathematical means can be used as the method of forming the outline, but it may be formed as a curve, for example, as in the outline outline example 602, and the outline of the outline extraction example (C) in FIG. A shape matching the template (in this case, an octagon) may be used as in the
また、画像中に複数の候補があっても良く、図7の概略輪郭候補1(702)、概略輪郭候補2(704)、概略輪郭候補3(706)、概略輪郭候補4(708)のように複数の概略輪郭候補が検出され、これを任意の手法で選択・選別しても良い。例えば選択手法としては、システムを介して(ユーザインタフェースを介して)ユーザに選択させる方法がある(図面無し)。また選別方法としては、先の肌色情報による判定方法、BOOSTINGによる判別方法など一般的な手法を用いることができる。 Also, there may be a plurality of candidates in the image, such as outline candidate 1 (702), outline candidate 2 (704), outline candidate 3 (706), outline candidate 4 (708) in FIG. A plurality of outline contour candidates are detected and may be selected and selected by any method. For example, as a selection method, there is a method of allowing a user to select via a system (via a user interface) (no drawing). As a selection method, a general method such as a determination method based on the previous skin color information or a determination method based on BOOSTING can be used.
更に、複数の候補が有る場合として、図8のように複数の対象物が存在する場合もある。この例では、概略輪郭候補1(802)、概略輪郭候補2(804)、概略輪郭候補3(806)、概略輪郭候補4(808)、概略輪郭候補5(810)の5つが概輪郭の候補として表示されている。先の図7の例と同様にこれを任意の手法で選択・選別しても良い。また、抽出したい対象者を指定しても良い。 Furthermore, as a case where there are a plurality of candidates, there may be a case where a plurality of objects exist as shown in FIG. In this example, there are five approximate contour candidates: approximate contour candidate 1 (802), approximate contour candidate 2 (804), approximate contour candidate 3 (806), approximate contour candidate 4 (808), and approximate contour candidate 5 (810). It is displayed as. Similar to the example of FIG. 7, this may be selected and selected by an arbitrary method. Moreover, you may designate the target person who wants to extract.
次に形状抽出部120の内部動作を示す。
Next, the internal operation of the
形状抽出条件決定部121では、詳細輪郭の抽出に必要な条件の設定を行う。先に図3や図4,図6で示した詳細輪郭の抽出領域の設定や、対象となるオブジェクトの情報が事前に判っている場合には、それらに特有の情報を設定する。後段の形状算出部124で詳細輪郭を抽出する際に、そこで用いる手法に依存する各種の設定も形状抽出条件決定部121で行う。同時に形状算出部124で詳細輪郭が抽出しやすいように、形状抽出条件決定部121の決定に基づいて形状抽出画像処理部122で画像処理を行うこともできる。形状抽出画像処理部122での画像処理例としては、例えばノイズ除去やダイナミックレンジの補正・正規化、エッジ強調や抽出、モフォロジ変換、2値化などがあるがこの限りではなく任意の画像処理を用いることができる。
The shape extraction
形状算出部124での詳細輪郭の抽出手法としては、パターンマッチやニューラルネットといった検出手法を詳細輪郭の抽出領域内に限定して用いる方法や、Snakesに代表される動的な輪郭抽出方法を用いることもできる。
As a detailed contour extraction method in the
Snakesは、柔軟性に富む輪郭抽出方法として有名である。例えば、Snakesを形状算出部124の詳細抽出方法として用いる場合、輪郭(オブジェクト)のエネルギ定義(距離エネルギや輝度エネルギ、滑らかさエネルギなど)や、各エネルギの重み付け、各エネルギの計算範囲の決定などが必要となる。
Snakes is famous as a flexible contour extraction method. For example, when Snakes is used as a detailed extraction method of the
これらを形状抽出条件決定部121で決定することができる。
These can be determined by the shape extraction
例えば、抽出対象が顔と判っている場合であれば、エネルギ定義として楕円エネルギ(滑らかさエネルギの変形ともいえる)を付け加えることもできる。顔は楕円状になることが多いため、楕円に近い場合にエネルギを低くなるような関数として楕円エネルギを定義すると、より顔の形状に近い輪郭の抽出が可能となる。 For example, if the extraction target is known as a face, elliptic energy (which can be said to be a smooth energy deformation) can be added as an energy definition. Since the face is often elliptical, if the elliptical energy is defined as a function that reduces the energy when the face is close to an ellipse, it is possible to extract a contour closer to the shape of the face.
ここで、Snakesはエネルギ収束に基づく手法のため、対象物に対するモデリングが不正確であると、正しく対象物に収束しまう場合や、局所解に落ち込んでしまう場合、演算が発散して計算が終了しない場合などが起こり得る。 Here, Snakes is a method based on energy convergence, so if modeling for an object is inaccurate, if it converges correctly to the object or falls into a local solution, the computation diverges and the calculation does not end Cases can occur.
これらの問題を解決した手法として、対象物を限定することで、Snakesの始動状態(初期輪郭)を対象物の周囲に設定し安定性と高速収束性を両立する手法が知られている。例えば、「動的輪郭モデルによる超音波心左室容積計測法」(山内他、2002年6月、電子情報通信学会予稿集、MEとバイオサイバネティクス研究会)などに記載されている手法がそうである。 As a technique for solving these problems, a technique is known in which the start state (initial contour) of Snakes is set around the object by limiting the object, and both stability and high-speed convergence are achieved. For example, the method described in “Ultrasonic left ventricular volume measurement method using dynamic contour model” (Yamauchi et al., June 2002, Proceedings of the IEICE, ME and Bio Cybernetics) is there.
この例でも開示されているように、抽出条件の決定(詳細輪郭の抽出領域の決定など)と形状算出用の画像処理(ノイズ除去やダイナミックレンジの補正・正規化、エッジ強調や抽出、モフォロジ変換、2値化など)は相互に関係して決定することができる。 As disclosed in this example, determination of extraction conditions (determination of detailed contour extraction area, etc.) and image processing for shape calculation (noise removal, dynamic range correction / normalization, edge enhancement and extraction, morphology conversion) (Binarization etc.) can be determined in relation to each other.
例えば抽出条件として、エネルギ関数を緩やかにエッジ付近に収束するような関数として決定した場合、画像処理もエッジ付近に収束しやすいように孤立点を除去するようなノイズ除去(モフォロジ処理など)を行った後、エッジ強調し、抽出領域をガウシアンフィルタなどでぼかすことにより、エネルギ関数がエッジ近傍以外で局所値を持ちにくい画像とすることなどがある。 For example, if the energy function is determined as a function that slowly converges near the edge as an extraction condition, noise removal (morphological processing, etc.) is performed to remove isolated points so that image processing can easily converge near the edge. After that, edge enhancement is performed and the extracted region is blurred by a Gaussian filter or the like, so that the energy function has a local value other than the vicinity of the edge.
もちろん、これは形状抽出部120内部構成の一例であり、対象物の属性と画像の状態に応じて、任意に画像処理と抽出手法を組み合わせて用いて良いことは言うまでもない。
Of course, this is an example of the internal configuration of the
また、形状算出部124での輪郭抽出処理において、各種の変換処理(例えば周波数変換やモフォロジ変換など)を行う場合などに、変換用のテーブル(係数のルックアップテーブルやモフォロジ作用子など)を形状抽出用設定DB部123に保存しておき、必要に応じて読み出すこともできる。
In addition, in the contour extraction process in the
もちろん、形状算出部124にはこれ以外にも輪郭抽出処理に必要な任意のデータを保存し、もしくは書き込み/読み出すことができることは言うまでもない。
Of course, it is needless to say that the
例えば、過去の抽出結果を書き込み、将来の抽出に反映する、という学習型のデータベースとして機能しても良い。 For example, it may function as a learning database that writes past extraction results and reflects them in future extractions.
また、抽出領域の設定例を、図12・図13で模式的に記している。図12の概略領域1202に対して、それぞれ幅n、幅mを持つ外側探索範囲境界1201と内側探索範囲境界1203がそれにあたる。この幅n、幅mは要求誤差に応じて決定される。これをより具体的に記したものが図13である。図6(A)の概形輪郭線例602のように抽出された概輪郭(概略領域1302)から、探索範囲を所定の誤差範囲(ここではプラスマイナス15%と仮定)内に収まるように設定している。外側探索範囲境界1301と内側探索範囲境界1303との間が探索範囲に相当する。この探索範囲内で詳細輪郭を抽出した例が抽出輪郭1304である。 Moreover, the setting example of the extraction area is schematically shown in FIGS. The outer search range boundary 1201 and the inner search range boundary 1203 having the width n and the width m respectively correspond to the approximate region 1202 in FIG. The width n and the width m are determined according to the required error. FIG. 13 shows this more specifically. The search range is set to fall within a predetermined error range (assuming plus or minus 15% here) from the approximate contour (outline region 1302) extracted as shown in the approximate contour example 602 in FIG. 6A. is doing. A space between the outer search range boundary 1301 and the inner search range boundary 1303 corresponds to the search range. An example of extracting a detailed contour within the search range is an extracted contour 1304.
さて、次に抽出結果判定部106の動作を示す。
Next, the operation of the extraction
抽出された詳細輪郭が正常かどうかを判定する部分が抽出結果判定部106であるが、具体的な例を図10から図14の模式図を用いて説明する。
A part for determining whether or not the extracted detailed contour is normal is the extraction
図10(A)は、原画像例である。ここで顔領域の詳細な輪郭を得たいとする。 FIG. 10A is an example of an original image. Here, it is assumed that a detailed contour of the face area is to be obtained.
出力に対する要求誤差は顔幅(抽出対象となるオブジェクトの幅)のプラスマイナス15%程度であるとする。 Assume that the required error for output is about plus or minus 15% of the face width (the width of the object to be extracted).
図10(B)には概輪郭の抽出例として概略領域1004を示している。また、図10(C)には別な概略領域の抽出例として概略領域1006を示している。
FIG. 10B shows a
また、それぞれの場合の詳細領域抽出例として、図14(A)及び図14(B)を模式的に示している。 In addition, FIG. 14A and FIG. 14B are schematically shown as detailed region extraction examples in each case.
概略領域1004のような概輪郭が抽出された場合は図14(A)の正常抽出例のように抽出輪郭1404が抽出される。また、概略領域1006のような概輪郭が抽出された場合は、図14(B)のように異常抽出例として、抽出輪郭1406が抽出される。
When the outline such as the
ここで、この例における抽出結果判定部106の判定動作であるが、この例では抽出対象が顔(もしくは顔状の楕円形に近い対象物)であると判っているため、抽出された詳細輪郭の円形度(楕円度)を計測することにより抽出輪郭1404及び抽出輪郭1406の判定を行うことができる。円形度の算出は任意の手法を用いて良いが、例えば、長谷川他“画像処理の基本技法”,技術評論社,1986などに詳しい。
Here, it is the determination operation of the extraction
このとき、例えば円形度に対して所定の閾値を設けることで、抽出輪郭1404と抽出輪郭1406とを区分することができる。他にも、凸曲線であるか凹曲線であるかなどを判断基準としても良い。もちろん、異常・正常を判定する手段はこの限りでなく、抽出された輪郭の特徴を抽出し、特徴量を先に出たSVM、BOOSTING等を用いて分類するなど、既存の手法を用いることができる。
At this time, for example, by providing a predetermined threshold for the circularity, the extracted
同様に顔を抽出対象とした場合に、顔以外の画像が入力された場合を図11に示す。図11(A)は原画像例を示す。この画像に対して、図9(B)と同様にモザイク化し、テンプレートマッチングを行った場合、濃淡の分布が図9(B)と同様の分布となりえる。その例を図11(B)に示す。この図11の例において概略領域を抽出すると、概略領域1104のようになることが予想される。これに対して、詳細輪郭を抽出すると、例えば、図15のようになる。
Similarly, FIG. 11 shows a case where an image other than a face is input when a face is an extraction target. FIG. 11A shows an example of an original image. When this image is mosaicked in the same manner as in FIG. 9B and template matching is performed, the distribution of shading can be the same as that in FIG. 9B. An example is shown in FIG. When the schematic area is extracted in the example of FIG. 11, it is expected that the
顔を抽出する場合と同様に輪郭を抽出すると、抽出輪郭1504のような結果が得られるが、この場合は先の図14(B)の例と同じく異常とみなされる。
If a contour is extracted as in the case of extracting a face, a result like an extracted
また、システム全体に対して次のような場合も考えることができる。 The following cases can also be considered for the entire system.
例えば、ここでユーザもしくはシステムから抽出に関する条件(個数・位置・大きさなど、任意の制限・許容項目)を、抽出条件入力部104を介して入力することもできる。
For example, conditions (arbitrary restrictions / allowable items such as the number, position, size, etc.) relating to extraction can be input from the user or the system via the extraction
なお、外部からの抽出条件指定が無い場合には、本実施の形態において任意のデフォルト値で代用しても良い。また、この抽出条件入力部104は本実施の形態において必須の構成要素ではなく、任意に設置できるものである。抽出条件入力部104無しの場合でも、抽出条件を固定的に設定して運用することや抽出条件を入力画像に応じて動的に変化させながら運用できることは言うまでも無い。
If there is no external extraction condition designation, an arbitrary default value may be used in this embodiment. Further, the extraction
なお、本実施の形態において抽出結果判定部106は必須の構成要素ではなく、任意に設置できるものである。抽出結果判定部106無しの場合でも、概略抽出部110、形状抽出部120を通じて得られた詳細輪郭を抽出結果出力部108を通じて出力できることは言うまでも無い。
In the present embodiment, the extraction
なお、本実施の形態において、概略抽出用設定DB部113や形状抽出用設定DB部123に代わり、任意のデフォルト値で代用しても良い。また、抽出対象が決まっている場合や、未知の場合でもおおよその条件がわかっている場合には、概略抽出条件決定部111や形状抽出条件決定部121を省略したり、任意のデフォルト処理で置き換えても良い。
In the present embodiment, an arbitrary default value may be substituted for the rough extraction setting DB unit 113 and the shape extraction setting DB unit 123. In addition, when the extraction target is determined or when the approximate condition is known even when it is unknown, the approximate extraction
同様に、概略抽出画像処理部112及び形状抽出画像処理部122についても対象が特定されている場合など、処理を可変にする必要がない場合には、任意のデフォルト処理で代用しても良く、また、必要に応じて省略しても良い。
Similarly, when it is not necessary to make the process variable, such as when the target is specified for the outline extraction
なお、概略算出部114や形状算出部124はその処理結果に応じて処理を抽出結果出力部108にフィードフォワードすることもできる。例えば、それぞれの算出部で十分な精度で抽出できたと判断できる場合や、逆に抽出できないと判断できた場合などに、その旨の情報を添えてフィードフォワードすることができる。
The approximate calculation unit 114 and the
なお、抽出結果判定部106は、形状抽出条件決定部121や概略抽出条件決定部111、抽出条件入力部104など、図1中の任意の部にフィードバックすることもできる。例えば、抽出結果判定部106で精度が不十分であると判断された場合に、より精度が高まるように情報を各決定部にフィードバックすることができる。
The extraction
例えば、顔を対象とした場合に、抽出して得られた結果の形状が顔らしくない場合に、より、顔の形状に近づけるように詳細輪郭の算出条件を変えられるように形状抽出条件決定部121に情報をフィードバックすることもできる。輪郭が凹曲線となっている場合に、凹になりにくいエネルギ定義もしくは重み付けが再設定できるように凹曲線になっていること/その度合いをフィードバックする、など輪郭に関する任意の情報、特徴量及びそれらを組み合わせて得られる解析結果をフィードバックすることができる。 For example, in the case of a face, when the shape obtained as a result of extraction does not look like a face, the shape extraction condition determination unit can change the detailed contour calculation conditions closer to the face shape. Information can also be fed back to 121. Arbitrary information, features, and information on the contour, such as the fact that it is a concave curve so that the energy definition or weighting that is difficult to be concaved or weighting can be reset can be reset when the contour is a concave curve. It is possible to feed back the analysis result obtained by combining.
また、抽出結果の位置に顔が無いと判断された場合、特に間違った位置で抽出していた場合で、画像内の他の位置に顔がある可能性が残っている場合には、概略抽出条件決定部111にフィードバックすることにより、概略位置の補正を行うこともできる。
Also, if it is determined that there is no face at the position of the extraction result, especially if it is extracted at the wrong position and there is a possibility that there is a face at another position in the image, rough extraction The approximate position can be corrected by feeding back to the
また、それらを組み合わせて、抽出条件そのものを変更することもできる。 In addition, the extraction conditions themselves can be changed by combining them.
この場合は抽出条件入力部104にフィードバックすることになる。
In this case, the extraction
また、ユーザにフィードバック情報を開示し、抽出条件入力部104を介してフィードバック情報に対し、ユーザからの選択や変更などを反映して処理を行うこともできる。
Also, feedback information can be disclosed to the user, and processing can be performed on the feedback information via the extraction
なお、本発明で説明した処理手順をCPUに実行させるためのプログラムとし、CPUに実行させることによっても実現することが出来る。この場合、当該プログラムを記録媒体に格納し、その内容を記憶した装置の記憶装置(ハードディスクなど)から実行させても良いし、記録媒体から直接実行しても良い。ここでの記録媒体は、ROMやRAM、フラッシュメモリなどの半導体メモリ、フレキシブルディスクやハードディスクなどの磁気ディスクメモリ、CD−ROMやDVD、BDなどの光ディスク、メモリカードなどの記録媒体をいう。 The processing procedure described in the present invention can be realized as a program for causing the CPU to execute the processing procedure. In this case, the program may be stored in a recording medium and executed from a storage device (such as a hard disk) of the device that stores the contents, or may be directly executed from the recording medium. The recording medium here refers to a recording medium such as a semiconductor memory such as a ROM, a RAM, or a flash memory, a magnetic disk memory such as a flexible disk or a hard disk, an optical disk such as a CD-ROM, DVD, or BD, or a memory card.
また、本発明は携帯型端末で実行しても良い。画像を応用したアプリケーションは様々なものが想定されるが、携帯型端末の特徴的な点として演算性能や記憶容量がパソコン等と比較して貧弱であるという問題がある。つまり、携帯型端末に搭載する各アプリケーションが輪郭抽出結果のブレを吸収することは、ハードスペック的(CPU性能やメモリ容量)にも、ソフトスペック的(プログラムサイズを大きく出来ない)にも非常に困難であり、携帯型端末は従来技術の課題が顕著に現れると言える。本発明によりこの点が解決されることは自明である。 The present invention may also be executed on a portable terminal. Various applications using images are assumed. However, as a characteristic point of the portable terminal, there is a problem that the calculation performance and the storage capacity are poor compared to a personal computer or the like. In other words, it is very hard for each application installed in the portable terminal to absorb the blur of the contour extraction result both in terms of hardware specifications (CPU performance and memory capacity) and in terms of software specifications (the program size cannot be increased). It is difficult, and it can be said that the problem of the prior art appears remarkably in the portable terminal. It is obvious that this point is solved by the present invention.
また、携帯型端末では、ユーザインタフェースもパソコン等と比較して貧弱といえる。輪郭抽出結果が歪んでいた場合には、その修正が非常に困難であることが予見される。本発明では、抽出精度が事前に予測できることから、修正用のインタフェースを簡略化することも可能となる。 In addition, in a portable terminal, the user interface is poor compared to a personal computer or the like. If the contour extraction result is distorted, it is foreseen that the correction is very difficult. In the present invention, since the extraction accuracy can be predicted in advance, the correction interface can be simplified.
更に、携帯型端末での具体的なアプリケーション例として、入力された画像データから必要な物体の輪郭を抽出し、モーフィング等で変形したり(顔を切り出して顔が動いているように見せるなど)、抽出した物体の位置を動かしたり(合成写真の生成、クロマキー化など)、パン/ズームなどの処理を行ったり(スライドショー機能など)といった、処理・機能を実現するために用いることもできる。 Furthermore, as a specific application example in a portable terminal, the outline of a necessary object is extracted from input image data and deformed by morphing or the like (such as cutting out a face to make it appear to move) It can also be used to realize processing / functions such as moving the position of the extracted object (generation of a composite photo, conversion to chroma key, etc.), processing such as pan / zoom (slide show function, etc.).
本構成によって、画像処理装置が物体の輪郭を抽出する際に、物体の輪郭に対する抽出精度が事前に予測でき、その精度誤差を吸収したシステムの構築が可能となる。常に物体の内部もしくは外部を所定の量の範囲の誤差で(例えば10ピクセル以内などで)抽出することが保証することができる。 With this configuration, when the image processing apparatus extracts the contour of the object, the extraction accuracy for the contour of the object can be predicted in advance, and a system that absorbs the accuracy error can be constructed. It can be guaranteed that the inside or outside of the object is always extracted with a predetermined amount of error (for example, within 10 pixels).
更には、本発明により、画像中の人や物・動物・建造物といった物体を抽出する際に物体の輪郭抽出の精度を保証され、抽出結果を利用するシステム・アプリケーションが目的に応じた境界を取得することを可能とし、各種アプリケーションの品質を大きく向上させることが可能となる。 Furthermore, according to the present invention, when extracting an object such as a person, an object, an animal, or a building from an image, the accuracy of extracting the contour of the object is guaranteed, and the system application using the extraction result has a boundary according to the purpose. It becomes possible to acquire the quality of various applications.
101 画像入力部
104 抽出条件入力部
106 抽出結果判定部
108 抽出結果出力部
110 概略抽出部
111 概略抽出条件決定部
112 概略抽出画像処理部
113 概略抽出用設定DB部
114 概略算出部
120 形状抽出部
121 形状抽出条件決定部
122 形状抽出画像処理部
123 形状抽出用設定DB部
124 形状算出部
202 オブジェクト
302 正解輪郭線例
304 オブジェクト幅推定線
306 オブジェクト高さ推定線例
308 抽出限界領域線
402 抽出限界領域線
602 概形輪郭線例
604 概形最大横幅
606 概形最大縦幅
702 概略輪郭候補1
704 概略輪郭候補2
706 概略輪郭候補3
708 概略輪郭候補4
802 概略輪郭候補1
804 概略輪郭候補2
806 概略輪郭候補3
808 概略輪郭候補4
810 概略輪郭候補5
904 分割領域
905 高濃度領域
906 中濃度領域
908 概略領域
1004 概略領域
1006 概略領域
1104 概略領域
1201 外側探索範囲境界
1202 概略領域
1203 内側探索範囲境界
1301 外側探索範囲境界
1302 概略領域
1303 内側探索範囲境界
1304 抽出輪郭
1404 抽出輪郭
1406 抽出輪郭
1504 抽出輪郭
DESCRIPTION OF
704 Outline outline candidate 2
706 Outline contour candidate 3
708 Outline contour candidate 4
802 Outline outline candidate 1
804 Outline contour candidate 2
806 Outline outline candidate 3
808 Outline contour candidate 4
810 Outline contour candidate 5
904
Claims (32)
画像中の物体の概略を抽出する概略抽出部を有し、
前記概略抽出部が概略を抽出した前記物体の形状を抽出する形状抽出部を有し、
前記形状抽出部は前記物体の境界に対し、
前記概略抽出部が概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出することを特徴とする画像処理装置。 An image processing apparatus,
An outline extraction unit for extracting an outline of an object in an image;
A shape extraction unit for extracting the shape of the object from which the outline extraction unit has extracted an outline;
The shape extraction unit is configured with respect to the boundary of the object.
An image processing apparatus that extracts inside (inside) or outside (outside) as outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted by the outline extraction unit.
前記所定の量の範囲を前記顔の大きさもしくは頭部の大きさを用いて所定の算出式で決定することを特徴とする請求項1記載の画像処理装置。 The object is a human face or head;
The image processing apparatus according to claim 1, wherein the range of the predetermined amount is determined by a predetermined calculation formula using the size of the face or the size of the head.
前記物体は複数であることを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 4, wherein
An image processing apparatus comprising a plurality of the objects.
抽出された前記輪郭の形状を基に、前記輪郭が正しく前記物体を抽出できているかどうかを判定する抽出結果判定部を有し、
抽出結果を出力する抽出結果出力部を有し、
前記抽出結果判定部が正しく抽出できていると判定した場合に前記抽出結果出力部を介して前記輪郭情報を出力することを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 5,
Based on the extracted shape of the contour, an extraction result determination unit that determines whether the contour has correctly extracted the object;
An extraction result output unit for outputting the extraction result;
An image processing apparatus that outputs the contour information via the extraction result output unit when the extraction result determination unit determines that the extraction is correctly performed.
抽出された前記輪郭の形状を基に前記抽出結果判定部が正しく前記物体を抽出できていないと判定した場合に、前記概略抽出部もしくは前記形状抽出部の少なくとも一つにフィードバックされ、前記概略抽出部もしくは前記形状抽出部では、フィードバックされた情報を基にそれぞれの抽出時における処理条件を変更し再び抽出処理を行うことを特徴とする画像処理装置。 The image processing apparatus according to claim 6,
When the extraction result determination unit determines that the object cannot be correctly extracted based on the extracted shape of the outline, the outline extraction unit or the shape extraction unit feeds back the outline extraction unit. The image processing apparatus is characterized in that the processing unit or the shape extraction unit changes the processing conditions at the time of each extraction based on the fed back information and performs the extraction process again.
前記概略抽出部は、概略抽出条件決定部と概略抽出画像処理部と概略算出部を有し、
前記概略算出部は、所定の条件に伴って概略の抽出処理を行い、
前記概略抽出画像処理部は、
前記概略算出部での概略の抽出処理に用いる画像に対して所定の処理を行い
前記概略抽出条件決定部は、
前記概略算出部での概略の抽出処理に必要な前記所定の条件を設定し、
前記概略画像処理部での画像の処理に必要な前記所定の処理を設定することを
特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 7,
The approximate extraction unit includes an approximate extraction condition determination unit, an approximate extraction image processing unit, and an approximate calculation unit,
The approximate calculation unit performs an approximate extraction process according to a predetermined condition,
The schematic extracted image processing unit includes:
A predetermined process is performed on the image used for the rough extraction process in the rough calculation unit, and the rough extraction condition determination unit is
Set the predetermined condition necessary for the rough extraction process in the rough calculation unit,
An image processing apparatus configured to set the predetermined processing necessary for image processing in the schematic image processing unit.
前記形状抽出部は、形状抽出条件決定部と形状抽出画像処理部と形状算出部を有し、
前記形状算出部は、所定の条件に伴って対象物の抽出処理を行い、
前記形状抽出画像処理部は、前記形状算出部での対象物の抽出処理に用いる画像に対して所定の処理を行い、
前記形状抽出条件決定部は、前記形状算出部での対象物の抽出処理に必要な前記所定の条件を設定し、前記形状画像処理部での画像の処理に必要な前記所定の処理を設定することを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 8,
The shape extraction unit includes a shape extraction condition determination unit, a shape extraction image processing unit, and a shape calculation unit,
The shape calculation unit performs an object extraction process according to a predetermined condition,
The shape extraction image processing unit performs a predetermined process on an image used for an object extraction process in the shape calculation unit,
The shape extraction condition determination unit sets the predetermined condition necessary for the object extraction process in the shape calculation unit, and sets the predetermined process necessary for the image processing in the shape image processing unit. An image processing apparatus.
前記概略算出部は、テンプレートマッチングに基づいて概略位置と形状を算出し、
前記概略抽出画像処理部は、マッチングを行う領域の切り出し、もしくはモザイク化、もしくはフィルタ処理、もしくはノイズ除去、もしくは階調変更処理、の少なくとも一つを行い、
前記形状抽出条件決定部は、マッチングを行う為の領域のサイズ、もしくはテンプレートのサイズ、もしくはモザイク化するサイズ、もしくはフィルタ処理の種類・段数・フィルタサイズ・フィルタ係数の少なくとも一つ、もしくはノイズ除去の手法・ノイズ除去サイズの少なくとも一つ、もしくは階調変更処理の変更後の階調数、の少なくとも一つを決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 8,
The approximate calculation unit calculates an approximate position and shape based on template matching,
The outline extraction image processing unit performs at least one of segmentation, mosaicing, filtering, noise removal, or gradation changing processing of a region to be matched,
The shape extraction condition deciding unit is the size of the area for matching, the size of the template, the size to be mosaicked, the type of filtering, the number of stages, the filter size, the filter coefficient, or the noise removal An image processing apparatus that determines at least one of a method and a noise removal size or a number of gradations after the gradation changing process is changed.
前記概略算出部は、ニューラルネットに基づいて概略位置と形状を算出し、
前記概略抽出画像処理部は、ニューラルネットに入力する領域の切り出し、もしくはモザイク化、もしくはフィルタ処理、もしくはノイズ除去、もしくは階調変更処理、の少なくとも一つを行い、
前記形状抽出条件決定部は、ニューラルネットに入力する領域サイズ、もしくはモザイク化するサイズ、もしくはフィルタ処理の種類・段数・フィルタサイズ・フィルタ係数の少なくとも一つ、もしくはノイズ除去の手法・ノイズ除去サイズの少なくとも一つ、もしくは階調変更処理の変更後の階調数、の少なくとも一つを決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 8,
The approximate calculation unit calculates an approximate position and shape based on a neural network,
The outline extraction image processing unit performs at least one of segmentation of an area to be input to a neural network, or mosaic processing, filter processing, noise removal, or gradation change processing,
The shape extraction condition determining unit is configured to input a region size to be input to the neural network, a size to be mosaicked, or at least one of a filtering process type, the number of stages, a filter size, a filter coefficient, a noise removal method, and a noise removal size. An image processing apparatus that determines at least one of at least one or the number of gradations after gradation change processing.
前記形状算出部は、反復的な収束演算によって動的な動作を行う輪郭抽出手段に基づいて輪郭を抽出し、
前記形状抽出画像処理部は、ノイズ除去、もしくはフィルタ処理、もしくはモフォロジ変換処理、もしくは階調変更処理、の少なくとも一つを行い、
前記形状抽出条件決定部は、前記収束演算の制御項の種類、もしくは前記収束演算の前記制御項の重み付け、もしくは前記収束演算の最大反復回数、もしくはノイズ除去の手法・ノイズ除去サイズの少なくとも一つ、もしくはモザイク化するサイズ、もしくはフィルタ処理の種類・段数・フィルタサイズ・フィルタ係数の少なくとも一つ、もしくはモフォロジ変換処理の作用子の種類・サイズの少なくとも一つ、もしくは階調変更処理の変更後の階調数、の少なくとも一つを決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 9,
The shape calculation unit extracts a contour based on a contour extraction unit that performs a dynamic operation by repetitive convergence calculation,
The shape extraction image processing unit performs at least one of noise removal, filter processing, morphology conversion processing, or gradation change processing,
The shape extraction condition determination unit includes at least one of a type of the control term of the convergence calculation, a weight of the control term of the convergence calculation, a maximum number of iterations of the convergence calculation, a noise removal method, and a noise removal size. Or the size to be mosaicked, or at least one of the filter processing type, number of stages, filter size, filter coefficient, or the type / size of the morphological conversion processing operator, or An image processing apparatus that determines at least one of the number of gradations.
抽出条件入力部を有し、
前記所定の量の範囲は前記抽出条件入力部を介して入力され、
前記抽出条件入力部を介して前記所定の量の範囲が入力された場合には、前記入力された値を前記所定の量の範囲として優先して用い、
前記抽出条件入力部を介して前記所定の量の範囲が入力されなかった場合には、後段で前記物体の概略情報に基づき決定される前記所定の量の範囲を用いて、前記形状抽出部が対象物の形状を抽出することを特徴とする画像処理装置。 An image processing apparatus according to any one of claims 1 to 9, wherein
It has an extraction condition input part,
The predetermined amount range is input via the extraction condition input unit,
When the range of the predetermined amount is input via the extraction condition input unit, the input value is preferentially used as the range of the predetermined amount,
When the range of the predetermined amount is not input via the extraction condition input unit, the shape extraction unit uses the range of the predetermined amount determined based on the outline information of the object at a later stage. An image processing apparatus for extracting a shape of an object.
抽出条件入力部を有し、
前記所定の量の範囲は前記抽出条件入力部を介して入力され、
複数の前記所定の量の範囲が設定された場合には、前記入力された値を前記所定の量の範囲として優先して用い、
前記形状抽出条件決定部は前記サイズの決定、もしくは前記種類の決定、もしくは前記係数の決定、もしくは前記段数の決定、もしくは前記階調数の決定、の少なくとも一つを、前記所定の量の範囲に応じて決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 10 or 11,
It has an extraction condition input part,
The predetermined amount range is input via the extraction condition input unit,
When a plurality of the predetermined amount ranges are set, the input value is preferentially used as the predetermined amount range,
The shape extraction condition determination unit determines at least one of the determination of the size, the determination of the type, the determination of the coefficient, the determination of the number of steps, or the determination of the number of gradations within the predetermined amount range. An image processing apparatus that is determined according to
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記形状抽出ステップは前記物体の境界に対し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出することを
特徴とする画像処理方法。 An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The shape extraction step is performed on the boundary of the object.
An image processing method, wherein the outline extraction step extracts the inside (inside) or the outside (outside) as outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted.
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出し、
前記物体は特に人間の顔もしくは頭部であることを
特徴とする画像処理方法。 An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The outline extraction step extracts the inside (inside) or the outside (outside) as the outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted,
An image processing method characterized in that the object is in particular a human face or head.
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出し、
前記所定の量の範囲を前記物体の大きさを用いて所定の算出式で決定することを
特徴とする画像処理方法。 An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The outline extraction step extracts the inside (inside) or the outside (outside) as the outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted,
A range of the predetermined amount is determined by a predetermined calculation formula using a size of the object.
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出し、
前記物体は特に人間の顔もしくは頭部であり、
前記所定の量の範囲を前記顔の大きさもしくは頭部の大きさを用いて所定の算出式で決定することを
特徴とする画像処理方法。 An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The outline extraction step extracts the inside (inside) or the outside (outside) as the outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted,
The object is in particular a human face or head;
An image processing method, wherein the range of the predetermined amount is determined by a predetermined calculation formula using the size of the face or the size of the head.
前記物体は複数であることを
特徴とする画像処理方法。 The image processing method according to any one of claims 15 to 18, comprising:
An image processing method, comprising: a plurality of the objects.
抽出された前記輪郭を基に前記物体を変形させるための物体変形ステップを有することを
特徴とする画像処理方法。 The image processing method according to any one of claims 15 to 19, wherein
An image processing method comprising: an object deformation step for deforming the object based on the extracted contour.
前記物体変形ステップはモーフィングもしくはアフィン変換を用いて前記物体を変形させることを
特徴とする画像処理方法。 The image processing method according to claim 20, wherein
The image processing method characterized in that the object deformation step deforms the object using morphing or affine transformation.
量指定ステップを有し、
前記量指定ステップは前記所定の量の範囲を指定することができ、
更に、抽出不能通知ステップを有し、
前記抽出不能通知ステップは、
前記量指定ステップで指定された前記所定の量の範囲内で
前記形状抽出ステップが輪郭情報を抽出できなかった場合に、
外部に所定の通知を行うこと
特徴とする画像処理方法。 The image processing method according to any one of claims 15 to 18, comprising:
A quantity specification step,
The amount specifying step can specify a range of the predetermined amount,
Furthermore, it has an extraction impossible notification step,
The extraction impossible notification step includes:
When the shape extraction step fails to extract contour information within the predetermined amount range specified in the amount specifying step,
An image processing method characterized by performing a predetermined notification outside.
画像中の物体の概略を抽出する概略抽出ステップを有し、
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記形状抽出ステップは前記物体の境界に対し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を
前記物体の輪郭情報として抽出する画像処理ステップを有する
ことを特徴とする携帯型端末。 A portable terminal having an image display device,
An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The shape extraction step is performed on the boundary of the object.
The outline extraction step has an image processing step of extracting inside (inside) or outside (outside) as outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted. Portable terminal.
画像中の物体の概略を抽出する概略抽出ステップを有し、
前記概略抽出ステップが概略を抽出した前記物体の形状を抽出する形状抽出ステップを有し、
前記形状抽出ステップは前記物体の境界に対し、
前記概略抽出ステップが概略を抽出した前記物体の概略情報に基づき
所定の量の範囲だけ内部(内側)もしくは外部(外側)を前記物体の輪郭情報として抽出し、
前記物体は特に人間の顔もしくは頭部であり、
前記所定の量の範囲を前記顔の大きさもしくは頭部の大きさを用いて所定の算出式で決定することを
特徴とする携帯型端末。 A portable terminal having an image display device,
An outline extraction step for extracting an outline of an object in the image;
The outline extraction step includes a shape extraction step of extracting the shape of the object from which the outline is extracted;
The shape extraction step is performed on the boundary of the object.
The outline extraction step extracts the inside (inside) or the outside (outside) as the outline information of the object by a predetermined amount based on the outline information of the object from which the outline is extracted,
The object is in particular a human face or head;
A portable terminal characterized in that the range of the predetermined amount is determined by a predetermined calculation formula using the size of the face or the size of the head.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004320201A JP2006133941A (en) | 2004-11-04 | 2004-11-04 | Image processing device, image processing method, image processing program, and portable terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004320201A JP2006133941A (en) | 2004-11-04 | 2004-11-04 | Image processing device, image processing method, image processing program, and portable terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006133941A true JP2006133941A (en) | 2006-05-25 |
Family
ID=36727458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004320201A Pending JP2006133941A (en) | 2004-11-04 | 2004-11-04 | Image processing device, image processing method, image processing program, and portable terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006133941A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288911A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging apparatus, face area detection program, and face area detection method |
JP2008311921A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
JP2008311922A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
JP2009237614A (en) * | 2008-03-25 | 2009-10-15 | Seiko Epson Corp | Setting of face area corresponding to face image in target image |
JP2012182813A (en) * | 2012-04-24 | 2012-09-20 | Fujifilm Corp | Image processing device, method and program |
JP2014134792A (en) * | 2012-12-14 | 2014-07-24 | Furyu Kk | Image processing apparatus, method and program |
JP2014211670A (en) * | 2013-04-17 | 2014-11-13 | 株式会社エム・ソフト | Image area extraction method and image area extraction system |
US9065998B2 (en) | 2007-06-14 | 2015-06-23 | Fujifilm Corporation | Photographing apparatus provided with an object detection function |
WO2018159040A1 (en) * | 2017-03-02 | 2018-09-07 | オムロン株式会社 | Monitoring assistance system, control method therefor, and program |
US10088997B2 (en) | 2014-06-20 | 2018-10-02 | Ricoh Company, Ltd. | Apparatus for generating data, method for generating data, and non-transitory computer-readable medium |
JP2022029746A (en) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | Obstacle identification device, obstacle identification method, and program |
-
2004
- 2004-11-04 JP JP2004320201A patent/JP2006133941A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008288911A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging apparatus, face area detection program, and face area detection method |
US8077216B2 (en) | 2007-05-18 | 2011-12-13 | Casio Computer Co., Ltd. | Image pickup apparatus with a human face detecting function, method and program product for detecting a human face |
US9065998B2 (en) | 2007-06-14 | 2015-06-23 | Fujifilm Corporation | Photographing apparatus provided with an object detection function |
JP2008311921A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
JP2008311922A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging apparatus |
US9131138B2 (en) | 2007-06-14 | 2015-09-08 | Fujifilm Corporation | Photographing apparatus |
JP2009237614A (en) * | 2008-03-25 | 2009-10-15 | Seiko Epson Corp | Setting of face area corresponding to face image in target image |
JP2012182813A (en) * | 2012-04-24 | 2012-09-20 | Fujifilm Corp | Image processing device, method and program |
JP2014134792A (en) * | 2012-12-14 | 2014-07-24 | Furyu Kk | Image processing apparatus, method and program |
JP2014211670A (en) * | 2013-04-17 | 2014-11-13 | 株式会社エム・ソフト | Image area extraction method and image area extraction system |
US10088997B2 (en) | 2014-06-20 | 2018-10-02 | Ricoh Company, Ltd. | Apparatus for generating data, method for generating data, and non-transitory computer-readable medium |
WO2018159040A1 (en) * | 2017-03-02 | 2018-09-07 | オムロン株式会社 | Monitoring assistance system, control method therefor, and program |
US10853679B2 (en) | 2017-03-02 | 2020-12-01 | Omron Corporation | Monitoring assistance system, control method thereof, and program |
JP2022029746A (en) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | Obstacle identification device, obstacle identification method, and program |
JP7041723B2 (en) | 2020-08-05 | 2022-03-24 | 株式会社パスコ | Obstacle identification device, obstacle identification method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102299847B1 (en) | Face verifying method and apparatus | |
JP5554984B2 (en) | Pattern recognition method and pattern recognition apparatus | |
JP4410732B2 (en) | Face image detection device, face image detection method, and face image detection program | |
US9978119B2 (en) | Method for automatic facial impression transformation, recording medium and device for performing the method | |
JP5406705B2 (en) | Data correction apparatus and method | |
JP4952625B2 (en) | Perspective transformation distortion generating document image correcting apparatus and method | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
US11341770B2 (en) | Facial image identification system, identifier generation device, identification device, image identification system, and identification system | |
US20180007259A1 (en) | Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium | |
EP2608108A1 (en) | Face feature vector construction | |
US8306282B2 (en) | Hierarchical face recognition training method and hierarchical face recognition method thereof | |
US20160035078A1 (en) | Image assessment using deep convolutional neural networks | |
US9443325B2 (en) | Image processing apparatus, image processing method, and computer program | |
US8577099B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US20080279424A1 (en) | Method of Identifying Faces from Face Images and Corresponding Device and Computer Program | |
US9213897B2 (en) | Image processing device and method | |
JP7132654B2 (en) | LAYOUT ANALYSIS METHOD, READING AID DEVICE, CIRCUIT AND MEDIUM | |
JP2002342756A (en) | Method for detecting position of eye and mouth in digital image | |
JP2009015614A (en) | Image processing apparatus, image processing method, and computer program | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
US11720745B2 (en) | Detecting occlusion of digital ink | |
WO2023045183A1 (en) | Image processing | |
US20150003681A1 (en) | Image processing apparatus and image processing method | |
JP2008146329A (en) | Face feature point detection device and method | |
KR20210041856A (en) | Method and apparatus for generating learning data required to learn animation characters based on deep learning |