JP2001043381A - Moving object contour extracting method - Google Patents

Moving object contour extracting method

Info

Publication number
JP2001043381A
JP2001043381A JP11212282A JP21228299A JP2001043381A JP 2001043381 A JP2001043381 A JP 2001043381A JP 11212282 A JP11212282 A JP 11212282A JP 21228299 A JP21228299 A JP 21228299A JP 2001043381 A JP2001043381 A JP 2001043381A
Authority
JP
Japan
Prior art keywords
person
image
moving object
contour
initial contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11212282A
Other languages
Japanese (ja)
Inventor
Atsushi Ogata
淳 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP11212282A priority Critical patent/JP2001043381A/en
Publication of JP2001043381A publication Critical patent/JP2001043381A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accelerate entire processing and to speedily and highly accurately extract a moving object area out of a moving image by detecting the position of a moving object from a differential image among timewise continued plural images and determining the initial contour of the moving object on the basis of that position. SOLUTION: The differential image is prepared from the difference of timewise continued two figure images and binarizing processing is performed. The pixel of pixel value = 255 is searched from the upper left position of the binary image and the place of discovery is defined as top. The pixels of pixel value = 255 are searched respectively inside from the left and right ends of the binary image and the lateral position of a figure is detected. In this case, a range from the position of the top to the lower end of the image is divided into three search ranges H1-H3, for example, and the points of pixel value = 255 located in the closest position from ends within these ranges are detected. With these positions as reference, an initial contour form for contour extraction is determined.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、たとえば、人物や
車両などの動物体を含む動画像中から人物や車両などの
動物体領域を抽出する動物体輪郭抽出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object contour extracting method for extracting a moving object region such as a person or a vehicle from a moving image including a moving object such as a person or a vehicle.

【0002】[0002]

【従来の技術】たとえば、人物を含む動画像中から人物
領域を抽出するための手法としては、従来、エッジ画像
の閾値処理による方法などがある。これは、入力画像に
対してソベル(Sobel)フィルタを施すなどしてエ
ッジ画像を獲得し、その結果から対象となる物体である
人物の輪郭線を抽出する手法である。この抽出された輪
郭線に囲まれた領域が人物領域であるとして、その後の
処理を行なっていく。
2. Description of the Related Art For example, as a method for extracting a person region from a moving image including a person, there is a method based on threshold processing of an edge image. This is a method of obtaining an edge image by applying a Sobel filter to an input image and extracting a contour of a person who is a target object from the result. Assuming that the area surrounded by the extracted contour line is a person area, the subsequent processing is performed.

【0003】また、動的に輪郭抽出を行なう方式とし
て、スネーク(Snakes)と呼ばれる動的輪郭モデ
ル(Active Contour Model)の手
法がある。この方法は、複数の制御点をあらかじめ画像
中に配置し、これらの制御点を人物輪郭上に収束するよ
うに移動させていく手法である。制御点の移動について
は、画像の濃度勾配の大きい方向に向かっての移動を基
本とする。このとき、制御点は近傍の輪郭線に収束する
ように移動していく。
As a method of dynamically extracting a contour, there is a technique of a dynamic contour model (Active Control Model) called Snakes. This method is a method in which a plurality of control points are arranged in an image in advance, and these control points are moved so as to converge on a human contour. The movement of the control point is basically based on the movement in the direction in which the density gradient of the image is large. At this time, the control point moves so as to converge to a nearby contour line.

【0004】さらに、簡易な方法としては、人物領域を
切出す方法としてブルーバック(青色背景)を用いたク
ロマキー法などもある。
Further, as a simple method, there is a chroma key method using a blue background (blue background) as a method for cutting out a person area.

【0005】[0005]

【発明が解決しようとする課題】ところが、エッジ画像
の閾値処理による方法では、必ずしも連結した輪郭が得
られるとは限らない。また、本来目的とする線以外の余
分な線も抽出してしまうことが多く、これらを補正する
処理が不可欠である。さらに、補正処理を施しても、輪
郭線が必ずしも連結しているとは限らない。
However, a method based on threshold processing of an edge image does not always provide a connected contour. In addition, extra lines other than the originally intended lines are often extracted, and processing for correcting these lines is indispensable. Furthermore, even if the correction processing is performed, the contour lines are not always connected.

【0006】また、動的輪郭抽出法(Snakes)で
は、初期輪郭が適当でない場合には、所望の人物領域に
収束しないという問題点がある。また、計算量が著しく
多くなるという問題点もある。
In addition, the active contour extraction method (Snakes) has a problem that if the initial contour is not appropriate, it does not converge on a desired person area. There is also a problem that the amount of calculation is significantly increased.

【0007】さらに、ブルーバックを用いたクロマキー
法では、背景として青色系統のものをわざわざ用意する
必要があり、大掛かりなものになってしまうという問題
点がある。
Further, in the chroma key method using the blue background, it is necessary to separately prepare a blue system as a background, and there is a problem that the scale becomes large.

【0008】これらのうち、上記動的輪郭抽出法(Sn
akes)、ブルーバックを用いたクロマキー法の2つ
の手法に関しては、主に静止画に対しての処理である。
しかし、近年は静止画像のみでなく、動画像から対象物
体(特に、ここでは人物領域)を抽出する処理が求めら
れているが、計算量の問題などから、実際に利用するに
は専用のハードウェアが必要になったり、処理時間がか
かったりして、現実的ではない。
[0008] Among them, the active contour extraction method (Sn
akes) and the two methods of the chroma key method using the blue background are mainly processing for still images.
However, in recent years, a process of extracting a target object (particularly, a person region in this case) from a moving image as well as a still image has been required. It is not practical because it requires hardware and takes time to process.

【0009】そこで、本発明は、余分な計算量を削減で
きて、処理全体の高速化が図れ、動画像中からの動物体
領域の抽出を迅速かつ高精度に行ない得る動物体輪郭抽
出方法を提供することを目的とする。
Therefore, the present invention provides a moving object contour extraction method which can reduce the amount of extra calculation, speed up the entire processing, and can quickly and accurately extract a moving object region from a moving image. The purpose is to provide.

【0010】[0010]

【課題を解決するための手段】本発明の動物体輪郭抽出
方法は、動物体を含む動画像中から動物体領域を抽出す
るものにおいて、動物体を含む画像を連続的に入力する
ステップと、この入力された時間的に連続的する複数の
画像間の差分画像を生成するステップと、この生成され
た差分画像から動物体の位置を検出し、その位置を基に
動物体の初期輪郭を決定するステップと、この決定され
た初期輪郭に基づき前記入力された画像から動物体領域
を抽出するステップとからなる。
A moving object contour extracting method according to the present invention is a method for extracting a moving object region from a moving image including a moving object, wherein the image including the moving object is continuously input; Generating a difference image between the plurality of temporally continuous images input, detecting a position of the moving object from the generated difference image, and determining an initial contour of the moving object based on the position And extracting a moving object region from the input image based on the determined initial contour.

【0011】また、本発明の動物体輪郭抽出方法は、動
物体を含む動画像中から動物体領域を抽出するものにお
いて、動物体を含む画像を連続的に入力するステップ
と、この入力された時間的に連続的する複数の画像間の
差分画像を生成するステップと、この生成された差分画
像から動物体の位置を検出し、その位置を基に動物体の
初期輪郭を決定するステップと、現時刻での初期輪郭を
決定する際、それよりも前の時刻で決定された初期輪郭
に基づき現時刻での初期輪郭を決定するステップと、こ
の決定された初期輪郭に基づき前記入力された画像から
動物体領域を抽出するステップとからなる。
In the moving object contour extracting method according to the present invention, a moving object region is extracted from a moving image including a moving object. Generating a difference image between a plurality of images that are continuous in time, detecting a position of the moving object from the generated difference image, and determining an initial contour of the moving object based on the position; Determining the initial contour at the current time based on the initial contour determined at an earlier time; and determining the input image based on the determined initial contour. And extracting a moving object region from.

【0012】また、本発明の動物体輪郭抽出方法は、動
物体を含む動画像中から動物体領域を抽出するものにお
いて、動物体を含む画像を連続的に入力するステップ
と、この入力された時間的に連続的する複数の画像間の
差分画像を生成するステップと、この生成された差分画
像を2値化することにより、前記入力された画像中の動
物体に動きがあるか否かを判定するステップと、この判
定により動物体に大きな動きがある場合、前記生成され
た差分画像から動物体の位置を検出し、その位置を基に
動物体の初期輪郭を決定し、動物体に大きな動きがない
場合、それよりも前の時刻に決定された初期輪郭に基づ
き現時刻での初期輪郭を決定するステップと、この決定
された初期輪郭に基づき前記入力された画像から動物体
領域を抽出するステップとからなる。
In the moving object contour extracting method according to the present invention, a moving object image is extracted from a moving image including a moving object. Generating a difference image between a plurality of temporally continuous images, and binarizing the generated difference image to determine whether or not the moving object in the input image has motion; The determining step, and when the moving object has a large movement, the position of the moving object is detected from the generated difference image, and the initial contour of the moving object is determined based on the position. If there is no motion, determining an initial contour at the current time based on the initial contour determined at a time earlier than that, extracting a moving object area from the input image based on the determined initial contour To do Consisting of a flop.

【0013】また、本発明の動物体輪郭抽出方法は、人
物を含む動画像中から人物領域を抽出するものにおい
て、人物を含む画像を連続的に入力するステップと、こ
の入力された時間的に連続的する複数の画像間の差分画
像を生成するステップと、この生成された差分画像から
人物の位置を検出し、その位置を基に人物の初期輪郭を
決定するステップと、この決定された初期輪郭に基づき
前記入力された画像から人物領域を抽出するステップと
からなる。
In the moving object contour extracting method according to the present invention, in a method for extracting a person region from a moving image including a person, a step of continuously inputting an image including a person includes the steps of: Generating a difference image between a plurality of continuous images; detecting a position of a person from the generated difference image; and determining an initial contour of the person based on the position; Extracting a person region from the input image based on the contour.

【0014】また、本発明の動物体輪郭抽出方法は、人
物を含む動画像中から人物体領域を抽出するものにおい
て、人物を含む画像を連続的に入力するステップと、こ
の入力された時間的に連続的する複数の画像間の差分画
像を生成するステップと、この生成された差分画像から
人物の位置を検出し、その位置を基に人物の初期輪郭を
決定するステップと、現時刻での初期輪郭を決定する
際、それよりも前の時刻で決定された初期輪郭に基づき
現時刻での初期輪郭を決定するステップと、この決定さ
れた初期輪郭に基づき前記入力された画像から人物領域
を抽出するステップとからなる。
According to the moving object contour extraction method of the present invention, in a method for extracting a human body region from a moving image including a person, a step of continuously inputting an image including a person is performed. Generating a difference image between a plurality of images that are continuous with each other, detecting a position of the person from the generated difference image, and determining an initial contour of the person based on the position; and When determining the initial contour, a step of determining an initial contour at the current time based on the initial contour determined at a time earlier than that, and a person region from the input image based on the determined initial contour. Extracting.

【0015】また、本発明の動物体輪郭抽出方法は、人
物を含む動画像中から人物領域を抽出するものにおい
て、人物を含む画像を連続的に入力するステップと、こ
の入力された時間的に連続的する複数の画像間の差分画
像を生成するステップと、この生成された差分画像から
人物の肩および頭頂部の位置を検出し、それらの位置を
基準にして人物領域の外側に初期輪郭を設定するステッ
プと、この設定された初期輪郭に基づき前記入力された
画像から人物領域を抽出するステップとからなる。
In the moving object contour extraction method according to the present invention, in a method for extracting a person region from a moving image including a person, a step of continuously inputting an image including a person includes the steps of: Generating a difference image between a plurality of continuous images, detecting the positions of the shoulders and the crown of the person from the generated difference image, and defining an initial contour outside the person region based on those positions. Setting and extracting a person region from the input image based on the set initial contour.

【0016】さらに、本発明の動物体輪郭抽出方法は、
人物を含む動画像中から人物領域を抽出するものにおい
て、人物を含む画像を連続的に入力するステップと、こ
の入力された時間的に連続的する複数の画像間の差分画
像を生成するステップと、この生成された差分画像を2
値化することにより、前記入力された画像中の人物に動
きがあるか否かを判定するステップと、この判定により
人物に大きな動きがある場合、前記生成された差分画像
から人物の位置を検出し、その位置を基に人物の初期輪
郭を決定し、人物に大きな動きがない場合、それよりも
前の時刻に決定された初期輪郭に基づき現時刻での初期
輪郭を決定するステップと、この決定された初期輪郭に
基づき前記入力された画像から人物領域を抽出するステ
ップとからなる。
Furthermore, the moving object contour extracting method of the present invention further comprises:
In the step of extracting a person region from a moving image including a person, a step of continuously inputting an image including a person, and a step of generating a difference image between the input temporally continuous images. , And the generated difference image
Determining whether the person in the input image has a motion by converting the value into a value, and detecting the position of the person from the generated difference image when the person has a large motion by the determination. Determining an initial contour of the person based on the position, and, if the person does not move significantly, determining an initial contour at the current time based on the initial contour determined at an earlier time; and Extracting a person region from the input image based on the determined initial contour.

【0017】本発明によれば、連続する画像間の差分画
像を利用して初期輪郭を決定することにより、画像中で
動いているのが動物体(たとえば、人物)のみである場
合、生じている差分は動物体の動きによるものと考えら
れるので、初期輪郭を適切な形状とし、余分な計算量を
削減することによる、処理全体の高速化が図れる。
According to the present invention, an initial contour is determined by using a difference image between successive images, so that when only a moving object (for example, a person) is moving in the image, it may occur. Since the difference is considered to be due to the motion of the moving object, the entire process can be sped up by setting the initial contour to an appropriate shape and reducing the amount of extra calculation.

【0018】また、動画像という特徴を利用し、前の処
理で抽出することができた輪郭から現時刻での初期輪郭
を決定することにより、効率的な初期輪郭の配置を行な
うことができ、もって余分な計算量を削減することによ
る、処理全体の高速化が図れる。
Also, by utilizing the feature of a moving image and determining the initial contour at the current time from the contour extracted in the previous processing, efficient initial contour arrangement can be performed. Thus, the entire processing can be speeded up by reducing the amount of extra calculation.

【0019】したがって、動画像中からの動物体領域の
抽出を迅速かつ高精度に行ない得るものである。
Therefore, the moving object region can be quickly and accurately extracted from the moving image.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0021】なお、ここでは以下のような制約条件を設
けて、人物領域の最外輪郭の抽出を行なう場合について
説明する。
Here, a description will be given of a case where the outermost contour of a person region is extracted under the following constraint conditions.

【0022】(1)対象画像は人物(正面)上半身画像 (2)対象人数は画像中に1人 (3)背景は無地背景(色の限定はない) 図1は、本発明に係る動物体輪郭抽出方法が適用される
動物体輪郭抽出装置の構成を概略的に示すものである。
この装置は、人物(正面)の上半身を含む画像を連続的
に入力するビデオカメラなどの撮像部11、撮像部11
から出力されるアナログ画像信号をデジタル画像データ
に変換するA/D変換部12、A/D変換部12から出
力されるデジタル画像データ(以後、単に画像というこ
ともある)を一時記憶する画像記憶部13、画像記憶部
13内の画像およびA/D変換部12から出力される画
像に基づき人物領域の抽出処理を行なう人物領域抽出部
14、および、人物領域抽出部14の抽出結果を表示す
る抽出結果表示部15によって構成されている。
(1) The subject image is a person (front) upper body image (2) The subject number is one person in the image (3) The background is a plain background (the color is not limited) FIG. 1 shows a moving object according to the present invention. 1 schematically shows a configuration of a moving object contour extraction apparatus to which a contour extraction method is applied.
The apparatus includes an imaging unit 11 such as a video camera that continuously inputs images including the upper body of a person (front), and an imaging unit 11.
A / D converter 12 for converting an analog image signal output from the A / D converter into digital image data, and image storage for temporarily storing digital image data (hereinafter sometimes simply referred to as an image) output from the A / D converter 12 Unit 13, a person region extraction unit 14 that performs a person region extraction process based on the image in the image storage unit 13 and the image output from the A / D conversion unit 12, and displays the extraction result of the person region extraction unit 14. It is composed of an extraction result display unit 15.

【0023】すなわち、撮像部11によって入力された
アナログ画像信号は、A/D変換部12によってデジタ
ル画像データに変換される。変換された画像データは、
時系列処理を行なうこともあるので画像記憶部13に一
時的に記憶される。
That is, the analog image signal input by the image pickup unit 11 is converted into digital image data by the A / D converter 12. The converted image data is
Since time-series processing is sometimes performed, the image data is temporarily stored in the image storage unit 13.

【0024】同時に、A/D変換部12から出力される
入力画像は、人物領域抽出部14に送られ、目的である
画像中から人物領域の抽出が行なわれる。抽出された人
物領域を用いて、抽出結果表示部15により、たとえ
ば、人物領域だけを切り抜いて表示を行なったりする。
At the same time, the input image output from the A / D conversion unit 12 is sent to a person region extraction unit 14, where a person region is extracted from a target image. Using the extracted person region, the extraction result display unit 15 cuts out and displays only the person region, for example.

【0025】なお、近年は、デジタル信号で直接撮像を
行なうことも可能になってきている。このような場合、
撮像部11とA/D変換部12とを1つにまとめた構成
になる。
In recent years, it has become possible to directly perform image pickup using digital signals. In such a case,
The configuration is such that the imaging unit 11 and the A / D conversion unit 12 are integrated into one.

【0026】また、動画像のような時系列画像が入力さ
れると、一時的に画像記憶部13に記憶した直前での画
像を利用することで、人物領域抽出部14で人物領域を
抽出する。
When a time-series image such as a moving image is input, a person region is extracted by the person region extraction unit 14 by temporarily using the image immediately before being stored in the image storage unit 13. .

【0027】人物領域抽出部14では、背景が簡単な場
合には背景差分法により処理を行ない、普通の自然画な
どから人物領域を抽出したい場合には、たとえば、後述
するように人物領域の外輪郭を抽出して、その内部に関
して処理を行なったりする。
The person area extraction unit 14 performs processing by the background subtraction method when the background is simple, and when it is desired to extract a person area from an ordinary natural image or the like, for example, the outside of the person area as described later is used. For example, a contour is extracted, and processing is performed on the inside.

【0028】抽出結果表示部15では、大きく分けると
2通りの表示が考えられる。その1つは、抽出した人物
領域のみを後の処理で利用していくものである。例とし
ては、以下のようなものが考えられる。
The extraction result display section 15 can be roughly classified into two types of displays. One of them is to use only the extracted person area in subsequent processing. Examples are as follows.

【0029】(1)人物領域を別の背景に合成する。(1) A person area is combined with another background.

【0030】(2)テレビ電話器などで背景を相手に見
せたくない場合に、人物領域だけを表示する。
(2) When it is not desired to show the background to the other party using a videophone or the like, only the person area is displayed.

【0031】(3)放送などで利用されている表現手法
(クロマキー)に用いる。
(3) Used for an expression technique (chroma key) used in broadcasting and the like.

【0032】もう1つは、人物領域を画像中から消し去
る場合である。これは、あまり利用するケースがないか
もしれないが、応用例としては考えられる。
The other is a case where a person area is erased from an image. This may not be used very often, but it is a possible application.

【0033】次に、人物領域抽出部14における第1の
実施の形態に係る処理方法について説明する。第1の実
施の形態は、差分画像から初期輪郭(以後、初期輪郭形
状ということもある)を設定するもので、人物輪郭を抽
出して、その内部が人物領域であると考える場合につい
て説明する。
Next, a processing method according to the first embodiment in the person area extraction unit 14 will be described. In the first embodiment, an initial contour (hereinafter, sometimes referred to as an initial contour shape) is set from a difference image, and a case is described in which a human contour is extracted and the inside is regarded as a human area. .

【0034】まず、時間的に連続する2つの画像G
[t](x,y)、G[t−1](x,y)の差分から
差分画像を作成した後、階調差Gd(x,y)=G
[t](x,y)−G[t−1](x,y)がある閾値
以上の場合には、画素値Gd(x,y)=255、閾値
以下の場合には、Gd(x,y)=0と、2値化処理を
行なう。
First, two temporally continuous images G
After creating a difference image from the differences of [t] (x, y) and G [t-1] (x, y), the gradation difference Gd (x, y) = G
[T] (x, y) -G [t-1] (x, y) is equal to or larger than a threshold, and the pixel value Gd (x, y) = 255. , Y) = 0, and a binarization process is performed.

【0035】次に、図2に示すように、差分画像から人
物の頭頂部、左右の位置を検出し、それを基に初期輪郭
形状を設定する。すなわち、まず、差分画像に対して2
値化処理を施した後、その2値画像の左上の位置から画
素値Gd(x,y)=255である画素を探索し、見つ
かったところを頭頂部16(図2参照)とする。ただ
し、差分画像においては、頭の真中付近が途切れること
があるので、実際はその値にマージンを持たせて画素探
索を行なう。
Next, as shown in FIG. 2, the top and right and left positions of the person are detected from the difference image, and an initial contour shape is set based on the positions. That is, first, 2
After performing the binarization process, a pixel having a pixel value Gd (x, y) = 255 is searched from the upper left position of the binary image, and the found position is defined as the crown 16 (see FIG. 2). However, in the difference image, the vicinity of the center of the head may be interrupted. Therefore, in practice, a pixel search is performed by giving a margin to the value.

【0036】次に、2値画像の左右端から、それぞれ内
側に画素値Gd(x,y)=255である画素を探索
し、人物の左右の位置を検出する。できるだけ人物に近
いところに制御点を配置できるように、左右の位置は細
かい範囲で探索したほうがいいが、差分画像では2値化
処理などにより途切れる部分があるために、必ず画像が
見つからない範囲がでてくる。
Next, a pixel having a pixel value Gd (x, y) = 255 is searched inside from the left and right ends of the binary image, and the left and right positions of the person are detected. It is better to search the left and right positions in a small range so that control points can be placed as close to the person as possible. However, since there are parts in the difference image that are interrupted by binarization processing, the Come out.

【0037】そこで、検出した頭頂部16の位置から画
像の下端までを、図3に示すように、たとえば、3つの
探索範囲H1,H2,H3に分割し、その範囲H1,H
2,H3内でそれぞれ端から最も近い位置にある画素値
Gd(x,y)=255である点を検出する。これらの
位置を基準にして、図4に示すように、輪郭抽出のため
の初期輪郭形状R1を決定する。
Therefore, the area from the detected position of the crown 16 to the lower end of the image is divided into, for example, three search ranges H1, H2, and H3 as shown in FIG.
2 and H3, a point having a pixel value Gd (x, y) = 255 closest to the end is detected. Based on these positions, an initial contour shape R1 for contour extraction is determined as shown in FIG.

【0038】なお、抽出した点列から初期輪郭を構成す
る場合には、各点を直線で結んでも構わないし、曲線を
あてはめても構わない。
When an initial contour is formed from the extracted point sequence, each point may be connected by a straight line, or a curve may be applied.

【0039】また、左右端の探索のために、ここでは便
宜上、画像を3つの探索範囲に分割して探索している
が、分割数はこの限りではない。
In order to search the left and right ends, the image is divided into three search ranges for the sake of convenience, but the number of divisions is not limited thereto.

【0040】次に、人物領域抽出部14における第2の
実施の形態に係る処理方法について説明する。第2の実
施の形態は、前のフレームの輪郭線を初期輪郭に用いる
もので、人物輪郭を抽出して、その内部が人物領域であ
ると考える場合について説明する。
Next, a processing method according to the second embodiment in the person area extraction unit 14 will be described. In the second embodiment, a case will be described in which a contour line of a previous frame is used as an initial contour, a person contour is extracted, and the inside is considered to be a person area.

【0041】静止画ではなく、動画像の場合、時間的に
連続するフレーム間では画像の取込み間隔が短ければ、
人物領域が大きく移動したりする事はほとんどないと考
えられる。そこで、前のフレームで抽出された人物輪郭
線を現時刻での輪郭抽出のための初期輪郭形状に用い
る。
In the case of a moving image instead of a still image, if the image capturing interval is short between temporally consecutive frames,
It is considered that the person area hardly moves largely. Therefore, the human outline extracted in the previous frame is used as the initial outline shape for extracting the outline at the current time.

【0042】この場合、差分画像の画素値が「255」
の画素数が所定の閾値よりも少ないため、人物の輪郭が
前のフレームに対してそれほど移動していないと考え、
図5に示すように、前のフレームの輪郭線R2を動的輪
郭の初期輪郭形状R3に用いる。実際は、少しは人物が
移動していることもあり、前のフレームでの輪郭線その
ままの形状では、人物の内側に配置されることもあり得
るので、図5に示すように、前の輪郭線を少し外側に広
げる処理を行なっている。制御点の収束方向とは逆方向
の法線ベクトルを求め、これにある係数をかけて制御点
の移動量を求める。この方法を用いれば、人物輪郭の非
常に近い位置に動的輪郭を配置することができ、処理時
間を大きく低減することができる。
In this case, the pixel value of the difference image is "255".
Since the number of pixels of is smaller than the predetermined threshold, it is considered that the outline of the person has not moved much with respect to the previous frame,
As shown in FIG. 5, the contour line R2 of the previous frame is used as the initial contour shape R3 of the active contour. Actually, the person may be moving a little, and if the shape of the outline in the previous frame is not changed, it may be arranged inside the person. Therefore, as shown in FIG. Is slightly extended outward. A normal vector in a direction opposite to the convergence direction of the control point is obtained, and a moving amount of the control point is obtained by multiplying this by a certain coefficient. By using this method, the active contour can be arranged at a position very close to the human contour, and the processing time can be greatly reduced.

【0043】ここで、人物輪郭抽出方法について説明し
ておく。なお、この人物輪郭抽出方法は既に周知の技術
であるので、簡単に説明する。
Here, a method of extracting a person contour will be described. Since this person contour extraction method is a known technique, it will be briefly described.

【0044】図6に示すように、初期輪郭上に複数の制
御点を配置する。最終的な輪郭線については、これらの
制御点を結ぶ線分により構成しても構わないし、これら
の制御点を補完する曲線(たとえば、ベジェ曲線)など
をあてはめても構わない。
As shown in FIG. 6, a plurality of control points are arranged on the initial contour. The final contour may be constituted by line segments connecting these control points, or a curve (for example, a Bezier curve) complementing these control points may be applied.

【0045】制御点には、3種類の力が作用していると
仮定しており、これらの力に応じた移動量が各回の制御
点の移動ベクトルを決めている。k番目の制御点の移動
量は、以下の式に基づいて計算される。
It is assumed that three kinds of forces are acting on the control point, and the amount of movement according to these forces determines the movement vector of the control point each time. The movement amount of the k-th control point is calculated based on the following equation.

【0046】 V(k) =α・V1(k) +β・V2(k) +γ・V3(k) V1:制御点k近傍のエッジ強度最大点へ向かうベクト
ル V2:制御点k両隣から受ける張力により釣合い位置へ
向うベクトル V3:制御点の収束方向へ向かう法線ベクトル α,β,γ:重み付けの係数 エッジ力係数αと強制力係数γは、制御点近傍のエッジ
強度によって変化する。制御点が真の人物輪郭近傍にあ
る場合は、近傍の平均エッジ値は高くなるが、背景領域
の場合は局所的なノイズの付近であっても近傍の平均エ
ッジ値は低くなる。そこで、前者の場合はエッジ力を強
く働かせ、後者の場合は強制力を強く働かせるように、
αとγを設定している。これにより、制御点が背景部分
にある場合も、速やかに人物輪郭へ向かうように、制御
点を動かすことができる。なお、張力係数βは固定値を
用いている。
V (k) = α · V1 (k) + β · V2 (k) + γ · V3 (k) V1: Vector toward the maximum edge strength point near control point k V2: By the tension received from both sides of control point k Vector V3 toward the balance position V3: Normal vector toward the convergence direction of the control point α, β, γ: Weighting coefficient The edge force coefficient α and the forcing force coefficient γ change depending on the edge strength near the control point. When the control point is near the true human contour, the average edge value in the vicinity is high, but in the background region, the average edge value in the vicinity is low even in the vicinity of local noise. Therefore, in the former case, the edge force works strongly, and in the latter case, the forcing force works strongly.
α and γ are set. Accordingly, even when the control point is in the background portion, the control point can be moved so as to quickly move toward the human outline. Note that a fixed value is used as the tension coefficient β.

【0047】輪郭探索処理の流れは、制御点の補間、収
束判定、移動ベクトルの算出、制御点の移動を収束と判
定されるまで繰り返し行なう。
In the flow of the contour search processing, the interpolation of the control point, the convergence determination, the calculation of the movement vector, and the movement of the control point are repeatedly performed until the convergence is determined.

【0048】次に、人物領域抽出部14における第3の
実施の形態に係る処理方法について説明する。第3の実
施の形態は、前述したように、差分画像を作成して、階
調差が現れた画素数を計数し、その画素数がある閾値を
超えた場合、すなわち、画像中の人物の動きが大きい場
合には、差分画像から初期輪郭を設定し、画素数が閾値
よりも低い場合、すなわち、画像中の人物の動きが小さ
い場合には、前のフレームの輪郭線を初期輪郭に設定す
るものである。
Next, a processing method according to the third embodiment in the person area extraction unit 14 will be described. According to the third embodiment, as described above, a difference image is created, the number of pixels in which a gradation difference appears is counted, and when the number of pixels exceeds a certain threshold, that is, the person in the image is If the motion is large, an initial contour is set from the difference image.If the number of pixels is lower than the threshold, that is, if the motion of the person in the image is small, the contour of the previous frame is set as the initial contour. Is what you do.

【0049】なお、第3の実施の形態における、それぞ
れの初期輪郭の設定に関する説明は、前述した第1およ
び第2の実施の形態で説明した通りであるが、図7に示
すフローチャートおよび図8に示す実際の画像による処
理例を参照して全体的な処理について簡単に説明する。
The description of the setting of the respective initial contours in the third embodiment is the same as that described in the first and second embodiments described above. The overall processing will be briefly described with reference to processing examples using actual images shown in FIG.

【0050】まず、ステップS1にて、人物の上半身を
含む画像を取込み、ステップS2にて、この取込んだ画
像の差分画像を生成する。次に、ステップS3にて、こ
の差分画像を2値化することによりエッジ画像(2値画
像)を生成する。
First, in step S1, an image including the upper body of a person is captured, and in step S2, a difference image of the captured image is generated. Next, in step S3, the difference image is binarized to generate an edge image (binary image).

【0051】次に、ステップS4にて、このエッジ画像
に基づき、入力画像中の人物が動いているか否かをチェ
ックし、人物が動いていれば(人物の動きが大きい場
合)、前述した第1の実施の形態と同様な初期輪郭の設
定処理を行ない、人物が動いていなければ(人物の動き
が小さい場合)、前述した第2の実施の形態と同様な初
期輪郭の設定処理を行なう。
Next, in step S4, based on this edge image, it is checked whether or not a person in the input image is moving. If the person is moving (when the person's movement is large), the above-described first step is performed. An initial contour setting process similar to that of the first embodiment is performed. If the person is not moving (when the motion of the person is small), an initial contour setting process similar to that of the second embodiment is performed.

【0052】すなわち、ステップS4において、人物が
動いていれば(人物の動きが大きい場合)、ステップS
5に進み、ステップS2で生成された差分画像に対して
複数の制御点を配置する。次に、ステップS6にて、輪
郭探索を行ない、ステップS7にて、ラベリング処理を
行なう。次に、ステップS8にて、輪郭線画像を表示
し、処理を終了する。
That is, in step S4, if the person is moving (when the person moves greatly), step S4 is executed.
Proceeding to step 5, a plurality of control points are arranged on the difference image generated in step S2. Next, a contour search is performed in step S6, and a labeling process is performed in step S7. Next, in step S8, an outline image is displayed, and the process ends.

【0053】一方、ステップS4において、人物が動い
ていなければ(人物の動きが小さい場合)、ステップS
9に進み、前のフレームで輪郭線が人物方向に侵入して
いると判断されたか否かをチェックする。このチェック
の結果、前のフレームで輪郭線が人物方向に侵入してい
ると判断された場合、ステップS10にて、前フレーム
の輪郭線形状に対して複数の制御点を配置し、ステップ
S11にて、輪郭探索を行ない、ステップS12にて、
ラベリング処理を行なう。
On the other hand, if it is determined in step S4 that the person is not moving (the person's movement is small),
Proceeding to 9, it is checked whether or not it has been determined in the previous frame that the contour has penetrated in the direction of the person. As a result of this check, if it is determined that the contour has penetrated in the direction of the person in the previous frame, a plurality of control points are arranged with respect to the contour shape of the previous frame in step S10, and the process proceeds to step S11. Then, a contour search is performed, and in step S12,
Perform labeling processing.

【0054】次に、ステップS13にて、人物領域ラベ
ルと前回の人物領域ラベルとの差分画像を生成し、ステ
ップS14にて、輪郭線が人物領域に侵入してきていな
いか否かをチェックする。このチェックの結果、輪郭線
が人物領域に侵入してきていない場合、ステップS8に
て、輪郭線画像を表示し、処理を終了する。上記チェッ
クの結果、輪郭線が人物領域に侵入してきている場合、
処理を終了する。
Next, in step S13, a difference image between the person area label and the previous person area label is generated, and in step S14, it is checked whether or not the contour has entered the person area. If the result of this check is that the contour has not invaded the person area, a contour image is displayed in step S8, and the process ends. As a result of the above check, if the contour line has entered the person area,
The process ends.

【0055】一方、ステップS9において、前のフレー
ムで輪郭線が人物方向に侵入していると判断されなかっ
た場合、ステップS15にて、前回の差分画像から配置
したときの制御点位置に複数の制御点を配置し、ステッ
プS16にて、輪郭探索を行ない、ステップS17に
て、ラベリング処理を行ない、ステップS8にて、輪郭
線画像を表示し、処理を終了する。
On the other hand, if it is not determined in step S9 that the contour line has penetrated in the direction of the person in the previous frame, then in step S15 a plurality of control points are located at the control point positions where they were arranged from the previous difference image. The control points are arranged, a contour search is performed in step S16, a labeling process is performed in step S17, a contour image is displayed in step S8, and the process ends.

【0056】以上説明したように、上記実施の形態によ
れば、連続する画像間の差分画像を利用して初期輪郭を
決定することにより、画像中で動いているのが人物のみ
である場合、生じている差分は人物の動きによるものと
考えられるので、初期輪郭を適切な形状とし、余分な計
算量を削減することによる、処理全体の高速化が図れ
る。
As described above, according to the above-described embodiment, by determining the initial contour using the difference image between successive images, when only a person is moving in the image, Since the generated difference is considered to be caused by the motion of the person, the entire process can be speeded up by setting the initial contour to an appropriate shape and reducing the amount of extra calculation.

【0057】また、動画像という特徴を利用し、前の処
理で抽出することができた輪郭から現時刻での初期輪郭
を決定することにより、効率的な初期輪郭の配置を行な
うことができ、もって余分な計算量を削減することによ
る、処理全体の高速化が図れる。
Further, by utilizing the feature of a moving image and determining the initial contour at the current time from the contour extracted in the previous processing, efficient initial contour arrangement can be performed. Thus, the entire processing can be speeded up by reducing the amount of extra calculation.

【0058】したがって、動画像中からの人物領域の抽
出を迅速かつ高精度に行ない得るものである。
Therefore, the extraction of a person region from a moving image can be performed quickly and with high accuracy.

【0059】また、人物切出しのための初期輪郭の配置
方法を拡張することで、これまで静止画で行なっていた
人物輪郭抽出処理を動画像に対しても拡張適用すること
ができる。
Further, by extending the method of arranging the initial contour for extracting a person, the person contour extraction processing which has been performed on a still image can be extended to a moving image.

【0060】なお、前記実施の形態では、動物体が人物
の場合について説明したが、本発明はこれに限定される
ものでなく、たとえば、動物体が自動車などの車両や人
物以外の動物であっても、同様に適用できる。
In the above embodiment, the case where the moving object is a person has been described. However, the present invention is not limited to this. For example, the moving object may be a vehicle such as an automobile or an animal other than a person. However, the same can be applied.

【0061】[0061]

【発明の効果】以上詳述したように本発明によれば、余
分な計算量を削減できて、処理全体の高速化が図れ、動
画像中からの動物体領域の抽出を迅速かつ高精度に行な
い得る動物体輪郭抽出方法を提供できる。
As described above in detail, according to the present invention, the amount of extra calculation can be reduced, the entire processing can be speeded up, and the extraction of the moving object region from the moving image can be performed quickly and accurately. A method of extracting a contour of a moving object that can be performed can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る動物体輪郭抽出方法が適用される
動物体輪郭抽出装置の構成を概略的に示すブロック図。
FIG. 1 is a block diagram schematically showing a configuration of a moving object contour extracting apparatus to which a moving object contour extracting method according to the present invention is applied.

【図2】人物の頭頂位置を検出する処理を説明するため
の図。
FIG. 2 is a diagram illustrating a process of detecting a top position of a person.

【図3】人物の左右位置を検出する処理を説明するため
の図。
FIG. 3 is a view for explaining processing for detecting the left and right positions of a person.

【図4】輪郭抽出用の初期輪郭形状の決定を説明するた
めの図。
FIG. 4 is a view for explaining determination of an initial contour shape for contour extraction.

【図5】前フレームでの輪郭線抽出結果を利用して次フ
レームでの初期輪郭の決定を説明するための図。
FIG. 5 is a view for explaining determination of an initial contour in a next frame using a result of extracting a contour in a previous frame;

【図6】制御点の移動に関する説明図。FIG. 6 is an explanatory diagram regarding movement of a control point.

【図7】画像中からの人物輪郭抽出処理を説明するため
のフローチャート。
FIG. 7 is a flowchart for explaining a person contour extraction process from an image.

【図8】実際の画像による処理例を説明するための図。FIG. 8 is a diagram for explaining a processing example using an actual image.

【符号の説明】[Explanation of symbols]

11…撮像部 12…A/D変換部 13…画像記憶部 14…人物領域抽出部 15…抽出結果表示部 16…頭頂部 DESCRIPTION OF SYMBOLS 11 ... Imaging part 12 ... A / D conversion part 13 ... Image storage part 14 ... Person area extraction part 15 ... Extraction result display part 16 ... Top part

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 動物体を含む動画像中から動物体領域を
抽出するものにおいて、 動物体を含む画像を連続的に入力するステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像から動物体の位置を検出し、そ
の位置を基に動物体の初期輪郭を決定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら動物体領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
1. A method for extracting a moving object region from a moving image including a moving object, comprising: continuously inputting an image including a moving object; Generating a difference image, detecting a position of the moving object from the generated difference image, and determining an initial contour of the moving object based on the position, and inputting the input image based on the determined initial contour. Extracting a moving object region from the obtained image.
【請求項2】 動物体を含む動画像中から動物体領域を
抽出するものにおいて、 動物体を含む画像を連続的に入力するステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像から動物体の位置を検出し、そ
の位置を基に動物体の初期輪郭を決定するステップと、 現時刻での初期輪郭を決定する際、それよりも前の時刻
で決定された初期輪郭に基づき現時刻での初期輪郭を決
定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら動物体領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
2. A method for extracting a moving object region from a moving image including a moving object, comprising: continuously inputting an image including a moving object; Generating a difference image of the moving object; detecting a position of the moving object from the generated difference image; determining an initial contour of the moving object based on the position; and determining an initial contour at the current time. Determining an initial contour at the current time based on the initial contour determined at an earlier time; and extracting a moving object region from the input image based on the determined initial contour. A method for extracting a contour of a moving object, comprising:
【請求項3】 動物体を含む動画像中から動物体領域を
抽出するものにおいて、 動物体を含む画像を連続的に入力するステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像を2値化することにより、前記
入力された画像中の動物体に動きがあるか否かを判定す
るステップと、 この判定により動物体に大きな動きがある場合、前記生
成された差分画像から動物体の位置を検出し、その位置
を基に動物体の初期輪郭を決定し、動物体に大きな動き
がない場合、それよりも前の時刻に決定された初期輪郭
に基づき現時刻での初期輪郭を決定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら動物体領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
3. A method for extracting a moving object region from a moving image including a moving object, the method comprising: continuously inputting an image including a moving object; Generating a difference image of the following; and binarizing the generated difference image to determine whether the moving object in the input image has a motion. When there is a large movement, the position of the moving object is detected from the generated difference image, and the initial contour of the moving object is determined based on the position. Determining an initial contour at the current time based on the initial contour determined at the time, and extracting a moving object region from the input image based on the determined initial contour. Do Moving body contour extraction method.
【請求項4】 人物を含む動画像中から人物領域を抽出
するものにおいて、人物を含む画像を連続的に入力する
ステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像から人物の位置を検出し、その
位置を基に人物の初期輪郭を決定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら人物領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
4. A method for extracting a person region from a moving image including a person, wherein the image including the person is continuously input, and a difference image between a plurality of the temporally continuous input images is provided. Generating an image, detecting a position of a person from the generated difference image, and determining an initial contour of the person based on the position; and calculating a person from the input image based on the determined initial outline. Extracting a region; and a method for extracting a contour of a moving object, comprising:
【請求項5】 人物を含む動画像中から人物体領域を抽
出するものにおいて、 人物を含む画像を連続的に入力するステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像から人物の位置を検出し、その
位置を基に人物の初期輪郭を決定するステップと、 現時刻での初期輪郭を決定する際、それよりも前の時刻
で決定された初期輪郭に基づき現時刻での初期輪郭を決
定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら人物領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
5. A method for extracting a human body region from a moving image including a person, comprising the steps of: continuously inputting an image including a person; and calculating a difference between the input temporally continuous images. Generating an image; detecting a position of the person from the generated difference image; and determining an initial contour of the person based on the position; and determining an initial contour at the current time. Determining an initial contour at the current time based on the initial contour determined at a previous time; and extracting a person region from the input image based on the determined initial contour. The moving object contour extraction method
【請求項6】 人物を含む動画像中から人物領域を抽出
するものにおいて、人物を含む画像を連続的に入力する
ステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像から人物の肩および頭頂部の位
置を検出し、それらの位置を基準にして人物領域の外側
に初期輪郭を設定するステップと、 この設定された初期輪郭に基づき前記入力された画像か
ら人物領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
6. A method for extracting a person region from a moving image including a person, wherein a step of continuously inputting an image including a person is performed, and a difference image between the input temporally continuous images. And detecting the positions of the shoulders and the crown of the person from the generated difference image, and setting an initial contour outside the person region based on those positions. Extracting a person region from the input image based on an outline.
【請求項7】 人物を含む動画像中から人物領域を抽出
するものにおいて、 人物を含む画像を連続的に入力するステップと、 この入力された時間的に連続的する複数の画像間の差分
画像を生成するステップと、 この生成された差分画像を2値化することにより、前記
入力された画像中の人物に動きがあるか否かを判定する
ステップと、 この判定により人物に大きな動きがある場合、前記生成
された差分画像から人物の位置を検出し、その位置を基
に人物の初期輪郭を決定し、人物に大きな動きがない場
合、それよりも前の時刻に決定された初期輪郭に基づき
現時刻での初期輪郭を決定するステップと、 この決定された初期輪郭に基づき前記入力された画像か
ら人物領域を抽出するステップと、 からなることを特徴とする動物体輪郭抽出方法。
7. A method for extracting a person region from a moving image including a person, comprising the steps of: continuously inputting an image including a person; and a differential image between a plurality of the temporally continuous inputted images. Generating, and binarizing the generated difference image to determine whether or not the person in the input image has a motion. In the case, the position of the person is detected from the generated difference image, and the initial contour of the person is determined based on the position.If the person does not move significantly, the initial contour determined at a time earlier than that is determined. Determining an initial contour at the current time based on the current time, and extracting a human region from the input image based on the determined initial contour. .
JP11212282A 1999-07-27 1999-07-27 Moving object contour extracting method Pending JP2001043381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11212282A JP2001043381A (en) 1999-07-27 1999-07-27 Moving object contour extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11212282A JP2001043381A (en) 1999-07-27 1999-07-27 Moving object contour extracting method

Publications (1)

Publication Number Publication Date
JP2001043381A true JP2001043381A (en) 2001-02-16

Family

ID=16620029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11212282A Pending JP2001043381A (en) 1999-07-27 1999-07-27 Moving object contour extracting method

Country Status (1)

Country Link
JP (1) JP2001043381A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259987A (en) * 2001-03-06 2002-09-13 Sony Corp Image processing device and method, storage medium and computer program
KR20050080995A (en) * 2004-02-12 2005-08-18 주식회사 유빅스시스템 Method for live separating speaker and background at television telephone
JP2011077836A (en) * 2009-09-30 2011-04-14 Nec Casio Mobile Communications Ltd Electronic equipment, image processing method and program
KR101440620B1 (en) * 2008-02-01 2014-09-17 삼성전자주식회사 Method and apparatus for estimation of object boundaries in moving picture
JP2015060366A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Image processor, image processing method and program
WO2018134979A1 (en) * 2017-01-20 2018-07-26 三菱電機株式会社 Image processing device, image processing method, and image processing program
CN116228849A (en) * 2023-05-08 2023-06-06 深圳市思傲拓科技有限公司 Navigation mapping method for constructing machine external image

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259987A (en) * 2001-03-06 2002-09-13 Sony Corp Image processing device and method, storage medium and computer program
JP4622120B2 (en) * 2001-03-06 2011-02-02 ソニー株式会社 Image processing apparatus and method, storage medium, and computer program
KR20050080995A (en) * 2004-02-12 2005-08-18 주식회사 유빅스시스템 Method for live separating speaker and background at television telephone
KR101440620B1 (en) * 2008-02-01 2014-09-17 삼성전자주식회사 Method and apparatus for estimation of object boundaries in moving picture
JP2011077836A (en) * 2009-09-30 2011-04-14 Nec Casio Mobile Communications Ltd Electronic equipment, image processing method and program
JP2015060366A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Image processor, image processing method and program
US9384558B2 (en) 2013-09-18 2016-07-05 Casi Computer Co., Ltd. Image processing device for performing image segmentation processing
WO2018134979A1 (en) * 2017-01-20 2018-07-26 三菱電機株式会社 Image processing device, image processing method, and image processing program
JPWO2018134979A1 (en) * 2017-01-20 2019-01-24 三菱電機株式会社 Image processing apparatus, image processing method, and image processing program
CN116228849A (en) * 2023-05-08 2023-06-06 深圳市思傲拓科技有限公司 Navigation mapping method for constructing machine external image
CN116228849B (en) * 2023-05-08 2023-07-25 深圳市思傲拓科技有限公司 Navigation mapping method for constructing machine external image

Similar Documents

Publication Publication Date Title
EP3540637A1 (en) Neural network model training method, device and storage medium for image processing
US5471535A (en) Method for detecting a contour of a given subject to be separated from images and apparatus for separating a given subject from images
JP4049831B2 (en) Object contour image detection / thinning apparatus and method
US8300101B2 (en) Image processing method, image processing system, image pickup device, image processing device and computer program for manipulating a plurality of images
JP3561985B2 (en) Image processing device
JP3035920B2 (en) Moving object extraction device and moving object extraction method
CN109598223A (en) Method and apparatus based on video acquisition target person
JP4156084B2 (en) Moving object tracking device
JP2000011145A (en) Lipstick color converting system
JP2002522836A (en) Still image generation method and apparatus
JP2001043381A (en) Moving object contour extracting method
CN111583357A (en) Object motion image capturing and synthesizing method based on MATLAB system
JP3038051B2 (en) Video region extraction device
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
US7372994B2 (en) Image processing device for recognizing outline of moving target and method therefor
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
JP4049116B2 (en) Image processing device
JP2806666B2 (en) Schematic image creation method and device
JPH07334648A (en) Method and device for processing image
JP3264121B2 (en) Object recognition method
JP2754937B2 (en) Schematic image creation method and device
JPH10105689A (en) Moving body movement detector
JPH0855220A (en) System and method for moving body extraction processing
KR101631023B1 (en) Neighbor-based intensity correction device, background acquisition device and method thereof
CN114078139B (en) Image post-processing method based on human image segmentation model generation result