JP2011227909A - Image separation device, image separation method, and image separation program - Google Patents

Image separation device, image separation method, and image separation program Download PDF

Info

Publication number
JP2011227909A
JP2011227909A JP2011121264A JP2011121264A JP2011227909A JP 2011227909 A JP2011227909 A JP 2011227909A JP 2011121264 A JP2011121264 A JP 2011121264A JP 2011121264 A JP2011121264 A JP 2011121264A JP 2011227909 A JP2011227909 A JP 2011227909A
Authority
JP
Japan
Prior art keywords
image
foreground
background
pixel
separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011121264A
Other languages
Japanese (ja)
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011121264A priority Critical patent/JP2011227909A/en
Publication of JP2011227909A publication Critical patent/JP2011227909A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately separate a foreground and a background in an image, while reducing a work load and work time of a user.SOLUTION: An image separation device is a device for separating an image into a foreground and a background. The image separation device comprises data input means for inputting the image and storing the image in storage means; separation means for defining F as a foreground image shade value and B as a background image shade value when image shade values (or luminance) of the foreground and the background are defined as I, and defines α as a decimal number concerning α blending, minimizing a target function under a prescribed restriction condition, acquiring unknown α, F, and B by pixel unit, determining whether a pixel is the pixel of the foreground or background through the use of the image shade values of F and B acquired by pixel unit, and separating the foreground and the background; and display means for displaying the separated background and foreground respectively.

Description

本発明は、画像に含まれる前景と背景とを分離する技術に関する。   The present invention relates to a technique for separating a foreground and a background included in an image.

1枚の画像の中から、当該画像を構成する前景(興味の対象、物体)と背景とを抽出す
る場合、例えば非特許文献1などの画像編集ツールを用いて手作業で対象となる前景の画
像を分離抽出することが行われている。
“Photoshop”、[online]、[平成20年9月12日検索]、イ ンターネット<URL: http://web.kyoto-inet.or.jp/people/hikeda/justnet/smu/ind ex.html>
When extracting the foreground (object of interest, object) and the background constituting the image from one image, for example, using the image editing tool such as Non-Patent Document 1, for example, Separating and extracting images is performed.
“Photoshop”, [online], [Search September 12, 2008], Internet <URL: http://web.kyoto-inet.or.jp/people/hikeda/justnet/smu/ind ex. html>

上記のような画像編集ツールを用いる場合、ユーザは、抽出対象である前景の輪郭を手
作業で指定・設定する。そのため、抽出対象の輪郭が煙や毛のように細かくまたは不明瞭
な場合、前景と背景を適切に分離することは困難であるとともに、ユーザの作業負荷が大
きく、またユーザの熟練した技術や経験が必要となる。
When using the image editing tool as described above, the user manually designates / sets the outline of the foreground to be extracted. Therefore, when the outline of the extraction target is fine or unclear, such as smoke or hair, it is difficult to properly separate the foreground and the background, and the user's work load is heavy, and the user's skilled skills and experience Is required.

また、動画において、前景と背景とを分離抽出し、分離抽出した前景を別のシーンの背
景と合成して新しい動画を創り出すことも行われている。動画は複数の画像フレームから
構成され、画像フレーム毎に抽出対象の輪郭を手作業で指定するため、動画の場合、数日
以上かけて分離抽出作業が行われている。
In addition, a foreground and a background are separated and extracted from a moving image, and a new moving image is created by combining the separated and extracted foreground with a background of another scene. A moving image is composed of a plurality of image frames, and the contour to be extracted is manually specified for each image frame. Therefore, in the case of a moving image, separation and extraction work is performed over several days or more.

本発明は上記事情に鑑みてなされたものであり、本発明の目的は、ユーザの作業負荷お
よび作業時間を軽減しつつ、画像の前景と背景を適切に分離することにある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to appropriately separate the foreground and background of an image while reducing the work load and work time of the user.

本発明は、画像を前景と背景に分離するための画像分離装置であって、
画像を入力し、記憶手段に記憶するデータ入力手段と、
前景および背景の画像濃淡値(または輝度)をIとした場合、Fを前景の画像濃淡値、Bは背景の画像濃淡値、αは、αブレンディングに関する小数として、
The present invention is an image separation device for separating an image into a foreground and a background,
Data input means for inputting an image and storing it in a storage means;
If the foreground and background image intensity values (or luminance) are I, F is the foreground image intensity value, B is the background image intensity value, α is the fractional value for α blending,

で表現して、1枚の画像を構成する画素単位ごとに生成し、
式(1)から、
To generate for each pixel unit constituting one image,
From equation (1)

を生成して、     Generate

を拘束条件として最小化し、
目的関数
As a constraint,
Objective function

式(9)Formula (9)

を生成し、当該目的関数を   And the objective function is

式(10)Formula (10)

eは未知数α、F、Bであり、それぞれの変数について偏微分して、未知数α、F、Bを画素単位に取得し、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する分離手段と、
前記分離した背景と前景とをそれぞれ表示する表示手段と、を有する。
e is the unknowns α, F, and B. Partial differentiation is performed for each variable to obtain the unknowns α, F, and B in units of pixels, and the F and B image grayscale values that are acquired in units of pixels are used. Separating means for determining whether the pixel is a foreground pixel or a background pixel and separating the foreground and the background;
Display means for displaying the separated background and foreground, respectively.

また、本発明は、画像分離装置が行う、画像を前景と背景に分離するための画像分離方法であって、
画像を入力し、記憶手段に記憶するデータ入力ステップと、
前景および背景の画像濃淡値(または輝度)をIとした場合、Fを前景の画像濃淡値、Bは背景の画像濃淡値、αは、αブレンディングに関する小数として、
Further, the present invention is an image separation method for separating an image into a foreground and a background performed by an image separation device,
A data input step of inputting an image and storing it in a storage means;
If the foreground and background image intensity values (or luminance) are I, F is the foreground image intensity value, B is the background image intensity value, α is the fractional value for α blending,

で表現して、1枚の画像を構成する画素単位ごとに生成し、
式(1)から、
To generate for each pixel unit constituting one image,
From equation (1)

を生成して、     Generate

を拘束条件として最小化し、
目的関数
As a constraint,
Objective function

式(9)Formula (9)

を生成し、当該目的関数を   And the objective function is

式(10)Formula (10)

eは未知数α、F、Bであり、それぞれの変数について偏微分して、未知数α、F、Bを画素単位に取得し、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する分離ステップと、
前記分離した背景と前景とをそれぞれ表示する表示ステップと、を行う。
e is the unknowns α, F, and B. Partial differentiation is performed for each variable to obtain the unknowns α, F, and B in units of pixels, and the F and B image grayscale values that are acquired in units of pixels are used. A separation step of determining whether the pixel is a foreground pixel or a background pixel and separating the foreground and the background;
Displaying the separated background and foreground, respectively.

また、本発明は、前記画像分離方法をコンピュータに実行させる時空間画像分離プログ
ラムである。
The present invention is also a spatio-temporal image separation program that causes a computer to execute the image separation method.

本発明によれば、ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を
適切に分離することができる。
According to the present invention, it is possible to appropriately separate the foreground and the background of an image while reducing the user's workload and working time.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1は、本発明の実施形態に係る画像分離装置の概略構成図である。本実施形態の画像
分離装置は、画像濃淡値(輝度)Iが、前景Fと背景Bとがある比率αで合成されたI=
αF+(1−α)Bであるとする画像モデルにおいて、F、B、αを推定することを目的
とした目的関数を生成し、当該目的関数を解析することにより、画像を前景と背景に分離
抽出する。なお、前景は、興味の対象となるものである。
FIG. 1 is a schematic configuration diagram of an image separation apparatus according to an embodiment of the present invention. In the image separation apparatus according to the present embodiment, an image gray value (luminance) I is synthesized by combining a foreground F and a background B at a certain ratio α.
In an image model that is assumed to be αF + (1−α) B, an objective function for estimating F, B, and α is generated, and the objective function is analyzed to separate the image into the foreground and the background. Extract. Note that the foreground is an object of interest.

図示する画像分離装置は、データ入力部100と、指示受付部110と、画像分離部1
20と、表示部130と、データ蓄積部140と、指示変位部150とを有する。
The illustrated image separation apparatus includes a data input unit 100, an instruction reception unit 110, and an image separation unit 1.
20, a display unit 130, a data storage unit 140, and an instruction displacement unit 150.

データ入力部100は、1枚の画像(静止画像)または時空間画像(動画)を入力し、
記憶手段であるデータ蓄積部140に記憶する。指示受付部110は、画像の前景の一部
に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける。画像分
離部120は、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目
的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、画像を前景と
背景に分離する。表示部130は、分離した背景と前景とをそれぞれ表示する。指示変位
部150は、動画が入力された場合、前後する画像フレーム間の前景および背景の動きを
検出し、第1の画像フレームに対して入力されたユーザの指示を、検出した動きに応じて
変位させて第2の画像フレーム以降に反映させる。
The data input unit 100 inputs one image (still image) or space-time image (moving image),
The data is stored in the data storage unit 140 serving as storage means. The instruction receiving unit 110 receives a user instruction input to a part of the foreground of the image and a user instruction input to a part of the background. The image separation unit 120 generates an objective function using the foreground and background image grayscale values specified by the user as constraints, and analyzes the objective function using the least squares method, thereby converting the image into the foreground and background. To separate. The display unit 130 displays the separated background and foreground, respectively. When the moving image is input, the instruction displacement unit 150 detects the foreground and background movement between the preceding and following image frames, and the user instruction input to the first image frame is determined according to the detected movement. It is displaced and reflected after the second image frame.

上記説明した画像分離装置は、例えば、CPUと、メモリと、外部記憶装置と、入力装
置と、出力装置と、これらの各装置を接続するバスと、を備えた汎用的なコンピュータシ
ステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上に
ロードされた画像分離装置用のプログラムを実行することにより、画像分離装置の各機能
が実現される。なお、画像分離装置のデータ蓄積部140には、メモリまたは外部記憶装
置が用いられる。なお、画像分離装置は、必要に応じて、他の装置と接続するための通信
制御装置を備えることとしてもよい。
The image separation apparatus described above uses, for example, a general-purpose computer system including a CPU, a memory, an external storage device, an input device, an output device, and a bus that connects these devices. Can do. In this computer system, each function of the image separation device is realized by the CPU executing a program for the image separation device loaded on the memory. Note that a memory or an external storage device is used for the data storage unit 140 of the image separation device. Note that the image separation device may include a communication control device for connecting to other devices as necessary.

また、画像分離装置用のプログラムは、ハードディスク、フレキシブルディスク、CD
−ROM、MOなどのコンピュータ読み取り可能な記録媒体に記憶すること、または、ネ
ットワークを介して配信することも可能である。
Also, the program for the image separation device is a hard disk, a flexible disk, a CD
-It can be stored in a computer-readable recording medium such as ROM, MO, or distributed via a network.

次に、画像を前景と背景に分離する方法について説明する。   Next, a method for separating an image into a foreground and a background will be described.

図2は、画像の分離処理のフローチャートである。まず、データ入力部100は、カメ
ラまたなネットワークを介して1枚の画像(静止画像)または時空間画像を入力し、デー
タ蓄積部140に格納する(S11)。時空間画像は、時系列に連続する複数の画像フレ
ーム(映像フレーム)から構成される動画データである。
FIG. 2 is a flowchart of image separation processing. First, the data input unit 100 inputs a single image (still image) or a spatio-temporal image via a camera or a network and stores it in the data storage unit 140 (S11). A spatiotemporal image is moving image data composed of a plurality of image frames (video frames) continuous in time series.

そして、指示受付部110は、データ蓄積部140に格納された画像を読み出し、出力
装置に表示する。データ蓄積部140に格納された画像が時空間画像の場合は、指示受付
部110は、1枚目(先頭)の画像フレームを出力装置に表示する。
The instruction receiving unit 110 reads out the image stored in the data storage unit 140 and displays it on the output device. When the image stored in the data storage unit 140 is a spatiotemporal image, the instruction receiving unit 110 displays the first (first) image frame on the output device.

ユーザは、出力装置に表示された画像に、マウスやキーボードなどの入力装置を用いて
、インタラクティブに前景と背景の領域を指定(定義)する。そして、指示受付部110
は、ユーザの指示を受け付ける(S12)。なお、指示受付部110には、一般的な画像
編集ルーツを用いることが考えられる。
The user interactively designates (defines) the foreground and background areas on the image displayed on the output device by using an input device such as a mouse or a keyboard. Then, the instruction receiving unit 110
Accepts a user instruction (S12). It is possible to use general image editing roots for the instruction receiving unit 110.

図3は、画像に入力されたユーザの指示の一例と、前景と背景に分離抽出された結果を
示す図である。
FIG. 3 is a diagram illustrating an example of a user instruction input to an image and a result of separation and extraction into a foreground and a background.

ユーザは、マウスなどを用いて、表示された画像200の前景の領域201の一部に任
意の線(曲線または直線)202を入力するとともに、背景の領域の一部に任意の線20
3を入力する。そして、後述する処理により、画像200は、背景のみの画像210と、
前景のみの画像220に分離される。
Using a mouse or the like, the user inputs an arbitrary line (curve or straight line) 202 to a part of the foreground area 201 of the displayed image 200, and an arbitrary line 20 to a part of the background area.
Enter 3. Then, by processing described later, the image 200 is converted into an image 210 with only a background,
The image is separated into the foreground-only image 220.

そして、画像分離部120は、後述する処理により、データ蓄積部140に格納された
画像を、前景と背景に分離する(S13)。すなわち、画像分離部120は、画像を構成
する各画素について、前景の画素であるか背景の画素であるかを判別する。表示部130
は、分離された前景(前景と判別された画素)と、背景(背景と判別された画素)を、そ
れぞれ表示装置に表示する(S14)。また、表示部130は、分離した前景と背景を、
分離する前の元の画像と対応付けてデータ蓄積部140に記憶する。
Then, the image separation unit 120 separates the image stored in the data storage unit 140 into the foreground and the background by a process described later (S13). In other words, the image separation unit 120 determines whether each pixel constituting the image is a foreground pixel or a background pixel. Display unit 130
Displays the separated foreground (pixels determined to be the foreground) and the background (pixels determined to be the background) on the display device (S14). In addition, the display unit 130 displays the separated foreground and background.
The data is stored in the data storage unit 140 in association with the original image before separation.

そして、指示変位部150は、S11で入力され記憶された画像に、次の画像フレーム
があるか否かを(すなわち、動画であるか否か)を判別する(S15)。指示変位部15
0は、入力した画像のファイル番号・フレーム番号や、画像の属性などから、静止画であ
るのか、時系列に連続する動画であるのかを判別する。入力された画像が1枚の静止画で
ある場合(S15:NO)は、処理を終了する。
Then, the instruction displacement unit 150 determines whether or not the image input and stored in S11 includes the next image frame (that is, whether or not it is a moving image) (S15). Instruction displacement part 15
0 determines whether the image is a still image or a time-series moving image from the file number / frame number of the input image, the attribute of the image, and the like. If the input image is a single still image (S15: NO), the process ends.

一方、入力された画像が動画であって、次の画像フレームが存在する場合(S15:Y
ES)、指示変位部150は、S12で入力されたユーザの指示(図3参照)を、2枚目
の画像フレームに反映(コピー)する(S16)。
On the other hand, when the input image is a moving image and the next image frame exists (S15: Y
ES), the instruction displacement unit 150 reflects (copies) the user instruction (see FIG. 3) input in S12 in the second image frame (S16).

ここで、前景および背景が、時空間的に変化している場合がある。そのため、指示変位
部150は、分離処理済みの画像フレーム(ここでは1枚目の画像フレーム)と、次の時
刻の画像フレーム(ここでは2枚目の画像フレーム)の2枚の画像フレームを用いて、動
き推定法により画像の動きを取得する。動き推定法には、オプティカルフロー、相互相関
法などを用いることができる。指示変位部150は、取得した画像の動きに基づいて、ユ
ーザが前景および背景として定義した線の位置および形状を時空間的に変位(移動、変形
)させて、2枚目の画像フレームに設定する。
Here, the foreground and background may change in time and space. Therefore, the instruction displacement unit 150 uses two image frames, that is, an image frame that has undergone separation processing (here, the first image frame) and an image frame at the next time (here, the second image frame). Then, the motion of the image is acquired by the motion estimation method. As the motion estimation method, an optical flow, a cross-correlation method, or the like can be used. The instruction displacement unit 150 displaces (moves, deforms) the position and shape of the line defined by the user as the foreground and background based on the acquired image movement, and sets the line in the second image frame. To do.

そして、S13に戻り、2枚目の画像フレームを前景と背景に分離し、分離した前景と
背景をそれぞれ表示し、データ蓄積部140に記憶する(S14)。そして、次の画像フ
レームが存在するか否かを判別し、全ての画像フレームについて、以降の処理を繰り返し
行う。
Then, returning to S13, the second image frame is separated into the foreground and background, and the separated foreground and background are displayed and stored in the data storage unit 140 (S14). Then, it is determined whether or not the next image frame exists, and the subsequent processing is repeated for all the image frames.

図4は、動画を前景と背景に分離する処理を模式的に示した図である。   FIG. 4 is a diagram schematically showing processing for separating a moving image into a foreground and a background.

図4には、前景と背景を指定したユーザの指示401、402が入力された1枚目の画
像フレーム400が示されている。また、図5には、複数の画像フレームから構成される
動画410と、画像フレーム毎に分離された前景420と背景430とが示されている。
ここで、分離された前景420からわかるように、前景は、時間とともに変形および移動
している。
FIG. 4 shows a first image frame 400 in which user instructions 401 and 402 specifying the foreground and background are input. FIG. 5 also shows a moving image 410 composed of a plurality of image frames, and a foreground 420 and a background 430 separated for each image frame.
Here, as can be seen from the separated foreground 420, the foreground is deformed and moved over time.

ここで、指示変位部150は、1枚目の画像フレーム411と、2枚目の画像フレーム
412との間で、オプティカルフローや相互相関法などの動き推定法により、前景の変位
を検出する。そして、指示変位部150は、検出した変位に基づいて、1枚目の画像フレ
ーム400に入力されたユーザの指示401、402を、413に示すように変形および
移動させて、2枚目の画像フレームに設定(反映)する。3枚目の画像フレームについて
は、2枚目の画像フレームと3枚目の画像フレームとの間の動きを検出し、当該動きに基
づいて2枚目の画像フレームに設定されたユーザ指示を変位させて設定する。これにより
、ユーザは、1枚目の画像フレームに、前景と背景の指示を入力するだけで、全ての画像
フレームにユーザの指示が自動的に反映される。
Here, the instruction displacement unit 150 detects the displacement of the foreground between the first image frame 411 and the second image frame 412 by a motion estimation method such as an optical flow or a cross-correlation method. Then, based on the detected displacement, the instruction displacement unit 150 deforms and moves the user instructions 401 and 402 input to the first image frame 400 as indicated by 413 to move the second image. Set (reflect) in the frame. For the third image frame, the motion between the second image frame and the third image frame is detected, and the user instruction set for the second image frame is displaced based on the motion. To set. Thus, the user simply inputs the foreground and background instructions to the first image frame, and the user instructions are automatically reflected in all the image frames.

次に、S13の画像分離部120の処理、すなわち1枚の画像から、前景と背景を分離
抽出する方法について説明する。なお、この方法は、マッティング(matting)法とも呼ば
れている。
Next, the process of the image separation unit 120 in S13, that is, a method for separating and extracting the foreground and the background from one image will be described. This method is also called a matting method.

まず、1枚の画像モデルとして、前景と背景の2つの対象がそれぞれある比率で合成さ
れたものとする。これは数式表現として、画素の濃淡値(または輝度)をIとした場合、
以下の式(1)で表現することができる。
First, it is assumed that two objects, foreground and background, are combined at a certain ratio as one image model. This is expressed as a mathematical expression when the gray value (or luminance) of a pixel is I,
It can be expressed by the following formula (1).

Fは前景の画像濃淡値で、Bは背景の画像濃淡値である。αは、αブレンディングに関
する小数であり、0.0から1.0の範囲にある。式(1)は、1枚の画像を構成する画素単位
ごとに生成される。
F is the foreground image intensity value, and B is the background image intensity value. α is a decimal for α blending and is in the range of 0.0 to 1.0. Expression (1) is generated for each pixel unit constituting one image.

本実施形態では、1枚の画像を与えたときに、画素毎にF、B、小数αを推定し、前景
と背景とを分離とすることを目的とする。この推定には、以下に示す4つの方法がある。
第1のおよび第2の方法は、S12でユーザが指定した前景および背景の情報を用い、一
方、第3および第4の方法は、S12でユーザが指定した前景および背景の情報を用いな
い。第3および第4方法を用いる場合は、S12、S16の処理を省略することができる
。分離する画像に応じて、どの方法を用いるかをあらかじめ決めておくものとする。
[第1の方法]
まず、αを画素の画像濃淡値Iの一次線形関数で近似できるものと仮定した画像モデル
を考える。この画像モデルの場合、αは以下の式(2)のように表現できる。また、前景
と背景は、テクスチャが少ない比較的滑らかな画像(空間微分が小さい)であると仮定す
る。
In the present embodiment, when one image is given, an object is to estimate F, B, and decimal number α for each pixel and separate the foreground and the background. There are the following four methods for this estimation.
The first and second methods use the foreground and background information specified by the user in S12, while the third and fourth methods do not use the foreground and background information specified by the user in S12. When the third and fourth methods are used, the processes of S12 and S16 can be omitted. It is assumed that a method to be used is determined in advance according to an image to be separated.
[First method]
First, consider an image model that assumes that α can be approximated by a linear function of the image gray value I of a pixel. In the case of this image model, α can be expressed as the following equation (2). Further, it is assumed that the foreground and the background are relatively smooth images (the spatial differentiation is small) with little texture.

wは、画像の中の小さい領域(窓領域)であって、近傍の画素の集合である。窓の大き
さは「3画素×3画素」〜「5画素×5画素」である。iは、窓領域の中における画素の
位置を示す。
w is a small area (window area) in the image, and is a set of neighboring pixels. The size of the window is “3 pixels × 3 pixels” to “5 pixels × 5 pixels”. i indicates the position of the pixel in the window region.

式(2)の未知数α、a、bを推定するために、以下に示す式(3)の目的関数の最小
化問題に帰着させることができる。
In order to estimate the unknowns α, a, and b in Equation (2), it can be reduced to the objective function minimization problem in Equation (3) shown below.

εは、調整係数であり、前景と背景の画像の滑らかさに応じて、所定の値が設定される
。また、εa の項は、正則化項であり、数値的な不安定性問題を緩和する役割がある
。jは、j番目の窓領域を示す。
ε is an adjustment coefficient, and a predetermined value is set according to the smoothness of the foreground and background images. Further, the term of εa j 2 is a regularization term, and has a role to alleviate the numerical instability problem. j indicates the j-th window region.

しかし、このままでは、aおよびbの目的関数を一意に決定するためには、条件が
不足(under-constraint)しているため、事前知識が必要である。(3)は、α、a、b
についての2次関数であり、N個の画素については、未知数は3N個である。
However, in this state, in order to uniquely determine the objective functions of a j and b j , conditions are insufficient (under-constraint), so prior knowledge is required. (3) is α, a, b
For N pixels, the unknown is 3N.

そのため、拘束条件として、ユーザがマウス操作により任意の曲線として入力した窓領
域jについては、前景として指定した位置の画素の画像濃淡値をFに、また、背景として
指定した位置の画素の画像濃淡値をBに設定(反映)をする。
Therefore, as a constraint condition, for the window region j input by the user as an arbitrary curve by the mouse operation, the image gray value of the pixel at the position designated as the foreground is set to F, and the image gray value of the pixel at the position designated as the background is set. Set (reflect) the value to B.

そして、式(3)を、最小2乗法を用いて解析することにより、画素単位にα、a、b
を取得する。そして、取得したα、a、bを式(2)のただしの部分に代入し、式(2)
のただしの部分の連立方程式を解くことにより画素単位にF、Bを取得する。
Then, by analyzing the expression (3) using the least square method, α, a, b are used for each pixel.
To get. Then, the obtained α, a, and b are substituted into the corresponding part of the equation (2), and the equation (2)
F and B are obtained for each pixel by solving the simultaneous equations of the above portion.

そして、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素
であるか、背景の画素であるかを判別する。例えば、Fの画像濃淡値およびBの画像濃淡
値の少なくとも1つが所定の閾値(例えば10)より小さい画素については背景の画素と
判別し、それ以外の画素については前景の画素であると判別する。
Then, using the F and B image grayscale values acquired in units of pixels, it is determined whether the pixel is a foreground pixel or a background pixel. For example, a pixel in which at least one of the F image gradation value and the B image gradation value is smaller than a predetermined threshold (for example, 10) is determined as a background pixel, and the other pixels are determined as foreground pixels. .

そして、前景と判別した各画素を抽出することにより、図3に示すような前景画像22
0を背景から分離して抽出することができる。また。背景と判別した各画像のみを抽出す
ることにより、図3に示すような前景部分がマスク(黒く表示)された背景画像210の
みを分離抽出することができる。また、前景と背景を分離抽出できるだけでなく、前景と
背景とが重なり合っている領域でのαを推定することができる。
[第2の方法]
前景と背景が滑らかな画像の場合には、前述の第1の方法の式(3)により前景と背景
とを適切に分離抽出することができる。しかしながら、対象(前景)がテクスチャに富ん
でいる場合、輝度の変化が大きく、式(3)の最小二乗法では推定誤差を引き起こす場合
がある。
Then, by extracting each pixel determined to be the foreground, the foreground image 22 as shown in FIG.
0 can be extracted separately from the background. Also. By extracting only each image determined to be the background, only the background image 210 with the foreground part masked (displayed in black) as shown in FIG. 3 can be separated and extracted. In addition to separating and extracting the foreground and background, it is possible to estimate α in the region where the foreground and background overlap.
[Second method]
In the case of an image with a smooth foreground and background, the foreground and the background can be appropriately separated and extracted by the above-described equation (3) of the first method. However, when the object (foreground) is rich in texture, the change in luminance is large, and the least square method of Equation (3) may cause an estimation error.

そのため、第2の方法では、式(3)の代わりに以下の式(4)を適用する。式(4)
は、ロバスト統計学で用いられているロバスト関数ρを用いた非線形最小二乗法の式であ
る。
Therefore, in the second method, the following formula (4) is applied instead of formula (3). Formula (4)
Is an expression of a nonlinear least square method using a robust function ρ used in robust statistics.

ロバスト関数は、以下の式(5)で表現することができ、λは、調整パラメータであっ
て、0.001から0.1の範囲である。
The robust function can be expressed by the following equation (5), where λ is an adjustment parameter and is in the range of 0.001 to 0.1.

式(4)の最小化のための必要条件は以下の式(6)であり、式(4)を共役勾配法な
ど非線形最小二乗法を用いて解析することにより、画素単位にα、a、bを取得すること
ができる。
The necessary condition for minimizing the equation (4) is the following equation (6). By analyzing the equation (4) using a nonlinear least square method such as a conjugate gradient method, α, a, b can be obtained.

そして、取得したα、a、bを式(2)のただしの部分に代入し、式(2)のただしの
部分の連立方程式を解くことにより画素単位にF、Bを取得する。これにより、第1の方
法と同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素
であるか、背景の画素であるかを判別し、前景と背景とを分離する。
Then, the obtained α, a, and b are substituted into the corresponding portion of the equation (2), and the simultaneous equations of the remaining portion of the equation (2) are solved to obtain F and B for each pixel. As a result, the F and B image grayscale values acquired in units of pixels as in the first method are used to determine whether the pixel is a foreground pixel or a background pixel, and the foreground and background. Isolate.

図5は、テクスチャに富んだ前景を有する画像300を、第1の方法と第2の方法で分
離した結果を示す。図5(a)は第1の方法による分離結果で、図5(b)は第2の方法
による分離結果である。
FIG. 5 shows a result of separating an image 300 having a texture-rich foreground by the first method and the second method. FIG. 5A shows the result of separation by the first method, and FIG. 5B shows the result of separation by the second method.

図5(a)の第1の方法では、推定誤差が引き起こされ、前景として分離抽出された画
像310には、背景の一部が含まれている。すなわち、前景と背景とが適切に分離されて
いない。これに対し、図5(b)に示す第2の方法では、ロバスト関数を用いることによ
り、前景330と背景340とが適切に分離されている。すなわち、ロバスト関数を用い
た第2の方法では、テクスチャに富んだ1枚の画像330から、前景330と背景340
を適切に分離抽出することができる。
[第3の方法]
第3の方法は、S12でユーザが指定した前景および背景の情報を用いることなく、前
述の式(1)のみを用いて画像を分離する。
In the first method of FIG. 5A, an estimation error is caused, and the image 310 separated and extracted as the foreground includes a part of the background. That is, the foreground and background are not properly separated. On the other hand, in the second method shown in FIG. 5B, the foreground 330 and the background 340 are appropriately separated by using a robust function. That is, in the second method using the robust function, the foreground 330 and the background 340 are obtained from one image 330 rich in texture.
Can be appropriately separated and extracted.
[Third method]
The third method separates images using only the above-described equation (1) without using the foreground and background information designated by the user in S12.

まず、式(1)から派生して以下の式(7)および式(8)を生成する。   First, the following formulas (7) and (8) are generated from the formula (1).

すなわち、最小化問題の観点から、式(1)から式(7)を容易に導出することができ
る。これにより、関数Vの最小化問題となる。しかし、このままでは条件不足(under-
constraint)問題となっているため、拘束条件が必要となる。そこで、ある画素点pに着
目したとき、滑らかさ条件を課すことが考えられる。そこで、qをpの4点連結近傍点と
して式(8)を生成し、式(8)を最小化する。
That is, from the viewpoint of the minimization problem, Expression (7) can be easily derived from Expression (1). This becomes a minimization problem of the function V 1 . However, this is not enough (under-
constraint), a constraint condition is required. Thus, when focusing on a certain pixel point p, it may be possible to impose a smoothness condition. Therefore, Equation (8) is generated with q as a 4-point connected neighborhood point of p, and Equation (8) is minimized.

そして、式(7)および(8)をまとめて、以下の式(9)の目的関数を得ることがで
きる。
Then, equations (7) and (8) can be put together to obtain the objective function of the following equation (9).

式(9)Formula (9)

ここで、eとfは係数である。式(4)の最小化のための必要条件は、以下の式(10
)である。
Here, e and f are coefficients. The necessary condition for minimizing the equation (4) is the following equation (10
).

式(10)Formula (10)

ここで、eは未知数α、F、Bであり、それぞれの変数について偏微分される。これに
より、未知数α、F、Bを画素単位に取得することができる。これにより、第1の方法と
同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であ
るか、背景の画素であるかを判別し、前景と背景とを分離する。
[第4の方法]
第4の方法では、第3の方法にロバスト関数を適用する。すなわち、第3の方法の式(
7)および式(8)の代わりに、以下の式(11)を適用する。式(11)は、ロバスト
統計学で用いられているロバスト関数ρを用いた非線形最小二乗法の式である。
Here, e is the unknowns α, F, and B, and partial differentiation is performed for each variable. Thereby, the unknowns α, F, and B can be acquired in units of pixels. As a result, the F and B image grayscale values acquired in units of pixels as in the first method are used to determine whether the pixel is a foreground pixel or a background pixel, and the foreground and background. Isolate.
[Fourth method]
In the fourth method, a robust function is applied to the third method. That is, the third method formula (
The following formula (11) is applied instead of 7) and formula (8). Expression (11) is an expression of a nonlinear least square method using a robust function ρ used in robust statistics.

式(11)から以下の式(12)の目的関数を得ることができる。   The objective function of the following formula (12) can be obtained from the formula (11).

ここで、cおよびdは係数である。この式(12)を非線形最小二乗法の枠組みで解く
ことにより、未知数α、F、Bを画素単位に取得することができる。これにより、第1の
方法と同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画
素であるか、背景の画素であるかを判別し、前景と背景とを分離する。
Here, c and d are coefficients. By solving this equation (12) with the framework of the nonlinear least square method, the unknowns α, F, and B can be acquired in units of pixels. As a result, the F and B image grayscale values acquired in units of pixels as in the first method are used to determine whether the pixel is a foreground pixel or a background pixel, and the foreground and background. Isolate.

以上説明した本実施形態では、ユーザが指示した箇所の前景および背景の画像濃淡値を
拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することによ
り、ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を適切に分離する
ことができる。また、本実施形態では、画像の画像濃淡値Iが、前景Fと背景Bとがある
比率αで合成されたものであるとする画像モデルにおいて、F、B、αを推定することを
目的とした目的関数を生成し、当該目的関数を解析することにより、前景(対象)の輪郭
が細かい毛や細い線で構成されている場合であっても、画像を前景と背景に分離すること
ができる。
In the present embodiment described above, an objective function is generated using the foreground and background image grayscale values at a location designated by the user as a constraint condition, and the objective function is analyzed using the least square method, whereby the user's workload In addition, the foreground and the background of the image can be appropriately separated while reducing the work time. In addition, in the present embodiment, an object is to estimate F, B, and α in an image model in which an image gray value I of an image is synthesized with a foreground F and a background B at a certain ratio α. By generating the objective function and analyzing the objective function, the image can be separated into the foreground and the background even when the outline of the foreground (target) is composed of fine hairs or thin lines. .

また、本実施形態では、目的関数の拘束条件として近傍の画素における推定値の類似性
が高いという目的関数(式(4))を生成し、最小値問題として解析することにより、画
像の前景と背景を適切に分離することができる。
Further, in the present embodiment, an object function (equation (4)) that the similarity of estimated values in neighboring pixels is high is generated as a constraint condition of the object function, and is analyzed as a minimum value problem. The background can be properly separated.

また、本実施形態では、ロバスト関数を用いることにより、テクスチャに富んだ画像か
ら、前景と背景を適切に分離抽出することができる。
Further, in the present embodiment, by using a robust function, the foreground and the background can be appropriately separated and extracted from an image rich in texture.

また、本実施形態では、複数の画像フレームから構成される動画の場合であっても、画
像フレーム毎に前景と背景とを分離することができる。これにより、ユーザが手作業で分
離する場合と比べ、作業負荷および分離作業に要する時間が大幅に軽減される。
In the present embodiment, the foreground and the background can be separated for each image frame even in the case of a moving image composed of a plurality of image frames. Thereby, compared with the case where the user separates manually, the workload and the time required for the separation work are greatly reduced.

本実施形態では、画像フレーム間での前景および背景の動きを検出し、当該動きに対応
して、ユーザが1枚目の画像フレームに入力したユーザの指示を変位(移動・変形)させ
て、2枚目以降の画像フレームに逐次適用(反映)する。これにより、ユーザは一度指示
するだけで、自動的に全ての画像フレームが前景と背景に分離される。また、前景や背景
が変形移動する場合であっても、適切に前景と背景を分離することができる。
In the present embodiment, the foreground and background motion between the image frames is detected, and in response to the motion, the user's instruction input to the first image frame is displaced (moved / deformed), Sequentially applied (reflected) to the second and subsequent image frames. As a result, all the image frames are automatically separated into the foreground and the background with only one instruction from the user. Further, even when the foreground and the background are deformed and moved, the foreground and the background can be appropriately separated.

なお、前景(対象)の運動がバネのように振動運動している既知の物理現象の場合は、
動き推定された結果を弾性方式により補正することで、より精度の高い動き推定を行い、
この動き推定により、前景が振幅運動している場合であっても適正に前景と背景を分離す
ることができる。
In the case of a known physical phenomenon in which the foreground (target) motion is oscillating like a spring,
By correcting the motion estimation result using an elastic method, more accurate motion estimation is performed.
By this motion estimation, the foreground and the background can be properly separated even when the foreground is in amplitude motion.

本発明は上記の実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が
可能である。
The present invention is not limited to the above-described embodiment, and various modifications are possible within the scope of the gist.

本発明の実施形態に係る画像分離装置のブロック図である。1 is a block diagram of an image separation device according to an embodiment of the present invention. 画像を前景と背景に分離する方法のフローチャートである。3 is a flowchart of a method for separating an image into a foreground and a background. 画像に入力されたユーザの指示と、前景と背景に分離抽出された結果を示す 具体例である。It is a specific example which shows the instruction | indication of the user input into the image, and the result separated and extracted by the foreground and the background. 動画を前景と背景に画像を分離する処理を説明するために説明図である。It is explanatory drawing in order to demonstrate the process which isolate | separates an image into a foreground and a background. テクスチャに富んだ前景を有する画像を、第1の方法と第2の方法で分離し た結果を示す図である。It is a figure which shows the result of having isolate | separated the image which has foreground rich in a texture with the 1st method and the 2nd method.

100 データ入力部
110 指示受付部
120 画像分離部
130 表示部
140 データ蓄積部
150 指示変位部

DESCRIPTION OF SYMBOLS 100 Data input part 110 Instruction reception part 120 Image separation part 130 Display part 140 Data storage part 150 Instruction displacement part

Claims (7)

画像を前景と背景に分離するための画像分離装置であって、
画像を入力し、記憶手段に記憶するデータ入力手段と、
前景および背景の画像濃淡値(または輝度)をIとした場合、Fを前景の画像濃淡値、Bは背景の画像濃淡値、αは、αブレンディングに関する小数として、


で表現して、1枚の画像を構成する画素単位ごとに生成し、
式(1)から、


を生成して、

を拘束条件として最小化し、
目的関数
式(9)

を生成し、当該目的関数を
式(10)

eは未知数α、F、Bであり、それぞれの変数について偏微分して、未知数α、F、Bを画素単位に取得し、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する分離手段と、
前記分離した背景と前景とをそれぞれ表示する表示手段と、を有すること
を特徴とする画像分離装置。
An image separation device for separating an image into a foreground and a background,
Data input means for inputting an image and storing it in a storage means;
If the foreground and background image intensity values (or luminance) are I, F is the foreground image intensity value, B is the background image intensity value, α is the fractional value for α blending,


To generate for each pixel unit constituting one image,
From equation (1)


Generate

As a constraint,
Objective function
Formula (9)

And the objective function is
Formula (10)

e is the unknowns α, F, and B. Partial differentiation is performed for each variable to obtain the unknowns α, F, and B in units of pixels, and the F and B image grayscale values that are acquired in units of pixels are used. Separating means for determining whether the pixel is a foreground pixel or a background pixel and separating the foreground and the background;
An image separating apparatus comprising: display means for displaying each of the separated background and foreground.
請求項1記載の画像分離装置であって、
前記分離手段は、ロバスト関数を介した目的関数を生成し、当該目的関数を非線形最小
二乗法を用いて解析することにより、前記画像を前景と背景に分離すること
を特徴とする画像分離装置。
The image separation device according to claim 1,
The image separation apparatus characterized in that the separation means generates an objective function via a robust function and analyzes the objective function using a nonlinear least square method to separate the image into a foreground and a background.
請求項1または請求項2記載の画像分離装置であって、
前記データ入力手段が入力する画像は、複数の画像フレームから構成される時空間画像
であって、
前後する画像フレーム間の前景および背景の動きを検出し、前記時空間画像の第1の画
像フレームに対して前記画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかの判別を、前記検出した動きに応じて変位させて第2の画像フレーム以降に反映させる変位手段を、さらに有すること
を特徴とする画像分離装置。
The image separation device according to claim 1 or 2,
The image input by the data input means is a spatio-temporal image composed of a plurality of image frames,
The foreground and background motion between the preceding and following image frames is detected, and the F and B image grayscale values acquired for each pixel with respect to the first image frame of the spatiotemporal image are used. An image separating apparatus, further comprising: a displacement unit configured to cause a determination as to whether the pixel is a pixel or a background pixel to be reflected according to the detected motion and to reflect it after the second image frame.
画像分離装置が行う、画像を前景と背景に分離するための画像分離方法であって、
画像を入力し、記憶手段に記憶するデータ入力ステップと、
前景および背景の画像濃淡値(または輝度)をIとした場合、Fを前景の画像濃淡値、Bは背景の画像濃淡値、αは、αブレンディングに関する小数として、


で表現して、1枚の画像を構成する画素単位ごとに生成し、
式(1)から、

を生成して、

を拘束条件として最小化し、
目的関数
式(9)

を生成し、当該目的関数を
式(10)

eは未知数α、F、Bであり、それぞれの変数について偏微分して、未知数α、F、Bを画素単位に取得し、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する分離ステップと、
前記分離した背景と前景とをそれぞれ表示する表示ステップと、を行うこと
を特徴とする画像分離方法。
An image separation method for separating an image into a foreground and a background performed by an image separation device,
A data input step of inputting an image and storing it in a storage means;
If the foreground and background image intensity values (or luminance) are I, F is the foreground image intensity value, B is the background image intensity value, α is the fractional value for α blending,


To generate for each pixel unit constituting one image,
From equation (1)

Generate

As a constraint,
Objective function
Formula (9)

And the objective function is
Formula (10)

e is the unknowns α, F, and B. Partial differentiation is performed for each variable to obtain the unknowns α, F, and B in units of pixels, and the F and B image grayscale values that are acquired in units of pixels are used. A separation step of determining whether the pixel is a foreground pixel or a background pixel and separating the foreground and the background;
And a display step of displaying the separated background and foreground, respectively.
請求項4記載の画像分離方法であって、
前記分離ステップは、ロバスト関数を介した目的関数を生成し、当該目的関数を非線形
最小二乗法を用いて解析することにより、前記画像を前景と背景に分離すること
を特徴とする画像分離方法。
The image separation method according to claim 4,
The separation step generates an objective function via a robust function and analyzes the objective function using a nonlinear least square method to separate the image into a foreground and a background.
請求項4または請求項5記載の画像分離方法であって、
前記データ入力ステップで入力する画像は、複数の画像フレームから構成される時空間
画像であって、
前後する画像フレーム間の前景および背景の動きを検出し、前記時空間画像の第1の画
像フレームに対して前記画素が前景の画素であるか、背景の画素であるかの判別を、前記検出した動きに応じて変位させて第2の画像フレーム以降に反映させる変位ステップを、さらに行うこと
を特徴とする画像分離方法。
The image separation method according to claim 4 or 5, wherein
The image input in the data input step is a spatio-temporal image composed of a plurality of image frames,
Detecting foreground and background motion between preceding and following image frames, and determining whether the pixel is a foreground pixel or a background pixel with respect to the first image frame of the spatiotemporal image An image separation method, further comprising: a displacement step of displacing in accordance with the performed movement and reflecting it after the second image frame.
請求項4から請求項6のいずれか1項に記載の画像分離方法をコンピュータに実行させ
る画像分離プログラム。

An image separation program for causing a computer to execute the image separation method according to any one of claims 4 to 6.

JP2011121264A 2011-05-31 2011-05-31 Image separation device, image separation method, and image separation program Pending JP2011227909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011121264A JP2011227909A (en) 2011-05-31 2011-05-31 Image separation device, image separation method, and image separation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011121264A JP2011227909A (en) 2011-05-31 2011-05-31 Image separation device, image separation method, and image separation program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008266784A Division JP2010097355A (en) 2008-10-15 2008-10-15 Image separation device, image separation method, and image separation program

Publications (1)

Publication Number Publication Date
JP2011227909A true JP2011227909A (en) 2011-11-10

Family

ID=45043118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011121264A Pending JP2011227909A (en) 2011-05-31 2011-05-31 Image separation device, image separation method, and image separation program

Country Status (1)

Country Link
JP (1) JP2011227909A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (en) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd Object tracking device
JP2003032688A (en) * 2001-07-18 2003-01-31 Nippon Telegr & Teleph Corp <Ntt> Separation method of foreground and background regions for moving image, and moving image coding method by conditional pixel replenishment by using this method
JP2003256844A (en) * 2002-02-28 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> Pattern estimating method, pattern estimating device, program for the same method and recording medium with its program recorded

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (en) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd Object tracking device
JP2003032688A (en) * 2001-07-18 2003-01-31 Nippon Telegr & Teleph Corp <Ntt> Separation method of foreground and background regions for moving image, and moving image coding method by conditional pixel replenishment by using this method
JP2003256844A (en) * 2002-02-28 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> Pattern estimating method, pattern estimating device, program for the same method and recording medium with its program recorded

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200701339011; 坂東 洋介: '焦点ボケを利用した二視点画像からの前景マット自動抽出' 情報処理学会研究報告 第2007巻 第111号, 20071112, pp.61-66, 社団法人情報処理学会 *
CSNJ200300013001; 境野 英朋: '見えにくい交通映像シーンからの状況変化の自動アノテーション' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 , 20020913, 21〜22頁, 社団法人 電子情報通信学会 *
JPN6011011159; 境野 英朋: '見えにくい交通映像シーンからの状況変化の自動アノテーション' FIT2002 情報科学技術フォーラム 一般講演論文集 第3分冊 , 20020913, 21〜22頁, 社団法人 電子情報通信学会 *
JPN6012025427; 坂東 洋介: '焦点ボケを利用した二視点画像からの前景マット自動抽出' 情報処理学会研究報告 第2007巻 第111号, 20071112, pp.61-66, 社団法人情報処理学会 *

Similar Documents

Publication Publication Date Title
US11610082B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
US20200167554A1 (en) Gesture Recognition Method, Apparatus, And Device
US9697583B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6811796B2 (en) Real-time overlay placement in video for augmented reality applications
KR20200008343A (en) Image processing apparatus and operating method for the same
JP2013143102A (en) Mobile object detection device, mobile object detection method, and program
KR20140053960A (en) Anisotropic gradient regularization for image denoising, compression, and interpolation
JP7176616B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP5617841B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010097355A (en) Image separation device, image separation method, and image separation program
JP2023003763A (en) Learning apparatus, image processing apparatus, learning processing method, and program
Rajput et al. Oeinr-rfh: Outlier elimination based iterative neighbor representation for robust face hallucination
JP2017049686A (en) Image processing device
JP2021111228A (en) Learning device, learning method, and program
CN103618904B (en) Motion estimation method and device based on pixels
JP2011227909A (en) Image separation device, image separation method, and image separation program
JP6968241B1 (en) Information processing equipment, information processing methods and programs
JP2015197818A (en) Image processing apparatus and method of the same
WO2022099118A1 (en) Detection of image sharpness in frequency domain
JP6854629B2 (en) Image processing device, image processing method
JP6375778B2 (en) Image processing method and image processing apparatus
WO2023228717A1 (en) Computer program, processing method, and processing device
US20230368490A1 (en) Preview and capture of stroke outlines from images and video
CN107886522B (en) Scale-adaptive target model updating method and device
EP2808809A2 (en) Method and apparatus for interactive review of a dataset

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120927