JP6632134B2 - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP6632134B2
JP6632134B2 JP2016124761A JP2016124761A JP6632134B2 JP 6632134 B2 JP6632134 B2 JP 6632134B2 JP 2016124761 A JP2016124761 A JP 2016124761A JP 2016124761 A JP2016124761 A JP 2016124761A JP 6632134 B2 JP6632134 B2 JP 6632134B2
Authority
JP
Japan
Prior art keywords
mask
background difference
image processing
processing apparatus
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016124761A
Other languages
Japanese (ja)
Other versions
JP2017228146A (en
Inventor
強 要
強 要
敬介 野中
敬介 野中
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016124761A priority Critical patent/JP6632134B2/en
Publication of JP2017228146A publication Critical patent/JP2017228146A/en
Application granted granted Critical
Publication of JP6632134B2 publication Critical patent/JP6632134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法およびコンピュータプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a computer program.

従来、スポーツシーンなどを対象として、カメラ視点以外の自由な視点からの映像(以下、自由視点映像と称す)を生成する技術が提案されている。この技術は、複数のカメラで撮影された映像を基に、それらの配置されていない仮想的な視点の映像を合成し、その結果を画面上に表示することでさまざまな視点での映像観賞を可能とするものである。   2. Description of the Related Art Conventionally, there has been proposed a technique for generating an image from a free viewpoint other than a camera viewpoint (hereinafter, referred to as a free viewpoint image) for a sports scene or the like. In this technology, based on images taken by multiple cameras, images of virtual viewpoints where they are not arranged are synthesized, and the results are displayed on the screen, so that image viewing from various viewpoints can be viewed. It is possible.

背景差分によるオブジェクトの正確な抽出は、高品質な自由視点映像を得るための最初のステップである。背景差分について、従来では例えば非特許文献1、2に記載される技術が知られている。非特許文献1には、自動的にオブジェクトを抽出する技術が開示されている。非特許文献2には、Grabcut法により正確にオブジェクトを抽出する技術が開示されている。   Accurate extraction of objects by background subtraction is the first step in obtaining high quality free viewpoint video. Conventionally, techniques described in Non-Patent Documents 1 and 2 have been known for background subtraction. Non-Patent Document 1 discloses a technique for automatically extracting an object. Non-Patent Document 2 discloses a technique for accurately extracting an object by the Grabcut method.

Elgammal, Ahmed, David Harwood, and Larry Davis. "Non-parametric model for background subtraction," Computer Vision-ECCV 2000. Springer Berlin Heidelberg, 2000. 751-767Elgammal, Ahmed, David Harwood, and Larry Davis. "Non-parametric model for background subtraction," Computer Vision-ECCV 2000.Springer Berlin Heidelberg, 2000.751-767. Rother, Carsten, Vladimir Kolmogorov, and Andrew Blake. "Grabcut: Interactive foreground extraction using iterated graph cuts." ACM transactions on graphics (TOG). Vol. 23. No. 3. ACM, 2004Rother, Carsten, Vladimir Kolmogorov, and Andrew Blake. "Grabcut: Interactive foreground extraction using iterated graph cuts." ACM transactions on graphics (TOG). Vol. 23. No. 3. ACM, 2004 森田 真司, 山澤 一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)Shinji Morita, Kazumasa Yamazawa, Masahiko Terasawa, Naokazu Yokoya: "Network-enabled Remote Monitoring System Using Omnidirectional Image Sensor", IEICE Transactions on Information and Systems (D-II), Vol. J88-D-II, No. . 5, pp. 864-875, (2005.5)

しかしながら、非特許文献1に記載される技術では、事前に様々なパラメータを手動で設定する必要がある。したがって、ユーザにとって煩わしく、また手動で設定されたパラメータが最適なものである保証もない。また、非特許文献2に記載されるGrabcut法はユーザによる入力を必要とする。したがって、動画像からのオブジェクトの抽出にGrabcut法を適用すると、動画像のフレームごとにユーザに入力を求めることとなり、現実的ではない。   However, in the technology described in Non-Patent Document 1, it is necessary to manually set various parameters in advance. Therefore, there is no guarantee that the parameters that are troublesome for the user and that are manually set are optimal. Further, the Grabcut method described in Non-Patent Document 2 requires input by a user. Therefore, if the Grabcut method is applied to the extraction of an object from a moving image, an input is required from the user for each frame of the moving image, which is not realistic.

本発明はこうした課題に鑑みてなされたものであり、その目的は、オブジェクトの抽出の正確さとユーザ利便性とを両立できる背景差分技術の提供にある。   The present invention has been made in view of such a problem, and an object of the present invention is to provide a background subtraction technique that can achieve both object extraction accuracy and user convenience.

本発明のある態様は、画像処理装置に関する。この画像処理装置は、動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する手段と、対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する手段と、第1マスクと第2マスクとを合成することで合成マスクを生成する手段と、前記第1背景差分、前記第2背景差分のいずれとも異なる第3背景差分を行うことで基準マスクを生成する手段と、生成された前記基準マスクに基づいて、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を設定する手段と、を備える。 One embodiment of the present invention relates to an image processing device. The image processing apparatus includes: a unit that obtains a first mask obtained by performing a first background difference on a target frame of a moving image in the target frame; and a second background difference between the target frame and the frame. Means for obtaining a second mask obtained by performing the above , means for generating a combined mask by combining the first mask and the second mask, and both of the first background difference and the second background difference Means for generating a reference mask by performing a different third background difference; and at least one of a parameter used in the first background difference and a parameter used in the second background difference, based on the generated reference mask. Means for setting one of them .

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements, and those in which the constituent elements and expressions of the present invention are replaced with each other among apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like, are also included in the present invention. This is effective as an embodiment.

本発明によれば、オブジェクトの抽出の正確さとユーザ利便性とを両立できる背景差分技術を提供できる。   According to the present invention, it is possible to provide a background subtraction technique that can achieve both the accuracy of object extraction and user convenience.

実施の形態に係る画像処理装置を備える自由視点画像配信システムを示す模式図である。1 is a schematic diagram illustrating a free viewpoint image distribution system including an image processing device according to an embodiment. 図1の携帯端末の機能および構成を示すブロック図である。FIG. 2 is a block diagram illustrating functions and configurations of the mobile terminal of FIG. 1. 図1の画像処理装置の機能および構成を示すブロック図である。FIG. 2 is a block diagram illustrating functions and configurations of the image processing apparatus of FIG. 1. 図3のパラメータ保持部の一例を示すデータ構造図である。FIG. 4 is a data structure diagram illustrating an example of a parameter holding unit in FIG. 3. 図5(a)、(b)は、関心領域設定画面の代表画面図である。FIGS. 5A and 5B are representative screen diagrams of the region of interest setting screen. 図6(a)、(b)、(c)は、重み設定画面の代表画面図である。FIGS. 6A, 6B, and 6C are representative screen diagrams of the weight setting screen. 自由視点画像再生画面の代表画面図である。It is a typical screen figure of a free viewpoint image reproduction screen. エラー画面の代表画面図である。It is a typical screen figure of an error screen. 図3のパラメータ設定部におけるパラメータ設定処理を説明するための説明図である。FIG. 4 is an explanatory diagram for describing parameter setting processing in a parameter setting unit in FIG. 3. 図10(a)、(b)、(c)は、重みαの違いによる合成マスクの違いを説明するための説明図である。FIGS. 10A, 10B, and 10C are explanatory diagrams for explaining the difference in the combination mask due to the difference in the weight α. 図11(a)、(b)は、改良F値による評価を説明するためのグラフである。FIGS. 11A and 11B are graphs for explaining evaluation based on the improved F value. 図12(a)〜(f)は、フレームの平均画素強度の変動を示すグラフである。FIGS. 12A to 12F are graphs showing fluctuations in the average pixel intensity of a frame. 図1の画像処理装置における一連の処理の流れを示すフローチャートである。2 is a flowchart illustrating a flow of a series of processes in the image processing apparatus of FIG. 1. 図13の閾値設定処理ステップにおける処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of processing in a threshold setting processing step of FIG. 13; 図13の合成マスク生成処理ステップにおける処理の流れを示すチャートである。14 is a chart showing a flow of processing in a synthetic mask generation processing step of FIG. 13.

以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。   Hereinafter, the same or equivalent components, members, and processes illustrated in each drawing are denoted by the same reference numerals, and the repeated description will be omitted as appropriate. In each drawing, some of the members that are not important for the description are omitted.

実施の形態に係る画像処理装置は、動画像のフレームからオブジェクトを抽出する際、空間ドメイン(spatial domain)における背景差分によりフレームからマスクを生成する。空間ドメインにおける背景差分は処理対象のフレーム内で行われる背景差分であるから、以降イントラ背景差分と称す。イントラ背景差分により生成されるマスクをイントラマスクと称す。画像処理装置は、イントラ背景差分と並行して時間ドメイン(temporal domain)における背景差分によりフレームからマスクを生成する。時間ドメインにおける背景差分は処理対象のフレームを含むフレーム間で行われる背景差分であるから、以降インター背景差分と称す。インター背景差分により生成されるマスクをインターマスクと称す。画像処理装置は、生成された2つのマスク、イントラマスクおよびインターマスク、を合成することで合成マスクを生成し、生成された合成マスクをオブジェクトの抽出に利用する。これにより、ユーザによる指示や入力の必要性を抑えつつ、確度の高いオブジェクト抽出を実現できる。   When extracting an object from a frame of a moving image, the image processing apparatus according to the embodiment generates a mask from the frame based on a background difference in a spatial domain. Since the background difference in the spatial domain is a background difference performed within the frame to be processed, it is hereinafter referred to as an intra background difference. A mask generated by the intra background difference is called an intra mask. The image processing apparatus generates a mask from a frame based on the background difference in the temporal domain in parallel with the intra background difference. Since the background difference in the time domain is a background difference performed between frames including the frame to be processed, the background difference is hereinafter referred to as an inter background difference. The mask generated by the inter background subtraction is called an inter mask. The image processing apparatus generates a combined mask by combining the two generated masks, the intra mask and the inter mask, and uses the generated combined mask for extracting an object. As a result, highly accurate object extraction can be realized while suppressing the necessity of instructions and inputs by the user.

本実施の形態では、イントラ背景差分として正規混合モデル(Gaussian Mixture Model)を用いた背景差分(非特許文献1参照)を採用する。この背景差分では、混合正規分布(Mixture of Gaussian Distribution, MoG)を用いて背景(background)をモデル化する。まず、オブジェクトの無い背景フレームを用意し、その背景フレームから背景の混合正規分布モデルを得る。処理対象のフレームの画素が混合正規分布モデルに属さない場合、その画素は前景(foreground)として抽出される。この属否の判定の際に閾値が用いられる。以下、この閾値をイントラ閾値(gmm_th)と表記する。   In the present embodiment, a background difference using a normal mixture model (Gaussian Mixture Model) (see Non-Patent Document 1) is adopted as the intra background difference. In this background subtraction, a background is modeled using a mixture normal distribution (Mixture of Gaussian Distribution, MoG). First, a background frame without objects is prepared, and a mixed normal distribution model of the background is obtained from the background frame. If the pixel of the processing target frame does not belong to the mixture normal distribution model, the pixel is extracted as a foreground. A threshold is used when determining whether or not the item belongs. Hereinafter, this threshold is referred to as an intra threshold (gmm_th).

本実施の形態では、インター背景差分として、画素ごとにひとつの正規モデルを適用した背景差分(非特許文献3参照)を採用する。この背景差分では、フレーム中の画素の座標を(i,j)と表記するとき、平均値μi,jおよび標準偏差σi,jを有する一つの正規分布モデルを画素(i,j)の強度に割り当てる。平均値μi,jおよび標準偏差σi,jは、動画像に含まれる複数のフレームに亘る画素(i,j)の強度の集合を母集団として計算される。Y、U、Vの全てのチャネルについて、処理対象のフレームの画素(i,j)の強度の偏差の絶対値が、標準偏差σi,jに閾値を加えた値よりも小さい場合、画素(i,j)は背景に属すると判定される。そうでなければ画素(i,j)は前景に属すると判定される。以下、Y、U、Vのそれぞれについての上記閾値をインター閾値(Y_th、U_th、V_th)と表記する。 In the present embodiment, a background difference (see Non-Patent Document 3) in which one normal model is applied to each pixel is adopted as an inter background difference. In this background subtraction, when the coordinates of a pixel in a frame are expressed as (i, j), one normal distribution model having an average value μ i, j and a standard deviation σ i, j is represented by the pixel (i, j). Assign to strength. The average value μ i, j and the standard deviation σ i, j are calculated using a set of intensities of the pixels (i, j) over a plurality of frames included in the moving image as a population. When the absolute value of the deviation of the intensity of the pixel (i, j) of the frame to be processed is smaller than the value obtained by adding a threshold to the standard deviation σ i, j for all the channels Y, U, and V, the pixel ( i, j) are determined to belong to the background. Otherwise, pixel (i, j) is determined to belong to the foreground. Hereinafter, the thresholds for each of Y, U, and V are referred to as inter thresholds (Y_th, U_th, V_th).

図1は、実施の形態に係る画像処理装置200を備える自由視点画像配信システム110を示す模式図である。自由視点画像配信システム110は、複数のカメラ116、118、120と、それらのカメラと接続された画像処理装置200と、携帯電話やタブレットやスマートフォンやHMD(Head Mounted Display)やノートPCなどの携帯端末114と、を備える。画像処理装置200と携帯端末114とはインターネットなどのネットワーク112を介して接続される。自由視点画像配信システム110では、例えば屋内に配置された複数のカメラ116、118、120が床126に立つ人物124を撮像する。複数のカメラ116、118、120は撮った映像を画像処理装置200に送信し、画像処理装置200はそれらの映像を処理する。携帯端末114のユーザは画像処理装置200に対して希望の視点を指定し、画像処理装置200は指定された視点(仮想視点)から人物124を見た場合の画像を合成し、ネットワーク112を介して携帯端末114に配信する。   FIG. 1 is a schematic diagram illustrating a free viewpoint image distribution system 110 including an image processing device 200 according to the embodiment. The free viewpoint image distribution system 110 includes a plurality of cameras 116, 118, and 120, an image processing apparatus 200 connected to the cameras, and a mobile phone, tablet, smartphone, HMD (Head Mounted Display), and notebook PC. And a terminal 114. The image processing device 200 and the portable terminal 114 are connected via a network 112 such as the Internet. In the free viewpoint image distribution system 110, for example, a plurality of cameras 116, 118, and 120 arranged indoors image a person 124 standing on a floor 126. The plurality of cameras 116, 118, and 120 transmit the captured images to the image processing device 200, and the image processing device 200 processes the images. The user of the portable terminal 114 designates a desired viewpoint to the image processing apparatus 200, and the image processing apparatus 200 synthesizes an image when the person 124 is viewed from the designated viewpoint (virtual viewpoint), and To the portable terminal 114.

なお、図1では屋内の人物を撮像する場合を説明したが、これに限られず、例えばフィットネスのインストラクタを撮像する場合やダンサーのダンスを撮像する場合やサッカーの試合を撮像する場合などに、本実施の形態の技術的思想を適用できる。また、携帯端末114の代わりに、デスクトップPCやラップトップPC、TV受像機、セットトップボックス等の据え置き型端末が使用されてもよい。また、画像処理装置200による配信形態は、予め全体をダウンロードしてから再生するものでも、ストリーミングでも、プログレッシブでもよい。配信形態がリアルタイムでない場合、画像処理装置200はカメラから取得して保持している動画像について予め平均値μi,jおよび標準偏差σi,jを演算してもよい。配信形態がリアルタイムである場合、画像処理装置200は現時点までに得られた動画像から平均値μi,jおよび標準偏差σi,jを演算し、新たな動画像が所定の量得られるたびにそれらの値を再演算することで更新してもよい。 Although FIG. 1 illustrates the case where an indoor person is imaged, the present invention is not limited to this case. For example, when an image of a fitness instructor, an image of a dancer's dance, or an image of a soccer match is taken, the present invention is not limited to this. The technical idea of the embodiment can be applied. Further, instead of the portable terminal 114, a stationary terminal such as a desktop PC, a laptop PC, a TV receiver, and a set-top box may be used. In addition, the distribution form of the image processing apparatus 200 may be such that the whole is downloaded in advance and then reproduced, or may be streaming or progressive. When the distribution mode is not real-time, the image processing apparatus 200 may calculate the average μ i, j and the standard deviation σ i, j of the moving image acquired and held from the camera in advance. When the distribution mode is real-time, the image processing apparatus 200 calculates the average value μ i, j and the standard deviation σ i, j from the moving images obtained up to the present time, and every time a predetermined amount of a new moving image is obtained. May be updated by recalculating those values.

図2は、図1の携帯端末114の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(Central Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 2 is a block diagram illustrating functions and configurations of the portable terminal 114 in FIG. Each block shown here can be realized by hardware or other elements or mechanical devices such as a CPU (Central Processing Unit) of the computer, and is realized by a computer program or the like in software. The functional blocks realized by their cooperation are drawn. Therefore, it will be understood by those skilled in the art referred to in this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

携帯端末114は通信部246と表示制御部216とディスプレイ218と入力部220とを備える。通信部246は、入力部220を介してユーザにより指定された視点を特定する情報をネットワーク112を介して画像処理装置200に送信する。通信部246は動画像を画像処理装置200からネットワーク112を介して取得する。表示制御部216はディスプレイ218を制御し、ディスプレイ218に種々の画面を表示させる。表示制御部216は、通信部246によって取得された動画像をディスプレイ218に表示させる。ディスプレイ218は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイであってもよい。入力部220はユーザからの入力を受け付ける。入力部220は、マウスやキーボードやタッチパネルやボタンやリモートコントローラであってもよい。   The portable terminal 114 includes a communication unit 246, a display control unit 216, a display 218, and an input unit 220. The communication unit 246 transmits information specifying the viewpoint specified by the user via the input unit 220 to the image processing device 200 via the network 112. The communication unit 246 acquires a moving image from the image processing device 200 via the network 112. The display control unit 216 controls the display 218 and causes the display 218 to display various screens. The display control unit 216 causes the display 218 to display the moving image acquired by the communication unit 246. The display 218 may be an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display. The input unit 220 receives an input from a user. The input unit 220 may be a mouse, a keyboard, a touch panel, buttons, or a remote controller.

図3は、図1の画像処理装置200の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(Central Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 3 is a block diagram illustrating functions and configurations of the image processing apparatus 200 in FIG. Each block shown here can be realized by hardware or other elements or mechanical devices such as a CPU (Central Processing Unit) of the computer, and is realized by a computer program or the like in software. The functional blocks realized by their cooperation are drawn. Therefore, it will be understood by those skilled in the art referred to in this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

画像処理装置200は、カメラから得られた動画像から合成マスクを用いてオブジェクト、例えば人物124の像を抽出し、抽出されたオブジェクトに基づいて任意の仮想視点の画像を合成する。画像処理装置200は、動画像取得部202と、パラメータ設定部204と、合成マスク生成部206と、オブジェクト抽出部208と、再設定判定部210と、更新判定部212と、パラメータ更新部214と、動画像配信部244と、動画像保持部222と、パラメータ保持部224と、を備える。   The image processing apparatus 200 extracts an object, for example, an image of the person 124 from a moving image obtained from the camera using a synthesis mask, and synthesizes an image of an arbitrary virtual viewpoint based on the extracted object. The image processing device 200 includes a moving image acquisition unit 202, a parameter setting unit 204, a combined mask generation unit 206, an object extraction unit 208, a reset determination unit 210, an update determination unit 212, a parameter update unit 214 , A moving image distribution unit 244, a moving image holding unit 222, and a parameter holding unit 224.

動画像取得部202は、画像処理装置200と接続された各カメラ116、118、120から動画像を取得する。動画像取得部202は、取得された動画像を動画像保持部222に格納する。動画像保持部222は動画像を保持する。動画像は複数のフレームの時系列であってもよい。   The moving image acquisition unit 202 acquires a moving image from each of the cameras 116, 118, and 120 connected to the image processing device 200. The moving image acquisition unit 202 stores the acquired moving image in the moving image holding unit 222. The moving image holding unit 222 holds a moving image. The moving image may be a time series of a plurality of frames.

パラメータ設定部204は、動画像からのオブジェクトの抽出を始める際に、イントラ背景差分およびインター背景差分で使用されるパラメータを設定する。イントラ背景差分のパラメータはgmm_thを含み、インター背景差分のパラメータはY_th、U_th、V_thを含む。パラメータ設定部204は、関心領域設定部226と、基準マスク生成部228と、重み設定部230と、テストマスク生成部232と、改良F値算出部234と、パラメータ決定部236と、を含む。   When starting extraction of an object from a moving image, the parameter setting unit 204 sets parameters used for an intra background difference and an inter background difference. The parameters of the intra background difference include gmm_th, and the parameters of the inter background difference include Y_th, U_th, and V_th. The parameter setting unit 204 includes a region of interest setting unit 226, a reference mask generation unit 228, a weight setting unit 230, a test mask generation unit 232, an improved F value calculation unit 234, and a parameter determination unit 236.

関心領域設定部226は、処理対象の動画像のうち基準マスクを生成するために使用される基準フレーム、例えば最初のフレームを動画像保持部222から取得する。関心領域設定部226は、取得された最初のフレームを含む関心領域設定画面400(図5(a)、(b)で後述)を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づき関心領域設定画面400をディスプレイ218に表示させる。携帯端末114は、表示された最初のフレームにおける関心領域(Region Of Interest)の指定をユーザから入力部220を介して受け付ける。携帯端末114の通信部246は、指定された関心領域の情報をネットワーク112を介して画像処理装置200に送信する。画像処理装置200の関心領域設定部226は、指定された関心領域の情報を受信する。   The region-of-interest setting unit 226 acquires, from the moving image holding unit 222, a reference frame used for generating a reference mask, for example, the first frame of the moving image to be processed. The region-of-interest setting unit 226 generates a region-of-interest setting screen 400 (to be described later with reference to FIGS. 5A and 5B) including the acquired first frame, and transmits the screen data to the mobile terminal 114 via the network 112. Send. The display control unit 216 of the mobile terminal 114 causes the display 218 to display the region of interest setting screen 400 based on the received screen data. The mobile terminal 114 receives designation of a region of interest (Region Of Interest) in the displayed first frame from the user via the input unit 220. The communication unit 246 of the mobile terminal 114 transmits information of the designated region of interest to the image processing device 200 via the network 112. The region of interest setting unit 226 of the image processing device 200 receives the information of the designated region of interest.

基準マスク生成部228は、関心領域が指定された最初のフレームに対して、イントラ背景差分、インター背景差分のいずれとも異なる背景差分を行うことで基準マスクを生成する。基準マスク生成部228は、最初のフレームと該最初のフレームに対して指定された関心領域とを入力とするGrabcut法(非特許文献2参照)により基準マスクを生成する。基準マスク生成部228は、Grabcut法により生成された基準マスクに対するユーザによる編集(ペインティング、ブラッシング等)を受け付けてもよい。   The reference mask generation unit 228 generates a reference mask by performing a background difference different from any of the intra background difference and the inter background difference on the first frame in which the region of interest is specified. The reference mask generation unit 228 generates a reference mask by the Grabcut method (see Non-Patent Document 2) that inputs a first frame and a region of interest specified for the first frame. The reference mask generation unit 228 may accept editing (painting, brushing, etc.) by the user of the reference mask generated by the Grabcut method.

Grabcut法はイントラ背景差分やインター背景差分よりも処理に時間がかかり、かつユーザ入力すなわちユーザによる関心領域の指定を必要とするものであるが、それらの背景差分よりも正確な結果が得られる。以下で説明される最適なパラメータの探索において客観的な基準は重要である。本実施の形態では、最初のフレームからGrabcut法により基準マスクを得て、その基準マスクを探索の際の基準とする。   The Grabcut method requires more time for processing than the intra background difference or the inter background difference, and requires user input, that is, the user to specify a region of interest. However, a more accurate result can be obtained than the background difference. Objective criteria are important in the search for optimal parameters, described below. In the present embodiment, a reference mask is obtained from the first frame by the Grabcut method, and the reference mask is used as a reference when searching.

重み設定部230は、後述の改良F値の算出における重みαの指定をユーザから受け付ける。重み設定部230は、重み設定画面500(図6(a)、(b)、(c)で後述)を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づき重み設定画面500をディスプレイ218に表示させる。携帯端末114は、ユーザが重み設定画面500に対して入力部220を介して入力または指定した値を取得する。携帯端末114の通信部246は、取得された値をネットワーク112を介して画像処理装置200に送信する。画像処理装置200の重み設定部230は、受信した値を重みαとして設定する。   The weight setting unit 230 receives designation of a weight α in a calculation of an improved F value described later from a user. The weight setting unit 230 generates a weight setting screen 500 (described later in FIGS. 6A, 6B, and 6C), and transmits the screen data to the portable terminal 114 via the network 112. The display control unit 216 of the mobile terminal 114 causes the display 218 to display the weight setting screen 500 based on the received screen data. The portable terminal 114 acquires a value input or specified by the user via the input unit 220 to the weight setting screen 500. The communication unit 246 of the mobile terminal 114 transmits the obtained value to the image processing device 200 via the network 112. The weight setting unit 230 of the image processing device 200 sets the received value as the weight α.

テストマスク生成部232は、インター背景差分の設定可能なインター閾値(Y_th、U_th、V_th)の集合のなかからひとつのインター閾値を選択する。テストマスク生成部232は、関心領域設定部226によって取得された最初のフレームに対して、選択されたインター閾値を用いたインター背景差分を行うことでインターテストマスクを生成する。   The test mask generation unit 232 selects one inter threshold from a set of inter thresholds (Y_th, U_th, V_th) for which an inter background difference can be set. The test mask generation unit 232 generates an intertest mask by performing an inter background difference using the selected inter threshold on the first frame acquired by the region of interest setting unit 226.

改良F値算出部234は、テストマスク生成部232によって生成されたインターテストマスクを評価対象とし、基準マスク生成部228によって生成された基準マスクを正解とするときの適合率(Precision)と再現率(Recall)との重み付け調和平均を改良F値(Modified F-Measure)として算出する。改良F値は以下の式1で与えられる。

Figure 0006632134
…(1)
ここで、重みαは0以上2以下の値であり、重み設定部230により設定される。重みαは、オブジェクトの抽出の際のユーザの好みを反映する。適合率(Precision)および再現率(Recall)はそれぞれ以下の式2、式3により算出される。
Figure 0006632134
…(2)
Figure 0006632134
…(3)
ここで、TP(True Positive)はインターテストマスクおよび基準マスクの両方で背景に属する画素の総数であり、FN(False Negative)はインターテストマスクでは前景に属するが基準マスクでは背景に属する画素の総数であり、FP(False Positive)はインターテストマスクでは背景に属するが基準マスクでは前景に属する画素の総数である。 The improved F value calculation unit 234 evaluates the inter-test mask generated by the test mask generation unit 232 as an evaluation target, and sets the precision and recall when the reference mask generated by the reference mask generation unit 228 is regarded as a correct answer. A weighted harmonic average with (Recall) is calculated as an improved F value (Modified F-Measure). The improved F-number is given by Equation 1 below.
Figure 0006632134
… (1)
Here, the weight α is a value of 0 or more and 2 or less, and is set by the weight setting unit 230. The weight α reflects the user's preference when extracting an object. The precision (Precision) and the recall (Recall) are calculated by the following equations 2 and 3, respectively.
Figure 0006632134
… (2)
Figure 0006632134
… (3)
Here, TP (True Positive) is the total number of pixels belonging to the background in both the intertest mask and the reference mask, and FN (False Negative) is the total number of pixels belonging to the foreground in the intertest mask but belongs to the background in the reference mask. FP (False Positive) is the total number of pixels belonging to the background in the intertest mask but belonging to the foreground in the reference mask.

テストマスク生成部232および改良F値算出部234は、インター閾値の選択および改良F値の算出を設定可能な全てのインター閾値が選択されるまで繰り返す。パラメータ決定部236は、改良F値が大きくなるようにインター閾値を決定する。パラメータ決定部236は、テストマスク生成部232および改良F値算出部234により得られたインター閾値と改良F値との組の集合のなかから、最も大きい改良F値を有する組を抽出する。パラメータ決定部236は、抽出された組のインター閾値を最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)として決定し、パラメータ保持部224に登録する。   The test mask generator 232 and the improved F value calculator 234 repeat the selection of the inter threshold and the calculation of the improved F value until all the settable inter thresholds are selected. The parameter determining unit 236 determines the inter threshold so that the improved F value increases. The parameter determination unit 236 extracts a set having the largest improved F value from a set of sets of the inter threshold and the improved F value obtained by the test mask generation unit 232 and the improved F value calculation unit 234. The parameter determination unit 236 determines the extracted set of inter thresholds as optimal inter thresholds (Y_th_opt, U_th_opt, V_th_opt), and registers them in the parameter holding unit 224.

テストマスク生成部232は、イントラ背景差分の設定可能なイントラ閾値(gmm_th)の集合のなかからひとつのイントラ閾値を選択する。テストマスク生成部232は、関心領域設定部226によって取得された最初のフレームに対して、選択されたイントラ閾値を用いたイントラ背景差分を行うことでイントラテストマスクを生成する。テストマスク生成部232は、最初のフレームに対してパラメータ保持部224に保持される最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を用いたインター背景差分を行うことでインター最適マスクを生成する。テストマスク生成部232は、後述の合成部242における合成方法と同じまたはそれに準じた合成方法により、イントラテストマスクとインター最適マスクとを合成し、合成テストマスクを生成する。   The test mask generation unit 232 selects one intra threshold from a set of intra thresholds (gmm_th) for which an intra background difference can be set. The test mask generation unit 232 generates an intra test mask by performing an intra background difference using the selected intra threshold on the first frame acquired by the region of interest setting unit 226. The test mask generation unit 232 generates an inter-optimal mask by performing an inter-background difference using an optimal inter-threshold (Y_th_opt, U_th_opt, V_th_opt) held in the parameter holding unit 224 for the first frame. The test mask generation unit 232 synthesizes the intra-test mask and the inter-optimal mask by the same synthesis method as the synthesis method in the synthesis unit 242 described later or a similar method, and generates a synthesized test mask.

改良F値算出部234は、テストマスク生成部232によって生成された合成テストマスクを評価対象とし、基準マスク生成部228によって生成された基準マスクを正解とするときの改良F値を算出する。テストマスク生成部232および改良F値算出部234は、イントラ閾値の選択および改良F値の算出を全てのイントラ閾値が選択されるまで繰り返す。パラメータ決定部236は、改良F値が大きくなるようにイントラ閾値を決定する。パラメータ決定部236は、テストマスク生成部232および改良F値算出部234により得られたイントラ閾値と改良F値との組の集合のなかから、最も大きい改良F値を有する組を抽出する。パラメータ決定部236は、抽出された組のイントラ閾値を最適なイントラ閾値(gmm_th_opt)として決定し、パラメータ保持部224に登録する。   The improved F value calculation unit 234 calculates an improved F value when the synthesized test mask generated by the test mask generation unit 232 is to be evaluated and the reference mask generated by the reference mask generation unit 228 is a correct answer. The test mask generator 232 and the improved F value calculator 234 repeat the selection of the intra threshold and the calculation of the improved F value until all the intra thresholds are selected. The parameter determination unit 236 determines the intra threshold so that the improved F value increases. The parameter determining unit 236 extracts a set having the largest improved F value from a set of sets of the intra threshold value and the improved F value obtained by the test mask generating unit 232 and the improved F value calculating unit 234. The parameter determination unit 236 determines the extracted set of intra thresholds as the optimal intra threshold (gmm_th_opt), and registers the determined intra threshold in the parameter holding unit 224.

合成マスク生成部206は、処理対象の動画像に含まれるフレームに対して、パラメータ保持部224に保持される閾値を参照し、インター背景差分およびイントラ背景差分を適用することで合成マスクを生成する。合成マスク生成部206は、イントラ背景差分部238と、インター背景差分部240と、合成部242と、を含む。   The synthesis mask generation unit 206 generates a synthesis mask by referring to the threshold value stored in the parameter storage unit 224 and applying an inter background difference and an intra background difference to a frame included in a moving image to be processed. . The synthesis mask generation unit 206 includes an intra background difference unit 238, an inter background difference unit 240, and a synthesis unit 242.

イントラ背景差分部238は、パラメータ保持部224を参照し、最適なイントラ閾値(gmm_th_opt)を特定する。イントラ背景差分部238は、フレームに対して、特定されたイントラ閾値を用いたイントラ背景差分を行うことでイントラマスクを生成する。   The intra background difference unit 238 refers to the parameter holding unit 224 and specifies an optimal intra threshold (gmm_th_opt). The intra-background difference unit 238 generates an intra-mask by performing an intra-background difference on the frame using the specified intra threshold.

インター背景差分部240は、パラメータ保持部224を参照し、最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を特定する。インター背景差分部240は、フレームに対して、特定されたインター閾値を用いたインター背景差分を行うことでインターマスクを生成する。   The inter-background difference unit 240 refers to the parameter storage unit 224 and specifies the optimum inter-threshold values (Y_th_opt, U_th_opt, V_th_opt). The inter-background difference unit 240 generates an inter-mask by performing an inter-background difference on the frame using the specified inter threshold.

合成部242は、イントラ背景差分部238によって生成されたイントラマスクとインター背景差分部240によって生成されたインターマスクとを合成することで合成マスクを生成する。合成部242は、画素ごとにイントラマスクとインターマスクとの間で論理積(AND演算、&&)を行うことで合成マスクを生成する。RGBで表した場合、マスクの背景部分の画素値は(0,0,0)すなわち黒色であり、前景部分の画素値は画素のサンプリングビットをnとすると(2−1,2−1,2−1)すなわち白色である。したがって、合成マスクの背景部分は、イントラマスクおよびインターマスクのうちの少なくとも一方における背景部分であり、合成マスクの前景部分はイントラマスクおよびインターマスクの両方における前景部分である。言い換えると、合成によりマスクの背景部分が増加する。これにより、より正確でシャープなオブジェクトの輪郭が抽出される。 The synthesis unit 242 generates a synthesis mask by synthesizing the intra mask generated by the intra background subtraction unit 238 and the inter mask generated by the inter background subtraction unit 240. The combining unit 242 generates a combined mask by performing a logical product (AND operation, &&) between the intra mask and the inter mask for each pixel. When represented by RGB, the pixel value of the background portion of the mask is (0, 0, 0), that is, black, and the pixel value of the foreground portion is (2 n -1,2 n −1) where n is the sampling bit of the pixel. , 2 n -1), that is, white. Therefore, the background portion of the composite mask is a background portion of at least one of the intra mask and the inter mask, and the foreground portion of the composite mask is a foreground portion of both the intra mask and the inter mask. In other words, the background portion of the mask is increased by the combination. Thereby, a more accurate and sharp outline of the object is extracted.

オブジェクト抽出部208は、合成部242によって生成された合成マスクを用いてフレームからオブジェクトを抽出する。
動画像配信部244は、オブジェクト抽出部208における抽出結果を利用して、携帯端末114のユーザにより指定された視点からの動画像を合成する。動画像配信部244は、合成により得られた合成動画像をネットワーク112を介して携帯端末114に送信する。
The object extraction unit 208 extracts an object from the frame using the synthesis mask generated by the synthesis unit 242.
The moving image distribution unit 244 combines the moving images from the viewpoint specified by the user of the portable terminal 114 using the extraction result of the object extraction unit 208. The moving image distribution unit 244 transmits the synthesized moving image obtained by the synthesis to the portable terminal 114 via the network 112.

再設定判定部210は、パラメータ設定部204による基準マスクの生成および生成された該基準マスクによるパラメータの再設定が必要か否かを判定する。再設定判定部210は、合成部242によって生成された合成マスクの平均画素強度の変化量を指標として再設定の要否の判定を行う。合成部242によって生成された合成マスクにおける画素(i,j)の強度をMout(i,j)と表記する。再設定判定部210は、以下の式4により合成マスクの平均画素強度Ave_mskを算出する。

Figure 0006632134
…(4)
ここで、Mはフレームの幅、Nはフレームの高さである。再設定判定部210は、現在のフレームから得られた合成マスクの平均画素強度と一つ前のフレームから得られた合成マスクの平均画素強度との差の絶対値|Δmsk|を算出する。再設定判定部210は、算出された|Δmsk|が所定の閾値th_mskを上回る場合、パラメータの再設定が必要であると判定し、そうでなければ再設定は不要と判定する。 The reset determination unit 210 determines whether or not it is necessary to generate a reference mask by the parameter setting unit 204 and reset parameters using the generated reference mask. The reset determination unit 210 determines whether resetting is necessary using the amount of change in the average pixel intensity of the combined mask generated by the combining unit 242 as an index. The intensity of the pixel (i, j) in the synthesis mask generated by the synthesis unit 242 is denoted as Mout (i, j). The reset determination unit 210 calculates the average pixel intensity Ave_msk of the combined mask by the following Expression 4.
Figure 0006632134
… (4)
Here, M is the width of the frame, and N is the height of the frame. The reset determination unit 210 calculates the absolute value | Δmsk | of the difference between the average pixel intensity of the composite mask obtained from the current frame and the average pixel intensity of the composite mask obtained from the immediately preceding frame. When the calculated | Δmsk | exceeds the predetermined threshold th_msk, the reset determination unit 210 determines that the parameter needs to be reset, and otherwise determines that the reset is unnecessary.

2つの連続するフレームの内容は通常は互いによく似ているから、オブジェクトの抽出のエラーが小さい場合は|Δmsk|は小さい。オブジェクトの抽出のエラーが大きい場合はそのエラーに起因して|Δmsk|が大きくなる。再設定判定部210によると、|Δmsk|がth_mskより大きい場合はエラーが大きいと判定され、パラメータの再設定が行われる。このエラー検知は自動的に行われる。   Since the contents of two consecutive frames are usually very similar to each other, | Δmsk | is small when the error in object extraction is small. If the error of the object extraction is large, | Δmsk | becomes large due to the error. According to the reset determination unit 210, when | Δmsk | is larger than th_msk, it is determined that the error is large, and the parameters are reset. This error detection is performed automatically.

更新判定部212は、パラメータ保持部224に保持されるインター閾値の更新が必要か否かを判定する。更新判定部212は、フレーム間の平均画素強度の差に基づいて更新の要否を判定する。位置(i,j)の画素の強度をI(i,j)と表記する。更新判定部212は、以下の式5によりフレームの平均画素強度Aveを算出する。

Figure 0006632134
…(5)
更新判定部212は、現在のフレームの平均画素強度と一つ前のフレームの平均画素強度との差の絶対値|Δimg|を算出する。更新判定部212は、算出された|Δimg|が所定の閾値th_imgを上回る場合、更新が必要であると判定し、そうでなければ更新は不要と判定する。th_imgがゼロに設定される場合、フレームごとに更新が行われる。 The update determination unit 212 determines whether the update of the inter threshold held in the parameter storage unit 224 is necessary. The update determination unit 212 determines whether update is necessary based on the difference in average pixel intensity between frames. The intensity of the pixel at the position (i, j) is denoted by I (i, j). The update determination unit 212 calculates the average pixel intensity Ave of the frame by the following Expression 5.
Figure 0006632134
… (5)
The update determination unit 212 calculates the absolute value | Δimg | of the difference between the average pixel intensity of the current frame and the average pixel intensity of the immediately preceding frame. When the calculated | Δimg | exceeds a predetermined threshold th_img, the update determination unit 212 determines that update is necessary, and otherwise determines that update is unnecessary. If th_img is set to zero, an update is performed for each frame.

なお、上述のマスクやフレームの平均画素強度はY、U、Vのチャネルごとに算出され、閾値と比較される。特に、ΔimgはYチャネルに係るΔimg_YとUチャネルに係るΔimg_UとVチャネルに係るΔimg_Vとからなる。   The above-described average pixel intensity of the mask or frame is calculated for each of the Y, U, and V channels, and is compared with a threshold. In particular, Δimg includes Δimg_Y for the Y channel, Δimg_U for the U channel, and Δimg_V for the V channel.

パラメータ更新部214は、更新判定部212において更新が必要であると判定された場合、インター閾値を、更新判定部212で得られた平均画素強度の差Δimgに応じて更新する。パラメータ更新部214は、パラメータ保持部224にアクセスし、保持されているインター閾値に差Δimgを加算する。特に、Yチャネルのインター閾値Y_th_optにはΔimg_Yが加算される。Uチャネル、Vチャネルについても同様である。   When the update determination unit 212 determines that the update is necessary, the parameter update unit 214 updates the inter threshold according to the average pixel intensity difference Δimg obtained by the update determination unit 212. The parameter updating unit 214 accesses the parameter holding unit 224, and adds the difference Δimg to the held inter threshold. In particular, Δimg_Y is added to the Y-channel inter threshold Y_th_opt. The same applies to the U channel and the V channel.

図4は、パラメータ保持部224の一例を示すデータ構造図である。パラメータ保持部224は、イントラ閾値であるgmm_th_optと、インター閾値であるY_th_opt、U_th_opt、V_th_optと、を対応付けて保持する。   FIG. 4 is a data structure diagram showing an example of the parameter holding unit 224. The parameter holding unit 224 holds gmm_th_opt, which is an intra threshold, and Y_th_opt, U_th_opt, V_th_opt, which are inter thresholds, in association with each other.

図5(a)、(b)は、関心領域設定画面400の代表画面図である。関心領域設定画面400は、フレーム表示領域402と、OKボタン404と、キャンセルボタン406と、を有する。フレーム表示領域402は最初のフレームを表示する。ユーザは、図5(a)に示される関心領域設定画面400を見ながらタッチパネルを操作し、関心領域を矩形408で指定する。図5(b)はフレーム表示領域402に表示される最初のフレームに対して矩形408を描いた状態を示す。この状態でOKボタン404がタップされると、携帯端末114は矩形408で囲まれる領域を関心領域として取得する。   FIGS. 5A and 5B are representative screen diagrams of the region of interest setting screen 400. FIG. The region of interest setting screen 400 includes a frame display region 402, an OK button 404, and a cancel button 406. The frame display area 402 displays the first frame. The user operates the touch panel while viewing the region of interest setting screen 400 shown in FIG. FIG. 5B shows a state in which a rectangle 408 is drawn for the first frame displayed in the frame display area 402. When the OK button 404 is tapped in this state, the portable terminal 114 acquires a region surrounded by the rectangle 408 as a region of interest.

図6(a)、(b)、(c)は、重み設定画面500の代表画面図である。重み設定画面500は、重み設定領域502と、代表マスク表示領域504と、OKボタン506と、を有する。重み設定領域502はスライダバーであり、ユーザによる重みの値の指定を受け付ける。代表マスク表示領域504には重み設定領域502でユーザが指定した重みの値を用いたときの合成マスクが表示される。ユーザは、重み設定領域502で重みの値を様々に変えながら代表マスク表示領域504に表示される合成マスクを確認し、自分の好みに合致する合成マスクを与える重みを選択する。OKボタン506がタップされると、携帯端末114はそのとき重み設定領域502で設定されている値を重みαとして取得する。   FIGS. 6A, 6B, and 6C are representative screen diagrams of the weight setting screen 500. FIG. The weight setting screen 500 has a weight setting area 502, a representative mask display area 504, and an OK button 506. The weight setting area 502 is a slider bar, and accepts designation of a weight value by a user. In the representative mask display area 504, a composite mask when the weight value specified by the user in the weight setting area 502 is used is displayed. The user checks the composite mask displayed in the representative mask display area 504 while changing the weight value variously in the weight setting area 502, and selects a weight that gives a composite mask that matches his / her preference. When the OK button 506 is tapped, the portable terminal 114 acquires the value set in the weight setting area 502 at that time as the weight α.

図7は、自由視点画像再生画面600の代表画面図である。表示制御部216は、動画像配信部244から送信された合成動画像を受信し、自由視点画像再生画面600をディスプレイ218に表示させる。自由視点画像再生画面600は、自由視点画像表示領域602と、プログレッシブバー604と、視点指定領域606と、操作領域608と、ROI指定ボタン610と、重み指定ボタン612と、を有する。自由視点画像表示領域602には、合成動画像が表示される。操作領域608は合成動画像の再生、一時停止、早送り等の操作を行うための領域である。視点指定領域606は、視点の上下方向の位置を指定するためのスライダバーである。ROI指定ボタン610がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、関心領域設定画面400により関心領域の指定を受け付ける処理を開始する。重み指定ボタン612がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、重み設定画面500により重みαの指定を受け付ける処理を開始する。   FIG. 7 is a representative screen diagram of the free viewpoint image reproduction screen 600. The display control unit 216 receives the combined moving image transmitted from the moving image distribution unit 244, and causes the display 218 to display the free viewpoint image reproduction screen 600. The free viewpoint image reproduction screen 600 has a free viewpoint image display area 602, a progressive bar 604, a viewpoint specification area 606, an operation area 608, an ROI specification button 610, and a weight specification button 612. In the free viewpoint image display area 602, a synthesized moving image is displayed. An operation area 608 is an area for performing operations such as playing, pausing, and fast-forwarding the synthesized moving image. The viewpoint designation area 606 is a slider bar for designating the vertical position of the viewpoint. When the ROI designation button 610 is tapped, the portable terminal 114 notifies the image processing device 200 of the fact. Upon receiving the notification, the image processing apparatus 200 starts a process of accepting designation of a region of interest on the region of interest setting screen 400. When the weight designation button 612 is tapped, the portable terminal 114 notifies the image processing device 200 of the fact. Upon receiving the notification, the image processing apparatus 200 starts a process of accepting the designation of the weight α on the weight setting screen 500.

図8は、エラー画面800の代表画面図である。再設定判定部210は、再設定が必要であると判定すると、エラー画面800を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づきエラー画面800をディスプレイ218に表示させる。OKボタン802がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、関心領域設定画面400により関心領域の指定を受け付ける処理を開始する。   FIG. 8 is a representative screen diagram of the error screen 800. When determining that the resetting is necessary, the resetting determination unit 210 generates an error screen 800 and transmits the screen data to the portable terminal 114 via the network 112. The display control unit 216 of the mobile terminal 114 displays an error screen 800 on the display 218 based on the received screen data. When the OK button 802 is tapped, the portable terminal 114 notifies the image processing device 200 of the fact. Upon receiving the notification, the image processing apparatus 200 starts a process of accepting designation of a region of interest on the region of interest setting screen 400.

図9は、パラメータ設定部204におけるパラメータ設定処理を説明するための説明図である。最初のフレーム902において関心領域904が指定される。これにGrabcut法を適用することで、基準マスク906が生成される。種々のインター閾値を用いたインター背景差分を最初のフレーム902に適用することで種々のインターテストマスクが得られる。これらのインターテストマスクのなかから、基準マスク906に最も合致する(すなわち、改良F値が最も大きい)インター最適マスク908が選択される。次に、種々のイントラ閾値を用いたイントラ背景差分を最初のフレーム902に適用して得られるイントラテストマスクと、インター最適マスク908と、が合成されて種々の合成テストマスクが得られる。これらの合成テストマスクのなかから、基準マスク906に最も合致する(すなわち、改良F値が最も大きい)合成最適マスク910が選択される。インター最適マスク908を与えるインター閾値および合成最適マスク910を与えるイントラ閾値が最適な閾値としてパラメータ保持部224に登録される。基準マスク906と合成最適マスク910とを比べると、基準マスク906では人物の右脚と左脚との間の領域は前景と判断されていたが、インター最適マスク908を合成した後の合成最適マスク910ではその領域も正しく背景と認識される。   FIG. 9 is an explanatory diagram for explaining the parameter setting process in the parameter setting unit 204. In the first frame 902, a region of interest 904 is specified. By applying the Grabcut method to this, a reference mask 906 is generated. Various intertest masks are obtained by applying inter background differences using various inter thresholds to the first frame 902. From these inter-test masks, the inter-optimal mask 908 that best matches the reference mask 906 (that is, has the largest improved F value) is selected. Next, an intra test mask obtained by applying an intra background difference using various intra threshold values to the first frame 902 and an inter-optimal mask 908 are synthesized to obtain various synthesized test masks. From these combined test masks, the combined optimal mask 910 that best matches the reference mask 906 (ie, has the largest improved F value) is selected. The inter threshold that gives the inter optimal mask 908 and the intra threshold that gives the combined optimal mask 910 are registered in the parameter holding unit 224 as optimal thresholds. When the reference mask 906 is compared with the combined optimum mask 910, the region between the right leg and the left leg of the person is determined to be the foreground in the reference mask 906, but the combined optimum mask after combining the inter optimal mask 908 is used. At 910, that area is also correctly recognized as the background.

Grabcut法において、関心領域904の外側は背景部分として扱われる。したがって、基準マスク906の背景部分は、指定された関心領域904の外部を含む。インター最適マスク908の人物の像の右足と合成最適マスク910の人物の像の右足とを比べると、後者の方がより正確に足の輪郭を抽出していることが分かる。   In the Grabcut method, the outside of the region of interest 904 is treated as a background portion. Therefore, the background portion of the reference mask 906 includes the outside of the designated region of interest 904. Comparing the right foot of the image of the person in the inter-optimal mask 908 with the right foot of the image of the person in the composite optimal mask 910, it can be seen that the latter extracts the contour of the foot more accurately.

図10(a)、(b)、(c)は、重みαの違いによる合成マスクの違いを説明するための説明図である。図10(a)、(b)、(c)はそれぞれα=0.3、1.0、1.7のときの合成マスクを示す。式1に関して上述した通り、αが異なると、決定される最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)や最適なイントラ閾値(gmm_th_opt)も異なり、したがって、結果として得られる合成マスクの外観も異なる。具体的には、重みαを大きくすると、輪郭はぼけるが背景でないのに背景とされてしまう部分を減らすことができる。重みαを小さくすると、輪郭はよりくっきりするが、背景でないのに背景とされてしまう部分が増える。ユーザは、この違いを理解しつつ、アプリケーションや好みにより重みαを設定すればよい。   FIGS. 10A, 10B, and 10C are explanatory diagrams for explaining the difference in the combination mask due to the difference in the weight α. FIGS. 10A, 10B, and 10C show combined masks when α = 0.3, 1.0, and 1.7, respectively. As described above with respect to Equation 1, when α is different, the determined optimal inter thresholds (Y_th_opt, U_th_opt, V_th_opt) and the optimal intra thresholds (gmm_th_opt) are different, and therefore, the appearance of the resultant combined mask is different. Specifically, when the weight α is increased, it is possible to reduce a portion that is blurred but not a background but is set as a background. When the weight α is reduced, the outline becomes sharper, but the number of portions which are not the background but become the background increases. The user may set the weight α according to the application or preference while understanding the difference.

図11(a)、(b)は、改良F値による評価を説明するためのグラフである。図11(a)はテストマスク生成部232が選んだインター閾値(Y_th、U_th、V_th)を特定する番号を横軸、改良F値算出部234により算出された改良F値を縦軸とするグラフである。改良F値の最大は符号150の箇所で得られ、対応するインター閾値が最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)として決定される。図11(b)はテストマスク生成部232が選んだイントラ閾値gmm_thの1/10を横軸、改良F値算出部234により算出された改良F値を縦軸とするグラフである。改良F値の最大は符号152の箇所で得られ、対応するイントラ閾値が最適なイントラ閾値(gmm_th_opt)として決定される。   FIGS. 11A and 11B are graphs for explaining evaluation based on the improved F value. FIG. 11A is a graph in which the numbers specifying the inter thresholds (Y_th, U_th, V_th) selected by the test mask generation unit 232 are on the horizontal axis, and the improved F value calculated by the improved F value calculation unit 234 is the vertical axis. It is. The maximum of the improved F-number is obtained at the point denoted by reference numeral 150, and the corresponding inter-threshold is determined as the optimum inter-threshold (Y_th_opt, U_th_opt, V_th_opt). FIG. 11B is a graph in which 1/10 of the intra threshold value gmm_th selected by the test mask generation unit 232 is the horizontal axis, and the improved F value calculated by the improved F value calculation unit 234 is the vertical axis. The maximum of the improved F-number is obtained at a position denoted by reference numeral 152, and the corresponding intra threshold is determined as the optimal intra threshold (gmm_th_opt).

図12(a)〜(f)は、フレームの平均画素強度の変動を示すグラフである。図12(a)、(b)、(c)はそれぞれ、あるシーンをカメラで撮像して得られる600フレーム分の動画像について、横軸をフレーム番号、縦軸をYチャネル、Uチャネル、Vチャネルの平均画素強度としてプロットしたものである。図12(d)、(e)、(f)はそれぞれ、同じシーンを別のカメラで撮像して得られる600フレーム分の動画像について、横軸をフレーム番号、縦軸をYチャネル、Uチャネル、Vチャネルの平均画素強度としてプロットしたものである。これらのグラフから分かる通り、一般に、フレーム間の平均画素強度の変動はそれほど大きくない。したがって、フレーム間の平均画素強度の差は、閾値更新の要否の判定のための良い指標と言える。   FIGS. 12A to 12F are graphs showing fluctuations in the average pixel intensity of a frame. FIGS. 12A, 12B, and 12C respectively show a frame number on the horizontal axis, a Y channel, a U channel, and a V axis on a 600-frame moving image obtained by capturing a certain scene with a camera. It is plotted as the average pixel intensity of the channel. FIGS. 12D, 12E, and 12F respectively show a frame number on a horizontal axis, a Y channel, and a U channel on a 600-frame moving image obtained by capturing the same scene with another camera. , V-channel. As can be seen from these graphs, the variation in average pixel intensity between frames is generally not very large. Therefore, the difference between the average pixel intensities between frames can be said to be a good index for determining whether or not the threshold needs to be updated.

以上の構成による画像処理装置200の動作を説明する。
図13は、画像処理装置200における一連の処理の流れを示すフローチャートである。画像処理装置200は、動画像保持部222に保持される処理対象の動画像からひとつのフレームを取得する(S12)。画像処理装置200は、ステップS12で取得されたフレームが最初のフレームであるか否かを判定する(S14)。最初のフレームである場合(S14のYES)、画像処理装置200はユーザによる入力を要する閾値設定処理(S16)を実行する。画像処理装置200は、ステップS16により設定されたインター閾値、イントラ閾値を用いて、ステップS12で取得された最初のフレームから合成マスクを生成する(S18)。最初のフレームを扱っている場合は、画像処理装置200は以下のステップS20、ステップS22をスキップする。画像処理装置200は、2番目以降のフレームについて、ステップS18で生成された合成マスクを用いてΔmskを算出する(S20)。画像処理装置200は、マスクエラーを評価するため、ステップS20で算出されたΔmskとth_mskとを比較する(S22)。Δmsk>th_mskの場合(S22のYES)、処理はステップS16に戻る。Δmsk≦th_mskの場合(S22のNO)、画像処理装置200はステップS18で生成された合成マスクを出力する(S24)。合成マスクの出力の後、画像処理装置200は扱っているフレームが処理対象の動画像の最後のフレームであるか否かを判定する(S26)。最後のフレームである場合(S26のYES)、処理は終了する。最後のフレームでない場合(S26のNO)、処理はステップS12に戻る。
The operation of the image processing apparatus 200 having the above configuration will be described.
FIG. 13 is a flowchart illustrating a flow of a series of processes in the image processing apparatus 200. The image processing device 200 acquires one frame from the moving image to be processed held in the moving image holding unit 222 (S12). The image processing device 200 determines whether or not the frame acquired in step S12 is the first frame (S14). When the frame is the first frame (YES in S14), the image processing apparatus 200 executes a threshold setting process (S16) requiring input by the user. The image processing apparatus 200 generates a combined mask from the first frame acquired in step S12 using the inter threshold and the intra threshold set in step S16 (S18). When the first frame is handled, the image processing apparatus 200 skips the following steps S20 and S22. The image processing device 200 calculates Δmsk for the second and subsequent frames using the composite mask generated in step S18 (S20). The image processing apparatus 200 compares Δmsk calculated in step S20 with th_msk to evaluate a mask error (S22). If Δmsk> th_msk (YES in S22), the process returns to step S16. If Δmsk ≦ th_msk (NO in S22), the image processing apparatus 200 outputs the combined mask generated in step S18 (S24). After the output of the composite mask, the image processing apparatus 200 determines whether the frame being handled is the last frame of the moving image to be processed (S26). If it is the last frame (YES in S26), the process ends. If it is not the last frame (NO in S26), the process returns to step S12.

ステップS12で取得されたフレームが最初のフレームでない場合(S14のNO)、画像処理装置200はΔimgを算出する(S28)。画像処理装置200は、閾値の更新の要否を判定するため、Δimgとth_imgとを比較する(S30)。Δimg>th_imgの場合(S30のYES)、画像処理装置200はインター閾値を更新する(S32)。ステップS32の後、処理はステップS18に進み、画像処理装置200は更新されたインター閾値を用いて合成マスクを生成する。Δimg≦th_imgの場合(S30のNO)、インター閾値は更新されずに処理はステップS18に進む。   If the frame acquired in step S12 is not the first frame (NO in S14), the image processing device 200 calculates Δimg (S28). The image processing device 200 compares Δimg with th_img in order to determine whether the threshold needs to be updated (S30). If Δimg> th_img (YES in S30), the image processing apparatus 200 updates the inter threshold (S32). After step S32, the process proceeds to step S18, and the image processing apparatus 200 generates a combined mask using the updated inter threshold. If Δimg ≦ th_img (NO in S30), the process proceeds to step S18 without updating the inter threshold.

図14は、図13の閾値設定処理ステップS16における処理の流れを示すフローチャートである。画像処理装置200は、ユーザが利用する携帯端末114を介して、関心領域の指定を受け付ける(S36)。画像処理装置200は、指定された関心領域と最初のフレームとに基づくGrabcut法により基準マスクを生成する(S38)。画像処理装置200は、テスト用のインター閾値を選択する(S40)。画像処理装置200は、ステップS40で選択されたインター閾値を用いて最初のフレームからインターテストマスクを生成する(S42)。画像処理装置200は、ステップS38で生成された基準マスクとステップS42で生成されたインターテストマスクとから改良F値を算出する(S44)。選択されていないインター閾値がある場合(S46のNO)、処理はステップS40に戻る。全てのインター閾値が選択された場合(S46のYES)、画像処理装置200は最大の改良F値を与えるインター閾値を最適インター閾値として決定する(S48)。画像処理装置200は、テスト用のイントラ閾値を選択する(S50)。画像処理装置200は、ステップS50で選択されたイントラ閾値を用いて最初のフレームからイントラテストマスクを生成する(S52)。画像処理装置200は、ステップS52で生成されたイントラテストマスクとステップS48で決定された最適インター閾値に対応するインター最適マスクとを合成し、合成テストマスクを生成する(S54)。画像処理装置200は、ステップS38で生成された基準マスクとステップS54で生成された合成テストマスクとから改良F値を算出する(S56)。選択されていないイントラ閾値がある場合(S58のNO)、処理はステップS50に戻る。全てのイントラ閾値が選択された場合(S58のYES)、画像処理装置200は最大の改良F値を与えるイントラ閾値を最適イントラ閾値として決定する(S60)。   FIG. 14 is a flowchart showing the flow of the process in the threshold setting process step S16 of FIG. The image processing device 200 accepts the designation of the region of interest via the portable terminal 114 used by the user (S36). The image processing device 200 generates a reference mask by the Grabcut method based on the designated region of interest and the first frame (S38). The image processing apparatus 200 selects an inter threshold for testing (S40). The image processing device 200 generates an intertest mask from the first frame using the inter threshold value selected in step S40 (S42). The image processing apparatus 200 calculates an improved F value from the reference mask generated in step S38 and the intertest mask generated in step S42 (S44). If there is an unselected inter threshold value (NO in S46), the process returns to step S40. When all the inter thresholds have been selected (YES in S46), the image processing apparatus 200 determines the inter threshold that gives the maximum improved F value as the optimum inter threshold (S48). The image processing apparatus 200 selects a test intra threshold value (S50). The image processing device 200 generates an intra test mask from the first frame using the intra threshold value selected in step S50 (S52). The image processing apparatus 200 combines the intra-test mask generated in step S52 with the inter-optimal mask corresponding to the optimal inter-threshold determined in step S48 to generate a combined test mask (S54). The image processing apparatus 200 calculates an improved F value from the reference mask generated in step S38 and the combined test mask generated in step S54 (S56). If there is an unselected intra threshold (NO in S58), the process returns to step S50. When all the intra thresholds have been selected (YES in S58), the image processing apparatus 200 determines the intra threshold that gives the maximum improved F value as the optimal intra threshold (S60).

図15は、図13の合成マスク生成処理ステップS18における処理の流れを示すチャートである。画像処理装置200は、処理対象のフレームを取得する(S62)。画像処理装置200は、ステップS62で取得されたフレームに対するイントラ背景差分とインターとを並列に実行する。イントラ背景差分では、画像処理装置200は、背景フレームを取得し(S64)、パラメータ保持部224からイントラ閾値を読み出す(S66)。画像処理装置200は、ステップS66で読み出されたイントラ閾値およびステップS64で取得された背景フレームを用いて、ステップS62で取得されたフレームに対してイントラ背景差分を行い、イントラマスクを生成する(S68)。インター背景差分では、画像処理装置200は、パラメータ保持部224からインター閾値を読み出す(S70)。画像処理装置200は、ステップS70で読み出されたインター閾値を用いて、ステップS62で取得されたフレームに対してインター背景差分を行い、インターマスクを生成する(S72)。画像処理装置200は、ステップS68で生成されたイントラマスクとステップS72で生成されたインターマスクとを合成し、合成マスクを生成する(S74)。   FIG. 15 is a chart showing a flow of processing in the synthetic mask generation processing step S18 in FIG. The image processing device 200 acquires a frame to be processed (S62). The image processing device 200 executes the intra background difference and the inter on the frame acquired in step S62 in parallel. With the intra background subtraction, the image processing device 200 acquires a background frame (S64), and reads an intra threshold from the parameter storage unit 224 (S66). The image processing device 200 performs an intra-background difference on the frame acquired in step S62 using the intra threshold read in step S66 and the background frame acquired in step S64, and generates an intra mask ( S68). For the inter background difference, the image processing apparatus 200 reads out the inter threshold from the parameter holding unit 224 (S70). The image processing device 200 performs an inter background subtraction on the frame acquired in step S62 using the inter threshold read out in step S70, and generates an inter mask (S72). The image processing device 200 combines the intra mask generated in step S68 with the inter mask generated in step S72 to generate a combined mask (S74).

上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。   In the above embodiment, examples of the holding unit are a hard disk and a semiconductor memory. Further, based on the description in this specification, each unit is realized by a CPU (not shown), a module of an installed application program, a module of a system program, and a semiconductor memory that temporarily stores the content of data read from a hard disk. It will be understood by those skilled in the art referred to herein that this can be achieved.

本実施の形態に係る画像処理装置200によると、基本的にはユーザは最初に関心領域を指定するだけで、より正確に抽出されたオブジェクトに基づく自由視点映像を楽しむことができる。関心領域の指定後は、イントラ背景差分およびインター背景差分に必要なパラメータは自動的に設定され、自動的に更新される。したがって、ユーザ利便性が向上する。   According to the image processing apparatus 200 according to the present embodiment, basically, the user can enjoy a free viewpoint video based on a more accurately extracted object simply by first specifying a region of interest. After designating the region of interest, parameters necessary for the intra background difference and the inter background difference are automatically set and updated automatically. Therefore, user convenience is improved.

例えば、背景差分のパラメータの意義や背景差分そのものについての知見を有さないユーザにパラメータの設定を求めても、パラメータが適切に設定される蓋然性は低いし、ユーザも当惑するであろう。これに対して本実施の形態に係る画像処理装置200では、そのようなパラメータの設定、更新は自動的に行われるので、ユーザは背景差分についての知見を有さなくても自由視点映像を楽しむことができる。   For example, even if a user who does not have knowledge of the meaning of the background difference parameter or the background difference itself is requested to set the parameter, it is unlikely that the parameter is appropriately set, and the user will be embarrassed. On the other hand, in the image processing device 200 according to the present embodiment, such parameters are automatically set and updated, so that the user can enjoy the free viewpoint video without having knowledge of the background difference. be able to.

また、本実施の形態に係る画像処理装置200では、イントラ背景差分の結果とインター背景差分の結果とを合成することで合成マスクを生成する。したがって、イントラ背景差分の結果、インター背景差分の結果のそれぞれに求められる正確さのレベルを下げ、代わりに処理速度を高めることができる。その結果、リアルタイムにも適用可能な程度に高速でありながら、より正確にオブジェクトを抽出できる背景差分を提供できる。   The image processing apparatus 200 according to the present embodiment generates a combined mask by combining the result of the intra background difference and the result of the inter background difference. Therefore, the level of accuracy required for each of the intra background difference result and the inter background difference result can be reduced, and the processing speed can be increased instead. As a result, it is possible to provide a background difference that can extract an object more accurately while being fast enough to be applicable in real time.

また、本実施の形態に係る画像処理装置200では、マスクのエラーが自動的に検出される。したがって、ユーザが自らマスクのエラーを見つける必要がなくなるので、ユーザ利便性が向上する。   Further, in image processing apparatus 200 according to the present embodiment, a mask error is automatically detected. Therefore, the user does not need to find the mask error by himself, and the user convenience is improved.

また、本実施の形態に係る画像処理装置200では、改良F値を用いてテストマスクの良し悪しが評価される。この改良F値の重みαを変えることで、ユーザは抽出結果を自分の好みに合わせることができる。したがって、ユーザの好みを反映できる柔軟性の高い評価手法が実現される。例えば、ユーザがより正確な輪郭の抽出を望む場合、αを1より小さく設定すればよい。また、ユーザがオブジェクトの抽出漏れの低減を望む場合はαを1より大きく設定すればよい。   In the image processing apparatus 200 according to the present embodiment, the quality of the test mask is evaluated using the improved F value. By changing the weight α of the improved F value, the user can adjust the extraction result to his / her preference. Therefore, a highly flexible evaluation method that can reflect user preferences is realized. For example, if the user wants to extract a more accurate contour, α may be set to be smaller than 1. If the user wants to reduce omission of object extraction, α may be set to be larger than 1.

また、本実施の形態に係る画像処理装置200では、フレームごとにインター閾値の更新の要否が判定され、必要と判定された場合はフレーム間の平均画素強度の差に基づき自動的に閾値が更新される。したがって、オブジェクトの抽出の堅牢性(Robustness)が向上する。   Further, in the image processing apparatus 200 according to the present embodiment, it is determined whether or not the update of the inter threshold is necessary for each frame, and when it is determined that the inter threshold is required, the threshold is automatically set based on a difference in average pixel intensity between frames. Be updated. Therefore, robustness (Robustness) of object extraction is improved.

以上、実施の形態に係る画像処理装置200の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。   The configuration and operation of the image processing device 200 according to the embodiment have been described above. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing, and such modifications are also within the scope of the present invention.

実施の形態では、自由視点映像の配信を例として説明したが、これに限られず、監視カメラから得られる動画像の解析などの一般的な動画像の解析に本実施の形態に係る技術的思想を適用してもよい。   In the embodiment, the distribution of the free viewpoint video has been described as an example, but the present invention is not limited to this, and the technical idea according to the present embodiment is applied to analysis of general moving images such as analysis of a moving image obtained from a surveillance camera. May be applied.

実施の形態では、フレームごとにインター閾値の更新の要否が判定される場合を説明したが、これに限られず、更新の要否の判定は任意の数のフレームごとになされてもよいし、ランダムなタイミングでなされてもよい。また、Δimgに限られず任意の基準により、イントラ閾値およびインター閾値のうちの少なくとも一方の更新の要否が判定されてもよい。   In the embodiment, the case where the necessity of the update of the inter threshold is determined for each frame has been described, but the present invention is not limited to this, and the determination of the necessity of the update may be made for any number of frames, It may be done at random timing. In addition, whether or not at least one of the intra threshold and the inter threshold is required to be updated may be determined based on an arbitrary criterion, not limited to Δimg.

実施の形態では、基準フレームとして最初のフレームが採用されたが、これに限られず、処理対象の動画像の任意のフレームが基準フレームとして採用されてもよい。   In the embodiment, the first frame is adopted as the reference frame. However, the present invention is not limited to this, and any frame of the moving image to be processed may be adopted as the reference frame.

実施の形態では、イントラ背景差分の結果とインター背景差分の結果との合成により合成マスクを生成する処理を画像処理装置200が行う場合を説明したが、これに限られず、例えば携帯端末114が当該合成処理を行ってもよい。このように、画像処理装置200の機能の一部または全部を携帯端末114が実現する態様も可能である。   In the embodiment, the case where the image processing apparatus 200 performs the process of generating the combined mask by combining the result of the intra background difference and the result of the inter background difference is described. However, the present invention is not limited thereto. A combining process may be performed. As described above, a mode in which the mobile terminal 114 realizes part or all of the functions of the image processing apparatus 200 is also possible.

実施の形態では、イントラテストマスクを生成し、それをインター最適マスクと合成して合成テストマスクを生成する場合を説明したが、これに限られず、例えばイントラテストマスクに対して改良F値を算出し、最大の改良F値を与えるイントラ閾値を最適なイントラ閾値として決定してもよい。この場合、インター閾値、イントラ閾値は個々に基準マスクに対して最適化される。   In the embodiment, the case where the intra test mask is generated and the synthesized test mask is generated by synthesizing the intra test mask with the inter-optimal mask has been described. However, the present invention is not limited to this. Then, the intra threshold that gives the maximum improved F value may be determined as the optimal intra threshold. In this case, the inter threshold and the intra threshold are individually optimized for the reference mask.

以下に、最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を決めるためのプログラムコードの例を示す。最適なイントラ閾値(gmm_th_opt)は同様のプログラムコードにより決められてもよい。

Figure 0006632134
The following is an example of a program code for determining the optimum inter thresholds (Y_th_opt, U_th_opt, V_th_opt). The optimal intra threshold (gmm_th_opt) may be determined by a similar program code.
Figure 0006632134

110 自由視点画像配信システム、 112 ネットワーク、 114 携帯端末、 200 画像処理装置。   110 free viewpoint image distribution system, 112 network, 114 portable terminal, 200 image processing device.

Claims (11)

動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する手段と、
前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する手段と、
前記第1マスクと前記第2マスクとを合成することで合成マスクを生成する手段と、
前記第1背景差分、前記第2背景差分のいずれとも異なる第3背景差分を行うことで基準マスクを生成する手段と、
生成された前記基準マスクに基づいて、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を設定する手段と、を備える画像処理装置。
Means for obtaining a first mask obtained by performing a first background difference on a target frame of a moving image in the target frame;
Means for obtaining a second mask obtained by performing a second background difference between frames for the target frame;
Means for generating a combined mask by combining the first mask and the second mask;
Means for generating a reference mask by performing a third background difference different from any of the first background difference and the second background difference;
Means for setting at least one of a parameter used in the first background difference and a parameter used in the second background difference based on the generated reference mask .
前記合成マスクの背景部分は、前記第1マスクおよび前記第2マスクのうちの少なくとも一方における背景部分である請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a background portion of the composite mask is a background portion of at least one of the first mask and the second mask. 生成された前記合成マスクを用いて前記対象フレームからオブジェクトを抽出する手段をさらに備える請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a unit configured to extract an object from the target frame using the generated composite mask. 前記動画像の基準フレームにおける関心領域の指定をユーザから受け付ける手段をさらに備え、
前記基準マスクの背景部分は、指定された前記関心領域の外部を含む請求項1から3のいずれか1項に記載の画像処理装置。
The apparatus further includes means for receiving designation of a region of interest in a reference frame of the moving image from a user,
4. The image processing apparatus according to claim 1 , wherein a background portion of the reference mask includes an area outside the designated region of interest. 5.
前記設定する手段は、前記基準マスクを正解とするときの適合率(precision)と再現率(recall)との重み付け調和平均が大きくなるようにパラメータを設定する請求項1から4のいずれか1項に記載の画像処理装置。 5. The parameter setting unit according to claim 1 , wherein the setting unit sets the parameter such that a weighted harmonic average of a precision and a recall when the reference mask is set as a correct answer is large. 6. An image processing apparatus according to claim 1. 前記重み付け調和平均における重みの指定をユーザから受け付ける手段をさらに備える請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5 , further comprising a unit configured to receive designation of a weight in the weighted harmonic mean from a user. 基準マスクの生成および生成された該基準マスクによるパラメータの再設定が必要か否かを判定する手段をさらに備える請求項1から6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6 , further comprising: a unit configured to determine whether it is necessary to generate a reference mask and reset parameters using the generated reference mask. 前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方の更新が必要か否かを判定する手段をさらに備える請求項1からのいずれか1項に記載の画像処理装置。 The apparatus according to any one of claims 1 to 7 , further comprising: a unit configured to determine whether at least one of a parameter used in the first background difference and a parameter used in the second background difference needs to be updated. Image processing device. 前記判定する手段は、フレーム間の平均画素強度の差に基づいて更新の要否を判定し、
本画像処理装置はさらに、更新が必要であると判定された場合、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を前記差に応じて更新する手段を備える請求項8に記載の画像処理装置。
The determining means determines whether or not updating is necessary based on a difference in average pixel intensity between frames,
The image processing apparatus further updates at least one of a parameter used in the first background difference and a parameter used in the second background difference according to the difference when it is determined that the update is necessary. The image processing apparatus according to claim 8 , further comprising a unit.
動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得することと、
前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得することと、
前記第1マスクと前記第2マスクとを合成することで合成マスクを生成することと、
前記第1背景差分、前記第2背景差分のいずれとも異なる第3背景差分を行うことで基準マスクを生成することと、
生成された前記基準マスクに基づいて、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を設定することと、を含む画像処理方法。
Obtaining a first mask obtained by performing a first background difference on a target frame of a moving image in the target frame;
Obtaining a second mask obtained by performing a second background difference between frames for the target frame;
Generating a combined mask by combining the first mask and the second mask;
Generating a reference mask by performing a third background difference different from any of the first background difference and the second background difference;
Setting at least one of a parameter used in the first background difference and a parameter used in the second background difference based on the generated reference mask .
動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する機能と、
前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する機能と、
前記第1マスクと前記第2マスクとを合成することで合成マスクを生成する機能と、
前記第1背景差分、前記第2背景差分のいずれとも異なる第3背景差分を行うことで基準マスクを生成する機能と、
生成された前記基準マスクに基づいて、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を設定する機能と、をコンピュータに実現させるためのコンピュータプログラム。
A function of obtaining a first mask obtained by performing a first background difference on a target frame of a moving image in the target frame;
A function of obtaining a second mask obtained by performing a second background difference between frames for the target frame;
A function of generating a combined mask by combining the first mask and the second mask;
A function of generating a reference mask by performing a third background difference different from any of the first background difference and the second background difference;
A computer program for causing a computer to implement , based on the generated reference mask, a function of setting at least one of a parameter used in the first background difference and a parameter used in the second background difference .
JP2016124761A 2016-06-23 2016-06-23 Image processing apparatus, image processing method, and computer program Active JP6632134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016124761A JP6632134B2 (en) 2016-06-23 2016-06-23 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124761A JP6632134B2 (en) 2016-06-23 2016-06-23 Image processing apparatus, image processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2017228146A JP2017228146A (en) 2017-12-28
JP6632134B2 true JP6632134B2 (en) 2020-01-15

Family

ID=60891875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124761A Active JP6632134B2 (en) 2016-06-23 2016-06-23 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6632134B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208702A1 (en) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Free viewpoint image generation method, free viewpoint image display method, free viewpoint image generation device, and display device

Also Published As

Publication number Publication date
JP2017228146A (en) 2017-12-28

Similar Documents

Publication Publication Date Title
US11875467B2 (en) Processing method for combining a real-world environment with virtual information according to a video frame difference value to provide an augmented reality scene, terminal device, system, and computer storage medium
US10205896B2 (en) Automatic lens flare detection and correction for light-field images
US10762653B2 (en) Generation apparatus of virtual viewpoint image, generation method, and storage medium
CN109891189B (en) Planned photogrammetry
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
CN112492388B (en) Video processing method, device, equipment and storage medium
US10176616B2 (en) Automatic capture and refinement of a digital image of a group of people without user intervention
US9300940B2 (en) Method and apparatus for converting 2-dimensional image into 3-dimensional image by adjusting depth of the 3-dimensional image
JP2015524103A (en) Method and system for realizing augmented reality interaction
JP7023696B2 (en) Information processing equipment, information processing methods and programs
US10706512B2 (en) Preserving color in image brightness adjustment for exposure fusion
JP6362085B2 (en) Image recognition system, image recognition method and program
CN114025219B (en) Rendering method, device, medium and equipment for augmented reality special effects
KR20090087670A (en) Method and system for extracting the photographing information
CN110866563B (en) Similar video detection and recommendation method, electronic device and storage medium
JP7118934B2 (en) Object number estimation device, object number estimation method, and object number estimation program
CN112954443A (en) Panoramic video playing method and device, computer equipment and storage medium
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
JP2008287594A (en) Specific movement determination device, reference data generation device, specific movement determination program and reference data generation program
JP6632134B2 (en) Image processing apparatus, image processing method, and computer program
US10887525B2 (en) Delivery of notifications for feedback over visual quality of images
JP7080614B2 (en) Image processing equipment, image processing system, image processing method, and program
JP6450305B2 (en) Information acquisition apparatus, information acquisition method, and information acquisition program
JP2014229092A (en) Image processing device, image processing method and program therefor
KR101741150B1 (en) An imaging photographing device and an imaging photographing method using an video editing

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R150 Certificate of patent or registration of utility model

Ref document number: 6632134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150