JP2014106647A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2014106647A JP2014106647A JP2012257947A JP2012257947A JP2014106647A JP 2014106647 A JP2014106647 A JP 2014106647A JP 2012257947 A JP2012257947 A JP 2012257947A JP 2012257947 A JP2012257947 A JP 2012257947A JP 2014106647 A JP2014106647 A JP 2014106647A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- value
- pixel value
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
複合現実感技術における画像処理技術に関する。 The present invention relates to image processing technology in mixed reality technology.
現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として、複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものがある。このビデオシースルーHMDを利用する方式では、HMD使用者の瞳位置から観察される被写体と略一致する被写体がビデオカメラなどにより撮像され、HMD使用者は、撮像画像にコンピュータグラフィックス(CG)を重畳表示した画像を観察できる。 Mixed reality, so-called MR (Mixed Reality) technology is known as a technology that seamlessly fuses the real world and the virtual world in real time. One of MR techniques uses video see-through HMD (Head Mounted Display). In the method using the video see-through HMD, a subject that substantially matches the subject observed from the pupil position of the HMD user is captured by a video camera or the like, and the HMD user superimposes computer graphics (CG) on the captured image. The displayed image can be observed.
ビデオシースルー型HMDでは、CCD等の電荷結合素子により被写体を撮像してその被写体のデジタル画像データを得ると共に、撮像画像にCG画像を重畳してMR画像(複合現実画像)を生成する。そして、生成したMR画像は、液晶や有機EL等の表示デバイスを介して装着者に対して表示される。図14はHMD使用者がHMD2401を装着している様子を示す図である。図14には示されていないがHMD2401の他に外部装置があり、HMD2401は外部装置へHMDの位置姿勢情報を送信する。外部装置ではHMDから受信した位置姿勢情報に基づいてCGをブルーバックの画像に重畳し、HMDへ送信する。HMDでは外部装置から受信したCG画像とHMDで撮像した撮像画像とを重畳して表示する。このようにして、HMD使用者はHMD2401を用いることでMR空間を体験することが可能となる。
In the video see-through HMD, a subject is imaged by a charge coupled device such as a CCD to obtain digital image data of the subject, and an MR image (mixed reality image) is generated by superimposing a CG image on the captured image. The generated MR image is displayed to the wearer via a display device such as liquid crystal or organic EL. FIG. 14 is a diagram illustrating a state in which the HMD user is wearing the HMD 2401. Although not shown in FIG. 14, there is an external device in addition to the
CG画像とカメラで撮像した画像を重畳する際、CG画像を半透明にして重畳する場合がある。例えばCG画像に窓のようなオブジェクトがあった場合、このオブジェクトに対して、CG画像を半透明にしてカメラ画像とクロマキー合成する。半透明でクロマキー合成をすることで、HMD使用者は窓の外に実写画像があるような映像を見ることができる。この場合、CG画像とは別に半透明の処理に必要なα値と呼ばれる透明度を表す係数が必要になる。 When superimposing a CG image and an image captured by a camera, the CG image may be semi-transparent and superimposed. For example, when there is an object such as a window in the CG image, the CG image is made semi-transparent to this object and the camera image and the chroma key are combined. By translucent and chroma key composition, the HMD user can see an image with a live-action image outside the window. In this case, apart from the CG image, a coefficient representing the transparency called α value necessary for the translucent process is required.
図15は、このような例を示した図である。図15の(a)はカメラで撮像した画像であり、(b)はCG画像である。2503は撮像した画像と半透明でクロマキー合成をする個所で、2502はクロマキー合成時に撮像した画像をCG画像に置き換える個所である。(a)と(b)をクロマキー合成した結果が(c)である。(c)の2503の領域は半透明でクロマキー合成を行っているため、透けたような状態でカメラ画像が表示される。
FIG. 15 is a diagram showing such an example. FIG. 15A shows an image captured by the camera, and FIG. 15B shows a CG image.
HMDと外部装置のような別々の装置から取得した画像を半透明でクロマキー合成を行うには、どこが半透明であるかを別に情報として送る必要がある。非特許文献1には、画像データの中にα値を埋め込むことでα値のデータを削減する方法が記載されている。
In order to perform semi-transparent and chroma key composition of images acquired from different devices such as an HMD and an external device, it is necessary to send information as to which is translucent. Non-Patent
しかしながら、特許文献1に記載の技術では、画像のデータ中にα値を埋め込むため、画像の色情報がα値を埋め込む前に比べて少なくなるという問題があった。本発明は上記課題に鑑みなされたものであり、半透明の領域を含むCG画像について、画像の情報量を減らすことなく、半透明の領域とその透明度を示す情報とを特定する技術を提供することを目的とする。
However, the technique disclosed in
上記目的を達成するため、本発明による画像処理装置は、既知の第1の画像と、未知の第2の画像とを、透明度を示す未知の係数を用いて、画素ごとに半透明または非半透明のいずれかで合成した合成画像について、当該合成画像に含まれる画素のそれぞれが半透明で合成された画素であるかを判定する画像処理装置であって、1つの画素を含む所定の領域における前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記1つの画素と前記所定の領域に含まれる他の画素との、前記第2の画像に対応する前記画像の画素値の差分の合計を算出する算出手段と、前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定手段と、前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定手段と、を備える。 In order to achieve the above object, an image processing apparatus according to the present invention converts a known first image and an unknown second image into a translucent or non-semiconductor for each pixel by using an unknown coefficient indicating transparency. An image processing apparatus that determines whether each of the pixels included in the combined image is a semi-transparent combined pixel with respect to a combined image combined with one of the transparent images in a predetermined region including one pixel The pixel value of the image corresponding to the second image when each of a plurality of values is used as the coefficient is calculated from the pixel value of the synthesized image and the pixel value of the first image, and Calculating means for calculating a sum of differences in pixel values of the image corresponding to the second image between one pixel and other pixels included in the predetermined region; and a plurality of values of the coefficient To the sum of the corresponding differences Therefore, the estimation means for estimating the coefficient used to obtain the composite image in the one pixel, and when the estimated value of the coefficient is larger than a predetermined value, the one pixel Determining means for determining that the pixel value of the first image and the pixel value of the second image are translucent and synthesized pixels.
本発明によれば、半透明の領域を含むCG画像について、画像そのものから半透明の領域とその透明度を特定することができる。 According to the present invention, for a CG image including a translucent area, the translucent area and its transparency can be specified from the image itself.
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<<実施形態1>>
(システムの構成)
図1は、本実施形態に関する画像表示システムの構成例を示す図である。画像表示システムは、頭部搭載型の画像表示装置であると共に画像処理を行う画像処理装置でもあるHMD1101と、コントローラ1102と、表示部1103を有する画像提供装置1104とを含む。
<<
(System configuration)
FIG. 1 is a diagram illustrating a configuration example of an image display system according to the present embodiment. The image display system includes an HMD 1101 that is a head-mounted image display device and also an image processing device that performs image processing, a
HMD1101は、使用者の頭部に装着され、画像表示部、コントローラ1102と通信する通信部、及び、それらを制御する制御部などを含む。画像表示部は、画像提供装置1104で生成した画像を表示する。画像表示部は、光学系を含み、使用者の左右の眼のそれぞれの前に配置される。HMD1101は、コントローラ1102と通信を行う。コントローラ1102は、例えばWLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)などの小規模ネットワークを構成し、HMD1101と無線通信を行う。なお、HMD1101とコントローラ1102との間の通信は、無線通信でなく有線通信であってもよい。
The HMD 1101 is mounted on the user's head and includes an image display unit, a communication unit that communicates with the
コントローラ1102と有線接続された画像提供装置1104は、例えば、画像を再生する再生部と再生する画像を格納しておく格納部とを有する。画像提供装置1104は、コントローラ1102を介し、HMD1101と通信する。また、画像提供装置1104は、キーボードなどを備え、データや、命令等を入力し、表示部1103は、入力されたデータや命令に対応する処理の結果等を表示する。
The
図1では、画像提供装置1104とコントローラ1102とが別々のハードウェアからなるように図解されているが、コントローラ1102の持つ機能を画像提供装置1104内に実装して一体化してもよい。また、画像提供装置1104とコントローラ1102がそれぞれ有する機能を集めて、専用の画像提供装置を構成してもよい。
In FIG. 1, the
(システム内の各装置の構成)
図2は、図1の画像表示システムにおける、画像提供装置及びHMDの機能構成を示す概略ブロック図である。HMD1101は、例えば、撮像部1201、特徴点抽出部1202、画像処理部1203、表示部1204、制御部1205、通信部1206、及び撮像画像格納部1207を有する。そして、画像提供装置1104は、PCやワークステーションなど、HMD1101とは異なる外部の装置に実装され、例えば、通信部1221、CG描画部1222、コンテンツデータベース(DB)1223、及び位置姿勢算出部1224を有する。
(Configuration of each device in the system)
FIG. 2 is a schematic block diagram showing functional configurations of the image providing apparatus and the HMD in the image display system of FIG. The
HMD1101の撮像部1201は、観測対象を撮像して画像を取得する。特徴点抽出部1202は、撮像部1201で撮像した画像からHMDの位置姿勢を求めるために必要となる情報を抽出する。画像処理部1203は、外部から受信して取得した画像に対して処理を行い、表示部1204は画像を表示する。制御部1205はHMD1101の各機能部を制御し、通信部1206は画像提供装置1104との間で画像や制御信号を送受信する。撮像画像格納部1207は、撮像部1201で撮像した画像を一時的にメモリに保存する。なお、HMD1101は、その他の不図示の機能部を有してもよい。
The
画像提供装置1104の通信部1221は、画像や制御信号等をHMD1101との間で送受信する。コンテンツDB1223にはカラーグラフィックス(CG)コンテンツが格納され、CG描画部1222は、コンテンツDBに格納されているカラーグラフィックス画像(CG画像)を描画する。位置姿勢算出部1224は、HMD1101から受信した撮像画像の特徴点情報からHMD1101の位置姿勢を算出する。
The
なお、以下ではHMD1101から画像提供装置1104へ特徴点を送信し、画像提供装置1104の位置姿勢算出部1224がHMDの位置と姿勢の情報を算出する構成について説明するが、これに限られない。例えば、画像提供装置1104の位置姿勢算出部1224をHMD1101に搭載して、HMD1101内においてHMD1101の位置姿勢情報を生成し、HMD1101から画像提供装置1104へその位置姿勢情報を送信するようにしてもよい。
Hereinafter, a configuration in which feature points are transmitted from the
上述の構成において、HMD1101の特徴点抽出部1202は、撮像部1201で撮像した画像についての特徴点を抽出する。抽出された特徴点情報は、その後、通信部1206を介して画像提供装置1104へ送信される。画像提供装置1104の位置姿勢算出部1224は、受信した特徴点情報からHMD1101の位置及び姿勢を算出する。CG描画部1222は、位置姿勢算出部1224で算出したHMD1101の位置と姿勢に基づいてCGを描画する。その後、画像提供装置1104は、描画したCG画像を、通信部1221を介してHMD1101へ送信する。HMD1101の画像処理部1203は、画像提供装置1104から受信して取得したCG画像と撮像部1201で撮像した画像とを合成し、表示部1204は、合成した画像を表示する。
In the above-described configuration, the feature
なお、本実施形態では、CG画像は、後述のように、第1の画像(背景画像)と第2の画像(CG画像)とを、透明度を示す係数(α値)を用いて半透明または非半透明で合成した画像である。すなわち、受信画像は、CGを表示しない画素では背景画像の画素値を、非半透明のCGを表示する画素ではCGの画素値を、そして、半透明の画素では、背景画像の画素とCGの画素とその画素に対するα値とから得られる画素値を、それぞれ有する画像となる。そして、HMD1101は、受信画像から、CGを表示する部分に関するCG画像の画素値と透明度を示す係数とを特定し、撮像画像と特定したCG画像の画素値とを用いて合成画像を生成する。以上のようにして、HMD1101の装着者は、画像提供装置1104で描画したCGと撮像画像を合成した画像を見ることができる。
In the present embodiment, as described later, the CG image is a semi-transparent or first image (background image) and a second image (CG image) using a coefficient (α value) indicating transparency. This is a non-translucent composite image. That is, the received image has the pixel value of the background image for pixels that do not display CG, the pixel value of CG for pixels that display non-translucent CG, and the pixel values of the background image and CG for translucent pixels. The images each have a pixel value obtained from the pixel and the α value for the pixel. Then, the
また、本実施形態では、画像提供装置1104のCG描画部1222は、例えばブルーバック画像の上にCGを描画するが、CG描画する際の背景画像はこれに限られない。例えば、所定のパターンを有する画像を背景としてもよい。すなわち、背景画像は、HMD1101と画像提供装置1104とが同じ背景画像を認識していれば、どのようなものであってもよい。
In the present embodiment, the
(画像処理部の構成)
図3は、画像処理部1203を詳細に説明するブロック図である。画像処理部1203は、上述の通り、画像提供装置1104から受信したCG画像と撮像部1201で撮像した画像とを合成する機能部である。画像処理部1203は、例えば、判定部1301、半透明領域特定部1302、分離部1303、及び合成部1304を有する。
(Configuration of image processing unit)
FIG. 3 is a block diagram illustrating the
判定部1301は、画像提供装置1104から受信した画像の中に所定の背景画像の画素、例えばブルーバック画素があるかを判定する。図4に、画像提供装置1104から受信する画像の例を示す。図4において、1401は背景画像の画素を、1402はCG画素を、そして1403はCGと背景画像とを半透明で合成する画素を、それぞれ示す。判定部1301は、背景画像の画素でないと判定した領域を半透明領域特定部1302へ、背景画像の画素と判定した領域を合成部1304へ、それぞれ出力する。
The
半透明領域特定部1302は、判定部1301から受け取った画像の各領域(画素)がCG画像であるか、それとも半透明の領域であるかを判定する。判定方法については後述する。半透明領域特定部1302は、CG画像と判断した領域(画素)を合成部1304へ、半透明と判断した領域(画素)を分離部1303へ、それぞれ出力する。分離部1303は、半透明領域を、合成前の背景画像及びCG画像と、α値、すなわち、透明度を示す係数とに分離し、CG画像とα値を合成部1304へ出力する。
The translucent
合成部1304は、入力された領域が背景領域であれば、その領域を撮像画像格納部1207から取り出した画像に置き換え、CG画像であればCG画像のままにする。そして、合成部1304は、入力された領域が半透明領域である場合、撮像画像格納部1207から取り出した画像と、分離部1303で求めたCG画像及びα値とを、半透明で合成する。合成した画像は表示部1204へ送られる。
If the input region is a background region, the
半透明領域特定部1302における処理を説明する前に、半透明での画像の合成方法について簡単に説明する。半透明での画像の合成は、一般的に以下のような式に従って実行される。
Before describing the processing in the translucent
なお、Zは半透明合成後の画像の画素値、Xは第1の画像(背景画像、例えば撮像画像、ブルーバック画像、特定のパターン画像)の画素値であり、Yは第2の画像(例えばCG画像)の画素値である。なお、α=1の時は第1の画像が出力され、α=0の時は第2の画像が出力される。すなわち、α値が小さいほど、合成画像において第2の画像の画素値が強く影響し、α値が大きいほど、合成画像において第1の画像の画素値が強く影響する。画像中において、αの値を0から1の間で変化させることにより、第1の画像と、第2の画像とを、半透明または非半透明で合成することができる。また、下付き文字の「red」「green」「blue」により、各画素に対する赤、緑、青の色情報をそれぞれ表す。図5は、1つの画素について、α=0.5でのブルーバック画像とCG画像の半透明合成を示した図である。ブルーバック画像の画素値は(R、G、B)=(0、0、255)であり、CG画像の画素値が、例えば(R、G、B)=(64、192、128)の場合、α=0.5で合成すると、半透明で合成した画素値は(R、G、B)=(32、96、192)となる。HMD1101が画像提供装置1104から受信する画像の画素値は、ブルーバック画像とCG画像との半透明合成画像の画素値であり、図5の例では、画素値が(R、G、B)=(32、96、192)の画像となる。
Z is the pixel value of the image after translucent synthesis, X is the pixel value of the first image (background image, for example, captured image, blue back image, specific pattern image), and Y is the second image ( For example, the pixel value of a CG image). Note that the first image is output when α = 1, and the second image is output when α = 0. That is, the smaller the α value, the stronger the pixel value of the second image in the composite image, and the greater the α value, the stronger the pixel value of the first image in the composite image. By changing the value of α between 0 and 1 in the image, the first image and the second image can be synthesized translucent or non-translucent. In addition, subscripts “red”, “green”, and “blue” represent red, green, and blue color information for each pixel, respectively. FIG. 5 is a diagram showing a semi-transparent composition of a blue back image and a CG image with α = 0.5 for one pixel. The pixel value of the blue-back image is (R, G, B) = (0, 0, 255), and the pixel value of the CG image is, for example, (R, G, B) = (64, 192, 128) , Α = 0.5, the pixel value synthesized in a translucent manner is (R, G, B) = (32, 96, 192). The pixel value of the image received by the
(半透明領域の判定方法)
続いて、半透明領域特定部1302における半透明領域かCG画像領域の判定方法について説明する。画像提供装置1104から受信する画像の画素値は、図5の例では、上述の通り、(R、G、B)=(32、96、192)である。ここで、α=0.5とCG画像の画素値(R、G、B)=(64、192、128)が得られた場合、この画素は半透明画素であると判定できる。もしα値が0になった場合、上式に従うとブルーバック画像は半透明画像に反映されないため、この画素はCG画素であると判定できる。
(Semi-transparent area judgment method)
Next, a method for determining a translucent area or a CG image area in the translucent
上式に従うと、例えば赤(RED)を求める式に、2つの不定値(α値とYred)が存在するため、1つの画素の情報からはCG画像の画素値とα値を求めることはできない。そのため周囲画素の情報も用いてCG画像の画素値の算出とα値の特定とを行う。1つの画素と、この画素の周囲画素とでは、CGの画素値もα値も大幅に変化することは少ない。そのため、本実施形態では、処理対象画素を含む所定の領域の画素情報を用いて半透明領域の分離を行う。本実施形態では、所定の領域として図6(a)のように処理対象画素1602の周囲8画素を用いる場合について説明を行うが、周囲画素を用いる範囲をさらに増やしてもよいし減らしてもよい。また、例えば図6(b)のように周囲8画素ではなく周囲の所定数の画素(例えば24画素)の中で、処理対象画素からの画素値との差分が小さい(例えば8個の)画素を所定の領域として用いてもよい。
According to the above formula, for example, there are two indeterminate values (α value and Y red ) in the formula for obtaining red (RED), so that the pixel value and α value of the CG image are obtained from the information of one pixel. Can not. Therefore, the calculation of the pixel value of the CG image and the specification of the α value are performed also using information on surrounding pixels. The CG pixel value and α value rarely change significantly between one pixel and surrounding pixels of this pixel. Therefore, in the present embodiment, the translucent area is separated using pixel information of a predetermined area including the processing target pixel. In the present embodiment, the case where eight pixels around the
図7は、CG画像と背景画像とをα=0.5で半透明合成した場合についての半透明領域の判定の例を示す。図7(a)は、処理対象画素を含む所定の領域における、半透明処理を行う前のCG画像の画素値を示し、図7(b)は、その所定の領域における背景画像の画素値を示す。なお、ここでは、背景画像として、ブルーバック画像ではなく所定のパターン画像を用いている。図7(c)は、CG画像と背景画像とを、α=0.5で半透明合成した半透明領域の画素値であって、画像提供装置1104から受信する画像の画素値を示している。
FIG. 7 shows an example of determination of a semi-transparent area in the case where a CG image and a background image are semi-transparent combined with α = 0.5. FIG. 7A shows the pixel value of the CG image before performing the translucent process in the predetermined area including the processing target pixel, and FIG. 7B shows the pixel value of the background image in the predetermined area. Show. Here, a predetermined pattern image is used as a background image instead of a blue back image. FIG. 7C shows pixel values of a translucent area obtained by translucently combining a CG image and a background image with α = 0.5, and the pixel value of an image received from the
ここで、半透明画像から既知の第1の画像(背景画像)と未知の第2の画像(CG画像)とを分離する際、不定値は透明度を示す係数であるα値と第2の画像(CG画像)の画素値である。しかしながら、未知のα値を1つの値で仮定すると、そのα値に対する第2の画像に対応する画像の画素値を上式から逆計算できる。すなわち、ある1つのα値(0≦α<1)を仮定して、以下の式によりCG画像の画素値を逆計算する。 Here, when separating the known first image (background image) and the unknown second image (CG image) from the translucent image, the indefinite value is an α value that is a coefficient indicating transparency and the second image. This is a pixel value of (CG image). However, if the unknown α value is assumed to be one value, the pixel value of the image corresponding to the second image corresponding to the α value can be inversely calculated from the above equation. That is, assuming a certain α value (0 ≦ α <1), the pixel value of the CG image is inversely calculated by the following equation.
図7の(d)は、α値が0.7を仮定した時の、受信画像から計算される所定の領域におけるCG画素値と、そのCG画素値に基づいて算出される処理対象画素と周囲画素との差分の合計とを示す。すなわち、図7の(d)では、所定の領域の全画素についてα=0.7として上式によりCG画素値YをR、G、Bのそれぞれについて算出した結果と、算出したCG画素値について周囲画素と処理対象画素との差分を累積した結果とを示している。同様に、図7(e)はα=0.5の場合の例を、そして図7(f)はα=0.3の場合の例を、それぞれ示している。なお、図7では示していないが、α値が0.1〜0.2、0.4、0.6、0.8〜0.9の場合についても、CG画素値と、そのCG画素値に基づく差分値の合計とを求める。すなわち、α値をパラメータとして、複数のパラメータのそれぞれについて所定の領域のCG画素値を逆計算し、処理対象画素のCG画素値と所定の領域に含まれる他の画素におけるCG画素値との差分の累計値を求める。また、α値の変化は0.1刻みでなくてもよく、0.01刻みなど、より細かいステップであってもよいし、0.125刻みなどより広いステップであってもよい。さらに、α値が0の場合についても差分の計算を行ってもよい。なお、差分値の合計は、以下の式に基づいて算出される。 FIG. 7D shows a CG pixel value in a predetermined area calculated from the received image when the α value is assumed to be 0.7, a processing target pixel calculated based on the CG pixel value, and the surrounding area. The sum of differences from pixels is shown. That is, in (d) of FIG. 7, with respect to all the pixels in the predetermined region, α = 0.7, and the calculation result of the CG pixel value Y for each of R, G, and B by the above formula, and the calculated CG pixel value The result of accumulating the difference between the surrounding pixels and the processing target pixel is shown. Similarly, FIG. 7E shows an example when α = 0.5, and FIG. 7F shows an example when α = 0.3. Although not shown in FIG. 7, the CG pixel value and its CG pixel value are also obtained when the α value is 0.1 to 0.2, 0.4, 0.6, and 0.8 to 0.9. And the sum of the difference values based on. That is, with the α value as a parameter, the CG pixel value of a predetermined area is inversely calculated for each of the plurality of parameters, and the difference between the CG pixel value of the processing target pixel and the CG pixel value of other pixels included in the predetermined area Find the cumulative value of. Further, the change of the α value may not be in increments of 0.1, may be finer steps such as 0.01 increments, or may be wider steps such as 0.125 increments. Further, the difference may be calculated even when the α value is 0. The total difference value is calculated based on the following equation.
隣接する画素間において、CGの画素値は大幅に変化することは少ないため、あるα値に対して算出された処理対象画素と周囲画素のCG画素値の差分の合計が小さい場合、対象画素がそのα値で半透明合成されたものであると判定できる。すなわち、あるα値を用いて逆計算したCG画素値が、処理対象画素と周囲画素とでほぼ一致する場合、対象画素は、そのα値を用いて半透明合成された画素であると判定することができる。したがって、分離部1303は、差分の合計が最小となるα値を求め、そのα値を一時的に記憶する。なお、図7の例では、(e)の時、つまりα値が0.5の時、対象画素と周囲画素の差分が一番少ない。このため、分離部1303は、背景画像とCG画像とがα=0.5を用いて合成されたと推定し、α値を0.5として一時的に記憶する。なお、本実施形態では、差分の合計が最少となるα値を、半透明合成に用いられたα値と仮定するが、これに限られない。例えば、差分の合計が所定値より小さいα値を求め、その中で最小又は最大のα値を半透明合成に用いられたα値として仮定してもよい。また、あるα値の範囲で差分の合計が所定値より小さかった場合は、その範囲の中央値のα値を半透明合成に用いられたα値として仮定してもよい。また、α値と差分の合計値とから、加重平均により半透明合成に用いられたα値を仮定してもよい。
Since the CG pixel value hardly changes greatly between adjacent pixels, if the sum of the differences between the CG pixel values of the processing target pixel and the surrounding pixels calculated for a certain α value is small, the target pixel is It can be determined that the translucent composition is made with the α value. That is, when the CG pixel value calculated backward using a certain α value substantially matches between the processing target pixel and the surrounding pixels, it is determined that the target pixel is a pixel that is translucently synthesized using the α value. be able to. Therefore, the
ここで、半透明画像の画素値は、αが十分に小さい場合はほとんど半透明合成前のCG画素値から構成されることになる。したがって、本実施形態では、分離部1303は、α値が所定値以下の時は半透明領域ではなくCG画素であると判定する。例えば、α値が0.1以下の場合には半透明領域でないと判定する。なお、半透明領域か否かを判定するための所定値は0.1でなくてもよい。例えば、0.01刻みのα値に対して差分値を計算する場合、α値が0.09以下の時にCG画像と判断するようにしてもよい。このように、差分値を計算するα値のステップに応じて所定値が定められてもよい。
Here, when α is sufficiently small, the pixel value of the translucent image is almost composed of the CG pixel value before the semitransparent composition. Therefore, in this embodiment, the
また、この所定値は、状況に応じて可変であってもよい。例えば、受信した画像のある領域について、分離部1303が一時記憶したα値の平均が低い場合などは、所定値を低くして半透明領域を検出しやすくすることで、低いα値で合成された半透明領域を漏れなく検出することができる。同様に、半透明と判定された領域にスポット的に存在する半透明でない領域について、所定値を下げて再度半透明領域の判定を実行してもよい。これにより、大きな半透明領域において誤ってCG領域と判定された画素を半透明領域に含めることができる確率を高めることが可能となる。また、受信した画像のある領域について、スポット的に半透明と判定される領域が多数あった場合は、所定値を高くすることにより、本来半透明でない領域を誤って半透明の領域として判定することを防ぐことが可能となる。
Further, the predetermined value may be variable depending on the situation. For example, if the average of the α values temporarily stored by the
上の説明では、図7を用いて1画素に対応した処理を説明したが、この処理は、背景領域でない全ての領域に対して実行される。 In the above description, the processing corresponding to one pixel has been described with reference to FIG. 7, but this processing is executed for all regions that are not background regions.
(画像合成処理)
図8は、本実施形態において、画像提供装置1104から受信して取得した受信画像(CG画像または半透明画像)と撮像画像とを合成する全体の処理を示すフローチャートである。処理が開始されると、判定部1301は、まず、画像提供装置1104から受信した画像の画素が既知の背景画像(例えばブルーバック画像)であるかを判定する(S1801)。具体的には、例えば、処理対象画素について、既知の背景画像の画素値と受信画像の画素値とが一致するかを判別し、一致する場合は、その画素は背景画像の画素であると判定する。処理対象の画素が背景画像であると判定された場合(S1801でYes)、合成部1304は、撮像画像を撮像画像格納部1207から取得し(S1802)、その画素について背景画像を撮像画像に置換して(S1803)、処理を終了する。判定部1301が、処理対象画素が背景画像でないと判定した場合(S1801でNo)、半透明領域特定部1302は、その処理対象画素がCG画素か半透明画素かを判定する(S1804、S1805)。すなわち、処理対象画素が背景画像の画素と一致した場合は半透明領域特定処理は実行せず、背景画像の画素と一致しない場合にのみ半透明領域特定処理を実行する。この判定処理のフローについては後述する。
(Image composition processing)
FIG. 8 is a flowchart showing the overall processing for combining the received image (CG image or translucent image) received from the
処理対象画素がCG画素であると判定された場合(S1805でYes)は、CG画素をそのまま表示するため、置換や合成等の処理を行わず処理を終了する。処理対象画素が半透明画素であると判定された場合(S1805でNo)は、半透明領域特定部1302は、合成対象画像の画素値(半透明合成前のCG画素値)とα値との決定を実行する(S1806)。そして、合成部1304は、S1806で求めた合成対象画像の画素値とα値及び撮像画像格納部1207から取得した撮像画像を用いて、CG画像と撮像画像とを合成する(S1807)。
If it is determined that the pixel to be processed is a CG pixel (Yes in S1805), the CG pixel is displayed as it is, and thus the process ends without performing a process such as replacement or composition. If it is determined that the processing target pixel is a translucent pixel (No in S1805), the translucent
(半透明領域の判定処理)
図9は、図8のS1804における半透明領域の判定処理の詳細を示すフローチャートである。この処理は半透明領域特定部1302が実行する。処理が開始されると、半透明領域特定部1302は、全ての算出対象となるα値について、図7に示すようなCG画素値の算出と差分の算出とが完了しているかを判定する(S1901)。計算が完了していないα値がある場合(S1901でNo)、図7に示すように、計算対象となるα値に対して、処理対象画素と周囲画素とについて、CG画素値の算出(S1902)と、CG画素値の差分の累積値の算出(S1903)とを実行する。
(Semi-transparent area judgment process)
FIG. 9 is a flowchart showing details of the translucent area determination processing in S1804 of FIG. This process is executed by the translucent
全ての算出対象となるα値についてCG画素値と差分の算出が完了した場合(S1901でYes)、半透明領域特定部1302は、S1903で求めた差分値が一番小さい時のα値とCG画素値とを特定し、一時的に記憶する(S1904)。そして、半透明領域特定部1302は一時記憶したα値が閾値以下かを判定する(S1905)。そして、半透明領域特定部1302は、α値が閾値以下の場合(S1905でYes)はCG画素値と判定し(S1906)、閾値より大きい場合(S1905でNo)は半透明画素値と判定する(S1907)。
When the calculation of the CG pixel value and the difference is completed for all the α values to be calculated (Yes in S1901), the translucent
なお、上の説明では、図8のS1806において、半透明領域特定部1302が合成対象画像の画素値とα値とを決定するように説明したが、S1806では、S1904で一時的に記憶したα値とCG画素値とを読み出すだけの処理を実行してもよい。ただし、S1904で一時的に記憶したα値とCG画素値とを必ず用いなければならないわけではない。例えば、半透明と判定された領域において、処理対象画素を含む周囲の半透明画素におけるα値を平均した値を処理対象画素に対するα値としてもよい。また、そのα値を用いて算出できるCG画素値を、処理対象画素のCG画素値としてもよい。このように、画像の合成のために、S1904で一時的に記憶したα値とCG画素値とをそのまま用いてもよいし、別途特定したα値とCG画素値とを用いてもよい。
In the above description, it has been described that the translucent
以上のようにして、本実施形態では、背景画像に半透明で合成された画像に関して、α値や特別なデータを受け取ることなく、また画像に情報を埋め込むことなく、半透明の領域とCGの領域とを判別して合成前の画像を分離することができる。したがって、CG画像の品質を落とすことなく、HMDへ半透明領域を含む画像を送信することができると共に、高精細なCG画像と撮像画像とを半透明で合成することが可能となる。 As described above, according to the present embodiment, the semi-transparent region and the CG of the image synthesized with the background image without being received the alpha value or special data and without embedding information in the image. It is possible to discriminate the region and separate the pre-combination image. Therefore, an image including a translucent area can be transmitted to the HMD without degrading the quality of the CG image, and a high-definition CG image and a captured image can be combined translucently.
<<実施形態2>>
実施形態1では、画像提供装置1104が背景画像の上にCGを描画した画像をHMD1101へ送信し、HMD1101が撮像画像と受信画像とを合成して表示画像を生成する方法について説明した。本実施形態では、HMD1101で合成を行う際、出力先に応じて重畳する処理を変更する方法について説明を行う。
<<
In the first embodiment, a method has been described in which the
(システムの構成)
図10は本実施形態での画像処理システムに含まれる、画像提供装置1104、HMD1101、及び画像表示装置2010の機能構成を示すブロック図である。本実施形態の画像処理システムにおいては、例えば、実施形態1の構成に、HMD1101に画像送信部2001が追加されると共に、画像送信部2001に接続する画像表示装置2010が追加される。なお、図10では、外部の表示装置として1つの画像表示装置2010を示しているが、少なくとも1つの外部の表示装置があればよく、複数の表示装置があってもよい。
(System configuration)
FIG. 10 is a block diagram illustrating functional configurations of the
画像表示装置2010は、HMDを装着していない人がHMDに表示している画像を見るための表示装置である。これにより、HMDを装着していない人でもHMD体験者と同じ画像を見ることが可能となる。HMD1101の画像送信部2001は、画像処理部1203から画像を取得し、この画像を画像表示装置2010へ送信する。画像表示装置2010の画像受信部2011はHMD1101から画像を受信し、この画像を画像提示部2012へ送る。画像提示部2012は受け取った画像を表示する。これにより外部の表示装置でも画像を表示することが可能になる。
The
(画像処理部の構成)
図11は、本実施形態における画像処理部1203の詳細な構成例を示すブロック図である。画像処理部1203は、実施形態1の構成と比べて、例えば、外部表示合成部2101が追加されて構成される。外部表示合成部2101は、画像表示装置2010で表示するための画像を作成する機能部である。
(Configuration of image processing unit)
FIG. 11 is a block diagram illustrating a detailed configuration example of the
HMD1101が画像提供装置1104から受信する画像、HMD1101が表示部1204に表示する画像、HMD1101が画像表示装置2010へ送信する画像の例を、図12A及び図12Bに示す。図12Aの(1)は撮像部1201で撮像した画像、(2)は画像提供装置1104から受信した半透明領域を含むCG画像である。図12Aの(2)の文字情報2221と領域2223は半透明領域を示し、領域2222は非半透明のCG領域を示す。図12Aの(2)では、文字情報を半透明にしているが、半透明にする対象は文字情報でなくてもよく、記号でもオブジェクトでもよい。実施形態1のHMD1101は、図12Aの(3)のように、撮像画像と受信した画像とを合成し、表示部1204に表示する。
An example of an image that the
ここで、図12Bの(4)は半透明の文字を合成しない図、(5)は半透明の文字を非半透明の文字として合成した図、(6)は半透明の文字は合成せずに、また半透明のCGを非半透明のCGとして合成した図を示している。なお、図12Bの(5)は、半透明の文字を非半透明の文字として合成した図の例を示しているが、非半透明にする処理において、透明度を示す係数であるα値を変更してもよい。α値を変更することにより、より透明度を高めたCG画像を撮像画像と合成することができ、また、非半透明又は非半透明に近い半透明のCG画像を撮像画像と合成することもできる。例えば、HMD使用者には文字情報をはっきりと提示させたい場合は(5)のような画像を表示部1204に表示させ、画像表示装置2010には文字情報を提示したくない場合は、画像送信部2001から(4)のような画像を出力してもよい。CG画像において、半透明の画素の周りに非半透明の画素がない場合は、このような使い方により、一部の情報の表示制御をすることができる。また、半透明の領域を含む非背景領域について、その領域の全てを、例えば画像表示装置2010には表示しないようにしてもよい。また外部表示装置に半透明領域を表示させたくない場合は、(6)のように表示することもできる。このように、使用用途や使用環境に応じて、表示部1204と画像表示装置2010に(3)〜(6)に示すような画像を切り替えて表示する。
Here, (4) in FIG. 12B is a diagram in which semi-transparent characters are not synthesized, (5) is a diagram in which semi-transparent characters are synthesized as non-translucent characters, and (6) is a diagram in which semi-transparent characters are not synthesized. In addition, a diagram in which a translucent CG is synthesized as a non-translucent CG is shown. Note that (5) in FIG. 12B shows an example of a diagram in which semi-transparent characters are synthesized as non-translucent characters. In the process of making non-translucent characters, the α value that is a coefficient indicating transparency is changed. May be. By changing the α value, a CG image with higher transparency can be combined with the captured image, and a non-translucent or non-translucent semi-transparent CG image can be combined with the captured image. . For example, if the HMD user wants to clearly present the character information, an image as shown in (5) is displayed on the
以下ではHMD1101の表示部1204に表示する画像を(3)、画像表示装置2010の画像提示部2012に表示する画像を(6)として説明するが、これの限りではなく、図12A及び図12Bの(3)〜(6)のいずれの組み合わせを表示してもよい。また、表示部1204と画像提示部2012には同じ画像が表示されてもよい。どの合成方法を用いてどの表示部に表示するかは、HMD1101に固定的に設定されていてもよいし、画像提供装置1104からの指示によって設定されてもよい。また、例えば、画像提供装置1104からの指示、又は不図示のHMD1101に接続されているユーザーインターフェースからの指示により、どのような合成画像をどの表示部に表示するかを画像表示動作中に動的に切り替えてもよい。
Hereinafter, the image displayed on the
図13は本実施形態における各表示部に表示する画像の合成処理を示すフローチャートである。図13のフローチャートは、図8のフローチャートにS2301の処理を追加したものであるため、S2301以外の処理については説明を省略する。S2301では、外部表示合成部2101が、分離部1303と判定部1301と撮像画像格納部1207から画像を受け取り、画像表示装置2010へ渡す画像の合成を行う。なお、外部表示合成部2101は、判定部1301から、CG画素値とα値とを受け取る。このため、外部表示合成部2101は、画像表示装置用に表示部1204と異なる態様で画像の合成を行うことが可能となる。
FIG. 13 is a flowchart showing a composition process of images displayed on each display unit in the present embodiment. The flowchart of FIG. 13 is obtained by adding the process of S2301 to the flowchart of FIG. 8, and thus description of processes other than S2301 is omitted. In step S <b> 2301, the external
本実施形態によれば、表示する表示部に応じて画像合成方法を変更でき、それぞれの表示部に適した画像を表示することができる。 According to this embodiment, an image composition method can be changed according to the display part to display, and the image suitable for each display part can be displayed.
なお、上述の説明では、HMD1101を用いるものとして説明したが、それに限られず、画像提供装置1104から受信した画像と撮像した画像とを合成して表示する画像表示装置であればよい。
In the above description, the
<<その他の実施形態>>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<< Other Embodiments >>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (14)
1つの画素を含む所定の領域におけるそれぞれの画素の前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記第2の画像に対応する前記画像において、前記1つの画素と前記所定の領域に含まれる他の画素との画素値の差分の合計を算出する算出手段と、
前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定手段と、
前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定手段と、
を備えることを特徴とする画像処理装置。 For a composite image obtained by combining a known first image and an unknown second image using an unknown coefficient indicating transparency, either semi-transparent or non-translucent for each pixel, An image processing apparatus that determines whether each of the included pixels is a translucent and synthesized pixel,
The second image when each of a plurality of values is used as the coefficient from the pixel value of the composite image and the pixel value of the first image of each pixel in a predetermined region including one pixel And calculating the sum of pixel value differences between the one pixel and other pixels included in the predetermined area in the image corresponding to the second image. A calculation means;
Estimating means for estimating the coefficient used to obtain the composite image in the one pixel based on the sum of the differences corresponding to each of the plurality of values of the coefficient;
When the estimated value of the coefficient is larger than a predetermined value, the one pixel is a pixel in which the pixel value of the first image and the pixel value of the second image are combined in a translucent manner. Determination means for determining;
An image processing apparatus comprising:
前記1つの画素において、前記合成画像の画素値と前記第1の画像の画素値とが一致しない場合に、当該1つの画素に対して、前記算出手段と、前記推定手段と、前記判定手段とが処理を実行する、
ことを特徴とする請求項1に記載の画像処理装置。 For the one pixel, the image processing apparatus further includes a determination unit that determines whether a pixel value of the composite image matches a pixel value of the first image,
When the pixel value of the composite image does not match the pixel value of the first image in the one pixel, the calculation unit, the estimation unit, and the determination unit for the one pixel Perform processing,
The image processing apparatus according to claim 1.
半透明で合成された画素であると判定された前記1つの画素について、前記推定された前記係数に基づいて、前記撮像された画像と合成する対象となる合成対象画像とを合成するのに用いる透明度を示す係数の値を決定すると共に、決定された係数の値と、前記第1の画像と、前記合成画像とに基づいて、前記合成対象画像を決定する決定手段と、
前記合成画像の画素値と前記第1の画像の画素値とが一致した画素については前記撮像された画像の画素値を有し、前記半透明で合成されたと判定された画素については、前記係数の値を用いて前記合成対象画像と前記撮像された画像とを半透明で合成した画素値を有し、前記合成画像の画素値と前記第1の画像の画素値とが一致せず、かつ前記半透明で合成されたと判定されなかった画素については前記合成対象画像の画素値を有する画像を生成する生成手段と、
前記生成した画像を表示する表示手段と、
をさらに備えることを特徴とする請求項2に記載の画像処理装置。 An imaging means for capturing an image;
For the one pixel that is determined to be a semi-transparent pixel, it is used to synthesize the captured image and a synthesis target image to be synthesized based on the estimated coefficient. Determining a value of a coefficient indicating transparency, and determining means for determining the synthesis target image based on the determined coefficient value, the first image, and the synthesized image;
The pixel having the pixel value of the composite image and the pixel value of the first image having the pixel value of the captured image has the pixel value of the captured image. A pixel value obtained by semi-transparently combining the image to be combined with the captured image using the value of the pixel, the pixel value of the composite image and the pixel value of the first image do not match, and Generating means for generating an image having a pixel value of the synthesis target image for pixels that are not determined to be semi-transparent and synthesized;
Display means for displaying the generated image;
The image processing apparatus according to claim 2, further comprising:
ことを特徴とする請求項3に記載の画像処理装置。 A transmission unit configured to transmit the generated image to at least one external display device;
The image processing apparatus according to claim 3.
前記生成手段は、前記外部の表示装置へ送信する画像と前記表示手段において表示する画像とで、前記半透明で合成されたと判定された画素の画素値が異なる画像を生成する、
ことを特徴とする請求項3に記載の画像処理装置。 Further comprising: transmission means for transmitting the image generated by the generating means for the external display device to at least one external display device;
The generation unit generates an image in which pixel values of the pixels determined to be semi-transparent and synthesized are different between an image transmitted to the external display device and an image displayed on the display unit.
The image processing apparatus according to claim 3.
ことを特徴とする請求項5に記載の画像処理装置。 The generating means sets the pixel value of the pixel determined to be combined with the semi-transparent image to be transmitted to the external display device as the pixel value of the captured image.
The image processing apparatus according to claim 5.
ことを特徴とする請求項5に記載の画像処理装置。 The generation means uses a pixel value of a pixel determined to be semi-transparent as an image to be transmitted to the external display device as a pixel value of the composition target image.
The image processing apparatus according to claim 5.
ことを特徴とする請求項5に記載の画像処理装置。 The generation unit is configured to set a pixel value of a pixel determined to be semitransparent for an image to be transmitted to the external display device to a coefficient different from the coefficient used in generating an image to be displayed on the display unit. A pixel value of an image obtained by translucently synthesizing the captured image and the synthesis target image using a value;
The image processing apparatus according to claim 5.
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 The estimating means estimates a value that minimizes the sum of the differences among a plurality of values of the coefficient as the coefficient used to obtain the composite image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。 The predetermined area is an area composed of the one pixel and eight pixels surrounding the one pixel.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。 The predetermined area is an area composed of the one pixel and eight pixels having a pixel value with a small difference from the pixel value of the one pixel out of a predetermined number of pixels surrounding the one pixel. ,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The second image is a color graphics image, and the first image is a predetermined background image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
算出手段が、1つの画素を含む所定の領域におけるそれぞれの画素の前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記第2の画像に対応する前記画像において、前記1つの画素と前記所定の領域に含まれる他の画素との画素値の差分の合計を算出する算出工程と、
推定手段が、前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定工程と、
判定手段が、前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定工程と、
を有することを特徴とする画像処理方法。 For a composite image obtained by combining a known first image and an unknown second image using an unknown coefficient indicating transparency, either semi-transparent or non-translucent for each pixel, An image processing method for determining whether or not each of the included pixels is a translucent and synthesized pixel,
When the calculation unit uses each of a plurality of values as the coefficient from the pixel value of the composite image and the pixel value of the first image of each pixel in a predetermined region including one pixel, A pixel value of an image corresponding to the second image is calculated, and in the image corresponding to the second image, a difference in pixel value between the one pixel and another pixel included in the predetermined region is calculated. A calculation step for calculating the total;
An estimating unit that estimates the coefficient used to obtain the composite image in the one pixel based on a sum of the differences corresponding to each of the plurality of values of the coefficient;
When the determination means has a value of the estimated coefficient larger than a predetermined value, the pixel value of the first image and the pixel value of the second image are combined in a translucent manner for the one pixel. A determination step of determining that it is a pixel;
An image processing method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012257947A JP6008711B2 (en) | 2012-11-26 | 2012-11-26 | Image processing apparatus, image processing method, and program |
US14/082,569 US9542777B2 (en) | 2012-11-26 | 2013-11-18 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012257947A JP6008711B2 (en) | 2012-11-26 | 2012-11-26 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014106647A true JP2014106647A (en) | 2014-06-09 |
JP6008711B2 JP6008711B2 (en) | 2016-10-19 |
Family
ID=51028100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012257947A Active JP6008711B2 (en) | 2012-11-26 | 2012-11-26 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6008711B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068771A (en) * | 2015-10-02 | 2017-04-06 | 東京ガスエンジニアリングソリューションズ株式会社 | Laying equipment display device |
JP2017215873A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Display device, information display system, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002111998A (en) * | 2000-09-27 | 2002-04-12 | Toshiba Corp | Image composition method and information processor |
JP2003044851A (en) * | 2001-07-27 | 2003-02-14 | Sony Corp | Device and method for photographing, and photographing control program |
JP2007257623A (en) * | 2006-03-24 | 2007-10-04 | Mitsubishi Electric Research Laboratories Inc | Method and system to determine alpha matte of video acquired for certain scene |
JP2010066803A (en) * | 2008-09-08 | 2010-03-25 | Sony Corp | Image processing apparatus and method, and program |
US20110150337A1 (en) * | 2009-12-17 | 2011-06-23 | National Tsing Hua University | Method and system for automatic figure segmentation |
-
2012
- 2012-11-26 JP JP2012257947A patent/JP6008711B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002111998A (en) * | 2000-09-27 | 2002-04-12 | Toshiba Corp | Image composition method and information processor |
JP2003044851A (en) * | 2001-07-27 | 2003-02-14 | Sony Corp | Device and method for photographing, and photographing control program |
JP2007257623A (en) * | 2006-03-24 | 2007-10-04 | Mitsubishi Electric Research Laboratories Inc | Method and system to determine alpha matte of video acquired for certain scene |
JP2010066803A (en) * | 2008-09-08 | 2010-03-25 | Sony Corp | Image processing apparatus and method, and program |
US20110150337A1 (en) * | 2009-12-17 | 2011-06-23 | National Tsing Hua University | Method and system for automatic figure segmentation |
Non-Patent Citations (1)
Title |
---|
JPN6016031217; 境野英朋: '"流体モデルに基づいた1枚の2次元画像からの3次元的な動画生成法"' 映像情報メディア学会誌 第64巻, 第4号, 20100401, p.99-110, (社)映像情報メディア学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068771A (en) * | 2015-10-02 | 2017-04-06 | 東京ガスエンジニアリングソリューションズ株式会社 | Laying equipment display device |
JP2017215873A (en) * | 2016-06-01 | 2017-12-07 | 京セラ株式会社 | Display device, information display system, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6008711B2 (en) | 2016-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6332281B2 (en) | Information processing apparatus, information processing method, and program | |
JP7051457B2 (en) | Image processing equipment, image processing methods, and programs | |
US10699473B2 (en) | System and method for generating a virtual viewpoint apparatus | |
US9049384B2 (en) | Video processing apparatus, camera apparatus, video processing method, and program | |
JP5629642B2 (en) | Moving image photographing apparatus, information processing system, information processing apparatus, and image data processing method | |
RU2019131371A (en) | MIXED REALITY VIEWER SYSTEM AND METHOD FOR IT | |
JP2012216006A (en) | Information processing system, information processing device, imaging device, and information processing method | |
JPWO2018180578A1 (en) | Image processing device, imaging device, image processing method, and program | |
US20210364809A1 (en) | Augmented visual capabilities | |
JP6904684B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2012100116A (en) | Display processing device, display processing method, and program | |
US9542777B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6008711B2 (en) | Image processing apparatus, image processing method, and program | |
JP6137910B2 (en) | Information processing apparatus, information processing method, and program | |
US11494934B2 (en) | Image processing device, image processing method, and monitoring system | |
JP5161544B2 (en) | Image display system | |
JP2014199508A (en) | Image processing apparatus, image processing method, and program | |
JP6858007B2 (en) | Image processing system, image processing method | |
WO2018154827A1 (en) | Image processing device, image processing system and program | |
JP4745724B2 (en) | Image processing method and image processing apparatus | |
JP7455545B2 (en) | Information processing device, information processing method, and program | |
JP2018028572A (en) | Image processing device and image processing method | |
JP2015191314A (en) | Image processing apparatus, image processing system, and image processing method | |
JP2017219566A (en) | Display device and display method | |
JP2021144522A (en) | Image processing apparatus, image processing method, program, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160913 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6008711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |