JP2014106647A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2014106647A
JP2014106647A JP2012257947A JP2012257947A JP2014106647A JP 2014106647 A JP2014106647 A JP 2014106647A JP 2012257947 A JP2012257947 A JP 2012257947A JP 2012257947 A JP2012257947 A JP 2012257947A JP 2014106647 A JP2014106647 A JP 2014106647A
Authority
JP
Japan
Prior art keywords
image
pixel
value
pixel value
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012257947A
Other languages
Japanese (ja)
Other versions
JP6008711B2 (en
Inventor
Hiroichi Yamaguchi
弘市 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012257947A priority Critical patent/JP6008711B2/en
Priority to US14/082,569 priority patent/US9542777B2/en
Publication of JP2014106647A publication Critical patent/JP2014106647A/en
Application granted granted Critical
Publication of JP6008711B2 publication Critical patent/JP6008711B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To specify a translucent region and information indicating transparency thereof from an image.SOLUTION: A composite image is formed by combining a known first image with an unknown second image by use of an unknown coefficient indicating transparency, in a translucent manner or a non-translucent manner for each pixel. An image processing apparatus which determines whether each of pixels in the composite image has been formed in the translucent manner or not. The image processing apparatus calculates a pixel value of an image corresponding to the second image from pixel values of the composite image in a predetermined region including one pixel and a pixel value of the first image, calculates the sum of differences of the pixel values of the image obtained by calculation between the one pixel and other pixels included in the predetermined region, specifies a coefficient to be used for obtaining the composite image from the sum of differences, and determines that the one pixel has been formed in the translucent manner when a value of the specified coefficient is larger than a predetermined value.

Description

複合現実感技術における画像処理技術に関する。   The present invention relates to image processing technology in mixed reality technology.

現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として、複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものがある。このビデオシースルーHMDを利用する方式では、HMD使用者の瞳位置から観察される被写体と略一致する被写体がビデオカメラなどにより撮像され、HMD使用者は、撮像画像にコンピュータグラフィックス(CG)を重畳表示した画像を観察できる。   Mixed reality, so-called MR (Mixed Reality) technology is known as a technology that seamlessly fuses the real world and the virtual world in real time. One of MR techniques uses video see-through HMD (Head Mounted Display). In the method using the video see-through HMD, a subject that substantially matches the subject observed from the pupil position of the HMD user is captured by a video camera or the like, and the HMD user superimposes computer graphics (CG) on the captured image. The displayed image can be observed.

ビデオシースルー型HMDでは、CCD等の電荷結合素子により被写体を撮像してその被写体のデジタル画像データを得ると共に、撮像画像にCG画像を重畳してMR画像(複合現実画像)を生成する。そして、生成したMR画像は、液晶や有機EL等の表示デバイスを介して装着者に対して表示される。図14はHMD使用者がHMD2401を装着している様子を示す図である。図14には示されていないがHMD2401の他に外部装置があり、HMD2401は外部装置へHMDの位置姿勢情報を送信する。外部装置ではHMDから受信した位置姿勢情報に基づいてCGをブルーバックの画像に重畳し、HMDへ送信する。HMDでは外部装置から受信したCG画像とHMDで撮像した撮像画像とを重畳して表示する。このようにして、HMD使用者はHMD2401を用いることでMR空間を体験することが可能となる。   In the video see-through HMD, a subject is imaged by a charge coupled device such as a CCD to obtain digital image data of the subject, and an MR image (mixed reality image) is generated by superimposing a CG image on the captured image. The generated MR image is displayed to the wearer via a display device such as liquid crystal or organic EL. FIG. 14 is a diagram illustrating a state in which the HMD user is wearing the HMD 2401. Although not shown in FIG. 14, there is an external device in addition to the HMD 2401, and the HMD 2401 transmits the position and orientation information of the HMD to the external device. The external device superimposes the CG on the blue background image based on the position and orientation information received from the HMD and transmits the image to the HMD. In the HMD, a CG image received from an external device and a captured image captured by the HMD are superimposed and displayed. Thus, the HMD user can experience the MR space by using the HMD 2401.

CG画像とカメラで撮像した画像を重畳する際、CG画像を半透明にして重畳する場合がある。例えばCG画像に窓のようなオブジェクトがあった場合、このオブジェクトに対して、CG画像を半透明にしてカメラ画像とクロマキー合成する。半透明でクロマキー合成をすることで、HMD使用者は窓の外に実写画像があるような映像を見ることができる。この場合、CG画像とは別に半透明の処理に必要なα値と呼ばれる透明度を表す係数が必要になる。   When superimposing a CG image and an image captured by a camera, the CG image may be semi-transparent and superimposed. For example, when there is an object such as a window in the CG image, the CG image is made semi-transparent to this object and the camera image and the chroma key are combined. By translucent and chroma key composition, the HMD user can see an image with a live-action image outside the window. In this case, apart from the CG image, a coefficient representing the transparency called α value necessary for the translucent process is required.

図15は、このような例を示した図である。図15の(a)はカメラで撮像した画像であり、(b)はCG画像である。2503は撮像した画像と半透明でクロマキー合成をする個所で、2502はクロマキー合成時に撮像した画像をCG画像に置き換える個所である。(a)と(b)をクロマキー合成した結果が(c)である。(c)の2503の領域は半透明でクロマキー合成を行っているため、透けたような状態でカメラ画像が表示される。   FIG. 15 is a diagram showing such an example. FIG. 15A shows an image captured by the camera, and FIG. 15B shows a CG image. Reference numeral 2503 denotes a portion where the captured image is translucent and chroma key composition is performed. Reference numeral 2502 is a portion where the image captured at the time of chroma key composition is replaced with a CG image. The result of chroma key composition of (a) and (b) is (c). Since the area 2503 in (c) is translucent and chroma key composition is performed, the camera image is displayed in a transparent state.

HMDと外部装置のような別々の装置から取得した画像を半透明でクロマキー合成を行うには、どこが半透明であるかを別に情報として送る必要がある。非特許文献1には、画像データの中にα値を埋め込むことでα値のデータを削減する方法が記載されている。   In order to perform semi-transparent and chroma key composition of images acquired from different devices such as an HMD and an external device, it is necessary to send information as to which is translucent. Non-Patent Document 1 describes a method of reducing α value data by embedding an α value in image data.

特開2005−107780号公報JP 2005-107780 A

しかしながら、特許文献1に記載の技術では、画像のデータ中にα値を埋め込むため、画像の色情報がα値を埋め込む前に比べて少なくなるという問題があった。本発明は上記課題に鑑みなされたものであり、半透明の領域を含むCG画像について、画像の情報量を減らすことなく、半透明の領域とその透明度を示す情報とを特定する技術を提供することを目的とする。   However, the technique disclosed in Patent Document 1 has a problem in that the α value is embedded in the image data, so that the color information of the image is less than before the α value is embedded. The present invention has been made in view of the above problems, and provides a technique for identifying a translucent area and information indicating the transparency of a CG image including a translucent area without reducing the amount of information of the image. For the purpose.

上記目的を達成するため、本発明による画像処理装置は、既知の第1の画像と、未知の第2の画像とを、透明度を示す未知の係数を用いて、画素ごとに半透明または非半透明のいずれかで合成した合成画像について、当該合成画像に含まれる画素のそれぞれが半透明で合成された画素であるかを判定する画像処理装置であって、1つの画素を含む所定の領域における前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記1つの画素と前記所定の領域に含まれる他の画素との、前記第2の画像に対応する前記画像の画素値の差分の合計を算出する算出手段と、前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定手段と、前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定手段と、を備える。   In order to achieve the above object, an image processing apparatus according to the present invention converts a known first image and an unknown second image into a translucent or non-semiconductor for each pixel by using an unknown coefficient indicating transparency. An image processing apparatus that determines whether each of the pixels included in the combined image is a semi-transparent combined pixel with respect to a combined image combined with one of the transparent images in a predetermined region including one pixel The pixel value of the image corresponding to the second image when each of a plurality of values is used as the coefficient is calculated from the pixel value of the synthesized image and the pixel value of the first image, and Calculating means for calculating a sum of differences in pixel values of the image corresponding to the second image between one pixel and other pixels included in the predetermined region; and a plurality of values of the coefficient To the sum of the corresponding differences Therefore, the estimation means for estimating the coefficient used to obtain the composite image in the one pixel, and when the estimated value of the coefficient is larger than a predetermined value, the one pixel Determining means for determining that the pixel value of the first image and the pixel value of the second image are translucent and synthesized pixels.

本発明によれば、半透明の領域を含むCG画像について、画像そのものから半透明の領域とその透明度を特定することができる。   According to the present invention, for a CG image including a translucent area, the translucent area and its transparency can be specified from the image itself.

画像表示システムの構成例を示す図。The figure which shows the structural example of an image display system. 画像提供装置とHMDの機能構成例を示すブロック図。The block diagram which shows the function structural example of an image provision apparatus and HMD. 画像処理部の機能構成例を示すブロック図。The block diagram which shows the function structural example of an image process part. HMDが画像提供装置から受信するCG画像を示す概略図。Schematic which shows CG image which HMD receives from an image provision apparatus. ブルーバック画像とCG画像の半透明合成の概念を示す図。The figure which shows the concept of the semi-transparent composition of a blue back image and a CG image. 半透明領域の判定における処理対象画素と周囲画素との関係をを示す図。The figure which shows the relationship between the process target pixel and surrounding pixel in determination of a semi-transparent area | region. CG画像と背景画像との半透明画像に対する、半透明領域判定処理の概要を示す図。The figure which shows the outline | summary of the translucent area | region determination process with respect to the translucent image of a CG image and a background image. 受信画像と撮像画像との合成処理を示すフローチャート。The flowchart which shows the synthetic | combination process of a received image and a captured image. 半透明領域の判定処理の詳細を示すフローチャート。The flowchart which shows the detail of the determination process of a semi-transparent area | region. 実施形態2の画像提供装置、HMD、及び画像表示装置の機能構成例を示すブロック図。FIG. 4 is a block diagram illustrating an example of a functional configuration of an image providing apparatus, an HMD, and an image display apparatus according to a second embodiment. 実施形態2の画像処理部の機能構成例を示すブロック図。FIG. 4 is a block diagram illustrating an example of a functional configuration of an image processing unit according to a second embodiment. 撮像画像、受信画像、及び実施形態1の合成画像の例を示す図。FIG. 4 is a diagram illustrating an example of a captured image, a received image, and a composite image according to the first embodiment. 様々な形態により合成された画像の例を示す図。The figure which shows the example of the image synthesize | combined with various forms. 実施形態2の受信画像と撮像画像との合成処理を示すフローチャート。9 is a flowchart illustrating a synthesis process between a received image and a captured image according to the second embodiment. HMDを使用者が装着している様子を示す図。The figure which shows a mode that the user has mounted | worn HMD. 撮像画像と一部が半透明のCGとの合成の概念を示す図。The figure which shows the concept of a synthesis | combination with a captured image and a partially translucent CG.

以下、添付図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<<実施形態1>>
(システムの構成)
図1は、本実施形態に関する画像表示システムの構成例を示す図である。画像表示システムは、頭部搭載型の画像表示装置であると共に画像処理を行う画像処理装置でもあるHMD1101と、コントローラ1102と、表示部1103を有する画像提供装置1104とを含む。
<< Embodiment 1 >>
(System configuration)
FIG. 1 is a diagram illustrating a configuration example of an image display system according to the present embodiment. The image display system includes an HMD 1101 that is a head-mounted image display device and also an image processing device that performs image processing, a controller 1102, and an image providing device 1104 having a display unit 1103.

HMD1101は、使用者の頭部に装着され、画像表示部、コントローラ1102と通信する通信部、及び、それらを制御する制御部などを含む。画像表示部は、画像提供装置1104で生成した画像を表示する。画像表示部は、光学系を含み、使用者の左右の眼のそれぞれの前に配置される。HMD1101は、コントローラ1102と通信を行う。コントローラ1102は、例えばWLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)などの小規模ネットワークを構成し、HMD1101と無線通信を行う。なお、HMD1101とコントローラ1102との間の通信は、無線通信でなく有線通信であってもよい。   The HMD 1101 is mounted on the user's head and includes an image display unit, a communication unit that communicates with the controller 1102, a control unit that controls the communication unit, and the like. The image display unit displays an image generated by the image providing device 1104. The image display unit includes an optical system and is disposed in front of each of the left and right eyes of the user. The HMD 1101 communicates with the controller 1102. The controller 1102 configures a small-scale network such as a WLAN (Wireless Local Area Network) or a WPAN (Wireless Personal Area Network), and performs wireless communication with the HMD 1101. Note that communication between the HMD 1101 and the controller 1102 may be wired communication instead of wireless communication.

コントローラ1102と有線接続された画像提供装置1104は、例えば、画像を再生する再生部と再生する画像を格納しておく格納部とを有する。画像提供装置1104は、コントローラ1102を介し、HMD1101と通信する。また、画像提供装置1104は、キーボードなどを備え、データや、命令等を入力し、表示部1103は、入力されたデータや命令に対応する処理の結果等を表示する。   The image providing apparatus 1104 connected to the controller 1102 by wire includes, for example, a reproduction unit that reproduces an image and a storage unit that stores an image to be reproduced. The image providing apparatus 1104 communicates with the HMD 1101 via the controller 1102. The image providing apparatus 1104 includes a keyboard and the like, and inputs data, commands, and the like. The display unit 1103 displays processing results corresponding to the input data and commands.

図1では、画像提供装置1104とコントローラ1102とが別々のハードウェアからなるように図解されているが、コントローラ1102の持つ機能を画像提供装置1104内に実装して一体化してもよい。また、画像提供装置1104とコントローラ1102がそれぞれ有する機能を集めて、専用の画像提供装置を構成してもよい。   In FIG. 1, the image providing apparatus 1104 and the controller 1102 are illustrated as comprising separate hardware, but the functions of the controller 1102 may be mounted and integrated in the image providing apparatus 1104. In addition, a dedicated image providing apparatus may be configured by collecting the functions of the image providing apparatus 1104 and the controller 1102.

(システム内の各装置の構成)
図2は、図1の画像表示システムにおける、画像提供装置及びHMDの機能構成を示す概略ブロック図である。HMD1101は、例えば、撮像部1201、特徴点抽出部1202、画像処理部1203、表示部1204、制御部1205、通信部1206、及び撮像画像格納部1207を有する。そして、画像提供装置1104は、PCやワークステーションなど、HMD1101とは異なる外部の装置に実装され、例えば、通信部1221、CG描画部1222、コンテンツデータベース(DB)1223、及び位置姿勢算出部1224を有する。
(Configuration of each device in the system)
FIG. 2 is a schematic block diagram showing functional configurations of the image providing apparatus and the HMD in the image display system of FIG. The HMD 1101 includes, for example, an imaging unit 1201, a feature point extraction unit 1202, an image processing unit 1203, a display unit 1204, a control unit 1205, a communication unit 1206, and a captured image storage unit 1207. The image providing apparatus 1104 is mounted on an external apparatus different from the HMD 1101 such as a PC or a workstation. For example, the image providing apparatus 1104 includes a communication unit 1221, a CG drawing unit 1222, a content database (DB) 1223, and a position / orientation calculation unit 1224. Have.

HMD1101の撮像部1201は、観測対象を撮像して画像を取得する。特徴点抽出部1202は、撮像部1201で撮像した画像からHMDの位置姿勢を求めるために必要となる情報を抽出する。画像処理部1203は、外部から受信して取得した画像に対して処理を行い、表示部1204は画像を表示する。制御部1205はHMD1101の各機能部を制御し、通信部1206は画像提供装置1104との間で画像や制御信号を送受信する。撮像画像格納部1207は、撮像部1201で撮像した画像を一時的にメモリに保存する。なお、HMD1101は、その他の不図示の機能部を有してもよい。   The imaging unit 1201 of the HMD 1101 captures an observation target and acquires an image. The feature point extraction unit 1202 extracts information necessary for obtaining the position and orientation of the HMD from the image captured by the imaging unit 1201. The image processing unit 1203 performs processing on an image received and acquired from the outside, and the display unit 1204 displays the image. A control unit 1205 controls each functional unit of the HMD 1101, and a communication unit 1206 transmits and receives images and control signals to and from the image providing apparatus 1104. The captured image storage unit 1207 temporarily stores the image captured by the imaging unit 1201 in a memory. The HMD 1101 may have other functional units (not shown).

画像提供装置1104の通信部1221は、画像や制御信号等をHMD1101との間で送受信する。コンテンツDB1223にはカラーグラフィックス(CG)コンテンツが格納され、CG描画部1222は、コンテンツDBに格納されているカラーグラフィックス画像(CG画像)を描画する。位置姿勢算出部1224は、HMD1101から受信した撮像画像の特徴点情報からHMD1101の位置姿勢を算出する。   The communication unit 1221 of the image providing apparatus 1104 transmits and receives images and control signals to and from the HMD 1101. The content DB 1223 stores color graphics (CG) content, and the CG rendering unit 1222 renders a color graphics image (CG image) stored in the content DB. The position / orientation calculation unit 1224 calculates the position / orientation of the HMD 1101 from the feature point information of the captured image received from the HMD 1101.

なお、以下ではHMD1101から画像提供装置1104へ特徴点を送信し、画像提供装置1104の位置姿勢算出部1224がHMDの位置と姿勢の情報を算出する構成について説明するが、これに限られない。例えば、画像提供装置1104の位置姿勢算出部1224をHMD1101に搭載して、HMD1101内においてHMD1101の位置姿勢情報を生成し、HMD1101から画像提供装置1104へその位置姿勢情報を送信するようにしてもよい。   Hereinafter, a configuration in which feature points are transmitted from the HMD 1101 to the image providing apparatus 1104 and the position / orientation calculation unit 1224 of the image providing apparatus 1104 calculates information on the position and orientation of the HMD will be described, but the present invention is not limited thereto. For example, the position / orientation calculation unit 1224 of the image providing apparatus 1104 may be mounted on the HMD 1101 to generate position / orientation information of the HMD 1101 in the HMD 1101 and transmit the position / orientation information from the HMD 1101 to the image providing apparatus 1104. .

上述の構成において、HMD1101の特徴点抽出部1202は、撮像部1201で撮像した画像についての特徴点を抽出する。抽出された特徴点情報は、その後、通信部1206を介して画像提供装置1104へ送信される。画像提供装置1104の位置姿勢算出部1224は、受信した特徴点情報からHMD1101の位置及び姿勢を算出する。CG描画部1222は、位置姿勢算出部1224で算出したHMD1101の位置と姿勢に基づいてCGを描画する。その後、画像提供装置1104は、描画したCG画像を、通信部1221を介してHMD1101へ送信する。HMD1101の画像処理部1203は、画像提供装置1104から受信して取得したCG画像と撮像部1201で撮像した画像とを合成し、表示部1204は、合成した画像を表示する。   In the above-described configuration, the feature point extraction unit 1202 of the HMD 1101 extracts feature points for the image captured by the imaging unit 1201. The extracted feature point information is then transmitted to the image providing apparatus 1104 via the communication unit 1206. The position / orientation calculation unit 1224 of the image providing apparatus 1104 calculates the position and orientation of the HMD 1101 from the received feature point information. The CG rendering unit 1222 renders a CG based on the position and orientation of the HMD 1101 calculated by the position / orientation calculation unit 1224. Thereafter, the image providing apparatus 1104 transmits the drawn CG image to the HMD 1101 via the communication unit 1221. The image processing unit 1203 of the HMD 1101 combines the CG image received and acquired from the image providing apparatus 1104 and the image captured by the imaging unit 1201, and the display unit 1204 displays the combined image.

なお、本実施形態では、CG画像は、後述のように、第1の画像(背景画像)と第2の画像(CG画像)とを、透明度を示す係数(α値)を用いて半透明または非半透明で合成した画像である。すなわち、受信画像は、CGを表示しない画素では背景画像の画素値を、非半透明のCGを表示する画素ではCGの画素値を、そして、半透明の画素では、背景画像の画素とCGの画素とその画素に対するα値とから得られる画素値を、それぞれ有する画像となる。そして、HMD1101は、受信画像から、CGを表示する部分に関するCG画像の画素値と透明度を示す係数とを特定し、撮像画像と特定したCG画像の画素値とを用いて合成画像を生成する。以上のようにして、HMD1101の装着者は、画像提供装置1104で描画したCGと撮像画像を合成した画像を見ることができる。   In the present embodiment, as described later, the CG image is a semi-transparent or first image (background image) and a second image (CG image) using a coefficient (α value) indicating transparency. This is a non-translucent composite image. That is, the received image has the pixel value of the background image for pixels that do not display CG, the pixel value of CG for pixels that display non-translucent CG, and the pixel values of the background image and CG for translucent pixels. The images each have a pixel value obtained from the pixel and the α value for the pixel. Then, the HMD 1101 specifies the pixel value of the CG image and the coefficient indicating transparency from the received image, and generates a composite image using the captured image and the specified pixel value of the CG image. As described above, the wearer of the HMD 1101 can see an image obtained by combining the CG drawn by the image providing apparatus 1104 and the captured image.

また、本実施形態では、画像提供装置1104のCG描画部1222は、例えばブルーバック画像の上にCGを描画するが、CG描画する際の背景画像はこれに限られない。例えば、所定のパターンを有する画像を背景としてもよい。すなわち、背景画像は、HMD1101と画像提供装置1104とが同じ背景画像を認識していれば、どのようなものであってもよい。   In the present embodiment, the CG rendering unit 1222 of the image providing apparatus 1104 renders CG on, for example, a blue background image, but the background image used for CG rendering is not limited thereto. For example, an image having a predetermined pattern may be used as the background. That is, the background image may be any image as long as the HMD 1101 and the image providing apparatus 1104 recognize the same background image.

(画像処理部の構成)
図3は、画像処理部1203を詳細に説明するブロック図である。画像処理部1203は、上述の通り、画像提供装置1104から受信したCG画像と撮像部1201で撮像した画像とを合成する機能部である。画像処理部1203は、例えば、判定部1301、半透明領域特定部1302、分離部1303、及び合成部1304を有する。
(Configuration of image processing unit)
FIG. 3 is a block diagram illustrating the image processing unit 1203 in detail. As described above, the image processing unit 1203 is a functional unit that synthesizes the CG image received from the image providing apparatus 1104 and the image captured by the imaging unit 1201. The image processing unit 1203 includes, for example, a determination unit 1301, a translucent area specifying unit 1302, a separation unit 1303, and a synthesis unit 1304.

判定部1301は、画像提供装置1104から受信した画像の中に所定の背景画像の画素、例えばブルーバック画素があるかを判定する。図4に、画像提供装置1104から受信する画像の例を示す。図4において、1401は背景画像の画素を、1402はCG画素を、そして1403はCGと背景画像とを半透明で合成する画素を、それぞれ示す。判定部1301は、背景画像の画素でないと判定した領域を半透明領域特定部1302へ、背景画像の画素と判定した領域を合成部1304へ、それぞれ出力する。   The determination unit 1301 determines whether there is a pixel of a predetermined background image, for example, a blue back pixel, in the image received from the image providing apparatus 1104. FIG. 4 shows an example of an image received from the image providing device 1104. In FIG. 4, reference numeral 1401 denotes a background image pixel, 1402 denotes a CG pixel, and 1403 denotes a pixel that synthesizes the CG and the background image in a translucent manner. The determination unit 1301 outputs a region determined not to be a pixel of the background image to the translucent region specifying unit 1302, and outputs a region determined to be a pixel of the background image to the synthesis unit 1304.

半透明領域特定部1302は、判定部1301から受け取った画像の各領域(画素)がCG画像であるか、それとも半透明の領域であるかを判定する。判定方法については後述する。半透明領域特定部1302は、CG画像と判断した領域(画素)を合成部1304へ、半透明と判断した領域(画素)を分離部1303へ、それぞれ出力する。分離部1303は、半透明領域を、合成前の背景画像及びCG画像と、α値、すなわち、透明度を示す係数とに分離し、CG画像とα値を合成部1304へ出力する。   The translucent area specifying unit 1302 determines whether each area (pixel) of the image received from the determination unit 1301 is a CG image or a translucent area. The determination method will be described later. The translucent area specifying unit 1302 outputs the area (pixel) determined to be a CG image to the combining unit 1304 and the area (pixel) determined to be translucent to the separating unit 1303. The separation unit 1303 separates the translucent area into a background image and CG image before composition and an α value, that is, a coefficient indicating transparency, and outputs the CG image and the α value to the composition unit 1304.

合成部1304は、入力された領域が背景領域であれば、その領域を撮像画像格納部1207から取り出した画像に置き換え、CG画像であればCG画像のままにする。そして、合成部1304は、入力された領域が半透明領域である場合、撮像画像格納部1207から取り出した画像と、分離部1303で求めたCG画像及びα値とを、半透明で合成する。合成した画像は表示部1204へ送られる。   If the input region is a background region, the composition unit 1304 replaces the region with an image extracted from the captured image storage unit 1207, and if the input region is a CG image, the CG image remains. When the input area is a translucent area, the synthesizing unit 1304 synthesizes the image extracted from the captured image storage unit 1207 with the CG image and the α value obtained by the separation unit 1303 in a translucent manner. The synthesized image is sent to the display unit 1204.

半透明領域特定部1302における処理を説明する前に、半透明での画像の合成方法について簡単に説明する。半透明での画像の合成は、一般的に以下のような式に従って実行される。   Before describing the processing in the translucent area specifying unit 1302, a translucent image synthesis method will be briefly described. The synthesis of the translucent image is generally performed according to the following equation.

Figure 2014106647
Figure 2014106647

なお、Zは半透明合成後の画像の画素値、Xは第1の画像(背景画像、例えば撮像画像、ブルーバック画像、特定のパターン画像)の画素値であり、Yは第2の画像(例えばCG画像)の画素値である。なお、α=1の時は第1の画像が出力され、α=0の時は第2の画像が出力される。すなわち、α値が小さいほど、合成画像において第2の画像の画素値が強く影響し、α値が大きいほど、合成画像において第1の画像の画素値が強く影響する。画像中において、αの値を0から1の間で変化させることにより、第1の画像と、第2の画像とを、半透明または非半透明で合成することができる。また、下付き文字の「red」「green」「blue」により、各画素に対する赤、緑、青の色情報をそれぞれ表す。図5は、1つの画素について、α=0.5でのブルーバック画像とCG画像の半透明合成を示した図である。ブルーバック画像の画素値は(R、G、B)=(0、0、255)であり、CG画像の画素値が、例えば(R、G、B)=(64、192、128)の場合、α=0.5で合成すると、半透明で合成した画素値は(R、G、B)=(32、96、192)となる。HMD1101が画像提供装置1104から受信する画像の画素値は、ブルーバック画像とCG画像との半透明合成画像の画素値であり、図5の例では、画素値が(R、G、B)=(32、96、192)の画像となる。   Z is the pixel value of the image after translucent synthesis, X is the pixel value of the first image (background image, for example, captured image, blue back image, specific pattern image), and Y is the second image ( For example, the pixel value of a CG image). Note that the first image is output when α = 1, and the second image is output when α = 0. That is, the smaller the α value, the stronger the pixel value of the second image in the composite image, and the greater the α value, the stronger the pixel value of the first image in the composite image. By changing the value of α between 0 and 1 in the image, the first image and the second image can be synthesized translucent or non-translucent. In addition, subscripts “red”, “green”, and “blue” represent red, green, and blue color information for each pixel, respectively. FIG. 5 is a diagram showing a semi-transparent composition of a blue back image and a CG image with α = 0.5 for one pixel. The pixel value of the blue-back image is (R, G, B) = (0, 0, 255), and the pixel value of the CG image is, for example, (R, G, B) = (64, 192, 128) , Α = 0.5, the pixel value synthesized in a translucent manner is (R, G, B) = (32, 96, 192). The pixel value of the image received by the HMD 1101 from the image providing apparatus 1104 is the pixel value of the semi-transparent composite image of the blue back image and the CG image. In the example of FIG. 5, the pixel value is (R, G, B) = The image is (32, 96, 192).

(半透明領域の判定方法)
続いて、半透明領域特定部1302における半透明領域かCG画像領域の判定方法について説明する。画像提供装置1104から受信する画像の画素値は、図5の例では、上述の通り、(R、G、B)=(32、96、192)である。ここで、α=0.5とCG画像の画素値(R、G、B)=(64、192、128)が得られた場合、この画素は半透明画素であると判定できる。もしα値が0になった場合、上式に従うとブルーバック画像は半透明画像に反映されないため、この画素はCG画素であると判定できる。
(Semi-transparent area judgment method)
Next, a method for determining a translucent area or a CG image area in the translucent area specifying unit 1302 will be described. In the example of FIG. 5, the pixel values of the image received from the image providing apparatus 1104 are (R, G, B) = (32, 96, 192) as described above. Here, when α = 0.5 and the pixel value (R, G, B) = (64, 192, 128) of the CG image are obtained, it can be determined that this pixel is a translucent pixel. If the α value becomes 0, according to the above formula, the blue-back image is not reflected in the translucent image, so that this pixel can be determined to be a CG pixel.

上式に従うと、例えば赤(RED)を求める式に、2つの不定値(α値とYred)が存在するため、1つの画素の情報からはCG画像の画素値とα値を求めることはできない。そのため周囲画素の情報も用いてCG画像の画素値の算出とα値の特定とを行う。1つの画素と、この画素の周囲画素とでは、CGの画素値もα値も大幅に変化することは少ない。そのため、本実施形態では、処理対象画素を含む所定の領域の画素情報を用いて半透明領域の分離を行う。本実施形態では、所定の領域として図6(a)のように処理対象画素1602の周囲8画素を用いる場合について説明を行うが、周囲画素を用いる範囲をさらに増やしてもよいし減らしてもよい。また、例えば図6(b)のように周囲8画素ではなく周囲の所定数の画素(例えば24画素)の中で、処理対象画素からの画素値との差分が小さい(例えば8個の)画素を所定の領域として用いてもよい。 According to the above formula, for example, there are two indeterminate values (α value and Y red ) in the formula for obtaining red (RED), so that the pixel value and α value of the CG image are obtained from the information of one pixel. Can not. Therefore, the calculation of the pixel value of the CG image and the specification of the α value are performed also using information on surrounding pixels. The CG pixel value and α value rarely change significantly between one pixel and surrounding pixels of this pixel. Therefore, in the present embodiment, the translucent area is separated using pixel information of a predetermined area including the processing target pixel. In the present embodiment, the case where eight pixels around the processing target pixel 1602 are used as the predetermined region as shown in FIG. 6A will be described. However, the range using the surrounding pixels may be further increased or decreased. . Further, for example, as shown in FIG. 6B, among the predetermined number of surrounding pixels (for example, 24 pixels) instead of the surrounding 8 pixels, the difference from the pixel value from the processing target pixel is small (for example, 8 pixels). May be used as the predetermined area.

図7は、CG画像と背景画像とをα=0.5で半透明合成した場合についての半透明領域の判定の例を示す。図7(a)は、処理対象画素を含む所定の領域における、半透明処理を行う前のCG画像の画素値を示し、図7(b)は、その所定の領域における背景画像の画素値を示す。なお、ここでは、背景画像として、ブルーバック画像ではなく所定のパターン画像を用いている。図7(c)は、CG画像と背景画像とを、α=0.5で半透明合成した半透明領域の画素値であって、画像提供装置1104から受信する画像の画素値を示している。   FIG. 7 shows an example of determination of a semi-transparent area in the case where a CG image and a background image are semi-transparent combined with α = 0.5. FIG. 7A shows the pixel value of the CG image before performing the translucent process in the predetermined area including the processing target pixel, and FIG. 7B shows the pixel value of the background image in the predetermined area. Show. Here, a predetermined pattern image is used as a background image instead of a blue back image. FIG. 7C shows pixel values of a translucent area obtained by translucently combining a CG image and a background image with α = 0.5, and the pixel value of an image received from the image providing apparatus 1104. .

ここで、半透明画像から既知の第1の画像(背景画像)と未知の第2の画像(CG画像)とを分離する際、不定値は透明度を示す係数であるα値と第2の画像(CG画像)の画素値である。しかしながら、未知のα値を1つの値で仮定すると、そのα値に対する第2の画像に対応する画像の画素値を上式から逆計算できる。すなわち、ある1つのα値(0≦α<1)を仮定して、以下の式によりCG画像の画素値を逆計算する。   Here, when separating the known first image (background image) and the unknown second image (CG image) from the translucent image, the indefinite value is an α value that is a coefficient indicating transparency and the second image. This is a pixel value of (CG image). However, if the unknown α value is assumed to be one value, the pixel value of the image corresponding to the second image corresponding to the α value can be inversely calculated from the above equation. That is, assuming a certain α value (0 ≦ α <1), the pixel value of the CG image is inversely calculated by the following equation.

Figure 2014106647
ただし、YはCG画素値、Zは合成画像の画素値、Xは撮像画像の画素値である。なお、α=1の場合はYは不定となるため、この式を用いたCG画素値の算出は行わない。
Figure 2014106647
However, Y is a CG pixel value, Z is a pixel value of a synthesized image, and X is a pixel value of a captured image. Note that, when α = 1, Y is indefinite, and the CG pixel value is not calculated using this equation.

図7の(d)は、α値が0.7を仮定した時の、受信画像から計算される所定の領域におけるCG画素値と、そのCG画素値に基づいて算出される処理対象画素と周囲画素との差分の合計とを示す。すなわち、図7の(d)では、所定の領域の全画素についてα=0.7として上式によりCG画素値YをR、G、Bのそれぞれについて算出した結果と、算出したCG画素値について周囲画素と処理対象画素との差分を累積した結果とを示している。同様に、図7(e)はα=0.5の場合の例を、そして図7(f)はα=0.3の場合の例を、それぞれ示している。なお、図7では示していないが、α値が0.1〜0.2、0.4、0.6、0.8〜0.9の場合についても、CG画素値と、そのCG画素値に基づく差分値の合計とを求める。すなわち、α値をパラメータとして、複数のパラメータのそれぞれについて所定の領域のCG画素値を逆計算し、処理対象画素のCG画素値と所定の領域に含まれる他の画素におけるCG画素値との差分の累計値を求める。また、α値の変化は0.1刻みでなくてもよく、0.01刻みなど、より細かいステップであってもよいし、0.125刻みなどより広いステップであってもよい。さらに、α値が0の場合についても差分の計算を行ってもよい。なお、差分値の合計は、以下の式に基づいて算出される。   FIG. 7D shows a CG pixel value in a predetermined area calculated from the received image when the α value is assumed to be 0.7, a processing target pixel calculated based on the CG pixel value, and the surrounding area. The sum of differences from pixels is shown. That is, in (d) of FIG. 7, with respect to all the pixels in the predetermined region, α = 0.7, and the calculation result of the CG pixel value Y for each of R, G, and B by the above formula, and the calculated CG pixel value The result of accumulating the difference between the surrounding pixels and the processing target pixel is shown. Similarly, FIG. 7E shows an example when α = 0.5, and FIG. 7F shows an example when α = 0.3. Although not shown in FIG. 7, the CG pixel value and its CG pixel value are also obtained when the α value is 0.1 to 0.2, 0.4, 0.6, and 0.8 to 0.9. And the sum of the difference values based on. That is, with the α value as a parameter, the CG pixel value of a predetermined area is inversely calculated for each of the plurality of parameters, and the difference between the CG pixel value of the processing target pixel and the CG pixel value of other pixels included in the predetermined area Find the cumulative value of. Further, the change of the α value may not be in increments of 0.1, may be finer steps such as 0.01 increments, or may be wider steps such as 0.125 increments. Further, the difference may be calculated even when the α value is 0. The total difference value is calculated based on the following equation.

Figure 2014106647
Figure 2014106647

隣接する画素間において、CGの画素値は大幅に変化することは少ないため、あるα値に対して算出された処理対象画素と周囲画素のCG画素値の差分の合計が小さい場合、対象画素がそのα値で半透明合成されたものであると判定できる。すなわち、あるα値を用いて逆計算したCG画素値が、処理対象画素と周囲画素とでほぼ一致する場合、対象画素は、そのα値を用いて半透明合成された画素であると判定することができる。したがって、分離部1303は、差分の合計が最小となるα値を求め、そのα値を一時的に記憶する。なお、図7の例では、(e)の時、つまりα値が0.5の時、対象画素と周囲画素の差分が一番少ない。このため、分離部1303は、背景画像とCG画像とがα=0.5を用いて合成されたと推定し、α値を0.5として一時的に記憶する。なお、本実施形態では、差分の合計が最少となるα値を、半透明合成に用いられたα値と仮定するが、これに限られない。例えば、差分の合計が所定値より小さいα値を求め、その中で最小又は最大のα値を半透明合成に用いられたα値として仮定してもよい。また、あるα値の範囲で差分の合計が所定値より小さかった場合は、その範囲の中央値のα値を半透明合成に用いられたα値として仮定してもよい。また、α値と差分の合計値とから、加重平均により半透明合成に用いられたα値を仮定してもよい。   Since the CG pixel value hardly changes greatly between adjacent pixels, if the sum of the differences between the CG pixel values of the processing target pixel and the surrounding pixels calculated for a certain α value is small, the target pixel is It can be determined that the translucent composition is made with the α value. That is, when the CG pixel value calculated backward using a certain α value substantially matches between the processing target pixel and the surrounding pixels, it is determined that the target pixel is a pixel that is translucently synthesized using the α value. be able to. Therefore, the separation unit 1303 obtains an α value that minimizes the sum of differences, and temporarily stores the α value. In the example of FIG. 7, when (e), that is, when the α value is 0.5, the difference between the target pixel and the surrounding pixels is the smallest. For this reason, the separation unit 1303 estimates that the background image and the CG image are combined using α = 0.5, and temporarily stores the α value as 0.5. In the present embodiment, the α value that minimizes the sum of differences is assumed to be the α value used for the translucent composition, but the present invention is not limited to this. For example, an α value having a sum of differences smaller than a predetermined value may be obtained, and the minimum or maximum α value among them may be assumed as the α value used for the translucent composition. Further, when the sum of differences is smaller than a predetermined value in a certain α value range, the α value of the median value in the range may be assumed as the α value used in the translucent composition. Alternatively, the α value used for the translucent composition may be assumed from the α value and the sum of the differences by a weighted average.

ここで、半透明画像の画素値は、αが十分に小さい場合はほとんど半透明合成前のCG画素値から構成されることになる。したがって、本実施形態では、分離部1303は、α値が所定値以下の時は半透明領域ではなくCG画素であると判定する。例えば、α値が0.1以下の場合には半透明領域でないと判定する。なお、半透明領域か否かを判定するための所定値は0.1でなくてもよい。例えば、0.01刻みのα値に対して差分値を計算する場合、α値が0.09以下の時にCG画像と判断するようにしてもよい。このように、差分値を計算するα値のステップに応じて所定値が定められてもよい。   Here, when α is sufficiently small, the pixel value of the translucent image is almost composed of the CG pixel value before the semitransparent composition. Therefore, in this embodiment, the separation unit 1303 determines that the CG pixel is not a semi-transparent region when the α value is equal to or smaller than a predetermined value. For example, when the α value is 0.1 or less, it is determined that the region is not a translucent region. Note that the predetermined value for determining whether or not the region is a translucent region may not be 0.1. For example, when the difference value is calculated with respect to the α value in increments of 0.01, the CG image may be determined when the α value is 0.09 or less. Thus, the predetermined value may be determined according to the step of the α value for calculating the difference value.

また、この所定値は、状況に応じて可変であってもよい。例えば、受信した画像のある領域について、分離部1303が一時記憶したα値の平均が低い場合などは、所定値を低くして半透明領域を検出しやすくすることで、低いα値で合成された半透明領域を漏れなく検出することができる。同様に、半透明と判定された領域にスポット的に存在する半透明でない領域について、所定値を下げて再度半透明領域の判定を実行してもよい。これにより、大きな半透明領域において誤ってCG領域と判定された画素を半透明領域に含めることができる確率を高めることが可能となる。また、受信した画像のある領域について、スポット的に半透明と判定される領域が多数あった場合は、所定値を高くすることにより、本来半透明でない領域を誤って半透明の領域として判定することを防ぐことが可能となる。   Further, the predetermined value may be variable depending on the situation. For example, if the average of the α values temporarily stored by the separation unit 1303 is low for a certain area of the received image, it is synthesized with a low α value by making the semi-transparent area easier to detect by lowering the predetermined value. The translucent area can be detected without omission. Similarly, a semi-transparent area may be determined again by lowering a predetermined value for a non-translucent area that exists in a spot in an area determined to be translucent. As a result, it is possible to increase the probability that a pixel that is erroneously determined as a CG region in a large translucent region can be included in the translucent region. Also, if there are many areas that are determined to be semi-transparent in a certain area of the received image, an area that is not originally semi-transparent is erroneously determined as a semi-transparent area by increasing the predetermined value. It becomes possible to prevent this.

上の説明では、図7を用いて1画素に対応した処理を説明したが、この処理は、背景領域でない全ての領域に対して実行される。   In the above description, the processing corresponding to one pixel has been described with reference to FIG. 7, but this processing is executed for all regions that are not background regions.

(画像合成処理)
図8は、本実施形態において、画像提供装置1104から受信して取得した受信画像(CG画像または半透明画像)と撮像画像とを合成する全体の処理を示すフローチャートである。処理が開始されると、判定部1301は、まず、画像提供装置1104から受信した画像の画素が既知の背景画像(例えばブルーバック画像)であるかを判定する(S1801)。具体的には、例えば、処理対象画素について、既知の背景画像の画素値と受信画像の画素値とが一致するかを判別し、一致する場合は、その画素は背景画像の画素であると判定する。処理対象の画素が背景画像であると判定された場合(S1801でYes)、合成部1304は、撮像画像を撮像画像格納部1207から取得し(S1802)、その画素について背景画像を撮像画像に置換して(S1803)、処理を終了する。判定部1301が、処理対象画素が背景画像でないと判定した場合(S1801でNo)、半透明領域特定部1302は、その処理対象画素がCG画素か半透明画素かを判定する(S1804、S1805)。すなわち、処理対象画素が背景画像の画素と一致した場合は半透明領域特定処理は実行せず、背景画像の画素と一致しない場合にのみ半透明領域特定処理を実行する。この判定処理のフローについては後述する。
(Image composition processing)
FIG. 8 is a flowchart showing the overall processing for combining the received image (CG image or translucent image) received from the image providing apparatus 1104 and the captured image in this embodiment. When the process is started, the determination unit 1301 first determines whether or not the pixel of the image received from the image providing apparatus 1104 is a known background image (for example, a blue background image) (S1801). Specifically, for example, for a pixel to be processed, it is determined whether the pixel value of the known background image and the pixel value of the received image match, and if they match, the pixel is determined to be a pixel of the background image. To do. When it is determined that the pixel to be processed is a background image (Yes in S1801), the synthesis unit 1304 acquires a captured image from the captured image storage unit 1207 (S1802), and replaces the background image with the captured image for that pixel. In step S1803, the process ends. When the determination unit 1301 determines that the processing target pixel is not a background image (No in S1801), the translucent area specifying unit 1302 determines whether the processing target pixel is a CG pixel or a semitransparent pixel (S1804, S1805). . That is, the semi-transparent area specifying process is not executed when the processing target pixel matches the pixel of the background image, and the semi-transparent area specifying process is executed only when it does not match the pixel of the background image. The flow of this determination process will be described later.

処理対象画素がCG画素であると判定された場合(S1805でYes)は、CG画素をそのまま表示するため、置換や合成等の処理を行わず処理を終了する。処理対象画素が半透明画素であると判定された場合(S1805でNo)は、半透明領域特定部1302は、合成対象画像の画素値(半透明合成前のCG画素値)とα値との決定を実行する(S1806)。そして、合成部1304は、S1806で求めた合成対象画像の画素値とα値及び撮像画像格納部1207から取得した撮像画像を用いて、CG画像と撮像画像とを合成する(S1807)。   If it is determined that the pixel to be processed is a CG pixel (Yes in S1805), the CG pixel is displayed as it is, and thus the process ends without performing a process such as replacement or composition. If it is determined that the processing target pixel is a translucent pixel (No in S1805), the translucent area specifying unit 1302 calculates the pixel value (CG pixel value before translucent synthesis) of the synthesis target image and the α value. The determination is executed (S1806). The synthesizing unit 1304 synthesizes the CG image and the captured image using the pixel value and the α value of the synthesis target image obtained in S1806 and the captured image acquired from the captured image storage unit 1207 (S1807).

(半透明領域の判定処理)
図9は、図8のS1804における半透明領域の判定処理の詳細を示すフローチャートである。この処理は半透明領域特定部1302が実行する。処理が開始されると、半透明領域特定部1302は、全ての算出対象となるα値について、図7に示すようなCG画素値の算出と差分の算出とが完了しているかを判定する(S1901)。計算が完了していないα値がある場合(S1901でNo)、図7に示すように、計算対象となるα値に対して、処理対象画素と周囲画素とについて、CG画素値の算出(S1902)と、CG画素値の差分の累積値の算出(S1903)とを実行する。
(Semi-transparent area judgment process)
FIG. 9 is a flowchart showing details of the translucent area determination processing in S1804 of FIG. This process is executed by the translucent area specifying unit 1302. When the processing is started, the translucent area specifying unit 1302 determines whether calculation of CG pixel values and calculation of differences as shown in FIG. 7 have been completed for all α values to be calculated ( S1901). If there is an α value for which calculation has not been completed (No in S1901), as shown in FIG. 7, calculation of CG pixel values for the processing target pixel and surrounding pixels with respect to the α value to be calculated (S1902). ) And calculation of a cumulative value of differences of CG pixel values (S1903).

全ての算出対象となるα値についてCG画素値と差分の算出が完了した場合(S1901でYes)、半透明領域特定部1302は、S1903で求めた差分値が一番小さい時のα値とCG画素値とを特定し、一時的に記憶する(S1904)。そして、半透明領域特定部1302は一時記憶したα値が閾値以下かを判定する(S1905)。そして、半透明領域特定部1302は、α値が閾値以下の場合(S1905でYes)はCG画素値と判定し(S1906)、閾値より大きい場合(S1905でNo)は半透明画素値と判定する(S1907)。   When the calculation of the CG pixel value and the difference is completed for all the α values to be calculated (Yes in S1901), the translucent area specifying unit 1302 determines the α value and the CG when the difference value obtained in S1903 is the smallest. The pixel value is specified and temporarily stored (S1904). Then, the translucent area specifying unit 1302 determines whether the temporarily stored α value is equal to or less than a threshold value (S1905). Then, when the α value is equal to or smaller than the threshold value (Yes in S1905), the translucent area specifying unit 1302 determines the CG pixel value (S1906), and when the α value is larger than the threshold value (No in S1905), determines the translucent pixel value. (S1907).

なお、上の説明では、図8のS1806において、半透明領域特定部1302が合成対象画像の画素値とα値とを決定するように説明したが、S1806では、S1904で一時的に記憶したα値とCG画素値とを読み出すだけの処理を実行してもよい。ただし、S1904で一時的に記憶したα値とCG画素値とを必ず用いなければならないわけではない。例えば、半透明と判定された領域において、処理対象画素を含む周囲の半透明画素におけるα値を平均した値を処理対象画素に対するα値としてもよい。また、そのα値を用いて算出できるCG画素値を、処理対象画素のCG画素値としてもよい。このように、画像の合成のために、S1904で一時的に記憶したα値とCG画素値とをそのまま用いてもよいし、別途特定したα値とCG画素値とを用いてもよい。   In the above description, it has been described that the translucent area specifying unit 1302 determines the pixel value and α value of the synthesis target image in S1806 of FIG. 8, but in S1806, the α temporarily stored in S1904 is stored. You may perform the process which only reads a value and a CG pixel value. However, the α value and the CG pixel value temporarily stored in S1904 are not necessarily used. For example, in an area determined to be translucent, a value obtained by averaging α values in surrounding semi-transparent pixels including the processing target pixel may be used as the α value for the processing target pixel. Further, a CG pixel value that can be calculated using the α value may be used as the CG pixel value of the processing target pixel. As described above, for image synthesis, the α value and the CG pixel value temporarily stored in S1904 may be used as they are, or the separately specified α value and CG pixel value may be used.

以上のようにして、本実施形態では、背景画像に半透明で合成された画像に関して、α値や特別なデータを受け取ることなく、また画像に情報を埋め込むことなく、半透明の領域とCGの領域とを判別して合成前の画像を分離することができる。したがって、CG画像の品質を落とすことなく、HMDへ半透明領域を含む画像を送信することができると共に、高精細なCG画像と撮像画像とを半透明で合成することが可能となる。   As described above, according to the present embodiment, the semi-transparent region and the CG of the image synthesized with the background image without being received the alpha value or special data and without embedding information in the image. It is possible to discriminate the region and separate the pre-combination image. Therefore, an image including a translucent area can be transmitted to the HMD without degrading the quality of the CG image, and a high-definition CG image and a captured image can be combined translucently.

<<実施形態2>>
実施形態1では、画像提供装置1104が背景画像の上にCGを描画した画像をHMD1101へ送信し、HMD1101が撮像画像と受信画像とを合成して表示画像を生成する方法について説明した。本実施形態では、HMD1101で合成を行う際、出力先に応じて重畳する処理を変更する方法について説明を行う。
<< Embodiment 2 >>
In the first embodiment, a method has been described in which the image providing apparatus 1104 transmits an image in which CG is drawn on a background image to the HMD 1101, and the HMD 1101 generates a display image by combining the captured image and the received image. In the present embodiment, a method for changing the superimposing process according to the output destination when the HMD 1101 performs synthesis will be described.

(システムの構成)
図10は本実施形態での画像処理システムに含まれる、画像提供装置1104、HMD1101、及び画像表示装置2010の機能構成を示すブロック図である。本実施形態の画像処理システムにおいては、例えば、実施形態1の構成に、HMD1101に画像送信部2001が追加されると共に、画像送信部2001に接続する画像表示装置2010が追加される。なお、図10では、外部の表示装置として1つの画像表示装置2010を示しているが、少なくとも1つの外部の表示装置があればよく、複数の表示装置があってもよい。
(System configuration)
FIG. 10 is a block diagram illustrating functional configurations of the image providing apparatus 1104, the HMD 1101, and the image display apparatus 2010 included in the image processing system according to this embodiment. In the image processing system of the present embodiment, for example, an image transmission unit 2001 is added to the HMD 1101 and an image display device 2010 connected to the image transmission unit 2001 is added to the configuration of the first embodiment. In FIG. 10, one image display device 2010 is shown as an external display device. However, at least one external display device may be provided, and a plurality of display devices may be provided.

画像表示装置2010は、HMDを装着していない人がHMDに表示している画像を見るための表示装置である。これにより、HMDを装着していない人でもHMD体験者と同じ画像を見ることが可能となる。HMD1101の画像送信部2001は、画像処理部1203から画像を取得し、この画像を画像表示装置2010へ送信する。画像表示装置2010の画像受信部2011はHMD1101から画像を受信し、この画像を画像提示部2012へ送る。画像提示部2012は受け取った画像を表示する。これにより外部の表示装置でも画像を表示することが可能になる。   The image display device 2010 is a display device for a person who is not wearing the HMD to see an image displayed on the HMD. Thereby, even a person who is not wearing the HMD can see the same image as the HMD experienced person. The image transmission unit 2001 of the HMD 1101 acquires an image from the image processing unit 1203 and transmits this image to the image display device 2010. The image receiving unit 2011 of the image display apparatus 2010 receives an image from the HMD 1101 and sends this image to the image presenting unit 2012. The image presentation unit 2012 displays the received image. This makes it possible to display an image even on an external display device.

(画像処理部の構成)
図11は、本実施形態における画像処理部1203の詳細な構成例を示すブロック図である。画像処理部1203は、実施形態1の構成と比べて、例えば、外部表示合成部2101が追加されて構成される。外部表示合成部2101は、画像表示装置2010で表示するための画像を作成する機能部である。
(Configuration of image processing unit)
FIG. 11 is a block diagram illustrating a detailed configuration example of the image processing unit 1203 in the present embodiment. The image processing unit 1203 is configured by adding, for example, an external display combining unit 2101 as compared to the configuration of the first embodiment. The external display combining unit 2101 is a functional unit that creates an image to be displayed on the image display apparatus 2010.

HMD1101が画像提供装置1104から受信する画像、HMD1101が表示部1204に表示する画像、HMD1101が画像表示装置2010へ送信する画像の例を、図12A及び図12Bに示す。図12Aの(1)は撮像部1201で撮像した画像、(2)は画像提供装置1104から受信した半透明領域を含むCG画像である。図12Aの(2)の文字情報2221と領域2223は半透明領域を示し、領域2222は非半透明のCG領域を示す。図12Aの(2)では、文字情報を半透明にしているが、半透明にする対象は文字情報でなくてもよく、記号でもオブジェクトでもよい。実施形態1のHMD1101は、図12Aの(3)のように、撮像画像と受信した画像とを合成し、表示部1204に表示する。   An example of an image that the HMD 1101 receives from the image providing apparatus 1104, an image that the HMD 1101 displays on the display unit 1204, and an image that the HMD 1101 transmits to the image display apparatus 2010 are illustrated in FIGS. 12A and 12B. In FIG. 12A, (1) is an image captured by the imaging unit 1201, and (2) is a CG image including a translucent area received from the image providing apparatus 1104. Character information 2221 and area 2223 in (2) of FIG. 12A indicate a semi-transparent area, and area 2222 indicates a non-translucent CG area. In (2) of FIG. 12A, the character information is made translucent, but the object to be made translucent may not be the character information, and may be a symbol or an object. The HMD 1101 according to the first embodiment synthesizes the captured image and the received image and displays them on the display unit 1204 as shown in (3) of FIG. 12A.

ここで、図12Bの(4)は半透明の文字を合成しない図、(5)は半透明の文字を非半透明の文字として合成した図、(6)は半透明の文字は合成せずに、また半透明のCGを非半透明のCGとして合成した図を示している。なお、図12Bの(5)は、半透明の文字を非半透明の文字として合成した図の例を示しているが、非半透明にする処理において、透明度を示す係数であるα値を変更してもよい。α値を変更することにより、より透明度を高めたCG画像を撮像画像と合成することができ、また、非半透明又は非半透明に近い半透明のCG画像を撮像画像と合成することもできる。例えば、HMD使用者には文字情報をはっきりと提示させたい場合は(5)のような画像を表示部1204に表示させ、画像表示装置2010には文字情報を提示したくない場合は、画像送信部2001から(4)のような画像を出力してもよい。CG画像において、半透明の画素の周りに非半透明の画素がない場合は、このような使い方により、一部の情報の表示制御をすることができる。また、半透明の領域を含む非背景領域について、その領域の全てを、例えば画像表示装置2010には表示しないようにしてもよい。また外部表示装置に半透明領域を表示させたくない場合は、(6)のように表示することもできる。このように、使用用途や使用環境に応じて、表示部1204と画像表示装置2010に(3)〜(6)に示すような画像を切り替えて表示する。   Here, (4) in FIG. 12B is a diagram in which semi-transparent characters are not synthesized, (5) is a diagram in which semi-transparent characters are synthesized as non-translucent characters, and (6) is a diagram in which semi-transparent characters are not synthesized. In addition, a diagram in which a translucent CG is synthesized as a non-translucent CG is shown. Note that (5) in FIG. 12B shows an example of a diagram in which semi-transparent characters are synthesized as non-translucent characters. In the process of making non-translucent characters, the α value that is a coefficient indicating transparency is changed. May be. By changing the α value, a CG image with higher transparency can be combined with the captured image, and a non-translucent or non-translucent semi-transparent CG image can be combined with the captured image. . For example, if the HMD user wants to clearly present the character information, an image as shown in (5) is displayed on the display unit 1204. If the image display device 2010 does not want to present the character information, an image transmission is performed. Images such as (4) may be output from the parts 2001. In the CG image, when there is no non-translucent pixel around the translucent pixel, display control of a part of information can be performed by such usage. Further, for the non-background area including the translucent area, the entire area may not be displayed on the image display device 2010, for example. If it is not desired to display the translucent area on the external display device, it can be displayed as in (6). In this manner, the images as shown in (3) to (6) are switched and displayed on the display unit 1204 and the image display device 2010 according to the usage and environment.

以下ではHMD1101の表示部1204に表示する画像を(3)、画像表示装置2010の画像提示部2012に表示する画像を(6)として説明するが、これの限りではなく、図12A及び図12Bの(3)〜(6)のいずれの組み合わせを表示してもよい。また、表示部1204と画像提示部2012には同じ画像が表示されてもよい。どの合成方法を用いてどの表示部に表示するかは、HMD1101に固定的に設定されていてもよいし、画像提供装置1104からの指示によって設定されてもよい。また、例えば、画像提供装置1104からの指示、又は不図示のHMD1101に接続されているユーザーインターフェースからの指示により、どのような合成画像をどの表示部に表示するかを画像表示動作中に動的に切り替えてもよい。   Hereinafter, the image displayed on the display unit 1204 of the HMD 1101 will be described as (3), and the image displayed on the image presentation unit 2012 of the image display device 2010 will be described as (6). However, the present invention is not limited to this, and FIG. 12A and FIG. Any combination of (3) to (6) may be displayed. In addition, the same image may be displayed on the display unit 1204 and the image presentation unit 2012. Which display method is used to display on which display unit may be fixedly set in the HMD 1101 or may be set by an instruction from the image providing apparatus 1104. Further, for example, in response to an instruction from the image providing apparatus 1104 or an instruction from a user interface connected to the HMD 1101 (not shown), what composite image is displayed on which display unit is dynamically displayed during the image display operation. You may switch to.

図13は本実施形態における各表示部に表示する画像の合成処理を示すフローチャートである。図13のフローチャートは、図8のフローチャートにS2301の処理を追加したものであるため、S2301以外の処理については説明を省略する。S2301では、外部表示合成部2101が、分離部1303と判定部1301と撮像画像格納部1207から画像を受け取り、画像表示装置2010へ渡す画像の合成を行う。なお、外部表示合成部2101は、判定部1301から、CG画素値とα値とを受け取る。このため、外部表示合成部2101は、画像表示装置用に表示部1204と異なる態様で画像の合成を行うことが可能となる。   FIG. 13 is a flowchart showing a composition process of images displayed on each display unit in the present embodiment. The flowchart of FIG. 13 is obtained by adding the process of S2301 to the flowchart of FIG. 8, and thus description of processes other than S2301 is omitted. In step S <b> 2301, the external display composition unit 2101 receives images from the separation unit 1303, the determination unit 1301, and the captured image storage unit 1207, and performs composition of images to be passed to the image display device 2010. The external display composition unit 2101 receives the CG pixel value and the α value from the determination unit 1301. For this reason, the external display combining unit 2101 can combine images in a manner different from that of the display unit 1204 for the image display apparatus.

本実施形態によれば、表示する表示部に応じて画像合成方法を変更でき、それぞれの表示部に適した画像を表示することができる。   According to this embodiment, an image composition method can be changed according to the display part to display, and the image suitable for each display part can be displayed.

なお、上述の説明では、HMD1101を用いるものとして説明したが、それに限られず、画像提供装置1104から受信した画像と撮像した画像とを合成して表示する画像表示装置であればよい。   In the above description, the HMD 1101 is used. However, the present invention is not limited to this, and any image display apparatus that combines and displays the image received from the image providing apparatus 1104 and the captured image may be used.

<<その他の実施形態>>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<< Other Embodiments >>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (14)

既知の第1の画像と、未知の第2の画像とを、透明度を示す未知の係数を用いて、画素ごとに半透明または非半透明のいずれかで合成した合成画像について、当該合成画像に含まれる画素のそれぞれが半透明で合成された画素であるかを判定する画像処理装置であって、
1つの画素を含む所定の領域におけるそれぞれの画素の前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記第2の画像に対応する前記画像において、前記1つの画素と前記所定の領域に含まれる他の画素との画素値の差分の合計を算出する算出手段と、
前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定手段と、
前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定手段と、
を備えることを特徴とする画像処理装置。
For a composite image obtained by combining a known first image and an unknown second image using an unknown coefficient indicating transparency, either semi-transparent or non-translucent for each pixel, An image processing apparatus that determines whether each of the included pixels is a translucent and synthesized pixel,
The second image when each of a plurality of values is used as the coefficient from the pixel value of the composite image and the pixel value of the first image of each pixel in a predetermined region including one pixel And calculating the sum of pixel value differences between the one pixel and other pixels included in the predetermined area in the image corresponding to the second image. A calculation means;
Estimating means for estimating the coefficient used to obtain the composite image in the one pixel based on the sum of the differences corresponding to each of the plurality of values of the coefficient;
When the estimated value of the coefficient is larger than a predetermined value, the one pixel is a pixel in which the pixel value of the first image and the pixel value of the second image are combined in a translucent manner. Determination means for determining;
An image processing apparatus comprising:
前記1つの画素について、前記合成画像の画素値と前記第1の画像の画素値とが一致しているかを判別する判別手段をさらに備え、
前記1つの画素において、前記合成画像の画素値と前記第1の画像の画素値とが一致しない場合に、当該1つの画素に対して、前記算出手段と、前記推定手段と、前記判定手段とが処理を実行する、
ことを特徴とする請求項1に記載の画像処理装置。
For the one pixel, the image processing apparatus further includes a determination unit that determines whether a pixel value of the composite image matches a pixel value of the first image,
When the pixel value of the composite image does not match the pixel value of the first image in the one pixel, the calculation unit, the estimation unit, and the determination unit for the one pixel Perform processing,
The image processing apparatus according to claim 1.
画像を撮像する撮像手段と、
半透明で合成された画素であると判定された前記1つの画素について、前記推定された前記係数に基づいて、前記撮像された画像と合成する対象となる合成対象画像とを合成するのに用いる透明度を示す係数の値を決定すると共に、決定された係数の値と、前記第1の画像と、前記合成画像とに基づいて、前記合成対象画像を決定する決定手段と、
前記合成画像の画素値と前記第1の画像の画素値とが一致した画素については前記撮像された画像の画素値を有し、前記半透明で合成されたと判定された画素については、前記係数の値を用いて前記合成対象画像と前記撮像された画像とを半透明で合成した画素値を有し、前記合成画像の画素値と前記第1の画像の画素値とが一致せず、かつ前記半透明で合成されたと判定されなかった画素については前記合成対象画像の画素値を有する画像を生成する生成手段と、
前記生成した画像を表示する表示手段と、
をさらに備えることを特徴とする請求項2に記載の画像処理装置。
An imaging means for capturing an image;
For the one pixel that is determined to be a semi-transparent pixel, it is used to synthesize the captured image and a synthesis target image to be synthesized based on the estimated coefficient. Determining a value of a coefficient indicating transparency, and determining means for determining the synthesis target image based on the determined coefficient value, the first image, and the synthesized image;
The pixel having the pixel value of the composite image and the pixel value of the first image having the pixel value of the captured image has the pixel value of the captured image. A pixel value obtained by semi-transparently combining the image to be combined with the captured image using the value of the pixel, the pixel value of the composite image and the pixel value of the first image do not match, and Generating means for generating an image having a pixel value of the synthesis target image for pixels that are not determined to be semi-transparent and synthesized;
Display means for displaying the generated image;
The image processing apparatus according to claim 2, further comprising:
少なくとも1つの外部の表示装置へ、前記生成した画像を送信する送信手段をさらに備える、
ことを特徴とする請求項3に記載の画像処理装置。
A transmission unit configured to transmit the generated image to at least one external display device;
The image processing apparatus according to claim 3.
少なくとも1つの外部の表示装置へ、前記生成手段が前記外部の表示装置のために生成した画像を送信する送信手段をさらに備え、
前記生成手段は、前記外部の表示装置へ送信する画像と前記表示手段において表示する画像とで、前記半透明で合成されたと判定された画素の画素値が異なる画像を生成する、
ことを特徴とする請求項3に記載の画像処理装置。
Further comprising: transmission means for transmitting the image generated by the generating means for the external display device to at least one external display device;
The generation unit generates an image in which pixel values of the pixels determined to be semi-transparent and synthesized are different between an image transmitted to the external display device and an image displayed on the display unit.
The image processing apparatus according to claim 3.
前記生成手段は、前記外部の表示装置へ送信する画像について、前記半透明で合成されたと判定された画素の画素値を前記撮像された画像の画素値とする、
ことを特徴とする請求項5に記載の画像処理装置。
The generating means sets the pixel value of the pixel determined to be combined with the semi-transparent image to be transmitted to the external display device as the pixel value of the captured image.
The image processing apparatus according to claim 5.
前記生成手段は、前記外部の表示装置へ送信する画像について、前記半透明で合成されたと判定された画素の画素値を前記合成対象画像の画素値とする、
ことを特徴とする請求項5に記載の画像処理装置。
The generation means uses a pixel value of a pixel determined to be semi-transparent as an image to be transmitted to the external display device as a pixel value of the composition target image.
The image processing apparatus according to claim 5.
前記生成手段は、前記外部の表示装置へ送信する画像について、前記半透明で合成されたと判定された画素の画素値を、前記表示手段において表示する画像の生成において用いられる前記係数と異なる係数の値を用いて前記撮像された画像と前記合成対象画像とを半透明で合成した画像の画素値とする、
ことを特徴とする請求項5に記載の画像処理装置。
The generation unit is configured to set a pixel value of a pixel determined to be semitransparent for an image to be transmitted to the external display device to a coefficient different from the coefficient used in generating an image to be displayed on the display unit. A pixel value of an image obtained by translucently synthesizing the captured image and the synthesis target image using a value;
The image processing apparatus according to claim 5.
前記推定手段は、前記係数の複数の値のうち前記差分の合計が最小となる値を、前記合成画像を得るために用いられた前記係数として推定する、
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
The estimating means estimates a value that minimizes the sum of the differences among a plurality of values of the coefficient as the coefficient used to obtain the composite image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記所定の領域は、前記1つの画素と、前記1つの画素を囲む8つの画素とからなる領域である、
ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
The predetermined area is an area composed of the one pixel and eight pixels surrounding the one pixel.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記所定の領域は、前記1つの画素と、前記1つの画素を囲む所定数の画素のうち、前記1つの画素の画素値との差分が小さい画素値を有する8つの画素とからなる領域である、
ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
The predetermined area is an area composed of the one pixel and eight pixels having a pixel value with a small difference from the pixel value of the one pixel out of a predetermined number of pixels surrounding the one pixel. ,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第2の画像はカラーグラフィックス画像であり、前記第1の画像は所定の背景画像である、
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
The second image is a color graphics image, and the first image is a predetermined background image;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
既知の第1の画像と、未知の第2の画像とを、透明度を示す未知の係数を用いて、画素ごとに半透明または非半透明のいずれかで合成した合成画像について、当該合成画像に含まれる画素のそれぞれが半透明で合成された画素であるかを判定する画像処理方法であって、
算出手段が、1つの画素を含む所定の領域におけるそれぞれの画素の前記合成画像の画素値と前記第1の画像の画素値とから、複数の値のそれぞれが前記係数として用いられた場合の前記第2の画像に対応する画像の画素値を算出すると共に、前記第2の画像に対応する前記画像において、前記1つの画素と前記所定の領域に含まれる他の画素との画素値の差分の合計を算出する算出工程と、
推定手段が、前記係数の複数の値のそれぞれに対応する前記差分の合計に基づいて、前記1つの画素において前記合成画像を得るために用いられた前記係数を推定する推定工程と、
判定手段が、前記推定された前記係数の値が所定値より大きい場合に、前記1つの画素は前記第1の画像の画素値と前記第2の画像の画素値とが半透明で合成された画素であると判定する判定工程と、
を有することを特徴とする画像処理方法。
For a composite image obtained by combining a known first image and an unknown second image using an unknown coefficient indicating transparency, either semi-transparent or non-translucent for each pixel, An image processing method for determining whether or not each of the included pixels is a translucent and synthesized pixel,
When the calculation unit uses each of a plurality of values as the coefficient from the pixel value of the composite image and the pixel value of the first image of each pixel in a predetermined region including one pixel, A pixel value of an image corresponding to the second image is calculated, and in the image corresponding to the second image, a difference in pixel value between the one pixel and another pixel included in the predetermined region is calculated. A calculation step for calculating the total;
An estimating unit that estimates the coefficient used to obtain the composite image in the one pixel based on a sum of the differences corresponding to each of the plurality of values of the coefficient;
When the determination means has a value of the estimated coefficient larger than a predetermined value, the pixel value of the first image and the pixel value of the second image are combined in a translucent manner for the one pixel. A determination step of determining that it is a pixel;
An image processing method comprising:
コンピュータを請求項1から12のいずれか1項に記載の画像処理装置が備える各手段として機能させるためのプログラム。   The program for functioning a computer as each means with which the image processing apparatus of any one of Claim 1 to 12 is provided.
JP2012257947A 2012-11-26 2012-11-26 Image processing apparatus, image processing method, and program Active JP6008711B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012257947A JP6008711B2 (en) 2012-11-26 2012-11-26 Image processing apparatus, image processing method, and program
US14/082,569 US9542777B2 (en) 2012-11-26 2013-11-18 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012257947A JP6008711B2 (en) 2012-11-26 2012-11-26 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014106647A true JP2014106647A (en) 2014-06-09
JP6008711B2 JP6008711B2 (en) 2016-10-19

Family

ID=51028100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012257947A Active JP6008711B2 (en) 2012-11-26 2012-11-26 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6008711B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068771A (en) * 2015-10-02 2017-04-06 東京ガスエンジニアリングソリューションズ株式会社 Laying equipment display device
JP2017215873A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Display device, information display system, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002111998A (en) * 2000-09-27 2002-04-12 Toshiba Corp Image composition method and information processor
JP2003044851A (en) * 2001-07-27 2003-02-14 Sony Corp Device and method for photographing, and photographing control program
JP2007257623A (en) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc Method and system to determine alpha matte of video acquired for certain scene
JP2010066803A (en) * 2008-09-08 2010-03-25 Sony Corp Image processing apparatus and method, and program
US20110150337A1 (en) * 2009-12-17 2011-06-23 National Tsing Hua University Method and system for automatic figure segmentation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002111998A (en) * 2000-09-27 2002-04-12 Toshiba Corp Image composition method and information processor
JP2003044851A (en) * 2001-07-27 2003-02-14 Sony Corp Device and method for photographing, and photographing control program
JP2007257623A (en) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc Method and system to determine alpha matte of video acquired for certain scene
JP2010066803A (en) * 2008-09-08 2010-03-25 Sony Corp Image processing apparatus and method, and program
US20110150337A1 (en) * 2009-12-17 2011-06-23 National Tsing Hua University Method and system for automatic figure segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016031217; 境野英朋: '"流体モデルに基づいた1枚の2次元画像からの3次元的な動画生成法"' 映像情報メディア学会誌 第64巻, 第4号, 20100401, p.99-110, (社)映像情報メディア学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068771A (en) * 2015-10-02 2017-04-06 東京ガスエンジニアリングソリューションズ株式会社 Laying equipment display device
JP2017215873A (en) * 2016-06-01 2017-12-07 京セラ株式会社 Display device, information display system, and program

Also Published As

Publication number Publication date
JP6008711B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6332281B2 (en) Information processing apparatus, information processing method, and program
JP7051457B2 (en) Image processing equipment, image processing methods, and programs
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
US9049384B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
JP5629642B2 (en) Moving image photographing apparatus, information processing system, information processing apparatus, and image data processing method
RU2019131371A (en) MIXED REALITY VIEWER SYSTEM AND METHOD FOR IT
JP2012216006A (en) Information processing system, information processing device, imaging device, and information processing method
JPWO2018180578A1 (en) Image processing device, imaging device, image processing method, and program
US20210364809A1 (en) Augmented visual capabilities
JP6904684B2 (en) Image processing equipment, image processing methods, and programs
JP2012100116A (en) Display processing device, display processing method, and program
US9542777B2 (en) Image processing apparatus, image processing method, and storage medium
JP6008711B2 (en) Image processing apparatus, image processing method, and program
JP6137910B2 (en) Information processing apparatus, information processing method, and program
US11494934B2 (en) Image processing device, image processing method, and monitoring system
JP5161544B2 (en) Image display system
JP2014199508A (en) Image processing apparatus, image processing method, and program
JP6858007B2 (en) Image processing system, image processing method
WO2018154827A1 (en) Image processing device, image processing system and program
JP4745724B2 (en) Image processing method and image processing apparatus
JP7455545B2 (en) Information processing device, information processing method, and program
JP2018028572A (en) Image processing device and image processing method
JP2015191314A (en) Image processing apparatus, image processing system, and image processing method
JP2017219566A (en) Display device and display method
JP2021144522A (en) Image processing apparatus, image processing method, program, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160913

R151 Written notification of patent or utility model registration

Ref document number: 6008711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151