JP2012252648A - Image processing device, image processing method, program, imaging device, and television receiver - Google Patents
Image processing device, image processing method, program, imaging device, and television receiver Download PDFInfo
- Publication number
- JP2012252648A JP2012252648A JP2011126626A JP2011126626A JP2012252648A JP 2012252648 A JP2012252648 A JP 2012252648A JP 2011126626 A JP2011126626 A JP 2011126626A JP 2011126626 A JP2011126626 A JP 2011126626A JP 2012252648 A JP2012252648 A JP 2012252648A
- Authority
- JP
- Japan
- Prior art keywords
- image
- extracted
- unit
- threshold
- distance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、原画像の一部を抽出し、抽出画像と他の画像とを画像合成する画像処理装置、画像処理方法、プログラム、撮像装置、及びテレビジョン受像機に関する。 The present invention relates to an image processing apparatus, an image processing method, a program, an imaging apparatus, and a television receiver that extract a part of an original image and combine the extracted image with another image.
撮像装置で静止画又は動画を取得した際、風景を撮影した画像や記念撮影として取得した画像は、被写体だけを抽出して背景を入れ替える処理及びその他の処理は通常不要である。
それに対し、取得した画像をそのまま用いるのではなく、特定の被写体を抽出し、背景画像などそれ以外の部分の画像を入れ替えたいという要望も存在する。例えば、テレビ電話やテレビ会議においては、お互いの顔が双方で表示されれば良いのであり、背景画像は基本的に不要である。特に、背景となるエリアが整然と整理されていない場合は、背景画像を取り除くことが望ましい。
また、プリントシール機などのように自分自身を撮影し文字や模様などで装飾した画像をシールとしてプリントする機械では、機械そのものに背景を遮断すべくカーテンが取り付けられている。これは邪魔な背景が写り込まないようにするためで、背景と人物を分離したいという要求は多い。
このような背景より、画像から特定の被写体を抽出し背景と分離する手法が提案されている。
When a still image or a moving image is acquired by an imaging apparatus, an image obtained by capturing a landscape or an image acquired as a commemorative image does not normally require processing for extracting only the subject and replacing the background and other processing.
On the other hand, instead of using the acquired image as it is, there is a desire to extract a specific subject and replace an image of other parts such as a background image. For example, in a videophone or a video conference, it is only necessary that both faces are displayed, and a background image is basically unnecessary. In particular, when the background area is not neatly arranged, it is desirable to remove the background image.
Also, in a machine that photographs an image of itself and decorates it with letters and patterns as a sticker, such as a print sticker machine, a curtain is attached to the machine itself to block the background. This is to prevent the background from getting in the way, and there are many requests to separate the background from the person.
From such a background, a method of extracting a specific subject from an image and separating it from the background has been proposed.
例えば、一種類の色(青色)を背景として人物などの被写体を撮影し、背景色と異なる色の部分のみを抽出することにより、被写体のみの抽出を可能とするクロマキー技術や、予め背景のみの画像を取得しておき、背景と被写体を撮影した画像と、背景のみの画像との差分をとることにより、被写体のみの画像を得る手法である。 For example, a subject such as a person is photographed with one type of color (blue) as a background, and only a portion of a color different from the background color is extracted, so that only the background can be extracted in advance. This is a technique for obtaining an image of only a subject by obtaining a difference between an image obtained by capturing an image of the background and the subject and an image of only the background.
また、カメラから対像物までの距離を取得する装置を採用し、取得した距離から、求めた奥行き値を用いる手法もある。奥行き値とは、画像を構成する複数の画像部分それぞれの奥行き方向の距離を示した値である。奥行き値は、例えば、被写体と、撮像に用いた撮像装置との距離を用いて算出される。撮像装置及び各被写体間の距離を計測する手法は、例えばTOF(Time Of Flight)方式、ステレオ方式などがある。 There is also a method that employs a device that acquires the distance from the camera to the object to be imaged and uses the obtained depth value from the acquired distance. The depth value is a value indicating the distance in the depth direction of each of a plurality of image parts constituting the image. The depth value is calculated using, for example, the distance between the subject and the imaging device used for imaging. Methods for measuring the distance between the imaging device and each subject include, for example, a TOF (Time Of Flight) method, a stereo method, and the like.
TOF方式は、LED(Light Emitting Diode)などの光源から赤外線など眼に見えない光を照射し、その光が被写体などに当たり反射して返ってくる飛行時間を計測することで距離を測距するものである。その計測を細かく分割された領域毎に計測することで、一点だけでなく被写体の様々な部分の測距が可能となる。
なお、飛行時間の測定は、レーザ光をパルス照射し、パルスを発射してから反射光が戻ってくるまでの時間を計測する方法や、照射する赤外線を変調し、照射したときの位相と、反射光との位相差から算出する方法などがある。
The TOF method measures the distance by irradiating invisible light such as infrared rays from a light source such as an LED (Light Emitting Diode), and measuring the time of flight when the light hits the subject and returns. It is. By measuring the measurement for each finely divided area, it is possible to measure not only one point but also various parts of the subject.
In addition, the measurement of the time of flight is a method of measuring the time from the pulse irradiation of the laser light, the time from when the pulse is emitted until the reflected light returns, the phase when the irradiation infrared light is modulated and irradiated, There is a method of calculating from the phase difference with the reflected light.
ステレオ方式は、略平行に並べた二台の撮像装置で同じ領域を撮像し、得られた2つの画像において対応する画素の視差を求め、視差を基に距離を算出するものである。その他の計測方式としては、照射した赤外線の強度及び反射光との強度から距離を計測するものがある。 In the stereo method, the same region is imaged by two imaging devices arranged substantially in parallel, the parallax of corresponding pixels in the two obtained images is obtained, and the distance is calculated based on the parallax. As another measurement method, there is a method of measuring a distance from the intensity of irradiated infrared rays and the intensity of reflected light.
ステレオ方式において、2つの画像において対応する画素を求めることをステレオマッチングという。例えば、次のような処理を行う。一方の撮像画像のある画素について、他方の撮像画像上を水平方向に走査することで画素マッチングを行う。画素マッチングは注目画素を中心としたブロック単位で行われ、ブロック内の画素の絶対値差分の総和をとるSAD(Sum of Absolute Difference)を計算し、SADの値が最小となるブロックを決定することで、一方の撮像画像の注目画素に対応する他方の撮像画像上の画素を求める。SADによる計算手法以外に、SSD(Sum of Squared Intensity Difference)やグラフカット、DP(Dynamic Programming)マッチングといった計算手法もある。対応画素が求まることでその画素の視差値が算出可能となる。 In the stereo method, obtaining corresponding pixels in two images is called stereo matching. For example, the following processing is performed. Pixel matching is performed by scanning a pixel of one captured image in the horizontal direction on the other captured image. Pixel matching is performed in units of blocks centered on the pixel of interest, and a SAD (Sum of Absolute Difference) that calculates the sum of absolute value differences of pixels in the block is calculated to determine a block that minimizes the SAD value. Thus, the pixel on the other captured image corresponding to the target pixel of the one captured image is obtained. In addition to SAD calculation methods, there are calculation methods such as SSD (Sum of Squared Intensity Difference), graph cut, and DP (Dynamic Programming) matching. When the corresponding pixel is obtained, the parallax value of the pixel can be calculated.
一方の撮像画像の全画素について行うことで、全画素の視差値を算出し、2つの撮像装置の位置関係と視差値を用いて三角測量を行うことで、撮像装置から被写体までの距離が算出できる。また、二つの撮像部が左右方向でなく、上下方向に配置されていても視差値の算出が可能で、その場合は撮像画像の走査を水平方向に代えて垂直方向にすれば良い。 The parallax value of all pixels is calculated by performing for all the pixels of one captured image, and the distance from the imaging device to the subject is calculated by performing triangulation using the positional relationship and the parallax value of the two imaging devices. it can. In addition, the parallax value can be calculated even when the two imaging units are arranged in the vertical direction instead of the horizontal direction. In this case, scanning of the captured image may be performed in the vertical direction instead of the horizontal direction.
図28及び図29は、従来技術による画像抽出の例を示す説明図である。図28に示すように被写体F31、F32、F33、F34からなる画像より、被写体F33を抽出するものとする。図29は被写体F31からF34の位置関係を示す図であり、図29から分かるようにF33が最も手前に位置している。 28 and 29 are explanatory diagrams illustrating an example of image extraction according to the conventional technique. Assume that the subject F33 is extracted from an image made up of subjects F31, F32, F33, and F34 as shown in FIG. FIG. 29 is a diagram showing the positional relationship between the subjects F31 to F34, and as can be seen from FIG. 29, F33 is positioned closest to the front.
図30は撮像装置と被写体との距離情報を概念的に示す説明図である。デプスマップ(Depth Map)と言われるものを概念的に示したもので、通常は画素毎に対応付けられた奥行き値を256階調の白黒画像を用いて表すが、ここではわかり易くするために、ハッチングを用いて表示している。
図30の例では、奥行き値は距離が短い順に1、2、…、5の昇順の数字で示している。ハッチングと奥行き値との対応関係から明らかなように、被写体F33が最も手前に位置し、被写体F34が最も奥に位置するという図29に示された位置関係が表現されている。
FIG. 30 is an explanatory diagram conceptually showing distance information between the imaging device and the subject. This is a conceptual representation of what is called a depth map. Normally, the depth value associated with each pixel is represented using a 256-tone black-and-white image. It is displayed using hatching.
In the example of FIG. 30, the depth values are indicated by numbers in ascending order of 1, 2,. As is clear from the correspondence between hatching and depth values, the positional relationship shown in FIG. 29 in which the subject F33 is positioned closest to the front and the subject F34 is positioned deepest is represented.
図28に示した画像より、例えば、被写体F33のみを抽出したい場合、図29に示した点線B0で表した奥行きを閾値として、該閾値よりも小さい奥行き値を持つ部分(手前側の部分)を抽出すべき被写体とし、該閾値よりも大きい奥行き値を持つ部分(奥の部分)を背景として抽出することにより、被写体F33とそれ以外の被写体F31、F32、F34、及び背景を分離することができる。 For example, when it is desired to extract only the subject F33 from the image shown in FIG. 28, a portion having a depth value smaller than the threshold (front portion) is set with the depth represented by the dotted line B0 shown in FIG. By extracting the subject to be extracted and the portion having the depth value larger than the threshold (the back portion) as the background, the subject F33 and the other subjects F31, F32, F34, and the background can be separated. .
特許文献1には、撮像範囲の撮像対像を撮像することにより撮像画像を得て、同時に撮像範囲の中で撮像対像までの距離を複数点にわたって測定することにより、撮像画像に対応した距離分布を表現する距離情報を得て、距離情報にもとづいて、撮像範囲の中で人物と背景とを分離し、撮像画像の中から人物の画像のみを抽出する手法が開示されている。
しかしながら、クロマキー技術や背景画像との差分をとる手法は、撮影環境が制限されたり、事前の準備が必要である。特許文献1に係る手法は、ある奥行きより手前に存在する被写体と、それより奥に存在する背景とを距離情報(奥行き値)を見ることで分離、抽出することが可能であるが、同じ奥行きに存在する被写体を切り分けて背景と分離することはできない。複数の人物がカメラから同じ奥行きに存在する場合、仮に一人を抽出しようとしても同じ奥行きに存在する別の人物も抽出される。また、画像に存在する全く関係のない別の被写体であっても、抽出しようとする人物の奥行きと関係のない別の被写体の奥行きとが同じ値である場合、抽出しようとする人物と一緒に抽出されるという問題があった。
However, the chroma key technique and the method of obtaining a difference from the background image require a preparatory preparation or a limited shooting environment. The method according to
本発明は、上述のごとき実情に鑑みてなされたものであり、事前の準備を必要とせず、奥行きの同じ被写体が画像に複数存在していても、特定の被写体のみを抽出することが可能な画像処理装置、撮像装置又はテレビジョン受像機、上記画像処理装置における画像処理方法、及びコンピュータを上記画像処理装置として動作させるためのプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is possible to extract only a specific subject even if there are a plurality of subjects having the same depth in the image without any prior preparation. An object of the present invention is to provide an image processing apparatus, an imaging apparatus or a television receiver, an image processing method in the image processing apparatus, and a program for causing a computer to operate as the image processing apparatus.
本発明に係る画像処理装置は、画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を有する原画像と、原画像の一部と入れ替わる入替用画像とを取得し、取得した原画像の一部を抽出した抽出画像と前記入替用画像とを画像合成する画像処理装置において、前記距離情報に対する閾値を原画像上の位置それぞれに基づいて設定する閾値設定部と、設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部とを備えることを特徴とする。 The image processing apparatus according to the present invention acquires an original image having distance information related to a distance in the depth direction of the image at each of a plurality of positions on the image, and a replacement image that replaces a part of the original image. In an image processing apparatus that combines an extracted image obtained by extracting a part of an image and the replacement image, a threshold setting unit that sets a threshold for the distance information based on each position on the original image, And an extracted image generating unit that generates the extracted image based on the distance information.
本発明に係る画像処理装置は、前記抽出部により抽出されなかった画像部分を前記入替用画像に入れ替えるように構成したことを特徴とする。 The image processing apparatus according to the present invention is configured to replace an image portion that has not been extracted by the extraction unit with the replacement image.
本発明に係る画像処理装置は、前記原画像を複数の領域に分割する領域分割部をさらに備え、前記閾値設定部は、分割した領域毎に閾値を設定し、前記抽出画像生成部は、分割した領域毎に抽出画像を生成することを特徴とする。 The image processing apparatus according to the present invention further includes a region dividing unit that divides the original image into a plurality of regions, the threshold setting unit sets a threshold for each divided region, and the extracted image generation unit An extracted image is generated for each of the areas.
本発明に係る画像処理装置は、前記原画像を複数の領域に分割する領域分割部をさらに備え、前記閾値設定部は、分割した領域毎に閾値を設定し、前記抽出画像生成部は、分割した領域毎に抽出画像を生成し、前記入替用画像を複数取得し、分割した領域毎に異なる入替用画像を用いることを特徴とする。 The image processing apparatus according to the present invention further includes a region dividing unit that divides the original image into a plurality of regions, the threshold setting unit sets a threshold for each divided region, and the extracted image generation unit An extracted image is generated for each of the areas, a plurality of replacement images are acquired, and different replacement images are used for the divided areas.
本発明に係る画像処理方法は、画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を有する原画像と、原画像の一部と入れ替わる入替用画像とを取得し、取得した原画像の一部を抽出した抽出画像と前記入替用画像とを画像合成する画像処理方法において、前記距離情報に対する閾値を原画像上の位置それぞれに基づいて設定するステップと、設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成するステップとを備えることを特徴とする。 The image processing method according to the present invention acquires an original image having distance information related to the distance in the depth direction of the image at each of a plurality of positions on the image, and a replacement image that replaces a part of the original image. In the image processing method for synthesizing an extracted image obtained by extracting a part of an image and the replacement image, a step of setting a threshold for the distance information based on each position on the original image, the set threshold and the distance Generating the extracted image based on the information.
本発明に係るプログラムは、コンピュータに、画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を有する原画像と、原画像の一部と入れ替わる入替用画像とを取得させ、取得させた原画像の一部を抽出した抽出画像と前記入替用画像とを画像合成させるプログラムにおいて、前記コンピュータに、前記距離情報に対する閾値を前記原画像上の位置それぞれに基づいて設定するステップと、設定した閾値と前記距離情報に基づいて、前記抽出画像を生成するステップとを実行させることを特徴とする。 A program according to the present invention causes a computer to acquire and acquire an original image having distance information related to the distance in the depth direction of the image at each of a plurality of positions on the image and a replacement image that replaces a part of the original image. In the program for synthesizing the extracted image obtained by extracting a part of the original image and the replacement image, the computer sets a threshold for the distance information based on each position on the original image; And generating the extracted image based on the threshold value and the distance information.
本発明に係る撮像装置は、被写体を撮像する撮像部と、入替用画像を記憶する入替用画像記憶部とを備え、撮像した画像の一部を抽出した抽出画像と、撮像した画像の一部と入れ替わる入替用画像とを画像合成する撮像装置において、前記被写体までの距離を複数位置について測定する測距部と、前記測距部で測定した複数位置の距離値を補間することにより、前記撮像した画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を算出する距離情報補間部と、前記距離情報に対する閾値を前記撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部とを備えることを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that images a subject and a replacement image storage unit that stores a replacement image, and an extracted image obtained by extracting a part of the captured image and a part of the captured image In the imaging device for synthesizing the replacement image that is replaced with the distance measurement unit that measures the distance to the subject at a plurality of positions, and interpolating the distance values of the plurality of positions measured by the distance measurement unit, the imaging A distance information interpolation unit that calculates distance information related to the distance in the depth direction of the image at each of a plurality of positions on the captured image, and a threshold setting unit that sets a threshold for the distance information based on each of the positions on the captured image And an extracted image generation unit that generates the extracted image based on the set threshold and the distance information.
本発明に係る撮像装置は、被写体を撮像する複数の撮像部と、入替用画像を記憶する入替用画像記憶部とを備え、撮像した画像の一部を抽出した抽出画像と、撮像した画像の一部と入れ替わる入替用画像とを画像合成する撮像装置において、前記複数の撮像部それぞれが撮像した複数の画像を用いて、前記撮像した画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を算出する距離情報算出部と、前記距離情報に対する閾値を前記撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部とを備えることを特徴とする。 An imaging apparatus according to the present invention includes a plurality of imaging units that image a subject and a replacement image storage unit that stores a replacement image, an extracted image obtained by extracting a part of the captured image, and a captured image In the imaging apparatus for synthesizing a replacement image that is replaced with a part, a plurality of images captured by each of the plurality of imaging units are used to relate to the distance in the depth direction of each of the plurality of positions on the captured image. A distance information calculation unit that calculates distance information; a threshold setting unit that sets a threshold for the distance information based on each position on the captured image; and the extracted image based on the set threshold and the distance information. And an extracted image generation unit for generation.
本発明に係るテレビジョン受像機は、上記のいずれか一項に記載の画像処理装置と、テレビジョン放送を受信するチューナ部と、該チューナ部が受信したテレビジョン放送に係る画像を表示する表示部とを備え、該表示部は前記画像処理装置が取得、抽出、生成又は合成した画像を表示するようにしてあることを特徴とする。 A television receiver according to the present invention includes an image processing apparatus according to any one of the above, a tuner unit that receives a television broadcast, and a display that displays an image related to the television broadcast received by the tuner unit. And the display unit displays an image acquired, extracted, generated or synthesized by the image processing apparatus.
本発明に係るテレビジョン受像機は、上記のいずれか一項に記載の撮像装置と、テレビジョン放送を受信するチューナ部と、該チューナ部が受信したテレビジョン放送に係る画像を表示する表示部とを備え、該表示部は前記撮像装置が撮像、抽出、生成又は合成した画像を表示するようにしてあることを特徴とする。 A television receiver according to the present invention includes an imaging device according to any one of the above, a tuner unit that receives a television broadcast, and a display unit that displays an image related to the television broadcast received by the tuner unit. And the display unit displays an image captured, extracted, generated or synthesized by the imaging device.
本発明にあっては、距離情報に対する閾値を原画像上の位置それぞれに基づいて設定し、設定した閾値及び前記距離情報に基づいて、抽出画像を生成するので、奥行き値の同じ被写体が複数あっても、特定の被写体が存在する画像上の位置での閾値と、その他の被写体が存在する画像の位置での閾値とは異なる値を設定するため、特定の被写体のみの画像を抽出することが可能となる。 In the present invention, a threshold for distance information is set based on each position on the original image, and an extracted image is generated based on the set threshold and the distance information. Therefore, there are a plurality of subjects having the same depth value. However, since the threshold value at the position on the image where the specific subject exists is different from the threshold value at the position of the image where the other subject exists, an image of only the specific subject may be extracted. It becomes possible.
本発明にあっては、抽出されなかった画像部分を入替用画像とするように構成されている。従って、原画像の背景画像を入替用画像とした新たな画像を生成することが可能となる。 In the present invention, the image portion that has not been extracted is configured as a replacement image. Therefore, it is possible to generate a new image using the background image of the original image as a replacement image.
本発明にあっては、原画像を複数の領域に分割し、分割した領域毎に閾値を設定し、分割した領域毎に抽出画像を生成する。複数の被写体を抽出したい場合に、抽出したい被写体毎に領域を分割することにより、容易に複数の被写体を抽出することが可能となる。 In the present invention, the original image is divided into a plurality of regions, a threshold is set for each divided region, and an extracted image is generated for each divided region. When it is desired to extract a plurality of subjects, it is possible to easily extract a plurality of subjects by dividing the region for each subject to be extracted.
本発明にあっては、原画像を複数の領域に分割し、分割した領域毎に閾値を設定し、分割した領域毎に抽出画像を生成し、入替用画像を複数取得し、分割した領域毎に異なる入替用画像を用いて画像合成をおこなう。従って、被写体毎に異なる背景画像を合成した画像を生成することが可能となる。 In the present invention, the original image is divided into a plurality of regions, a threshold is set for each divided region, an extracted image is generated for each divided region, a plurality of replacement images are acquired, and each divided region is Then, image composition is performed using different replacement images. Therefore, it is possible to generate an image in which different background images for each subject are combined.
本発明にあっては、距離情報に対する閾値を撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、設定した閾値及び前記距離情報に基づいて、撮像した画像の一部を抽出し、抽出画像を生成する抽出画像生成部とを備える。閾値を撮像した画像上の位置それぞれに基づいて設定するので、奥行き値の同じ被写体が複数あっても、特定の被写体が存在する画像の位置での閾値と、その他の被写体が存在する画像の位置での閾値とは異なる値を設定するため、特定の被写体のみの画像を抽出することが可能となる。 In the present invention, a threshold setting unit that sets a threshold for distance information based on each position on the captured image, and extracts a part of the captured image based on the set threshold and the distance information, An extracted image generation unit that generates an extracted image. Since the threshold is set based on each position on the captured image, even if there are multiple subjects with the same depth value, the threshold at the position of the image where the specific subject exists and the position of the image where other subjects exist Since a value different from the threshold value at is set, it is possible to extract an image of only a specific subject.
本発明にあっては、距離情報に対する閾値を撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、設定した閾値及び前記距離情報に基づいて、撮像した画像の一部を抽出し、抽出画像として出力する抽出画像生成部とを備える。閾値を撮像した画像の位置それぞれに基づいて設定するので、奥行き値の同じ被写体が複数あっても、特定の被写体が存在する画像の位置での閾値と、その他の被写体が存在する画像の位置での閾値とは異なる値を設定するため、特定の被写体のみの画像を抽出することが可能となる。 In the present invention, a threshold setting unit that sets a threshold for distance information based on each position on the captured image, and extracts a part of the captured image based on the set threshold and the distance information, An extracted image generation unit that outputs the extracted image. Since the threshold value is set based on the position of each captured image, even if there are multiple subjects with the same depth value, the threshold value at the image location where a specific subject exists and the image location where other subjects exist Since a value different from the threshold value is set, an image of only a specific subject can be extracted.
本発明にあっては、テレビジョン受像機は上記のいずれか一項に記載の画像処理装置または上記のいずれか一項に記載の撮像装置を備えるので、外部機器から受け付けた原画像又は撮像部で取得した原画像において、奥行き値の同じ被写体が複数あっても、特定の被写体が存在する画像の位置での閾値と、その他の被写体が存在する画像の位置での閾値とは異なる値を設定するため、特定の被写体のみの画像を抽出することが可能となる。
In the present invention, since the television receiver includes the image processing device according to any one of the above or the imaging device according to any one of the above, the original image or the imaging unit received from the external device Even if there are multiple subjects with the same depth value in the original image acquired in
本発明によれば、原画像又は撮像した画像において同一の奥行きに位置する被写体が複数あっても、特定の被写体の画像のみを原画像又は撮像した画像より抽出することができる。 According to the present invention, even if there are a plurality of subjects located at the same depth in the original image or the captured image, only the image of the specific subject can be extracted from the original image or the captured image.
(実施の形態1)
以下に、本発明の実施の形態1を、図面を用いて説明する。
図1は、本発明の実施の形態1に係る画像処理装置のハードウェア構成を示すブロック図である。実施の形態1に係る画像処理装置1は、制御部11、外部インタフェース部12、表示インタフェース部13、及び操作インタフェース部14を備える。
(Embodiment 1)
FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to
制御部11は、演算を行なうCPU(Central Processing Unit )11a、CPU11aが行なう演算の制御手順を示す制御プログラム等を記憶したROM(Read Only Memory)11b、CPU11aが行なう演算に伴う一時的な情報を記憶するRAM(Random Access Memory)11c等を備える。
そして、制御部11は、CPU11aがROM11bに予め格納されている制御プログラムをRAM11cに読み出して実行することにより、本発明の閾値設定部、抽出画像生成部として機能する。
The
The
外部インタフェース部12は、USB(Universal Serial Bus)コネクタ、HDMI(High-Definition Multimedia Interface)コネクタ又はIEE1394コネクタを備え、例えば、デジタルカメラとレーザレンジファインダーとから構成される測距機能を持った撮像装置2が接続される。撮像装置2より外部インタフェース部12を介して、制御部11は、原画像と該画像に対応した距離情報を受け付ける。受け付けた原画像と該画像に対応した距離情報は、制御部11により、RAM11cに記憶される。
The
表示インタフェース部13は、テレビジョン受像機などの表示装置3と接続され、ユーザ操作画面や処理対像となる原画像、画像処理後の画像などを表示装置3に表示させる。
操作インタフェース部14は、キーボード、マウスなどの操作装置4が接続され、ユーザからの操作入力を操作装置4を介して受付ける。
The
The
次に、本発明の実施の形態において扱う距離情報を有する原画像について、説明する。なお、以下においては、原画像はビットマップ画像であり、距離情報はデプスマップであるものとして説明する。
図2は、原画像の一例を示す説明図である。図2に示すように、原画像にはF1、F2、F3、F4の4つ被写体がある。被写体F1からF3は人であり、被写体F4は建物である。図3は、原画像における被写体の位置関係を示す説明図である。図3に示すように、被写体の位置には前後関係があり、手前が被写体F2及び被写体F3、その後に被写体F1、さらに後に被写体F4となっている。被写体F2及び被写体F3は、横に並んでおり前後の位置は同じであるものとする。
Next, an original image having distance information handled in the embodiment of the present invention will be described. In the following description, it is assumed that the original image is a bitmap image and the distance information is a depth map.
FIG. 2 is an explanatory diagram illustrating an example of an original image. As shown in FIG. 2, the original image has four subjects F1, F2, F3, and F4. Subjects F1 to F3 are people, and subject F4 is a building. FIG. 3 is an explanatory diagram showing the positional relationship of the subject in the original image. As shown in FIG. 3, the positions of the subjects are in a longitudinal relationship, and the front side is the subject F2 and the subject F3, then the subject F1, and then the subject F4. It is assumed that the subject F2 and the subject F3 are arranged side by side and the front and rear positions are the same.
図4は、原画像に対応したデプスマップを示す説明図である。複数のハッチングそれぞれに対応した奥行き値から明らかなように上述した被写体の前後の位置関係が表されている。 FIG. 4 is an explanatory diagram showing a depth map corresponding to the original image. As is clear from the depth values corresponding to each of the plurality of hatchings, the positional relationship between the front and rear of the subject is described.
図5は、デプスマップのデータ構造を概念的に示す説明図である。図5のAは図4で示した原画像の各部分のデプスマップの値、すなわち画像の奥行き値を示したものであり、D1、D2、D3、D4の値を取るものとする。D1は被写体F4より奥にある被写体に対応した値、D2は被写体F4に対応した値、D3は被写体F1に対応した値、D4は被写体F2及びF3に対応した値である。
図5のB上段は、図5のAの一部分を抜き出したものである。図5のB下段は、さらに、抜き出した部分の一番上の1ラインについて、デプスマップのデータ構造を表したものであり、左から右の順に画素毎の奥行き値を示している。一番左に示した値は、一番左の画素に対応しているのでD3の値を取り、右に進むほど、それに対応した右側の画素を値を示している。右に進むとD3からD1に変わり、さらにD1からD2に変わり、最も右側の画素はD2の値を取る。
FIG. 5 is an explanatory diagram conceptually showing the data structure of the depth map. A of FIG. 5 shows the depth map value of each part of the original image shown in FIG. 4, that is, the depth value of the image, and assumes the values of D1, D2, D3, and D4. D1 is a value corresponding to a subject behind the subject F4, D2 is a value corresponding to the subject F4, D3 is a value corresponding to the subject F1, and D4 is a value corresponding to the subjects F2 and F3.
The upper part of B in FIG. 5 is a part extracted from A in FIG. The lower part of FIG. 5B further shows the data structure of the depth map for the top line of the extracted portion, and shows the depth value for each pixel in order from left to right. Since the value shown on the left corresponds to the leftmost pixel, it takes the value of D3, and as it goes to the right, the value on the right pixel corresponding to it is shown. When going to the right, D3 changes to D1, D1 changes to D2, and the rightmost pixel takes the value of D2.
実施の形態1に係る画像処理装置1の動作について説明する。
制御部11(閾値設定部)は、外部インタフェース部12を介して撮像装置2から原画像及び原画像のデプスマップを受け付け、RAM11cに記憶する。制御部11は、目的の被写体を抽出するための閾値を設定する。本発明において閾値は単一の値ではなく、原画像の横方向の位置によって異なるように設定する。なお、以下の説明において3次元の座標系を用いる。XY座標は原画像の座標系であり、画像の左上を原点とし、原点から右方向をX軸方向、原点から下方向をY軸方向とする。残りの一軸は奥行方向の軸であり、値が大きいほど、奥に位置していることを表している。
An operation of the
The control unit 11 (threshold setting unit) receives the original image and the depth map of the original image from the
図6は、抽出範囲を概念的に示す説明図である。以下の説明においては、人である被写体F2のみを抽出するものとる。図6に示すように、被写体F2は、原画像においてX座標の値がX3からX4の範囲に位置している(X3<X4)。なお、X3及びX4を求める手法については、後述する。
図7は、閾値の設定を概念的に示す説明図である。図3と同様に原画像における被写体の位置関係を示すと共に、説明に必要な情報を追記している。
FIG. 6 is an explanatory diagram conceptually showing the extraction range. In the following description, only the subject F2 that is a person is extracted. As shown in FIG. 6, the subject F2 has an X coordinate value in the range of X3 to X4 in the original image (X3 <X4). A method for obtaining X3 and X4 will be described later.
FIG. 7 is an explanatory diagram conceptually showing threshold setting. Similar to FIG. 3, the positional relationship of the subject in the original image is shown, and information necessary for explanation is added.
制御部11(閾値設定部)は、デプスマップより、X座標値がX3からX4の値を取る全ての画素に対する奥行き値を取得する。次に、取得された値の平均値d0を求める。さらに、d1、d2を以下の式(1)、(2)により求める。
d1=d0−c1 (c1>0)…(1)
d2=d0+c2 (c2>0)…(2)
さらに、X3、X4から、X1、X2を以下の式(3)、(4)により求める。
X1=X3−c3 (c3≧0)…(3)
X2=X4+c4 (c4≧0)…(4)
したがって、d0からd2の大小関係はd1<d0<d2であり、X1からX4の大小関係は、X1≦X3<X4≦X2となる。
The control unit 11 (threshold setting unit) acquires depth values for all the pixels whose X coordinate values take values from X3 to X4 from the depth map. Next, an average value d0 of the acquired values is obtained. Further, d1 and d2 are obtained by the following equations (1) and (2).
d1 = d0−c1 (c1> 0) (1)
d2 = d0 + c2 (c2> 0) (2)
Furthermore, X1 and X2 are obtained from the following equations (3) and (4) from X3 and X4.
X1 = X3-c3 (c3 ≧ 0) (3)
X2 = X4 + c4 (c4 ≧ 0) (4)
Therefore, the magnitude relationship from d0 to d2 is d1 <d0 <d2, and the magnitude relationship from X1 to X4 is X1 ≦ X3 <X4 ≦ X2.
上述のようにして求めた値を用いて、閾値の設定を以下の式(5)、(6)とする。
閾値 =d1 (0≦X<X1又はX≧X2のとき)…(5)
閾値 =d2 (X1≦X<X2のとき)…(6)
閾値の設定はX座標にのみ依存し、Y座標の値に関わらず上述したように設定を行う。
このように設定した閾値を図示したのが、図7のB1である。制御部11(閾値設定部)は、このような閾値の設定情報を、RAM11cに記憶する。
Using the values obtained as described above, the threshold values are set as the following equations (5) and (6).
Threshold = d1 (when 0 ≦ X <X1 or X ≧ X2) (5)
Threshold = d2 (when X1 ≦ X <X2) (6)
The setting of the threshold depends only on the X coordinate, and is set as described above regardless of the value of the Y coordinate.
The threshold value set in this way is illustrated as B1 in FIG. The control unit 11 (threshold setting unit) stores such threshold setting information in the
制御部11(抽出画像生成部)は、原画像、閾値の設定情報及びデプスマップを、RAM11cより読み出す。
制御部11は、閾値の設定情報及びデプスマップに基づき、2値化画像を生成する。すなわち、各画素それぞれについて奥行き値と設定された閾値とを比較し、奥行き値の値が閾値以下であれば1を設定し、奥行き値の値が閾値より大きければ0を設定する。このようにして生成した2値化画像と原画像との論理積を取ることにより、目的としている被写体(本実施の形態においては被写体F2)のみの画像を抽出する。すなわち、原画像と2値化画像とを画素ごとに比較し、2値化画像の画素値が1の場合は原画像の画素値を採用し、2値化画像の画素値が0の場合は原画像の画素値を黒又は白に対応した値とする。それにより、被写体F2の部分はそのまま出力されるが、被写体F2以外の部分は、ベタ塗り(黒又は白)の状態で出力される。制御部11(抽出画像生成部)は抽出した画像をRAM11cに記憶する。図8は、抽出画像の一例を示す説明図である。上述したように被写体F2のみが抽出されている。
The control unit 11 (extracted image generation unit) reads the original image, threshold setting information, and depth map from the
The
制御部11は、RAM11cから目的としている被写体のみを抽出した抽出画像を読み出す。また、抽出画像と合成する入替用画像を図示しない記憶装置から読み出す。入替用画像は、予め記憶装置に記憶しており、例えば風景写真、世界遺産や観光名所の写真など背景となる画像である。
The
制御部11は、抽出画像と入替用画像とを合成する。すなわち、制御部11は、抽出画像のベタ塗りの部分に入替用画像をはめ込む。制御部11は、合成した画像を表示インタフェース部13を介して表示装置3に表示する。図9は、表示される合成画像の一例を示す説明図である。図9に示したように、抽出された被写体F2は、原画像(図2)とは異なる風景の中に立っているかのような画像を得ることができる。
The
次に、公知の顔認識技術を用いて、原画像において抽出する被写体が位置する範囲を示す座標値、X3及びX4を求める手法について説明する。抽出すべき被写体F2の顔特徴量は画像処理装置1の図示しない記憶部に予め記憶されている。制御部11は被写体F2の顔特徴量を用いて、原画像の複数の被写体F1からF4の中から被写体F2の顔を特定し、原画像において被写体F2の顔位置を求める。
図10は、被写体を顔認識により認識する場合の説明図である。被写体F2の顔は、(X5,Y5)、(X6,Y5)、(X6,Y6)、(X5,Y6)の4点を頂点とする四角形内Cにあると、制御部11は認識する(X5<X6、Y5<Y6)。この場合、X3及びX4を、以下の式(7)、(8)により求める。
X3=X5−m1 (m1>0)…(7)
X4=X6+m2 (m2>0)…(8)
制御部11は求めたX3及びX4の値を、RAM11cに記憶する。記憶されたX3及びX4の値が、上述したように閾値を設定する処理に用いられる。
Next, a method for obtaining coordinate values X3 and X4 indicating the range where the subject to be extracted in the original image is located using a known face recognition technique will be described. The face feature amount of the subject F2 to be extracted is stored in advance in a storage unit (not shown) of the
FIG. 10 is an explanatory diagram when a subject is recognized by face recognition. The
X3 = X5-m1 (m1> 0) (7)
X4 = X6 + m2 (m2> 0) (8)
The
次に、画像処理装置1が実施する画像処理方法について、説明する。図11は、画像処理装置1が実施する画像処理方法の流れを示すフローチャートである。制御部11は、外部インタフェース部12を介して、原画像を撮像装置2より取得し、RAM11cに記憶する(S11)。制御部11は、外部インタフェース部12を介して、デプスマップを撮像装置2より取得し、RAM11cに記憶する(S12)。
Next, an image processing method performed by the
制御部11は、閾値の設定を行う(S13)。図12は、画像処理装置1が実施する閾値設定処理の流れを示すフローチャートである。制御部11は、顔認識により抽出すべき被写体F2の原画像における位置する範囲を示す値、すなわち、X3及びX4の値を求める(S21)。制御部11は、求めたX3及びX4を用いて、RAM11cに記憶したデプスマップからX座標値がX3以上X4以下である画素の奥行き値を抽出する(S22)。制御部11は、抽出した奥行き値の平均値d0を求める(S23)。制御部11は、求めたd0より、閾値の上限値(d2)及び下限値(d1)を求める(S24)。
The
制御部11は、S21で求めたX3及びX4より、閾値を変化させるX座標値、X1及びX2の値を求める(S25)。制御部11は、求めたX1、X2と、S24で求めたd1、d2を閾値の設定情報として、RAM11cに記憶する(S26)。
The
図11に戻り、制御部11は、RAM11cに記憶したデプスマップ及び閾値の設定情報に基づき、被写体F2の画像を原画像から抽出するための2値化画像を生成し、生成した2値化画像とRAM11cに記憶した原画像との論理積演算を行い、被写体F2の画像を抽出する(S14)。制御部11は、抽出した画像をRAM11cに記憶する(S15)。
Returning to FIG. 11, the
制御部11は、図示しない記憶装置から入替用画像を取得する(S16)。制御部11は、抽出画像と入替用画像を合成し、合成した画像を表示インタフェース13を介して表示装置3に表示させ(S17)、処理を終了する。
The
なお、閾値を設定する際に用いたc1及びc2は、原画像の奥行き方向の人体の厚みを考慮して定めるべき値であり、予め手動設定しておいても良いし、原画像に応じて、すなわちX3、X4の値に応じて、或いは公知の画像認識により被写体である人の立ち方(正面を向いて立っているか、斜めに立っているかなど)や姿勢(直立しているか、屈曲しているかなど)を認識しそれに応じて、適切な値を制御部11が設定することとしても良い。
Note that c1 and c2 used when setting the threshold are values that should be determined in consideration of the thickness of the human body in the depth direction of the original image, and may be manually set in advance or according to the original image. That is, depending on the values of X3 and X4 or by known image recognition, the person who is the subject stands (standing up front or standing diagonally) and posture (standing upright or bent). Or the like, and the
同様に、c3及びc4は処理の誤差をそれぞれ考慮して定めるべき値であり、予め手動設定しておいても良いし、X3、X4の値に応じて適切な値を制御部11が設定することとしても良い。
Similarly, c3 and c4 are values to be determined in consideration of processing errors, and may be manually set in advance, or the
入替用画像は、予め記憶装置に記憶しているものとしたが、外部記憶装置を介してCD−ROM、DVDなどの記録媒体から読み込むこととしても良いし、インターネットなどの通信網を経由して取得するものとしても良い。 The replacement image is stored in the storage device in advance, but may be read from a recording medium such as a CD-ROM or DVD via an external storage device, or via a communication network such as the Internet. It may be obtained.
被写体の位置を認識する際に用いたm1、m2は、人体の横幅を考慮した値であり、予め手動設定しておいても良いし、原画像に応じて、すなわちX5、X6、Y5、Y6の値に応じて、或いは顔認識の際に顔の向きを認識し顔の向きに応じて、適切な値を制御部11が定めても良い。
M1 and m2 used when recognizing the position of the subject are values in consideration of the width of the human body, and may be manually set in advance, or according to the original image, that is, X5, X6, Y5, Y6. The
目的の被写体の位置を認識するために、ここでは顔認識技術を用いたが、これに限定されるものではなく、抽出すべき被写体F2が原画像のどこに位置しているかを認識できるものであれば、他の技術手法を用いても良い。 In order to recognize the position of the target subject, the face recognition technique is used here. However, the present invention is not limited to this, and it can recognize where the subject F2 to be extracted is located in the original image. For example, other technical methods may be used.
原画像において、抽出する被写体F2と、他の被写体F1、F3とは横並びしているので、閾値の設定はX座標にのみ依存するとしたが、Y座標にのみに依存しても良く、X座標、Y座標の両座標値により変化するようにしても良い。Y座標にのみに依存するのは、肩車や組体操のトーテムポールを撮影した画像から特定の人の画像を抽出する場合が考えられる。X座標、Y座標の両座標値により変化させる場合は、特定の人の特定の部位(特定の人の上半身)のみを抽出する場合が、考えられる。 Since the subject F2 to be extracted and the other subjects F1 and F3 are arranged side by side in the original image, the threshold value setting depends only on the X coordinate, but it may depend only on the Y coordinate. , And may change depending on both coordinate values of the Y coordinate. Depending on the Y coordinate only, a case where an image of a specific person is extracted from an image obtained by photographing a shoulder wheel or a totem pole of a gymnastic exercise can be considered. When changing by both coordinate values of the X coordinate and the Y coordinate, it is conceivable that only a specific part (upper body of a specific person) of a specific person is extracted.
抽出する被写体はF2としたが、これに限定されるものではなく、他の被写体(F1、F3)を抽出することとしても良い。この場合、抽出する被写体を定めるための規則(例えば、横並びの場合には常に中央の人を抽出する)を予め定めておくか、複数の被写体から抽出する被写体をユーザが指定する処理が必要である。 The subject to be extracted is F2, but the subject is not limited to this, and other subjects (F1, F3) may be extracted. In this case, a rule for determining a subject to be extracted (for example, in the case of side-by-side, a central person is always extracted) or a process for a user to specify a subject to be extracted from a plurality of subjects is required. is there.
被写体F2の画像を抽出するために2値化画像を用いたが、2値化画像を用いないで、原画像、デプスマップ及び閾値の設定情報を用いて抽出を行うことができる。各画素ごとに次の処理を行う。原画像から画素を取り出す。該画素に対応した奥行き値をデプスマップより取り出す。取り出した奥行き値と閾値とを比較し、奥行き値が閾値以下であれば、原画像から取り出した画素を出力画像の画素とする。奥行き値が閾値より大きければ、白をあらわす画素値を与えた画素を出力画像の画素とする。該処理をすべての画素に対して行うことにより、抽出する被写体F2を構成する画素のみが出力され、それ以外の位置の画素はすべて白となり、被写体F2の画像を抽出することができる。 Although the binarized image is used to extract the image of the subject F2, the extraction can be performed using the original image, the depth map, and the threshold setting information without using the binarized image. The following processing is performed for each pixel. Extract pixels from the original image. A depth value corresponding to the pixel is extracted from the depth map. The extracted depth value is compared with the threshold value, and if the depth value is equal to or smaller than the threshold value, the pixel extracted from the original image is set as the pixel of the output image. If the depth value is larger than the threshold value, a pixel given a pixel value representing white is set as a pixel of the output image. By performing this process on all the pixels, only the pixels constituting the subject F2 to be extracted are output, and the pixels at other positions are all white, and the image of the subject F2 can be extracted.
同様な処理により、被写体F2の画像抽出と入替用画像との合成を行うことも可能である。すなわち、原画像、デプスマップ及び閾値の設定情報、入替用画像を用いて抽出を行うことができる。各画素ごとに次の処理を行う。原画像から画素を取り出す。該画素に対応した奥行き値をデプスマップより取り出す。取り出した奥行き値と閾値とを比較し、奥行き値が閾値以下であれば、原画像から取り出した画素を出力画像の画素とする。奥行き値が閾値より大きければ、取り出した画素に対応した入替用画像の画素を抽出し、該画素を出力画像の画素とする。該処理をすべての画素に対して行うことにより、抽出する被写体F2を構成する画素のみが出力され、それ以外の位置の画素は入替用画像から抽出した画素となり、被写体F2の抽出と入替用画像の合成が行える。 It is also possible to combine the image extraction of the subject F2 and the replacement image by similar processing. That is, extraction can be performed using the original image, the depth map, the threshold setting information, and the replacement image. The following processing is performed for each pixel. Extract pixels from the original image. A depth value corresponding to the pixel is extracted from the depth map. The extracted depth value is compared with the threshold value, and if the depth value is equal to or smaller than the threshold value, the pixel extracted from the original image is set as the pixel of the output image. If the depth value is larger than the threshold value, the pixel of the replacement image corresponding to the extracted pixel is extracted, and the pixel is set as the pixel of the output image. By performing this process on all the pixels, only the pixels constituting the subject F2 to be extracted are output, and the pixels at other positions become pixels extracted from the replacement image, and the extraction of the subject F2 and the replacement image are performed. Can be synthesized.
また、上述の実施の形態1においては、画像は静止画像であることを前提として説明したが、これに限られるのではなく動画像でも良い。静止画像は1フレームの画像で構成され、動画像は時系列順の複数フレームの画像で構成されるので、動画の場合、時系列順に連続する各フレームの映像に対して静止画像と同様の処理を行うものとする。また、該画像は、所定の符号化方式、例えばJPEG(Joint Photographic Experts Group)、MPEG−2(Moving Picture Expert Group phase2)等で圧縮されたものであっても、非圧縮のものであっても良い。符号化された画像を扱う構成である場合、予め画像を所定の符号化方式に従って、例えばRGB形式やYUV形式の画像に復号し、復号して得た画像が画像処理装置1に入力されるものとする。以下に示す実施の形態及び変形例においても同様であり、画像は静止画像に限られるのではなく動画像でも良い。
In the first embodiment, the description has been made on the assumption that the image is a still image. However, the present invention is not limited to this and may be a moving image. Since a still image is composed of one frame image and a moving image is composed of images of a plurality of frames in time series order, in the case of a moving image, the same processing as a still image is performed for each frame of video that is continuous in time series order. Shall be performed. The image may be compressed by a predetermined encoding method, for example, JPEG (Joint Photographic Experts Group), MPEG-2 (Moving Picture Expert Group phase 2) or the like, or may be uncompressed. good. In the case of a configuration that handles encoded images, the image is decoded in advance into an image in RGB format or YUV format, for example, according to a predetermined encoding method, and the image obtained by decoding is input to the
(変形例1)
上述の実施の形態1において、閾値の設定は、図7に示したように矩形波のような形となっているが、これに限定されるものではない。図13は、変形例1に係る閾値の設定を概念的に示す説明図であり、閾値を曲線となるように設定するものである。実施の形態1との相違は、閾値の設定方法であるから、以下では主に該相違点について説明する。
(Modification 1)
In the first embodiment described above, the threshold value is set like a rectangular wave as shown in FIG. 7, but is not limited to this. FIG. 13 is an explanatory diagram conceptually showing the setting of the threshold value according to the modified example 1, and the threshold value is set to be a curve. Since the difference from the first embodiment is the threshold value setting method, the difference will be mainly described below.
変形例1においては、閾値の設定を曲線するために、曲線が通過すべき点を複数求め、求めた複数の点すべてを通過する補間曲線を求めるものである。
図13に示したように曲線が通過する点をP1、P2、P3、P4、P5の5つの点とし、座標値をそれぞれ、P1(X21,d1)、P2(X25,d0)、P3(X20,d2)、P4(X26,d0)、P5(X22,d1)とする。
抽出する被写体F2の位置する範囲を示すX座標値X3、X4、奥行き値の下限値d1、上限値d2の求める方法は、上述した方法と同様であるので、省略する。
In the first modification, in order to curve the threshold setting, a plurality of points through which the curve should pass are obtained, and an interpolation curve that passes through all the obtained points is obtained.
As shown in FIG. 13, the points through which the curve passes are five points P1, P2, P3, P4, and P5, and the coordinate values are P1 (X21, d1), P2 (X25, d0), and P3 (X20), respectively. , D2), P4 (X26, d0), and P5 (X22, d1).
The method for obtaining the X coordinate values X3 and X4 indicating the range in which the subject F2 to be extracted is located, the lower limit value d1 of the depth value, and the upper limit value d2 is the same as the method described above, and will be omitted.
次に、X20、X21、X22を以下の式(9)、(10)、(11)により求める。
X20=(X3+X4)/2 (c23>0)…(9)
X21=X3−c23 (c24>0)…(10)
X22=X4+c24…(11)
X3、X4、X22、X21の関係は、X21<X3<X4<X22となる。
X25は、X21とX3との間の値を(X21<X25<X3)、X26は、X4とX22との間の値とをX26とする(X4<X26<X22)。
Next, X20, X21, and X22 are obtained by the following equations (9), (10), and (11).
X20 = (X3 + X4) / 2 (c23> 0) (9)
X21 = X3-c23 (c24> 0) (10)
X22 = X4 + c24 (11)
The relationship among X3, X4, X22, and X21 is X21 <X3 <X4 <X22.
X25 is a value between X21 and X3 (X21 <X25 <X3), and X26 is a value between X4 and X22 as X26 (X4 <X26 <X22).
P1からP5の座標値が求まったら、すべての点を通る補間曲線を求め、それを閾値の設定とする。補間曲線は、ラグランジェ補間、スプライン補間などの周知の補間法を用いて求める。閾値はX座標の値にのみ依存し、X座標が同一の場合においてはY座標の値に関わらず、同一の閾値を取る。図13に示したB2が閾値曲線の例である。求めた閾値曲線に従って、被写体F2の画像を抽出することができる。その他の処理については、上記実施の形態1と同様であるので、省略する。 When the coordinate values of P1 to P5 are obtained, an interpolation curve passing through all points is obtained, and this is set as a threshold value. The interpolation curve is obtained using a known interpolation method such as Lagrangian interpolation or spline interpolation. The threshold depends only on the value of the X coordinate. When the X coordinate is the same, the same threshold is taken regardless of the value of the Y coordinate. B2 shown in FIG. 13 is an example of a threshold curve. The image of the subject F2 can be extracted according to the obtained threshold curve. Other processes are the same as those in the first embodiment, and are omitted.
変形例1においても、上述した実施の形態1と同様に、抽出した被写体F2が、原画像とは異なる風景の中に立っているかのような画像を得ることができる。 Also in the first modification, an image as if the extracted subject F2 is standing in a landscape different from the original image can be obtained, as in the first embodiment.
なお、上述したc23及びc24の値は、実施の形態1におけるc3及びc4と同様に予め手動設定しておいても良いし、原画像に応じて制御部11が定めても良い。
また、上述した実施の形態1と同様に閾値の設定はX座標にのみ依存するとしたが、Y座標にのみ依存しても良く、X座標、Y座標の両座標値により変化するようにしても良い。
Note that the values of c23 and c24 described above may be manually set in advance similarly to c3 and c4 in the first embodiment, or may be determined by the
Further, as in the first embodiment described above, the threshold value setting depends only on the X coordinate. However, it may depend only on the Y coordinate, and may change depending on both the X coordinate and Y coordinate values. good.
(変形例2)
上述した実施の形態1において、閾値設定部に入力される距離情報は、デプスマップのように値と実際との距離が比例するものであったが、これに限られるものではなく、値と距離が反比例するようなディスパリティマップを距離情報としても良い。ディスパリティマップは、視差値を画像全体の画素毎に求めたものである。視差値とは、ステレオ画像において、対応する画素が左画像と右画像とで比較した場合にどの位ずれているかを示す値である。視差値は撮像装置2と被写体が近いほど大きな値を取り、撮像装置2と被写体が遠いほど小さな値となる。
したがって、上述した実施の形態1において、デプスマップに換えてディスパリティマップを距離情報として用いる場合は、値の大小関係が異なるのみで、他の部分は同様であるので、該相違点に関連する事項について、主に説明する。
(Modification 2)
In the first embodiment described above, the distance information input to the threshold setting unit is such that the distance between the value and the actual value is proportional as in the depth map, but is not limited to this, and the value and the distance are not limited thereto. A disparity map in which is inversely proportional may be used as the distance information. The disparity map is obtained by obtaining a parallax value for each pixel of the entire image. The parallax value is a value indicating how much the corresponding pixel is shifted in the stereo image when the left image and the right image are compared. The parallax value takes a larger value as the
Therefore, in the above-described first embodiment, when the disparity map is used as distance information instead of the depth map, only the magnitude relationship of the values is different and the other parts are the same. The matter is mainly explained.
図14は、変形例2に係る閾値の設定を概念的に示す説明図である。制御部11(閾値設定部)は、ディスパリティマップより、X座標値がX3からX4の値を取る全ての画素に対する視差値を取得する(X3<X4)。次に、取得された値の平均値d10を求める。次に、d11、d12を以下の式(12)、(13)により求める。
d11=d10+c11 (c11>0)…(12)
d12=d10−c12 (c12>0)…(13)
d10、d11、d12の値の関係は、d11>d10>d12となる。
また、X3よりX1、X2よりX4をそれぞれ求める方法は、上述した実施の形態1と同様であるので、省略する(X1<X3<X4<X2)。
FIG. 14 is an explanatory diagram conceptually illustrating threshold setting according to the second modification. The control unit 11 (threshold setting unit) obtains the parallax values for all the pixels whose X coordinate values take values from X3 to X4 from the disparity map (X3 <X4). Next, an average value d10 of the acquired values is obtained. Next, d11 and d12 are obtained by the following equations (12) and (13).
d11 = d10 + c11 (c11> 0) (12)
d12 = d10−c12 (c12> 0) (13)
The relationship between the values of d10, d11, and d12 is d11>d10> d12.
Further, the method of obtaining X1 from X3 and X4 from X2 is the same as that in the first embodiment, and is omitted (X1 <X3 <X4 <X2).
上述したように求めた値を用いて、閾値の設定を以下の式(14)、(15)とする。
閾値 =d11 (0≦X<X1又はX≧X2のとき)…(14)
閾値 =d12 (X1≦X<X2のとき)…(15)
閾値の設定はX座標にのみ依存し、Y座標の値に関わらず上述したように設定を行う。このように設定した閾値を図に示したのが、図14のB11である。
Using the values obtained as described above, the threshold values are set as the following equations (14) and (15).
Threshold = d11 (when 0 ≦ X <X1 or X ≧ X2) (14)
Threshold = d12 (when X1 ≦ X <X2) (15)
The setting of the threshold depends only on the X coordinate, and is set as described above regardless of the value of the Y coordinate. The threshold value set in this way is shown in the figure as B11 in FIG.
制御部11は、このような閾値の設定情報を、RAM11cに記憶する。この後の制御部11での処理は、上述の実施の形態1と同様であるが、デプスマップとディスパリティマップとでは値の大小関係が逆になるので、2値化画像を生成する処理が異なる。すなわち、各画素それぞれについてディスパリティ値と設定された閾値とを比較し、ディスパリティ値が閾値以上であれば1を設定し、距離情報の値が閾値未満であれば0を設定する。
The
変形例2においては、距離情報としてディスパリティマップを用いている。ディスパリティマップを変換することなく、距離情報として用いることが可能であるので、デプスマップを用いた場合と同等な時間で閾値を設定する処理を行うことが可能となる。 In the second modification, a disparity map is used as distance information. Since the disparity map can be used as distance information without conversion, it is possible to perform a process of setting a threshold in the same time as when using a depth map.
なお、c11及びc12は、c1及びc2と同様、人体の厚みを考慮して定めるべき値であり、c13及びc14は、c3及びc4と同様、処理の誤差を考慮して定めるべき値である。c11からc14のいずれの値についても、予め人が定めておいても良いし、原画像に応じて適切な値を制御部11が設定することとしても良い。
Note that c11 and c12 are values that should be determined in consideration of the thickness of the human body, similarly to c1 and c2, and c13 and c14 are values that should be determined in consideration of processing errors, similarly to c3 and c4. Any value of c11 to c14 may be determined in advance by a person, or the
また、変形例1についても、変形例2で説明したのと同様な変更を加えることにより、デプスマップに換えてディスパリティマップを距離情報として用いることが可能であることは、当業者であれば、自明なことである。
For those skilled in the art, it is possible for a person skilled in the art to use a disparity map as distance information in place of the depth map by making the same changes as described in
(実施の形態2)
実施の形態1において、制御プログラムは予めROM11bに記憶されているものとしたが、それに限られず外部より制御プログラムとしてのコンピュータプログラムを読み込むこととしても良い。
図15は、本発明の実施の形態2に係る画像処理装置の構成例を示すブロック図である。本発明の実施の形態2に係る画像処理装置5は、本発明に係るコンピュータプログラム6aを実行させることによって実現される。
(Embodiment 2)
In the first embodiment, the control program is stored in the
FIG. 15 is a block diagram showing a configuration example of an image processing apparatus according to
画像処理装置5は、実施の形態1で示した画像処理装置1において、さらに、外部記憶装置15と通信部16とを備えている。実施の形態1と同一の構成については、同一の符号を付し、説明を省略する。
The
外部記憶装置15は、発明の実施の形態に係るコンピュータプログラム6aを記録した記録媒体6、例えばCD−ROMからコンピュータプログラム6aを読み取る。通信部16は、発明の実施の形態に係るコンピュータプログラム6aを、例えばインターネットなどの通信網Nを通じて取得する。なお、コンピュータプログラム6aは、外部記憶装置15を通じて記録媒体6から取得しても良いし、通信部16を通じて通信網Nから取得しても良い。また、プログラムモジュールごとに記録媒体6又は通信網Nから取得するものとして、記録媒体6及び通信網Nの両方を用いてコンピュータプログラム6aを取得することとしても良い。
The
制御部11の処理手順は、図11に示す通りであり、ステップS11から17の処理手順を実行する。該処理手順は、実施の形態1に係る画像処理装置1における処理内容と同様であるため、その詳細な説明を省略する。
The processing procedure of the
実施の形態2に係る画像処理装置5及びコンピュータプログラム6aにあっては、本実施の形態に係る画像処理装置として機能し、また本実施の形態に係る画像処理方法を実施させることができ、本発明の実施の形態1と同様の効果を奏する。
The
(実施の形態3)
実施の形態1においては、原画像の全体にわたり同じ閾値の設定で画像の抽出を行ったが、実施の形態3においては、原画像を複数の領域に分割し、各領域毎に画像の抽出を行う点が実施の形態1、2と異なる。ハードウェアの構成は実施の形態1と同様である。以下では、主に該相違点について説明する。
(Embodiment 3)
In the first embodiment, the image is extracted with the same threshold setting throughout the original image. However, in the third embodiment, the original image is divided into a plurality of regions, and the image is extracted for each region. This is different from the first and second embodiments. The hardware configuration is the same as in the first embodiment. Below, this difference is mainly demonstrated.
制御部11(領域分割部)は、原画像を複数の領域に分割し、各領域を示す座標情報をRAM11cに記憶する。
制御部11(閾値設定部、抽出画像生成部)は、RAM11cに記憶された各領域を示す座標情報を基に、原画像を複数に分割し、分割された各領域画像毎に処理を行う。制御部11は分割された各領域毎に特定の被写体を抽出するために閾値の設定を行い、RAM11cに閾値情報を記憶する。制御部11は、RAM11cに記憶された各領域の座標情報、各領域の閾値情報を基に各領域毎に被写体の抽出を行い、抽出画像をRAM11cに記憶する。制御部11は、RAM11cに記憶された各領域を示す座標情報、各領域毎の抽出画像を基に、各領域毎の入替用画像と各領域毎の抽出画像とを合成する。制御部11は、すべての領域についての合成が済んだ後に、すべての領域の合成画像を1つの画像としてつなぎ合わせ、原画像と同一の大きさの画像を表示インタフェース部13を介して表示装置3に出力する。
The control unit 11 (region dividing unit) divides the original image into a plurality of regions, and stores coordinate information indicating each region in the
The control unit 11 (threshold setting unit, extracted image generation unit) divides the original image into a plurality based on the coordinate information indicating each region stored in the
図16は、本発明の実施の形態3において画像の領域分割の例を示す説明図である。被写体F11、F12、F13、F14からなる画像において、領域を上下2つ(領域A1、A2)に分割するものとする。 FIG. 16 is an explanatory diagram showing an example of image region division in the third embodiment of the present invention. In the image composed of the subjects F11, F12, F13, and F14, the area is divided into two areas (areas A1 and A2).
図17は、本発明の実施の形態3に係る画像処理装置1が実施する処理の流れを示すフローチャートである。制御部11が原画像を撮像装置2から取得し、RAM11cに記憶する(S31)。制御部11が距離情報を撮像装置2から取得し、RAM11cに記憶する(S32)。ユーザが画像の領域分割を指定したか否かを、制御部11は判定する(S33)。領域分割が指定された場合(S33でYESの場合)は、各領域の座標をRAM11cに記憶し、領域毎の処理を行う(S34)。領域毎の処理については、後述する。次に、RAM11cに記憶された各領域毎の座標情報と合成画像を取得し、すべての合成画像を1つの画像としてつなぎ合わせ、原画像と同一の大きさの画像に合成し(S35)、表示インタフェース部13を介して表示装置3に出力して処理を終了する。領域分割が行われていない場合(S33でNOの場合)は、S36からS40の処理を行い終了する。S36からS40の処理は、それぞれ、実施の形態1におけるS13からS17の処理(図11)と同様であるので、説明を省略する。
FIG. 17 is a flowchart showing the flow of processing performed by the
図18は、実施の形態3において分割された各領域に対して行われる処理の流れを示すフローチャートである。制御部11は、各領域の座標情報をRAM11cより取得する(S41)。取得した各領域の座標情報から、制御部11は、未処理領域の座標情報を抽出し、処理対像領域の座標情報とする(S42)。制御部11は、座標情報を基に処理対像領域に対応した距離情報をRAM11cより読み出す(S43)。制御部11は、原画像の処理対像領域部分の画像、読み出した距離情報を基に閾値設定を行う(S44)。閾値設定は、図12に示した処理と同様である。すなわち、原画像のうち処理対像領域部分の画像に対して、閾値設定の処理を行う。制御部11は、処理対像領域の座標情報及び閾値設定を基に、原画像の処理対像領域部分から被写体を抽出し、RAM11cに記憶する(S45)。制御部11は、処理対像領域に対応した入替用画像を外部機器又は図示しない記憶装置から取得する(S46)。制御部11は、RAM11cから読み出した抽出画像と、取得した入替用画像とを合成する(S47)。制御部11は、処理対像領域の座標情報と、合成画像を対応付けて、RAM11cに記憶する(S48)。制御部11は、全ての領域について処理が完了したか否かを判定する(S49)。制御部11は全ての領域について処理が終わっていない場合(S49においてNO)、S42ヘ戻る。制御部11は全ての領域について処理が終わっている場合(S49においてYES)、領域毎の処理を終了し、図17のS35に進む。
FIG. 18 is a flowchart showing the flow of processing performed on each area divided in the third embodiment. The
図19は、本発明の実施の形態3において閾値設定の例を示す説明図である。図19は、図16に写っている被写体の前後関係を示すと共に、設定された閾値を示している。図16に示した原画像の領域A1に対しては、閾値曲線B31を用い、領域A2に対しては、閾値曲線B32を用いることにより、領域A1においては被写体F13を、領域A2においては被写体F12をそれぞれ抽出することができる。閾値曲線B31、B32を求める手法としては、例えば、領域分割を行った場合には、各領域において、画像に占める面積が大きい人であって、より手前の人及びその人より更に手前の人を抽出するという規則を予め定めておく。パターンマッチング等の公知の技術を用いて、原画像内で人の認識を行い、各領域(A1、A2)において、上述した規則に該当する人の画像を抽出できるように閾値曲線を生成することにより、閾値曲線B31、B32を得ることが出来る。 FIG. 19 is an explanatory diagram showing an example of threshold setting in the third embodiment of the present invention. FIG. 19 shows the context of the subject shown in FIG. 16 and the set threshold value. The threshold curve B31 is used for the area A1 of the original image shown in FIG. 16, and the subject curve F32 is used for the area A2 and the subject F12 is used for the area A2 by using the threshold curve B32 for the area A2. Can be extracted respectively. As a method for obtaining the threshold curves B31 and B32, for example, in the case of region division, a person who has a large area in the image in each region, and a person in front and a person in front of that person are selected. A rule of extraction is set in advance. Using a known technique such as pattern matching, a person is recognized in the original image, and a threshold curve is generated in each region (A1, A2) so that an image of a person corresponding to the rules described above can be extracted. Thus, threshold curves B31 and B32 can be obtained.
図20は、実施の形態3において出力画像の例を示す説明図である。図20は、原画像を分割して得た2つの領域A1、A2のそれぞれにおいて、被写体F12、被写体F13を抽出後に、それぞれの領域において入替用画像を合成し、領域A1と領域A2の合成画像をつなぎ合わせ、原画像と同一の大きさの画像を合成したものである。実施の形態3においては、原画像に対して複数の領域を設定して被写体を抽出し、背景や被写体の間、被写体の前など任意の位置に任意の画像を入れ替えることが可能である。つまり、距離情報を利用することで2次元平面上に疑似的な3次元空間を作り出し、新たな画像表現が可能となる。 FIG. 20 is an explanatory diagram illustrating an example of an output image in the third embodiment. In FIG. 20, after extracting the subject F12 and the subject F13 in each of the two areas A1 and A2 obtained by dividing the original image, a replacement image is synthesized in each area, and a composite image of the areas A1 and A2 is obtained. Are combined to create an image having the same size as the original image. In the third embodiment, it is possible to extract a subject by setting a plurality of regions with respect to the original image, and to replace an arbitrary image at an arbitrary position such as between the background and the subject or in front of the subject. That is, by using the distance information, a pseudo three-dimensional space can be created on a two-dimensional plane, and a new image expression can be realized.
なお、上述の説明においては、原画像を上下に二分割したが、これに限定されず、左右に分割しても良く、領域の数についても3つ以上設定しても良い。また、領域の指定は、予め分割する領域の数及び配置を画像処理装置1に記憶しておき、それに基づき分割しても良いし、原画像の情報や、距離情報に基づいて、画像処理装置1が設定しても良い。あるいは、ユーザがマウスなどの操作装置4により指定しても良い。
In the above description, the original image is divided into two parts in the upper and lower directions. However, the present invention is not limited to this, and the original image may be divided into left and right, and the number of areas may be set to three or more. In addition, for the designation of the area, the number and arrangement of the areas to be divided in advance may be stored in the
(変形例3)
上述した実施の形態3においては、画像処理装置1が所定の規則に基づいて、領域の分割及び各領域毎の閾値の設定を行ったが、ユーザが同様の分割及び設定を行っても良い。本変形例においては、分割する領域の設定及び各領域ごとの閾値の設定をユーザが操作装置4を用いて行う。
図21から図23は、変形例3におけるユーザ操作画面20の例を示す説明図である。ユーザ操作画面20は画像処理装置1の表示インタフェース部13を介して表示装置3に表示されるものである。図21に示すようにユーザ操作画面20は、処理画像表示部21、ポインタ22、視差値表示欄23、閾値入力欄24a、24b、原画像名表示欄25a、ディスパリティマップ名表示欄25b、入替画像a表示欄25c、入替画像b表示欄25d、選択ボタン26a、26b、26c、及び26dから構成されている。
(Modification 3)
In the above-described third embodiment, the
FIG. 21 to FIG. 23 are explanatory diagrams showing examples of the
処理画像表示部21には、処理対像となる原画像が表示される。本変形例においては、被写体F21、F22、F23からなる原画像及びポインタ22が処理画像表示部21に表示されている。原画像名表示欄25aは、処理したい画像の名前が表示される欄であり、選択ボタン26aを操作装置4で選択した場合、図示しない選択ウィンドウが開き、表示される画像一覧から処理したい画像を選択することにより、原画像名表示欄25aに、処理したい画像の名前が表示される。処理したい画像の名前が分かっている場合には、原画像名表示欄25aに画像の名前を直接入力することも可能である。ディスパリティマップ名表示欄25bは、ディスパリティマップの名前が表示される欄である。原画像名と同様に選択ボタン26bを操作装置4を用いて選択することにより表示される図示しない選択ウィンドウで原画像に対応したディスパリティマップを選択したり、ディスパリティマップ名表示欄25bにディスパリティマップ名を直接入力することにより、処理に用いるディスパリティマップを指定する。入替画像a表示欄25c、入替画像b表示欄25dは、それぞれ入替画像名が表示される欄であり、それぞれに対して選択ボタン26c、26dが対応している。入力方法については、原画像、ディスパリティマップと同様である。
The processed
視差値表示欄23は、ユーザが指定した画素の視差値を表示する欄である。ポインタ22により画像の任意の位置を指定し、マウスなどの操作装置4を用いて選択した場合、ポインタ22が示している位置の視差値が視差値表示欄23に表示される。閾値入力欄24a及び閾値入力欄24bは、被写体画像を抽出する際に用いる視差値の閾値を入力する欄である。
The parallax
次に、ユーザの操作について説明する。まず、ユーザは領域の指定を行う。図21に示した例では、領域A3が設定されている。このとき領域を設定しないことも可能であり、その場合には画像全体を一つの領域として選択したことと等しい。領域指定は四角や丸みのある図形を使用しても良いし、マウスなどの操作装置4を使用してフリーハンドで決定しても良い。
Next, a user operation will be described. First, the user designates an area. In the example shown in FIG. 21, the area A3 is set. At this time, it is possible not to set the area, in which case it is equivalent to selecting the entire image as one area. The area designation may use a square or a rounded figure, or may be determined freehand using the
ポインタ22により、抽出したい被写体F22を選択すると、視差値表示欄23に選択した位置の視差値127が表示される。この視差値を基準に、ユーザは設定領域A3内における閾値を決定し、閾値入力欄24aにその閾値を入力する。例えば、被写体F22の視差値よりも小さな値、つまり被写体F22の後ろの視差値が閾値となるよう設定する。ここでは被写体F22の視差値が127であるので閾値を100と設定している(図23)。さらに、設定領域A3以外の領域の閾値も決定し、閾値入力欄24bにその閾値を入力する。例えば、被写体F21の視差値よりも小さな値、つまり被写体F21の後ろの視差値が閾値となるよう設定する。ここでは図22に示したように被写体F21の視差値が64であるため閾値を50と設定している(図23)。また、領域設定を行っていない場合には、閾値入力欄24aに閾値を入力すれば、画像全体を一つの領域として閾値が設定される。
When the subject F22 to be extracted is selected by the
以上のように閾値を設定することで、図22に示すように被写体F21、F22を抽出することができる。設定領域A3内では被写体F22が、設定領域A3以外の領域では被写体F21の身体の一部が抽出され、背景被写体F23を除いた画像が、処理画像表示部21に表示される。
By setting the threshold values as described above, the subjects F21 and F22 can be extracted as shown in FIG. A subject F22 is extracted in the setting area A3, a part of the body of the subject F21 is extracted in an area other than the setting area A3, and an image excluding the background subject F23 is displayed on the processed
続いて、設定領域A3の閾値入力欄24aで入力した閾値の距離に相当する位置に、入替画像a表示欄25cで指定された画像が挿入される。すなわち、設定領域A3において、入替画像a表示欄25cで指定された画像が被写体F22の背景画像となる。また、設定領域A3以外の領域において、閾値入力欄24bで入力した閾値の距離に相当する位置に、入替画像b表示欄25dに指定された画像が挿入される。すなわち、設定領域A3以外の領域において、入替画像b表示欄25dで指定された画像が被写体F21の背景画像となる。図23に示したように、処理画像表示部21には背景画像が入れ替わった合成画像が表示されている。この作成した画像は図示しない記憶装置に保存して表示装置3に表示しても良い。
Subsequently, the image specified in the replacement image a
このように、例えばGUI(Graphical User Interface)を利用することで、保持していた画像と距離情報(視差情報)を用いてユーザが自由に画像処理を行い、その画像を任意の表示装置に表示することが可能である。本実施の形態では、例として選択領域内領域とそれ以外の領域の二つに分け、閾値を設定し画像入替を行う方法を述べたが、これを拡張すれば、選択領域を増やしそれぞれに閾値を設定し、画像を入れ替えることも可能である。また、閾値は一つの領域(面)で一つの値を設定したが、一つの領域内でも図13に示した閾値曲線B2のように閾値を変化させることで、抽出する範囲をさらに限定することも可能である。 Thus, for example, by using a GUI (Graphical User Interface), the user can freely perform image processing using the held image and distance information (parallax information), and display the image on an arbitrary display device. Is possible. In the present embodiment, as an example, the method of dividing the image into two areas, that is, the area within the selected area and the other area, and setting the threshold value and performing the image replacement has been described. It is also possible to change the image. In addition, one value is set for one threshold value in one area (surface), but the range to be extracted is further limited by changing the threshold value in one area as shown in the threshold curve B2 in FIG. Is also possible.
(実施の形態4)
図24は、本発明の実施の形態4に係る撮像装置の構成例を示すブロック図である。本実施の形態4に係る撮像装置7は、本発明の撮像装置の一例であり、実施の形態1に係る画像処理装置1において、さらに、撮像部17、測距部18、入替用画像記憶部19を備える。上述した実施の形態1における画像処理装置1と同一のものについては、同一の符号を付し説明を省略する。
(Embodiment 4)
FIG. 24 is a block diagram illustrating a configuration example of an imaging apparatus according to
撮像部17は、人物や背景などの被写体を撮像し画像を出力するものであり、受光した光を電気信号に変え画像とするCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子や、被写体からの光を撮像素子に集光するためのレンズなどの光学系を備えている。撮像部17は撮像した画像を制御部11(閾値設定部、抽出画像生成部)に出力する。測距部18は、撮像装置7と被写体の距離を測定するもので、TOF(Time of Flight)などの測距手法により、被写体までの距離を測定し、測定結果を制御部11(距離情報補間部)に出力する。制御部11は測距部18から取得した複数の距離情報について補間処理を行い、原画像の複数位置それぞれの奥行き方向の距離に係る距離情報を算出する。
The
入替用画像記憶部19は、原画像より抽出した被写体画像と合成する入替用画像を記憶するものである。制御部11に入替用画像を出力する。撮像装置7のその他の動作については、上述した実施の形態1における画像処理装置1の動作と同様であるので、省略する。
The replacement
上述したように、本実施の形態における撮像装置7は、撮像部17、測距部18を備えているので、ユーザは別途、撮像装置を用意しなくても、原画像及び原画像に対応した距離情報を取得できる。また、ユーザは入替用画像記憶部19記憶された入替用画像を利用できるため、別途、入替用画像を用意することなく、画像処理を行うことが出来る。
As described above, since the
(実施の形態5)
図25は、本発明の実施の形態5に係る撮像装置の構成を示すブロック図である。本実施の形態に係る撮像装置8は、本発明の撮像装置の一例であり、実施の形態1に係る画像処理装置1において、さらに、一組の撮像部17a、17b、入替用画像記憶部19を備える。上述した実施の形態1における画像処理装置1と同一の構成については、同一の符号を付し、構成や各部の動作については、説明を省略する。
(Embodiment 5)
FIG. 25 is a block diagram showing a configuration of an imaging apparatus according to
撮像部17a、17bはステレオ配置されている。ステレオ配置とは、撮像部17a、17bの二つの撮像部を横並びに光軸が略平行となるよう並べた配置を言う。本実施の形態では、例として二つの撮像部17a、17bには同じ構成のものを用いるが、二つの撮像部17a、17bで同領域を撮像し、画素間の対応を取ることが可能であれば、解像度や画角など構成の異なる撮像部を用いても構わない。撮像部17a、17bは、それぞれ人物や背景などの被写体を撮像し画像を出力するものであり、受光した光を電気信号に変え画像とするCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、被写体からの光を撮像素子に集光するためのレンズなどの光学系を備えている。撮像部17aは撮像した画像を、制御部11(距離算出部、閾値設定部、抽出画像生成部)に出力し、撮像部17bは撮像した画像を制御部11に出力する。
The
制御部11は撮像部17a、17bより受け取った2つの画像から、撮像装置8と被写体の距離を算出し、算出した距離に基づいて、デプスマップを生成する。続いて、制御部11は必要に応じてデプスマップの補正を行い、補正後のデプスマップをRAM11cに記憶する。入替用画像記憶部19は、原画像より抽出した被写体画像と合成する入替用画像を記憶するものであり、制御部11に入替用画像を出力する。その他の動作については、上述した実施の形態1と同様であるので、省略する。
The
なお、ここでは、二つの撮像部17a、17bが左右方向に配置されているものとしたが、上下方向に配置されていても視差値の算出が可能である場合は、撮像画像の走査を水平方向に代えて垂直方向にすれば良い。また、視差値から距離を算出した例を示したが、距離を算出せずに視差値を距離情報とすることも可能である。この場合においては、制御部11はデプスマップではなくディスパリティマップを生成することとなる。また、撮像装置8の動作は、上述の実施の形態1の変形例2において示した動作と同様である。
Here, the two
上述したように、本実施の形態における撮像装置8は、撮像部17a、17bを備えているので、実施の形態4同様に、ユーザが別途、撮像装置を用意しなくても、原画像及び原画像に対応した距離情報を取得できる。また、ユーザは入替用画像記憶部19に記憶された入替用画像を利用できるため、別途、入替用画像を用意することなく、画像処理を行うことが出来る。
As described above, since the imaging device 8 in the present embodiment includes the
(実施の形態6)
上述した実施の形態において、画像処理装置1、5は、画像処理装置単体として、説明したが、画像処理装置1、5を他の機器、例えば、テレビジョン受像機、携帯電話機又はパーソナルコンピュータ(PC)等の情報処理装置に組み込むことも可能である。
図26は、本発明の実施の形態6に係るテレビジョン受像機の構成例を示すブロック図である。実施の形態6に係るテレビジョン受像機9は、制御部11、外部インタフェース部12、チューナ部91、信号処理部92、音声出力部93、表示部94、及び操作部95を備える。テレビジョン受像機9は、実施の形態1に係る画像処理装置1を組み込んだものである。なお、画像処理装置1と同様な構成については、同じ符号を付している。
(Embodiment 6)
In the above-described embodiment, the
FIG. 26 is a block diagram showing a configuration example of a television receiver according to
制御部11は、CPU11aがROM11bに予め格納されている制御プログラムをRAM11cに読み出して実行することにより、テレビジョン受像機9が備えるハードウェア各部の動作を制御して装置全体を本発明の画像処理装置として機能させる。
外部インタフェース部12の機能は、画像処理装置1が備える外部インタフェース部12と同様なので、説明を省略する。
The
Since the function of the
チューナ部91は、デジタルの放送信号を受信するためのデジタルチューナであり、アンテナANに接続されている。チューナ部91は、例えば操作部95を介してユーザにより選択された放送チャンネルに応じて、アンテナANが受信した電波を検波し、得られた放送波から放送信号を取得し、取得した放送信号を信号処理部92へ送出する。
The
信号処理部92は、チューナ部91が取得した放送信号を映像信号(RGB信号(R:赤、G:緑、B:青))及び音声信号に分離する。信号処理部92は、分離した音声信号に対して所定の復号伸張処理を実行し、得られた音声信号を音声出力部93へ送出する。音声出力部93は、信号処理部92から送出されてきた音声信号を増幅し、音声信号に基づく音声を図示しないスピーカーにて出力する。
The
信号処理部92は、分離した映像信号に対して所定の復号伸張処理を実行する。信号処理部92は、復号伸張処理により得られた映像信号(Y信号及びC信号)をRGBの映像信号(RGB信号)に変換後、映像信号の各色成分毎に、各画素の入力階調(輝度)を、各入力階調に応じた出力階調(出力輝度)に変換し、得られた映像信号(出力階調)を表示部94へ送出する。
The
表示部94は、画像処理装置1が備えている表示インタフェース部13と表示装置3とを一体としたものである。テレビジョン受像機9が通常のテレビジョン受像機として機能する場合、表示部94は、信号処理部92から送出されてきた映像信号を所定のタイミングに従って表示部94が備える液晶モジュール等に表示させる。
テレビジョン受像機9が画像処理装置として機能する場合には、表示部94は、原画像、抽出画像、合成画像又は操作画面を表示する。
The
When the
操作部95は、画像処理装置1が備えている操作インタフェース部14と操作装置4を一体化したものである。テレビジョン受像機9を通常のテレビジョン受像機として機能させるか、画像処理装置として機能させるかの機能切替操作を受付ける。
テレビジョン受像機9が通常のテレビジョン受像機として機能する場合、操作部95は、放送チャンネルの選択、音量のコントロールなどの操作を受付ける。
テレビジョン受像機9が画像処理装置として機能する場合には、原画像の選択、デプスマップの選択、分割領域の指定などを行う。
分割領域の指定を行う場合は、操作部95が備える十字ボタン(上方向ボタン、下方向ボタン、右方向ボタン、左方向ボタン、決定ボタン等からなる操作ボタン)を用いる。
The
When the
When the
When designating a divided area, a cross button (an operation button including an up button, a down button, a right button, a left button, a determination button, and the like) provided in the
テレビジョン受像機9が、画像処理装置として機能する場合の動作は、上述した実施の形態1に係る画像処理装置1と同様であるので、説明を省略する。
本実施の形態と同様にして、上述した変形例1、変形例2、実施の形態2、実施の形態3及び変形例3に係る画像処理装置をテレビジョン受像機に組み込むことができる。
そして、実施の形態1、変形例1、変形例2、実施の形態2、実施の形態3及び変形例3に係る画像処理装置と同様の効果を奏する。
Since the operation when the
In the same manner as in this embodiment, the image processing apparatuses according to
The same effects as those of the image processing apparatus according to the first embodiment, the first modification, the second modification, the second embodiment, the third embodiment, and the third modification are obtained.
(実施の形態7)
上述の実施の形態6と同様に、撮像装置7、8を撮像装置単体ではなく、テレビジョン受像機、携帯電話機又はパーソナルコンピュータ(PC)等の情報処理装置に組み込むことが可能である。実施の形態6との違いは、組み込む装置が画像処理装置であるか、撮像装置であるかの違いのみであるので、以下では、主に相違点について説明する。
図27は、本発明の実施の形態7に係るテレビジョン受像機の構成例を示すブロック図である。実施の形態7に係るテレビジョン受像機10は、制御部11、撮像部17、測距部18、入替用画像記憶部19、チューナ部91、信号処理部92、音声出力部93、表示部94、及び操作部95を備える。テレビジョン受像機10は、実施の形態4に係る撮像装置7を組み込んだものである。なお、撮像装置7又はテレビジョン受像機9と同様な構成については、それぞれ同じ符号を付している。
(Embodiment 7)
As in the above-described sixth embodiment, the
FIG. 27 is a block diagram showing a configuration example of a television receiver according to
制御部11は、撮像装置7が備える制御部11と同様な機能を有すると共に、テレビジョン受像機10を、通常のテレビジョン受像機として機能させるための制御を行う。
撮像部17、測距部18、及び入替用画像記憶部19の機能は、それぞれ撮像装置7の備える撮像部17、測距部18、及び入替用画像記憶部19と同様であるので、説明を省略する。
同様に、チューナ部91、信号処理部92、音声出力部93及び表示部94の機能は、それぞれ実施の形態6に係るテレビジョン受像機9と同様であるので、説明を省略する。
The
The functions of the
Similarly, functions of the
操作部95は、上述のテレビジョン受像機9と同様な機能を有すると共に、ユーザからのシャッターを切るなどの撮像部へのコマンドを受け、制御部11に送信する機能を備える。
テレビジョン受像機10が、撮像処理装置として機能する場合の動作は、上述した実施の形態4に係る撮像装置7と同様であるので、説明を省略する。
本実施の形態と同様にして、上述した実施の形態5に係る撮像装置8をテレビジョン受像機に組み込むことができる。
そして、実施の形態4及び5に係る撮像装置と同様の効果を奏する。
The
Since the operation when the
Similarly to the present embodiment, the above-described imaging device 8 according to the fifth embodiment can be incorporated into a television receiver.
And the same effect as the imaging
なお、上述した実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 It should be understood that the above-described embodiment is illustrative in all respects and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1、5 画像処理装置
7、8 撮像装置
11 制御部
11a CPU
11b ROM
11c RAM
12 外部インタフェース部
13 表示インタフェース部
14 操作インタフェース部
15 外部記憶装置
16 通信部
17、17a、17b 撮像部
18 測距部
19 入替用画像記憶部
2 撮像装置
3 表示装置
4 操作装置
6 記録媒体
6a コンピュータプログラム
N 通信網
20 ユーザ操作画面
21 処理画像表示部
22 ポインタ
23 視差値表示欄
24a、24b 閾値入力欄
25a 原画像名表示欄
25b ディスパリティマップ名表示欄
25c 入替画像a表示欄
25d 入替画像b表示欄
26a、26b、26c、26d 選択ボタン
9、10 テレビジョン受像機
1, 5
11b ROM
11c RAM
DESCRIPTION OF
Claims (10)
前記距離情報に対する閾値を原画像上の位置それぞれに基づいて設定する閾値設定部と、
設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部と
を備えることを特徴とする画像処理装置。 An extracted image obtained by acquiring an original image having distance information related to the distance in the depth direction of the image at each of a plurality of positions on the image, and a replacement image replacing a part of the original image, and extracting a part of the acquired original image And an image processing apparatus for synthesizing the replacement image,
A threshold setting unit that sets a threshold for the distance information based on each position on the original image;
An image processing apparatus comprising: an extracted image generation unit configured to generate the extracted image based on a set threshold and the distance information.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein an image portion that has not been extracted from the original image is replaced with the replacement image.
前記閾値設定部は、分割した領域毎に閾値を設定し、
前記抽出画像生成部は、分割した領域毎に抽出画像を生成する
ことを特徴とする請求項1に記載の画像処理装置。 An area dividing unit for dividing the original image into a plurality of areas;
The threshold setting unit sets a threshold for each divided area,
The image processing apparatus according to claim 1, wherein the extracted image generation unit generates an extracted image for each divided region.
前記閾値設定部は、分割した領域毎に閾値を設定し、
前記抽出画像生成部は、分割した領域毎に抽出画像を生成し、
前記入替用画像を複数取得し、分割した領域毎に異なる入替用画像を用いる
ことを特徴とする請求項2に記載の画像処理装置。 An area dividing unit for dividing the original image into a plurality of areas;
The threshold setting unit sets a threshold for each divided area,
The extracted image generation unit generates an extracted image for each divided region,
The image processing apparatus according to claim 2, wherein a plurality of replacement images are acquired, and a different replacement image is used for each divided region.
前記距離情報に対する閾値を原画像上の位置それぞれに基づいて設定するステップと、
設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成するステップと
を備えることを特徴とする画像処理方法。 An extracted image obtained by acquiring an original image having distance information related to the distance in the depth direction of the image at each of a plurality of positions on the image, and a replacement image replacing a part of the original image, and extracting a part of the acquired original image And an image processing method for synthesizing the replacement image,
Setting a threshold for the distance information based on each position on the original image;
An image processing method comprising: generating the extracted image based on a set threshold and the distance information.
前記コンピュータに、
前記距離情報に対する閾値を前記原画像上の位置それぞれに基づいて設定するステップと、
設定した閾値と前記距離情報に基づいて、前記抽出画像を生成するステップと
を実行させることを特徴とするプログラム。 A computer acquires an original image having distance information related to a distance in the depth direction of the image at each of a plurality of positions on the image, and a replacement image that replaces a part of the original image, and acquires a part of the acquired original image In the program for synthesizing the extracted image and the replacement image,
In the computer,
Setting a threshold for the distance information based on each position on the original image;
A program for executing the step of generating the extracted image based on a set threshold and the distance information.
入替用画像を記憶する入替用画像記憶部と
を備え、
撮像した画像の一部を抽出した抽出画像と、撮像した画像の一部と入れ替わる入替用画像とを画像合成する撮像装置において、
前記被写体までの距離を複数位置について測定する測距部と、
前記測距部で測定した複数位置の距離値を補間することにより、前記撮像した画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を算出する距離情報補間部と、
前記距離情報に対する閾値を前記撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、
設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部と
を備えることを特徴とする撮像装置。 An imaging unit for imaging a subject;
A replacement image storage unit for storing replacement images;
In an imaging device that synthesizes an extracted image obtained by extracting a part of a captured image and a replacement image that replaces a part of the captured image,
A distance measuring unit for measuring the distance to the subject at a plurality of positions;
A distance information interpolation unit that calculates distance information related to the distance in the depth direction of the image at each of a plurality of positions on the captured image by interpolating the distance values of the plurality of positions measured by the distance measuring unit;
A threshold setting unit that sets a threshold for the distance information based on each position on the captured image;
An image pickup apparatus comprising: an extracted image generation unit configured to generate the extracted image based on a set threshold and the distance information.
入替用画像を記憶する入替用画像記憶部と
を備え、
撮像した画像の一部を抽出した抽出画像と、撮像した画像の一部と入れ替わる入替用画像とを画像合成する撮像装置において、
前記複数の撮像部それぞれが撮像した複数の画像を用いて、前記撮像した画像上の複数位置それぞれに画像の奥行き方向の距離に係る距離情報を算出する距離情報算出部と、
前記距離情報に対する閾値を前記撮像した画像上の位置それぞれに基づいて設定する閾値設定部と、
設定した閾値及び前記距離情報に基づいて、前記抽出画像を生成する抽出画像生成部と
を備えることを特徴とする撮像装置。 A plurality of imaging units for imaging a subject;
A replacement image storage unit for storing replacement images;
In an imaging device that synthesizes an extracted image obtained by extracting a part of a captured image and a replacement image that replaces a part of the captured image,
A distance information calculation unit that calculates distance information related to the distance in the depth direction of the image at each of a plurality of positions on the captured image using a plurality of images captured by the plurality of imaging units;
A threshold setting unit that sets a threshold for the distance information based on each position on the captured image;
An image pickup apparatus comprising: an extracted image generation unit configured to generate the extracted image based on a set threshold and the distance information.
テレビジョン放送を受信するチューナ部と、
該チューナ部が受信したテレビジョン放送に係る画像を表示する表示部と
を備え、
該表示部は前記画像処理装置が取得、抽出、生成又は合成した画像を表示するようにしてある
ことを特徴とするテレビジョン受像機。 An image processing apparatus according to any one of claims 1 to 4,
A tuner for receiving television broadcasts;
A display unit for displaying an image related to television broadcast received by the tuner unit,
The display unit is configured to display an image acquired, extracted, generated or synthesized by the image processing apparatus.
テレビジョン放送を受信するチューナ部と、
該チューナ部が受信したテレビジョン放送に係る画像を表示する表示部と
を備え、
該表示部は前記撮像装置が撮像、抽出、生成又は合成した画像を表示するようにしてある
ことを特徴とするテレビジョン受像機。 The imaging device according to claim 7 or 8,
A tuner for receiving television broadcasts;
A display unit for displaying an image related to television broadcast received by the tuner unit,
The television receiver, wherein the display unit displays an image captured, extracted, generated or synthesized by the imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126626A JP5694060B2 (en) | 2011-06-06 | 2011-06-06 | Image processing apparatus, image processing method, program, imaging apparatus, and television receiver |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126626A JP5694060B2 (en) | 2011-06-06 | 2011-06-06 | Image processing apparatus, image processing method, program, imaging apparatus, and television receiver |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012252648A true JP2012252648A (en) | 2012-12-20 |
JP5694060B2 JP5694060B2 (en) | 2015-04-01 |
Family
ID=47525372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011126626A Expired - Fee Related JP5694060B2 (en) | 2011-06-06 | 2011-06-06 | Image processing apparatus, image processing method, program, imaging apparatus, and television receiver |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5694060B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016122085A (en) * | 2014-12-25 | 2016-07-07 | セイコーエプソン株式会社 | Display device and control method of display device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001167276A (en) * | 1999-12-13 | 2001-06-22 | Mega Chips Corp | Photographing device |
JP2002366963A (en) * | 2001-06-12 | 2002-12-20 | Ricoh Co Ltd | Method and device for processing image, imaging device and computer program |
JP2005332071A (en) * | 2004-05-18 | 2005-12-02 | Sumitomo Electric Ind Ltd | System for tracking visually handicapped person and method for detecting visually handicapped person |
JP2008259085A (en) * | 2007-04-09 | 2008-10-23 | Tatsumi Denshi Kogyo Kk | Automatic photograph creating apparatus and automatic photograph creation method |
-
2011
- 2011-06-06 JP JP2011126626A patent/JP5694060B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001167276A (en) * | 1999-12-13 | 2001-06-22 | Mega Chips Corp | Photographing device |
JP2002366963A (en) * | 2001-06-12 | 2002-12-20 | Ricoh Co Ltd | Method and device for processing image, imaging device and computer program |
JP2005332071A (en) * | 2004-05-18 | 2005-12-02 | Sumitomo Electric Ind Ltd | System for tracking visually handicapped person and method for detecting visually handicapped person |
JP2008259085A (en) * | 2007-04-09 | 2008-10-23 | Tatsumi Denshi Kogyo Kk | Automatic photograph creating apparatus and automatic photograph creation method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016122085A (en) * | 2014-12-25 | 2016-07-07 | セイコーエプソン株式会社 | Display device and control method of display device |
Also Published As
Publication number | Publication date |
---|---|
JP5694060B2 (en) | 2015-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9210405B2 (en) | System and method for real time 2D to 3D conversion of video in a digital camera | |
US9544498B2 (en) | Method for forming images | |
JP5750505B2 (en) | 3D image error improving method and apparatus | |
JP5140210B2 (en) | Imaging apparatus and image processing method | |
JP4903240B2 (en) | Video processing apparatus, video processing method, and computer program | |
JP5204350B2 (en) | Imaging apparatus, playback apparatus, and image processing method | |
JP5204349B2 (en) | Imaging apparatus, playback apparatus, and image processing method | |
WO2012086120A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program | |
CN108012078B (en) | Image brightness processing method and device, storage medium and electronic equipment | |
JP5755571B2 (en) | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device | |
JP2013527646A5 (en) | ||
JP7387434B2 (en) | Image generation method and image generation device | |
JPWO2013108339A1 (en) | Stereo camera | |
KR20100104591A (en) | Method for fabricating a panorama | |
TW201907702A (en) | System including a video camera and a client device, and a method performed thereby | |
KR20180000696A (en) | A method and apparatus for creating a pair of stereoscopic images using least one lightfield camera | |
JP2015171097A (en) | Image processing apparatus and control method thereof | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP5464129B2 (en) | Image processing apparatus and parallax information generating apparatus | |
JP5694060B2 (en) | Image processing apparatus, image processing method, program, imaging apparatus, and television receiver | |
JP6979290B2 (en) | Image coding device and image decoding device, as well as image coding program and image decoding program. | |
WO2014132816A1 (en) | Image processing device, method, and program | |
KR101281003B1 (en) | Image processing system and method using multi view image | |
JP2020005084A (en) | Image processing apparatus, image processing method, and program | |
JP2016129281A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5694060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |