JP2008250366A - Person extraction method, its device, its program, and recording medium with same program recorded - Google Patents
Person extraction method, its device, its program, and recording medium with same program recorded Download PDFInfo
- Publication number
- JP2008250366A JP2008250366A JP2007087126A JP2007087126A JP2008250366A JP 2008250366 A JP2008250366 A JP 2008250366A JP 2007087126 A JP2007087126 A JP 2007087126A JP 2007087126 A JP2007087126 A JP 2007087126A JP 2008250366 A JP2008250366 A JP 2008250366A
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- background
- color
- representative value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラ付きインターホン、テレビ会議システム、テレビ電話などに用いられ、特に撮影画面に基づく背景差分法により人物抽出や人物の顔抽出を実施する人物抽出方法、その装置、そのプログラム、および、そのプログラムを記録した記録媒体に関する。 The present invention is used for an interphone with a camera, a video conference system, a video phone, and the like, and in particular, a person extraction method for performing person extraction and person face extraction by a background difference method based on a shooting screen, its apparatus, its program, and The present invention relates to a recording medium on which the program is recorded.
従来、カメラ付きインターホン、テレビ会議システム、テレビ電話では、撮影された画像から人物抽出または人物の顔抽出を実施することにより、不要な背景画像を省いて伝送したり、表示したりする手法が検討されている。背景差分やフレーム間差分を用いて人物抽出する場合、背景がノイズとして出力されたり、抽出した人物の画像が虫食い状態になったりすることがある。そこで、人物のみをきれいに抽出する方法が検討されている(例えば、特許文献1参照)。 Conventionally, in camera intercoms, video conferencing systems, and videophones, methods to transmit or display unnecessary background images by extracting people or people's faces from the captured images are considered. Has been. When a person is extracted using a background difference or an interframe difference, the background may be output as noise, or the extracted person image may be worm-eaten. Thus, a method for extracting only a person cleanly has been studied (see, for example, Patent Document 1).
この特許文献1に記載のものは、人物および背景が撮像されている混合画像から画素単位での背景差分法により人物画像を抽出後、多数決フィルタ処理、ブロック化処理を施すことにより背景のノイズ除去、人物の虫食いの除去をする構成が採られている。
According to the method described in
しかしながら、インターホンのカメラの場合、背景が屋外の道路や道路を隔てた他の家になっている場合がある。また、屋外に設置されたカメラでは、カメラ自体が風により揺れることもある。そのため、人物画像を撮影する直前に背景画像を撮影したとしても、背景画像がある程度変化することがある。このような場合、特許文献1のような構成のように、混合画像と背景画像における画素単位での差分に基づき人物画像を抽出後、後処理として各種信号処理を実施する方法では、効率的に人物抽出を行うことが困難となるおそれがある。
However, in the case of an interphone camera, the background may be an outdoor road or another house across the road. In addition, in a camera installed outdoors, the camera itself may be shaken by the wind. Therefore, even if a background image is taken immediately before a person image is taken, the background image may change to some extent. In such a case, the method of performing various signal processing as post-processing after extracting a person image based on the pixel unit difference between the mixed image and the background image, as in the configuration of
本発明は、効率的に混合画像から人物を抽出可能な人物抽出方法、その装置、そのプログラム、および、そのプログラムを記録した記録媒体を提供することを1つの目的とする。 An object of the present invention is to provide a person extraction method, an apparatus thereof, a program thereof, and a recording medium on which the program is recorded capable of efficiently extracting a person from a mixed image.
請求項1に記載の発明は、所定の背景が撮影されている背景画像を複数の画素からなるブロックに分割し、各ブロックの色を所定の表色系で表す値の代表値を演算し、各ブロックの代表値から構成される代表値背景画像を生成するとともに、前記背景画像の背景および人物が撮影されている混合画像を前記複数の画素からなるブロックに分割し、各ブロックの前記代表値を演算し、各ブロックの代表値から構成される代表値混合画像を生成するブロック代表値画像生成ステップと、前記代表値背景画像および前記代表値混合画像をブロックごとに比較し、前記代表値の差が所定値以上の前記ブロックを人物画像ブロックとして第1の値に設定し、前記所定値未満の前記ブロックを背景画像ブロックとして第2の値に設定することにより、背景差分二値化画像を生成する背景差分二値化画像生成ステップと、前記背景差分二値化画像の前記第1の値に設定された画素を前記混合画像の色に設定し、前記第2の値に設定された画素を所定の色に設定することにより、ブロックフィルタ処理画像を生成するブロックフィルタ処理画像生成ステップと、を実施することを特徴とする人物抽出方法である。
The invention according to
請求項5に記載の発明は、所定の背景が撮影されている背景画像を複数の画素からなるブロックに分割し、各ブロックの色を所定の表色系で表す値の代表値を演算し、各ブロックの代表値から構成される代表値背景画像を生成するとともに、前記背景画像の背景および人物が撮影されている混合画像を前記複数の画素からなるブロックに分割し、各ブロックの前記代表値を演算し、各ブロックの代表値から構成される代表値混合画像を生成するブロック代表値画像生成手段と、前記代表値背景画像および前記代表値混合画像をブロックごとに比較し、前記代表値の差が所定値以上の前記ブロックを人物画像ブロックとして第1の値に設定し、前記所定値未満の前記ブロックを背景画像ブロックとして第2の値に設定することにより、背景差分二値化画像を生成する背景差分二値化画像生成手段と、前記背景差分二値化画像の前記第1の値に設定された画素を前記混合画像の色に設定し、前記第2の値に設定された画素を所定の色に設定することにより、ブロックフィルタ処理画像を生成するブロックフィルタ処理画像生成手段と、を具備したことを特徴とした人物抽出装置である。 The invention according to claim 5 divides a background image in which a predetermined background is photographed into blocks composed of a plurality of pixels, calculates a representative value of values representing the color of each block in a predetermined color system, A representative value background image composed of representative values of each block is generated, and a mixed image in which the background of the background image and a person are photographed is divided into blocks composed of the plurality of pixels, and the representative value of each block Block representative value image generating means for generating a representative value mixed image composed of representative values of each block, the representative value background image and the representative value mixed image are compared for each block, and the representative value By setting the block having a difference equal to or greater than a predetermined value to a first value as a person image block, and setting the block having a difference less than the predetermined value to a second value as a background image block, a background difference Background difference binarized image generating means for generating a binarized image, and the pixel set to the first value of the background difference binarized image is set to the color of the mixed image, and the second value is set. A person extraction device comprising block filter processed image generation means for generating a block filter processed image by setting the set pixels to a predetermined color.
請求項7に記載の発明は、請求項1ないし請求項4のいずれかに記載の人物抽出方法を演算手段に実行させることを特徴とした人物抽出プログラムである。
The invention described in claim 7 is a person extraction program characterized by causing a calculation means to execute the person extraction method according to any one of
請求項8に記載の発明は、請求項7に記載の人物抽出プログラムが演算手段にて読取可能に記録されたことを特徴とした人物抽出プログラムを記録した記録媒体である。 The invention described in claim 8 is a recording medium on which the person extraction program according to claim 7 is recorded so as to be readable by the calculation means.
[第1実施形態]
以下、本発明に係る第1実施形態を図面に基づいて説明する。
この第1実施形態および後述する第2〜第5実施形態では、本発明の人物抽出装置を備えた人物抽出システムであって、背景が撮影された背景画像と、背景および人物が撮影された混合画像と、に基づいて、混合画像の人物を抽出する構成を例示して説明する。
なお、背景画像および混合画像としては、静止画、動画のいずれを対象としてもよい。また、カラー、白黒のいずれを対象としてもよい。
[First Embodiment]
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, a first embodiment according to the invention will be described with reference to the drawings.
In the first embodiment and the second to fifth embodiments to be described later, a person extraction system provided with the person extraction device of the present invention is a background image in which a background is photographed and a mixture in which the background and a person are photographed. A configuration for extracting a person of a mixed image based on the image will be described as an example.
Note that the background image and the mixed image may be either a still image or a moving image. Further, either color or black and white may be targeted.
〔人物抽出システムの構成〕
まず、人物抽出システムの構成について、図面に基づいて説明する。
図1は、人物抽出システムの概略構成を示すブロック図である。図2は、背景画像および混合画像における有効領域およびブロックを示す模式図である。図3は、背景差分二値化画像を示す模式図である。図4は、孤立点除去処理を説明するための図であり、(A),(B),(C),(D)は孤立点を除去する場合を表し、(E),(F)は孤立点を除去しない場合を表す。図5は、ブロックフィルタ処理カラー画像を示す模式図である。図6は、X方向へのエッジ検出処理を説明するための図であり、(A)はエッジであると判断される場合を表し、(B)はエッジでないと判断される場合を表す。図7は、Y方向へのエッジ検出処理を説明するための図であり、(A)はエッジであると判断される場合を表し、(B)はエッジでないと判断される場合を表す。図8は、出力画像を示す模式図である。
[Configuration of person extraction system]
First, the configuration of the person extraction system will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a person extraction system. FIG. 2 is a schematic diagram showing effective areas and blocks in the background image and the mixed image. FIG. 3 is a schematic diagram showing a background difference binarized image. FIG. 4 is a diagram for explaining the isolated point removal processing, where (A), (B), (C), and (D) represent cases where isolated points are removed, and (E) and (F) represent This represents the case where isolated points are not removed. FIG. 5 is a schematic diagram showing a block filter processed color image. FIGS. 6A and 6B are diagrams for explaining edge detection processing in the X direction. FIG. 6A illustrates a case where it is determined to be an edge, and FIG. 6B illustrates a case where it is determined that the edge is not an edge. FIGS. 7A and 7B are diagrams for explaining edge detection processing in the Y direction. FIG. 7A illustrates a case where it is determined that the edge is detected, and FIG. 7B illustrates a case where it is determined that the edge is not an edge. FIG. 8 is a schematic diagram showing an output image.
図1において、1Aは人物抽出システムであり、背景画像と、混合画像と、に基づいて、混合画像の人物を抽出する。
そして、人物抽出システム1Aは、撮影手段10と、表示手段20Aと、人物抽出装置100Aと、などを備えている。
In FIG. 1, 1A is a person extraction system that extracts a person in a mixed image based on a background image and a mixed image.
The
撮影手段10は、例えばいわゆるインターホンのカメラであり、人物抽出装置100Aに接続されるとともに屋外に設置されている。
この撮影手段10は、人物抽出装置100Aの制御により、背景画像や混合画像を適宜撮影して、人物抽出装置100Aへ送信する。
The photographing means 10 is a so-called intercom camera, for example, and is connected to the
The photographing
表示手段20Aは、例えばインターホンのモニタであり、人物抽出装置100Aに接続されるとともに例えば屋内に設置されている。
この表示手段20Aは、人物抽出装置100Aの制御により、混合画像から抽出された人物などを適宜表示させる。
The display means 20A is an interphone monitor, for example, and is connected to the
The display means 20A appropriately displays a person or the like extracted from the mixed image under the control of the
人物抽出装置100Aは、画像メモリ110と、演算手段としての制御部120Aと、などを備えている。
The
画像メモリ110は、制御部120Aに接続されている。この画像メモリ110は、制御部120Aの制御により各種画像を適宜読み出し可能に記憶する。
The
制御部120Aは、各種プログラムにより構成され、撮影制御手段121と、ブロック代表値画像生成手段122Aと、背景差分二値化画像生成手段123Aと、孤立点除去手段124と、ブロックフィルタ処理画像生成手段としてのブロックフィルタ処理カラー画像生成手段125Aと、エッジ検出処理二値化画像生成手段126と、出力画像生成手段としても機能する画像出力制御手段127Aと、などを備えている。
The
撮影制御手段121は、撮影手段10を制御して背景画像や混合画像を撮影させる。具体的には、図2に示すように、X方向およびY方向にそれぞれ20個ずつ並設された400個の画素G(X,Y)(X=1〜20、Y=1〜20)から構成される背景画像や混合画像を撮影させる。そして、この撮影させた背景画像や混合画像を取得して、画像メモリ110に記憶させる。
The
ブロック代表値画像生成手段122Aは、背景画像および混合画像に基づいて、代表値背景画像および代表値混合画像をブロック代表値画像として生成する。
具体的には、ブロック代表値画像生成手段122Aは、図2に示すような画素G(X,Y)から構成される背景画像および混合画像において、画素G(3,3)、画素G(3,18)、画素G(18,18)、および、画素G(18,3)を四隅とする256個の画素G(I,J)(I=3〜18、J=3〜18)から構成される有効領域Uを認識する。さらに、この有効領域Uを、有効領域Uに含まれる画素G(I,J)(以下、ブロック中央画素Gと適宜称す)と、このブロック中央画素G周辺の画素G(X,Y)と、から構成される複数のブロックC(I,J)(以下、ブロックCと適宜称す)に分割する。具体的には、有効領域Uを、画素G(I-2,J-2)、画素G(I-2,J+2)、画素G(I+2,J+2)、および、画素G(I+2,J-2)を四隅とする25個の画素G(X,Y)(以下、ブロック構成画素Gと適宜称す)から構成される256個のブロックCに分割する。つまり、X方向に5個、Y方向に5個のブロック構成画素Gから構成されるブロックサイズが「5×5」のブロックCに分割する。
また、ブロック代表値画像生成手段122Aは、背景画像の各ブロックCにおける25個のブロック構成画素Gの色を所定の表色系で表す値(以下、表色値と称す)の代表値を演算する。そして、この演算した代表値をブロック中央画素Gに設定した代表値背景画像を生成して、画像メモリ110に適宜記憶させる。
ここで、所定の表色系としては、RGB表色系やXYZ表色系などのCIE(国際照明委員会)表色系、マンセル表色系などが例示できる。また、代表値としては、平均値、中間値などが例示できる。
さらに、ブロック代表値画像生成手段122Aは、混合画像についても、各ブロックCにおけるブロック構成画素Gの代表値を演算し、この演算した代表値をブロック中央画素Gに設定した代表値混合画像を画像メモリ110に適宜記憶させる。
The block representative value
Specifically, the block representative value
The block representative value
Here, examples of the predetermined color system include CIE (International Lighting Commission) color system such as RGB color system and XYZ color system, Munsell color system, and the like. Moreover, as a representative value, an average value, an intermediate value, etc. can be illustrated.
Further, the block representative value
背景差分二値化画像生成手段123Aは、図3に示すような背景差分二値化画像Phを生成する。
具体的には、背景差分二値化画像生成手段123Aは、代表値背景画像および代表値混合画像を取得して、比較対象のブロックCの代表値の差分が所定値以上であると判断した場合、すなわち代表値背景画像および代表値混合画像のブロックCにおける代表値の差分が大きい場合、代表値混合画像のブロックCが背景ではなく人物を表す人物画像ブロックであると認識する。そして、ブロック中央画素Gを、第1の値としての「1」に設定する。また、代表値の差分が所定値未満であると判断した場合、すなわち代表値背景画像および代表値混合画像のブロックCにおける代表値の差分が小さい場合、代表値混合画像のブロックCが背景を表す背景画像ブロックであると認識して、ブロック中央画素Gを、第2の値としての「0」に設定する。
そして、背景差分二値化画像生成手段123Aは、1フレーム分のブロックCについて上述した処理を実施して、ブロック中央画素Gが「1」または「0」に設定された背景差分二値化画像Phを生成して、画像メモリ110に適宜記憶させる。
The background difference binarized image generating means 123A generates a background difference binarized image Ph as shown in FIG.
Specifically, the background difference binarized
Then, the background difference binarized
孤立点除去手段124は、背景画像や混合画像におけるノイズなどにより背景差分二値化画像Phに発生した孤立点を除去する。
具体的には、孤立点除去手段124は、背景差分二値化画像Phを取得して、処理対象のブロック中央画素Gが「0」であり、かつ、「0」のブロック中央画素GがX方向またはY方向に連続する数がM(Mは自然数)以下であると判断した場合、この処理対象のブロック中央画素Gが孤立点であると認識する。そして、このブロック中央画素Gの設定を「0」から「1」に変更する。また、処理対象のブロック中央画素Gが「1」であり、かつ、「1」のブロック中央画素GがX方向またはY方向に連続する数がN(Nは自然数)以下であると判断した場合、この処理対象のブロック中央画素Gが孤立点であると認識して、設定を「1」から「0」に変更する。
例えば、Mが「2」に設定されている構成において、図4(A),(B),(C),(D)に示すようなブロック中央画素Gの設定の場合、「0」が連続する数が「2」または「1」なので、孤立点を除去する処理として、ブロック中央画素Gの設定を「0」から「1」に変更する処理を実施する。また、図4(E),(F)に示すようなブロック中央画素Gの設定の場合、「0」が連続する数が「3」なので、孤立点でないと判断して、孤立点を除去しない。
そして、孤立点除去手段124は、1フレーム分のブロック中央画素Gについて上述した処理を実施して、孤立点が適宜除去された背景差分二値化画像Phを画像メモリ110に適宜記憶させる。
なお、MおよびNの値としては、「2」以外の値であってもよい。また、MおよびNの値は、同じであってもよいし、異なっていてもよい。
The isolated
Specifically, the isolated
For example, in the configuration in which M is set to “2”, when the block center pixel G is set as shown in FIGS. 4A, 4B, 4C, and 4D, “0” is continuous. Since the number to be performed is “2” or “1”, a process of changing the setting of the block center pixel G from “0” to “1” is performed as a process of removing the isolated point. Also, in the case of setting the block center pixel G as shown in FIGS. 4E and 4F, since the number of consecutive “0” s is “3”, it is determined that the point is not an isolated point and the isolated point is not removed. .
Then, the isolated
The values of M and N may be values other than “2”. Further, the values of M and N may be the same or different.
ブロックフィルタ処理カラー画像生成手段125Aは、図5に示すようなブロックフィルタ処理画像としてのブロックフィルタ処理カラー画像Pf1を生成する。
具体的には、ブロックフィルタ処理カラー画像生成手段125Aは、孤立点除去手段124により孤立点除去がされた背景差分二値化画像Phを取得して、処理対象のブロック中央画素Gが「1」であると判断した場合、このブロック中央画素Gを混合画像における対応するブロック中央画素Gの色に設定する。また、処理対象のブロック中央画素Gが「0」であると判断した場合、所定の色としての白色に設定する。
そして、ブロックフィルタ処理カラー画像生成手段125Aは、1フレーム分のブロック中央画素Gについて上述した処理を実施して、ブロック中央画素Gが混合画像の色、または、白色に設定されたブロックフィルタ処理カラー画像Pf1を画像メモリ110に適宜記憶させる。
The block filter processing color image generation means 125A generates a block filter processing color image Pf1 as a block filter processing image as shown in FIG.
Specifically, the block filter processing color
Then, the block filter processing color image generation means 125A performs the above-described processing on the block center pixel G for one frame, and the block filter processing color in which the block center pixel G is set to the color of the mixed image or white. The image Pf1 is stored in the
エッジ検出処理二値化画像生成手段126は、背景差分二値化画像Phにおける人物および背景のエッジを検出して、X方向二値化画像およびY方向二値化画像を生成し、これらに基づいて、エッジを設定したエッジ検出処理二値化画像を生成する。
具体的には、エッジ検出処理二値化画像生成手段126は、背景差分二値化画像Phを取得して、処理対象のブロック中央画素G(I,J)が「1」であり、かつ、このブロック中央画素G(I,J)のX方向に隣り合う画素G(I-1,J),G(I+1,J)の設定が異なっているか否かを判断する。そして、この条件を満たす場合、ブロック中央画素G(I,J)がエッジであると判断して、「1」に設定する。また、条件を満たさない場合、ブロック中央画素G(I,J)がエッジでないと判断して、「0」に設定する。例えば、図6(A)に示すような場合、ブロック中央画素G(I,J)がエッジであると判断して、「1」に設定し、図6(B)に示すような場合、ブロック中央画素G(I,J)がエッジでないと判断して「0」に設定する。
そして、ブロック中央画素Gが「1」、または、「0」に設定されたX方向二値化画像を生成する。
The edge detection processing binarized image generating means 126 detects the person and background edges in the background difference binarized image Ph, generates an X direction binarized image and a Y direction binarized image, and based on these Then, an edge detection processing binarized image in which the edge is set is generated.
Specifically, the edge detection process binarized image generation means 126 acquires the background difference binarized image Ph, the block center pixel G (I, J) to be processed is “1”, and It is determined whether or not the settings of the pixels G (I−1, J) and G (I + 1, J) adjacent to the block center pixel G (I, J) in the X direction are different. If this condition is satisfied, it is determined that the block center pixel G (I, J) is an edge, and is set to “1”. If the condition is not satisfied, it is determined that the block center pixel G (I, J) is not an edge, and is set to “0”. For example, in the case shown in FIG. 6A, it is determined that the block center pixel G (I, J) is an edge, and is set to “1”. In the case shown in FIG. It is determined that the center pixel G (I, J) is not an edge, and is set to “0”.
Then, an X-direction binarized image in which the block center pixel G is set to “1” or “0” is generated.
さらに、エッジ検出処理二値化画像生成手段126は、処理対象のブロック中央画素G(I,J)が「1」であり、かつ、Y方向に隣り合う画素G(I,J-1),G(I,J+1)の設定が異なっているか否かを判断する。そして、この条件を満たす場合、ブロック中央画素G(I,J)がエッジであると判断して、「1」に設定する。また、上記条件を満たさない場合、ブロック中央画素G(I,J)がエッジでないと判断して、「0」に設定する。例えば、図7(A)に示すような場合、ブロック中央画素G(I,J)がエッジであると判断して「1」に設定し、図7(B)に示すような場合、ブロック中央画素G(I,J)がエッジでないと判断して「0」に設定する。
そして、ブロック中央画素Gが「1」、または、「0」に設定されたY方向二値化画像を生成する。
Further, the edge detection processing binarized image generating means 126 has a processing target block center pixel G (I, J) of “1” and is adjacent to the pixel G (I, J−1), Y in the Y direction. It is determined whether the setting of G (I, J + 1) is different. If this condition is satisfied, it is determined that the block center pixel G (I, J) is an edge, and is set to “1”. If the above condition is not satisfied, it is determined that the block center pixel G (I, J) is not an edge, and is set to “0”. For example, in the case shown in FIG. 7A, it is determined that the block center pixel G (I, J) is an edge and is set to “1”. In the case shown in FIG. It is determined that the pixel G (I, J) is not an edge, and is set to “0”.
Then, a Y-direction binarized image in which the block center pixel G is set to “1” or “0” is generated.
そして、エッジ検出処理二値化画像生成手段126は、X方向二値化画像およびY方向二値化画像の論理和を取り、エッジ検出処理二値化画像を生成する。すなわち、人物のエッジに対応するブロック中央画素Gが「1」に設定され、エッジ以外に対応するブロック中央画素Gが全て「0」に設定されたエッジ検出処理二値化画像を生成して、画像メモリ110に適宜記憶させる。
Then, the edge detection process binarized
画像出力制御手段127Aは、図8に示すような出力画像Pr1を生成して、表示手段20Aで表示させる。
具体的には、画像出力制御手段127Aは、混合画像と、ブロックフィルタ処理カラー画像Pf1と、エッジ検出処理二値化画像と、を取得する。そして、ブロックフィルタ処理カラー画像Pf1およびエッジ検出処理二値化画像における互いに対応する処理対象のブロック中央画素Gを比較して、このブロック中央画素Gが非エッジであり(エッジでなく)、かつ、ブロックフィルタ処理カラー画像Pf1で「0」に設定されているか否かを判断する。そして、この条件を満たす場合、このブロック中央画素Gが背景であると判断して、このブロック中央画素Gを所望の背景色に設定する。また、上記条件を満たさない場合、非エッジであり、かつ、ブロックフィルタ処理カラー画像Pf1で「1」に設定されているか否かを判断する。そして、この条件を満たす場合、このブロック中央画素Gが人物であると判断して、混合画素の色に設定する。一方、上記条件を満たさない場合、エッジであり、かつ、ブロックフィルタ処理カラー画像Pf1で「1」に設定されているか否かを判断する。そして、この条件を満たす場合、このブロック中央画素Gがエッジであると判断して、ブロックフィルタ処理カラー画像Pf1の色に設定する。ここでは、白色に設定する。
そして、画像出力制御手段127Aは、図8に示すような間隔が広い右下がりの複数の斜線で表されるブロック中央画素G(3,3)などが所望の背景色に、間隔が狭い左下がりの複数の斜線で表されるブロック中央画素G(5,3)などが混合画像の色に、斜線がない状態で表されるブロック中央画素G(4,3)などが白色に、それぞれ設定された出力画像Pr1を表示手段20Aで表示させる。
The image output control means 127A generates an output image Pr1 as shown in FIG. 8 and displays it on the display means 20A.
Specifically, the image
Then, the image output control means 127A is arranged such that the block center pixel G (3, 3) represented by a plurality of right-sloping diagonal lines having a wide interval as shown in FIG. The block center pixel G (5,3), etc., represented by a plurality of diagonal lines is set to the color of the mixed image, and the block center pixel G (4,3), etc., shown without the diagonal lines, is set to white. The output image Pr1 is displayed on the display means 20A.
〔人物抽出システムの動作〕
まず、人物抽出システムの動作について、図面に基づいて説明する。
図9は、人物抽出処理を示すフローチャートである。図10は、ブロック代表値画像生成処理を示すフローチャートである。図11は、背景差分二値化画像生成処理を示すフローチャートである。図12は、孤立点除去処理を示すフローチャートである。図13は、ブロックフィルタ処理カラー画像生成処理を示すフローチャートである。図14は、エッジ検出処理二値化画像生成処理を示すフローチャートである。図15は、画像出力制御処理を示すフローチャートである。
[Operation of person extraction system]
First, the operation of the person extraction system will be described with reference to the drawings.
FIG. 9 is a flowchart showing the person extraction process. FIG. 10 is a flowchart showing block representative value image generation processing. FIG. 11 is a flowchart showing background difference binarized image generation processing. FIG. 12 is a flowchart showing isolated point removal processing. FIG. 13 is a flowchart showing block filter processing color image generation processing. FIG. 14 is a flowchart showing the edge detection process binarized image generation process. FIG. 15 is a flowchart showing the image output control process.
まず、人物抽出システム1Aは、図9に示すように、ブロック代表値画像生成ステップとしてのブロック代表値画像生成処理を実施する(ステップS1)。そして、このステップS1で生成された代表値背景画像および代表値混合画像に基づいて、背景差分二値化画像生成ステップとしての背景差分二値化画像生成処理を実施する(ステップS2)。
この後、このステップS2で生成された背景差分二値化画像Phに対して孤立点除去処理を実施して(ステップS3)、孤立点が除去された背景差分二値化画像Phに基づいて、ブロックフィルタ処理画像生成ステップとしてのブロックフィルタ処理カラー画像生成処理を実施する(ステップS4)。さらに、ステップS2で生成された背景差分二値化画像Phに基づいて、エッジ検出処理二値化画像生成ステップとしてのエッジ検出処理二値化画像生成処理を実施する(ステップS5)。そして、このステップS5で生成されたエッジ検出処理二値化画像と、ステップS1で生成された混合画像と、ステップS4で生成されたブロックフィルタ処理カラー画像Pf1と、に基づいて、出力画像Pr1を生成して表示させる出力画像生成ステップとしての画像出力制御処理を実施する(ステップS6)。
First, as shown in FIG. 9, the
Thereafter, an isolated point removal process is performed on the background difference binarized image Ph generated in step S2 (step S3). Based on the background difference binarized image Ph from which the isolated points are removed, A block filter process color image generation process is performed as a block filter process image generation step (step S4). Furthermore, based on the background difference binarized image Ph generated in step S2, an edge detection process binarized image generation process is performed as an edge detection process binarized image generation step (step S5). Then, based on the edge detection processing binarized image generated in step S5, the mixed image generated in step S1, and the block filter processing color image Pf1 generated in step S4, an output image Pr1 is obtained. Image output control processing is performed as an output image generation step to be generated and displayed (step S6).
ここで、ステップS1におけるブロック代表値画像生成処理では、人物抽出システム1Aの人物抽出装置100Aは、図10に示すように、所定のタイミングで撮影手段10を制御して背景画像を生成する(ステップS11)。そして、この背景画像の各ブロックCの代表値を演算し(ステップS12)、この代表値に基づく代表値背景画像を生成する(ステップS13)。さらに、人物抽出装置100Aは、人物が撮影手段10の前に位置する状態で撮影手段10を制御して混合画像を生成する(ステップS14)。そして、この混合画像の各ブロックCの代表値を演算し(ステップS15)、この代表値に基づく代表値混合画像を生成する(ステップS16)。
Here, in the block representative value image generation process in step S1, the
また、ステップS2における背景差分二値化画像生成処理では、人物抽出装置100Aは、図11に示すように、代表値背景画像および代表値混合画像における比較対象のブロックCの代表値を比較して(ステップS21)、代表値の差分が所定値以上か否かを判断する(ステップS22)。このステップS22において、所定値以上であると判断した場合、背景差分二値化画像Phのブロック中央画素Gを「1」に設定し(ステップS23)、所定値未満であると判断した場合、ブロック中央画素Gを「0」に設定する(ステップS24)。そして、1フレーム分の処理が終了したか否かを判断し(ステップS25)、終了したと判断した場合、処理を終了し、終了していないと判断した場合、ステップS21に戻る。
In the background difference binarized image generation process in step S2, the
さらに、ステップS3における孤立点除去処理では、人物抽出装置100Aは、図12に示すように、背景差分二値化画像Phにおける処理対象のブロック中央画素Gが「0」か否かを判断する(ステップS31)。このステップS31において、「0」であると判断した場合、「0」のブロック中央画素GがX方向またはY方向に連続する数がM以下か否かを判断する(ステップS32)。そして、ステップS32において、M以下であると判断した場合、ブロック中央画素Gを「0」から「1」に変更する(ステップS33)。さらに、このステップS33を実施した場合、または、ステップS32においてM以下でないと判断した場合、1フレーム分の処理が終了したか否かを判断し(ステップS34)、終了したと判断した場合、処理を終了し、終了していないと判断した場合、ステップS31に戻る。
また、ステップS31において、「1」であると判断した場合、「1」のブロック中央画素GがX方向またはY方向に連続する数がN以下か否かを判断する(ステップS35)。このステップS35において、N以下でないと判断した場合、ステップS34の処理を実施し、N以下であると判断した場合、ブロック中央画素Gを「1」から「0」に変更して(ステップS36)、ステップS34の処理をする。
Furthermore, in the isolated point removal process in step S3, the
If it is determined in step S31 that it is “1”, it is determined whether the number of consecutive block center pixels G of “1” in the X direction or the Y direction is equal to or less than N (step S35). If it is determined in this step S35 that it is not N or less, the process of step S34 is performed. If it is determined that it is N or less, the block center pixel G is changed from “1” to “0” (step S36). The process of step S34 is performed.
また、ステップS4におけるブロックフィルタ処理カラー画像生成処理では、人物抽出装置100Aは、図13に示すように、背景差分二値化画像Phにおける処理対象のブロック中央画素Gが「1」か否かを判断する(ステップS41)。このステップS41において、「1」であると判断した場合、ブロックフィルタ処理カラー画像Pf1のブロック中央画素Gを混合画像の色に設定し(ステップS42)、「0」であると判断した場合、ブロック中央画素Gを白色に設定する(ステップS43)。そして、1フレーム分の処理が終了したか否かを判断し(ステップS44)、終了したと判断した場合、処理を終了し、終了していないと判断した場合、ステップS41に戻る。
In the block filter processing color image generation processing in step S4, the
さらに、ステップS5におけるエッジ検出処理二値化画像生成処理では、人物抽出装置100Aは、図14に示すように、背景差分二値化画像Phにおける処理対象のブロック中央画素G(I,J)と、X方向に隣り合う画素G(I-1,J),G(I+1,J)と、の値を比較して(ステップS51)、ブロック中央画素G(I,J)が「1」であり、かつ、画素G(I-1,J),G(I+1,J)の値が異なるか否かを判断する(ステップS52)。このステップS52において、条件を満たすと判断した場合、X方向二値化画像のブロック中央画素Gを「1」に設定し(ステップS53)、条件を満たさないと判断した場合、「0」に設定する(ステップS54)。この後、1フレーム分の処理が終了したか否かを判断し(ステップS55)、終了していないと判断した場合、ステップS51に戻る。
一方、ステップS55において、終了したと判断した場合、ブロック中央画素G(I,J)と、Y方向に隣り合う画素G(I,J-1),G(I,J+1)と、の値を比較して(ステップS56)、ブロック中央画素G(I,J)が「1」であり、かつ、画素G(I,J-1),G(I,J+1)の値が異なるか否かを判断する(ステップS57)。このステップS57において、条件を満たすと判断した場合、Y方向二値化画像のブロック中央画素Gを「1」に設定し(ステップS58)、条件を満たさないと判断した場合、「0」に設定する(ステップS59)。この後、1フレーム分の処理が終了したか否かを判断し(ステップS60)、終了していないと判断した場合、ステップS56に戻り、終了したと判断した場合、X方向二値化画像およびY方向二値化画像に基づいて、エッジ検出処理二値化画像を生成する(ステップS61)。
Furthermore, in the edge detection process binarized image generation process in step S5, the
On the other hand, if it is determined in step S55 that the processing has ended, the block center pixel G (I, J) and the pixels G (I, J-1) and G (I, J + 1) adjacent in the Y direction are The values are compared (step S56), the block center pixel G (I, J) is “1”, and the values of the pixels G (I, J−1) and G (I, J + 1) are different. Whether or not (step S57). If it is determined in step S57 that the condition is satisfied, the block center pixel G of the Y-direction binarized image is set to “1” (step S58). If it is determined that the condition is not satisfied, it is set to “0”. (Step S59). Thereafter, it is determined whether or not the processing for one frame has been completed (step S60). If it is determined that the processing has not been completed, the process returns to step S56. Based on the Y-direction binarized image, an edge detection process binarized image is generated (step S61).
また、ステップS6における画像出力制御処理では、人物抽出装置100Aは、図15に示すように、エッジ検出処理二値化画像およびブロックフィルタ処理カラー画像Pf1における処理対象のブロック中央画素Gを比較して(ステップS71)、このブロック中央画素Gが非エッジであり、かつ、ブロックフィルタ処理カラー画像Pf1で「0」に設定されているか否かを判断する(ステップS72)。このステップS72において、条件を満たしていると判断した場合、出力画像Pr1のブロック中央画素Gを所望の背景色に設定する(ステップS73)。また、ステップS72において、条件を満たさない場合、非エッジであり、かつ、ブロックフィルタ処理カラー画像Pf1で「1」に設定されているか否かを判断する(ステップS74)。
そして、ステップS74において、条件を満たす場合、ブロック中央画素Gを混合画素の色に設定する(ステップS75)。一方、ステップS74において、条件を満たさない場合、エッジであり、かつ、ブロックフィルタ処理カラー画像Pf1で「1」に設定されているか否かを判断する(ステップS76)。このステップS76において、条件を満たす場合、ブロック中央画素Gをブロックフィルタ処理カラー画像Pf1の色、すなわち白色に設定する(ステップS77)。
そして、ステップS73またはステップS75の処理の後、あるいは、ステップS76において条件を満たしていないと判断した場合、1フレーム分の処理が終了したか否かを判断し(ステップS78)、終了していないと判断した場合、ステップS71に戻り、終了したと判断した場合、出力画像Pr1を表示手段20Aで出力させる(ステップS79)。
In the image output control process in step S6, the
If the condition is satisfied in step S74, the block center pixel G is set to the color of the mixed pixel (step S75). On the other hand, if the condition is not satisfied in step S74, it is determined whether the edge is set and “1” is set in the block filter processed color image Pf1 (step S76). If the condition is satisfied in step S76, the block center pixel G is set to the color of the block filter processed color image Pf1, that is, white (step S77).
Then, after the process of step S73 or step S75, or when it is determined in step S76 that the condition is not satisfied, it is determined whether or not the process for one frame has been completed (step S78), and has not been completed. If it is determined, the process returns to step S71, and if it is determined that the process has been completed, the output image Pr1 is output by the display means 20A (step S79).
〔第1実施形態の作用効果〕
上述したように、上記第1実施形態では、人物抽出装置100Aにて、背景画像および混合画像をそれぞれ複数のブロック構成画素Gから構成される複数のブロックCに分割する。そして、各ブロック構成画素Gの表色値の代表値を演算して、この代表値をブロック中央画素Gに設定した代表値背景画像および代表値混合画像を生成する。この後、代表値背景画像および代表値混合画像をブロックCごとに比較し、代表値の差分が所定値以上の場合にブロック中央画素Gを人物画像ブロックとして「1」に設定し、所定値未満の場合に背景画像ブロックとして「0」に設定した背景差分二値化画像Phを生成する。そして、背景差分二値化画像Phにおける「1」のブロック中央画素Gを混合画像の色に設定し、「0」のブロック中央画素Gを所定の色に設定することにより、混合画像から人物を抽出したブロックフィルタ処理カラー画像Pf1を生成する。
このため、複数のブロック構成画素Gから構成されるブロックC単位で、背景画像および混合画像における表色値の代表値を比較するので、撮影手段10や背景となる樹木などが風で揺れたりすることなどにより画素G(X,Y)単位で背景画像が変化してしまったとしても、この画素G(X,Y)単位での変化の影響を除去した状態で、効率的に混合画像から人物を抽出できる。
[Effects of First Embodiment]
As described above, in the first embodiment, the background image and the mixed image are divided into a plurality of blocks C each composed of a plurality of block constituent pixels G in the
For this reason, the representative values of the colorimetric values in the background image and the mixed image are compared in units of block C composed of a plurality of block constituent pixels G, so that the photographing
さらに、背景差分二値化画像Phにおける人物および背景のエッジを検出して、所定のブロック中央画素Gがエッジまたは非エッジである旨を示すエッジ検出処理二値化画像を生成する。そして、このエッジ検出処理二値化画像のエッジと判定されたブロック中央画素Gをブロックフィルタ処理カラー画像Pf1の色である白色に設定し、非エッジと判定されたブロック中央画素Gを混合画像の色に設定し、非エッジと判定されたブロック中央画素Gを所定の背景色に設定することにより、出力画像Pr1を生成して表示させる。
このため、白色でいわゆる縁取りされた状態で効率的に抽出された人物を、出力画像Pr1により表示させることができる。
Furthermore, a person and background edges in the background difference binarized image Ph are detected, and an edge detection processing binarized image indicating that the predetermined block center pixel G is an edge or a non-edge is generated. Then, the block center pixel G determined to be the edge of the edge detection processing binarized image is set to white as the color of the block filter processing color image Pf1, and the block center pixel G determined to be a non-edge is set to the mixed image. The color is set, and the block center pixel G determined to be a non-edge is set to a predetermined background color, thereby generating and displaying the output image Pr1.
For this reason, a person who is efficiently extracted in white so-called bordered state can be displayed by the output image Pr1.
そして、背景画像や混合画像におけるノイズなどにより、背景差分二値化画像Phに発生した孤立点を除去している。
このため、効率的に、かつ、適切に混合画像から人物を抽出することができる。
And the isolated point which generate | occur | produced in the background difference binarized image Ph by the noise etc. in a background image or a mixed image is removed.
For this reason, a person can be extracted from a mixed image efficiently and appropriately.
[第2実施形態]
次に、本発明に係る第2実施形態を図面に基づいて説明する。
なお、第1実施形態と同一の構成については、同一符号を付し説明を適宜省略する。また、人物抽出システムの動作については、説明を省略する。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described with reference to the drawings.
In addition, about the structure same as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted suitably. Also, description of the operation of the person extraction system is omitted.
〔人物抽出システムの構成〕
まず、人物抽出システムの構成について、図面に基づいて説明する。
図16は、人物抽出システムの概略構成を示すブロック図である。図17は、合成画像を示す模式図である。
[Configuration of person extraction system]
First, the configuration of the person extraction system will be described with reference to the drawings.
FIG. 16 is a block diagram showing a schematic configuration of the person extraction system. FIG. 17 is a schematic diagram showing a composite image.
図16において、1Bは人物抽出システムであり、この人物抽出システム1Bは、撮影手段10と、他画像出力手段30と、表示手段20Bと、人物抽出装置100Bと、などを備えている。
In FIG. 16, 1B is a person extraction system, and this
他画像出力手段30は、例えばいわゆるテレビチューナであり、人物抽出装置100Bに接続されている。
この他画像出力手段30は、放送波などの無線媒体やケーブルなどの有線媒体を介して配信される画像(以下、他画像と称す)を受信して、人物抽出装置100Bへ出力する。
The other image output means 30 is, for example, a so-called TV tuner, and is connected to the
The other image output means 30 receives an image (hereinafter referred to as another image) distributed via a wireless medium such as a broadcast wave or a wired medium such as a cable, and outputs the received image to the
表示手段20Bは、例えばテレビジョン装置のモニタであり、人物抽出装置100Bに接続されるとともに屋内に設置されている。
この表示手段20Bは、人物抽出装置100Bの制御により、図17に示すように、混合画像から抽出された人物を表す出力画像Pr2と、他画像出力手段30で受信された他画像Ptと、が合成された合成画像Pg1などを適宜表示させる。
The
As shown in FIG. 17, the
人物抽出装置100Bは、制御部120Bのみが第1実施形態の人物抽出装置100Aと異なる構成を有している。また、制御部120Bは、第1実施形態の制御部120Aと同様の構成を有し、画像出力制御手段127Aの代わりに画像出力制御手段127Bを備えている。
The
画像出力制御手段127Bは、合成画像Pg1を生成して、表示手段20Bで表示させる。
具体的には、画像出力制御手段127Bは、ブロックフィルタ処理カラー画像Pf1およびエッジ検出処理二値化画像の互いに対応するブロック中央画素Gが背景であると判断した場合、出力画像Pr2のブロック中央画素Gを他画像Ptの色に設定する。さらに、人物と判断されたブロック中央画素Gを混合画像の色に、エッジと判断されたブロック中央画素Gをブロックフィルタ処理カラー画像Pf1の色である白色に、それぞれ設定した出力画像Pr2を生成する。そして、テレビジョン放送の一場面である他画像Ptの一部に出力画像Pr2を合成した合成画像Pg1を表示手段20Bで表示させる。すなわち、他画像Ptにいわゆる白色の縁領域Wで縁取りされた人物Hが合成された合成画像Pg1を表示させる。
The image output control means 127B generates a composite image Pg1 and displays it on the display means 20B.
Specifically, when the image
〔第2実施形態の作用効果〕
上述したように、上記第2実施形態では、上記第1実施形態と同様の作用効果に加え、以下のような作用効果を奏することができる。
[Effects of Second Embodiment]
As described above, in the second embodiment, in addition to the same functions and effects as those in the first embodiment, the following functions and effects can be achieved.
すなわち、人物抽出装置100Bにて、ブロックフィルタ処理カラー画像Pf1およびエッジ検出処理二値化画像に基づいて、背景であると判断されたブロック中央画素Gを他画像Ptの色に、人物であると判断されたものを混合画像の色に、エッジと判断されたものを白色に、それぞれ設定した出力画像Pr2を生成する。そして、テレビジョン放送の一場面である他画像Ptの一部に出力画像Pr2を合成した合成画像Pg1を表示させる。
このため、例えばテレビジョン放送の視聴中であっても、利用者をその場から離れさせることなく訪問者の顔を認識させることができ、利便性を向上できる。
In other words, the
For this reason, for example, even during viewing of a television broadcast, the face of the visitor can be recognized without leaving the user away from the site, and convenience can be improved.
[第3実施形態]
次に、本発明に係る第3実施形態を図面に基づいて説明する。
なお、第1,第2実施形態と同一の構成については、同一符号を付し説明を適宜省略する。また、人物抽出システムの動作については、説明を省略する。
[Third Embodiment]
Next, 3rd Embodiment which concerns on this invention is described based on drawing.
In addition, about the structure same as 1st, 2nd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted suitably. Also, description of the operation of the person extraction system is omitted.
〔人物抽出システムの構成〕
まず、人物抽出システムの構成について、図面に基づいて説明する。
図18は、人物抽出システムの概略構成を示すブロック図である。図19は、合成画像を示す模式図である。
[Configuration of person extraction system]
First, the configuration of the person extraction system will be described with reference to the drawings.
FIG. 18 is a block diagram showing a schematic configuration of the person extraction system. FIG. 19 is a schematic diagram showing a composite image.
図18において、1Cは人物抽出システムであり、この人物抽出システム1Cは、撮影手段10と、他画像出力手段30と、表示手段20Bと、人物抽出装置100Cと、などを備えている。
In FIG. 18, 1C is a person extraction system, and this
人物抽出装置100Cは、制御部120Cのみが第2実施形態の人物抽出装置100Bと異なる構成を有している。また、制御部120Cは、第2実施形態の制御部120Bと同様の構成を有し、ブロックフィルタ処理カラー画像生成手段125Aおよび画像出力制御手段127Bの代わりに、ブロックフィルタ処理カラー画像生成手段125Cおよび画像出力制御手段127Cを備えているとともに、エッジ検出処理二値化画像生成手段126を備えていない。
The person extracting device 100C has a configuration in which only the
ブロックフィルタ処理カラー画像生成手段125Cは、図19に示すようなブロックフィルタ処理カラー画像Pf2を生成する。
具体的には、ブロックフィルタ処理カラー画像生成手段125Cは、孤立点除去手段124により孤立点除去がされた背景差分二値化画像Phにおける処理対象のブロック中央画素Gが「0」か否かを判断する。そして、「0」であり背景であると判断した場合、ブロックフィルタ処理カラー画像Pf2のブロック中央画素Gを他画像Ptの色に設定し、「1」であり人物であると判断した場合、混合画像の色に設定して、ブロックフィルタ処理カラー画像Pf2を生成する。
The block filter processing color image generation means 125C generates a block filter processing color image Pf2 as shown in FIG.
Specifically, the block filter processing color image generation unit 125C determines whether or not the block center pixel G to be processed in the background difference binarized image Ph from which the isolated point is removed by the isolated
画像出力制御手段127Cは、図19に示すような合成画像Pg2を生成して、表示手段20Bで表示させる。
具体的には、画像出力制御手段127Cは、ブロックフィルタ処理カラー画像Pf2を取得して、他画像Ptの一部に合成した合成画像Pg2を表示手段20Bで表示させる。すなわち、他画像Ptに縁領域Wで縁取りがされていない人物Hが合成された合成画像Pg2を表示させる。
The image output control means 127C generates a composite image Pg2 as shown in FIG. 19 and displays it on the display means 20B.
Specifically, the image
〔第3実施形態の作用効果〕
上述したように、上記第3実施形態では、上記第1,第2実施形態と同様の作用効果に加え、以下のような作用効果を奏することができる。
[Effects of Third Embodiment]
As described above, in the third embodiment, in addition to the same functions and effects as in the first and second embodiments, the following functions and effects can be achieved.
すなわち、人物抽出装置100Cにて、背景差分二値化画像Phにおいて、背景であると判断されたブロック中央画素Gを他画像Ptの色に、人物であると判断されたものを混合画像の色に、それぞれ設定したブロックフィルタ処理カラー画像Pf2を生成する。そして、他画像Ptの一部にブロックフィルタ処理カラー画像Pf2を合成した合成画像Pg2を表示させる。
このため、エッジ検出処理二値化画像生成手段126を設けなくても、例えばテレビジョン放送視聴中の利用者をその場から離れさせることなく訪問者の顔を認識させることができる。したがって、構成の簡略化を図りつつ、利便性を向上できる。
That is, in the background difference binarized image Ph by the person extraction device 100C, the block center pixel G determined to be the background is the color of the other image Pt, and the image determined to be the person is the color of the mixed image. Then, the set block filter processed color image Pf2 is generated. Then, a synthesized image Pg2 obtained by synthesizing the block filter processed color image Pf2 is displayed on a part of the other image Pt.
For this reason, without providing the edge detection processing binarized image generation means 126, for example, the user's face can be recognized without leaving the user who is watching the television broadcast away from the spot. Accordingly, convenience can be improved while simplifying the configuration.
[第4実施形態]
次に、本発明に係る第4実施形態を図面に基づいて説明する。
なお、第1〜第3実施形態と同一の構成については、同一符号を付し説明を適宜省略する。また、人物抽出システムの動作については、説明を省略する。
[Fourth Embodiment]
Next, 4th Embodiment which concerns on this invention is described based on drawing.
In addition, about the structure same as 1st-3rd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted suitably. Also, description of the operation of the person extraction system is omitted.
〔人物抽出システムの構成〕
まず、人物抽出システムの構成について、図1に基づいて説明する。
[Configuration of person extraction system]
First, the configuration of the person extraction system will be described with reference to FIG.
図1において、人物抽出システム1Dは、人物抽出装置100Dのみが第1実施形態の人物抽出システム1Aと異なる構成を有している。また、人物抽出装置100Dは、制御部120Dのみが第1実施形態の人物抽出装置100Aと異なる構成を有している。さらに、制御部120Dは、第1実施形態の制御部120Aと同様の構成を有し、ブロック代表値画像生成手段122A、背景差分二値化画像生成手段123A、および、ブロックフィルタ処理カラー画像生成手段125Aの代わりに、ブロック代表値画像生成手段122D、背景差分二値化画像生成手段123D、および、ブロックフィルタ処理カラー画像生成手段125Dを備えている。
In FIG. 1, a
ブロック代表値画像生成手段122Dは、背景画像および混合画像において、第1実施形態のブロック代表値画像生成手段122Aと同様の処理により、ブロックサイズが「5×5」のブロックCに分割し、各ブロックCの代表値に基づいて、代表値背景画像および代表値混合画像を生成する。さらに、例えば画素G(I-2,J-2)、画素G(I-2,J+1)、画素G(I+1,J+1)、および、画素G(I+1,J-2)を四隅とする16個のブロック構成画素Gから構成されるブロックサイズが「4×4」のブロックC、画素G(I-1,J-1)、画素G(I-1,J+1)、画素G(I+1,J+1)、および、画素G(I+1,J-1)を四隅とする9個のブロック構成画素Gから構成されるブロックサイズが「3×3」のブロックCに分割し、それぞれに対応する代表値背景画像および代表値混合画像を生成する。
The block representative value
背景差分二値化画像生成手段123Dは、ブロックサイズが「3×3」、「4×4」、および、「5×5」のブロックCに基づいて、それぞれに対応する背景差分二値化画像Phを生成する。ここで、ブロックCのブロックサイズが異なるため、各背景差分二値化画像Phは、「1」に設定されたブロックC、すなわち人物画像ブロックの数や範囲あるいは位置が適宜異なることとなる。 The background difference binarized image generating means 123D uses the background difference binarized images corresponding to the blocks C having the block sizes of “3 × 3”, “4 × 4”, and “5 × 5”, respectively. Generate Ph. Here, since the block sizes of the blocks C are different, each background difference binarized image Ph is appropriately different in the number, range, or position of the block C set to “1”, that is, the person image blocks.
ブロックフィルタ処理カラー画像生成手段125Dは、各ブロックサイズに対応する背景差分二値化画像Phから、あらかじめ設定された人物画像ブロックの数や範囲あるいは位置と同一、あるいは、ほぼ等しいものを選択する。そして、この選択したブロックサイズに対応する背景差分二値化画像Phに基づいて、ブロックフィルタ処理カラー画像Pf1を生成して、画像メモリ110に適宜記憶させる。
このブロックフィルタ処理カラー画像Pf1に基づいて、出力画像Pr1が表示手段20Aで表示される。
The block filter processing color image generation means 125D selects a background difference binarized image Ph corresponding to each block size that is the same as or approximately equal to the preset number, range, or position of human image blocks. Then, based on the background difference binarized image Ph corresponding to the selected block size, a block filter processed color image Pf1 is generated and stored in the
Based on the block filter processed color image Pf1, the output image Pr1 is displayed on the display means 20A.
〔第4実施形態の作用効果〕
上述したように、上記第4実施形態では、上記第1実施形態と同様の作用効果に加え、以下のような作用効果を奏することができる。
[Effects of Fourth Embodiment]
As described above, in the fourth embodiment, the following operational effects can be obtained in addition to the operational effects similar to those of the first embodiment.
すなわち、人物抽出装置100Dにて、ブロックサイズが異なる複数の代表値背景画像、代表値混合画像、および、背景差分二値化画像Phを生成する。そして、これら各ブロックサイズの背景差分二値化画像Phから、あらかじめ設定された人物画像ブロックの数や範囲あるいは位置と同一、あるいは、ほぼ等しいものを選択し、この選択した背景差分二値化画像Phに基づく出力画像Pr1を表示させる。
このため、例えば撮影手段10や背景となる樹木などが風で揺れたりしている場合には、大きいブロックサイズの背景差分二値化画像Phを選択することにより、ある程度の動きをブロックC単位で吸収することができ、背景画像ブロックの抽出を容易にできる。したがって、撮影手段10の設置環境に対応したブロックサイズの背景差分二値化画像Phに基づいて、人物を高精度に抽出できる。
That is, the
For this reason, for example, when the photographing means 10 or the background tree is shaken by the wind, by selecting the background difference binarized image Ph having a large block size, a certain amount of movement is made in units of block C. The background image block can be easily extracted. Therefore, a person can be extracted with high accuracy based on the background difference binarized image Ph having a block size corresponding to the installation environment of the photographing
[第5実施形態]
次に、本発明に係る第5実施形態を図面に基づいて説明する。
なお、第1〜第4実施形態と同一の構成については、同一符号を付し説明を適宜省略する。また、人物抽出システムの動作については、説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment according to the present invention will be described with reference to the drawings.
In addition, about the structure same as 1st-4th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted suitably. Also, description of the operation of the person extraction system is omitted.
〔人物抽出システムの構成〕
まず、人物抽出システムの構成について、図1に基づいて説明する。
[Configuration of person extraction system]
First, the configuration of the person extraction system will be described with reference to FIG.
図1において、人物抽出システム1Eは、人物抽出装置100Eのみが第1実施形態の人物抽出システム1Aと異なる構成を有している。また、人物抽出装置100Eは、制御部120Eのみが第1実施形態の人物抽出装置100Aと異なる構成を有している。さらに、制御部120Eは、第1実施形態の制御部120Aと同様の構成を有し、背景差分二値化画像生成手段123Aの代わりに、背景差分二値化画像生成手段123Eを備えている。
In FIG. 1, a
背景差分二値化画像生成手段123Eは、代表値背景画像および代表値混合画像における比較対象のブロックCの代表値を比較する。そして、この代表値の差分が第1所定値未満であると判断した場合、代表値混合画像のブロックCが背景画像ブロックであると認識して、ブロック中央画素Gを「0」に設定する。また、代表値の差分が第1所定値よりも大きい第2所定値以上であると判断した場合、代表値混合画像のブロックCが人物画像ブロックであると認識して、ブロック中央画素Gを「1」に設定する。さらに、代表値の差分が第1所定値以上であり、かつ、第2所定値未満であると判断した場合、代表値混合画像のブロックCの代表値で表される色が肌色か否かを判断する。そして、肌色であると判断した場合、人物画像ブロックであると認識して、ブロック中央画素Gを「1」に設定し、肌色でないと判断した場合、背景画像ブロックであると認識して、「0」に設定する。そして、人物画像ブロックおよび背景画像ブロックで構成される背景差分二値化画像Phを生成する。 The background difference binarized image generation means 123E compares the representative values of the block C to be compared in the representative value background image and the representative value mixed image. When it is determined that the difference between the representative values is less than the first predetermined value, the block C of the representative value mixed image is recognized as a background image block, and the block center pixel G is set to “0”. When it is determined that the difference between the representative values is equal to or greater than the second predetermined value that is larger than the first predetermined value, the block C of the representative value mixed image is recognized as a person image block, and the block center pixel G is set to “ Set to “1”. Further, if it is determined that the difference between the representative values is equal to or greater than the first predetermined value and less than the second predetermined value, whether or not the color represented by the representative value of the block C of the representative value mixed image is a flesh color. to decide. When it is determined that the color is skin color, it is recognized as a person image block, and the block center pixel G is set to “1”. When it is determined that the color is not skin color, it is recognized as a background image block, and “ Set to “0”. Then, a background difference binarized image Ph composed of a person image block and a background image block is generated.
〔第5実施形態の作用効果〕
上述したように、上記第5実施形態では、上記第1実施形態と同様の作用効果に加え、以下のような作用効果を奏することができる。
[Effects of Fifth Embodiment]
As described above, in the fifth embodiment, in addition to the same functions and effects as those in the first embodiment, the following functions and effects can be achieved.
すなわち、人物抽出装置100Eにて、代表値背景画像および代表値混合画像におけるブロックCの代表値の差分が第1所定値以上であり、かつ、第2所定値未満であると判断した場合、代表値混合画像のブロックCの代表値で表される色が肌色か否かに基づいて、背景画像ブロックまたは人物画像ブロックである旨を判断する。
このため、代表値の差分に基づき人物画像ブロックであるか否かの判定が困難な場合であっても、そのブロックCにおける実際の色を検出することにより、人物をさらに高精度に抽出できる。
That is, if the
For this reason, even if it is difficult to determine whether the block is a person image block based on the difference between the representative values, the person can be extracted with higher accuracy by detecting the actual color in the block C.
[実施形態の変形]
なお、本発明は、上述した一実施形態に限定されるものではなく、本発明の目的を達成できる範囲で以下に示される変形をも含むものである。
[Modification of Embodiment]
Note that the present invention is not limited to the above-described embodiment, and includes the following modifications as long as the object of the present invention can be achieved.
すなわち、第1〜第5実施形態において、エッジ検出処理二値化画像生成手段126および画像出力制御手段127A,127B,127Cを設けない構成としてもよい。さらには、撮影制御手段121、孤立点除去手段124を設けない構成としてもよい。
That is, in the first to fifth embodiments, the edge detection processing binarized
そして、第2実施形態における他画像Ptに対する出力画像Pr2の大きさあるいは位置や、第3実施形態における他画像Ptに対するブロックフィルタ処理カラー画像Pf2の大きさあるいは位置を、適宜変更可能な構成としてもよいし、あらかじめ所定の状態に設定した構成としてもよい。 The size or position of the output image Pr2 with respect to the other image Pt in the second embodiment and the size or position of the block filter processing color image Pf2 with respect to the other image Pt in the third embodiment can be appropriately changed. Alternatively, a configuration in which a predetermined state is set in advance may be employed.
さらに、第1〜第5実施形態において、ブロックCを構成するブロック構成画素Gの表色値の平均値や中間値を代表値としたが、ブロック構成画素Gのうちの代表画素G、例えばブロック中央画素Gの表色値を、そのままブロックCの代表値として適用してもよい。 Furthermore, in the first to fifth embodiments, the average value or the intermediate value of the color values of the block constituent pixels G constituting the block C is used as the representative value, but the representative pixel G of the block constituent pixels G, for example, the block The color value of the center pixel G may be applied as it is as the representative value of the block C.
また、第2,第3実施形態において、撮影手段10をテレビ会議システムの参加者を撮影するカメラとするとともに、他画像出力手段30を会議資料を撮影するカメラとし、表示手段20Bで主に会議資料を表示するとともに、その一部に参加者の顔を合成して表示させる構成としてもよい。
さらに、本発明の人物抽出装置を、テレビ電話に適用してもよい。
In the second and third embodiments, the photographing
Furthermore, the person extracting device of the present invention may be applied to a video phone.
また、上述した各機能をプログラムとして構築したが、例えば回路基板などのハードウェアあるいは1つのIC(Integrated Circuit)などの素子にて構成するなどしてもよく、いずれの形態としても利用できる。なお、プログラムや別途記録媒体から読み取らせる構成とすることにより、上述したように取扱が容易で、利用の拡大が容易に図れる。 Each function described above is constructed as a program. However, for example, it may be configured by hardware such as a circuit board or an element such as one integrated circuit (IC), and can be used in any form. Note that, by using a configuration that allows reading from a program or a separate recording medium, as described above, handling is easy, and usage can be easily expanded.
その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。 In addition, the specific structure and procedure for carrying out the present invention can be appropriately changed to other structures and the like within a range in which the object of the present invention can be achieved.
[実施形態の効果]
上述したように、上記実施形態では、人物抽出装置100Aにて、背景画像および混合画像をそれぞれ複数のブロック構成画素Gから構成される複数のブロックCに分割する。そして、各ブロック構成画素Gの表色値の代表値を演算して、この代表値をブロック中央画素Gに設定した代表値背景画像および代表値混合画像を生成する。この後、代表値背景画像および代表値混合画像をブロックCごとに比較し、代表値の差分が所定値以上の場合にブロック中央画素Gを人物画像ブロックとして「1」に設定し、所定値未満の場合に背景画像ブロックとして「0」に設定した背景差分二値化画像Phを生成する。そして、背景差分二値化画像Phにおける「1」のブロック中央画素Gを混合画像の色に設定し、「0」のブロック中央画素Gを所定の色に設定することにより、混合画像から人物を抽出したブロックフィルタ処理カラー画像Pf1を生成する。
このため、複数のブロック構成画素Gから構成されるブロックC単位で、背景画像および混合画像における表色値の代表値を比較するので、撮影手段10が風で揺れたりすることなどにより画素G(X,Y)単位で背景画像が変化してしまったとしても、この画素G(X,Y)単位での変化の影響を除去した状態で、効率的に混合画像から人物を抽出できる。
[Effect of the embodiment]
As described above, in the above embodiment, the background image and the mixed image are divided into a plurality of blocks C each composed of a plurality of block constituent pixels G in the
For this reason, the representative values of the color values in the background image and the mixed image are compared for each block C composed of a plurality of block constituting pixels G, so that the pixel G ( Even if the background image changes in units of X, Y), a person can be efficiently extracted from the mixed image in a state where the influence of the changes in units of pixels G (X, Y) is removed.
100A,100B,100C,100D,100E…人物抽出装置
120A,120B,120C,120D,120E…演算手段としての制御部
122A,122D…ブロック代表値画像生成手段
123A,123D,123E…背景差分二値化画像生成手段
125A,125C,125D…ブロックフィルタ処理画像生成手段としてのブロックフィルタ処理カラー画像生成手段
126…エッジ検出処理二値化画像生成手段
127A,127B,127C…出力画像生成手段としても機能する画像出力制御手段
C…ブロック
G…画素
Ph…背景差分二値化画像
Pf1,Pf2…ブロックフィルタ処理画像としてのブロックフィルタ処理カラー画像
Pr1,Pr2…出力画像
100A, 100B, 100C, 100D, 100E ...
Claims (8)
前記代表値背景画像および前記代表値混合画像をブロックごとに比較し、前記代表値の差が所定値以上の前記ブロックを人物画像ブロックとして第1の値に設定し、前記所定値未満の前記ブロックを背景画像ブロックとして第2の値に設定することにより、背景差分二値化画像を生成する背景差分二値化画像生成ステップと、
前記背景差分二値化画像の前記第1の値に設定された画素を前記混合画像の色に設定し、前記第2の値に設定された画素を所定の色に設定することにより、ブロックフィルタ処理画像を生成するブロックフィルタ処理画像生成ステップと、
を実施することを特徴とする人物抽出方法。 A background image in which a predetermined background is photographed is divided into blocks composed of a plurality of pixels, a representative value of values representing the color of each block in a predetermined color system is calculated, and the representative value of each block is configured. A representative value background image is generated, a mixed image in which the background of the background image and a person are photographed is divided into blocks composed of the plurality of pixels, the representative value of each block is calculated, and the representative value of each block A block representative value image generating step for generating a representative value mixed image composed of:
The representative value background image and the representative value mixed image are compared for each block, the block in which the difference between the representative values is equal to or greater than a predetermined value is set as a first image block, and the block is less than the predetermined value. A background difference binarized image generating step for generating a background difference binarized image by setting the second value as a background image block;
By setting the pixel set to the first value of the background difference binarized image to the color of the mixed image and setting the pixel set to the second value to a predetermined color, a block filter A block filter processed image generation step for generating a processed image;
The person extraction method characterized by implementing.
前記背景差分二値化画像における背景および人物のエッジを検出し、所定の画素がエッジまたは非エッジである旨を示すエッジ検出処理二値化画像を生成するエッジ検出処理二値化生成画像ステップと、
前記エッジ検出処理二値化画像のエッジと判定された画素を前記ブロックフィルタ処理画像の色に設定し、非エッジと判定された前記第1の値からなる画素を前記混合画像の色に設定し、非エッジと判定された前記第2の値からなる画素を所定の背景色に設定することにより、出力画像を生成する出力画像生成ステップと、
を実施することを特徴とする人物抽出方法。 The person extraction method according to claim 1,
An edge detection processing binarization generation image step for detecting a background and a human edge in the background difference binarization image and generating an edge detection processing binarization image indicating that the predetermined pixel is an edge or a non-edge; and ,
The pixel determined as the edge of the edge detection processing binarized image is set as the color of the block filter processing image, and the pixel consisting of the first value determined as a non-edge is set as the color of the mixed image. An output image generation step of generating an output image by setting a pixel consisting of the second value determined as a non-edge to a predetermined background color;
The person extraction method characterized by implementing.
前記背景差分二値化画像生成ステップでは、前記ブロックの前記代表値で表される色または前記ブロックにおける代表画素の色を検出し、その色に基づいて、前記ブロックを前記第1の値または前記第2の値に設定することにより前記背景差分二値化画像を生成する
ことを特徴とする人物抽出方法。 The person extraction method according to claim 1 or 2,
In the background difference binarized image generation step, a color represented by the representative value of the block or a color of a representative pixel in the block is detected, and the block is converted to the first value or the color based on the color. The background extraction binarized image is generated by setting to a second value.
前記ブロック代表値画像生成ステップおよび前記背景差分二値化画像生成ステップでは、前記ブロックのサイズが異なる複数の前記代表値背景画像、前記代表値混合画像、および、前記背景差分二値化画像を生成し、
前記ブロックフィルタ処理画像生成ステップでは、前記第1の値のブロックがあらかじめ設定された範囲内に位置するブロックサイズ、または、前記第1の値のブロックが前記範囲に最も近いブロックサイズの前記背景差分二値化画像を選択して、この背景差分二値化画像に基づく処理を実施する
ことを特徴とする人物抽出方法。 A person extraction method according to any one of claims 1 to 3,
In the block representative value image generation step and the background difference binarized image generation step, a plurality of the representative value background images, the representative value mixed images, and the background difference binarized images having different block sizes are generated. And
In the block filter processing image generation step, the background difference of a block size in which the block of the first value is located within a preset range or a block size of the block of the first value closest to the range A person extraction method characterized by selecting a binarized image and performing processing based on the background difference binarized image.
前記代表値背景画像および前記代表値混合画像をブロックごとに比較し、前記代表値の差が所定値以上の前記ブロックを人物画像ブロックとして第1の値に設定し、前記所定値未満の前記ブロックを背景画像ブロックとして第2の値に設定することにより、背景差分二値化画像を生成する背景差分二値化画像生成手段と、
前記背景差分二値化画像の前記第1の値に設定された画素を前記混合画像の色に設定し、前記第2の値に設定された画素を所定の色に設定することにより、ブロックフィルタ処理画像を生成するブロックフィルタ処理画像生成手段と、
を具備したことを特徴とした人物抽出装置。 A background image in which a predetermined background is photographed is divided into blocks composed of a plurality of pixels, a representative value of values representing the color of each block in a predetermined color system is calculated, and the representative value of each block A representative value background image is generated, a mixed image in which the background of the background image and a person are photographed is divided into blocks composed of the plurality of pixels, the representative value of each block is calculated, and the representative value of each block Block representative value image generating means for generating a representative value mixed image composed of:
The representative value background image and the representative value mixed image are compared for each block, the block in which the difference between the representative values is equal to or greater than a predetermined value is set as a first image block, and the block is less than the predetermined value. A background difference binarized image generating means for generating a background difference binarized image by setting the second value as a background image block;
By setting the pixel set to the first value of the background difference binarized image to the color of the mixed image and setting the pixel set to the second value to a predetermined color, a block filter A block filter processed image generating means for generating a processed image;
A person extracting device characterized by comprising:
前記背景差分二値化画像における背景および人物のエッジを検出し、所定の画素がエッジまたは非エッジである旨を示すエッジ検出処理二値化画像を生成するエッジ検出処理二値化生成画像手段と、
前記エッジ検出処理二値化画像のエッジと判定された画素を前記ブロックフィルタ処理画像の色に設定し、非エッジと判定された前記第1の値からなる画素を前記混合画像の色に設定し、非エッジと判定された前記第2の値からなる画素を所定の背景色に設定することにより、出力画像を生成する出力画像生成手段と、
を具備したことを特徴とした人物抽出装置。 The person extraction device according to claim 5,
Edge detection processing binarization generation image means for detecting a background and a human edge in the background difference binarized image and generating an edge detection processing binarized image indicating that the predetermined pixel is an edge or a non-edge; ,
The pixel determined as the edge of the edge detection processing binarized image is set as the color of the block filter processing image, and the pixel consisting of the first value determined as a non-edge is set as the color of the mixed image. Output image generation means for generating an output image by setting a pixel consisting of the second value determined as a non-edge to a predetermined background color;
A person extracting device characterized by comprising:
ことを特徴とした人物抽出プログラム。 A person extraction program that causes a computing means to execute the person extraction method according to claim 1.
ことを特徴とした人物抽出プログラムを記録した記録媒体。 8. A recording medium on which the person extraction program according to claim 7 is recorded so as to be readable by an arithmetic means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007087126A JP2008250366A (en) | 2007-03-29 | 2007-03-29 | Person extraction method, its device, its program, and recording medium with same program recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007087126A JP2008250366A (en) | 2007-03-29 | 2007-03-29 | Person extraction method, its device, its program, and recording medium with same program recorded |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008250366A true JP2008250366A (en) | 2008-10-16 |
Family
ID=39975293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007087126A Withdrawn JP2008250366A (en) | 2007-03-29 | 2007-03-29 | Person extraction method, its device, its program, and recording medium with same program recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008250366A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014016957A (en) * | 2012-07-11 | 2014-01-30 | Tokyo Univ Of Agriculture & Technology | Data processor |
WO2015098527A1 (en) * | 2013-12-27 | 2015-07-02 | 株式会社メガチップス | Detection device, method for detecting object to be detected, and control program |
JP2016167741A (en) * | 2015-03-10 | 2016-09-15 | アイホン株式会社 | Intercom system with reduced video transmission quantity |
-
2007
- 2007-03-29 JP JP2007087126A patent/JP2008250366A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014016957A (en) * | 2012-07-11 | 2014-01-30 | Tokyo Univ Of Agriculture & Technology | Data processor |
WO2015098527A1 (en) * | 2013-12-27 | 2015-07-02 | 株式会社メガチップス | Detection device, method for detecting object to be detected, and control program |
JP2015125696A (en) * | 2013-12-27 | 2015-07-06 | 株式会社メガチップス | Detector, method for detecting detection object, and control program |
JP2016167741A (en) * | 2015-03-10 | 2016-09-15 | アイホン株式会社 | Intercom system with reduced video transmission quantity |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111263208B (en) | Picture synthesis method and device, electronic equipment and storage medium | |
EP2193656B1 (en) | Multi-exposure pattern for enhancing dynamic range of images | |
KR100986228B1 (en) | Camera apparatus and image recording/reproducing method | |
KR100667444B1 (en) | Improved dynamic range video camera, recording system, and recording method | |
JP6317577B2 (en) | Video signal processing apparatus and control method thereof | |
KR20090088325A (en) | Image processing apparatus, image processing method and imaging apparatus | |
KR101778744B1 (en) | Monitoring system through synthesis of multiple camera inputs | |
JP2007043386A (en) | Electronic imaging device, control method of electronic imaging device, and image processor | |
US9445085B2 (en) | Imaging apparatus, method for controlling imaging apparatus, and system therefor | |
JP2007288354A (en) | Camera device, image processing apparatus, and image processing method | |
JP2006033380A (en) | Monitoring system | |
JP2007228099A (en) | Imaging apparatus | |
JP6351212B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
JP2008250366A (en) | Person extraction method, its device, its program, and recording medium with same program recorded | |
KR20190122692A (en) | Image processing apparatus and image processing method | |
JP6702792B2 (en) | Image processing apparatus and control method thereof | |
JP4999559B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6351213B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
JP6594485B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM | |
JP5095294B2 (en) | Imaging apparatus and imaging method | |
KR101204093B1 (en) | Image processing apparatus and controlling method of the same | |
JPH1079881A (en) | Image pickup device | |
JP2009267555A (en) | Imaging apparatus, and imaging method | |
KR100817953B1 (en) | Advertisement apparatus displaying image according to the photographed image object and the method thereof | |
WO2005099248A3 (en) | Method and camera for simulating the optical effect of a lenticular grid hardcopy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100601 |