JP2017167727A - Processing device of moving image, processing method, and program - Google Patents
Processing device of moving image, processing method, and program Download PDFInfo
- Publication number
- JP2017167727A JP2017167727A JP2016051049A JP2016051049A JP2017167727A JP 2017167727 A JP2017167727 A JP 2017167727A JP 2016051049 A JP2016051049 A JP 2016051049A JP 2016051049 A JP2016051049 A JP 2016051049A JP 2017167727 A JP2017167727 A JP 2017167727A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- area
- region
- face
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動画通信を行う際の動画の処理技術に関する。 The present invention relates to a moving image processing technique when performing moving image communication.
動画通信は、例えば、テレビ会議システム等で使用される。また、インターネットの普及により、例えば、自宅からテレビ会議に参加することも容易に行える様になっている。しかしながら、動画通信においては、通信を行っている人のみならず、その背景、例えば、自宅でテレビ会議システムに参加している様な場合、その部屋の様子も相手側に伝わってしまう。 Video communication is used in, for example, a video conference system. Also, with the spread of the Internet, for example, it is possible to easily participate in a video conference from home. However, in video communication, not only the person who is communicating, but also the background, for example, when participating in a video conference system at home, the state of the room is also transmitted to the other party.
このため、撮影した動画から、例えば、上半身といった、顔を含む人体の一部のみを抽出し、それ以外の領域については、他の画像と置換したりぼかしたりして送信することが求められる。背景画像が変化しない場合、予め用意した背景画像に基づき人物領域を抽出することが可能である。しかしながら、光の当たり具合等で背景画像も通常変化し、この場合には背景画像そのものも動的に更新する必要がある。ここで、検出したい人物が頻繁に移動する場合には、移動する人物を検出することで背景画像を動的に更新できるが、検出したい人物の移動が僅かであると、人物自体が背景として検出されるため、人物領域の検出精度が劣化する。 For this reason, it is required to extract only a part of the human body including the face such as the upper body from the captured moving image, and to transmit other regions by replacing or blurring with other images. When the background image does not change, it is possible to extract a person region based on a background image prepared in advance. However, the background image usually changes depending on the degree of light hitting, and in this case, the background image itself needs to be dynamically updated. Here, if the person to be detected moves frequently, the background image can be dynamically updated by detecting the person to be moved, but if the person to be detected moves slightly, the person itself is detected as the background. Therefore, the detection accuracy of the person area is deteriorated.
一方、非特許文献1は、パターンマッチングにより人物の顔を含む領域を検出することを開示している。例えば、非特許文献1に記載の構成により検出した顔を含む領域からグラフカット法により人物領域を抽出することが考えられる。
On the other hand, Non-Patent
しかしながら、パターンマッチングによる検出は、人物がカメラの方向を向いている場合には精度良く行うことができるが、人物がカメラに対して横方向や、下方向等を向いた場合には精度良く行うことができない。 However, detection by pattern matching can be performed accurately when the person is facing the camera, but is performed accurately when the person faces the camera in the horizontal direction, the downward direction, or the like. I can't.
本発明は、顔を含む人物領域を精度良く抽出可能な動画の処理装置、処理方法及びプログラムを提供するものである。 The present invention provides a moving image processing apparatus, processing method, and program capable of accurately extracting a human region including a face.
本発明の一側面によると、動画の処理装置は、第1フレームにおいて人物の顔を含む所定形状の第1領域を決定する決定手段と、前記第1フレームの前記第1領域に基づき、前記第1フレームから前記人物の前記顔を含む所定の人物領域を抽出する抽出手段と、を備え、前記決定手段は、前記第1フレームの複数の第1画素それぞれに対応する、前記第1フレームより時間的に前の第2フレームの第2画素を判定し、前記第2画素それぞれから対応する前記第1画素に向かう複数のベクトルの方向に基づき、前記第1フレームの前記第1領域を、パターンマッチングにより決定するか前記第2フレームの前記第1領域に基づき決定するかを判定することを特徴とする。 According to one aspect of the present invention, the moving image processing device is configured to determine a first area having a predetermined shape including a human face in the first frame, and based on the first area of the first frame, the first area. Extracting means for extracting a predetermined person region including the face of the person from one frame, wherein the determining means is a time longer than the first frame corresponding to each of the plurality of first pixels of the first frame. In particular, the second pixel of the previous second frame is determined, and the first region of the first frame is pattern-matched based on the direction of a plurality of vectors from each of the second pixels toward the corresponding first pixel. It is determined whether to determine based on the first region of the second frame.
本発明によると、顔を含む人物領域を精度良く抽出することができる。 According to the present invention, it is possible to accurately extract a person region including a face.
以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. In addition, the following embodiment is an illustration and does not limit this invention to the content of embodiment. In the following drawings, components that are not necessary for the description of the embodiments are omitted from the drawings.
図1は、本実施形態による処理装置の構成図である。撮影部10は、人物を含む動画を撮影して動画データを矩形領域決定部20に出力する。矩形領域決定部20は、動画データが示す動画の各フレームについて、人物の顔を含む矩形領域を決定する。処理部30は、矩形領域決定部20が決定したフレーム内の矩形領域に基づき、当該フレームの人物領域を決定する。なお、以下の説明においては、人物の上半身部分の領域を決定するものとする。合成部40は、処理部30が決定した人物領域をフレームから抽出し、予め用意した他の画像と合成する。なお、予め用意した他の画像と合成するのではなく、処理部30が決定した人物領域以外の部分を削除したり、ぼかしたりする構成であっても良い。
FIG. 1 is a configuration diagram of a processing apparatus according to the present embodiment. The photographing
図2は、本実施形態による処理装置における処理のフローチャートである。矩形領域決定部20は、S10で、処理対象フレームにおいて顔を含む矩形領域を決定する。なお、S10での処理の詳細については後述する。処理部30は、S11で、矩形領域決定部20が決定した矩形領域を縮小して、コア領域を決定する。図4は、S11におけるコア領域決定処理の説明図である。図4において、矩形領域2は、矩形領域決定部20が決定した人物1の顔領域4を含む矩形領域である。図2に示す様に、矩形領域決定部20が決定する矩形領域2は、通常、顔以外の背景部分を含んでいる。矩形領域に含まれる背景部分が大きいと、グラフカット法による顔領域4の抽出精度が劣化する。したがって、本実施形態では、含まれる背景部分が少なくなる様に、コア領域3を決定する。
FIG. 2 is a flowchart of processing in the processing apparatus according to the present embodiment. In S10, the rectangular
図4に示す様に、本実施形態において、コア領域3の中心は、矩形領域決定部20が決定した矩形領域2の中心と同じとし、コア領域3の高さ及び幅は、それぞれ、矩形領域2の高さ及び幅に所定の係数δ(0<δ≦1)を乗じた値とする。なお、高さとは垂直方向の長さ(Y軸方向)であり、幅とは水平方向(X軸方向)の長さとする。本実施形態において、係数δの値は、予め、実験的に求めておくものとする。しかしながら、コア領域3の高さ及び幅が小さくなり過ぎても、グラフカット法による顔領域4の抽出精度が劣化するため、コア領域3の高さ及び幅の最小値を決めておき、係数δにより得られた高さ及び幅が最小値より小さくなる場合には、コア領域3の高さ及び幅を予め決めておいた最小値にする構成であっても良い。なお、コア領域3を求めるのではなく、矩形領域2に基づきグラフカット法により顔領域4を抽出する構成であっても良い。その場合には、図2のS11は省略される。
As shown in FIG. 4, in the present embodiment, the center of the
図2に戻り、S12において、処理部30は、コア領域3に基づきグラフカット法により顔領域4を抽出する。処理部30は、図5に示す様な、人物の上半身のテンプレート6を示すテンプレート情報を保持している。テンプレート6は、人物の上半身領域を示す雛形である。処理部30は、テンプレート6の顔部分の大きさが、抽出した顔領域4の大きさに近づく様に、テンプレート6の大きさを調整し、調整後のテンプレート6に基づきフレーム内における人物の顔領域4を除く上半身部分を特定する。そして、処理部30は、調整後のテンプレート6に基づき判定した顔領域4を除く上半身部分と、抽出した顔領域4と、を含む部分を、人物1の上半身に対応する人物領域として特定する。既に説明した様に、合成部40は、処理部30がこの様にして特定したフレーム内の人物領域を抽出し、他の画像と合成する。
Returning to FIG. 2, in S <b> 12, the
続いて、図2のS10における矩形領域決定処理について説明する。図3は、図2のS10における矩形領域決定処理の詳細を示すフローチャートである。なお、最初のフレームについてはパターンマッチングにより矩形領域2を検出する。つまり、図3の処理は、2番目以降のフレームに対する処理である。まず、S20において、矩形領域決定部20は、処理対象フレームと、1つ前のフレーム(以下、直前フレームと呼ぶ。)それぞれについて複数の特徴点を抽出し、さらに、直前フレームと処理対象フレームの各特徴点の対応関係を判定する。特徴点の対応関係は、特徴点間の距離が画素値等に基づき判定することができる。そして、直前フレームの特徴点から、処理対象フレームの対応する特徴点に向かうベクトルを、各特徴点について判定する。図6(A)の矢印は、この特徴点のベクトルを示している。なお、人物以外の領域(背景部分)の変化は、通常、小さいため、非零のべクトルの多くは、人物領域に対応する。したがって、各ベクトルは、直前フレームから処理対象フレームにかけての人物領域の動きを主に示している。
Next, the rectangular area determination process in S10 of FIG. 2 will be described. FIG. 3 is a flowchart showing details of the rectangular area determination processing in S10 of FIG. For the first frame, the
矩形領域決定部20は、S21において、図6(B)に示す様に、各ベクトルのX軸方向(水平方向)に対する角度θを判定し、総てのべクトルの角度θの分散Tを求めこれを動きの評価値とする。なお、角度の基準方向は、X軸方向に限定されず、所定方向とすることができる。なお、その絶対値が0であるベクトルについては評価値の算出に使用しない構成とすることができる。さらには、その絶対値が0ではないが、例えば、1画素間の距離程度の非常に小さいベクトルについても評価値の算出に使用しない構成とすることができる。矩形領域決定部20は、S22において、評価値Tと閾値を比較する。評価値Tが閾値以上であると、矩形領域決定部20は、S23においてパターンマッチングにより矩形領域2を検出する。一方、評価値Tが閾値未満であると、矩形領域決定部20は、S24において直前フレームの矩形領域2に基づき、処理対象フレームの矩形領域2を決定する。
In S21, as shown in FIG. 6B, the rectangular
以下、S24において、直前フレームの矩形領域2に基づき、処理対象フレームの矩形領域2をどの様に決定するかについて図7を用いて説明する。基本的な考え方は、S21で求めたベクトルの内、直前フレームの矩形領域内を始点とするベクトル(以下、判定ベクトルと呼ぶ。)に基づき、矩形領域2の位置及びサイズを調整して処理対象フレームの矩形領域2とする。なお、位置及びサイズの調整量は、判定ベクトルの方向と、その絶対値に基づき決定する。本実施形態においては、人物1の顔領域4の移動状態を図7に示す5つの状態に分類する。そして、矩形領域決定部20は、直前フレームから処理対象フレームまでの顔領域4の移動状態が、図7に示す5つの状態の何れであるかを判定ベクトルに基づき判定する。
Hereinafter, how to determine the
まず、静止状態とは、人物1の顔領域4が殆ど移動していない状態である。したがって、総ての判定ベクトルの絶対値が小さい場合に静止状態と判定する。具体的には、判定ベクトルの総ての絶対値が有る小さな値以下である場合に静止状態であると判定する。静止状態の場合、矩形領域決定部20は、直前フレームの矩形領域2の位置、高さ及び幅を変更せずに、そのまま処理対象フレームの矩形領域2とする。
First, the stationary state is a state in which the
スライド状態とは、人物1の顔領域4の方向が同じまま、何れかの方向にスライドしている状態に対応する。したがって、各判定ベクトルが略同じ方向を向いており、その絶対値の差が小さい場合にスライド状態と判定する。具体的には、例えば、各判定ベクトルの方向を、水平及び垂直方向を含み、45度間隔で設けた8方向のいずれかで近似する。そして、各判定ベクトルの所定割合以上が同じ方向であると、各判定ベクトルが略同じ方向を向いていると判定することができる。また、各判定ベクトルの絶対値の分散が所定値以下であると、絶対値の差が小さいと判定することができる。スライド状態の場合、矩形領域決定部20は、直前フレームの矩形領域2の高さ及び幅については変更せずに、その位置をスライドさせる。なお、スライドさせる方向は、例えば、判定ベクトルの方向を平均化した方向であり、スライドさせる量は、判定ベクトルの絶対値の平均値とすることができる。
The sliding state corresponds to a state in which the
ヘッドピッチング状態とは、人物1が、下を向く、或いは、上を向く動作をした状態、つまり、人物が上下方向に首を振った状態に対応する。したがって、各判定ベクトルが略垂直方向に向いているが、その絶対値が垂直方向位置により異なる場合、ヘッドピッチング状態と判定する。或いは、各判定ベクトルが略垂直方向に向いているが、垂直方向の上側と下側ではその向きが互いに逆である場合、ヘッドピッチング状態と判定する。具体的には、スライド状態の判定と同様に、各判定ベクトルの方向を近似し、所定割合以上のベクトルが垂直方向であると、各判定ベクトルが略垂直方向に向いていると判定することができる。また、各判定ベクトルを垂直方向の所定幅単位でグループ化し、グループ内の判定ベクトルの絶対値の平均を求める。そして、グループ内の判定ベクトルの絶対値の分散が所定値以下であり、かつ、グループ間の平均の差が所定値より大きいと、判定ベクトルの絶対値が垂直方向位置により異なると判定することができる。ヘッドピッチング状態の場合、矩形領域決定部20は、直前フレームの矩形領域2の幅及び位置は変更せず、高さのみを変更する。これは、人物が上又は下を向くことで、フレームにおける顔領域4の高さが変化するからである。なお、高さの変更量は、判定ベクトルに基づき求めるが、その算出方法は、予め実験的に求めておく。なお、位置については、下を向いたか上を向いたかに応じて垂直方向に移動させる構成であっても良い。この場合、移動量は、判定ベクトルの絶対値に基づき求める。
The head pitching state corresponds to a state in which the
ヘッド回転状態とは、人物1が、左又は右を向く動作をした状態、つまり、人物が左右に首を振った状態に対応する。したがって、各判定ベクトルが略水平方向に向いているが、その絶対値が水平方向位置により異なる場合、ヘッド回転状態と判定する。また、矩形領域の左側と右側でその向きが異なる場合もヘッド回転状態と判定することができる。なお、判定方法はヘッドピッチング状態と同様である。ヘッド回転状態の場合、矩形領域決定部20は、直前フレームの矩形領域2の高さ及び位置は変更せず幅のみを変更する。これは、人物が右又は左を向くことで、フレームにおける顔領域4の幅が変化するからである。なお、位置については、右を向いたか左を向いたかに応じて水平方向に移動させる構成であっても良い。なお、幅の変更量や、水平方向の移動量は、判定ベクトルに基づき求めるが、その算出方法は、予め実験的に求めておく。
The head rotation state corresponds to a state in which the
その他状態とは、上記いずれの状態であるかを判定できない場合に対応する。この場合、矩形領域決定部20は、直前フレームの矩形領域2の位置、高さ及び幅を変更する。なお、位置については判定ベクトルの平均ベクトルだけスライドさせる。高さ及び幅の変更量は、判定ベクトルに基づき判定する。なお、判定ベクトルから高さ及び幅の変更量を算出する方法は、予め実験的に求めておく。
The other state corresponds to a case where it cannot be determined which of the above states. In this case, the rectangular
以上、本実施形態において、処理装置は、処理対象フレームの直前フレームからの動きを評価する。例えば、動きの評価は、処理対象フレームと直前フレームの対応する画素の移動方向のバラツキが大きいか否かを判定することにより行う。本実施形態では、対応する画素を特徴点により判定し、移動方向のバラツキが大きいか否かについては、移動方向を角度で表し、この角度の分散が閾値より大きいか否かにより判定する。角度の分散が閾値未満である場合、動きは単純であり、よって、直前フレームにおいて判定した顔領域を含む矩形領域を、評価した動きに基づき移動させ、或いは、その大きさを変化させることで処理対象フレームにおける矩形領域を判定することができる。例えば、ヘッドピッチングやヘッド回転は、単純な動きであり、よって、人物がカメラに顔を向けた状態から、顔を横に向けたり、下に向けたりしても、顔を含む矩形領域を精度良く判定できる。一方、角度の分散が閾値以上であると、再度、パターンマッチングにより顔を含む矩形領域を検出する。この構成により、人物の顔を含む矩形領域を精度良く検出でき、よって、人物領域を精度良く抽出することができる。 As described above, in the present embodiment, the processing apparatus evaluates the movement of the processing target frame from the immediately preceding frame. For example, the motion evaluation is performed by determining whether or not there is a large variation in the moving direction of the corresponding pixel between the processing target frame and the immediately preceding frame. In the present embodiment, the corresponding pixel is determined by the feature point, and whether or not the variation in the movement direction is large is represented by an angle in the movement direction, and whether or not the variance of the angle is larger than a threshold value. If the variance of the angle is less than the threshold, the motion is simple. Therefore, the rectangular region including the face region determined in the immediately preceding frame is moved based on the evaluated motion, or the size is changed. A rectangular area in the target frame can be determined. For example, head pitching and head rotation are simple movements. Therefore, even if a person turns his face to the camera, even if he faces his face sideways or down, the rectangular area including the face is accurate. Can judge well. On the other hand, if the angle variance is equal to or greater than the threshold, a rectangular region including the face is detected again by pattern matching. With this configuration, a rectangular area including a person's face can be detected with high accuracy, and thus the human area can be extracted with high accuracy.
なお、上記実施形態では、顔を含む領域として矩形領域を使用したが、矩形領域以外の所定形状の領域を検出する構成であっても良い。また、本実施形態において抽出する人物領域を上半身としたが、テンプレートを変更することで顔を含む任意の領域を抽出することができる。また、本実施形態では、矩形領域決定部20は、直前フレームと処理対象フレームとの比較により、図3の処理を行っていた。しかしながら、処理対象フレームより2つ前のフレームや、3つ前のフレーム等、処理対象フレームより時間的に前のフレームに基づき図3の処理を行うこともできる。さらに、本実施形態では、顔領域4の移動状態を図7に示す5つに分類したが、分類方法は、図7に示すものに限定されない。また、顔領域4の移動状態の判定基準についても、上述したものに限定されず、他の判定基準を使用することができる。
In the above embodiment, a rectangular area is used as an area including a face. However, an area having a predetermined shape other than the rectangular area may be detected. Moreover, although the person area to be extracted is the upper body in the present embodiment, any area including a face can be extracted by changing the template. In the present embodiment, the rectangular
なお、本発明による処理装置は、コンピュータを上記処理装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。 The processing apparatus according to the present invention can be realized by a program that causes a computer to operate as the processing apparatus. These computer programs can be stored in a computer-readable storage medium or distributed via a network.
20:矩形領域決定部、30:処理部 20: Rectangular area determination unit, 30: Processing unit
Claims (12)
第1フレームにおいて人物の顔を含む所定形状の第1領域を決定する決定手段と、
前記第1フレームの前記第1領域に基づき、前記第1フレームから前記人物の前記顔を含む所定の人物領域を抽出する抽出手段と、
を備え、
前記決定手段は、前記第1フレームの複数の第1画素それぞれに対応する、前記第1フレームより時間的に前の第2フレームの第2画素を判定し、前記第2画素それぞれから対応する前記第1画素に向かう複数のベクトルの方向に基づき、前記第1フレームの前記第1領域を、パターンマッチングにより決定するか前記第2フレームの前記第1領域に基づき決定するかを判定することを特徴とする処理装置。 A video processing device,
Determining means for determining a first region having a predetermined shape including a human face in the first frame;
Extracting means for extracting a predetermined person area including the face of the person from the first frame based on the first area of the first frame;
With
The determining means determines a second pixel of a second frame temporally prior to the first frame corresponding to each of the plurality of first pixels of the first frame, and corresponds to each of the second pixels. Whether to determine the first area of the first frame by pattern matching or based on the first area of the second frame is determined based on directions of a plurality of vectors toward the first pixel. A processing device.
第1フレームにおいて人物の顔を含む所定形状の第1領域を決定する決定ステップと、
前記第1フレームの前記第1領域に基づき、前記第1フレームから前記人物の前記顔を含む所定の人物領域を抽出する抽出ステップと、
を含み、
前記決定ステップは、前記第1フレームの複数の第1画素それぞれに対応する、前記第1フレームより時間的に前の第2フレームの第2画素を判定するステップと、前記第2画素それぞれから対応する前記第1画素に向かう複数のベクトルの方向に基づき、前記第1フレームの前記第1領域を、パターンマッチングにより決定するか前記第2フレームの前記第1領域に基づき決定するかを判定するステップと、を含むことを特徴とする処理方法。 A method of processing a moving image in a processing device,
A determining step of determining a first region having a predetermined shape including a human face in the first frame;
An extraction step of extracting a predetermined person area including the face of the person from the first frame based on the first area of the first frame;
Including
The determining step corresponds to a step of determining a second pixel of a second frame temporally prior to the first frame corresponding to each of a plurality of first pixels of the first frame, and a step corresponding to each of the second pixels. Determining whether the first region of the first frame is determined by pattern matching or based on the first region of the second frame, based on directions of a plurality of vectors toward the first pixel. The processing method characterized by including these.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051049A JP6606447B2 (en) | 2016-03-15 | 2016-03-15 | Moving image processing apparatus, processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051049A JP6606447B2 (en) | 2016-03-15 | 2016-03-15 | Moving image processing apparatus, processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167727A true JP2017167727A (en) | 2017-09-21 |
JP6606447B2 JP6606447B2 (en) | 2019-11-13 |
Family
ID=59909095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016051049A Expired - Fee Related JP6606447B2 (en) | 2016-03-15 | 2016-03-15 | Moving image processing apparatus, processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6606447B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06292203A (en) * | 1993-04-02 | 1994-10-18 | Mitsubishi Electric Corp | Motion picture analyzer |
JPH10112864A (en) * | 1996-10-04 | 1998-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for camera work |
JP2005018451A (en) * | 2003-06-26 | 2005-01-20 | Seiko Epson Corp | Animation reproduction system, program and method |
JP2007272735A (en) * | 2006-03-31 | 2007-10-18 | Sony Corp | Image processor and image processing method, program, and recording medium |
JP2008071172A (en) * | 2006-09-14 | 2008-03-27 | Toshiba Corp | Face authentication system, face authentication method, and access control device |
JP2009075926A (en) * | 2007-09-21 | 2009-04-09 | Mitsubishi Electric Corp | Moving image face detection device and method |
JP2011212043A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Medical image playback device and method, as well as program |
JP2014048936A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
-
2016
- 2016-03-15 JP JP2016051049A patent/JP6606447B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06292203A (en) * | 1993-04-02 | 1994-10-18 | Mitsubishi Electric Corp | Motion picture analyzer |
JPH10112864A (en) * | 1996-10-04 | 1998-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for camera work |
JP2005018451A (en) * | 2003-06-26 | 2005-01-20 | Seiko Epson Corp | Animation reproduction system, program and method |
JP2007272735A (en) * | 2006-03-31 | 2007-10-18 | Sony Corp | Image processor and image processing method, program, and recording medium |
JP2008071172A (en) * | 2006-09-14 | 2008-03-27 | Toshiba Corp | Face authentication system, face authentication method, and access control device |
JP2009075926A (en) * | 2007-09-21 | 2009-04-09 | Mitsubishi Electric Corp | Moving image face detection device and method |
JP2011212043A (en) * | 2010-03-31 | 2011-10-27 | Fujifilm Corp | Medical image playback device and method, as well as program |
JP2014048936A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
Non-Patent Citations (1)
Title |
---|
江尻 正員, ディジタル画像処理 [改訂新版] 第一版 DIGITAL IMAGE PROCESSING, vol. 第1版, JPN6019011898, 9 March 2015 (2015-03-09), pages 212 - 215, ISSN: 0004013230 * |
Also Published As
Publication number | Publication date |
---|---|
JP6606447B2 (en) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654512B (en) | A kind of method for tracking target and device | |
US9179071B2 (en) | Electronic device and image selection method thereof | |
US10748294B2 (en) | Method, system, and computer-readable recording medium for image object tracking | |
WO2020253618A1 (en) | Video jitter detection method and device | |
US20150103184A1 (en) | Method and system for visual tracking of a subject for automatic metering using a mobile device | |
JP4645223B2 (en) | Face tracking program and face tracking method | |
US9734612B2 (en) | Region detection device, region detection method, image processing apparatus, image processing method, program, and recording medium | |
KR20180060977A (en) | Image-processing device and method for foreground mask correction for object segmentation | |
US8903130B1 (en) | Virtual camera operator | |
KR20180084085A (en) | METHOD, APPARATUS AND ELECTRONIC DEVICE | |
KR20170128498A (en) | Edit background in video conferences | |
US9104909B2 (en) | Image processing apparatus and method of processing image | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
US9202128B2 (en) | Image adjusting apparatus and method, and image stabilizing apparatus including the same | |
US10764563B2 (en) | 3D enhanced image correction | |
KR20110023472A (en) | Apparatus and method for tracking object based on ptz camera using coordinate map | |
US20160093028A1 (en) | Image processing method, image processing apparatus and electronic device | |
US20180260646A1 (en) | Image processing device, image processing method, and computer program product | |
US9712744B2 (en) | Image quality compensation system and method | |
WO2016031573A1 (en) | Image-processing device, image-processing method, program, and recording medium | |
US20130176449A1 (en) | Characterizing point checking region setting apparatus and method, and image stabilizing apparatus including the same | |
Kim et al. | Spatio-temporal weighting in local patches for direct estimation of camera motion in video stabilization | |
US10762659B2 (en) | Real time multi-object tracking apparatus and method using global motion | |
JP2019040306A (en) | Information processing device, information processing program, and information processing method | |
JP2012129709A (en) | Information processor, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6606447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |