JP2015050538A - Camera video processing method, apparatus and program - Google Patents

Camera video processing method, apparatus and program Download PDF

Info

Publication number
JP2015050538A
JP2015050538A JP2013179517A JP2013179517A JP2015050538A JP 2015050538 A JP2015050538 A JP 2015050538A JP 2013179517 A JP2013179517 A JP 2013179517A JP 2013179517 A JP2013179517 A JP 2013179517A JP 2015050538 A JP2015050538 A JP 2015050538A
Authority
JP
Japan
Prior art keywords
skeleton model
camera image
camera
image processing
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013179517A
Other languages
Japanese (ja)
Other versions
JP6180244B2 (en
Inventor
浩嗣 三功
Hiroshi Sanko
浩嗣 三功
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013179517A priority Critical patent/JP6180244B2/en
Publication of JP2015050538A publication Critical patent/JP2015050538A/en
Application granted granted Critical
Publication of JP6180244B2 publication Critical patent/JP6180244B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a camera video processing apparatus that is able to selectively perform video processing only to a background area of an object from a camera video even in a case where the video of the background is not fixed.SOLUTION: An object tracking section 13 tracks an object by performing an image matching process using a template for a camera video. A fitting operation detecting section 15 detects a manual operation for fitting a shape of a skeleton model into a shape of the object. A skeleton model outputting section 16 outputs a skeleton model fitted into the object by being matched with the object. On the basis of the tracking result of the object, a video processing section 17 positions the skeleton model with respect to the camera video. Background processing such as non-gradation processing or mosaic processing is performed for a background area other than an area coinciding with the skeleton model of the camera video. Thereby, the silhouette image of a person rendered invisible other than the object is generated and output.

Description

本発明は、カメラ映像を処理する方法、装置およびプログラムに係り、特に、オブジェクトの背景を選択的に映像処理して不可視化するカメラ映像処理方法、装置およびプログラムに関する。   The present invention relates to a method, an apparatus, and a program for processing a camera image, and more particularly, to a camera image processing method, an apparatus, and a program for selectively making an image of an object background invisible.

テレビ会議やビデオチャット(インターネット経由で互いの映像を映しながら行う会話)のような映像コミュニケーション、あるいは取材場所を秘匿したい場合の現場取材などでは、当事者(オブジェクト)のみをカメラ映像として出力し、背景部分はプライバシーやセキュリティの観点から塗り潰し処理やモザイク処理を施して不可視化したいといった要望がある。   In video communication such as video conferencing and video chat (conversations conducted while displaying each other's images via the Internet), or on-site coverage when the location of the interview is to be kept secret, only the parties (objects) are output as camera images. There is a desire to make the part invisible by applying a filling process or a mosaic process from the viewpoint of privacy and security.

特許文献1には、オブジェクト抽出の代表的な方法として、カメラが固定されていることを前提に、オブジェクトを含まない背景画像を予め取得しておき、撮影映像と背景画像との差分をオブジェクト領域として抽出し、それ以外の領域を背景部分として映像処置する技術が開示されている。   In Patent Document 1, as a typical method of object extraction, a background image that does not include an object is acquired in advance on the assumption that the camera is fixed, and the difference between the captured video and the background image is obtained as an object region. Is extracted, and the image processing is performed using the other region as the background portion.

特願2012-214194号Japanese Patent Application No. 2012-214194

特許文献1で提案されている手法は、背景画像が固定的すなわちカメラが固定されていることを前提としているため、カメラを動かした場合は背景画像を再度取得する必要があり、円滑なコミュニケーションを阻害するという問題があった。特に、カメラがハンディタイプのように常に動く場合には適用できなかった。   Since the method proposed in Patent Document 1 is based on the premise that the background image is fixed, that is, the camera is fixed, it is necessary to acquire the background image again when the camera is moved, and smooth communication is performed. There was a problem of inhibiting. In particular, it could not be applied when the camera always moves like a handy type.

一方、スマートデバイスカメラ等に搭載されている顔検出機能では、大まかな顔の領域は特定できるものの、顔や体(オブジェクト)の輪郭を認識することができないので、オブジェクトに映像欠けを生じさせることなく背景領域のみを正確に認識して画像処理することができなかった。   On the other hand, the face detection function installed in smart device cameras, etc. can identify rough face areas, but cannot recognize the outline of the face or body (object), thus causing image loss in the object. In addition, it was not possible to accurately recognize only the background area and perform image processing.

本発明の目的は、上記の技術課題を解決し、背景の映像が固定的ではない場合も、カメラ映像からオブジェクトの背景領域のみに映像処理を行えるカメラ映像処理方法、装置およびプログラムを提供することにある。   An object of the present invention is to solve the above technical problem and provide a camera video processing method, apparatus, and program capable of performing video processing only from the camera video to the object background area even when the background video is not fixed. It is in.

上記の目的を達成するために、本発明のカメラ映像処理装置は、以下の構成を具備した点に特徴がある。   In order to achieve the above object, a camera image processing apparatus according to the present invention is characterized by having the following configuration.

(1)カメラ映像内でオブジェクトを追跡するオブジェクト追跡手段と、オブジェクトの輪郭を模したスケルトンモデルを出力するスケルトンモデル出力手段と、オブジェクトの追跡位置にスケルトンモデルを位置決めしてオブジェクトのシルエット映像を出力する映像処理手段と、前記スケルトンモデルに対するフィッティング操作を検知して当該スケルトンモデルの形状に反映させるフィッティング操作検知手段とを具備した。   (1) Object tracking means for tracking an object in the camera image, skeleton model output means for outputting a skeleton model imitating the outline of the object, and positioning the skeleton model at the object tracking position and outputting an object silhouette image And an image processing means for detecting the fitting operation on the skeleton model and reflecting the result on the shape of the skeleton model.

(2)スケルトンモデルが、その輪郭部分にαブレンド領域を備え、映像処理手段は、前記αブレンド領域と重なる領域のカメラ映像を半可視化するようにした。   (2) The skeleton model is provided with an α blend area in the outline portion, and the image processing means semi-visualizes the camera image in an area overlapping the α blend area.

本発明によれば、以下のような効果が達成される。
(1)スケルトンモデルの形状をオブジェクトの輪郭にフィッティングさせることができるので、オブジェクトの形状に個体差がある場合でも、オブジェクトの背景のみを正確に不可視化したオブジェクトシルエット映像を提供できるようになる。
According to the present invention, the following effects are achieved.
(1) Since the shape of the skeleton model can be fitted to the contour of the object, even if there is an individual difference in the shape of the object, it is possible to provide an object silhouette video in which only the background of the object is accurately invisible.

(2)オブジェクトの追跡結果に合わせてスケルトンモデルの表示位置が移動し、オブジェクトとスケルトンモデルとの相対的な位置関係が常に維持されるので、カメラ映像内でオブジェクトや背景が移動しても、オブジェクトの背景のみを正確に不可視化したオブジェクトシルエット映像を提供できるようになる。   (2) The display position of the skeleton model moves according to the tracking result of the object, and the relative positional relationship between the object and the skeleton model is always maintained, so even if the object or background moves in the camera image, It is possible to provide an object silhouette image in which only the background of the object is accurately invisible.

(3)スケルトンモデルの輪郭近傍がαブレンド領域とされ、オブジェクトの輪郭部分はαブレンド画像とできるので、オブジェクトの形状を損なうことなく背景を確実に不可視化できるようになる。   (3) Since the vicinity of the contour of the skeleton model is an α blend region and the contour portion of the object can be an α blend image, the background can be reliably invisible without impairing the shape of the object.

本発明の一実施形態に係るカメラ映像処理装置の機能ブロック図である。It is a functional block diagram of the camera video processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態の動作を示したフローチャートである。It is the flowchart which showed operation | movement of one Embodiment of this invention. カメラ映像の一例を示した図である。It is the figure which showed an example of the camera image | video. カメラ映像を対象とした顔認識結果の一例を示した図である。It is the figure which showed an example of the face recognition result which made the camera image | video object. テンプレートの一例を示した図である。It is the figure which showed an example of the template. スケルトンモデルの一例を示した図である。It is the figure which showed an example of the skeleton model. 人物シルエット映像(フィッティング前)の一例を示した図である。It is a figure showing an example of a person silhouette picture (before fitting). 人物シルエット映像(フィッティング後)の一例を示した図である。It is a figure showing an example of a person silhouette picture (after fitting). オジュジェクト追跡時の人物シルエット映像の一例を示した図である。It is the figure which showed an example of the person silhouette image | video at the time of object tracking.

以下、図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明の一実施形態に係るカメラ映像処理装置の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main part of a camera video processing apparatus according to an embodiment of the present invention, and here, the configuration unnecessary for the description of the present invention is omitted.

本実施例のカメラ映像処理装置は、汎用のコンピュータ(サーバ、スマートフォン、PDA)に各機能を実現するアプリケーション(プログラム)を実装して構成しても良いし、あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成しても良い。   The camera video processing apparatus according to the present embodiment may be configured by mounting applications (programs) for realizing each function on a general-purpose computer (server, smartphone, PDA), or a part of the applications may be implemented as hardware. Alternatively, it may be configured as a ROM-only dedicated machine or a single-function machine.

オブジェクト検出部11は、撮像部10がフレーム単位で出力するカメラ映像からオブジェクトを検出する。本実施例では、オブジェクト検出部11が顔検出を実行し、人間の顔領域がオブジェクトとして検出されるものとして説明する。   The object detection unit 11 detects an object from the camera video output by the imaging unit 10 in units of frames. In the present embodiment, description will be made assuming that the object detection unit 11 performs face detection and a human face region is detected as an object.

テンプレート登録部12は、顔領域(オブジェクト)を含む矩形領域をテンプレートとして登録する。オブジェクト追跡部13は、カメラ映像を対象に前記テンプレートを用いた画像マッチング処理(テンプレートマッチング)を行ってオブジェクトを追跡する。   The template registration unit 12 registers a rectangular area including a face area (object) as a template. The object tracking unit 13 tracks an object by performing image matching processing (template matching) using the template for a camera video.

スケルトンモデル記憶部14には、オブジェクトのスケルトン形状を模したスケルトンモデルの基本形状が予め登録されている。図6は、スケルトンモデルの基本形状の一例を示した図であり、追跡対象のオブジェクトが人間であれば、例えば上半身の輪郭形状に応じたスケルトン領域R1(黒色部分)と、当該スケルトン領域の顔領域の輪郭に沿って所定の幅で設けられたαブレンド領域R2(グレー部分)とから構成される。   In the skeleton model storage unit 14, a basic shape of a skeleton model imitating the skeleton shape of an object is registered in advance. FIG. 6 is a diagram showing an example of the basic shape of the skeleton model. If the object to be tracked is a human, for example, the skeleton region R1 (black portion) corresponding to the contour shape of the upper body and the face of the skeleton region An α blend region R2 (gray portion) provided with a predetermined width along the contour of the region.

フィッティング操作検知部15は、前記スケルトンモデルの形状をオブジェクトの形状にフィッティングさせる手動操作を検知する。スケルトンモデル出力部16は、前記フィッティング操作が検知されるまでは前記スケルトンモデルの基本形状をスケルトンモデル記憶部14から読み出して出力し、前記フィッティング操作が検知されると、当該フィッティング操作をスケルトンモデルに反映させて得られるフィッティング後のスケルトンモデルを出力する。   The fitting operation detection unit 15 detects a manual operation for fitting the shape of the skeleton model to the shape of the object. The skeleton model output unit 16 reads out and outputs the basic shape of the skeleton model from the skeleton model storage unit 14 until the fitting operation is detected, and when the fitting operation is detected, the fitting operation is converted into the skeleton model. The skeleton model after fitting obtained by reflecting is output.

映像処理部17は、オブジェクトの背景を塗り潰したりモザイク処理したりすることで不可視化する処理部17a,17bを備え、撮像部10が出力するカメラ映像に対して、スケルトンモデル出力部16が出力するスケルトンモデルを、オブジェクト追跡部13が出力する追跡結果に基づいて、オブジェクトの中心座標とスケルトンモデルの中心座標とが一致するように位置決めする。そして、カメラ映像のスケルトンモデルと重なる領域以外の背景領域に塗り潰し処理やモザイク処理などの背景処理を実施することで、オブジェクト以外が不可視化された人物シルエット映像(後述する図8,9)を生成、出力する。   The video processing unit 17 includes processing units 17a and 17b that are made invisible by painting an object background or performing mosaic processing, and the skeleton model output unit 16 outputs the camera video output by the imaging unit 10. Based on the tracking result output by the object tracking unit 13, the skeleton model is positioned so that the center coordinates of the object coincide with the center coordinates of the skeleton model. Then, by performing background processing such as filling processing and mosaic processing on the background region other than the region that overlaps the skeleton model of the camera image, a person silhouette image (FIGS. 8 and 9 to be described later) in which objects other than the object are made invisible is generated. ,Output.

本実施例では、スケルトンモデルがスケルトン領域R1およびαブレンド領域R2により構成されるので、スケルトン領域R1と重なる領域のカメラ映像は可視化され、αブレンド領域R2と重なる領域のカメラ映像は半可視化され、それ以外の領域は不可視化される。   In this embodiment, since the skeleton model is configured by the skeleton region R1 and the α blend region R2, the camera image of the region overlapping the skeleton region R1 is visualized, and the camera image of the region overlapping the α blend region R2 is semi-visualized, Other areas are invisible.

次いで、図2のフローチャートを参照して本発明の一実施形態の動作について説明する。ステップS1では、図3に示したように、撮像部10から出力されるカメラ映像がフレーム単位で順次に取得される。ステップS2では、オブジェクト検出部11において、前記カメラ映像の時系列を対象に顔認識が実行され、図4に示したようにオブジェクト(本実施例では、顔領域)が検出される。   Next, the operation of the embodiment of the present invention will be described with reference to the flowchart of FIG. In step S1, as shown in FIG. 3, camera images output from the imaging unit 10 are sequentially acquired in units of frames. In step S2, the object detection unit 11 performs face recognition for the time series of the camera video, and detects an object (a face area in this embodiment) as shown in FIG.

ステップS3では、図5に示したように、顔領域を含む矩形領域がオブジェクトのテンプレートとしてテンプレート登録部12に登録される。ステップS4では、前記オブジェクト追跡部13において、カメラ映像を対象に前記テンプレートを用いてテンプレートマッチングが実施され、マッチング尤度の高い領域をオブジェクトと判定して逐次追跡するオブジェクト追跡が開始される。   In step S3, as shown in FIG. 5, a rectangular area including a face area is registered in the template registration unit 12 as an object template. In step S4, the object tracking unit 13 performs template matching for the camera image using the template, and starts object tracking in which a region having a high matching likelihood is determined as an object and sequentially tracked.

ステップS5では、スケルトンモデル出力部16に登録されているスケルトンモデルが映像処理部17へ取り込まれる。本実施例では、スケルトンモデルの基本形状が予めスケルトンモデル出力部16に登録されているので、ここでは基本形状のスケルトンモデルが取り込まれる。   In step S <b> 5, the skeleton model registered in the skeleton model output unit 16 is taken into the video processing unit 17. In this embodiment, since the basic shape of the skeleton model is registered in advance in the skeleton model output unit 16, the basic shape skeleton model is captured here.

なお、前記顔認識機能に人物識別機能を追加する共に、各識別候補に固有のスケルトンモデルを予め用意しておき、人物の識別結果に基づいて対応するスケルトンモデルが選択的に取り込まれるようにしても良い。このように人物ごとにスケルトンモデルが選択できるようにすれば、体型や髪形といった輪郭の相違や、露出部分を顔のみにしたい人物と顔のみならず上半身の露出も許容できる人物とが混在している場合でもスケルトンモデルの基本形状を最適化できるので、後述するフィッティング操作が容易になる。   In addition to adding a person identification function to the face recognition function, a skeleton model unique to each identification candidate is prepared in advance so that a corresponding skeleton model is selectively captured based on the person identification result. Also good. In this way, if the skeleton model can be selected for each person, the contours such as the body shape and hairstyle, the person who wants to make the exposed part only the face and the person who can tolerate not only the face but also the upper body are mixed. Even if it is, the basic shape of the skeleton model can be optimized, so that the fitting operation described later becomes easy.

ステップS6では、映像処理部17において、前記カメラ映像において追跡中の顔領域の中心座標と前記スケルトンモデルの顔領域の中心座標とが一致するように、カメラ映像に対して前記スケルトンモデル(フィッティング前)が位置決めされて重畳表示され、人物シルエット映像として出力される。   In step S6, the video processing unit 17 causes the skeleton model (pre-fitting) to be performed on the camera video so that the center coordinate of the face area being tracked in the camera video matches the center coordinate of the face area of the skeleton model. ) Is positioned and superimposed and output as a person silhouette image.

図7は、人物シルエット映像の一例を示した図であり、当該時点ではスケルトンモデルがオブジェクトに対してフィッティングされる前の基本モデルのままなので、オブジェクトの輪郭とスケルトンモデルの輪郭との間に隙間があり、輪郭部近傍では背景の不可視化が不十分となっている。   FIG. 7 is a diagram showing an example of a person silhouette image. At this point, the skeleton model remains the basic model before fitting to the object, so there is a gap between the object outline and the skeleton model outline. In the vicinity of the outline, the background is not sufficiently invisible.

ステップS7では、オペレータによる前記スケルトンモデルに対するフィッティング操作の有無が前記フィッティング操作検知部15により判定される。ここで、オペレータがマウス、タッチパネルあるいはキーボード等の入力操作子を適宜に操作することにより、図8に示したように、前記スケルトンモデルをオブジェクトの輪郭形状にフィッティングさせる操作を行うと、これが検知されるとステップS8へ進む。   In step S <b> 7, the fitting operation detection unit 15 determines whether or not the operator has performed a fitting operation on the skeleton model. Here, when the operator performs an operation of fitting the skeleton model to the contour shape of the object as shown in FIG. 8 by appropriately operating an input operator such as a mouse, a touch panel, or a keyboard, this is detected. Then, it progresses to step S8.

ステップS8では、フィッティング後のスケルトンモデルが前記スケルトンモデル出力部16に更新登録される。したがって、これ以降は、追跡中のカメラ映像に対して前記フィッティング後のスケルトンモデルが重畳表示されるので、背景領域のみが正確に不可視化ないしは半可視化された人物シルエット映像が出力されるようになる。   In step S8, the skeleton model after fitting is updated and registered in the skeleton model output unit 16. Accordingly, since the skeleton model after the fitting is superimposed on the camera image that is being tracked thereafter, a person silhouette image in which only the background region is accurately invisible or semi-visualized is output. .

ステップS9では、前記ステップS4におけるテンプレートマッチングの尤度に基づいて、オブジェクトを正常に追跡できているか否かが判定される。追跡が正常に行われていればステップS4へ戻り、オブジェクトの追跡、スケルトンモデルの位置決めおよび人物シルエット映像の出力が繰り返される。これに対して、マッチング尤度が所定の閾値を下回ると、追跡に失敗していると判断されてステップS2へ戻り、オジュジェクト検出から上記の各処理が改めて行われる。   In step S9, based on the likelihood of template matching in step S4, it is determined whether or not the object can be normally tracked. If the tracking is normally performed, the process returns to step S4, and the object tracking, the positioning of the skeleton model, and the output of the person silhouette video are repeated. On the other hand, when the matching likelihood falls below a predetermined threshold value, it is determined that tracking has failed, and the process returns to step S2, and each of the above processes is performed again from the detection of the object.

図9(a),(b),(c)は、オブジェクト追跡が正常に行われている場合のカメラ映像およびその人物シルエット映像の出力例を示した図であり、オブジェクトの表示欠けを抑えながら背景が正確に不可視化ないしは半可視化されている様子を確認できる。   FIGS. 9A, 9B, and 9C are diagrams showing output examples of the camera video and the person silhouette video when the object tracking is normally performed, while suppressing the lack of display of the object. You can see how the background is accurately invisible or semi-visible.

なお、上記の実施形態では、予め用意されているスケルトンモデル(図6)の形状が、人の上半身や頭部を模したものであるとして説明したが、本発明はこれのみに限定されるものではなく、例えば人の全身を模したスケルトンモデルを含む多数のスケルトンモデルも用意しておき、オペレータがカメラ映像内でのオブジェクトの形状に応じて所望のスケルトンモデルを選択できるようにしても良い。   In the above-described embodiment, the shape of the skeleton model (FIG. 6) prepared in advance has been described as imitating the upper body and head of a person, but the present invention is not limited to this. Instead, for example, a large number of skeleton models including a skeleton model imitating the whole body of a person may be prepared so that the operator can select a desired skeleton model according to the shape of the object in the camera video.

また、上記の実施形態ではオブジェクトが人間であるものとして説明したが、本発明はこれのみに限定されるものではなく、人間以外の有体分(物品)であっても良い。この場合は、顔認認識アルゴリズムに代えて当該物品認識用のアルゴリズムを採用し、さらにスケルトンモデルも当該物品の輪郭形状を模したモデルを用意すればよい。   In the above embodiment, the object is described as being a human, but the present invention is not limited to this, and may be a tangible part (article) other than a human. In this case, an algorithm for recognizing the article may be employed instead of the recognition algorithm for the face recognition, and a model that imitates the contour shape of the article may be prepared as the skeleton model.

本実施例によれば、スケルトンモデルの形状をオブジェクトの輪郭にフィッティングさせることができるので、オブジェクトの形状に個体差がある場合でも、オブジェクトの背景のみを正確に不可視化したオブジェクトシルエット映像を提供できるようになる。   According to the present embodiment, since the shape of the skeleton model can be fitted to the contour of the object, even if there is an individual difference in the shape of the object, it is possible to provide an object silhouette image in which only the background of the object is accurately invisible. It becomes like this.

また、オブジェクトの追跡結果に合わせてスケルトンモデルの表示位置が移動し、オブジェクトとスケルトンモデルとの相対的な位置関係が常に維持されるので、カメラ映像内でオブジェクトや背景が移動しても、オブジェクトの背景のみを正確に不可視化したオブジェクトシルエット映像を提供できるようになる。   In addition, the display position of the skeleton model moves according to the tracking result of the object, and the relative positional relationship between the object and the skeleton model is always maintained, so even if the object or background moves in the camera image, the object It is possible to provide an object silhouette image in which only the background of the object is accurately invisible.

さらに、スケルトンモデルの輪郭近傍がαブレンド領域とされ、オブジェクトの輪郭部分はαブレンド画像とできるので、オブジェクトの形状を損なうことなく背景を確実に不可視化できるようになる。   Furthermore, since the vicinity of the outline of the skeleton model is an α blend area and the outline portion of the object can be an α blend image, the background can be reliably invisible without impairing the shape of the object.

10…撮像部,11…オブジェクト検出部,12…テンプレート登録部,13…オブジェクト追跡部,14…スケルトンモデル記憶部,15…フィッティング操作検知部,16…スケルトンモデル出力部,17…映像処理部   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 11 ... Object detection part, 12 ... Template registration part, 13 ... Object tracking part, 14 ... Skeleton model memory | storage part, 15 ... Fitting operation detection part, 16 ... Skeleton model output part, 17 ... Video processing part

Claims (8)

カメラ映像内でオブジェクトを追跡するオブジェクト追跡手段と、
オブジェクトの輪郭を模したスケルトンモデルを出力するスケルトンモデル出力手段と、
オブジェクトの追跡位置にスケルトンモデルを位置決めしてオブジェクトシルエット映像を出力する映像処理手段と、
前記スケルトンモデルに対するフィッティング操作を検知して当該スケルトンモデルの形状に反映させるフィッティング操作検知手段とを具備したことを特徴とするカメラ映像処理装置。
An object tracking means for tracking an object in a camera image;
A skeleton model output means for outputting a skeleton model imitating the contour of an object;
Image processing means for positioning the skeleton model at the tracking position of the object and outputting an object silhouette image;
A camera image processing apparatus, comprising: a fitting operation detection unit that detects a fitting operation on the skeleton model and reflects the fitting operation on the shape of the skeleton model.
カメラ映像から検出されたオブジェクトのテンプレートを登録するテンプレート登録手段をさらに具備し、
前記オブジェクト追跡手段は、カメラ映像に対するテンプレートマッチングによりオブジェクトを追跡することを特徴とする請求項1に記載のカメラ映像処理装置。
A template registration unit for registering a template of an object detected from the camera image;
The camera image processing apparatus according to claim 1, wherein the object tracking unit tracks an object by template matching with respect to the camera image.
前記映像処理手段は、前記スケルトンモデルと重なる領域のカメラ映像を可視化し、それ以外の領域を不可視化することを特徴とする請求項1または2に記載のカメラ映像処理装置。   3. The camera image processing apparatus according to claim 1, wherein the image processing unit visualizes a camera image in an area overlapping with the skeleton model and invisible other areas. 4. 前記スケルトンモデルは、その輪郭部分にαブレンド領域を備え、
前記映像処理手段は、前記αブレンド領域と重なる領域のカメラ映像を半可視化することを特徴とする請求項3に記載のカメラ映像処理装置。
The skeleton model has an α blend region in its contour portion,
The camera image processing apparatus according to claim 3, wherein the image processing unit semi-visualizes a camera image in a region overlapping with the α blend region.
カメラ画像から顔領域を認識する手段と、
顔認識された人物を識別する手段とをさらに具備し、
前記スケルトンモデルが識別候補の人物ごとに用意され、
前記スケルトンモデル出力手段は、前記識別された人物に対応したスケルトンモデルを出力することを特徴とする請求項1ないし4のいずれかに記載のカメラ映像処理装置。
Means for recognizing a face area from a camera image;
Means for identifying a person whose face has been recognized,
The skeleton model is prepared for each person as an identification candidate,
The camera image processing apparatus according to claim 1, wherein the skeleton model output unit outputs a skeleton model corresponding to the identified person.
前記カメラ映像処理装置が、コンピュータまたはサーバにより構成されたことを特徴とする請求項1ないし5のいずれかに記載のカメラ映像処理装置。   6. The camera video processing apparatus according to claim 1, wherein the camera video processing apparatus is configured by a computer or a server. コンピュータにより実行されるカメラ映像処理方法において、
カメラ映像内でオブジェクトを追跡する手順と、
オブジェクトの追跡位置に、オブジェクトの輪郭を模したスケルトンモデルを位置決めしてオブジェクトシルエット映像を出力する手順と、
前記スケルトンモデルに対するフィッティング操作を検知して当該スケルトンモデルの形状に反映させる手順とを含むことを特徴とするカメラ映像処理方法。
In a camera image processing method executed by a computer,
Procedures for tracking objects in the camera image,
A procedure for positioning the skeleton model imitating the outline of the object at the tracking position of the object and outputting the object silhouette video,
And a procedure for detecting a fitting operation on the skeleton model and reflecting the detected operation on the shape of the skeleton model.
カメラ映像内でオブジェクトを追跡する手順と、
オブジェクトの追跡位置に、オブジェクトの輪郭を模したスケルトンモデルを位置決めしてオブジェクトシルエット映像を出力する手順と、
前記スケルトンモデルに対するフィッティング操作を検知して当該スケルトンモデルの形状に反映させる手順とを、コンピュータに実行させるカメラ映像処理プログラム。
Procedures for tracking objects in the camera image,
A procedure for positioning the skeleton model imitating the outline of the object at the tracking position of the object and outputting the object silhouette video,
A camera image processing program for causing a computer to execute a procedure of detecting a fitting operation on the skeleton model and reflecting the detected operation on the shape of the skeleton model.
JP2013179517A 2013-08-30 2013-08-30 Camera image processing method, apparatus, and program Active JP6180244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013179517A JP6180244B2 (en) 2013-08-30 2013-08-30 Camera image processing method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013179517A JP6180244B2 (en) 2013-08-30 2013-08-30 Camera image processing method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2015050538A true JP2015050538A (en) 2015-03-16
JP6180244B2 JP6180244B2 (en) 2017-08-16

Family

ID=52700227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013179517A Active JP6180244B2 (en) 2013-08-30 2013-08-30 Camera image processing method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP6180244B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068756A (en) * 2015-10-01 2017-04-06 富士通株式会社 Image processor, image processing method, and image processing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110225315A (en) * 2019-07-12 2019-09-10 北京派克盛宏电子科技有限公司 Electric system screen monitored picture fusion method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163671A (en) * 2000-11-27 2002-06-07 Namco Ltd Game system, program and information storage medium
JP2002281465A (en) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd Security protection processor
JP2003046745A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Apparatus and method for image processing
JP2005210369A (en) * 2004-01-22 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus and image processing method
JP2005229351A (en) * 2004-02-13 2005-08-25 Victor Co Of Japan Ltd Imaging device
JP2007226671A (en) * 2006-02-24 2007-09-06 Canon Inc Image processing method and image processor
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2012078900A (en) * 2010-09-30 2012-04-19 Nec Corp Information protection device, information protection method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163671A (en) * 2000-11-27 2002-06-07 Namco Ltd Game system, program and information storage medium
JP2002281465A (en) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd Security protection processor
JP2003046745A (en) * 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd Apparatus and method for image processing
JP2005210369A (en) * 2004-01-22 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus and image processing method
JP2005229351A (en) * 2004-02-13 2005-08-25 Victor Co Of Japan Ltd Imaging device
JP2007226671A (en) * 2006-02-24 2007-09-06 Canon Inc Image processing method and image processor
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2012078900A (en) * 2010-09-30 2012-04-19 Nec Corp Information protection device, information protection method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068756A (en) * 2015-10-01 2017-04-06 富士通株式会社 Image processor, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6180244B2 (en) 2017-08-16

Similar Documents

Publication Publication Date Title
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US9690998B2 (en) Facial spoofing detection in image based biometrics
US10402657B2 (en) Methods and systems for training an object detection algorithm
US20160086017A1 (en) Face pose rectification method and apparatus
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
RU2016107189A (en) DEVICES, SYSTEMS AND METHODS OF VIRTUALIZATION OF THE MIRROR
EP3477593B1 (en) Hand detection and tracking method and device
JP2013504918A (en) Image processing system
KR20120072009A (en) Interaction recognition apparatus for multiple user and method thereof
JP2013242757A5 (en)
WO2016045711A1 (en) A face pose rectification method and apparatus
US9916042B2 (en) Fingertip position estimation apparatus and method
CN104809687A (en) Three-dimensional human face image generation method and system
JP6180244B2 (en) Camera image processing method, apparatus, and program
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP5882929B2 (en) Image processing apparatus, image processing method, and image processing program
CN113221767A (en) Method for training living body face recognition model and method for recognizing living body face and related device
JP2012003724A (en) Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program
US11070719B2 (en) Image capture assist device and image capture assist method
US20140043443A1 (en) Method and system for displaying content to have a fixed pose
JP2015191537A (en) Sight coincident image generation method, device and program
KR101543150B1 (en) Apparatus for gesture recognition and method thereof
Xie et al. Hand posture recognition using kinect
KR20160111151A (en) image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
CN109753554A (en) A kind of searching method and private tutor&#39;s equipment based on three dimension location

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170718

R150 Certificate of patent or registration of utility model

Ref document number: 6180244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150