JP4228673B2 - 映像処理装置、映像処理方法及びプログラム - Google Patents
映像処理装置、映像処理方法及びプログラム Download PDFInfo
- Publication number
- JP4228673B2 JP4228673B2 JP2002352164A JP2002352164A JP4228673B2 JP 4228673 B2 JP4228673 B2 JP 4228673B2 JP 2002352164 A JP2002352164 A JP 2002352164A JP 2002352164 A JP2002352164 A JP 2002352164A JP 4228673 B2 JP4228673 B2 JP 4228673B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- input
- behavior mode
- subject
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
【発明の属する技術分野】
本発明は、ビデオカメラなどで撮影される映像に入力制御や編集といった映像制御処理を加える技術に関し、特に、当該制御処理を映像中の被写体の行動態様から直接特定した特徴的な動作に基づいて行う技術に関する。
【0002】
【従来の技術】
例えば、企業活動において、会議や講演会をビデオカメラで撮影して録画し、後に録画した映像を利用することが行われているが、企業の機密情報を含む会議などについては撮影された映像中に部分的に記録を残せない場面がある。このような場面では、映像の被写体となる話者としては、機密情報を含む場面を記録に残さないようにするために、意図的に自ら映像の録画を止めたい場合もある。
従来は、ビデオカメラを操作するカメラマンに指示して映像の撮影を中止させたり、または、撮影後に編集者が映像中の該当部分を削除する編集作業を行って、上記事情に対処していた。
【0003】
ここで、上記事情の対処技術として、以下に説明するように、本発明の着想に照らせば、被写体となる話者の身体動作による行動態様(例えば、ジェスチャー)や音響出力動作による行動態様(例えば、「カット」などの所定の音声出力)によって、撮影される映像に入力制御や編集処理と言った映像制御処理を行えるようにするのが、人間の自然な動作による映像制御処理がなされて、会話などの連続性を妨げることなく実用上は極めて有効であると考える。
しかしながら、従来にあっては、このような技術は実現されてはおらず、その着想すらなされていなかった。
【0004】
従来、ジェスチャーによる機器制御として、以下のような技術が知られている。
撮影者が腕と手に身体の動きを示す筋電信号を検出する装置を装着し、撮影者の動作を筋電信号として検出することによって、カメラをコントロールする電子カメラシステムが知られている。この電子カメラシステムでは、カメラ制御コマンドは、手首から先の手や指の動きおよび二の腕の動きの組み合わせからなる所定のジェスチャーに関連付けられており、撮影者は腕と手を動かすだけでその動きが筋電信号を検出する装置の信号検出部によって検出され、当該ジェスチャーに定義付けられているコマンドによってカメラが制御される(特許文献1参照)。
【0005】
また、人間の身振りや手振りなどから抽出した固有の特徴パラメータを利用する各種の技術も知られている。
動画キャラクターの動作を自然にするため、動作者のジェスチャーを映像から取得し、動作を再生可能な基準にパラメータ化して、パラメータにタグを付け記憶し、キャラクター動作に利用するパフォーマンス動画ジェスチャーの取得及び動画キャラクター上での再生方法及び装置が知られている(特許文献2参照)。
【0006】
映像中のオブジェクトに対するモーション情報を効率的に記述するために、モーションヒストグラムを累積した累積モーションヒストグラムを生成し、映像中の被写体に対するモーション情報を効率的に記述したモーションディスクリプタを生成し、ビデオ検索に利用する累積モーションヒストグラムを利用したモーションディスクリプタ生成装置及びその方法が知られている(特許文献3参照)。
【0007】
また、ジェスチャー認識を行うために、モデルを構築して、映像中に連続するフレーム 画像から精度よく被写体の動作と構造を推定する技術も知られている。
動画像を構成する複数のフレーム画像の各々をベクトル空間上の1つの点とみなし、当該点の動作軌跡をジェスチャーの種類毎の特徴パラメータとし、当該抽出された特徴パラメータと基準パターンの特徴パラメータとを比較することにより、ジェスチャー認識を行うジェスチャ動画像認識方法が知られている(特許文献4参照)。
【0008】
映像中において被写体により行われるジェスチャーに関して、問いかけ(身を乗り出す)または同意(うなづく)など、ジェスチャーの意味的な単位に付与される意味ラベルを構築し、意味ラベルからジェスチャーの意味を抽出して、ジェスチャーの開始時刻と終了時刻を記述したスクリプト生成を行うジェスチャ映像再構成方法および装置およびその方法を記録した記録媒体が知られている(特許文献5参照)。
【0009】
動画像を構成する複数の画像フレームを入力し、画像フレーム間における少なくとも3つの特徴点の位置の変化から画像フレーム間のアフィン変形を推定して、対象物体の動きおよび構造を検出する動画像処理装置が知られている(特許文献6参照)。
【0010】
【特許文献1】
特開2000―138858号公報
【特許文献2】
特開2001―229398号公報
【特許文献3】
特開2000―222586号公報
【特許文献4】
特開平9―245178号公報
【特許文献5】
特開平11―238142号公報
【特許文献6】
特開平6―89342号公報
【0011】
【発明が解決しようとする課題】
しかしながら、従来では以下のような種々の問題があった。
上述した従来技術の共通な問題点として、利用者にジェスチャーを認識するための特別な装置や器具を装着することなしに、あるいは、撮影装置の操作用リモコンを用いることなしに、利用者が撮影中に映像の制御処理操作をすることができないという問題があった。
【0012】
より具体的には、特許文献1に記載される技術では利用者はカメラを操作するための認識装置を体に装着しなければならず、また、特許文献2に記載される技術ではジェスチャーを識別するためセンサを利用者が体に装着しなければならず、利用者の自然な状態での行動を妨げたり、これら特別な装備を用意しなければならないものである。
また、特許文献3乃至6に記載される技術は、被写体のジェスチャーを認識するための技術を開示するだけで、映像の入力制御や編集制御に応用可能な要素技術でしかない。
【0013】
本発明は上記従来の事情に鑑みなされたものであり、被写体に特段の装備を施す必要をなくして、映像中の被写体の自然な動作に基づく映像制御処理を実現することを目的としている。
なお、本発明の更なる目的は以下の説明において明らかなところである。
【0014】
【課題を解決するための手段】
本発明に係る映像処理装置は、ビデオカメラなどの映像入力手段によって入力された映像から、映像制御処理手段が、被写体の身体動作又は音響出力動作による特徴的な行動態様を特定し、所定の特徴的行動態様に基づいて映像に対して対応する制御処理を加えるための制御信号を出力する。
そして、本発明に係る映像処理装置は、上記制御信号応答して、映像編集手段がある場面を削除するなどと言った対応する編集処理を映像入力手段から入力されてメモリなどに蓄積される映像に加える、又は、映像入力制御手段がビデオカメラをフェードアウトさせるなどと言った対応する制御を映像入力手段からの映像入力に加える映像制御処理を行う。
【0015】
したがって、被写体に制御用の特段の装備を行う必要なく、映像中の被写体の自然な動作による行動態様に基づいて、映像編集制御や映像入力制御などといった映像制御処理を行うことができる。すなわち、このような映像制御処理を、映像中の被写体画像自体から直接抽出した特徴や、映像中の被写体音響自体から直接抽出した特徴に基づいて行うことができる。
【0016】
より具体的には、本発明に係る映像処理装置は、映像制御処理手段として、入力された映像から被写体の身体動作又は音響出力動作による特徴的な行動態様を特定する特徴量抽出手段と、身体動作又は音響出力動作による行動態様モデルを保持したモデル記憶手段と、特徴量抽出手段により特定された行動態様とモデル記憶手段に保持された行動態様モデルとの整合性を判定する整合手段と、を有し、整合手段による判定結果に基づいて前記制御信号を出力する。
このように本発明は種々な態様の映像処理装置として把握されるが、例えば当該映像処理装置を動作させることにより実施される映像制御方法や、当該映像処理装置をコンピュータにより実現するプログラムとしても把握される。
【0017】
【発明の実施の形態】
本発明を実施例に基づいて具体的に説明する。
図1には本発明の第1実施例に係る映像処理装置の構成を示してある。
ここで、本例は、映像中の被写体のジェスチャー(身体動作による行動態様)に基づいて入力された映像に場面削除などの編集処理を加えるものであるが、本発明は、映像中の被写体のジェスチャー(身体動作による行動態様)に基づいて入力映像の切替えなどの制御処理を行う、又は、映像中の被写体の音声出力内容(音響出力動作による行動態様)に基づいて上記のような編集処理若しくは入力映像制御を行う、又は、これらを組み合わせるなどと言った種々な実施形態をすることができる。
【0018】
図1に示すように、本例の映像処理装置は、映像入力部1、身体特徴量抽出部2、ジェスチャー・モデル記述部3、整合部4、カット点抽出部5、映像編集部6、映像蓄積部7を備えている。
なお、上記した種々な実施形態についても同様であるが、例えば本発明の主要な機能である映像制御処理手段(本例では、身体特徴量抽出部2、整合部4、カット点抽出部5)をコンピュータに本発明に係るプログラムを実行させることにより構成してもよく、これによって、入力された映像から被写体の特徴的な行動態様を特定して、所定の特徴的行動態様に基づいて映像に対して対応する制御処理を加えるための制御信号を出力するようにしてもよい。
【0019】
映像入力部1は、ビデオカメラ、ビデオキャプチャ装置を備えたコンピュータ、又は、他で撮影された映像信号を入力するインタフェースなどによって構成され、被写体である後援者を含む会議の映像(動画像)を撮像又は装置内に取り込む。
撮像された映像は図2に示すように連続する多数の画像フレーム9からなる動画像データであり、撮影時に、各画像フレームには識別子として順次フレーム番号(001、002・・)と映像時間情報(t1、t2・・)が付加される。
【0020】
身体特徴量抽出部2には映像入力部1から画像フレーム単位で映像が入力され、図3に示すように、身体特徴量抽出部2は、被写体Mを含む入力された画像フレーム9から(同図(a))、身体特徴量(身体動作による特徴的な行動態様を表す線分モデルC)を識別し(同図(b))、当該身体特徴量Cを抽出し(同図(c))、抽出された身体特徴量Cを整合部4に出力する。
【0021】
なお、後述するように、身体特徴量Cは図4に示すように、被写体Mのジャスチャーを特徴付けて表す線分L1〜L7からなる線分モデルとして処理される。より具体的には、本例では、図3(a)に示すように被写体Mが両腕を広げて、その両手の二本の指をV字型に開いた行動態様(蟹を模したジェスチャーであるので、カニモデルとも称せられる)を編集処理の制御タイミングに利用しているため、線分モデルCは、図4に示すように、被写体Mの二本の指に対応する部位線分データ(L1及びL2とL6及びL7)、二本の腕に対応する部位線分データ(L3とL5)、頭部及び胴体部に対応する部位線分データ(L4)である。
【0022】
身体特徴量抽出部2は、抽出した身体特徴量Cとともに、図5に示すように抽出した画像フレームのフレーム番号11と抽出した身体特徴量Cを識別する身体特徴量ID11を整合部4へ出力する。
ジェスチャーモデル記述部3は、所定のジェスチャーモデルデータを記憶したメモリ及び当該データに基づいて図6に示すようなジェスチャーモデルJを記述する機能を有しており、身体特徴量抽出部2から抽出された身体特徴量Cが出力されたことに応じて、当該身体特徴量Cとマッチング評価するためにジェスチャーモデルJを記述して当該ジェスチャーモデルJを整合部4に出力する。
【0023】
整合部4は、身体特徴量抽出部2から入力した身体特徴量Cとジェスチャーモデル記述部3から入力したジェスチャーモデルJを比較し、身体特徴量CとジェスチャーモデルJがマッチングしているか否かを判定し、図7に示すように、画像フレーム毎の判定結果(整合又は不整合)12をフレーム番号10に対応付けてカット点抽出部5に出力する。
【0024】
カット点抽出部5は、映像中の削除編集(カット)を行う範囲を決定して、当該決定結果に応じた制御信号を映像編集部6に出力する。具体的には、カット点抽出部5は、整合部4から入力した判定結果12に基づいて、判定結果12が身体特徴量CとジェスチャーモデルJとが整合しているものであるときには、映像データ中のカット開始時刻及びカット終了時刻に対応するフレーム番号10を取得し、これらフレーム番号で挟まれた部分を映像データ中から削除させる指示を映像編集部6に出力する。
【0025】
なお、この指示はフレーム番号に代えて映像中の画像フレーム時刻を直接指定した制御信号で行ってもよく、また、この指示は、カット開始時刻を指示して映像編集部6が開始時刻から所定時間後にカット処理を終了するようにしたり、或いは、カット終了時刻を指示して映像編集部6が終了時刻から所定時間遡った時刻からカット処理を開始するようにしてもよい。
【0026】
映像編集部6は、カット点抽出部5から入力した制御情報に基づいて、映像入力部1から入力された映像データを編集して、当該映像編集済データを映像蓄積部7に出力し、メモリからなる映像蓄積部7のデータベースに格納させる。
具体的には、カット点抽出部5からの制御情報に応答して、映像データの該当映像部分を削除して映像蓄積部7に格納させる。
【0027】
次に、本例の身体特徴量抽出に関する処理について詳しく説明する。
図8には身体特徴量抽出部2が行う本例の身体特徴量抽出の処理手順を示してあり、まず、画像入力部1から画像フレームが入力されると当該画像フレームを二値化して、図9に示すように、当該二値化画像データ16を身体特徴量抽出部2の作業領域として映像処理装置に設けられている内部メモリ15に保持する(ステップS1)。
【0028】
そして、身体特徴量抽出部2が二値化画像データ16から、被写体Mのいわゆる細線化画像データ17を抽出し、さらに、細線化画像データ17から線分分割をして、二本の指、二本の腕、頭部及び胴体部に対応する部位線分データ18を抽出し、当該部位線分データ18を内部メモリ15に保持して、身体特徴量抽出処理を終了する(ステップS2)。なお、この処理は画像入力部1から画像フレームが入力される毎に繰り返し行われ、内部メモリ15に保持された部位線分データ18は特徴量Cとして上記のように整合部4へ順次出力される。
【0029】
すなわち、身体特徴量抽出処理は、図3(a)に示すように被写体Mの画像を抽出して二値化し、同図(b)に示すように例えば被写体Mの外郭を成す稜線間の中央位置を結ぶことにより骨格線を抽出し、更に、同図(c)、詳しくは図4に示すように二本の指、二本の腕、頭部及び胴体部に該当する部位線分データに分解する処理である。
【0030】
次に、ジェスチャーモデルJについて説明する。
図6は、ジェスチャーモデルJの概念を示しており、本例のジェスチャーモデルJは、二本の指、二本の腕、頭部及び胴体部を特定する記述で構成されている。右腕はR_ARM、右手の第一の指をR_FINGER1、右手の第二の指をR_FINGER2とする。左腕はL_ARM、左手の第一の指をL_FINGER1、左手の第二の指をL_FINGER2とする。胴体を含む頭部をHEADとする。
【0031】
すなわち、体全体をBODYとすると、ジェスチャーモデルJは次のような組み合わせによる記述である。
BODY(t):=(HEAD(t),R_ ARM(t),L_ ARM(t))
R_ ARM(t):=(R_FINGER1(t),R_FINGER2(t))
L_ ARM(t):=(L_FINGER1(t),L_FINGER2(t))
【0032】
ここで、本例のジェスチャーモデルJは、モデルの時間的変化も表す時間パラメータtを含んで記述されている。これは、ジェスチャーモデルJの形態に時間変化を与えることによって、時間と共に変化している被写体Mの動作の内の或る画像フレームがジェスチャーモデルJに整合すれば編集処理を行うようにするためであり、これによって、整合性検出の幅をもたせることにより被写体Mたる講演者が所期の動作指示を行い易くしている。
【0033】
図10には二本の指の開閉動作の概念を示すが、R_FINGER1ならびにR_FINGER2(L_FINGER1ならびにL_FINGER2)は、接続部を中心にそれぞれ時間が経つごとに離合する。具体的には、同図(a)に示す或る時刻t1において、R_FINGER1(t1)およびR_FINGER2(t1) の二本の指がR_ARMとの接合点を中心に或る角度(例えば、約30度)まで開いており、同図(b)に示すその後の或る時刻t2においては、R_FINGER1(t2)およびR_FINGER2(t2)の二本の指が、R_ARMの接合点中心に、閉じていることを表している。
したがって、部位線分データがR_FINGER1などジェスチャーモデルJの要素に対して、それぞれが対応していれば整合部4によって整合したと判定される。
【0034】
次に、整合部4による部位線分データとジェスチャーモデルJとの整合判定処理について説明する。
整合部4は、図4に示すようなそれぞれの部位線分データ(L1〜L7)が、図6に示すようなR_FINGER1などのジェスチャーモデルJの要素に対して対応していれば、整合したと判定する。
【0035】
具体的には、図4に示すように、L1、L2およびL3は一点で接続され、また、L3、L4およびL5は一点で接続され、さらに、L5、L6、およびL7は一点で接続されている。
このL1、L2およびL3はR_FINGER2、R_FINGER1およびR_ARMに対応し、L3、L4およびL5はR_ARM 、HEAD、L_ ARMに対応し、L5、L6およびL7はL_ARM、L_FINGER1、L_FINGER2に対応する。
これらの部位線分データL1〜L7とジェスチャーモデルJの各要素の接続関係や位置の対応が取れた場合に、身体特徴量CとジェスチャーモデルJが整合したと判断される。
【0036】
これらの身体特徴量CとジェスチャーモデルJの整合判定が、連続した画像フレーム9に対して順次行われ、整合が取れた画像フレーム9をカット点(削除編集点)の候補とする。
ここで、ジェスチャーモデルJに時間幅をもたせた本例では特に、整合の取れた画像フレーム9が複数連続して候補とされる場合が想定されるが、これら複数の画像フレームの中から、先頭のもの、最後のもの、真中のものなどといったように、カット点を規定する画像フレーム画像を特定して、当該画像フレーム番号を用いて映像編集処理を行えばよい。
【0037】
なお、本発明では、映像中のジェスチャーモデルJに整合する画像フレーム位置に基づいて、当該位置から所定時間の映像部分を削除する、あるいは、当該位置から所定時間遡った位置から当該位置までの映像部分を削除する、あるいは、整合する画像フレームが連続する映像部分を削除する、あるいは、図11に示すように、映像中の整合する或る画像フレームAの位置から削除処理を開始して次にまた整合する画像フレームBが現れたところで削除処理を終了するなどと言ったように、種々な態様で編集処理範囲を設定すればよい。
【0038】
上記の例は被写体Mのジェスチャーと言う身体動作による特徴的な行動態様に基づいて編集処理を行うようにしたが、本発明は、映像中で被写体が発した音声などの音響的出力動作による特徴的な行動態様に基づいて編集処理を行うようにしてもよい。
例えば、図12に示すように、映像に映像データ(動画トラック)20と被写体が発した音声データ(音声トラック)が含まれている場合、各音響トラック21a、21bの開始点や終了点、或いは、音響トラック21a、21bの切換え点を編集処理の開始や終了の位置として利用するようにしてもよい。
【0039】
具体的には、発言毎に音響トラックを異ならせておき、上記の開始点などを編集処理の制御タイミングの候補としてジェスチャーモデル整合と併せて利用することができる。
例えば、音声トラックの開始時刻をカット点とする場合には、身体特徴量CとジェスチャーモデルJとの整合によって特定されたカット点をカット終了点として映像を削除編集すればよく、また、音声トラックの終了時刻をカット点とする場合には、身体特徴量CとジェスチャーモデルJとの整合によって特定されたカット点をカット開始点として映像を削除編集すればよい。
【0040】
なお、音声トラックの連続性を検出する方法としては、図13に示すような無音区間に基づく方法を採用することができる。
音声データの連続性を検出する場合、音量レベルを計測して、音量レベルが既定の閾値以下になったときには、その時間を無音状態時間Δtとして検出する。例えば、或る映像データにおいて、音声トラックAudio aの直後に無音状態時間Δt、続いて音声トラックAudio bが検出された場合、無音状態時間Δtが所定時間(例えば、5秒)以内であれば、音声トラックAudio aとAudio bは連続した音声トラックとして取り扱い、所定時間を上回る時にはこれらを異なる音声トラックとして取り扱うようにすればよい。
【0041】
さらに、本発明において、映像データに含まれる音声などの被写体が発した音響データをより積極的に編集処理に利用する場合には、例えば、図1に示した装置構成において、身体特徴量抽出部2を映像中に含まれる音響データをその映像中の時刻情報と共に抽出するものとし、ジェスチャーモデル記述部3を図14に示すように所定の語句(例えば、「カット」)の音声波形モデルを記述したものとし、整合部4を映像中から抽出された音響データと音声波形モデルとの整合性を判定するものとして、被写体である講演者が所定の音声を発したこと及び発した時点に応じて、カット点抽出部5が編集処理の内容や範囲を決定して、映像編集部6に制御信号を出力して対応する編集処理を映像入力部1から入力された映像に施すようにしてもよい。
【0042】
また、上記の説明では、映像中の被写体による身体動作や音響出力動作に基づいて、入力されて蓄積される映像に編集処理を施すようにしたが、本発明では、これら映像中の被写体による身体動作や音響出力動作に基づいて、例えば映像入力部1を構成するビデオカメラを他のビデオカメラに切換えると言った映像入力制御を行うようにしてもよい。
【0043】
この場合には、例えば、図15に示すような装置構成として、上記と同様にして整合部4で特定された画像フレーム位置を制御点抽出部35が制御の開始や終了の位置として利用し、これに基づいて映像制御部36が映像入力部1へ映像入力の態様を変更する制御信号を出力するようにすればよい。
なお、図15には図1に示した構成と同一部分には同一符号を付してある。また、図15にはジェスチャーモデルによる整合処理の例を示すが、被写体の発した音響出力による整合処理についても上記と同様に適用できる。
【0044】
このように映像入力の制御を行うことにより、被写体となる講演者はカメラマンに指示を与えずとも、自らのジェスチャーや発言内容などに基づいて、複数台あるビデオカメラを切換えて異なるアングルの映像を撮影する、ビデオカメラをフェードアウトさせたり入力映像にモザイク掛け処理を行って映像中に機密資料が明瞭に映らないようにする、映像入力部1の入力経路を切換えて代替映像を入力するようにする、などと言った映像入力操作を行うことができる。
【0045】
なお、上記の説明では、音響出力動作を被写体が発した音声を例にして説明したが、本発明は、音声以外に、被写体が手を叩いて発した音や、被写体がベルやブザーを操作して発した音などと言った種々な態様の音響を編集や映像入力の制御に用いることができる。
また、上記の説明では、編集処理を映像部分の削除を例にとって説明したが、本発明は、これ以外に、映像部分の解像を低下させる、映像部分中にモザイク掛けをする、映像部分中に注釈を加入するなどと言った種々な態様の編集処理を採用することができる。
【0046】
【発明の効果】
以上説明したように、本発明によると、映像から被写体の特徴的な行動態様を抽出し、これを起点や終点として映像の制御処理を行うようにしたため、被写体が映像に記録されたくない箇所を削除するなどといった制御処理を被写体人物による会話などの連続性を妨げない自然な人間の動作で実現することができる。
【図面の簡単な説明】
【図1】 本発明の一実施例に係る映像処理装置の構成を示す図である。
【図2】 映像データの構成を説明する図である。
【図3】 本発明の一例に係るジェスチャー抽出を説明する図である。
【図4】 本発明の一例に係る部位線分データ(特徴量)を説明する図である。
【図5】 本発明の一例に係る身体特徴量抽出部が出力するデータ例を示す図である。
【図6】 本発明の一例に係るジェスチャーモデルを説明する図である。
【図7】 本発明の一例に係るカット点情報のデータ例を示す図である。
【図8】 本発明の一例に係る身体特徴量抽出の処理手順を示す図である。
【図9】 本発明の一例に係る身体特徴量抽出処理の内部メモリのデータ例を示す図である。
【図10】 本発明の一例に係る二本の指の開閉を説明する図である。
【図11】 本発明の一例に係るカット点による映像データ編集部分を説明する図である。
【図12】 本発明の一例に係るジェスチャーモデルと音声処理の組合せによるカット点を説明する図である。
【図13】 本発明の一例に係る音声情報の連続性検出を説明する図である。
【図14】 本発明の一例に係る音声情報モデルを説明する図である。
【図15】 本発明の他の一実施例に係る映像処理装置の構成を示す図である。
【符号の説明】
1:映像入力部、 2:身体特徴量抽出部、
3:ジェスチャーモデル記述部、 4:整合部、
5:カット点抽出部、 6:映像編集部、
7:映像蓄積部、 9:画像フレーム、
35:制御点抽出部、 36:映像制御部、
C:特徴量、 J:ジェスチャーモデル、
L1〜L7:部位線分データ、 M:被写体、
Claims (8)
- 映像に対して所定の制御処理を加える映像処理装置であって、
蓄積対象の映像を入力する映像入力手段と、
前記入力された映像から被写体の特徴的な行動態様を特定し、前記入力された映像を構成する各画像フレームのうち所定の特徴的行動態様に対応する画像フレームを削除または不明瞭化する編集処理を加えるための制御信号を出力する映像制御処理手段と、
前記出力された制御信号に対応する編集処理を前記入力された映像に対して加え、当該編集後の映像を出力して映像蓄積部に格納させる映像編集手段と、
を備えたことを特徴とする映像処理装置。 - 請求項1に記載の映像処理装置において、
前記映像制御処理手段は、前記入力された映像から被写体の身体動作による特徴的な行動態様を特定する特徴量抽出手段と、身体動作による行動態様モデルを保持したモデル記憶手段と、前記特徴量抽出手段により特定された行動態様と前記モデル記憶手段に保持された行動態様モデルとの整合性を判定する整合手段と、を有し、前記整合手段による判定結果に基づいて前記制御信号を出力することを特徴とする映像処理装置。 - 請求項2に記載の映像処理装置において、
前記モデル記憶手段に保持される行動態様モデルは、身体動作の時間変化を表す時間幅をもった記述形式であることを特徴とする映像処理装置。 - 請求項1に記載の映像処理装置において、
前記映像入力手段から入力される映像は音響情報を含み、
前記映像制御処理手段は、前記入力された映像から被写体による音響出力動作による特徴的な行動態様を特定する特徴量抽出手段と、音響出力動作による行動態様モデルを保持したモデル記憶手段と、前記特徴量抽出手段により特定された行動態様と前記モデル記憶手段に保持された行動態様モデルとの整合性を判定する整合手段と、を有し、前記整合手段による判定結果に基づいて前記制御信号を出力することを特徴とする映像処理装置。 - 映像に対して所定の制御処理を加える映像処理方法であって、
蓄積対象として入力された映像から被写体の特徴的な行動態様を特定し、
前記入力された映像に対し、当該映像を構成する各画像フレームのうち前記特定された所定の特徴的行動態様に対応する画像フレームを削除または不明瞭化する編集処理を加え、当該編集後の映像を出力して映像蓄積部に格納させることを特徴とする映像処理方法。 - 映像に対して所定の制御処理を加える映像処理方法であって、
蓄積対象として入力された映像から被写体の身体動作による特徴的な行動態様を特定し、
前記特定された行動態様と予め用意された行動態様モデルとの整合性を判定し、
前記入力された映像に対し、当該映像を構成する各画像フレームのうち前記判定結果に基づいて特定される画像フレームを削除または不明瞭化する編集処理を加え、当該編集後の映像を出力して映像蓄積部に格納させることを特徴とする映像処理方法。 - 映像に対して所定の制御処理を加える映像処理方法であって、
蓄積対象として入力された音響情報を含む映像から被写体による音響出力動作による特徴的な行動態様を特定し、
前記特定された行動態様と予め用意された行動態様モデルとの整合性を判定し、
前記入力された映像に対し、当該映像を構成する各画像フレームのうち前記判定結果に基づいて特定される画像フレームを削除または不明瞭化する編集処理を加え、当該編集後の映像を出力して映像蓄積部に格納させることを特徴とする映像処理方法。 - 入力された映像に対して所定の制御処理を加える映像制御をコンピュータにより実行させるプログラムであって、
蓄積対象として入力された映像から被写体の特徴的な行動態様を特定する機能と、
予め用意された行動態様モデルをメモリから取得する機能と、
前記特定された行動態様と前記取得された行動態様モデルとの整合性を判定する機能と、
前記入力された映像を構成する各画像フレームのうち前記判定結果に基づいて特定される画像フレームを削除または不明瞭化する編集処理を加えるための制御信号を出力する機能と、
前記出力された制御信号に対応する編集処理を前記入力された映像に対して加え、当該編集後の映像を出力して映像蓄積部に格納させる機能と、をコンピュータに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002352164A JP4228673B2 (ja) | 2002-12-04 | 2002-12-04 | 映像処理装置、映像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002352164A JP4228673B2 (ja) | 2002-12-04 | 2002-12-04 | 映像処理装置、映像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004187043A JP2004187043A (ja) | 2004-07-02 |
JP4228673B2 true JP4228673B2 (ja) | 2009-02-25 |
Family
ID=32753858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002352164A Expired - Lifetime JP4228673B2 (ja) | 2002-12-04 | 2002-12-04 | 映像処理装置、映像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4228673B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007105560A1 (ja) * | 2006-03-10 | 2007-09-20 | Pioneer Corporation | 情報処理装置、情報処理方法及び情報処理用プログラム |
US20100289912A1 (en) * | 2009-05-14 | 2010-11-18 | Sony Ericsson Mobile Communications Ab | Camera arrangement with image modification |
JP6010062B2 (ja) * | 2014-03-17 | 2016-10-19 | 京セラドキュメントソリューションズ株式会社 | キューポイント制御装置およびキューポイント制御プログラム |
US11321880B2 (en) | 2017-12-22 | 2022-05-03 | Sony Corporation | Information processor, information processing method, and program for specifying an important region of an operation target in a moving image |
CN109743624B (zh) * | 2018-12-14 | 2021-08-17 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11142234A (ja) * | 1997-09-04 | 1999-05-28 | Fujitsu Ltd | 赤外線検出式入力装置およびそれを用いたインタラクティブシステム |
JP4341936B2 (ja) * | 1998-12-25 | 2009-10-14 | カシオ計算機株式会社 | 撮像方法および撮像装置 |
JP2000028322A (ja) * | 1999-01-08 | 2000-01-28 | Mitsubishi Electric Corp | 高速移動物体位置検出装置 |
JP2001111881A (ja) * | 1999-10-07 | 2001-04-20 | Internatl Business Mach Corp <Ibm> | 撮像装置及びその遠隔操作方法 |
JP2002029387A (ja) * | 2000-07-19 | 2002-01-29 | Nec Eng Ltd | 車両用防犯監視システム |
JP2002133558A (ja) * | 2000-10-27 | 2002-05-10 | Victor Co Of Japan Ltd | 監視用信号の通信方法、及び監視用信号通信装置 |
JP2003348569A (ja) * | 2002-05-28 | 2003-12-05 | Toshiba Lighting & Technology Corp | 監視カメラシステム |
-
2002
- 2002-12-04 JP JP2002352164A patent/JP4228673B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004187043A (ja) | 2004-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8724960B2 (en) | Imaging device, image processing method, and program thereof | |
US8126720B2 (en) | Image capturing apparatus and information processing method | |
KR20070118038A (ko) | 정보처리 장치 및 정보처리 방법과 컴퓨터·프로그램 | |
JP2006287749A (ja) | 撮像装置、及びその制御方法 | |
WO2009075754A1 (en) | Recording audio metadata for stored images | |
KR20050057586A (ko) | 비디오 및 오디오 시그너처들의 제휴를 통한 향상된 광고검출 | |
KR20200054613A (ko) | 동영상 메타데이터 태깅 시스템 및 그 방법 | |
JP2009060394A (ja) | 撮像装置、画像検出装置及びプログラム | |
JP2007027990A (ja) | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 | |
WO2005094437A2 (en) | System and method for automatically cataloguing data by utilizing speech recognition procedures | |
JP2007097047A (ja) | コンテンツの編集装置、コンテンツの編集方法及びコンテンツの編集プログラム | |
GB2354105A (en) | System and method for navigating source content | |
JP2010011409A (ja) | 映像ダイジェスト装置及び映像編集プログラム | |
JP2007101945A (ja) | 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム | |
JP4228673B2 (ja) | 映像処理装置、映像処理方法及びプログラム | |
JP4968346B2 (ja) | 撮像装置、画像検出装置及びプログラム | |
JP4429081B2 (ja) | 情報処理装置及び情報処理方法 | |
JP3775446B2 (ja) | 会議情報記録方法および会議情報記録装置並びに会議情報再生装置 | |
JP2005345616A (ja) | 情報処理装置及び情報処理方法 | |
US20220327865A1 (en) | Electronic device and control method | |
US20220335246A1 (en) | System And Method For Video Processing | |
JP4235635B2 (ja) | データ検索装置及びその制御方法 | |
JP5389594B2 (ja) | 画像ファイル生成方法、そのプログラム、その記録媒体および画像ファイル生成装置 | |
JP7133367B2 (ja) | 動画編集装置、動画編集方法、及び動画編集プログラム | |
JP6635093B2 (ja) | 画像記録装置、画像記録方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051122 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20071003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4228673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121212 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121212 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131212 Year of fee payment: 5 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |