JP4649640B2 - 画像処理方法、画像処理装置、及びコンテンツ作成システム - Google Patents

画像処理方法、画像処理装置、及びコンテンツ作成システム Download PDF

Info

Publication number
JP4649640B2
JP4649640B2 JP2004334336A JP2004334336A JP4649640B2 JP 4649640 B2 JP4649640 B2 JP 4649640B2 JP 2004334336 A JP2004334336 A JP 2004334336A JP 2004334336 A JP2004334336 A JP 2004334336A JP 4649640 B2 JP4649640 B2 JP 4649640B2
Authority
JP
Japan
Prior art keywords
image
moving
moving object
image processing
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004334336A
Other languages
English (en)
Other versions
JP2006148425A (ja
Inventor
弘明 千代倉
佑樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Priority to JP2004334336A priority Critical patent/JP4649640B2/ja
Publication of JP2006148425A publication Critical patent/JP2006148425A/ja
Application granted granted Critical
Publication of JP4649640B2 publication Critical patent/JP4649640B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

コンピュータを用いてデジタル画像に対する処理を行う画像処理方法、及び画像処理装置、並びに合成画像の生成を行うコンテンツ作成システムに関する。
動画像の一部又は全部と他の画像とを合成した合成画像を表示する技術は、テレビ会議システム、テレビ電話システム、講義ビデオシステム等の各種システムに利用されている(特許文献1、2参照)。動画像の一部を合成する場合、人物画像等の動体のみを他の画像に合成することが好ましい。例えば、テレビ電話システムに利用する場合、人物画像のみを抽出して任意の背景画像と合成することにより、自分の周囲の画像を送信しないようにすることができる。また、講義ビデオに講師の動画像を合成する場合、講師の輪郭を抽出して合成することにより、他の画像、例えば講義用資料の領域を拡大することができる。
動画像から人物画像等の動体画像のみを抽出して他の画像と合成する技術としては、クロマキー合成によるものが周知である。しかし、クロマキー合成は、大掛かりな設備が必要であり、上記したような簡易なシステムに利用することは、困難である。
動画像から動体画像を抽出する技術としては、特許文献3、4に記載されたものがある。特許文献3には、テレビ電話装置の撮像画面における人物領域抽出技術が記載されている。この文献においては、フレーム間の差分演算を行って動体を識別し、差分演算信号を所定の閾値に基づいて2値化することにより人物領域を抽出している。また、特許文献4には、安定化させた背景画像と入力動画像との差分を求めて、動体を認識している。
しかし、特許文献3、4に記載された動体抽出技術においては、動体全体の輪郭が抽出されない場合があり、動体領域を精度よく特定するのが簡単ではない。また、動体が静止している状態での認識が困難である。
特開平7−67035号公報 特開2000−175166号公報 特開昭63−157593号公報 特開平5−159060号公報
本発明は、上記事情に鑑みなされたもので、コンピュータの処理負担を大きくすることなく動画像から鮮明な動体抽出を行って、他の画像と合成することができる画像処理方法、及び画像処理装置を提供することを目的とする。
本発明の画像処理方法は、コンピュータを用いてデジタル画像に対する処理を行う画像処理方法であって、入力動画像の各フレーム画像に対して輪郭抽出処理を行い、輪郭抽出フレーム画像を生成する輪郭抽出ステップと、前記輪郭抽出フレーム画像のフレーム間差分演算を行い、前記フレーム間差分演算を行って生成した差分画像と、動体画像バッファに蓄積されている前フレームの動体抽出フレーム画像とを合成し、その合成画像を現フレームの動体抽出フレーム画像として生成するするとともに、その合成画像によって前記動体画像バッファを更新する動体抽出ステップと、前記動体抽出フレーム画像に基づいて、前記入力動画像における動体領域を識別するマスクデータを生成するマスクデータ生成ステップと、前記マスクデータを利用して、前記入力動画像における動体領域画像を他の画像と合成する画像合成ステップとを備える画像処理方法であって、前記動体抽出ステップが、前記差分画像と前フレームの動体抽出フレーム画像との合成割合を前記差分画像の平均輝度値に応じて変更するものである。本発明によれば、コンピュータの処理負担を大きくすることなく動画像から鮮明な動体抽出を行って、他の画像と合成することができる。また、本発明によれば、動体抽出フレーム画像の輝度値が大きく低下しないので、動体の動きが小さくなったときでも、精度良く動体領域の認識ができる。また、本発明によれば、動体抽出フレーム画像の輝度値の変化を動体の動きの大きさに拘わらず抑えることができるので、さらに精度良く動体領域の認識ができる。
本発明の画像処理方法は、前記マスクデータ生成ステップが、前記動体抽出フレーム画像を、複数の走査直線に沿ってその走査直線の両側から走査するステップと、前記走査直線上の画素のうち、前記走査において最初に閾値以上となった画素間のすべての画素を含む領域を動体領域と認識するステップとを含むものを含む。本発明によれば、動体の輪郭を構成する画素を簡単な処理で認識できるので、動体領域の認識処理の負荷を軽減することができる。
本発明の画像処理方法は、前記複数の走査直線が、斜め方向の直線であるものを含む。 本発明によれば、ノイズの影響を減少させたマスクデータを生成することができる。
本発明の画像処理方法は、前記マスクデータ生成ステップが、前記動体領域の輪郭近傍の合成割合を減少させたマスクデータを生成するものを含む。本発明によれば、滑らかな合成が可能となる。
本発明の画像処理プログラムは、前記した画像処理方法における各ステップを、コンピュータに実行させるためのものである。
本発明の画像処理装置は、前記した画像処理プログラムをインストールしたコンピュータを含むものである。
本発明のコンテンツ作成システムは、前記した画像処理プログラムをインストールしたコンピュータと、前記コンピュータによる前記画像合成ステップで得られた合成画像データに基づく表示用合成画像信号を生成するビデオ信号生成手段と、前記表示用合成画像信号に基づくデジタル動画データを含む動画ファイルを生成する動画ファイル生成手段とを備えるものである。
本発明の講義ビデオ作成システムは、前記したコンテンツ作成システムを利用して生成した前記動画ファイルを講義ビデオとして出力するものである。
本発明のテレビ会議システムは、前記したコンテンツ作成システムを利用して生成した前記デジタル動画データを、テレビ会議参加者の端末装置に配信する手段を備えるものである。
以上の説明から明らかなように、本発明によれば、コンピュータの処理負担を大きくすることなく動画像から鮮明な動体抽出を行って、他の画像と合成することができる画像処理方法、及び画像処理装置を提供することができる。
以下、本発明の実施の形態について、図面を用いて説明する。なお、以下の説明では、動画像を含むコンテンツを作成するコンテンツ作成システムを適用例としている。
図4は、コンテンツ作成システムの一例である講義ビデオ作成システムの概略構成を示す図である。図1の講義ビデオ作成システムは、教室等での講義と同時に講義ビデオを作成するものであり、講師用コンピュータ1、カメラ2、タブレット3、プロジェクタ4、スキャンコンバータ5、録画用コンピュータ6、マイクロホン7、ビデオサーバ8を含んで構成される。
講師用コンピュータ1は、講師が講義に使用するコンピュータであり、例えばノート型PCである。講師用コンピュータ1には、予め、Power Point等のプレゼンテーションソフトウェアで作成された講義用素材が用意されている。また、Webサイトのコンテンツを講義に使用する場合は、Webブラウザをインストールしておくと共にインターネットに接続可能としておく。
講師用コンピュータ1には、カメラ2とタブレット3が、例えばUSB接続により接続される。カメラ2は、講義中の講師を撮影する講師撮影用カメラであって、動画像を講師用コンピュータ1に入力するものであり、タブレット3は、講義中の板書と同様に、講師が手書きデータを入力するためのものである。講師用コンピュータ1には、カメラ2からの映像をデスクトップ上に表示させるソフトウェアと、タブレット3からの手書き情報をデスクトップ上に描画するためのソフトウェアが予めインストールされる。これらのソフトウェアは、周知の技術により簡単に作成することができる。既に作成されたソフトウェアは、例えば、「COE e-Learning Tools」、<URL:http://coe-el.sfc.keio.ac.jp/>でダウンロードすることができる。このサイトからダウンロードされるソフトウェアは、カメラ2からの撮影動画像及びタブレット3からの手書き画像と1又は複数の講義用素材画像とを合成した合成画像データを生成するものである。
ここで生成される合成画像データは、複数の画像を重ね合わせたものでも、一部の画像を部分的に上書きしたものでも、それぞれの画像を所定の大きさの領域に配置したものでよい。ただし、カメラ2からの動画像については、講師撮影領域等の動体領域を認識し、認識した動体領域の画像のみが合成される。カメラ2からの動画像との合成処理については、後述する。また、合成する各アプリケーション画像(カメラ画像、手書き画像を含む。)の大きさは、任意であり、講師が変更可能である。
講師用コンピュータ1の外部モニタ出力端子(図示せず)には、デスクトップの画面を映像として図示しない大規模スクリーンに表示するためのプロジェクタ4が接続される。 スキャンコンバータ5は、講師用コンピュータ1の外部モニタ出力端子(図示せず)に接続され、この出力端子から出力されるデジタル信号を表示用画像信号の1つであるアナログビデオ信号に変換するものである。
録画用コンピュータ6は、スキャンコンバータ5で取得したアナログビデオ信号をビデオキャプチャボードにより入力し、既存のビデオキャプチャソフトを用いて動画ファイル、例えばWindows Media 形式(.WMV)にリアルタイムでエンコードする。Windows Media 形式の動画ファイルは、非常に軽量である。例えば、録画解像度を640pixels×480pixels、配信ビットレートを250bpsに設定すると、1時間あたりのファイル容量は約100MBである。録画解像度を640pixels×480pixelsで、講師用コンピュータ1の画面上の資料及びタブレット描画による板書は、問題なく判読可能である。 また、フレームレートは、10fps程度であり、講師の表情や板書の動き等を違和感なく閲覧することが可能である。録画用コンピュータ6の性能は、例えば、PentiumIV2.4GHzプロセッサ、メモリ1GB、ハードディスク容量180GBである。
マイクロホン7は、講師の音声信号取得するためのものであり、録画用コンピュータ6に接続される。録画用コンピュータ6は、動画ファイルの生成時に音声データの付加を行う。なお、図4では、マイクロホン7を録画用コンピュータ6に接続したが、講師コンピュータ1に接続し、講師用コンピュータ1で取得した音声データを録画用コンピュータ6に送ってもよい。
ビデオサーバ8は、録画用コンピュータ6で作成された動画ファイルがアップされ、ストリーミング配信するものである。ビデオサーバ8は、例えば、Windows 2000Server がインストールされたコンピュータであり、その性能は、Pentium III,750MHzプロセッサ、メモリ512MB、ハードディスク容量240GBである。
このような構成を有する講義ビデオを作成システムの動作について説明する。講義室には、予め、講師用コンピュータ1以外の機器が用意されている。講師は、講義用素材を記憶した自己のコンピュータ1のUSB端子にカメラ2、タブレット3を接続し、ビデオ出力端子にプロジェクタ4及びスキャンコンバータ5を接続する。そして、全ての機器を動作させ、講師用コンピュータ1に用意した講義資料表示用のアプリケーションを起動する。
講師は、このようなシステムの状態で講義を開始し、講師用コンピュータ1に必要な講義用資料を表示させながら講義を進める。講師用コンピュータ1の画像表示信号は、プロジェクタ4に送られるので、図示しない大規模スクリーンにも表示される。講師用コンピュータ1には、講義用資料の一部にカメラ2からの撮影画像が表示される。図5に、表示画像の一例を示す。図5は、表示画面400のほぼ大部分の領域に、プレゼンテーションソフトウェアによる表示画像410を表示させ、さらに表示画面400の右下部に講師の撮影映像420が表示されている状態を模式的に示したものである。図5に示すように、講師の撮影画像420は、講師の撮影領域(動体領域)のみが抽出されて合成されている。
講師用コンピュータ1の画像表示信号は、同時にスキャンコンバータ5に送られ、スキャンコンバータ5では、画像表示信号に基づくアナログビデオ信号が生成される。そして、生成されたアナログビデオ信号は、録画用コンピュータ6に送られ、デジタル動画ファイルに変換される。すなわち、アナログビデオ信号は、録画用コンピュータ6のビデオキャプチャボード(図示せず)を介して入力され、既存のビデオキャプチャソフトを用いてWindows Media 形式(WMV)のデジタル画像データにリアルタイムでエンコードされる。その際、マイクロホン7によって入力された音声信号も同時にデジタル化され、合わせて出力される。
録画用コンピュータ6で作成されたWindows Media 形式(WMV) の動画ファイルは、ビデオサーバ8にアップロードされる。そして、図示しないネットワークを介して講義ビデオの配信に供せられる。アップロードされる講義ビデオは動画ファイルであるので、ストリーム配信も可能であり、したがって、実際の講義とほぼ同時のライブ配信も可能であり、遠隔講義も実現できる。
次に、講師用コンピュータ1が行う画像合成処理について説明する。複数の画像信号の合成処理自体は既述のように周知のものであるので、ここでは、カメラ2からの動画像から講師撮影領域等の動体領域を抽出する技術を主体に説明する。
図1は、本発明の実施の形態の画像処理方法を説明する概略フロー図である。図1に示す処理は、講師用コンピュータ1が行う。
カメラ2からの撮影動画像に基づくデジタルフレームデータを、所定のレートで入力され(ステップS101)、輪郭抽出処理が施される(ステップS102)。輪郭抽出処理自体は、周知の技術であり、例えばラプラシアン演算が利用可能であり、輪郭が強調された画像が得られる。輪郭抽出処理が施されたフレームデータは、輪郭抽出フレーム画像201として蓄積されるとともに、ステップS103の輪郭差分演算の対象となる。なお、輪郭抽出処理は、入力されるすべてのフレームデータに対して行ってもよいが、所定間隔のフレームにのみ行ってもよい。輪郭抽出フレーム画像は、適宜のバッファメモリに蓄積され、順次更新される。
ステップS103では、ステップS102の輪郭抽出処理で生成された輪郭抽出フレーム画像と、蓄積された前フレームの輪郭抽出フレーム画像との差分を演算する。得られた差分画像は、撮影動画像の動体部分が強調された画像となる。また、差分演算の対象となる画像は輪郭が強調された画像であるので、単にフレーム間の差分演算を行ったものに比較して鮮明な画像が得られる。
ステップS104では、ステップS103の輪郭差分演算処理で生成された差分画像と前フレームで得られた動体抽出フレーム画像202とを合成し、現フレーム動体抽出フレーム画像を生成する。前フレームの動体抽出フレーム画像と合成する理由は、動体の動きが小さい場合でも精度よく動体抽出を行うためである。すなわち、撮影動画中の動体の動きが小さい場合、ステップS103の輪郭差分演算処理で生成された差分画像が不鮮明になるので、前フレームで生成した動体抽出フレーム画像を合成することにより、鮮明にするためである。後述するように、このステップで生成された動体抽出フレーム画像に基づいて、動体領域の合成を行うためのマスクデータを生成するので、動体の動きが小さいばあいでも、精度良く動体領域のみの抽出及び合成が可能となる。
現フレームの差分画像と蓄積された動体抽出フレーム画像との合成割合は、一定としてもよいし、現フレームの差分画像に応じて変化させてもよい(ステップS105の合成割合の調節処理)。変化させる場合、ステップS105で現フレームの差分画像の平均輝度を求め、その値に応じた合成割合制御情報203を利用する。具体的には、平均輝度値が低い場合は、動体の動きが小さく動体領域が精度よく認識できないので、前フレームの動体抽出フレーム画像の合成割合を相対的に大きくする。なお。ここでの合成割合は、その合計値を必ずしも「1」とする必要はない。例えば、現フレームの差分画像の合成割合を変化させず、前フレームの合成割合を変化させるようにする。
合成処理で得られた合成画像は、動体抽出フレーム画像202として適宜のバッファメモリに蓄積され、順次更新される。なお、ステップS104の差分画像合成処理は、省略も可能である。その場合、動体抽出フレーム画像202の蓄積及び合成割合の調節処理も省略される。
ステップS106では、ステップS104の差分合成処理で生成した動体抽出フレーム画像に基づいて、入力フレームにおける動体領域を識別するためのマスクデータを生成する。動体抽出フレーム画像は、動体領域の輪郭近傍が他の領域と比較して高輝度の画像であるので、所定の閾値より高輝度を示す領域に囲まれる部分を動体領域として認識し、マスクデータを生成する。
図2は、マスクデータ生成処理の一例を説明する図である。マスクデータ生成に際しては、動体抽出フレーム画像300を斜め方向の平行な走査線301a、301b、・・、301n、・・に沿って走査し、各画素の輝度値と閾値とを比較する。走査及び比較は、最初に最左上の走査線301aに沿って行い、次いで走査線301bに移り、最後の最右下の走査線301zに沿って行う。各走査線上の画素の輝度値の比較は、まず、走査直線の左下端(走査線301aの場合は、端部302a)から始め、閾値以上の画素が認識できた時点で、その画素にマークを付与し、走査を中止する。そして、同じ走査直線の右上端から再開し、同様に閾値以上の画素が認識できた時点に、その画素にマークを付与し、走査を中止する。なお、閾値以上の画素が認識できない場合は、左下端からの走査を最後まで行う。図2の例では、走査線301nに沿って端部302nから右上方向に、各画素の輝度値の比較を行った結果、画素303nで初めて閾値以上になってマークが付与されたことを示している。この場合、端部304nから左下方向に、画素値の比較を再開し、画素305nで初めて閾値以上になってマークが付与されている。なお、図2においては、走査方向及び非走査部を示すために、同一の走査線を実線と破線と中抜き線とで区別して示している。また、走査線の数も間引いて記載してある。
すべての走査線に沿った画素の輝度値の比較処理が終了すると、同一の走査線に沿った画素で、マークを付与した画素に挟まれる画素にもマークを付与する。図2の走査線301nの例では、画素303nと画素305nに挟まれる画素にもマークを付与する。そして、図3に示すようなマークを付与した画素位置を動体領域と認識したマスクデータを生成する。なお、動体領域と非動体領域の境界近傍の所定個数の画素については、別なマークを付与し、後述する動体抽出及び合成処理における合成割合の変更に利用してもよい。また、マスクデータが点データとして得られる場合(1つの走査直線において、1つの画素のみの輝度値が閾値以上である場合)は、ノイズとして動体領域とはしない。
ノイズの影響でマスクデータが点データとして得られる確率は、斜め方向に走査することによって高くなるので、斜め方向の走査が好ましい。このことは、例えば図2の点Aにおいて輝度値が閾値より大きくなった場合を想定すると明らかである。すなわち、斜め方向の走査では、この点はノイズとして簡単に除去できるが、縦方向又は横方向の走査の場合、縦又は横に線状のノイズがのることになる。ただし、走査処理自体は縦方向又は横方向の方が簡単であるので、縦方向又は横方向の走査を行ってもよい。
次いで、ステップS107では、ステップS101で入力されたフレーム画像から動体部分を抽出し、他の画像データと合成して合成画像を出力する。動体部分の抽出は、ステップS106で生成した図3に示すようなマスクデータを利用する。図3の例では、黒の部分の画素を動体領域の画素を認識してフレームデータから抽出し、他の画像データの該当部分の画素データを、抽出した画素データで置き換える。動体領域と非動体領域の境界近傍の画素に異なるマスクを利用する場合、境界領域の部分は、抽出した動体部分の画素データと他の画素データの画素データとを所定の比率で合成したデータとする。なお、他の画像データは、例えば、プレゼンテーションソフトウェアで生成された画像データであり、この画像データは、マスクデータ生成処理と平行して生成される(ステップS108)。
以上、本発明の画像処理方法をコンテンツ作成システムの一例である講義ビデオ作成システムに適用した例について説明したが、コンテンツ作成システムの他の例であるテレビ会議に適用することも可能である。
図6は、コンテンツ作成システムの他の例であるテレビ会議システムの概略構成を示す図である。図6のテレビ会議システムは、ネットワーク100を介して接続された会議用表示サーバ20、参加者用コンピュータ30、40、及び会議用表示サーバ20に接続された主参加者用コンピュータ10を含んで構成される。
主参加者用コンピュータ10は、会議の主参加者がテレビ会議端末として使用するコンピュータである。主参加者用コンピュータ10には、主参加者の映像を撮影するカメラ11、主参加者の音声を取得するマイクロホン12、主参加者の手書き情報を入力するタブレット13が接続されるとともに、プレゼンテーションソフトウェア等による会議資料の表示が可能とされる。そして、主参加者の撮影映像、タブレット13による手書き画像データ、会議資料データ、音声データは、直接会議用表示サーバ20に送られる。
参加者用コンピュータ30及び40は、会議の参加者がテレビ会議端末として使用するコンピュータである。図6では2台のコンピュータを記載してあるが、台数は任意である。参加者用コンピュータ30及び40には、参加者の映像を撮影するカメラ31及び41、参加者の音声を取得するマイクロホン32及び42、参加者の手書き情報を入力するタブレット33及び43が接続される。タブレット33及び43は省略が可能である。参加者の撮影映像、タブレット33及び43による手書き画像データ、マイクロホン32及び42で取得した音声データは、ネットワークを介して会議用表示サーバ20に送られる。
会議用表示サーバ20は、主参加者用コンピュータ10からの画像データと、参加者用コンピュータ30及び40からの画像データを合成し、合成した画像データに基づくアナログビデオ信号を生成し、さらに生成したアナログビデオ信号に基づくデジタル動画データを含む動画ファイルを生成する。ここで、参加者の撮影映像を合成する場合は、カメラ11、31、41からの動画像については、参加者講師撮影領域等の動体領域を認識し、認識した動体領域の画像のみが合成される。合成処理の手順は、先に説明したとおりである。
そして、生成した動画ファイルを主参加者用コンピュータ10に直接送信するとともに、ネットワーク100を介して参加者用コンピュータ30及び40に送信する。また、その際、合わせて、受信した音声データを生成した動画データとともに送信する。したがって、会議の参加者は、会議資料画像に各参加者の撮影画像が合成された画像を、それぞれのコンピュータに備えられた表示器(図示せず)によって見ることができる。
会議用表示サーバのアナログビデオ信号は、録画用コンピュータ50に送られ、録画用コンピュータ50では、アナログビデオ信号をビデオキャプチャボードにより入力し、既存のビデオキャプチャソフトを用いて動画ファイル、例えばWindows Media 形式(.WMV)にリアルタイムでエンコードする。同時に音声データも取得し、デジタル化する。録画用コンピュータ50で生成された音声データ付きビデオデータは、ビデオサーバ60にアップロードされ、会議のストリーム配信及び記録に利用される。
録画用コンピュータ50及びビデオサーバ60は、図4の講義ビデオ作成システムにおける録画用コンピュータ6及びビデオサーバ8と同様のものであるので、説明を省略する。
なお、会議用表示サーバ20、参加者用コンピュータ30及び40相互間の画像データ及び音声データの送受信は、既存のインターネットテレビ会議システムを利用して行う。 インターネット会議システムは、例えば、<URL:http://messenger.yahoo.co.jp/>や<URL:http://www.cybernet.co.jp/webex/>に示されるものが利用可能である。
タブレット13、33、43からの手書き情報を合成する場合、会議用表示サーバ20は、各コンピュータ10、30、40からのタブレット使用要求に応じていずれか1つのタブレットからの手書き情報をリアルタイムで合成する。
図6のテレビ会議システムでは、ネットワーク100に接続された会議用表示サーバ20が、受信した画像の合成、アナログビデオ信号の生成、デジタル画像データの生成を行うものとして記載したが、処理能力によっては、主参加者用コンピュータ10が実行しているプレゼンテーションソフトウェア等のアプリケーションプログラムの実行も行うようにしてもよい。
その場合、会議用表示サーバ20には、マルチユーザによる利用が可能となるターミナルサーバ機能が付加される。そして、ターミナルサーバのクライアントとしても動作する主参加者用コンピュータ10、参加者用コンピュータ30、40との間でリモートデスクトッププロトコル(RDP)でデータの送受信を行い、必要なアプリケーションプログラムの実行が行われる。このような構成とすると、テレビ会議の参加者が、それぞれ必要な会議資料の提示を制御することができる。
本発明の実施の形態の画像処理方法を説明するための概略フロー図 本発明の実施の形態の画像処理方法における動体領域の認識処理の一例を説明する図 本発明の実施の形態の画像処理方法におけるマスクデータの一例を示す図 本発明の実施の形態の講義ビデオ作成システムの概略構成を示す図 本発明の実施の形態の講義ビデオ作成システムにおける講義用コンピュータの表示画像の一例を示す図 本発明の実施の形態のテレビ会議システムの概略構成を示す図
符号の説明
1・・・講師用コンピュータ
2、11、31、41・・・カメラ
3、13、33、43・・・タブレット
4・・・プロジェクタ
5・・・スキャンコンバータ
6、50・・・録画用コンピュータ
7、12、32、42・・・マイクロホン
8、60・・・ビデオサーバ
10・・・主参加者用コンピュータ
20・・・会議用表示サーバ
30、40・・・参加者用コンピュータ
100・・・ネットワーク

Claims (9)

  1. コンピュータを用いてデジタル画像に対する処理を行う画像処理方法であって、
    入力動画像の各フレーム画像に対して輪郭抽出処理を行い、輪郭抽出フレーム画像を生成する輪郭抽出ステップと、
    前記輪郭抽出フレーム画像のフレーム間差分演算を行い、前記フレーム間差分演算を行って生成した差分画像と、動体画像バッファに蓄積されている前フレームの動体抽出フレーム画像とを合成し、その合成画像を現フレームの動体抽出フレーム画像として生成するするとともに、その合成画像によって前記動体画像バッファを更新する動体抽出ステップと、
    前記動体抽出フレーム画像に基づいて、前記入力動画像における動体領域を識別するマスクデータを生成するマスクデータ生成ステップと、
    前記マスクデータを利用して、前記入力動画像における動体領域画像を他の画像と合成する画像合成ステップとを備える画像処理方法であって、
    前記動体抽出ステップは、前記差分画像と前フレームの動体抽出フレーム画像との合成割合を前記差分画像の平均輝度値に応じて変更する画像処理方法。
  2. 請求項1項記載の画像処理方法であって、
    前記マスクデータ生成ステップは、前記動体抽出フレーム画像を、複数の走査直線に沿ってその走査直線の両側から走査するステップと、前記走査直線上の画素のうち、前記走査において最初に閾値以上となった画素間のすべての画素を含む領域を動体領域と認識するステップとを含む画像処理方法。
  3. 請求項2記載の画像処理方法であって、
    前記複数の走査直線は、斜め方向の直線である画像処理方法。
  4. 請求項1ないし3のいずれか1項記載の画像処理方法であって、
    前記マスクデータ生成ステップは、前記動体領域の輪郭近傍の合成割合を減少させたマスクデータを生成する画像処理方法。
  5. 請求項1ないし4のいずれか1項記載の画像処理方法における各ステップを、コンピュータに実行させるための画像処理プログラム。
  6. 請求項5記載の画像処理プログラムをインストールしたコンピュータを含む画像処理装置。
  7. 請求項5記載の画像処理プログラムをインストールしたコンピュータと、
    前記コンピュータによる前記画像合成ステップで得られた合成画像データに基づく表示用合成画像信号を生成するビデオ信号生成手段と、
    前記表示用合成画像信号に基づくデジタル動画データを含む動画ファイルを生成する動画ファイル生成手段とを備えるコンテンツ作成システム。
  8. 請求項7記載のコンテンツ作成システムを利用して生成した前記動画ファイルを講義ビデオとして出力する講義ビデオ作成システム。
  9. 請求項7記載のコンテンツ作成システムを利用して生成した前記デジタル動画データを、テレビ会議参加者の端末装置に配信する手段を備えるテレビ会議システム。
JP2004334336A 2004-11-18 2004-11-18 画像処理方法、画像処理装置、及びコンテンツ作成システム Expired - Fee Related JP4649640B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004334336A JP4649640B2 (ja) 2004-11-18 2004-11-18 画像処理方法、画像処理装置、及びコンテンツ作成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004334336A JP4649640B2 (ja) 2004-11-18 2004-11-18 画像処理方法、画像処理装置、及びコンテンツ作成システム

Publications (2)

Publication Number Publication Date
JP2006148425A JP2006148425A (ja) 2006-06-08
JP4649640B2 true JP4649640B2 (ja) 2011-03-16

Family

ID=36627606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004334336A Expired - Fee Related JP4649640B2 (ja) 2004-11-18 2004-11-18 画像処理方法、画像処理装置、及びコンテンツ作成システム

Country Status (1)

Country Link
JP (1) JP4649640B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243365B2 (ja) * 2009-08-10 2013-07-24 日本電信電話株式会社 コンテンツ生成装置,コンテンツ生成方法およびコンテンツ生成プログラム
EP2718840A4 (en) * 2011-06-08 2015-03-04 Vidyo Inc SYSTEMS AND METHODS FOR ENHANCING INTERACTIVE CONTENT SHARING IN VIDEO COMMUNICATION SYSTEMS
JP5949481B2 (ja) 2012-03-14 2016-07-06 富士通株式会社 画像処理方法、プログラム及び装置
GB2517730A (en) * 2013-08-29 2015-03-04 Mediaproduccion S L A method and system for producing a video production
JP2015072627A (ja) * 2013-10-03 2015-04-16 株式会社リコー 画像処理装置及び画像合成方法
JP6623876B2 (ja) 2016-03-24 2019-12-25 富士通株式会社 描画処理装置、方法、及びプログラム
WO2018008077A1 (ja) * 2016-07-05 2018-01-11 三菱電機株式会社 画像投影装置
CN114694434B (zh) * 2020-12-28 2023-12-01 康立 基于深度学习的视频教学课程智能生成方法及系统
CN113538270A (zh) * 2021-07-09 2021-10-22 厦门亿联网络技术股份有限公司 一种人像背景虚化方法和装置
WO2024089725A1 (ja) * 2022-10-24 2024-05-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066086A (ja) * 1996-08-19 1998-03-06 Nec Off Syst Ltd 動画像処理方式
JP2000224410A (ja) * 1998-08-31 2000-08-11 Hitachi Software Eng Co Ltd 画像合成装置および画像合成方法
JP2002190029A (ja) * 2000-12-21 2002-07-05 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066086A (ja) * 1996-08-19 1998-03-06 Nec Off Syst Ltd 動画像処理方式
JP2000224410A (ja) * 1998-08-31 2000-08-11 Hitachi Software Eng Co Ltd 画像合成装置および画像合成方法
JP2002190029A (ja) * 2000-12-21 2002-07-05 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置

Also Published As

Publication number Publication date
JP2006148425A (ja) 2006-06-08

Similar Documents

Publication Publication Date Title
JP4763312B2 (ja) 動画像データの符号化方法、復号化方法、これらを実行する端末装置、及び双方向対話型システム
JP2009510877A (ja) 顔検出を利用したストリーミングビデオにおける顔アノテーション
KR100889367B1 (ko) 네트워크를 통한 가상 스튜디오 구현 시스템 및 그 방법
JP2006197505A (ja) カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
WO2007019514A3 (en) Network panoramic camera system
US8467509B2 (en) Video displaying apparatus, video displaying system and video displaying method
JP7249766B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP4649640B2 (ja) 画像処理方法、画像処理装置、及びコンテンツ作成システム
JP2011527841A (ja) 画像処理装置およびそれを用いた撮像装置
KR20110052933A (ko) 촬영장치 및 촬영영상 제공방법
JP7334470B2 (ja) 映像処理装置、ビデオ会議システム、映像処理方法、およびプログラム
US20180268819A1 (en) Communication terminal, communication method, and computer program product
CN114531564A (zh) 处理方法及电子设备
JP2006014119A (ja) 撮影画像送受信システム
JP4565232B2 (ja) 講義ビデオ作成システム
JP2004266670A (ja) 撮像装置及び方法、画像情報提供システム並びにプログラム
CN110913118A (zh) 视频处理方法、装置及存储介质
US20230292011A1 (en) Information processing system, image-capturing device, and display method
KR102029604B1 (ko) 실시간 방송 편집 시스템 및 편집 방법
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
JP2004007283A (ja) 映像配信システム、プログラム及び記録媒体
JP2011066745A (ja) 端末装置、通信方法および通信システム
JP7026839B1 (ja) リアルタイムデータ処理装置
WO2023189520A1 (ja) 情報処理システム、情報処理方法、及び、プログラム
JP2008228014A (ja) 映像会議システム、会議映像処理方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071025

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101124

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees