JP2004164668A - 画像生成装置及び画像生成方法 - Google Patents
画像生成装置及び画像生成方法 Download PDFInfo
- Publication number
- JP2004164668A JP2004164668A JP2004008934A JP2004008934A JP2004164668A JP 2004164668 A JP2004164668 A JP 2004164668A JP 2004008934 A JP2004008934 A JP 2004008934A JP 2004008934 A JP2004008934 A JP 2004008934A JP 2004164668 A JP2004164668 A JP 2004164668A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- effect
- managing
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【課題】 表現力の豊かな画像生成処理を行う。
【解決手段】 画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理する対象物固有情報管理手段51と、前記対象物の固有情報に基づき、前記対象物の演出効果を管理することを特徴とする画像生成装置である。
【選択図】 図10
【解決手段】 画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理する対象物固有情報管理手段51と、前記対象物の固有情報に基づき、前記対象物の演出効果を管理することを特徴とする画像生成装置である。
【選択図】 図10
Description
本発明は表現力の豊かな画像合成を行う画像生成装置および方法に関するものである。
従来より、自分側空間の風景の画像中から、例えば人物画像を抽出し、その画像と相手側から送られてきた人物画像と予め記憶されている相手側と共通的に表示する仮想的な空間の画像とを重畳して表示することにより、相手が自分の前にいるという実在感を充足し、臨場感のある映像通信を目指したものがある(特許文献1、非特許文献1、非特許文献2)。
従来の技術では、オフィスでの利用を考えた会議システムのような各端末間の性能や通信容量がほぼ対等な通信環境を前提に画像合成を応用した画像通信サービスを提供するためのシステムが考えられてきた。従って、各端末間の性能が大きく異なり、端末間の通信容量が大きく異なるCATVのような通信環境下を前提にした画像合成を応用した画像通信システムについては考慮されていない。
従来技術では、Ethernet(R)やN−ISDNのような通信帯域が狭いシステムを対象としていたため、動画情報を活用したような表現力豊かな画像合成は実現されていなかった。また、センター側端末から家庭側端末への通信容量が大きく、逆方向の通信容量は小さい、双方向CATVにおいては、従来、映画やゲームなどの既存のパッケージソフトを利用者の要求に応じてセンター側端末から家庭側端末へ伝送する用途が多かった(双方向CATVの通信特性を活かした画像合成の通信方式は考慮されていない)。なお、本発明で考慮している通信形態は、有線の双方向CATVだけではなく、センター側端末(放送局)から家庭側端末への映像や音声の伝送は電波(例えば、VHF帯、UHF帯)で、センター側端末と家庭側端末との制御データのやり取りはアナログの電話回線やN−ISDNであってもよい。
また、従来の技術では、あらかじめ家庭側端末に前景を作成するイメージ情報で表現された前景画像部品(例えば、人物キャラクタ)と背景画像(同様に、イメージ情報で表現される風景になるような”山や太陽”)をCD−ROMなどに持たせている(前景と背景の区別はシステム設計者が予め決定しておく)。ある家庭側端末から利用者が前景情報や背景情報を操作するコマンド要求を発生させれば、アナログの電話回線のような低速の通信回線を使って、センター側端末などを経由して、他の利用者の家庭側端末に表示されている前景情報と背景情報をコマンド要求に応じて変更させる(コマンドのみのやり取り)。従って、本発明で実現しているような動画情報を有効に利用した、CATVの通信特性を利用した動きのある臨場感のある画像通信システムは実現できていない。
さらに、従来の技術では画像の合成方法は利用者がキーボードやマウスといった入力デバイスを用いて、利用者が明示的に操作する必要があったため、利用者の端末の利用状況に応じた画像合成を行うのは十分ではなかった。
特公平4―24914号公報
「ハイパーメディア パーソナル コンピュータ コミュニケーション システム」(Fukuda, K., Tahara, T., Miyoshi, T.:"Hypermedia Personal Computer Communication System: Fujitsu Habitat", FUJITSU Sci. Tech.J., 26, 3, pp.197-206(October 1990).)
中村:「ネットワーク対応仮想現実感による分散協同作業支援」、情報処理学会オーディオビジュアル複合情報処理研究会(1993)
従来の手法では、表現力の豊かな画像合成を活用した画像通信サービスが実現できていないという課題がある。
本発明の目的は、表現力の豊かな画像合成が可能な画像生成装置を実現することを目的とする。
本発明は、画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、前記対象物の演出効果を管理するものである。
また、画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールおよび位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物の位置情報に応じた前記対象物の演出効果を管理するものである。
また、少なくとも1つ以上の前景画像と少なくとも1つ以上の背景画像を合成するとともに、画像の演出を行う画像生成装置であって、合成画像を作成する対象物の位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物間の位置情報を管理する対象物間位置情報管理手段と、前記対象物間の位置情報に基づき、対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理手段と、これら各手段を制御する画像合成制御手段とを具備し、前記対象物相互干渉情報管理手段は、前記相互干渉の情報に応じた演出効果を管理するものである。
以上のように、本発明によれば、表現力の豊かな画像合成を実現することが可能である。
本発明の第1の実施形態は、画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、前記対象物の演出効果を管理するものである。
本発明の第2の実施形態は、画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールおよび位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物の位置情報に応じた前記対象物の演出効果を管理するものである。
本発明の第3の実施形態は、少なくとも1つ以上の前景画像と少なくとも1つ以上の背景画像を合成するとともに、画像の演出を行う画像生成装置であって、合成画像を作成する対象物の位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物間の位置情報を管理する対象物間位置情報管理手段と、前記対象物間の位置情報に基づき、対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理手段と、これら各手段を制御する画像合成制御手段とを具備し、前記対象物相互干渉
情報管理手段は、前記相互干渉の情報に応じた演出効果を管理するものである。
情報管理手段は、前記相互干渉の情報に応じた演出効果を管理するものである。
好ましくは、上記実施形態において、映像の特徴量を抽出する映像特徴量抽出手段を具備し、前記映像の特徴量に基づいて、前記演出効果を管理するものである。
更に好ましくは、映像特徴量抽出手段が、映像の色相情報を調べる色相特徴量抽出手段と、映像の輝度情報を調べる輝度特徴量抽出手段と、映像の彩度情報を調べる彩度特徴量抽出手段のうち、少なくとも1つ以上の映像の特徴量を抽出する手段を具備するものである。
また好ましくは、上記実施形態において音声の特徴量を抽出する音声特徴量抽出手段を具備し、前記音声特徴量に基づいて、前記演出効果を管理するものである。
更に好ましくは、音声特徴量抽出手段が、音声の大きさを調べる音量抽出手段と、音声のピッチを調べる音声ピッチ抽出手段と、利用者の発話命令を調べる発話命令抽出手段のうち、少なくとも1つ以上の音声の特徴量を抽出する手段から構成されるものである。
本発明の第4の実施形態は、画像を合成するとともに、前記画像の演出を行う画像生成方法であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理し、前記対象物の固有情報に基づき、前記対象物の演出を行う画像生成方法である。
本発明の第5の実施形態は、画像を合成するとともに、前記画像の演出を行う画像生成方法であって、合成画像を作成する対象物の演出ルールおよび位置情報を含む固有情報を管理し、前記対象物の固有情報に基づき、対象物の位置情報に応じた前記対象物の演出を行う画像生成方法である。
本発明の第6の実施形態は、少なくとも1つ以上の前景画像と少なくとも1つ以上の背景画像を合成するとともに、画像の演出を行う画像生成方法であって、画像を作成する対象物の位置情報を含む固有情報を管理するとともに、対象物間の位置情報を管理し、前記対象物間の位置情報に基づき、対象物間の相互干渉の情報を管理し、前記相互干渉の情報に応じた演出を行う画像生成方法である。
(実施例)
以下、本発明の実施例について図面を参照して説明する。図1は本発明の一実施例における画像合成装置の概略構成図である。図1の構成は、CATVを対象とした場合、センター側端末(端末支援装置102)で画像合成に関する情報を集中して管理、画像合成を行い、家庭側端末(端末装置101)へ、画像合成された情報を映像で送信を行うための集中管理型のシステム構成図に相当する。
(実施例)
以下、本発明の実施例について図面を参照して説明する。図1は本発明の一実施例における画像合成装置の概略構成図である。図1の構成は、CATVを対象とした場合、センター側端末(端末支援装置102)で画像合成に関する情報を集中して管理、画像合成を行い、家庭側端末(端末装置101)へ、画像合成された情報を映像で送信を行うための集中管理型のシステム構成図に相当する。
画像合成端末装置101を構成する入出力部11は、カメラ、スキャナー、キーボード、マウス、デジタイザ、タッチパネル、ライトペン、タブレット、マイク、ディスプレイ、スピーカー、プリンタ等の入出力装置である。
伝送部12は、LAN、CATV、モデム、デジタルPBX等の伝送装置である。端末制御部13は入出力部11と伝送部12を制御、管理する手段から構成される。
前景画像を作成する前景画面作成部14と、背景画像を作成する背景画面作成部15と、前景画像を作成するための情報を管理するための前景画面作成情報管理部16と、背景画像を作成するための情報を管理するための背景画面作成情報管理部17と、前景画像と背景画像を合成し画像を生成する画面合成部18と、情報の伝送を行う伝送部19の各部を制御する端末支援制御部20とを具備する端末支援装置102が、先の端末装置101
を少なくとも1つ以上、制御、管理する。
を少なくとも1つ以上、制御、管理する。
尚、先の前景画面作成情報管理部16および背景画面作成情報管理部17は、磁気ディスク、VTR、光ディスク等の装置である。また、前景画面作成情報管理部16および背景画面作成情報管理部17で管理させる情報は、具体的には、それぞれ、前景画像の情報(例えば、人物キャラクタ、”人間や鳥”)と、背景画像の情報(例えば、風景になるような”山や太陽”のイメージ、動画情報、CG)を管理させる。なお、前景情報と背景情報の区別はシステム設計者が用途に併せて予め決定しておく。なお、本発明で考慮している通信形態は、有線の双方向CATVだけではなく、センター側端末(放送局)から家庭側端末への映像や音声の伝送は電波(例えば、VHF帯、UHF帯)で、センター側端末と家庭側端末との制御データのやり取りはアナログの電話回線やN−ISDNであってもよい。
図2は本発明の一実施例における分散管理型の画像合成装置の概略構成図である。図2の構成は、CATVを対象とした場合に、センター側端末(端末支援装置202)での画像合成の処理を行わずに、それぞれの家庭側端末(端末装置201)で画像合成を行うことにより、センター側端末でのシステムの負荷を軽減することを目的とした分散管理型のシステム構成図に相当する。また、図1の構成に比べ、背景画像を映像で送り、各端末装置201で個別に画像合成を行うため、各利用者の利用状況に応じた、表現力豊かな動きのある画像合成が可能となる。逆に、端末装置201で画像合成の処理が必要となるため、端末装置201側で図1の端末装置に比べ高い処理能力が必要とされる。
画像合成端末装置201を構成する入出力部21は、カメラ、スキャナー、キーボード、マウス、デジタイザ、タッチパネル、ライトペン、タブレット、マイク、ディスプレイ、スピーカー、プリンタ等の入出力装置である。また、伝送部22は、LAN、CATV、モデム、デジタルPBX等の伝送装置である。
前景画像を作成する前景画面作成部23と、前景情報を管理するための前景画面作成情報管理部24と、前景画像と、端末支援装置202から映像情報として送られてくる背景画像を合成する画面合成部25と、これら各部を制御、管理する端末制御部26から構成される。また、端末支援装置202は、背景画像を作成する背景画面作成部27と、背景画像を作成するための情報を管理するための背景画面作成情報管理部28と、情報の伝送を行う伝送部29の各部を制御する端末支援制御部30とを具備する端末支援装置202が、先の端末装置201を少なくとも1つ以上、制御、管理する。
尚、先の前景画面作成情報管理部24及び背景画面作成情報管理部28は、磁気ディスク、VTR、光ディスク等の装置である。図1と同様に、本発明で考慮している通信形態は、有線の双方向CATVだけではなく、センター側端末(放送局)から家庭側端末への映像や音声の伝送は電波(例えば、VHF帯、UHF帯)で、センター側端末と家庭側端末との制御データのやり取りはアナログの電話回線やN−ISDNであってもよい。
図3は画像合成を集中して行う方法と分散して行う方法を説明する図である。図の例では、”太陽”、”山”の画像部品は背景画像であり、”人”、”鳥”の画像部品は前景画像である。(a)は集中して画像合成を行う方式であり、それぞれの画像部品は端末支援装置で合成される。合成された画像情報は映像情報として端末装置へ伝送される。(b)は分散して画像合成を行う方式であり、背景画像部品は映像情報として端末支援装置から端末装置へ伝送される。伝送された背景画像の映像は、各端末装置にて、端末装置から取り込まれた前景画像部品と合成されるか、他の端末装置や端末支援装置から伝送された前景画像部品と合成される。
図4は前景部品と背景部品の伝送方法について説明する図である。図に示すように(a)の集中型の画像合成方式においては前景部品は端末装置(端末)から端末支援装置(センター端末)へ伝送されるか、端末支援装置で管理されるかのどちらかである。先に述べたように、前景部品と背景部品は端末支援装置で映像情報として作成され、各端末装置へ伝送される。(b)の分散型の画像合成方式においては、端末支援装置から端末装置へ背景画像を映像情報で伝送を行った情報と、自らの端末装置が保有する前景部品、他の端末装置から伝送されてきた前景部品、もしくは、端末支援装置から各端末装置へ送信してきた前景部品と画像合成を行う。(c)の分散型の画像合成においては、背景画像情報は端末支援装置から各端末装置へ映像情報として配信される。また、前景画像部品の情報は、端末支援装置を経由せずに端末装置間をループ状に情報が伝送される。分散型と集中型の大きな違いは、先に述べたように、端末支援装置にかかる画像合成のための負荷の違いである。
また、(b)と(c)の違いは、(c)の場合、(b)に比べ、端末支援装置へ前景部品が伝送されないので、端末支援装置への負荷が小さくなる。その反面(c)の場合には、新たに端末装置が画像合成の処理中に追加したり、削除したりするために手間がかかる。そこで、各端末間が有する前景部品を一貫性を保って、端末装置を途中参加、削除するために、適宜、例えば、一定時間毎や、端末装置が追加された時、削除された時に各端末装置が管理する前景部品の状態を端末支援装置が比較、調整することにより手間が低減できる。ただし、各端末装置が管理する前景部品の状態を比較、調整を端末支援装置が行うのではなく、端末装置間でもちまわりで行う方法によっても実現できる(端末支援装置の役割を果たす端末装置を決めておけばよい)。(c)は、特に、片方向のCATVと、既存のLANやISDNといった異種のネットワークを融合して利用する場合には有効である。
図5は、画面合成部の構成について説明する図である。図1および図2で説明した画像合成部は、画像を作成する対象物の固有情報を管理する対象物固有情報管理部51と、対象物間の位置情報を管理する対象物間位置情報管理部52と、対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理部53と、これら各部を制御する画像合成制御部54の各部から構成される。具体的な管理情報は以下で説明する。
図6〜図10は、画像を作成する対象物の固有情報を管理する対象物固有情報管理部が管理する情報について説明する図である。図6の例では管理される情報としては、前景部品の情報が管理され(前景画面作成情報管理部が記憶、管理する情報と同じ)、キャラクタ名(前景部品の名称)、キャラクタID、キャラクターの大きさ、中心座標(キャラクターの重心座標)、キャラクターの振る舞い方(演出ルール)のそれぞれの情報が管理されている。図7は、図6で管理されている情報を視覚的に表現したものである。
図8の例では、背景画像の情報が管理され(背景画面作成情報管理部が記憶、管理する情報と同じ)、背景画像名、背景画像ID、背景画像としての演出効果の内容を示す演出コードの各情報が管理されている。図8の例では、キャラクター間の衝突や遭遇時の演出効果を表現する画像情報を背景画像の情報として管理されているが、図9に示した例では、図6の例とは逆に前景部品の情報として管理している。従って、図10に示した例では、ロボットと石は前景部品の情報として管理される。なお、図に示したように、衝突時の効果が前景情報であるか、背景情報であるかは、アプリケーションを設計時に、適宜、システム設計者の目的に応じて管理すればよい。なお、利用者が前景画像部品として登録した情報とともに、同様に、利用者が演出の効果を高める目的で効果音を演出のための情報として登録してもよい。
図11〜図14は、対象物間の位置情報を管理する対象物間位置情報管理部について説
明する図である。対象物間位置情報管理部が管理する具体的な管理情報について述べる。図の例では、現在利用されている前景部品のキャラクターIDと、現在キャラクターが存在する座標位置が管理されている。図には示していないが、背景画像の座標位置の管理も同様の要領で実現できる。尚、前景画像や背景画像を3次元情報として構築してもよく、その場合には、奥行き情報を考慮すればよい(2次元の情報を対象としてもキャラクタ間の重なり状態を考慮して、3次元CGなどと同様に、奥行きを考慮すればよい。2つのキャラクターが重なっていても衝突していない状況は作れる。)。
明する図である。対象物間位置情報管理部が管理する具体的な管理情報について述べる。図の例では、現在利用されている前景部品のキャラクターIDと、現在キャラクターが存在する座標位置が管理されている。図には示していないが、背景画像の座標位置の管理も同様の要領で実現できる。尚、前景画像や背景画像を3次元情報として構築してもよく、その場合には、奥行き情報を考慮すればよい(2次元の情報を対象としてもキャラクタ間の重なり状態を考慮して、3次元CGなどと同様に、奥行きを考慮すればよい。2つのキャラクターが重なっていても衝突していない状況は作れる。)。
図12は、背景画像と前景画像との衝突判定を行う具体的な例を示したものである。図示した例は、鳥が木に衝突するかを判定する例である。鳥は前景部品として、木は背景部品として管理され、大きさや部品の中心座標などの部品固有の情報は先に述べた対象物固有情報管理部で管理されている。また、現在のそれぞれの画像部品の状態が図11で説明した対象物間位置情報管理部にて管理されている。図の例では、対象物間の接近距離の測定は、それぞれの部品の中心座標に基づいて行っている。接近距離がある一定より小さくなると衝突と判定して、図15で述べる対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理部の衝突時の画面上の演出効果のルールに基づき、一連の画面上の演出効果を実現する。
なお、図に示したように前景部品や背景部品は動画であってもよい。また、背景画像全体を映像情報とした場合、カメラから取り込んだ映像(図13に示すように利用者が自由にカメラの制御が可能なものであってもよい)や映像情報の一部をクリッピング(切り出す)した映像(例えば、図14に示した映像)や、VTRなどに記録されている映像などで、各映像シーンの特定の領域(例えば、”山”、”太陽”、”木”に関する映像が記録されているものであれば、特に”木”が撮影されている領域)に、衝突判定すべき背景画像が存在するというアトリビュート(属性)を各映像シーンに対応させて記録、管理させることにより、背景が映像であっても前景部品との衝突判定処理は実現できる。
図15は、対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理部について説明する図である。図の例では、(a)前景画像もしくは背景画像の画面上での演出効果について管理されている。(a)の情報を元に、時間軸を考慮して、画面上での前景画像もしくは背景画像の一連の時間的に流れのある演出ルールを定義している。例えば、pat#1の場合は、遭遇時(対象物間の接近距離が一定以下になったとき)は「爆発」、更に衝突時(予めアプリケーションで決めた接近距離の限界値より小さくなったとき)には「倒れる」の演出を行う。
図16,図17,図18は、端末間での時間的な経過を含めた具体的な情報のやり取りについて説明した図である。なお、図16から図18の方式は、先の図4に示した(a)から(c)の方式に対応する。
図16に示す集中して画像合成を行う集中管理型の方式においては、例えば、端末装置A(端末A)が送信した前景画像(例えば、自らの人物像、顔画像、似顔絵、3次元CG、映像など)を端末支援装置にて受信、背景画像(静止画像、3次元CG、映像など)と合成を行い、合成結果を各端末へ映像情報として伝送している。特に、自らの顔画像を画像合成の情報として利用することにより、利用者の利用意欲は高まる。また、前景部品を操作するコマンド(例えば、”移動(右)”といった端末装置と端末支援装置間で予め取り決めを行って、前景部品を操作するための命令)が端末Bから端末支援装置へ伝送され、前景部品を操作するコマンドに従い、前景部品を操作し、操作された前景部品画像と背景画像とともに端末支援装置で合成され、各端末装置へ伝送される。なお、背景画像と前景画像、前景画像同士の衝突判定などは前述の方法で処理が各端末支援装置で集中して行われる。
図17の分散して画像合成を行う方式では、例えば、端末Aから端末支援装置に前景画像が送信され、各端末へ送信される。また、端末支援装置から前景部品が各端末装置へ伝送される。各端末装置では端末支援装置から伝送されてくる背景の映像情報とともに画像合成を行う。さらに、端末Bから前景部品を操作する操作要求が発生すれば、端末支援装置を経由して、各端末装置へ伝送される。なお、背景画像と前景画像、前景画像同士の衝突判定などは前述の方法で処理が各端末装置で分散して行われる。
図18の分散して画像合成を行う方式では、例えば、端末Bから前景部品が伝送されれば、予めシステムで取り決めたルート(各端末は、どの端末に情報を送り、どの端末から情報が来るかを記憶、管理している。FDDIのようなトークンリング的な通信形態)で端末支援装置を介さずに前景部品が順番に伝送されてゆく。また、前景部品に対する操作に関しても、端末支援装置を介さずに操作コマンドが順番に伝送されてゆく。なお、背景画像と前景画像、前景画像同士の衝突判定などは前述の方法で処理が各端末装置で分散して行われる。
図19、図20は、端末支援装置や端末装置でやり取りされる情報の具体例を説明した図である。図19に示すように、端末間でやり取りされる情報としては、例えば、送信先、送信元、キャラクタID(前景部品もしくは背景部品)、コマンドID(部品の操作ID)、コマンドの引数から構成される。具体的なコマンドとしては、図20に示すように、コマンド名、コマンドID、コマンド引数、コマンドの実行内容といった情報が管理されている。
図21は、映像特徴量抽出部について説明する図である。映像の特徴量の抽出は図1の構成では、端末支援装置102の端末支援制御部20で集中して行われる。また、図2の構成では、端末装置201の端末制御部26で分散して映像の特徴量の抽出が行われる。映像の特徴量の抽出を行う映像特徴量抽出部は、映像の色相情報を調べる色相特徴量抽出部1901と、映像の輝度情報を調べる輝度特徴量抽出部1902と、映像の彩度情報を調べる彩度特徴量抽出部1903、映像の特徴量を抽出する各部を制御、管理する映像特徴量抽出制御部1904から構成される。映像の特徴量の変化と、図15で述べた演出効果との関係を定量化するすることにより、利用者がキーボードやマウスといった入力デバイスを用いて、利用者が明示的に操作をしないで、利用者の端末の利用状況に応じた画像合成を行うことが可能となる。例えば、画像合成を用いた通信カラオケや教育などで、利用者の動きに合わせた、前景部品や背景部品の演出を行うことができる(例えば、画面が乱れる、画面がフラッシュするなど)。
図22は、音声特徴量抽出部について説明する図である。音声の特徴量の抽出は図1の構成では、端末支援装置102の端末支援制御部20で集中して行われる。また、図2の構成では、端末装置201の端末制御部26で分散して音声の特徴量の抽出が行われる。音声の特徴量の抽出を行う音声特徴量抽出部は、音の大きさを調べる音の大きさ検出部2001と、音のピッチを調べる音声ピッチ抽出部2002、利用者の発話命令を調べる発話命令抽出部2003と、これら各部を制御、管理する音声特徴量抽出制御部2004から構成される。音のピッチ検出にあたっては、例えばマイクで拾われた音声信号にローパスフィルタを通して、倍音部分を除去してからサンプリング周波数20kHzでA/D変換して12ビットのデジタルデータとして、基本周期を計算する。基本周期はあらかじめ設定したしきい値以上の振幅のピーク間の時間を測定して求めればよい。図21でも述べたように、音声の特徴量の変化と、図15で述べた演出効果との関係を定量化するすることにより、利用者がキーボードやマウスといった入力デバイスを用いて、利用者が明示的に操作をしないで、利用者の端末の利用状況に応じた画像合成を行うことが可能となる。また、先に示した音声の特徴量以外に、音のリズム、音色といった音声の特徴量を利用す
ることも考えられる。先と同様に、画像合成を用いた通信カラオケや教育などで、利用者の動きに合わせた、前景部品や背景部品の演出を行うことができる。
ることも考えられる。先と同様に、画像合成を用いた通信カラオケや教育などで、利用者の動きに合わせた、前景部品や背景部品の演出を行うことができる。
本発明は、表現力の豊かな画像合成を活用した画像通信サービスを実現することが可能である。
11 入出力部
12 伝送部
13 端末制御部
14 前景画面作成部
15 背景画像作成部
16 前景画面作成情報管理部
17 背景画面作成情報管理部
18 画面合成部
19 伝送部
20 端末支援制御部
101 端末装置
102 端末支援装置
12 伝送部
13 端末制御部
14 前景画面作成部
15 背景画像作成部
16 前景画面作成情報管理部
17 背景画面作成情報管理部
18 画面合成部
19 伝送部
20 端末支援制御部
101 端末装置
102 端末支援装置
Claims (10)
- 画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、前記対象物の演出効果を管理することを特徴とする画像生成装置。
- 画像を合成するとともに、前記画像の演出を行う画像生成装置であって、合成画像を作成する対象物の演出ルールおよび位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物の位置情報に応じた前記対象物の演出効果を管理することを特徴とする画像生成装置。
- 少なくとも1つ以上の前景画像と少なくとも1つ以上の背景画像を合成するとともに、画像の演出を行う画像生成装置であって、合成画像を作成する対象物の位置情報を含む固有情報を管理する対象物固有情報管理手段と、前記対象物の固有情報に基づき、対象物間の位置情報を管理する対象物間位置情報管理手段と、前記対象物間の位置情報に基づき、対象物間の相互干渉の情報を管理する対象物間相互干渉情報管理手段と、これら各手段を制御する画像合成制御手段とを具備し、前記対象物相互干渉情報管理手段は、前記相互干渉の情報に応じた演出効果を管理することを特徴とする画像生成装置。
- 映像の特徴量を抽出する映像特徴量抽出手段を具備し、前記映像の特徴量に基づいて、前記演出効果を管理することを特徴とする請求項1から3いずれかに記載の画像生成装置。
- 前記映像特徴量抽出手段は、映像の色相情報を調べる色相特徴量抽出手段と、映像の輝度情報を調べる輝度特徴量抽出手段と、映像の彩度情報を調べる彩度特徴量抽出手段のうち、少なくとも1つ以上の映像の特徴量を抽出する手段を具備することを特徴とする請求項4記載の画像生成装置。
- 音声の特徴量を抽出する音声特徴量抽出手段を具備し、前記音声特徴量に基づいて、前記演出効果を管理することを特徴とする請求項1から5いずれかに記載の画像生成装置。
- 前記音声特徴量抽出手段は、音声の大きさを調べる音量抽出手段と、音声のピッチを調べる音声ピッチ抽出手段と、利用者の発話命令を調べる発話命令抽出手段のうち、少なくとも1つ以上の音声の特徴量を抽出する手段から構成されることを特徴とする請求項6記載の画像生成装置。
- 画像を合成するとともに、前記画像の演出を行う画像生成方法であって、合成画像を作成する対象物の演出ルールを含む固有情報を管理し、前記対象物の固有情報に基づき、前記対象物の演出を行う画像生成方法。
- 画像を合成するとともに、前記画像の演出を行う画像生成方法であって、合成画像を作成する対象物の演出ルールおよび位置情報を含む固有情報を管理し、前記対象物の固有情報に基づき、対象物の位置情報に応じた前記対象物の演出を行うことを特徴とする画像生成方法。
- 少なくとも1つ以上の前景画像と少なくとも1つ以上の背景画像を合成するとともに、画像の演出を行う画像生成方法であって、画像を作成する対象物の位置情報を含む固有情報を管理するとともに、対象物間の位置情報を管理し、前記対象物間の位置情報に基づき、対象物間の相互干渉の情報を管理し、前記相互干渉の情報に応じた演出を行うことを特徴とする画像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004008934A JP2004164668A (ja) | 2004-01-16 | 2004-01-16 | 画像生成装置及び画像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004008934A JP2004164668A (ja) | 2004-01-16 | 2004-01-16 | 画像生成装置及び画像生成方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23102894A Division JP3533717B2 (ja) | 1994-09-27 | 1994-09-27 | 画像合成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004164668A true JP2004164668A (ja) | 2004-06-10 |
Family
ID=32821942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004008934A Pending JP2004164668A (ja) | 2004-01-16 | 2004-01-16 | 画像生成装置及び画像生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004164668A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010103963A1 (ja) * | 2009-03-10 | 2010-09-16 | ソニー株式会社 | 情報処理装置および方法、並びに情報処理システム |
US7843511B2 (en) | 2004-11-26 | 2010-11-30 | Lg Electronics Inc. | Apparatus and method for combining images in a terminal device |
CN103928039A (zh) * | 2014-04-15 | 2014-07-16 | 北京奇艺世纪科技有限公司 | 一种视频合成方法及装置 |
-
2004
- 2004-01-16 JP JP2004008934A patent/JP2004164668A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7843511B2 (en) | 2004-11-26 | 2010-11-30 | Lg Electronics Inc. | Apparatus and method for combining images in a terminal device |
WO2010103963A1 (ja) * | 2009-03-10 | 2010-09-16 | ソニー株式会社 | 情報処理装置および方法、並びに情報処理システム |
JP2010212947A (ja) * | 2009-03-10 | 2010-09-24 | Sony Corp | 情報処理装置および方法、情報処理システム、並びにプログラム |
RU2524677C2 (ru) * | 2009-03-10 | 2014-08-10 | Сони Корпорейшн | Устройство и способ обработки информации и система обработки информации |
CN103928039A (zh) * | 2014-04-15 | 2014-07-16 | 北京奇艺世纪科技有限公司 | 一种视频合成方法及装置 |
CN103928039B (zh) * | 2014-04-15 | 2016-09-21 | 北京奇艺世纪科技有限公司 | 一种视频合成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6460228B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US9557817B2 (en) | Recognizing gesture inputs using distributed processing of sensor data from multiple sensors | |
US9645648B2 (en) | Audio computer system for interacting within a virtual reality environment | |
US8170239B2 (en) | Virtual recording studio | |
CN107770626A (zh) | 视频素材的处理方法、视频合成方法、装置及存储介质 | |
WO2016155505A1 (zh) | 一种基于移动终端的3d动画编辑方法 | |
WO2020150693A1 (en) | Systems and methods for generating personalized videos with customized text messages | |
US11842433B2 (en) | Generating personalized videos with customized text messages | |
EP4161067A1 (en) | A method, an apparatus and a computer program product for video encoding and video decoding | |
EP3024223B1 (en) | Videoconference terminal, secondary-stream data accessing method, and computer storage medium | |
JP2001160154A (ja) | 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体 | |
CN113014960B (zh) | 一种在线制作视频的方法、装置及存储介质 | |
KR101594861B1 (ko) | 애니메이션 협업 제작 서비스를 제공하는 웹서버 및 그방법 | |
KR20160069663A (ko) | 교육용 콘텐츠 제작 시스템, 제작방법, 및 그에 사용되는 서비스 서버, 저작자 단말, 클라이언트 단말 | |
KR20200028830A (ko) | 실시간 cg 영상 방송 서비스 시스템 | |
JP2004164668A (ja) | 画像生成装置及び画像生成方法 | |
WO2017026170A1 (ja) | クライアント機器、サーバ機器、表示処理方法、及び、データ配信方法 | |
JP3533717B2 (ja) | 画像合成装置 | |
US20150371661A1 (en) | Conveying Audio Messages to Mobile Display Devices | |
JP2022188335A (ja) | アバター出力装置、端末装置、アバター出力方法、およびプログラム | |
Rauterberg | New directions in User-System Interaction: augmented reality, ubiquitous and mobile computing | |
KR102657002B1 (ko) | 공연 영상 컨텐츠의 생성 방법 및 이를 수행하기 위한 장치 | |
KR102599521B1 (ko) | 공연 영상 컨텐츠의 생성 방법 및 이를 수행하기 위한 서버 | |
JP2006173879A (ja) | コミュニケーションシステム | |
Li et al. | The Application of Multimedia Technology in Video after Effects Production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060228 |