JP6102111B2 - 送信装置、通信装置、データ送信プログラム及びデータ送信方法 - Google Patents

送信装置、通信装置、データ送信プログラム及びデータ送信方法 Download PDF

Info

Publication number
JP6102111B2
JP6102111B2 JP2012166996A JP2012166996A JP6102111B2 JP 6102111 B2 JP6102111 B2 JP 6102111B2 JP 2012166996 A JP2012166996 A JP 2012166996A JP 2012166996 A JP2012166996 A JP 2012166996A JP 6102111 B2 JP6102111 B2 JP 6102111B2
Authority
JP
Japan
Prior art keywords
data
image
partial image
storage unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012166996A
Other languages
English (en)
Other versions
JP2014027522A (ja
Inventor
圭史 倉鍵
圭史 倉鍵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012166996A priority Critical patent/JP6102111B2/ja
Priority to US13/948,913 priority patent/US8941714B2/en
Publication of JP2014027522A publication Critical patent/JP2014027522A/ja
Application granted granted Critical
Publication of JP6102111B2 publication Critical patent/JP6102111B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、映像データを送信したり受信したりするための技術に関する。
テレビ電話システムやテレビ会議システム等のように、映像を符号化し、通信相手との間で送受信する技術が存在する。例えば、ある通信装置は、1又は複数の通信装置との間で、互いに映像データ及び音データを送受信する。
また、被写体画像と、階層化した三次元構造モデルとを整合し、構造モデル単位に動きを分析し、動きのある構造モデルの分析パラメータを送出するという技術も存在する。
特開平4−151988号公報
しかしながら、従来のテレビ電話システム等では、被写体であるユーザ及びユーザが存在する現地の様子が、撮影されたまま映像として相手へ送信される。よって、ユーザは、私的な通信であっても、身なりなどを整えてからでなければテレビ電話機能の利用を躊躇してしまいがちになる。
一方、映像に対して画像処理を施してから送信する場合は、送信側の処理負荷が増大するという問題がある。また、映像の他にデータを送信する場合は、データの通信量が増大するという問題がある。
そこで、開示の技術は、処理負荷や通信量の増大を抑えつつ、通信相手に表示させる画像を加工することができる技術を提供することを目的とする。
開示の技術の一側面によれば、画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納する部分画像生成部と、前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行する画像処理部と、処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定する差異判定部と、差異があると判定された場合に、前記画像処理部によって前記画像処理が実行された前記部分画像を送信する送信部とを有する送信装置が提供される。
処理負荷や通信量の増大を抑えつつ、通信相手に表示させる画像を加工することができる技術を提供することができる。
図1は、実施の形態に係るシステム構成の一例を示す図である。 図2は、通信装置1の機能ブロック図の一例を示す図である。 図3は、通信装置1の装置構成の一例を示す図である。 図4は、実施の形態に係る送信処理の処理フローの一例を示す図である。 図5は、画像データの一例を示す図である。 図6は、画像データの一例を示す図である。 図7は、画像データの一例を示す図である。 図8は、テンプレートマッチングを説明するための図である。 図9Aは、顔の部位に対応するマスクデータの一例を示す図である。 図9Bは、顔の部位に対応するマスクデータの一例を示す図である。 図9Cは、顔の部位に対応するマスクデータの一例を示す図である。 図9Dは、顔の部位に対応するマスクデータの一例を示す図である。 図9Eは、顔の部位に対応するマスクデータの一例を示す図である。 図9Fは、顔の部位に対応するマスクデータの一例を示す図である。 図10Aは、レイヤデータの生成の一例を説明するための図である。 図10Bは、レイヤデータの生成の一例を説明するための図である。 図10Cは、レイヤデータの生成の一例を説明するための図である。 図10Dは、レイヤデータの生成の一例を説明するための図である。 図10Eは、レイヤデータの生成の一例を説明するための図である。 図10Fは、レイヤデータの生成の一例を説明するための図である。 図11は、画像処理の例を説明するための図である。 図12は、画像処理の例を説明するための図である。 図13は、画像データの一例を示すための図である。 図14Aは、レイヤデータの比較を説明するための図である。 図14Bは、レイヤデータの比較を説明するための図である。 図14Cは、レイヤデータの比較を説明するための図である。 図14Dは、レイヤデータの比較を説明するための図である。 図14Eは、レイヤデータの比較を説明するための図である。 図14Fは、レイヤデータの比較を説明するための図である。 図15は、画像処理の例を説明するための図である。 図16は、受信処理の処理フローの一例を示すための図である。 図17は、フレームの推移に対する理想的なデータ通信量の変化を模式的に表したグラフである。 図18は、画像データ全体を送信する場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。 図19は、変化した領域を抽出して送信する処理を説明するための図である。 図20は、変化した領域を抽出して送信する場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。 図21は、実施の形態による場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。 図22は、実施の形態に係る通信装置3の機能ブロック図の一例を示す図である。 図23は、送信対象のレイヤデータと受信したレイヤデータとの合成を説明するための図である。 図24は、実施の形態に係る送受信処理の処理フローの一例を示す図である。 図25は、実施の形態に係る送受信処理の処理フローの一例を示す図である。
以下、図面を参照して、一実施形態に係る通信装置について説明する。以下の実施形態の構成は例示であり、本発明に係る通信装置は、実施形態の構成には限定されない。また
、実施形態の処理フローも一例である。したがって、処理結果が変わらない限りにおいて、通信装置は、処理の順序を入れ替えたり、並列に処理したりすることができる。
図1に、実施の形態に係るシステム構成の一例を示す。本実施の形態に係るシステムは、複数の通信装置1(図1では、1a及び1b)を含み、通信装置1は、ネットワーク2を介して接続される。通信装置1は、送信装置11(図1では、11a及び11b)並びに受信装置12(図1では、12a及び12b)を有する。そして、通信装置1は、画像データ及び音データを含む映像データを、ネットワーク2を介して互いに送受信する。本実施の形態に係る通信装置は、複数の画像データを順に表示させることで動画を形成することができる。また、音データは、音声、つまり人の声の他、音楽など様々な音を含む。図示していないが、3以上の通信装置1の各々が、他のすべての通信装置1と互いに通信を行うようにすることもできる。なお、映像データの送受信には、例えばTCP/IPのような既存のプロトコルを利用することができ、本実施の形態で生成される映像データは、例えばパケットのようなPDU(Protocol Data Unit)として送受信される。
図2に、通信装置1の機能ブロック図の一例を示す。通信装置1は、送信装置11と受信装置12とを有する。
送信装置11は、画像入力部111と、音声入力部112と、データ格納部113と、レイヤ生成部114と、画像処理部115と、設定格納部116と、差異判定部117と、送信部118とを有する。画像入力部111は、カメラ等の撮像装置を利用して撮像された画像データを取得し、データ格納部113に格納する。また、音声入力部112は、マイクロホン等を利用して入力された音データを取得し、例えば画像データと関連付けてデータ格納部113に格納する。レイヤ生成部114は、データ格納部113から画像データを読み出し、被写体に基づいて画像データから複数のレイヤデータを生成し、データ格納部113に格納する。レイヤデータとは、部分的な画像データを含み、仮想的な層をなすシートである。平面上の所定の座標を基準として、複数のレイヤデータを重ね合わせることにより、1つの画像が形成される。画像処理部115は、レイヤデータに適用する画像処理を記憶している設定格納部116から情報を読み出し、データ格納部113に格納されているレイヤデータに対して画像処理を実行し、処理後のレイヤデータをデータ格納部113に格納する。差異判定部117は、データ格納部113に格納されている処理後のレイヤデータについて、新たに生成されたレイヤデータと過去に生成されたレイヤデータとに差異があるか判定する。そして、送信部118は、差異があると判定されたレイヤデータをデータ格納部113から読み出す。また送信部118は、音声入力部112が取得し、例えばレイヤデータとして処理された画像データと関連付けられた音データをデータ格納部113から読み出す。そして、送信部118は、読み出したレイヤデータと音データとを通信相手の通信装置1へ送信する。
受信装置12は、受信部121と、データ格納部122と、表示更新部123と、画像出力部124と、音声出力部125とを有する。受信部121は、通信相手の通信装置1から、レイヤデータと音データとを受信し、データ格納部122に格納する。表示更新部123は、受信したレイヤデータと、データ格納部122に格納されているレイヤデータとを置き換え、表示対象のレイヤデータを更新する。画像出力部124は、データ格納部122から表示対象の複数のレイヤデータを読み出し、読み出したレイヤデータを重畳させてディスプレイ等の出力装置に表示させる。また、音声出力部125は、データ格納部122から音データを読み出し、スピーカ等の出力装置に出力させる。
本実施の形態に係る通信装置1は、例えば、カメラ及びマイクロホンを備えるパーソナルコンピュータ、テレビ会議システム、携帯電話機、スマートフォン、タブレット型端末、カメラを備える固定電話機、通信機能及び音声入力機能を備えるプリントシール機(写
真シール機)等の情報処理装置が、本実施の形態に係るプログラムを実行することにより、実現される。
図3に、通信装置1の装置構成の一例を示す。通信装置1は上で述べたような情報処理装置であり、例えば、CPU(Central Processing Unit)1001、主記憶装置100
2、補助記憶装置1003、通信IF(Interface)1004、入出力IF(Interface)1005、ドライブ装置1006、通信バス1007を備えている。CPU1001は、プログラムを実行することにより本実施の形態で説明する処理を行う。主記憶装置1002は、CPU1001が読み出したプログラムやデータをキャッシュしたり、CPUの作業領域を展開したりする。主記憶装置は、具体的には、RAM(Random Access Memory)やROM(Read Only Memory)等である。補助記憶装置1003は、CPU1001により実行されるプログラムや、本実施の形態で用いる設定情報などを記憶する。補助記憶装置1003は、具体的には、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等である。通信IF1004は、他のコンピュータ装置との間でデータを送受信する。通信IF1004は、具体的には、有線又は無線のネットワークカード等である。入出力IF1005は、入出力装置と接続され、ユーザから入力を受け付けたり、ユーザへ情報を出力したりする。入出力装置は、具体的には、カメラ等の画像入力装置、マイクロホン等の音声入力装置、キーボード、マウス、ディスプレイ、プリンタ、又はタッチパネル等である。ドライブ装置1006は、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray Disc)等の記憶媒体に記録されたデータを読み出したり、これらのような記憶媒体にデータを書き込んだりする。以上のような構成要素が、通信バス1007で接続されている。なお、これらの構成要素は複数設けられていてもよいし、一部の構成要素(例えば、ドライブ装置1006)を設けないようにしてもよい。ドライブ装置で読み取り可能な可搬性の記憶媒体や、USBメモリのような補助記憶装置を介して、本実施の形態で実行されるプログラムが提供されるようにしてもよい。そして、CPU1001がプログラムを実行することにより、上記のような情報処理装置を通信装置1として働かせる。
<送信処理>
次に、映像データを送信する送信処理について説明する。送信処理は、通信装置1の送信装置11により実行される。
図4に、本実施の形態に係る送信処理の処理フローの一例を示す。まず、送信装置11の画像入力部111が、カメラ等を介して画像データを取得し、データ格納部113に格納する。画像データの取得とともに、音声入力部112が、マイクロホン等を介して音データを取得し、データ格納部113に格納する(図4:S1)。画像データ及び音データは、それぞれ画像及び音声を符号化することにより生成されたデータである。
次に、レイヤ生成部114は、データ格納部113から画像データを読み出し、被写体が所定の大きさ以上であるか判断する(S2)。例えば、レイヤ生成部114は、画像データの中央に撮影されている被写体について、画素のコントラストに基づいて輪郭を特定する。そして、被写体が撮影されている領域が、所定の大きさ、例えば画像データ全体の4分の1以上の割合を占めているか判断する。
例えば、S1において、図5に示すような画像データが読み出されたものとする。図5は、画像データの一例を示す図である。図5の中央付近には、被写体の例として人物が撮影されている。図5では被写体の撮影されている領域が画像全体に占める割合は4分の1以下である。レイヤ生成部114は、例えば画像の中央から走査して、コントラスト値が所定の閾値以上に変化する境界を探索及び追跡して、被写体が撮影されている領域を特定する。このような処理には、既存の技術を用いることができる。そして、レイヤ生成部1
14は、図5の人物のような被写体が撮影されている領域を特定し、当該領域の面積を算出し、当該領域の大きさは画像データ全体の4分の1以上ではないと判断する。
被写体が所定の大きさ以上でないと判断された場合(S2:No)、レイヤ生成部114は、背景のマスクデータと被写体のマスクデータとを選択する(S3)。例えば、予め複数の位置及び大きさを表すマスクデータを準備しておき、被写体が撮影されている領域を含むマスクデータ及びその他の領域を含むマスクデータを選択する。マスクデータとしては、例えば、画像データの各画素に対応して真又は偽のいずれかの値を有するデータを用いることができる。すなわち、マスクデータは、画像データとマスクデータとのAND演算により、画像データからマスクデータと重複する領域を切り取るために用いられる。なお、画像データ生成部114は、予め準備されたマスクデータを用いるのではなく、例えば被写体の輪郭を表す座標に基づいて、被写体を含むマスクデータとその他の領域を含むマスクデータとを生成するようにしてもよい。
S3では、レイヤ生成部114は、例えば、S2で特定された被写体が撮影されている領域を真で表し、その他の領域を偽で表したマスクデータと、被写体が撮影されている領域を偽で表し、その他の領域を真で表したマスクデータとを選択する。これらのマスクデータにより、レイヤ生成部114は、画像データの中で被写体が撮影された領域と背景が撮影された領域とを切り取ることができる。その後、処理はS7に遷移する。
一方、S2において、図6に示すような画像データが読み出されたものとする。図6は、画像データの一例を示す図である。図6の中央付近には窓が撮影されており、その大きさは画像データ全体の4分の1以上の領域を占めている。このような場合は、レイヤ生成部114は、画像データにおいて窓が撮影されている領域を特定し、当該領域の大きさは画像データ全体の4分の1以上であると判断する。
S2において、被写体が所定の大きさ以上であると判断された場合、(S2:Yes)、レイヤ生成部114は、被写体が人物の顔であるか判断する(S4)。この判断には、例えばテンプレートマッチングのような既存の技術を利用することができる。具体的には、送信装置11内の主記憶装置1002等は、目、口、耳(例えば、耳たぶ)等を表す基準点を含む、顔のパターン画像(すなわちテンプレート)を予め記憶している。このテンプレートは、人物の目、鼻、口、耳等の相対的な位置関係を表すデータである。そして、テンプレートは、例えば、複数の人物の顔のデータから平均的なデータを求めることにより作成される。また、テンプレートは、所定の階調数で表された濃淡情報や二値化した情報を用いて表すようにしてもよいし、色彩情報等を用いてもよい。色彩情報は、濃淡の差を判定しにくいような場合に有効である。
そして、レイヤ生成部114は、画像データを走査し、テンプレートに近い領域が含まれているか判断する。例えば、レイヤ生成部114は、画像の一部の領域に含まれる画素とテンプレートに含まれる画素とで濃淡情報を比較し、既存の評価手法により一致するか否か判定する。なお、様々な角度から撮影された(すなわち、様々な方向を向いた)人物の顔に対応する複数のテンプレートを予めデータ格納部113等に記憶させておき、レイヤ生成部114が様々な方向を向いた人物の顔を検出するようにしてもよい。図6に示した画像データの場合、画像データの中央の被写体である窓から人物の顔のテンプレートに類似する領域は検出されず、被写体は人物の顔ではないと判断される。
S4において、被写体が人物の顔でないと判断された場合(S4:No)、レイヤ生成部114は、背景のマスクデータと被写体のマスクデータとを選択する(S5)。ここでも、S3で説明したようなマスクデータを選択する。また、S3と同様に、被写体の輪郭に基づいてマスクデータを生成するようにしてもよい。さらに、S5では、S3で作成す
るマスクデータよりも精密なマスクデータを生成するようにし、S3ではS5よりも粗いマスクデータを生成するようにしてもよい。その後、処理はS7に遷移する。
一方、S4において、図7に示すような画像データが読み出されたものとする。図7は、画像データの一例を示す図である。図7の中央付近には、人物が撮影されており、その大きさは、画像データ全体の4分の1以上の領域を占めている。この場合、S4において、例えば図8に示すように、顔のテンプレートに一致する目、口及び耳等の基準点が画像データから検出され、被写体は人物の顔であると判断される。なお、検出された各部位(例えば基準点)の座標を保持しておき、後の処理で用いるようにしてもよい。
被写体が人物の顔であると判断された場合(S4:Yes)、レイヤ生成部114は、例えば、テンプレートに対応付けて予め記憶されている、顔の部位ごとのマスクデータを選択する(S6)。例えば、S4において被写体が人物の顔であることを検出したテンプレートに対応するマスクデータが、データ格納部113から読み出される。ここでは、目、口、耳、顔、首、背景が撮影されている領域をそれぞれ含む、複数のマスクデータが選択される。また、例示した部位の他に、鼻、髪、体等の部位のマスクデータが用いられるようにしてもよいし、例示した部位の一部についてマスクデータが用いられないようにしてもよい。例えば、図9A〜9Fに示すような各部位に対応するマスクデータが選択される。
図9A〜9Fは、顔の部位に対応する複数のマスクデータの一例を示す図である。例えば、図9A〜9Fにおいて、斜線によりハッチングが施されている領域は、画素に対応する値が真に設定された領域を示すものとする。なお、図9A〜9Fでは、説明の便宜上、被写体の一部が重ねて示されている。図9Aは、目の撮影された領域に対応するマスクデータを示す。本実施の形態では、図9Aに示すように、顔の部位だけでなくその周囲の領域を含むマスクデータが用意されている。
同様に、図9Bは口に対応するマスクデータを、図9Cは耳に対応するマスクデータを、図9Dは顔に対応するマスクデータを、図9Eは首に対応するマスクデータを、図9Fは背景に対応するマスクデータを示している。なお、背景のマスクデータは、画像全体を含む領域としてもよい。同様に、顔のマスクデータは、図9Dに示した領域から目や口に対応する領域を除いた領域にしてもよい。顔の部位ごとのマスクデータが選択されると、処理はS7に遷移する。
なお、マスクデータにおいて真の値が設定されている領域は、顔のテンプレートに合わせて位置を調整するようにしてもよい。また、顔のテンプレートに合わせて予め用意されたマスクデータを選択するのでなく、画像データの中から、目、口、耳、顔、首の輪郭をそれぞれ抽出し、各部位が撮影されている領域、及びその他の領域に対応するマスクデータを生成するようにしてもよい。また、マスクデータの形状は、例えば、顔の部位の輪郭を拡大した形状等、長方形以外の形状を採用してもよい。
S3、S5又はS6の後、レイヤ生成部114は、データ格納部113に格納されている画像データとマスクデータとに基づいてレイヤデータを生成し、データ格納部113に格納する(S7)。すなわち、レイヤ生成部114は、画像データのうちマスクデータと重なる領域である部分画像を抽出する。そして、レイヤ生成部114は、画像データのうちマスクデータと重ならない部分は透明な領域として表したレイヤデータを生成する。以下、図10A〜10Fを用いて、顔の部位ごとのレイヤを作成する処理を説明する。
図10A〜10Fは、レイヤデータの生成の一例を説明するための図である。レイヤ生成部114は、まず、画像データを、S3、S5又はS6で生成したマスクデータの数だ
け複製する。例えば、図10A〜10Fの10a〜10fに示すように、画像データが複製される。そして、レイヤ生成部114は、複製した画像データの1つとマスクデータの1つとを用いて、画像データからマスクデータと重なる領域(すなわち、顔の部位が撮影されている領域)を切り出し、顔の部位の各々に対応するレイヤデータを生成する。具体的には、画像データとマスクデータとでAND演算を行い、画像データのうち、論理積が真になる領域(すなわち、マスクデータと重なる領域)の部分画像を抽出してレイヤデータとする。ここで、AND演算では、例えば画像データの各画素のR、G又はBの値が所定の基準値以上であれば真としてマスクデータと演算がなされるようにしてもよい。ただし、画素データが単色画像の場合、各画素の階調値が基準値以上の場合に真として、マスクデータとAND演算すればよい。
図10A〜10Fの10g〜10lは、S6で生成されたマスクデータを表している。そして、10a〜10fの画像データから、10g〜10lのマスクデータにおいて斜線でハッチングが施された領域が切り取られ、図10A〜10Fの10m〜10rに示すようなレイヤデータが生成される。なお、レイヤデータ10m〜10rにおいて横方向のハッチングが施された、画像データが存在しない領域は、塗りつぶされていない透明な領域である。すなわち、各レイヤデータの左上の座標を原点として、レイヤデータ10m〜10rをディスプレイの奥行き方向に重ね合わせたときに、当該ハッチングの領域を透過して奥のレイヤデータに含まれる画像データが表示される。
なお、S3又はS5において、被写体と背景とに対応するマスクデータが生成された場合は、S7において、画像データから被写体を抽出したレイヤデータと、背景を抽出したレイヤデータとが生成される。
また、S7において、レイヤ生成部114は、各レイヤデータに識別コードを付してデータ格納部113に格納する。識別コードは、各レイヤを識別するための符号である。例えば、識別コードは、撮影されている領域(例えば、顔の部位)を示す領域情報と、画像データが生成された時間的な順序又はレイヤデータが生成された時間的な順序を示す時系列情報とを含む。例えば、「背景」、「首」、「顔」、「耳」、「口」及び「目」を示す領域情報を、それぞれ「1」、「2」、「3」、「4」、「5」及び「6」とすると、処理開始後初めて生成される(すなわち、時系列情報が1の)レイヤデータには、「1−1」、「2−1」、「3−1」、「4−1」、「5−1」及び「6−1」といった識別コードが付される。そして、映像データにおける次のフレーム(すなわち画像データ)についてレイヤデータが生成されると、各領域情報のレイヤデータについてそれぞれ時系列情報が1インクリメントされた識別コードが付される。
レイヤデータ生成部114は、識別コードを、例えばファイル(すなわち、レイヤデータ)にヘッダ情報として記憶させてもよいし、ファイル名から識別コードが読み取れるような命名規則を採用してもよい。なお、レイヤデータ生成部114は、領域情報に基づいて、レイヤデータを奥から手前へ重ねる際の順序が特定できるようにしてもよい。すなわち、本システムは、領域情報に基づいて、奥行き方向にレイヤデータを重畳して表示するようにしてもよい。また、本システムは、時系列情報としては、例示したように連続番号を用いてもよいし、ファイルが生成された時刻を表すタイムスタンプで代用してもよい。さらに、本システムは、新たに生成されたレイヤデータと、過去に生成されたレイヤデータとが識別できれば、時系列情報を設けないようにしてもよい。
その後、画像処理部115は、設定格納部116に格納されている設定データと、データ格納部113に格納されているレイヤデータとを用いて、レイヤデータに含まれる画像データを加工する画像処理を実行し、処理後のレイヤデータをデータ格納部113に格納する(S8)。なお、設定データ格納部116には、領域情報に対応付けて、レイヤデー
タに対して実行する画像処理が予め設定されているものとする。また、当該画像処理を適用する位置を示す情報も、併せて設定されているものとする。画像処理を適用する位置は、例えば、画像データ全体において固定された座標、レイヤデータ内において固定された座標、またはS4において顔の部位が検出された座標等を示す。
本実施の形態における画像処理の一例としては、例えば、目のレイヤデータ、顔のレイヤデータ等に、化粧のような加工を施すことができる。このような加工を施す場合は、目の位置に対応付けて眉やまつげを描画する設定や、顔の輪郭内に所定の色を重畳したり、顔の輪郭内の色相、彩度及び明度を相対的に変更したりする設定を、設定格納部116に保持させておく。
また、任意のレイヤデータにアクセサリや服の画像を重畳したり、星型等の図形やユーザが入力した落書きを重畳したりすることもできる。画像を重畳する場合は、基準点の座標に対応付けて、又は画像全体若しくはレイヤデータ中の座標に対応付けて、重畳させる画像データを設定格納部116に保持させておく。なお、S7において選択されたレイヤデータの他に、描画用のレイヤデータを設けるようにしてもよい。
さらに、目のレイヤデータを拡大して目を強調させたり、任意のレイヤデータに対して光源の効果を施して輝かせたりすることもできる。目を強調する場合は、目のレイヤ全体又は目のレイヤのうち目が撮影されている領域を拡大する割合等を設定格納部116に保持させておけばよい。画像に光源の効果等所定の効果やフィルタ処理等を施す場合は、所定の効果を施す位置及び所定の効果を加えるためのアルゴリズム等を設定格納部116に保持させておけばよい。但し、所定の効果を加えるためのアルゴリズムを設定格納部116に保持する代わりに、所定の効果を加えるための処理を起動するコマンド、サブスクリプト等を設定格納部116に保持してもよい。
また、任意のレイヤデータの形状を変形させることもできる。例えば、髪型等を変形させるための設定を、設定格納部116に保持させておいてもよい。以上のような、画像データの形状、色彩若しくは位置の変更、画像の描画、若しくはエッジ強調、平滑化、ノイズ除去等のフィルタ処理は、既存の技術を用いて行うことができる。
図11に、目のレイヤデータを強調させ、さらにまつげの画像を重畳させた例を示す。例えば、設定格納部116には、目のレイヤデータを拡大させる割合と、目の上部(すなわち、目の座標の縦軸方向の上部)に対応付けてまつげの画像を描画させる設定が格納されているものとする。画像処理部115は、例えば目のレイヤ全体を所定の割合だけ拡大する。なお、画像処理部115は、レイヤデータから目の撮影された領域を抽出して、抽出された領域を拡大するようにしてもよい。また、画像処理部115は、目が検出された座標の上部にまつげを描画する。
なお、顔の部位が検出された座標(例えば、基準点)に対応付けて設定された画像処理の適用箇所は、被写体である人物の向いている方向が変化する場合に、基準点等に追随して位置を変化させることができる。例えば、画像処理部115は、テンプレートマッチングにおいて検出された顔の部位の位置関係からどの方向を向いているか判断でき、図12に示すように、顔の部位に追随して画像処理を適用する位置を変更することができる。すなわち、画像処理部115は、12a〜12cに示すように、画像データから検出された基準点にあわせて、まつげを描画する位置を変更することができる。さらに、画像処理部115は、12cにおいて、左目に相当する基準点が画像データから検出されない場合は、左目に関連付けられているまつげの描画を行わないようにすることもできる。また、画像処理部115は、12bに示すように、表情の変化に合わせて例えばベクトル計算を行い、描画する画像データを変形させるようにしてもよい。
その後、差異判定部117は、データ格納部113から、S8において新たに格納された画像処理後のレイヤデータと、それ以前に格納されていた画像処理後のレイヤデータとを読み出す。そして、領域情報が同一であるレイヤデータごとに比較し、差異があるか判断する(S9)。例えば、差異判定部117は、識別コードのうち、領域情報が同一のレイヤデータであって、時系列情報が最も新しいことを示しているものと、時系列情報が2番目に新しいことを示しているものとを比較する。すなわち、顔の部位ごとに、最新の画像データと、動画における1フレーム前の画像データとを比較する。
比較は、例えば、画素ごとに有している色彩等の情報を用いて、排他的論理和(XOR)演算を行い、結果の値が真の画素が所定の閾値以上存在すれば変化したと判断する。また、複数の画素の集合をブロックとして、ブロック単位で変化の有無を判断するようにしてもよい。例えば、目や口のレイヤデータには細かいブロックを用いて、背景のレイヤデータには粗いブロックを用いるようにしてもよい。このようにすれば、背景よりも人物の表情について、より小さな変化まで検出することができる。
S9において、変化したレイヤデータがないと判断された場合(S9:No)、送信部118は、音データをデータ格納部113から読み出し、通信相手の通信装置1へ送信する(S10)。そして、当該画像データについての送信処理が終了し、新たに取得される画像データに対して送信処理をS1から繰り返す。すなわち、映像データにおける次のフレームに対して同様の処理を行う。なお、音データの送信についても、所定のレベル以上の音声の入力がなければ行わないようにしてもよい。
一方、S9において、変化したレイヤデータがあると判断された場合(S9:Yes)、送信部118は、変化したと判断されたレイヤデータ(すなわち、変化後のレイヤデータ)と、音データとをデータ格納部113から読み出し、通信相手の通信装置1へ送信する(S11)。
ここで、例えば、図10A〜10Fのレイヤデータ10m〜10rが1フレーム前の画像データとしてデータ格納部113に格納されているとする。そして、図13に示すような画像データについて、S1〜S8までの処理が実行されたものとする。
図13は、画像データの一例である。図13は、図7に示した画像データの次のフレームで取得されたデータであるものとする。図13には人物が撮影されており、図7と比較すると、左目を閉じている(すなわち、ウインクしている)部分が異なる。S8までの処理により、図13に示す画像データから、図14A〜14Fに示すようなレイヤデータが生成される。
図14A〜14Fは、時系列情報が前後するレイヤデータについて、領域情報が一致するもの同士を比較する処理を説明するための図である。S9では、1フレーム前の画像データから生成されたレイヤデータ14a〜14fと、新たに生成されたレイヤデータ14g〜14lとを、領域情報が一致するもの同士で比較する。図14A〜14Fの例では、レイヤデータ図14Aの14aと14gとに差異があると判断される。このような場合、送信部118は、レイヤデータ13gと音データとを送信する。
なお、レイヤデータに含まれる透明な領域を表す画素は、例えばランレングス法のようなアルゴリズムを用いて、透明であることを示す所定の値(例えば、0や1など)で示すことができる。このようにすれば、画像データすべてを送信する場合よりも送信するファイルのサイズを圧縮することができる。レイヤデータ及び音データが送信されると、当該画像データに対する送信処理が終了し、新たに取得される画像データに対して送信処理を
S1から繰り返す。
以上のように、本実施の形態に係る送信処理では、被写体に応じて画像データを複数のレイヤに分割し、レイヤごとに様々な画像処理を施し、変化が検出されたレイヤのデータを送信する。特に、画像処理による加工を施した後にレイヤデータ間の変化を検出するため、撮影された画像データには変化があったとしても、レイヤデータに画像処理が施された結果、処理前後のレイヤデータには変化がなくなるような場合も起こり得る。例えば、図15に示すように、目のレイヤデータにサングラスの画像を重畳させる場合、図7に示した人物が、図12のようにウインクをしたとしても、処理前後の目のレイヤデータはどちらも図15のようになり、変化が表れない。このような場合には目のレイヤデータを送信しないため、画像処理を施さずに差異を判定する場合(すなわち、ウインクしている目のレイヤデータを送信する場合)よりも、データの通信量が軽減される。
また、本実施の形態では、レイヤデータに対して画像処理を行う。したがって、化粧や服装の加工を施すことにより通信相手に表示させる画像を変更することが可能となり、例えばユーザが身なりなどを整えていない場合でも、テレビ電話等を使用することに対するユーザの心理的な抵抗を軽減することができる。また、例えば、顔の部位を含むレイヤとは別に画像処理を施すためのレイヤを設ければ、画像処理を加えたり戻したりする処理が容易になり、レイヤデータの用途の幅が広がる。このような画像処理後のデータを、コンピュータネットワーク上においてユーザの分身として表示されるアバターとして用いるようにしてもよい。
<受信処理>
次に、映像データを受信する受信処理について説明する。受信処理は、通信装置1の受信装置12により実行される。
図16に、受信処理の処理フローの一例を示す。受信装置12の受信部121は、通信先の通信装置1からレイヤデータと音データとを受信し、データ格納部122に格納する(図16:S12)。本実施の形態では、受信部121は、画像データに基づいて生成された複数のレイヤデータを受信する。例えば、処理開始直後の画像データについてはすべてのレイヤデータを受信し、それ以降の画像データについては変化したレイヤデータを受信する。なお、音データは、データ格納部122に保持させておく。
そして、表示更新部123は、データ格納部122からS12において受信したレイヤデータを読み出し、表示対象のレイヤデータを更新し、データ格納部122に格納する(S13)。表示対象のレイヤデータとは、受信したレイヤデータのうち、各領域情報の中で、時系列情報が最も新しいことを示しているレイヤデータである。なお、表示対象のレイヤデータは、データ格納部122に保持させておく。
なお、処理開始直後に、分割されたすべてのレイヤデータを受信した場合は、表示更新部123は、すべてのレイヤデータをデータ格納部122に保持させる。また、顔の部位の一部に対応するレイヤデータを受信した場合、表示対象としてすでに保持されているレイヤデータのうち、受信したレイヤデータと領域情報が同一であるものを入れ替える。すなわち、領域情報が同一のレイヤデータごとに、時系列情報が古いレイヤデータと時系列情報が新しいレイヤデータとを入れ替え、表示対象のレイヤデータをデータ格納部122に格納しておく。
その後、画像出力部124は、データ格納部122から表示対象のレイヤデータを読み出し、ディスプレイ等の表示装置に表示させる。一方、音声出力部125も、データ格納部122から音データを読み出し、スピーカ等の音声出力装置に出力させる(S14)。
なお、画像出力部124は、表示対象のレイヤデータを、領域情報に基づき所定の順序で重ね合わせ、1つの画像データとして出力する。例えば、仮想的な奥行き方向の奥から手前に向けて、背景のレイヤデータ、首のレイヤデータ、顔のレイヤデータ、耳のレイヤデータ、口のレイヤデータ、目のレイヤデータの順ですべてのレイヤデータを重ね合わせ、1枚の画像データを出力する。以上で、当該レイヤデータについての受信処理が終了し、新たに受信するレイヤデータに対して、受信処理をS12の処理から繰り返す。
なお、本実施の形態における画像出力及び音声出力は、バッファを用いて同期させることができる。リアルタイム通信におけるスループットは、送信側の演算性能、データ転送レート、受信側の演算性能に因るところが大きい。しかし、例えば、音データに1パケット程度、到着の遅れが生じたとしても、バッファを利用して出力タイミングを同期させることができる。すなわち、唇の動きと発声のタイミングを同期させることができる。
本実施の形態の受信処理は、レイヤごとに受信するため、画像データ全体を受信するような場合よりもデータの通信量が軽減される。特に、画像処理による加工後のレイヤデータを送信するため、撮影された画像データには変化がある場合であっても、画像処理後のレイヤデータにはその変化が表れないようなときに、データの通信量がより減少するという効果がある。また、画像データごとに差がある領域を抽出して送受信するような場合よりも、レイヤごとに入れ替えるほうが処理にかかる負荷は軽くなる。すなわち、複数のレイヤは、表示させる位置をシフトさせるような処理を行うことなく、例えば左上の座標を原点とする等のように、所定の座標を基準として単純に重ね合わせることができる。したがって、本実施の形態によれば、処理の遅延や処理の一部省略を低減させることができる。
<通信量と処理負荷について>
次に、通信量と処理負荷について、本実施の形態の利点を説明する。以下では、(1)画像データ全体を送信する場合、(2)画像データのうち変化した領域を抽出して送信する場合、及び上で述べた(3)本実施の形態による場合について、例えば携帯電話機のような処理性能の比較的低い装置で処理を行うとき、又はデータ転送レートの低いネットワークにおいて通信を行うときの有利な点・不利な点について検討する。
まず、理想的なフレームレート(すなわち、映像データの更新周期)について検討する。ヴェルトハイマー(Max Wertheimer)の光点明滅の実験によれば、人間は60ミリ秒〜100ミリ秒間隔で2つの光点が交互に点滅する場合、光点が滑らかに移動しているように認識するとされている。したがって、表示される画像は、60ミリ秒〜100ミリ秒程度の間隔で更新されることが好ましい。フレームの推移(時間の経過)に対する理想的なデータ通信量をグラフに示すと、例えば図17のようになる。
図17は、フレームの推移(時間の経過)に対する理想的なデータ通信量の変化を模式的に表したグラフである。図17のグラフは、縦軸がデータ通信量を、横軸がフレームの推移(時間の経過)を表している。なお、フレームレートは、例えば30フレーム/秒である。そして、図17では、毎フレームにおいてデータが送信されている。よって、受信側も同様の間隔で映像の表示を更新すれば、ユーザの目には映像が十分滑らかに動いて見えると考えられる。同時に、データ転送レートが比較的低いネットワークにおいても遅延なく送信できる程度に、データの通信量が抑えられることが好ましい。
(1)画像データ全体を送信する場合
送信側で取得した画像データ全体を送信し、受信側では受信した順に画像データ全体を書き換えて表示する場合について検討する。
図18は、画像データ全体を送信する場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。図18の例では、変化した領域を特定するような処理を行わないぶん送信側の処理負荷は軽くなる。よって、毎フレームにおいて画像データを送信することができている。以上より、メリットとしては、映像がなめらかになること、並びに送信側及び受信側ともに処理の負荷が軽いことが挙げられる。一方、画像データ全体が送信されるため、データの通信量は、各フレームにおいてほぼ一定になり、画像の一部を送信するような場合よりも総じてデータの通信量は大きくなる。よって、デメリットとしては、データの通信量が大きくなることが挙げられる。
(2)変化した領域を抽出して送信する場合
次に、送信側で、新たに取得した画像データとその前のフレーム(すなわち、画像データ)と比較して、変化のあった領域を抽出し、変化のあった領域の画像データとその座標とを送信する場合について検討する。変化した領域を抽出して送信する処理は、例えば図19に示すような手順により行われる。まず、送信側において、撮像された画像データを走査し(19a)、画素単位又は複数の画素を含むブロック単位で、新たに取得した画像データと1つ前のフレームとに差異があるか比較する(19b)。差異が検出された場合は、変化した領域を抽出し、その領域を示す座標とともに送信する(19c)。一方、受信側では、受信した領域と座標とを用いて、対応する領域を1つ前のフレームにから削除するとともに受信した領域を1つ前のフレームに挿入し(19d)、新たな画像データを生成する。
図20は、変化した領域を抽出して送信する場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。図20の例では、処理開始時には1つ前のフレームが存在しないため、差分の領域でなく画像データ全体が送信される。よって、最初のフレームのデータ通信量は、後のフレームのデータ通信量よりも大きい。一方、後のフレームでは、差分を抽出して送信する。よって、例えば被写体である人物が話をしているような状況であれば、データ通信量(すなわち、画像が変化する領域)は、画像全体を送信するような場合と比べると小さくなる。したがって、変化した領域を抽出して送信する場合のメリットとしては、データ通信量が抑えられることが挙げられる。
また、送信側では、画像データから差分を抽出するための処理が、受信側では、差分を用いて画像データを更新する処理が実行される。特に送信側では、差分を検出するために、精密な比較により更新対象の領域を求めるため、画像データ全体を送信するような場合よりも処理負荷が大きい。よって、特に携帯電話機のような、処理能力の比較的低い装置では、数フレームに1回程度の頻度でしかデータを送信できなくなるおそれがある(すなわち、フレームレートが下がるおそれがある)。したがって、デメリットとしては、画像データ全体をそのまま送信するような場合よりも処理負荷が大きくなること、及びフレームレートが下がるおそれがあることが挙げられる。
(3)本実施の形態による場合
図21は、本実施の形態による場合の、フレームの推移に対するデータ通信量の変化を模式的に表したグラフである。図21の例でも、処理開始時には、1つ前のフレームが存在しないため、すべてのレイヤデータを送信する。したがって、最初のフレームのデータ通信量は、後のフレームのデータ通信量よりも大きくなっている。後のフレームでは、差分の検出されたレイヤデータを送信する。よって、被写体の人物が話をしているような状況であれば、データ通信量(すなわち、変化したレイヤデータのサイズ)は、画像全体を送信するような場合よりも小さくなる。一方、変化した領域だけでなく所定のフレーム単位で送信するため、変化した領域を抽出するような場合よりもデータ通信量は大きくなる。
また、レイヤデータを生成する処理を行うため、画像データ全体をそのまま送信するような場合よりも処理負荷は大きい。しかし、画像データをレイヤデータに展開し、レイヤごとに変化の有無を判断するが、変化した領域の特定まではしないため、画像データから変化した領域を抽出する場合よりも処理負荷は小さくなる。すなわち、フレームレートは、画像データ全体を送信する場合よりも低く、変化した領域を抽出して送信する場合よりも高くなっている。
実際は画像の変化の程度に応じてデータ通信量も変化するが、おおむね以上のようになる。本実施の形態による場合は、画像データ全体を送信する場合や変化した領域を抽出して送信する場合と比較して、データ通信量及び処理負荷のバランスが取れた手法であると言える。したがって、ネットワークのデータ転送レートが低く、且つ通信装置の処理性能も低いような場合に、本実施の形態による手法は特に適している。また、音声についても、所定レベル以上の入力を検知した場合に送信するようにすれば、データ転送量を抑えることができる。
<変形例>
次に、レイヤ生成部114が生成したレイヤデータと、受信部121が受信したレイヤデータとを合成して、合成後の画像データを画像出力部124が出力する実施の形態について説明する。本実施の形態では、図22に示すような通信装置3を採用する。
図22に、本実施の形態に係る通信装置3の機能ブロック図の一例を示す。なお、通信装置3が有する機能ブロックのうち、先に説明した通信装置1が有する機能ブロックと同一の機能を果たすものについては、同一の符号を付している。
通信装置3は、送信部31と受信部32とを有する。そして、送信部31は、画像入力部111と、音声入力部112と、データ格納部113と、レイヤ生成部114と、画像処理部115と、設定格納部116と、差異判定部117と、送信部118とを有する。これらの機能は、通信装置1の送信装置11と同様である。なお、データ格納部113は、受信装置32の表示更新部323と接続されている。
受信装置32は、受信部121と、データ格納部122と、表示更新部323と、画像出力部124と、音声出力部125とを有する。表示更新部323は、送信装置31のレイヤ生成部114が生成したレイヤデータをデータ格納部113から読み出し、また、受信装置32の受信部121が受信したレイヤデータをデータ格納部122から読み出し、読み出したレイヤデータを合成して、表示対象の画像データを生成する。その他の機能は、すでに説明した通信装置1と同様である。
すなわち、本実施の形態における通信装置3は、通信相手の通信装置3に送信するレイヤデータと、通信相手の通信装置3から受信したレイヤデータとを合成して、1つの映像を表示する。このレイヤデータの合成について、図23を用いて説明する。
図23は、送信対象のレイヤデータと受信したレイヤデータとの合成を説明するための図である。例えば、レイヤデータ23aは、ある通信装置3で生成され、通信相手の通信装置3に送信されるレイヤデータである。また、レイヤデータ23bは、ある通信装置3が、通信相手の通信装置3から受信したレイヤデータである。なお、図23のレイヤデータは、便宜上、背景のレイヤデータ以外を重ね合わせて表している。本実施の形態では、レイヤデータ23a及び23bを所定の順序で重ね合わせ、レイヤデータ23cに示すような合成後の画像データを出力する。レイヤデータを重畳する順序は、予め定めておいてもよいし、例えば顔のレイヤデータから特定される顔の輪郭に基づいて、顔がより大きく撮影されている人物が手前に表示されるように順序を入れ替えてもよい。なお、背景のレ
イヤデータは、いずれかの通信装置3が生成したものを採用してもよいし、予め用意された別の画像を用いるようにしてもよい。
<送受信処理>
次に、映像データを送受信する処理について説明する。送受信処理は、通信装置3の送信装置31及び受信装置32により実行される。
図24及び25に、本実施の形態に係る送受信処理の処理フローの一例を示す。まず、送信装置31のレイヤ生成部114は、データ格納部113に新たな画像データが格納されたか判断する(図24:S21)。すなわち、送信装置31の画像入力部111が、カメラ等を介して新たな画像データを取得し、データ格納部113に格納したか判断する。
新たな画像が格納されていないと判断された場合(S21:No)、結合子Aを介して図25のS31の処理に遷移する。一方、新たな画像が取得されたと判断された場合(S21:Yes)、S22〜S31の処理を実行する。なお、S22〜S30の処理は、図4のS2〜S10の処理と同様なので、説明を省略する。
S29において、差異のあるレイヤが存在すると判断された場合(S29:Yes)、送信装置31の送信部118は、差異があると判断されたレイヤ(すなわち、変化後のレイヤデータ)を通信相手の通信装置3に送信する。同時に、受信装置32の表示更新部323は、差異があると判断されたレイヤをデータ格納部113から読み出し、データ格納部122に格納する(S31)。ここでは、データ格納部122に保持されている表示対象のレイヤデータを更新する。
具体的には、表示対象としてデータ格納部122に保持されているレイヤデータのうち、S31で読み出したレイヤデータと領域情報が同一であるものを入れ替える。すなわち、領域情報が同一のレイヤデータごとに、時系列情報が古いレイヤデータと時系列情報が新しいレイヤデータとを入れ替え、入れ替えた後のレイヤデータ(すなわち、表示対象のレイヤデータ)をデータ格納部122に格納する。そして、S31の後、処理は結合子Aを介して図25のS32に遷移する。
次に、図25の処理について説明する。図24のS21において新たな画像が格納されていないと判断された場合(S21:No)、S30又はS31の後、受信装置32の表示更新部323は、データ格納部122に新たなレイヤデータが格納されたか判断する(図25:S32)。すなわち、受信装置32の受信部121が、通信相手の通信装置3から新たなレイヤデータを受信し、データ格納部122に格納したか判断する。
新たなレイヤデータが格納されていないと判断された場合(S32:No)、一連の送受信処理が終了し、新たに取得される画像データ又は新たに受信されるレイヤデータに対して送受信処理をS21(図24)から繰り返す。
一方、新たなレイヤデータが格納されたと判断された場合(S32:Yes)、表示更新部323は、データ格納部122から受信されたレイヤデータを読み出し、表示対象のレイヤデータを更新し、データ格納部122に格納する(S33)。ここでは、表示対象としてすでに保持されているレイヤデータのうち、受信したレイヤデータと領域情報が同一であるものを入れ替える。すなわち、領域情報が同一のレイヤデータごとに、時系列情報が古いレイヤデータと時系列情報が新しいレイヤデータとを入れ替え、表示対象のレイヤデータをデータ格納部122に格納する。
その後、画像出力部124は、データ格納部122から表示対象のレイヤデータを読み
出し、ディスプレイ等の表示装置に表示させる。ここでは、通信相手の通信装置3に送信するレイヤデータと、通信相手の通信装置3から受信したレイヤデータとが読み出され、これらが合成されて表示される。また、音声出力部125も、データ格納部122から音データを読み出し、スピーカ等の音声出力装置に出力させる(S34)。以上で、一連の送受信処理が終了し、新たに取得される画像データ又は新たに受信されるレイヤデータに対して送受信処理をS21(図24)から繰り返す。
このような変形例によれば、すでに述べたような効果に加えて、通信をするユーザ同士を仮想的な1つの空間に表示する、テレビ電話システム等を提供することができる。なお、1つの空間に合成せず、通信相手に送信するレイヤデータと通信相手から受信したレイヤデータとを、それぞれ分離した領域に表示させるようにしてもよい。また、このようなシステムにおいて、複数のユーザが表示された静止画をデータファイルとして保存できるようにしてもよいし、複数のユーザが表示された動画をデータファイルとして保存できるようにしてもよい。さらに、実施の形態に係るシステムの入出力IFが出力装置であるプリンタに接続される場合、保存した静止画データを所定の用紙やシール等に印刷することもできる。
《コンピュータが読み取り可能な記録媒体》
コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD−ROM、CD−R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納する部分画像生成部と、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行する画像処理部と、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定する差異判定部と、
差異があると判定された場合に、前記画像処理部によって前記画像処理が実行された前記部分画像を送信する送信部と
を有する送信装置。
(付記2)
前記部分画像は、当該部分画像が含まれる平面上の所定の座標を基準として、他の部分画像と重ね合わせて表示することが可能なレイヤで表される
付記1に記載の送信装置。
(付記3)
前記領域情報に関連付けて、前記画像処理を示す画像処理情報と、当該画像処理を適用する位置を示す位置情報とを格納する設定格納部を有し、
前記画像処理部は、前記部分画像に付されている前記領域情報と同一の領域情報に関連付けられている画像処理情報及び位置情報を前記設定情報格納部から読み出し、前記位置情報が示す位置に、前記画像処理情報が示す画像処理を適用する
付記1又は2に記載の送信装置。
(付記4)
前記部分画像生成部は、前記画像データを走査して、前記被写体である人物の顔の部位を示すパターンを検出し、検出された前記人物の顔に含まれる部位の位置に基づいて、当該部位が含まれる部分画像を生成する
付記1ないし3のいずれか1項に記載の送信装置。
(付記5)
前記画像処理は、部分画像に含まれる画像データの形状、色彩若しくは位置の変更、画像の描画、若しくは部分画像に対するフィルタ処理又はこれらの組み合わせである
付記1ないし4のいずれか1項に記載の送信装置。
(付記6)
画像データから特定された所定の領域を含み、当該所定の領域を示す領域情報と関連付けられている部分画像であって、所定の画像処理が実行された後の部分画像を受信する受信部と、
表示対象の部分画像を記憶している記憶部と、
受信された前記部分画像と同一の前記領域情報が付されており、且つ受信された前記部分画像よりも前に生成されたことを示す時系列情報が付されている部分画像の代わりに、受信された前記部分画像を、前記表示対象の部分画像として前記記憶部に記憶させる表示更新部と、
を有する受信装置。
(付記7)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けて第1の記憶部に格納する部分画像生成部と、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けられて格納された前記部分画像に対して実行する画像処理部と、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された処理後の部分画像との差異の有無を判定する差異判定部と、
差異があると判定された部分画像を記憶する第1の記憶部と、
画像データから特定された所定の領域を含み、当該所定の領域を示す領域情報と関連付けられた部分画像であって、所定の画像処理が実行された後の部分画像を受信する受信部と、
受信した部分画像を記憶する第2の記憶部と、
前記第1の記憶部に格納されている、差異があると判定された部分画像と、前記第2の記憶部に格納されている部分画像とを重畳して表示させるための情報を生成する表示更新部と
を有する通信装置。
(付記8)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付
けてデータ格納部に格納するステップと、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行するステップと、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定するステップと、
差異があると判定された場合に、前記画像処理部によって前記画像処理が実行された前記部分画像を送信するステップと
をコンピュータに実行させるためのデータ送信プログラム。
(付記9)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けて第1の記憶部に格納するステップと、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けられて格納された前記部分画像に対して実行するステップと、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された処理後の部分画像との差異の有無を判定するステップと、
画像データから特定された所定の領域を含み、当該所定の領域を示す領域情報と関連付けられた部分画像であって、所定の画像処理が実行された後の部分画像を受信するステップと、
差異があると判定された前記部分画像と、前記受信した部分画像とを重畳して表示させるための情報を生成するステップと
をコンピュータに実行させるためのデータ通信プログラム。
(付記10)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納するステップと、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行するステップと、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定するステップと、
差異があると判定された場合に、前記画像処理部によって前記画像処理が実行された前記部分画像を送信するステップと
を含むデータ送信方法。
(付記11)
画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けて第1の記憶部に格納するステップと、
前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けられて格納された前記部分画像に対して実行するステップと、
処理後の部分画像と、当該処理後の部分画像よりも前に生成された処理後の部分画像との差異の有無を判定するステップと、
画像データから特定された所定の領域を含み、当該所定の領域を示す領域情報と関連付けられた部分画像であって、所定の画像処理が実行された後の部分画像を受信するステップと、
差異があると判定された前記部分画像と、前記受信した部分画像とを重畳して表示させるための情報を生成するステップと
を含むデータ通信方法。
1(1a,1b) 3 通信装置
2 ネットワーク
11 31 送信装置
12 32 受信装置
111 画像入力部
112 音声入力部
113 データ格納部
114 レイヤ生成部
115 画像処理部
116 設定格納部
117 差異判定部
118 送信部
121 受信部
122 データ格納部
123 323 表示更新部
124 画像出力部
125 音声出力部

Claims (7)

  1. 画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納する部分画像生成部と、
    前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行する画像処理部と、
    処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定する差異判定部と、
    差異があると判定された場合に、前記画像処理部によって前記画像処理が実行された前記部分画像を送信する送信部と
    を有し、
    前記部分画像生成部は、前記画像データを走査して、被写体である人物の顔の部位を示すパターンを検出し、検出された前記人物の顔に含まれる部位の位置に基づいて、当該部位が含まれる部分画像を、前記人物の顔の部位ごとに生成する
    送信装置。
  2. 前記部分画像は、当該部分画像が含まれる平面上の所定の座標を基準として、他の部分画像と重ね合わせて表示することが可能なレイヤで表される
    請求項1に記載の送信装置。
  3. 前記領域情報に関連付けて、前記画像処理を示す画像処理情報と、当該画像処理を適用する位置を示す位置情報とを格納する設定格納部を有し、
    前記画像処理部は、前記部分画像に付されている前記領域情報と同一の領域情報に関連付けられている画像処理情報及び位置情報を前記設定格納部から読み出し、前記位置情報が示す位置に、前記画像処理情報が示す画像処理を適用する
    請求項1又は2に記載の送信装置。
  4. 前記画像処理部は、所定の部分画像を拡大する画像処理を実行し、
    前記レイヤを重ね合わせて、前記所定の部分画像を前記他の部分画像よりも拡大した画像を表示できるようにする
    請求項2に記載の送信装置。
  5. 画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けて第1の記憶部に格納する部分画像生成部と、
    前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けられて格納された前記部分画像に対して実行する画像処理部と、
    処理後の部分画像と、当該処理後の部分画像よりも前に生成された処理後の部分画像との差異の有無を判定する差異判定部と、
    差異があると判定された部分画像を記憶する第1の記憶部と、
    画像データから特定された所定の領域を含み、当該所定の領域を示す領域情報と関連付けられた部分画像であって、所定の画像処理が実行された後の部分画像を受信する受信部と、
    受信した部分画像を記憶する第2の記憶部と、
    前記第1の記憶部に格納されている、差異があると判定された部分画像と、前記第2の記憶部に格納されている部分画像とを重畳して表示させるための情報を生成する表示更新部と
    を有し、
    前記部分画像生成部は、前記画像データを走査して、被写体である人物の顔の部位を示すパターンを検出し、検出された前記人物の顔に含まれる部位の位置に基づいて、当該部位が含まれる部分画像を、前記人物の顔の部位ごとに生成する通信装置。
  6. 画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納する部分画像生成ステップと、
    前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行するステップと、
    処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定するステップと、
    差異があると判定された場合に、前記画像処理が実行された前記部分画像を送信するステップと
    をコンピュータに実行させ、
    前記部分画像生成ステップにおいて、前記コンピュータに、前記画像データを走査させ、被写体である人物の顔の部位を示すパターンを検出させ、検出された前記人物の顔に含まれる部位の位置に基づいて、当該部位が含まれる部分画像を、前記人物の顔の部位ごとに生成させる
    データ送信プログラム。
  7. 画像データから所定の領域を特定し、当該画像データのうち特定された前記所定の領域が含まれる部分画像を生成し、前記所定の領域を示す領域情報と前記部分画像とを関連付けてデータ格納部に格納する部分画像生成ステップと、
    前記領域情報に関連付けられて定められている画像処理を、前記領域情報に関連付けてデータ格納部に格納された前記部分画像に対して実行するステップと、
    処理後の部分画像と、当該処理後の部分画像よりも前に生成された、処理後の部分画像との差異の有無を判定するステップと、
    差異があると判定された場合に、前記画像処理が実行された前記部分画像を送信するステップと
    をコンピュータが実行し、
    前記部分画像生成ステップにおいて、前記コンピュータは、前記画像データを走査して、被写体である人物の顔の部位を示すパターンを検出し、検出された前記人物の顔に含ま
    れる部位の位置に基づいて、当該部位が含まれる部分画像を、前記人物の顔の部位ごとに生成する
    データ送信方法。
JP2012166996A 2012-07-27 2012-07-27 送信装置、通信装置、データ送信プログラム及びデータ送信方法 Expired - Fee Related JP6102111B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012166996A JP6102111B2 (ja) 2012-07-27 2012-07-27 送信装置、通信装置、データ送信プログラム及びデータ送信方法
US13/948,913 US8941714B2 (en) 2012-07-27 2013-07-23 Transmitting device, receiving device, data transmission method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012166996A JP6102111B2 (ja) 2012-07-27 2012-07-27 送信装置、通信装置、データ送信プログラム及びデータ送信方法

Publications (2)

Publication Number Publication Date
JP2014027522A JP2014027522A (ja) 2014-02-06
JP6102111B2 true JP6102111B2 (ja) 2017-03-29

Family

ID=49994490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012166996A Expired - Fee Related JP6102111B2 (ja) 2012-07-27 2012-07-27 送信装置、通信装置、データ送信プログラム及びデータ送信方法

Country Status (2)

Country Link
US (1) US8941714B2 (ja)
JP (1) JP6102111B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6550307B2 (ja) * 2015-09-11 2019-07-24 大和ハウス工業株式会社 画像表示システム及び画像表示方法
JP6599183B2 (ja) * 2015-09-11 2019-10-30 大和ハウス工業株式会社 画像表示システム及び画像表示方法
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
JP6922344B2 (ja) * 2017-03-31 2021-08-18 富士通株式会社 情報処理装置、情報処理システム、及び情報処理方法
WO2019026432A1 (ja) * 2017-07-31 2019-02-07 ソニー株式会社 通信制御装置、通信制御装置の制御方法及びプログラム
JP6972043B2 (ja) * 2019-01-11 2021-11-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7414496B2 (ja) 2019-12-05 2024-01-16 Necソリューションイノベータ株式会社 画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2502176B2 (ja) 1990-09-10 1996-05-29 三菱電機株式会社 画像信号の符号化器及びその復号化器
JPH05284368A (ja) * 1992-03-31 1993-10-29 Fujitsu Ltd 画像データ符号化・復元方法及びその装置
JPH07288789A (ja) * 1994-04-15 1995-10-31 Hitachi Ltd 知的符号化装置及び画像通信装置
JPH0823527A (ja) * 1994-07-07 1996-01-23 Hitachi Ltd テレビ電話システム
JPH09307893A (ja) 1996-05-17 1997-11-28 Canon Inc 画像通信システム、画像通信装置および画像表示装置
JP2001352547A (ja) 2000-06-07 2001-12-21 Mitsubishi Heavy Ind Ltd 画像データ通信システム
JP2004173320A (ja) 2002-04-22 2004-06-17 Nariyuki Motoi 画像提供装置
JP2004086550A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd 表示画面更新システム
JP2005018451A (ja) 2003-06-26 2005-01-20 Seiko Epson Corp 動画像再生システム及び動画像再生プログラム、並びに動画像再生方法
JP5414154B2 (ja) 2007-03-29 2014-02-12 京セラ株式会社 画像送信装置、画像送信方法および画像送信プログラム
JP5088161B2 (ja) * 2008-02-15 2012-12-05 ソニー株式会社 画像処理装置、カメラ装置、通信システム、画像処理方法、およびプログラム
JP5213627B2 (ja) * 2008-10-07 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
JP2011228936A (ja) * 2010-04-20 2011-11-10 Shiseido Co Ltd 動画伝送システム、送信装置、受信装置、動画管理装置、送信プログラム、受信プログラム、及び動画管理プログラム

Also Published As

Publication number Publication date
JP2014027522A (ja) 2014-02-06
US20140028782A1 (en) 2014-01-30
US8941714B2 (en) 2015-01-27

Similar Documents

Publication Publication Date Title
JP6102111B2 (ja) 送信装置、通信装置、データ送信プログラム及びデータ送信方法
US11861936B2 (en) Face reenactment
JP4449723B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10922865B2 (en) Information processing apparatus, information processing method, and program
US10701506B2 (en) Personalized head related transfer function (HRTF) based on video capture
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
US9710912B2 (en) Method and apparatus for obtaining 3D face model using portable camera
KR101733512B1 (ko) 얼굴 특징 기반의 가상 체험 시스템 및 그 방법
KR20210120014A (ko) 포토리얼리스틱 실시간 인물 애니메이션을 위한 시스템 및 방법
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP5949331B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2005242566A (ja) 画像合成装置及び方法
KR101711684B1 (ko) 3d 아바타 출력 장치 및 방법
JP6111723B2 (ja) 画像生成装置、画像生成方法及びプログラム
CN112488018A (zh) 双目活体检测方法、装置、设备和存储介质
CN110070481A (zh) 用于面部的虚拟物品的图像生成方法、装置、终端及存储介质
KR101165017B1 (ko) 3차원 아바타 생성 시스템 및 방법
JP5731462B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
CN114187166A (zh) 图像处理方法、智能终端及存储介质
KR20230022154A (ko) 기본 셀프-이미지를 위한 전역 구성 인터페이스
CN108600614B (zh) 一种图像处理方法及装置
WO2021244040A1 (zh) 人脸表情编辑方法及电子设备
WO2008126948A1 (en) System for making caricature and method of the same and recording medium of the same
CN114782240A (zh) 图片处理方法以及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees