JP2008235989A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2008235989A
JP2008235989A JP2007068530A JP2007068530A JP2008235989A JP 2008235989 A JP2008235989 A JP 2008235989A JP 2007068530 A JP2007068530 A JP 2007068530A JP 2007068530 A JP2007068530 A JP 2007068530A JP 2008235989 A JP2008235989 A JP 2008235989A
Authority
JP
Japan
Prior art keywords
image
transparency
superimposed
self
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007068530A
Other languages
English (en)
Inventor
Hidekazu Hosoya
英一 細谷
Ikuo Harada
育生 原田
Akira Onozawa
晃 小野澤
Shizue Hattori
静枝 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007068530A priority Critical patent/JP2008235989A/ja
Publication of JP2008235989A publication Critical patent/JP2008235989A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の地点の画像を半透明化して重畳した画像の視認性を向上することが可能な画像処理装置および画像処理方法を提供する。
【解決手段】画像重畳部232は、ユーザA1側の自己画像と、A1以外の地点(遠隔地側)の画像について、画素ごとに透明度情報を持たせる。この際、画像重畳部は、各画素の透明度を自由に変更可能な透明度マスクデータが示す各画素の透明度を、その入力画像の対応する各画素の透明度情報として設定することにより、画素毎に透明度の異なる半透明化処理を行う。画像重畳部232は、画像を重畳する際、両者の同じ位置にある画素の透明度情報に応じて、複数ある画像中の画素を重ね合わる。この重畳された画像が、ディスプレイ3に表示される。
【選択図】図1

Description

本発明は、ユーザ(操作者)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を見ながら、メニューの選択・実行ができるインタフェース装置および方法に関する。
遠隔地間のコミュニケーションを可能にするインタフェース装置が、特許文献1に記載されている。
このインタフェース装置は、複数の地点にいるユーザの画像を自己画像を含めて重ね合わせ、その画像をディスプレイ上に表示することにより、各地にいるユーザが同室にいるかのような効果を奏する。
また、このインタフェース装置は、複数の画像を半透明化して重畳することも可能である。なお、このインタフェース装置では、画像ごとに、透明度が設定される。
特開2006−221550号公報
特許文献1に記載のインタフェース装置は、複数の地点にいるユーザの画像を半透明で重畳することができるが、画像ごとに、透明度が設定されるため、個々の画像では、画像全体が均一の透明度になる。このため、見たい領域が薄くなり視認性が低くなる問題があった。
本発明の目的は、複数の地点の画像を半透明化して重畳した画像の視認性を向上することが可能な画像処理装置および画像処理方法を提供することである。
上記目的を達成するため、本発明の画像処理装置は、操作者の画像を有する自己側の画像を受け付ける手段と、自己の地点と異なる他の地点から送られてきた他地点側の画像を受け付ける手段と、前記自己側の画像を左右反転した反転画像を生成するか、または、当該自己側の画像をそのまま出力する手段と、前記反転画像が生成された場合には、当該反転画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成する手段と、前記反転画像が生成された場合には、当該反転画像上で前記操作者の指示している位置を検出し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像上で前記操作者の指示している位置を検出する手段と、前記検出された位置に基づき、前記重畳画像上で前記操作者の指定するコマンドを選択し実行する手段と、を含む。
本発明の画像処理方法は、画像処理装置が行う画像処理方法であって、操作者の画像を有する自己側の画像を受け付ける段階と、自己の地点と異なる地点から送られてきた他地点側の画像を受け付ける段階と、前記自己側の画像を左右反転した反転画像を生成するか、または、当該自己側の画像をそのまま出力する段階と、前記反転画像が生成された場合には、当該反転画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成する段階と、前記反転画像が生成された場合には、当該反転画像上で前記操作者の指示している位置を検出し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像上で前記操作者の指示している位置を検出する段階と、前記検出された位置に基づき、前記重畳画像上で前記操作者の指定するコマンドを選択し実行する段階と、を含む。
上記発明によれば、重畳される各画像は、画素ごとに、任意の透明度で半透明される。このため、例えば、同一画像内で、見たい領域の透明度を、他の領域の透明度よりも低く調整することが可能になり、視認性の向上を図ることが可能になる。
また、従来のインタフェース装置と同様に、ユーザは、重畳画像中の自己像を見ながら他地点側の画像中の遠隔地物体を、非接触に指定できる。また、重畳される画像は半透明で重畳可能なので、ユーザは任意の背景にて遠隔地の物体操作が可能である。また、画像は半透明にされてから重畳されるため、遠隔地の人と自部屋のユーザが重なった場合でも互いが透過して映るので、その場合でも互いに隠れることなく、相手の画像や物体を見ることができる。
また、前記重畳画像を生成する手段は、各画像において前記透明度が段階的に変化(グラデーション)するように、各画像の画素の透明度を設定することが望ましい。
上記発明によれば、透明度の変化を滑らかにすることが可能になり、任意形状の領域の輪郭の透明度について、グラデーションをつけて設定できるため、互いの映像を、境目無く自然に重畳することが可能になる。
本発明によれば、複数の地点の画像を半透明化して重畳した画像の視認性を向上することが可能になる。
次に、本発明の実施例を、図面を参照して説明する。
[第1の実施例]
図1は本発明の第1の実施例のインタフェース装置を示す図、図2、図3はそれぞれインタフェース装置の送信部、受信部の構成を示す図、図4はインタフェース装置の画像重畳部の構成を示す図である。
インタフェース装置100は、画像処理装置の一例であり、インターネット、公衆電話網等のネットワーク200を介して、インタフェース装置100と同一構成である他のインタフェース装置(不図示)と接続されている。他のインタフェース装置(遠隔地側のインタフェース装置)は、インタフェース装置100が存在する地点と異なる地点にあり、1台でもよいし、複数台でもよい。
以下では、インタフェース装置100は、ユーザA1にて操作され、不図示の遠隔地側のインタフェース装置は、ユーザA1以外のユーザ(他のユーザ)によって操作されるものとする。
インタフェース装置100は、ユーザA1(操作者)を含む画像(自己画像)と、遠隔地側のインタフェース装置からネットワーク200を介して送られてきた1つないしは複数の画像(遠隔地画像)と、を半透明化して重畳することによって、重畳画像を生成し、その重畳画像をディスプレイ3上に表示する。
さらに、インタフェース装置100は、ユーザA1がディスプレイ3上の重畳画像を見ながら行うユーザA1の動作に基づいて、重畳画像内の物体に対しコマンドを実行する。
インタフェース装置100は、画像入力部1と、処理部2と、ディスプレイ3と、を含む。処理部2は、送信部21と、受信部22と、画像生成部23と、情報表示部24と、を含む。送信部21は、画像送信部21aと、コマンド送信部21bと、を含む。受信部22は、画像受信部22aと、コマンド受信部22bと、を含む。画像生成部23は、反転画像生成部231と、画像重畳部232と、指示位置検出部233と、コマンド選択部234と、を含む。画像重畳部232は、半透明化処理部232aと、重畳処理部232bと、透明度マスクデータ記憶部232cと、を含む。
以下、ユーザA1側のインタフェース装置100の各部について説明するが、遠隔地側のインタフェース装置についても同様である。他の実施例でも同様である。
画像入力部1は、ユーザA1を含む画像(自己側の画像)を入力するためのもので、本例では、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし、下記で述べる色情報を使用した方法を用いる場合は、カラーカメラが必要である。
処理部2は、画像入力部1で入力された画像、および、1つないしは複数の他のインタフェース装置からネットワーク200を介して送られてきた画像(遠隔地画像)を処理する。
送信部21(画像送信部21a)は、画像入力部1で入力された入力画像を受け付け、その入力画像を、ネットワーク200を介して、他の所定の遠隔地側のインタフェース装置へ送信する。この送信は、マルチキャスト送信を行えば可能である。また、送信部21(画像送信部21a)は、同時に、画像入力部1で入力された入力画像を、反転画像生成部231へ送る。
さらに、送信部21(コマンド送信部21b)は、コマンド選択部234から送られてきたコマンド情報を受け取り、ネットワーク200を介して、遠隔地側のインタフェース装置へ送信する。送信部21から遠隔地側の所定のインタフェース装置へ送信された入力画像とコマンド情報は、遠隔地側のインタフェース装置の受信部で受信される。
画像を、ネットワークを介して送る方法として、インターネットを用いた既存の一般的な映像送信技術を使うことが可能であり、また一般的な映像放送等による無線を用いた送信、有線ネットワーク上での送信技術も容易に使用可能である。
なお、インタフェース装置100と遠隔地側のすべてのインタフェース装置が比較的近い場所にある場合、ネットワーク200を介さずに画像用のケーブルで、インタフェース装置100と遠隔地側のすべてのインタフェース装置を直接接続することも可能である。
受信部22(画像受信部22a)は、1つないしは複数の地点の遠隔地側のインタフェース装置からネットワーク200を介して送信されてきた入力画像(遠隔地画像)を受信し、受信した入力画像(遠隔地画像)を、反転画像生成部231と画像重畳部232に送る。
さらに、受信部22(コマンド受信部22b)は、1つないしは複数の地点の遠隔地側のインタフェース装置からネットワーク200を介して送信されてきたコマンド情報を受信し、受信したコマンド情報をコマンド選択部234に送る。
画像生成部23は、送信部21および受信部22から送られてきた画像に基づいて処理を実行する。
反転画像生成部231は、送信部21から出力されたユーザA1側の入力画像と、受信部22から出力された1つないしは複数の遠隔地側の入力画像と、の両方またはいずれかを左右反転して反転画像を生成したり、ユーザA1側の入力画像と1つないしは複数の遠隔地側の入力画像との両方を反転せずにそのまま出力したりする。
例えば、反転画像生成部231は、ユーザA1側の入力画像を左右反転して反転画像を生成し、その反転画像を画像重畳部232と指示位置検出部233に出力し、すべての遠隔地側の入力画像を反転せずにそのまま画像重畳部232に出力する。
ここで、各入力画像の反転/非反転の設定は、予め初期設定として行ってもいし、動作中に行ってもよい。
なお、遠隔地側の画像の反転/非反転の設定は受信部22で行い、「反転」に設定されていれば反転画像生成部231に、「非反転」が設定されていれば画像重畳部232に、遠隔地側の画像が出力されるようにしてもよい。この設定も予め初期設定として行ってもよいし、動作中に行ってもよい。
画像重畳部232は、反転画像生成部231から出力されたユーザA1側の画像と、受信部22から出力された(または、反転画像生成部231から出力された)遠隔地側の画像と、を半透明化して重ね合わせて重畳画像を生成する。
半透明化処理部232aは、入力した画像を半透明化する。具体的には、半透明化処理部232aは、ユーザA1側の自己画像と、ユーザA1の地点以外の地点(遠隔地側)の画像について、各々個別に半透明化処理を行う。
半透明化の度合いを自由に設定することも容易に可能である。半透明化の方法は、画像データに対し、画素ごとに透明度(アルファ値とも言われ、一般的な方法である)情報を持たせることで実現できる。透明度の変更により、自己画像も遠隔地画像もいずれも各々個別に、半透明ではなく、完全な透明(すなわち非表示)にしたり、不透明にしたりすることも可能である。
重畳処理部232bは、半透明化処理された自己画像と、1つないしは複数の遠隔地画像とを重ね合わせて(重畳して)1枚の画像(重畳画像)を生成する。
重畳処理部232bは、画像を重畳する際、両者の透明度の割合に応じて、複数ある画像中の画素を重ね合わせればよい。例えば、ユーザA1,A2,A3のいる3地点からの画像を重畳する場合、A1の不透明度が0.6、A2の不透明度が0.3、A3の不透明度が0.1とすると、重畳処理部232bは、A1の画像のある画素を60%、A2の対応する画素を30%、A3の対応する画素を10%、の割合にした各画素の値を、3つ加算して求めればよい。
また、透明度マスクデータ記憶部232cに、各画素の透明度を自由(任意)に変更可能な透明度マスクデータが記憶され、半透明化処理部232aは、入力画像ごとに、この透明度マスクデータを読み込み、その透明度マスクデータが示す各画素の透明度を、その入力画像の対応する各画素の透明度情報として設定することにより、重畳される各画像において、画素ごとに透明度の異なる半透明化処理を行うことができる(図4参照)。
これにより、画像重畳部232は、前述のように画像全体で共通の透明度での重畳を行えるだけでなく、図5に示すように、画素ごと、または、領域ごとに、透明度を変えて、複数の画像を重畳することができる。
例えば、操作者が、透明度マスクデータを画素単位で任意に調節して、画素ごとに透明度を任意に設定し、画像重畳部232が、その調節された透明度マスクデータを用いて画像の半透明化を実行することにより、操作者が画像を見やすくなるように、画像の透明度を調節することが可能になる。
指示位置検出部233は、反転画像生成部231から出力された画像上においてユーザA1が手指等の体の部位で指し示す位置(ユーザ指示位置)を検出し、その検出結果をコマンド選択部234と情報表示部24に出力する。
指示位置検出部233の1つ目の実現例として、ユーザA1がマーカを持ち、指示位置検出部233が、入力画像中のマーカを画像処理により検出する方法がある。
例えば、まず、ユーザA1が、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラの前で手振りして動かす。
指示位置検出部233は、得られたカラー画像のRGB等色情報の値から赤色成分を抽出し、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を用い、その中で最も面積の大きい赤色部分を1つ選び、その位置の重心位置(x、y)を求め、得られた重心位置(x、y)座標をユーザ指示位置とする。
ここで、ユーザA1は、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で手に持ちもしくは装着し、指示位置検出部233が当該色を抽出して同様に処理を行う方法も可能である。
なお、(x、y)は、重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもよい。
指示位置検出部233の2つ目の実現例として、ユーザA1がマーカをもたずに、指示位置検出部233が、入力画像中の手の位置を画像処理により直接検出する方法がある。
例えば、まず、指示位置検出部233が、得られたカラー画像のRGB等の色情報の値から肌色成分を抽出し、ラベリング処理を行う。続いて、指示位置検出部233は、得られた複数の肌色成分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。
その選択する具体的な方法例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積が大きいのは顔と考えられるので、指示位置検出部233は、2つ目と3つ目に面積が大きい肌色部分を手の候補として選択する。
ユーザ指定位置を両手とした場合、指示位置検出部233は、その2つの肌色部分の候補に対する重心位置を、2つの候補から1つ選ぶ必要があるが、予め例えば右手を指定する手としたら、指示位置検出部233は、体よりも右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置とすればよい。左手の場合も同様である。
指示位置検出部233のこれらの実現例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。
差分画像は、例えば、反転画像上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との差分を取ることによって作成される。
差分画像は、例えば、全画素について、画素毎に、背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、体等の動く物体だけを予め抽出しておき、その後前述したような画像処理(体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置を検出し、その座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。
このような指示位置検出部233により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触部位判定に用いることができるので、コマンド選択のためのアイコン等を任意の位置におくことが可能になり、その位置およびユーザ動作に関して高い自由度が得られる。
コマンド選択部234は、指示位置検出部233で得られたユーザ指定位置と、ユーザA1が選択しようとする、ユーザA1側のコマンド情報のディスプレイ3上での表示位置(コマンド選択部234に予め設定しておけばよい)を照らし合わせ、両者の位置関係から、重畳画像上でユーザA1が指示しようとするコマンド情報を探索し、選択、実行する。
また、コマンド選択部234は、受信部22から出力された、遠隔地側のコマンド情報を受け取り、ユーザA1側の場合と同様に、ユーザA1側において該コマンドを選択し、実行する。
さらに、コマンド選択部234は、ユーザA1側のコマンド情報を送信部21に送り、ネットワーク200を介して遠隔地側のインタフェース装置に送る。
ユーザが選択しようとするコマンド情報のディスプレイ3上での表示位置は、各々予め、遠隔地側入力画像上での表示位置を定めて記憶しておけばよい。
例えば、ユーザ指示位置からある一定距離範囲に表示位置を持つコマンドがあれば、コマンド選択部234は、それを選択すればよい。コマンド情報の表示位置は、コマンド毎に予め任意の位置に決めておけばよい。
また、コマンド選択部234は、遠隔地側のインタフェース装置から送られてくるコマンド情報に関しては、設定により、実行する/実行しない、を切り換えることもできる。
情報表示部24は、画像重畳部232で得られた重畳画像と、コマンド選択部234で作成されたコマンド情報とをディスプレイ3に表示する。
ディスプレイ3は、コンピュータ用に使われる汎用のディスプレイでよく、画面上に、カメラ画像とコマンド情報を表示できるものであればよい。
コマンド情報とは、コマンド表示位置やコマンド内容等のコマンドに関わる情報と、ユーザA1がその中から選択したコマンドの情報であり、その表示方法は、コンピュータで作製したCGで、選択可能なコマンド(群)、および選択されたコマンドを表示すればよい。
また、指示位置検出部233で得られたユーザ指示位置についても、例えばマウスのカーソル表示のようにリアルタイムに明示して表示してもよい。
コマンドの内容としては、遠隔地側の物体を操作したり情報を表示するコマンドでもよいし、ユーザ側の部屋に関わる操作や情報表示を行うコマンドでもよい。遠隔地側の物体を操作したり情報を表示するコマンドであれば、重畳画像中に遠隔地側の画像が表示されているので、ユーザA1にとって、操作の判断や、操作結果の確認が可能であり、ユーザ利便性の高いインタフェースを実現できる。
ユーザは、自己画像が映った重畳画面を見ながら、同じ画面上に表示されているCGアイコンによるコマンド情報(情報表示部の説明参照)に手指等を重ね合わせるだけで、画面に直接触らずに、自己画像中の物体に対するコマンド選択・実行や、遠隔地画像中の物体に対するコマンド選択・実行が可能である。このような操作方法により、分かり易く間違いの少ない指示が可能になる。
なお、ユーザA1と他の1人のユーザの2地点間を接続してもよいし、3地点以上(最大N地点)の画像を重畳してもよい。
また、ユーザA1の入力画像と、A1以外の地点から送られてきた画像は、反転画像生成部231により、各々個別に、反転したり非反転のまま(正像のまま)にしたりすることができる。よって、ユーザA1側のディスプレイ3に表示される画像は、例えば、A1とA2とA3の3地点のユーザに関する画像を重畳した場合、A1の反転/非反転+A2の反転/非反転+A3の反転/非反転、の各々の反転/非反転の組み合わせにより8通りの重畳画像が可能である。
本実施例によれば、画像重畳部232は、重畳される各画像を、画素ごとに、任意の透明度で半透明化し重畳する。このため、複数地点の映像を重畳する際には、見たい領域の透明度を他の領域の透明度より低くすることで、全体を均一の透明度設定にした場合より、見たい領域を濃く鮮明に表示させることができ、従来のインタフェース装置の半透明重畳による効果を活かしつつ、視認性を向上させられる。
また、A1地点の自己画像およびA1以外の地点の画像をいずれも任意の透明度で半透明化して重畳することにより、ユーザA1は、自己画像中の物体またはA1以外の地点の画像中の物体の像と、ユーザA1の自己画像を同時に見られる。
このため、ユーザA1は手指等と目的の物体を重ねる操作を行うことで、自分の部屋の物体も、またA1以外の地点にある物体も、仮想的に同じ部屋にあるかのように、画面上で指差したり触ることができ、操作性の高いインタフェースを実現できる。また、透明度は自由に設定できるので、重畳したときに、ユーザが最も操作しやすいように自由に透明度を変更することができる。
また、ユーザA1側の映像全体を半透明にして重畳することにより、ブルーバックによるクロマキー合成時等の特殊な環境は必要なく、任意の背景で自部屋や遠隔地の物体操作が可能である。また、遠隔地の人と自部屋のユーザが重なった場合でも透過して映るので、その場合でも互いに隠れることなく、相手の画像や物体を見ることができる。
[第2の実施例]
図6および図7は、本発明の第2の実施例のインタフェース装置を説明するための図である。
本実施例では、透明度マスクデータは、透明度の異なる複数の領域に分割され、各分割領域の境界の透明度がグラデーション化(段階的に透明度が変化)されている。このため、画像重畳部232は、この透明度マスクデータを用いて、重畳される画像について画素ごとに透明度を設定することにより、1つの画像における透明度の変化を滑らかに設定することが可能になる。
従来のTV会議等の方式を使った場合では、同じ画面上に、自分の映像と相手の映像を表示させたとしても、それらの境界線がはっきり出てしまい、自分と相手が異なる環境にいることがより明確化されてしまっていたが、本実施例では、その境界線がなくなり、互いの映像が半透明で重畳され、滑らかにその透明度が変化した自然な境目にすることができるため、あたかも同じ部屋にいる様子が映っているように見え、自分と相手が同じ空間にいる感覚を増長させることが可能である。
また、従来の半透明で重畳する方式では、互いの境目はなくなっているが、全画素を均一の透明度で半透明化しているため、全体が薄くなる問題があったが、本実施例では、画素単位で任意の透明度を設定できるので、例えば画面上で自分がいる領域とその近辺は自分側の映像を濃くし、相手側の領域は相手側の映像を濃くし、その境目の透明度をグラデーションをつけて滑らかに重畳することにより、互いの映像の境目がない重畳画像でありながら、より鮮明に互いの映像を表示させることが可能となる。
第1の実施例では、画素単位で透明度を変えられたが、第2の実施例では、領域間の透明度にグラデーションをかけることにより、遠隔地間の映像を自然に重ね合わせることができるようになっている。
具体的な重ね合わせの例を以下に示す。
図6は、遠隔地間の2人が、左右に表示された状態で、映像コミュニケーションを行っている例である。従来の全画素均一透明度で半透明重畳する手法では各ユーザの映像は画像全体に渡って薄くなっていたが、本実施例では、従来同様に境目のない重畳でありながら、各々の映像は濃く鮮明に表示することができる。
このような例は、1対1の遠隔映像コミュニケーションを行うシーンにおいて多用される位置関係である。
例えば、遠隔地間で資料等を共有した打合せであれば、2人の間(画面中央付近)に共有ドキュメントを半透明で表示させれば、各々の映像は濃く鮮明に表示できることと、互いの映像が半透明に映る中央付近ではドキュメントを互いに(半透明で)指差して、同じ位置を指差しながら打合せや説明を行うことができる。
また、相手の体のところまで、手を伸ばせば、相手の映像が濃く表示された上に、自分の手を薄く表示することができるので、相手の体のどこを指し示しているかが視覚的にすぐ分かるような表現も可能である。
例えば、医療分野を例に挙げれば、遠隔で問診をする場面で、一方の医者が遠隔地にいるもう一方の患者の体を指差して「ここは痛いですか?」「いえ、こっちの場所が痛いです」といった、直感的でかつ曖昧な情報の意思伝達をスムーズに行うことが可能になる。これらは従来のTV会議方式ではできない。
また更に、遠隔地間でカウンセリングを行う場面では、画面上の境目がなくなることによって、カウンセラー側と患者側の間でのコミュニケーションにおいて、より効果的でスムーズなカウンセリングを実施できる。
この場合も打合せと同様に、従来の全画素半透明で重畳する方式では、境目がない利点はあるが、鮮明度が低いことが、心を開いて話し合うべきコミュニケーションにおいてマイナスの影響を与える可能性があったが、本実施例では、互いの表示領域を鮮明化させつつ、同時にその境目をグラデーションにより自然に重ねることができるため、同じ空間にいる状況及び感覚を増強することができ、より効果的な遠隔コミュニケーションを行うことが可能になる。
また、図7は、一方に1人、他方に2人が、同じ位置に配置された机の周りの異なる位置に座っている状態で、会議や講義のような映像コミュニケーションを行っている例である。この場合も図6と同様に、従来同様に境目のない重畳でありながら、各々の映像は濃く鮮明に表示することができる。
従来の複数人数によるTV会議では、相手側の映像のみ表示したり、自分側の映像を表示したとしても境目無く同じ画面上に表示するような方法は無かった。また、従来の半透明で重畳する方式では、境目無く同じ画面上に表示はできても、互いの映像が薄くなってしまった。
これらに対し、本実施例では、互いの映像を鮮明に表示させつつ、境目をグラデーションで自然な重なりとなる重畳画像を作ることにより、遠隔地にいるお互いがあたかも同じ1つの机を囲んで話合っているかのような状況と感覚を醸成することができる。
特にこの例では、共通の物体である机を同じ表示位置になるように机やカメラを配置し、その辺りの透明度は互いが例えば同程度の透明度で半透明にして重畳させることもできるので、それにより、互いの映像は鮮明でありながら、机の上は、互いが手を伸ばせば半透明で両者とも表示できるので、机の上に置いたものや、机の上の同じ位置を互いに同時に指差しすることもできる。これにより、よりいっそう同じ部屋にいる状況及び感覚が得られるとともに、また互いに同じ資料等を指せることで利便性を高めることができる。
このような重畳表示による共有空間の生成は、図6のように単純な透明度画像だけでなく、図7のように状況に適した任意形状の透明度マスクデータを作成することにより、常に必要な部分だけの鮮明化を行える重畳処理を実現できる。
図7の例では、2地点の重畳を例にしているが、3地点以上の多地点を重畳する場合にも、同様に行うことができる。これにより、例えば5地点にいる各参加者が、あたかも1つの机を囲んで座っているかのような状況も容易に生成できるようになる。
これらの例は、本実施例が、第1の実施例の効果に加え、画像重畳部232が、各画像において透明度が段階的に変化するように、各画像の画素の透明度を設定するため、重畳処理において互いの画像の境目を目立たなくすることにより可能になる。これにより、任意形状の領域の輪郭の透明度についてグラデーションをつけて設定できるため、互いの映像を、境目無く自然に重畳することができる。
なお、以上説明した、本発明の画像処理方法は、専用のハードウェアにより実現されるもの以外に、その機能をコンピュータに実現させるためのプログラムを、コンピュータ読取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。
ここで、コンピュータ読取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。
さらに、コンピュータ読取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内部の揮発性メモリのように、一定時間プログラムを保持しているものを含む。
以上説明した各実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
本発明の第1の実施例のインタフェース装置の構成図である。 送信部の構成図である。 受信部の構成図である。 画像重畳部の構成図である。 第1の実施例のインタフェース装置の重畳処理を説明するための説明図である。 第2の実施例のインタフェース装置の重畳処理を説明するための説明図である。 第2の実施例のインタフェース装置の重畳処理を説明するための説明図である。
符号の説明
100 インタフェース装置
1 画像入力部
2 処理部
21 送信部
21a 画像送信部
21b コマンド送信部
22 受信部
22a 画像受信部
22b コマンド受信部
23 画像生成部
231 反転画像生成部
232 画像重畳部
232a 半透明化処理部
232b 重畳処理部
232c 透明度マスクデータ記憶部
233 指示位置検出部
234 コマンド選択部
24 情報表示部
3 ディスプレイ

Claims (4)

  1. 操作者の画像を有する自己側の画像を受け付ける手段と、
    自己の地点と異なる他の地点から送られてきた他地点側の画像を受け付ける手段と、
    前記自己側の画像を左右反転した反転画像を生成するか、または、当該自己側の画像をそのまま出力する手段と、
    前記反転画像が生成された場合には、当該反転画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成する手段と、
    前記反転画像が生成された場合には、当該反転画像上で前記操作者の指示している位置を検出し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像上で前記操作者の指示している位置を検出する手段と、
    前記検出された位置に基づき、前記重畳画像上で前記操作者の指定するコマンドを選択し実行する手段と、
    を含む画像処理装置。
  2. 前記重畳画像を生成する手段は、各画像において前記透明度が段階的に変化するように、各画像の画素の透明度を設定する、請求項1に記載の画像処理装置。
  3. 画像処理装置が行う画像処理方法であって、
    操作者の画像を有する自己側の画像を受け付ける段階と、
    自己の地点と異なる地点から送られてきた他地点側の画像を受け付ける段階と、
    前記自己側の画像を左右反転した反転画像を生成するか、または、当該自己側の画像をそのまま出力する段階と、
    前記反転画像が生成された場合には、当該反転画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像と前記他地点側の画像とを、画素ごとに任意の透明度で半透明化し重畳して重畳画像を生成する段階と、
    前記反転画像が生成された場合には、当該反転画像上で前記操作者の指示している位置を検出し、前記自己側の画像がそのまま出力された場合には、当該自己側の画像上で前記操作者の指示している位置を検出する段階と、
    前記検出された位置に基づき、前記重畳画像上で前記操作者の指定するコマンドを選択し実行する段階と、
    を含む画像処理方法。
  4. 前記重畳画像を生成する段階では、各画像において前記透明度が段階的に変化するように、各画像の画素の透明度を設定する、請求項3に記載の画像処理方法。
JP2007068530A 2007-03-16 2007-03-16 画像処理装置および画像処理方法 Pending JP2008235989A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007068530A JP2008235989A (ja) 2007-03-16 2007-03-16 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007068530A JP2008235989A (ja) 2007-03-16 2007-03-16 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2008235989A true JP2008235989A (ja) 2008-10-02

Family

ID=39908311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007068530A Pending JP2008235989A (ja) 2007-03-16 2007-03-16 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP2008235989A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5610327B1 (ja) * 2014-03-18 2014-10-22 株式会社Live2D 画像処理装置、画像処理方法及びプログラム
JP2015069481A (ja) * 2013-09-30 2015-04-13 ブラザー工業株式会社 ヘッドマウントディスプレイ、及び、制御プログラム
US9928664B2 (en) 2013-12-02 2018-03-27 Live2D Inc. Image processing device, image processing method and non-transitory computer-readable recording medium
KR20180059723A (ko) * 2016-11-26 2018-06-05 팅크웨어(주) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
WO2019180833A1 (ja) * 2018-03-20 2019-09-26 株式会社島津製作所 細胞観察装置
US11365979B2 (en) 2016-11-26 2022-06-21 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
US11393070B2 (en) * 2016-12-28 2022-07-19 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
WO2023181634A1 (ja) * 2022-03-24 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法及び記録媒体
US11892311B2 (en) 2016-11-26 2024-02-06 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125369A (ja) * 2001-10-19 2003-04-25 Nec Corp 映像送受信装置および映像送受信プログラム
JP2005064681A (ja) * 2003-08-08 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 撮像・表示装置、撮像・表示システム、映像生成方法、この方法のプログラム、およびこのプログラムを記録した記録媒体
JP2006173879A (ja) * 2004-12-14 2006-06-29 Hitachi Ltd コミュニケーションシステム
JP2006221550A (ja) * 2005-02-14 2006-08-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、プログラム、および記録媒体
JP2006287731A (ja) * 2005-04-01 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006352749A (ja) * 2005-06-20 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 映像通信システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125369A (ja) * 2001-10-19 2003-04-25 Nec Corp 映像送受信装置および映像送受信プログラム
JP2005064681A (ja) * 2003-08-08 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 撮像・表示装置、撮像・表示システム、映像生成方法、この方法のプログラム、およびこのプログラムを記録した記録媒体
JP2006173879A (ja) * 2004-12-14 2006-06-29 Hitachi Ltd コミュニケーションシステム
JP2006221550A (ja) * 2005-02-14 2006-08-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、プログラム、および記録媒体
JP2006287731A (ja) * 2005-04-01 2006-10-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006352749A (ja) * 2005-06-20 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 映像通信システム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069481A (ja) * 2013-09-30 2015-04-13 ブラザー工業株式会社 ヘッドマウントディスプレイ、及び、制御プログラム
US9928664B2 (en) 2013-12-02 2018-03-27 Live2D Inc. Image processing device, image processing method and non-transitory computer-readable recording medium
US10235785B2 (en) 2014-03-18 2019-03-19 Live2D Inc. Image compositing device based on mask image, image compositing method based on mask image, and non-transitory computer-readable recording medium therefor
WO2015141049A1 (ja) * 2014-03-18 2015-09-24 株式会社Live2D 画像処理装置、画像処理方法及びプログラム
KR101788626B1 (ko) 2014-03-18 2017-10-20 라이브2디 인크. 화상처리장치, 화상처리방법 및 프로그램
JP5610327B1 (ja) * 2014-03-18 2014-10-22 株式会社Live2D 画像処理装置、画像処理方法及びプログラム
KR102506264B1 (ko) * 2016-11-26 2023-03-06 팅크웨어(주) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US11365979B2 (en) 2016-11-26 2022-06-21 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
KR20180059723A (ko) * 2016-11-26 2018-06-05 팅크웨어(주) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR20230038432A (ko) * 2016-11-26 2023-03-20 팅크웨어(주) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US11609101B2 (en) 2016-11-26 2023-03-21 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
KR102566727B1 (ko) 2016-11-26 2023-08-17 팅크웨어(주) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US11892311B2 (en) 2016-11-26 2024-02-06 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
US11393070B2 (en) * 2016-12-28 2022-07-19 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
WO2019180833A1 (ja) * 2018-03-20 2019-09-26 株式会社島津製作所 細胞観察装置
JPWO2019180833A1 (ja) * 2018-03-20 2020-12-03 株式会社島津製作所 細胞観察装置
JP2021184766A (ja) * 2018-03-20 2021-12-09 株式会社島津製作所 細胞観察装置及び細胞観察方法
JP7428173B2 (ja) 2018-03-20 2024-02-06 株式会社島津製作所 細胞観察装置及び細胞観察方法
WO2023181634A1 (ja) * 2022-03-24 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法及び記録媒体

Similar Documents

Publication Publication Date Title
JP2008235989A (ja) 画像処理装置および画像処理方法
US20220244835A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
Carmigniani et al. Augmented reality: an overview
Carmigniani et al. Augmented reality technologies, systems and applications
US20210011556A1 (en) Virtual user interface using a peripheral device in artificial reality environments
JP2023179485A (ja) 視線ベースのユーザ対話
US10304252B2 (en) Collaboration methods to improve use of 3D models in mixed reality environments
CN117724630A (zh) 用于与三维环境进行交互的设备、方法和图形用户界面
CN111766937B (zh) 虚拟内容的交互方法、装置、终端设备及存储介质
Li et al. Cognitive issues in mobile augmented reality: an embodied perspective
JP2008521110A (ja) AugmentedRealityResourcesのアプリケーション用に画像取り込み機能を具備した個人用装置とその方法
US10990240B1 (en) Artificial reality system having movable application content items in containers
US20200388247A1 (en) Corner-identifiying gesture-driven user interface element gating for artificial reality systems
JP4555701B2 (ja) 情報処理方法、インタフェース装置、プログラム、および記録媒体
Li et al. A two-sided collaborative transparent display supporting workspace awareness
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
CN106293563A (zh) 一种控制方法和电子设备
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
JP5083697B2 (ja) 画像表示装置、入力装置、及び画像表示方法
Zhang et al. Is this my phone? operating a physical smartphone in virtual reality
US11049306B2 (en) Display apparatus and method for generating and rendering composite images
Pauchet et al. TableTops: Worthwhile experiences of collocated and remote collaboration
US20230316674A1 (en) Devices, methods, and graphical user interfaces for modifying avatars in three-dimensional environments
US20230221833A1 (en) Methods for displaying user interface elements relative to media content
WO2020240044A1 (en) Rendering an image on a virtual user interface of an augmented or virtual reality device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110831