JP4555701B2 - 情報処理方法、インタフェース装置、プログラム、および記録媒体 - Google Patents

情報処理方法、インタフェース装置、プログラム、および記録媒体 Download PDF

Info

Publication number
JP4555701B2
JP4555701B2 JP2005036530A JP2005036530A JP4555701B2 JP 4555701 B2 JP4555701 B2 JP 4555701B2 JP 2005036530 A JP2005036530 A JP 2005036530A JP 2005036530 A JP2005036530 A JP 2005036530A JP 4555701 B2 JP4555701 B2 JP 4555701B2
Authority
JP
Japan
Prior art keywords
image
user
command
interface device
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005036530A
Other languages
English (en)
Other versions
JP2006221550A (ja
Inventor
英一 細谷
美紀 北端
秀則 佐藤
育生 原田
晃 小野澤
静枝 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005036530A priority Critical patent/JP4555701B2/ja
Publication of JP2006221550A publication Critical patent/JP2006221550A/ja
Application granted granted Critical
Publication of JP4555701B2 publication Critical patent/JP4555701B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザ(操作者)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を見ながら、メニューの選択・実行ができる情報処理方法およびインタフェース装置に関し、特に遠隔地にある物体(機器等)を操作・表示する情報処理方法およびインタフェース装置に関する。
遠隔地間のコミュニケーションが可能な手法として、非特許文献1に記載の手法がある。これは、ディスプレイ上に複数の地点にいるユーザ映像を自己像を含めて重ね合わせ、その映像を各ユーザに表示することにより、各地にいるユーザが同室にいるかのような効果を持つインタフェースである。
また、非特許文献2と3は、自己画像が表示された実空間の鏡像画像(自己像表示画像)を用いることにより、CG画像だけでなく画面上に表示される物体像を介して実物体にアクセス可能な実世界インタフェース「ミラーインタフェース」を提案している。
また、複数の地点を接続して各地点の映像を見ることができるシステムとしてテレビ会議システムがある。
森川ら、"相手の空間の指差しが可能なビデオ対話:超鏡"、計測自 動制御学会第50回パターン計測部会研究会、pp.382−387、2000 細谷ら、"実世界インタラクションのためのミラーインタフェース" インタラクション2003論文集、情報処理学会シンポジウムシリーズVol.200 3,No.7,pp.95−96 細谷ら、"ミラーインタフェースを用いた遠隔地間の実世界インタラ クション"FIT(情報科学技術フォーラム)2003、pp.591−592
しかしながら、上記の従来の手法は、以下に示す問題があった。
非特許文献1に記載の手法は、遠隔地にいる人や物体の映像と、ユーザの自己画像を重ね合わせることにより、仮想的に同室にいるような効果は得られるが、遠隔地同士の互いのユーザの同じ映像を観察できるためだけであるため、ユーザは自室の物体や遠隔地の物体に対して、機器の操作や情報の表示のような遠隔地物体とのインタラクション操作を行うことができない。また、一方のユーザ側の映像はクロマキー手法を用いてユーザの画像部分を切り出した上で遠隔地の映像上に重ね合わせしている(重畳している)ため、背景を固定背景(ブルーバック等)とするような制限された撮影場所・条件でしか実現できなかった。さらに、遠隔地の人の映像と、自部屋のユーザが重なると、一方が隠れる問題があった。
非特許文献2と3に記載の手法は、遠隔地の人や物体に対し、操作したり、情報を表示したりすることはできたが、単一方向のインタフェースであったため、遠隔地側からユーザ操作側に対する逆方向の操作や情報表示等のアクセス(インタラクション)を実行できないという問題があった。
従来のテレビ会議システムは、複数の地点を接続して各地点の映像をみることはできるが、相手側の人や物体に対する機器操作や情報表示を、ユーザの身体動作のみで実行することはできなかった。また、複数地点の映像は各々異なる映像として表示することはできるが、重ね合わせた映像を表示することはできなかった。
本発明の目的は、互いに遠隔地にいるユーザが双方向に、自分の部屋あるいは相手の部屋にある物体に対して機器操作したり、情報を表示したり、同じ物を指し示したりすることができる情報処理方法およびインタフェース装置を提供することにある。
本発明の情報処理方法は、自己側および相手側となる遠隔地側のそれぞれのインタフェース装置による情報処理方法であって、
自己側のインタフェース装置が、入力される自己側の画像を遠隔地側に送信する段階と、
前記遠隔地側から送られてきた遠隔地側の画像を、前記自己側のインタフェース装置が受信する段階と、
前記自己側のインタフェース装置が、前記自己側の画像および前記遠隔地側の画像の両方を反転画像とする、または、一方を反転画像とし、他方を非反転画像とする反転画像生成処理を行い重畳画像を生成する段階と、
前記自己側のインタフェース装置が、前記反転画像生成処理をされた画像上に映っている操作者の指示する位置を画像処理を用いて検出する段階と、
前記自己側のインタフェース装置が、前記検出された操作者の指示する位置に基づき、前記重畳画像上で前記操作者の指示する位置に対応するコマンドを選択して実行する段階と、
前記自己側のインタフェース装置が、前記選択したコマンドに基づき、前記重畳画像上に情報を表示する段階と、
前記自己側のインタフェース装置が、前記選択したコマンドを示すコマンド情報を前記遠隔地側へ送信する段階と、
前記自己側のインタフェース装置が、前記遠隔地側から送られてくるコマンド情報を受信する段階と
を有する。
ユーザは、自己画像が映った画面を見ながら、同じ画面上に表示されているCGアイコンによるコマンド情報に手指等を重ねあわせるだけで、画面に直接触らずに、自己画像中の物体に対するコマンドの選択、実行や、遠隔地画像中の物体に対するコマンドの選択、実行が可能である。また、ユーザAとユーザBの2地点間を接続して画像を重畳することにより、2地点のユーザが互いの部屋もしくは自分の部屋の物体等に対して、同時に機器を操作したり、情報を表示したり、同じ物を指し示したりできる。
本発明の実施態様によれば、前記自己側の画像の反転画像または非反転画像と、前記遠隔地側画像の反転画像または非反転画像とを半透明化して重畳する。これにより、ユーザは、任意の背景にて遠隔地の物体の操作が可能であり、また遠隔地の人と自部屋のユーザが重なった場合でも透過して写るので、その場合でも互いに隠れることなく、相手の画像や物体を見ることができる。
本発明の実施態様によれば、コマンドを選択して実行する段階は、入力画像上において実物体位置を予め登録する段階と、操作者の指定した実物体を、前記の予め登録された実物体位置の中から検出する段階を含む。これにより、ユーザは画像上に表示されているCGアイコンを指定してコマンドを選択できるだけでなく、ユーザA側(自分の部屋)またはユーザB側(遠隔地側)にある実物体を、画像中に映っているその物体の像を介して直接選択することも可能になる。
本発明の実施態様によれば、検出した操作者の指示位置に対応する物体を、遠隔地側入力画像の中から検出する段階をさらに有し、該段階が、遠隔地側の実物体の位置を検出する段階と、検出された実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する段階を含む。これにより、常時、実物体位置を認識して位置データを更新していくことにより、物体を移動させても、その位置情報も変更させられるので、ユーザ側に表示される画像上では、物体が移動した先の物体(現時点の物体)の表示されている画面上の位置で、ユーザは画面上で触ってインタラクションすることができる。
本発明の実施態様によれば、重畳した画像を生成する段階は、入力される2地点間の画像について、各々所定の透明度に変更する段階と、所定の透明度を付与された2つの画像を重畳する段階を含む。両方の画像が重なって見にくい場合や、片方の画像だけ見たい場合に、このような透明度変更機能によりユーザの利便性が図られる。
本発明の実施態様によれば、コマンドを選択する段階が、実行可能なコマンドのみを選択する段階を含み、実物体を検出する段階が、前記選択されたコマンドを実行する段階を含む。したがって、装置の起動時にコマンドを実行可能なアイコン情報を予め設定しておくことにより、各々のユーザは好みのコマンドだけを実行可能とすることができる。また、動作中も、CGアイコン等により設定変更用のコマンドアイコンを作成しておけば、ユーザがそこに触る(画面上でタッチする)ことにより、触れるコマンドアイコンの設定をいつでも変更すことができる。
本発明の実施態様によれば、相互に読み書き可能な共有データを保持し、該共有データに対する操作をおこなう段階と、該操作の結果をネットワークに送信する段階と、ユーザのいる地点から前記ネットワークを介して送られてくるコマンド情報を受信し、共有データ操作手段へ送る段階とを含む。これにより、ユーザA側とユーザB側で同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが互いに共通に行うことがきる。
本発明の実施態様によれば、双方向の2地点のうち1点において共有データを保持し、受信部から送られるコマンド情報に基き、該共有データに対する操作を行なう。これにより、ユーザA側とユーザB側で同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが互いに共通に行うことがきる。
本発明の実施態様によれば、双方向の2地点の1地点のみについて、さらに共有データを保持し、受信部から送られるコマンド情報およびコマンド情報選択部から送られるコマンド情報に基き、該共有データに対する操作を行なう。これにより、ユーザA側とユーザB側で同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが互いに共通に行うことがきる。
本発明によれば、互いに遠隔地にいるユーザが双方向に、自分の部屋あるいは相手の部屋にある物体に対して機器操作したり、情報を表示したり、同じ物を指し示したりすることができる。
次に、本発明の実施の形態を、図面を参照して説明する。
[第1の実施形態]
図1は本発明の第1の実施形態のインタフェース装置の構成を示す図、図2、図3はそれぞれインタフェース装置の送信部、受信部の構成を示す図、図4はインタフェース装置の全体の処理の流れを示すフローチャートである。
ユーザA側のインタフェース装置100AとユーザB側のインタフェース装置100Bはインターネット、公衆電話網等のネットワーク200を介して互いに接続されている。
インタフェース装置100Aは、ユーザA(操作者)を含む画像(自己画像)を入力画像とし、ユーザAがディスプレイ109上の自己画像を自分で見ながら、ユーザAの動作に基づき、ユーザBのいる遠隔地のインタフェース装置100Bで同様に得られ、ネットワーク200を介してインタフェース装置100Aに送られてきた、重畳された(重ね合わされた)遠隔地画像または自己画像中の物体に対しコマンドを実行するものである。同様に、インタフェース装置100Bは、ユーザB(操作者)を含む画像(自己画像)を入力画像とし、ユーザBがディスプレイ109上の自己画像を自分で見ながら、ユーザBの動作に基づき、ユーザAのいる遠隔地のインタフェース装置100Aで同様に得られ、ネットワーク200を介してインタフェース装置100Bに送られてきた、重畳された(重ね合わされた)遠隔地画像または自己画像中の物体に対しコマンドを実行するものである。
インタフェース装置100Aとインタフェース装置100Bは同じ構成で、画像入力部101と送信部102と受信部103と反転画像生成部104と画像重畳部105と指示位置検出部106とコマンド選択部107と情報表示部108とディスプレイ109とを有している。送信部102は画像送信部102aとコマンド送信部102bで構成されている。受信部103は画像受信部103aとコマンド受信部103bで構成されている。
以下、ユーザA側のインタフェース装置100Aの各部について説明するが、ユーザB側のインタフェース装置100Bについても同様である。他の実施形態でも同様である。
画像入力部101は、ユーザAを含む画像を入力するためのもので、本例では、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし、下記で述べる色情報を使用した方法を用いる場合はカラーカメラが必要である。
送信部102は、画像入力部101で入力された入力画像を、ネットワーク200を介して、ユーザB側のインタフェース装置100Bへ送信すると同時に反転画像生成部104へ送り、さらにコマンド選択部107から送られてきたコマンド情報を受取り、ネットワーク200を介して、ユーザB側のインタフェース装置100Bへ送信する(ステップ1001)。送信部102からインタフェース装置100Bへ送信された入力画像とコマンド情報は、インタフェース装置100Bの受信部103で受信される。画像を、ネットワークを介して送る方法として、インターネットを用いた既存の一般的な映像送信技術を使うことが可能であり、また一般的な映像放送等による無線を用いた送信、有線ネットワーク上での送信技術も容易に使用可能である。なお、インタフェース装置100Aとインタフェース装置100Bが比較的近い場所にある場合、ネットワーク200を介さずに画像用のケーブルで、ユーザA側のインタフェース装置100Aとユーザ側のインタフェース装置100Bを直接接続することも可能である。
受信部103は、ユーザB側のインタフェース装置100Bからネットワーク200を介して送信されてきた、ユーザB側の入力画像とコマンド情報を受信し、受信した入力画像は反転画像生成部104と画像重畳部105に送り、コマンド情報はコマンド選択部107に送る(ステップ1002)。
反転画像生成部104は、送信部102から出力された、ユーザA側の入力画像または受信部103から出力された、ユーザB側の入力画像を入力し、左右反転し、あるいは反転せずにそのまま、画像重畳部105と指示位置検出部106に出力する(ステップ1003)。この反転画像の生成は、コンピュータ内に取り込んだ画像に対し反転画像を生成する汎用の画像処理ソフトウェア(例:HALCON)や、入力画像の反転画像をリアルタイムに生成する機器(例:(株)朋栄の画像左右反転装置UPI―100LRF、またはカメラ一体型で、SONY(登録商標)のEVI―D100)を用いて行うことができる。ここで、入力画像の選択および画像の反転/非反転の設定は予め初期設定として行ってもいし、動作中に行ってもよい。なお、ユーザB側の画像の反転/非反転の設定は受信部103で行い、「反転」に設定されていれば反転画像生成部104に、「非反転」が設定されていれば画像重畳部105にユーザBの画像が出力されるようにしてもよい。この設定も予め初期設定として行ってもいし、動作中に行ってもよい。
画像重畳部105は、反転画像生成部104から出力された画像と、受信部103で受信された、ユーザB側の入力画像を1つの画像に重ね合わせる(ステップ1004)。このとき、ユーザAの自己像が写った反転画像からユーザAの体の輪郭(または動作入力に必要な手指等の部分画像だけでもよい)を切り出し、ユーザB側の入力画像の上に切り出した部分画像を重ね合わせる。ユーザAの体の切り出しは、例えば画像処理により実現できる。切り出しの画像処理方法としては、背景差分によるユーザAの切り出しがある。これは、例えば反転画像(またはユーザA側の入力画像)についてユーザAのいない場合の背景画像を予め撮影、取得しておき、ユーザAがいる場合に、背景画像と、ユーザAがいる場合の画像との差分画像を生成することにより行える。差分画像は、例えば、全画素値について、画素毎に、背景画像の画素値と、同じ画素位置の現画像の画素値の差の絶対値を求めることにより作成できる。または、肌色認識処理を用いることにより、手の部分だけを切り出すことも容易に可能である。これらにより、ユーザBの入力画像中にユーザAが入り込んだような重畳画像を生成できる。
指示位置検出部106は、反転画像生成部104から出力された画像上において、ユーザAが手指等の体の部位で指し示す位置(ユーザ指示位置)を検出し、コマンド選択部107と情報表示部108に出力する(ステップ1005)。
指示位置検出部106の1つ目の実現例として、ユーザAがマーカを持ち、入力画像中のマーカを画像処理により検出する方法がある。例えば、まず、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラの前で手振りして動かす。得られたカラー画像のRGB等色情報の値から赤色成分を抽出し、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を用い、その中で最も面積の大きい赤色部分を1つ選び、その位置の重心位置(x,y)を求める。得られた重心位置(x,y)座標をユーザ指示位置とする。ここで、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で、手に持ちもしくは装着し、当該色を抽出して同様に行う方法も可能である。(x、y)は重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもい。
指示位置検出部106の2つ目の実現例として、ユーザAがマーカをもたずに、入力画像中の手の位置を画像処理により直接検出する方法がある。例えば、まず、得られたカラー画像のRGB等の色情報の値から肌色成分を抽出し、ラベリング処理を行う。得られた複数の肌色成分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。その選択する具体的な方法例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積が大きいのは顔と考えられるので、2つ目と3つ目に面積が大きい肌色部分を手の候補として選択する。ユーザ指定位置を両手とした場合、その2つの肌色部分の候補に対する重心位置を、2つの候補から1つ選ぶ必要があるが、予め例えば右手を指定する手としたら、体よりも右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置とすればよい。左手の場合も同様である。
指示位置検出部106のこれらの実現例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。差分画像は、例えば、反転画像上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との間で作成する。差分画像は、例えば、全画素について、画素毎に、背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、体等の動く物体だけを予め抽出しておき、その後前述したような画像処理(体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置を検出し、その座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。
このような指示位置検出部106により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触部位判定に用いることができるので、コマンド選択のためのアイコン等を任意の位置におけるのでその位置およびユーザ動作に関して高い自由度が得られる。
コマンド選択部107は、指示位置検出部106で得られたユーザ指定位置と、ユーザAが選択しようとする、ユーザA側のコマンド情報のディスプレイ109上での表示位置(コマンド選択部107に予め設定しておけばよい)を照らし合わせ、両者の位置関係からユーザAが指示しようとするコマンド情報を探索し、選択、実行する(ステップ1006)。また、コマンド選択部107は、受信部103から出力された、ユーザB側のコマンド情報を受け取り、ユーザA側の場合と同様に、ユーザA側において該コマンドを選択し、実行する。さらに、コマンド選択部107は、ユーザA側のコマンド情報を送信部103に送り、ネットワーク200を介してユーザB側のインタフェース装置100Bに送る。ユーザが選択しようとするコマンド情報のディスプレイ109上での表示位置は、各々予め、ユーザB側入力画像上での表示位置を定めて記憶しておけばよい。例えば、ユーザ指示位置からある一定距離範囲に表示位置を持つコマンドがあればそれを選択すればよい。コマンド情報の表示位置は、コマンド毎に予め任意の位置に決めておけばよい。また、ユーザB側のインタフェース装置100Bから送られてくるコマンド情報に関しては、設定により、実行する/実行しない、を切り換えることもできる。
情報表示部108は、画像重畳部105で得られた重畳画像と、コマンド選択部107で作成されたコマンド情報とをディスプレイ109に表示する(ステップ1007)。
ディスプレイ109は、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの画面とカメラ画像を表示できるものであれば良い。コマンド情報とは、コマンド表示位置やコマンド内容等のコマンドに関わる情報と、ユーザAがその中から選択したコマンドの情報であり、その表示方法は、コンピュータで作製したCGで、選択可能なコマンド(群)、および選択されたコマンドを表示すればよい。また、指示位置検出部3で得られたユーザ指示位置についても、例えばマウスのカーソル表示のようにリアルタイムに明示して表示してもよい。コマンドの内容としては、遠隔地側の物体を操作したり情報を表示するコマンドでもよいし、ユーザ側の部屋に関わる操作や情報表示を行うコマンドでもよい。遠隔地側の物体を操作したり情報を表示するコマンドであれば、重畳画像中に遠隔地側の画像が表示されているので、ユーザAにとって、操作の判断や、操作結果の確認が可能であり、ユーザ利便性の高いインタフェースを実現できる。
本実施形態によれば、ユーザは、自己画像が映った画面を見ながら、同じ画面上に表示されているCGアイコンによるコマンド情報に手指等を重ねあわせるだけで、画面に直接触らずに、自己画像中の物体に対するコマンドの選択、実行や、遠隔地画像中の物体に対するコマンドの選択、実行が可能である。このような操作方法により、分かり易く間違いの少ない指示が可能になる。
また、ユーザAとユーザBの2地点間を接続して画像を重畳することにより、2地点のユーザが互いの部屋もしくは自分の部屋の物体等に対して、同時に機器を操作したり、情報を表示したり、同じ物を指し示したりできる。例えば、ユーザAが、ユーザBがいる地点にある照明のスイッチをオン/オフしているのと同時に、ユーザBがユーザAがいる地点にあるテレビのチャネル操作を行ったり、ユーザAがいる地点にある本の情報の表示を行ったりできる。また、2地点の画像が重畳されているので、ユーザAとユーザBが互いに同じ位置を指し合うことができるため、例えば、ユーザBの地点にある棚に置いてある本に対し、ユーザAとユーザBが同じ位置を指し合うことにより、直感的な動作による意思伝達を行うことができる。
また、ユーザA側において(ユーザB側も同様)、ユーザA側の入力画像と、ユーザB側から送られてきた画像は、反転画像生成部104により、いずれも任意に、反転したり、非反転のままにしたりすることができる。よって、ユーザAが見るディスプレイ109に表示される画像は、1)Aの反転画像+Bの反転画像、2)Aの反転画像+Bの非反転画像、3)Aの非反転画像+Bの反転画像、4)Aの非反転画像+Bの非反転画像、の4つの組み合わせが可能である。
具体的な利用シーンを、図5を参照して考える。1)は、同じ方向を向いて隣り合った2人の前に鏡があり、鏡を介して(鏡越しに)、鏡に映っている隣の人を見ながら会話等のコミュニケーションを行う状況(すなわち、例えば銭湯で鏡越しで隣に座っている人と会話する状況)と同様のシーンを実現できる(図5(1))。このときは、自分が反転画像、相手側の画像も反転画像であることにより、互いに相手の同じ位置を指し示すことが可能になる。また、2)は、ディスプレイの中を通して(透かして)向こう側に相手がいる状況を再現できる。つまり、ユーザAとユーザBの間に半透明の板(ハーフミラーまたはディスプレイ)があり、半透明の板を透かして見る相手側の像が重なって同じ板上に表示される状況(例えば、窓越しに向こうの部屋の中が見えつつ、自分も窓に薄く映っている状況)と同様のシーンを実現できる(図5(2))。このときは、自分が反転画像、相手側の画像が正像(非反転画像)であることにより、ユーザAが遠隔地のユーザB側の部屋の中の物体を半透明板状で重ね合わせて指し示すことが可能である。
[第2の実施形態]
図6は本発明の第2の実施形態のインタフェース装置の画像重畳部のブロック図、図7はその処理の流れを示すフローチャートである。
本実施形態のインタフェース装置では、画像重畳部105が半透明化処理部105aと重畳処理部105bで構成されている。その他の構成は第1の実施形態のインタフェース装置と同じである。
半透明化処理部105aはユーザA側の自己像と、ユーザB側(遠隔地側)の画像について、いずれも各々個別に半透明化処理を行う(ステップ1004a)。半透明化の度合いを自由に設定することも容易に可能である。半透明化の方法は、画像データに対し、画素毎に透明度(アルファ値とも言われ、一般的な方法である)情報を持たせることで実現できる。透明度の変更により、自己像も遠隔地画像もいずれも各々個別に、半透明ではなく、完全な透明(すなわち非表示)にしたり、不透明にしたりすることも可能である。
重畳処理部105bは、半透明化処理された自己像と、遠隔地画像とを重ね合わせて(重畳して)1枚の画像(重畳画像)を生成する(ステップ1004b)。重畳する際、両者の透明度の割合に応じて2つの画像中の画素を重ね合わせればよい。例えば、一方の透明度が0.7ならば、その画像の画素は30%、同じ位置のもう一方の画像の画素の情報を70%、値を加算等して求めればよい。
これにより、ユーザの自己像を含む反転画像を半透明化して遠隔地画像に重畳するため、ユーザは遠隔地画像中の物体像と、ユーザの自己像を同時に見られるので、手指等と目的の物体を重ねる操作を行う際に、遠隔地でありながら、仮想的に同じ部屋にあるかのような操作性の高いインタフェースを実現できる。また、透明度は自由に設定(予め初期設定も可能、または動作設定中に設定変更も可能とする)できるので、それぞれの入力画像の状態(撮影された照明条件、背景画像、物体・ユーザの色状態など)により、ユーザに最も操作しやすく自由に各々の透明度を変更することもできる。
また、これにより、ユーザAの地点の自己画像およびユーザBの地点の画像をいずれも任意の透明度で半透明化して重畳することにより、ユーザAは自己画像中の物体または遠隔地側(ユーザB側)の画像中の物体の像と、ユーザAの自己画像を同時に見られるので、手指等と目的の物体を重ねる操作を行うことで、自分の部屋にある物体も、また遠隔地(ユーザB)の地点にある物体も、仮想的に同じ部屋にあるかのように、画面上で指差ししたり触ることができ、操作性の高いインタフェースを実現できる。透明度は自由に設定できるので、重畳したときに、ユーザに最も操作しやすく自由に透明度を変更することができる。
また、ユーザ側の画像全体を半透明にして重畳することにより、ユーザはブルーバックによるクロマキー合成時等の特殊な環境は必要なく、任意の背景で自部屋や遠隔地の物体の操作が可能である。また、遠隔地の人と自部屋のユーザが重なった場合でも透過して映るので、その場合でも互いに隠れることなく、相手の画像や物体を見ることができる。
[第3の実施形態]
図8は本発明の第3の実施形態のインタフェース装置のブロック図、図9はその全体の処理の流れを示すフローチャートである。
本実施形態は、第1、第2の実施形態のインタフェース装置におけるコマンド選択部107の代わりに実物体登録部110と実物体検出部111を備えたものである。その他の構成は第1、第2の実施形態のインタフェース装置と同じである。
実物体登録処理部110は実物体位置データ110aと実物体登録処理部110bで構成される。実物体位置データ110aには、ユーザA側およびユーザB側の画像上に含まれている任意の実物体(例えば家の中とすると、テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引き出し、書類、オーディオ機器、照明機器等)について、各々求められた、画面上での表示位置が登録・保存されている。実物体登録処理部110bは、実物体検出部111で生成されたコマンド情報を受取り、送信部102へ送り、また受信部103より送られたユーザB側のコマンド情報を実物体検出部111へ送る(ステップ1008)。
実物体検出部111は、実物体位置データ110aに保存されている複数の位置データと、指示位置検出部106で得られたユーザA側のユーザ指示位置を照らし合わせ、第1の実施形態のユーザインタフェース装置100Aのコマンド選択部107と同様に、両者の位置関係に基き、ユーザAが指示しようとする実物体を検出、選択し、コマンド情報を生成する(ステップ1009)。例えば、ユーザ指示位置からある一定の距離範囲内に実物体の位置データがあればそれを選択すればよい。または、実物体位置データとして範囲をもたせておいた場合は、ユーザ指示位置の座標がその範囲に含まれる実物体を検出、選択、実行する。また、ユーザB側から送られるコマンド情報についても同様に、位置データと照らし合わせ、位置関係に基き、コマンドを選択、実行する。
実物体位置データは物体の中心座標(x,y)1個でもよいが、範囲を示す情報(例えば、矩形枠の始点座標(x1,y1)と終点座標(x2,y2)や、中心座標(x,y)と半径値rや、または物体の存在する全ドットの座標リスト等)を持たせておいてもよい。第1の実施形態のインタフェース装置の指示位置検出部106での処理と同様に中心座標は重心座標に置き換えてもよい。
本実施形態によれば、ユーザは画像上に表示されているCGアイコンを指定してコマンドを選択できるだけでなく、ユーザA側(自分の部屋)またはユーザB側(遠隔地側)にある実物体を、画像中に映っているその物体の像を介して直接選択することも可能になる。これにより、ユーザB側にある照明の物体像を指し示すと、照明のスイッチのオン/オフを実行したり、遠隔地にあるテレビを指し示して選択すると、テレビのスイッチやチャネル等を制御できるようなコマンド選択用CGメニューが該物体像(テレビ)の周辺に表示され、ユーザは続けてコマンド選択を行い、遠隔地の実物体(テレビ)に対して各種操作を行なうことなどが可能である。また、重畳画像上で実物体像の近くに、該物体に関する情報等を表示することもできる。
[第4の実施形態]
図10は本発明の第4の実施形態のインタフェース装置の構成図、図11は
その全体の処理の流れを示すフローチャートである。
本実施形態のインタフェース装置は第3の実施形態のインタフェース装置に実物体位置検出部112をさらに備えたものである。その他の構成は第3の実施形態のインタフェース装置と同じである。
実物体位置検出部112は画像入力部101から出力された画像を入力し、対象とする物体の画像上の位置を求め、送信部102へ送る(ステップ1010)。
物体の位置を求める方法としては、対象とする実物体401ごとに位置認識可能なセンサ402(位置認識技術は研究開発され、磁気センサ、超音波センサ、赤外線センサ等が商品化され、広く市販されている)を取り付けておくことにより、各々の実物体401の位置をリアルタイムに検出する方法などがある。また、物体の位置を求める他の方法としては、入力画像を用いて画像処理により求める方法がある。具体的には、対象とする物体の色や形状情報を予め登録しておき、該画像の上で、登録している物体をパターンマッチング処理等の画像処理により検出すればよい。パターンマッチング処理の方法については、汎用の画像処理ソフトに一機能として装備されていたり、また広く研究開発および製品化されており、容易に利用可能である。画像処理を用いた方法の場合、図に示したような、物体401に取り付けるセンサ402は不要である。
本実施形態によれば、常時、実物体位置を認識して位置データを更新していくことにより、物体を移動させても、その位置情報も移動(変更)させられるので、ディスプレイ109によってユーザ側に表示される画像上では、物体が移動した先の物体(現時点の物体)の表示されている画面上の位置で、ユーザは画面上で触ってインタラクションすることができる。
[第5の実施形態]
図12は本発明の第5の実施形態のインタフェース装置の画像重畳部のブロック図である。
本実施形態のインタフェース装置では、画像重畳部105が透明度変更処理部105cと重畳処理部105bで構成されている。その他の構成は第1、第3、第4の実施形態のインタフェース装置と同じである。
透明度変更処理部105cは、入力されるユーザA側の入力画像(またはその反転画像)と、ユーザB側の入力画像(またはその反転画像)の各々を任意の透明度に変更する。
本実施形態によれば、装置の起動時に、表示する画像の透明度情報を予め初期設定しておくことにより、各々のユーザは好みの透明度の重ね合わせ表示を使用することができる。また、動作中も、CGアイコン等により透明度情報の設定変更用のコマンドアイコンを作成しておけば、ユーザがそこに触る(画面上でタッチする)ことにより、いつでも重畳表示の各画像の透明度設定を変更することが可能になる。両方の画像が重なって見にくい場合や、片方の画像だけ見たい場合に、このような透明度変更機能によりユーザの利便性が図られる。
[第6の実施形態]
図13は本発明の第6の実施形態のインタフェース装置のコマンド選択部のブロック図である。
本実施形態のインタフェース装置は、コマンド選択部107が対象選択処理部107aと対象コマンド実行処理部107bで構成されている。その他の構成は第1、第2、第5の実施形態のインタフェース装置と同じである。
対象選択処理部107aは、ユーザが実行を希望したコマンドを選択する。対象コマンド実行選択部107bは、選択されたコマンドを実行する。
入力される指示位置情報からアイコンに触ったとされる場合に、そのアイコンがユーザA側のアイコンか、ユーザB側のアイコンかによって、コマンド情報の出力を変更することができる。
本実施形態によれば、装置の起動時にコマンドを実行可能なアイコン情報を予め設定しておくことにより、各々のユーザは好みのコマンドだけを実行可能とすることができる。また、動作中も、CGアイコン等により設定変更用のコマンドアイコンを作成しておけば、ユーザがそこに触る(画面上でタッチする)ことにより、触れるコマンドアイコンの設定をいつでも変更すことができる。
アイコンが多い場合や、どちらか一地点側だけのアイコンを触りたい場合等に、触れるアイコンを絞り込めるようになり、異なるアイコンを誤って接触することを低減できる。これにより、ユーザの利便性向上が図れる。
なお、第3と第4の実施形態では、図14に示すように、実物体検出部111を同様に、対象選択処理部111aと対象コマンド実行処理部111bで構成することができる。
また、第5の実施形態の重畳表示の切替機能と組合わせることも可能である。図15に具体的な動作例を示す。例えば、通常はユーザA側とユーザB側が通常の透明度で重畳されているが、ユーザA(またはユーザB)が、ユーザBのコマンドのみを実行しようとするコマンド(もしくはユーザBの表示を強調しようとするコマンド)を実行すると、ユーザB側の画像の透明度が低く(画像が濃く)なり、ユーザA側の画像の透明度が高く(画像が薄く)なるようにし、かつユーザBのコマンドのみ触って実行できるようにすればよい。これにより、ユーザの視覚効果が高まり、インタフェースの利便性向上が期待できる。
[第7の実施形態]
図16は本発明の第7の実施形態のインタフェース装置のブロック図である。
本実施形態のインタフェース装置は第1の実施形態のインタフェース装置に共有データ処理部300が付加されている。
共有データ処理部300は共有データ301と共有データ操作部302と受信部303と送信部304で構成され、ネットワーク200に接続されている。これにより、ユーザA側とユーザB側で同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが互いに共通に行うことがきる。
受信部303は、ネットワーク200を介して送られてきたコマンドを受信する。共有データ操作部302は、送られてきたコマンドを解釈し、共有データの提示方法を変更する。具体的には、例えば共有データ処理部300内において、PCのアプリケーション(例えばMicrosoftのpowerpoint(登録商標)など)が実行されていた場合、データ操作部302は、powerpointで表示するページを変更したり、powerpointを起動、終了したり、またアプリケーションのペン入力機能によるフリーハンドの絵や、直線等の図形を書き込んだり編集したり、ファイルを保存したり、等の操作を実行することが可能である。
送信部304は、コマンドを実行した結果のデータ(画像等)を、ネットワーク200を介してユーザA側とユーザB側のインタフェース装置の一方または両方へ同時に送信する。
ユーザA側のコマンド選択部107は、実行しようとするコマンドが共有データ301を操作するものであった場合、ユーザA側の送信部102へコマンド情報を送ると、コマンド情報は送信部102からネットワーク200を介して共有データ処理部300へ送られる。ユーザA側の画像重畳部105は、ユーザA側の入力画像(またはその反転画像)と、ユーザB側の入力画像(またはその反転画像)だけでなく、共有データ処理部300から送られてくる画像も重畳して表示する。このときも、ユーザA側の画像、ユーザB側の画像と同様に任意の透明度で重畳させる。
共有データとしては、前述したようなアプリケーションソフト等におけるユーザデータ等である。例えば、powerpointのファイルや、Microsoft Wordのファイルや、もしくはホームページ画面の情報であるHTML(Hyper Text Markup Language)ファイル等、何でもよい。HTMLファイルであれば、Webページを共有データとして表示させておけば、ユーザAまたはBはその表示を見ながらリンク先を触ると表示がリンク先の画面へ推移させることも可能である。
本実施形態によれば、ユーザA、Bが画面上に同じファイルを半透明に表示させて見ることができ、その画面にはユーザA、ユーザBの自己像も半透明で写っているので、表示ファイル上の同じ位置を互いに直接指で指しあうことが可能である。よって、互いに遠隔地にいながら互いに同じファイルを指し示しながら、打ち合わせ等のコミュニケーションが可能である。
ユーザA、ユーザB、および共有データの透明度は、それぞれ予め任意に設定、または動作中に変更できるようにすることも可能である。
なお、共有データ処理部300は第2から第6の実施形態のインタフェース装置にも設けることができる。
[第8の実施形態]
図17は本発明の第8の実施形態のインタフェース装置のブロック図である。
本実施形態のインタフェース装置は第1の実施形態のインタフェース装置にそれぞれA側共有データ処理部310A、B側共有データ処理部310Bが付加されている。これにより、ユーザA側とユーザB側とで同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが共通に行うことができる。
共有データ処理部310A、310Bはいずれも共有データ311と共有データ操作部312で構成されている。
ユーザA側のコマンド選択部107は、実行しようとするコマンドが共有データ311を操作するものであった場合、ユーザA側の送信部102へコマンド情報を送る。すると、コマンド情報は送信部102からネットワーク200を介してユーザB側の受信部103で受信され、ユーザB側の共有データ処理部310Bに送られる。また、同時に、ユーザA側の共有データ処理部310内の共有データ操作部312へも送られる。ユーザA側の受信部103はユーザB側から送られてくる画像だけでなく、ユーザB側のコマンド選択部107から送られてきたコマンド情報を受信し、ユーザB側の該コマンド情報をユーザA側の共有データ処理部310A内の共有データ操作部312へ送る。ユーザB側においてもコマンド選択部107および受信部103の動作は同様である。
A側共有データ処理部310A内の共有データ操作部312は、ユーザA側から送られてくるコマンド情報や、ユーザB側から送られてくるコマンド情報に基き、送られてきたコマンドを解釈し、共有データの提示方法を変更する。具体的には、第7の実施形態と同様に、例えばA側共有データ処理部310A内において、PCのアプリケーション(例えばMicrosoftのpowerpointなど)が実行されていた場合、共有データ操作部312は、powerpointで表示するページを変更したり、powerpointを起動、終了したり、またアプリケーションのペン入力機能によるフリーハンドの絵や、直線等の図形を書き込んだり編集したり、ファイルを保存したり、等の操作を実行することが可能である。
B側共有データ処理部310Bについても同様であるが、ユーザA側とユーザB側で同じファイルやデータを共有データとして表示させておくことにより、第7の実施形態と同様に、あたかも互いに同じファイルを見ながら、互いが任意のファイル操作等を行っているようにすることができる。
本実施形態は第7の実施形態と異なり、共有データをユーザA、B各々で持つ必要があるが、実際のテレビ会議等での利用を考えた場合、初めにファイルを送っておくだけでよく、また共有データを置く場所を別途作成する必要がないので、場合によるが、利便性の向上が期待できる。
なお、共有データ処理部310A,310Bは第2から第6の実施形態のインタフェース装置にも設けることができる。
[第9の実施形態]
図18は本発明の第9の実施形態のインタフェース装置のブロック図である。
本実施形態は第1から第6の実施形態において、一方、ここではユーザA側のインタフェース装置100AにA側共有データ処理部310が付加されている。これにより、ユーザA側とユーザB側とで同じデータを共有して(両者に表示して)見ることができ、またそのデータの操作をユーザA、Bが共通に行うことができる。
共有データ処理部310は、第8の実施形態のインタフェース装置の共有データ処理部310A、310Bと同様に、共有データ311と共有データ操作部312で構成されている。
ユーザA側のコマンド選択部107は、実行しようとするコマンドが共有データ311を操作するものであった場合、コマンド情報を共有データ処理部310内の共有データ操作部312へ送る。ユーザA側の受信部103は、ユーザB側のコマンド選択部107から送られてきたコマンド情報を受信し、該コマンド情報を共有データ処理部310内の共有データ操作部312へ送る。ユーザA側の送信部102は、ユーザA側の画像を送るだけでなく、共有データ処理部310内の共有データ操作部312から出力された画像等のデータをネットワーク200を介してユーザB側に送信するとともに、ユーザA側の画像重畳部105へも送る。ユーザB側に送られた画像等のデータは、ユーザB側の受信部103で受信され、画像重畳部105に送られる。共有データ処理部310内の共有データ操作部312では、ユーザA側から送られてきたコマンド情報や、ユーザB側から送られてきたコマンド情報に基き、送られてきたコマンドを解釈し、共有データの提示方法を変更する。具体的には、第7の実施形態と同様に、例えば共有データ処理部310内において、PCのアプリケーション(例えばMicrosoftのpowerpointなど)が実行されていた場合、データ操作部312は、powerpointで表示するページを変更したり、powerpointを起動、終了したり、またアプリケーションのペン入力機能によるフリーハンドの絵や、直線等の図形を書き込んだり編集したり、ファイルを保存したり、等の操作を実行することが可能である。
本実施形態によれば、ユーザA側とユーザB側で同じファイルを共有データとして表示させておくことができ、第7、第8の実施形態と同様に、あたかも互いに同じファイルを見ながら、互いが任意のファイル操作等を行なっているようにすることができる。
第8の実施形態と異なり、共有データ処理部は片方だけでよいので、さらなる利便性向上が期待できる。第2から第6の実施形態においても共有データ処理部を設けることができる。
なお、以上説明した、本発明のインタフェース方法は、専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。ここで、コンピュータ読取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内部の揮発性メモリのように、一定時間プログラムを保持しているものを含む。
本発明の第1の実施形態のインタフェース装置の構成図である。 送信部の構成図である。 受信部の構成図である。 第1の実施形態のインタフェース装置の全体の処理の流れを示すフローチャー トである。 第1の実施形態のインタフェース装置の具体的な利用シーンの説明図である。 本発明の第2の実施形態のインタフェース装置の画像重畳部のブロック図であ る。 図6の画像重畳部の処理の流れを示すフローチャートである。 本発明の第3の実施形態のインタフェース装置の構成図である。 第3の実施形態のインタフェース装置の全体の処理の流れを示すフローチャー トである。 本発明の第4の実施形態のインタフェース装置の構成図である。 第4の実施形態のインタフェース装置の全体の処理の流れを示すフローチ ャートである。 本発明の第5の実施形態のインタフェース装置の画像重畳部のブロック図 である。 本発明の第6の実施形態のインタフェース装置のコマンド選択部のブロッ ク図である。 図13のコマンド選択部と同様の構成の実物体検出部のブロック図である 。 第6の実施形態の動作例の説明図である。 本発明の第7の実施形態のインタフェース装置の構成図である。 本発明の第8の実施形態のインタフェース装置の構成図である。 本発明の第9の実施形態のインタフェース装置の構成図である。
符号の説明
100A、100B インタフェース装置
101 画像入力部
102 送信部
102a 画像送信部
102b コマンド送信部
103 受信部
103a 画像受信部
103b コマンド受信部
104 画像受信部
105 画像重畳部
105a 半透明化処理部
105b 重畳処理部
105c 透明度変更処理部
106 指示位置検出部
107 コマンド選択部
107a 対象選択処理部
107b 対象コマンド実行処理部
108 情報表示部
109 ディスプレイ
110 実物体登録部
110a 実物体位置データ
110b 実物体登録処理部
111 実物体検出部
111a 対象選択処理部
111b 対象コマンド実行処理部
112 実物体位置検出部
200 ネットワーク
300 共有データ処理部
301 共有データ
302 共有データ操作部
303 受信部
304 送信部
310A A側共有データ処理部
310B B側共有データ処理部
311 共有データ
312 共有データ操作部
401 移動する実物体
402 センサ
1001〜1010 ステップ

Claims (12)

  1. 自己側および相手側となる遠隔地側のそれぞれのインタフェース装置による情報処理方法であって、
    自己側のインタフェース装置が、入力される自己側の画像を遠隔地側に送信する段階と、
    前記遠隔地側から送られてきた遠隔地側の画像を、前記自己側のインタフェース装置が受信する段階と、
    前記自己側のインタフェース装置が、前記自己側の画像および前記遠隔地側の画像の両方を反転画像とする、または、一方を反転画像とし、他方を非反転画像とする反転画像生成処理を行い重畳画像を生成する段階と、
    前記自己側のインタフェース装置が、前記反転画像生成処理をされた画像上に映っている操作者の指示する位置を画像処理を用いて検出する段階と、
    前記自己側のインタフェース装置が、前記検出された操作者の指示する位置に基づき、前記重畳画像上で前記操作者の指示する位置に対応するコマンドを選択して実行する段階と、
    前記自己側のインタフェース装置が、前記選択したコマンドに基づき、前記重畳画像上に情報を表示する段階と、
    前記自己側のインタフェース装置が、前記選択したコマンドを示すコマンド情報を前記遠隔地側へ送信する段階と、
    前記自己側のインタフェース装置が、前記遠隔地側から送られてくるコマンド情報を受信する段階と
    を有する情報処理方法。
  2. 前記重畳画像を生成する段階は、前記自己側の画像の反転画像または非反転画像と、前記遠隔地側画像の反転画像または非反転画像とを半透明化して重畳するものである、請求項1に記載の情報処理方法。
  3. 前記のコマンドを選択して実行する段階は、入力画像上において実物体位置を予め登録する段階と、操作者の指定した実物体を、前記の予め登録された実物体位置の中から検出する段階を含む、請求項1または2に記載の情報処理方法。
  4. 検出した操作者の指示位置に対応する物体を、前記遠隔地側画像の中から検出する段階をさらに有し、該段階が、遠隔地側の実物体の位置を検出する段階と、検出された実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する段階を含む、請求項1または2に記載の情報処理方法。
  5. 前記重畳画像を生成する段階は、入力される2地点間の画像について、各々所定の透明度に変更する段階と、所定の透明度を付与された2つの画像を重畳する段階を含む、請求項1から3のいずれかに記載の情報処理方法。
  6. 前記のコマンドを選択して実行する段階が、実行可能なコマンドのみを選択する段階を含み、前記実物体を検出する段階が、前記選択したコマンドを実行する段階を含む、請求項3に記載の情報処理方法。
  7. 自己側および遠隔地側のインタフェース装置のそれぞれが相互に読み書き可能な共有データを保持する共有データ処理部がこれらのインタフェース装置とネットワークを介して接続され、
    前記自己側のインタフェース装置が、前記選択したコマンドが前記共有データに対して操作を行うものであると、該コマンドの情報を前記ネットワークを介して前記共有データ処理部に送信する段階をさらに有する、請求項1から5のいずれかに記載の情報処理方法。
  8. 自己側および遠隔地側のインタフェース装置の2つのインタフェース装置のそれぞれが共有データを保持し、
    前記2つのインタフェース装置のうち一方のインタフェース装置は、他方のインタフェース装置から受信部を介して受信するコマンド情報に基づいて、前記共有データに対する操作を行う、請求項1から5のいずれかに記載の情報処理方法。
  9. 自己側および遠隔地側のインタフェース装置のうちいずれか一方のみが共有データを保持し、
    前記いずれか一方のインタフェース装置は、他方のインタフェース装置から受信部を介して受信するコマンド情報およびコマンド選択部に入力されるコマンド情報のそれぞれに基づいて、前記共有データに対する操作を行う、請求項1から5のいずれかに記載の情報処理方法。
  10. 自己側および相手側となる遠隔地側のそれぞれのインタフェース装置であって、
    入力される自己側の画像を遠隔地側に送信する手段と、
    前記遠隔地側から送られてきた遠隔地側の画像を、自己側が受信する手段と、
    前記自己側の画像および前記遠隔地側の画像の両方を反転画像とする、または、一方を反転画像とし、他方を非反転画像とする反転画像生成処理を行い重畳画像を生成する手段と、
    前記反転画像生成処理をされた画像上に映っている操作者の指示する位置を画像処理を用いて検出する手段と、
    記検出された操作者の指示する位置に基づき、前記重畳画像上で前記操作者の前記指示する位置に対応するコマンドを選択して実行する手段と、
    前記選択したコマンドに基づき、前記重畳画像上に情報を表示する手段と、
    前記選択したコマンドを示すコマンド情報を前記遠隔地側へ送信する手段と、
    前記遠隔地側から送られてくるコマンド情報を受信する手段と
    を有するインタフェース装置。
  11. 請求項1から9のいずれかに記載の情報処理方法をコンピュータに実行させるためのインタフェースプログラム。
  12. 請求項11に記載のインタフェースプログラムを記録した記録媒体。
JP2005036530A 2005-02-14 2005-02-14 情報処理方法、インタフェース装置、プログラム、および記録媒体 Expired - Fee Related JP4555701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036530A JP4555701B2 (ja) 2005-02-14 2005-02-14 情報処理方法、インタフェース装置、プログラム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036530A JP4555701B2 (ja) 2005-02-14 2005-02-14 情報処理方法、インタフェース装置、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JP2006221550A JP2006221550A (ja) 2006-08-24
JP4555701B2 true JP4555701B2 (ja) 2010-10-06

Family

ID=36983834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036530A Expired - Fee Related JP4555701B2 (ja) 2005-02-14 2005-02-14 情報処理方法、インタフェース装置、プログラム、および記録媒体

Country Status (1)

Country Link
JP (1) JP4555701B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4766696B2 (ja) * 2007-03-06 2011-09-07 日本電信電話株式会社 インタフェース装置およびインタフェースシステム
JP2008235989A (ja) * 2007-03-16 2008-10-02 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置および画像処理方法
JP2009239459A (ja) * 2008-03-26 2009-10-15 Nippon Telegr & Teleph Corp <Ntt> 映像合成システム、映像合成装置およびプログラム
JP5798536B2 (ja) * 2012-09-11 2015-10-21 日本電信電話株式会社 映像コミュニケーションシステム、および映像コミュニケーション方法
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
JP2015052895A (ja) * 2013-09-06 2015-03-19 株式会社東芝 情報処理装置及び情報処理方法
JP6156934B2 (ja) * 2014-02-19 2017-07-05 日本電信電話株式会社 空間合成システム
JP6313666B2 (ja) * 2014-06-06 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04116689A (ja) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> 画面共用制御方式
JPH06261317A (ja) * 1993-03-08 1994-09-16 Nippon Telegr & Teleph Corp <Ntt> 遠隔共有空間を構成する映像システム
JPH11224152A (ja) * 1998-02-05 1999-08-17 Ricoh Co Ltd 遠隔会議支援システム
JP2000122767A (ja) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> 同室感を持つ共有空間作成方法及び装置ならびに通信システム
JP2003209821A (ja) * 2002-01-15 2003-07-25 National Institute Of Advanced Industrial & Technology 指示確認システム
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004272598A (ja) * 2003-03-07 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> ポインティング方法、装置、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04116689A (ja) * 1990-09-07 1992-04-17 Nippon Telegr & Teleph Corp <Ntt> 画面共用制御方式
JPH06261317A (ja) * 1993-03-08 1994-09-16 Nippon Telegr & Teleph Corp <Ntt> 遠隔共有空間を構成する映像システム
JPH11224152A (ja) * 1998-02-05 1999-08-17 Ricoh Co Ltd 遠隔会議支援システム
JP2000122767A (ja) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> 同室感を持つ共有空間作成方法及び装置ならびに通信システム
JP2003209821A (ja) * 2002-01-15 2003-07-25 National Institute Of Advanced Industrial & Technology 指示確認システム
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004272598A (ja) * 2003-03-07 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> ポインティング方法、装置、およびプログラム

Also Published As

Publication number Publication date
JP2006221550A (ja) 2006-08-24

Similar Documents

Publication Publication Date Title
US11227446B2 (en) Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
Zhu et al. Bishare: Exploring bidirectional interactions between smartphones and head-mounted augmented reality
JP4555701B2 (ja) 情報処理方法、インタフェース装置、プログラム、および記録媒体
Hubenschmid et al. Stream: Exploring the combination of spatially-aware tablets with augmented reality head-mounted displays for immersive analytics
Rohs et al. A conceptual framework for camera phone-based interaction techniques
US20160012612A1 (en) Display control method and system
JP2013141207A (ja) ハンドヘルドプロジェクタを用いたマルチユーザインタラクション
Li et al. Cognitive issues in mobile augmented reality: an embodied perspective
WO2013118373A1 (ja) 画像処理装置、画像処理方法及びプログラム
CN112232900A (zh) 一种信息的展示方法和装置
US20060197751A1 (en) Display control apparatus and control method thereof
US10990344B2 (en) Information processing apparatus, information processing system, and information processing method
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008235989A (ja) 画像処理装置および画像処理方法
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
Stotts et al. Facespace: endo-and exo-spatial hypermedia in the transparent video facetop
JP2006164177A (ja) 電子会議システム
JP2003008805A (ja) 電子黒板システム
KR20100048747A (ko) 안면 추적을 이용한 모바일 유저 인터페이스 장치
Hosoya et al. A mirror metaphor interaction system: touching remote real objects in an augmented reality environment
KR20170120299A (ko) 립모션을 이용한 실감형 콘텐츠 서비스 시스템
Billinghurst et al. Tangible interfaces for ambient augmented reality applications
KR20180071492A (ko) 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템
JP4766696B2 (ja) インタフェース装置およびインタフェースシステム
JP7210884B2 (ja) 情報処理装置、表示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100312

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees