JP2009076983A - 情報処理システム及び情報処理装置 - Google Patents
情報処理システム及び情報処理装置 Download PDFInfo
- Publication number
- JP2009076983A JP2009076983A JP2007241526A JP2007241526A JP2009076983A JP 2009076983 A JP2009076983 A JP 2009076983A JP 2007241526 A JP2007241526 A JP 2007241526A JP 2007241526 A JP2007241526 A JP 2007241526A JP 2009076983 A JP2009076983 A JP 2009076983A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- input
- annotation
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影することができる情報処理システム及び情報処理装置を提供する。
【解決手段】投影画像生成部105は、アノテーション画像を生成すると共に、タブレット8からコピーモードの指示が入力されたときの当該タブレット8の位置に対応する部分画像を切り出し、アノテーション画像付き部分画像を生成する。投影処理部106は、上記アノテーション画像と、タブレット8の位置及び姿勢を検知する検知処理部102の検知結果を使用して投影変換したアノテーション画像付き部分画像とをプロジェクタ4に出力する。プロジェクタ4は、アノテーション画像をコピーモードの指示が入力されたときのタブレット8の位置に、投影変換済みのアノテーション画像付き部分画像をタブレット8上にそれぞれ投影する。
【選択図】図3
【解決手段】投影画像生成部105は、アノテーション画像を生成すると共に、タブレット8からコピーモードの指示が入力されたときの当該タブレット8の位置に対応する部分画像を切り出し、アノテーション画像付き部分画像を生成する。投影処理部106は、上記アノテーション画像と、タブレット8の位置及び姿勢を検知する検知処理部102の検知結果を使用して投影変換したアノテーション画像付き部分画像とをプロジェクタ4に出力する。プロジェクタ4は、アノテーション画像をコピーモードの指示が入力されたときのタブレット8の位置に、投影変換済みのアノテーション画像付き部分画像をタブレット8上にそれぞれ投影する。
【選択図】図3
Description
本発明は、情報処理システム及び情報処理装置に関する。
従来より、カメラとプロジェクタを使い、ユーザ間でコミュニケーションを行うシステムが知られている(例えば、特許文献1参照)。このシステムは、カメラと、当該カメラと光学的に主点を同位置にしたプロジェクタとがある第1の地点と、第1の地点にあるカメラで撮影した画像に対してアノテーション(注釈)を追記できる端末を有する第2の地点とで構成されている。第2の地点の端末においてアノテーションの追記を指示すると、第1の地点においてそのアノテーションがプロジェクタにより投影される。
特開2005−33756号公報
しかしながら、上記特許文献1では、第2の地点にいるユーザでなければ、アノテーションの追記ができなかった。特許文献1のシステムは、第1の地点と第2の地点とが離れていてもユーザ間でコミュニケーションを図ることができるが、アノテーションの追記は第2の地点でしか実施ができなかった。
本発明の目的は、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができる情報処理システム及び情報処理装置を提供することにある。
上記目的を達成するため、請求項1の情報処理システムは、入力装置を含む領域を撮影する撮影装置と、注釈画像又は指示を入力する入力装置であって、前記撮影装置で予め撮影された撮影画像から切り出された、当該入力装置の位置に対応する部分画像が投影されているものと、前記領域に注釈画像を投影する投影装置と、前記入力装置から注釈画像の座標情報を入力する入力手段、前記注釈画像の座標情報に基づいて注釈画像を生成すると共に、前記入力装置から第1の指示が入力されたときに、前記部分画像に前記生成された注釈画像を付加した注釈画像付き部分画像を生成する生成手段、前記撮影装置で撮影された複数の撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、及び前記投影装置が前記注釈画像付き部分画像を前記入力装置上に投影するように、前記検知手段の検知結果を使用して前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力する出力手段を有する情報処理装置とを備えることを特徴とする。
請求項2の情報処理システムは、請求項1に記載の情報処理システムにおいて、前記出力手段は、前記投影装置が前記注釈画像を前記入力装置から第1の指示が入力されたときの当該入力装置の位置に投影するように、前記生成手段で生成された注釈画像を前記投影装置に出力することを特徴とする。
請求項3の情報処理システムは、請求項1又は2に記載の情報処理システムにおいて、前記入力装置から第1の指示が入力される前は、前記生成手段は、前記撮影装置で予め撮影された撮影画像から当該入力装置の位置に対応する部分画像を切り出し、前記出力手段は、前記検知手段の検知結果を使用して前記部分画像を前記投影装置用の画像に変換し、前記投影装置に出力し、前記投影装置は、前記変換済みの部分画像を前記検知手段に検知される入力装置上に投影することを特徴とする。
請求項4の情報処理システムは、請求項1乃至3のいずれか1項に記載の情報処理システムにおいて、前記出力手段は、さらに前記入力装置から注釈画像が入力されたときに、当該注釈画像が入力されたときの当該入力装置の位置に当該注釈画像が投影されるように、前記注釈画像を前記投影装置に出力することを特徴とする。
請求項5の情報処理システムは、請求項1乃至3のいずれか1項に記載の情報処理システムにおいて、前記出力手段は、さらに前記入力装置から注釈画像が入力されたときに、当該注釈画像が入力されたときの当該入力装置の位置に、その注釈画像を前記部分画像に付加した注釈画像付き部分画像が投影されるように、当該部分画像を前記投影装置に出力することを特徴とする。
請求項6の情報処理システムは、請求項1乃至3のいずれか1項に記載の情報処理システムにおいて、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、前記入力装置が所定時間移動していないと判別された場合に、前記出力手段は、さらに前記注釈画像が当該移動していない入力装置の位置に投影されるように、前記前記注釈画像を前記投影装置に出力することを特徴とする。
請求項7の情報処理システムは、請求項1乃至3のいずれか1項に記載の情報処理システムにおいて、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、前記入力装置が所定時間移動していないと判別された場合に、前記出力手段は、さらに前記注釈画像付き部分画像が当該移動していない入力装置の位置に投影されるように、前記前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力することを特徴とする。
請求項8の情報処理システムは、請求項1乃至7のいずれか1項に記載の情報処理システムにおいて、前記入力装置で入力された指示に応じた処理を実行する実行手段をさらに備え、前記生成手段は、複数の指示を規定する指示画像を生成し、前記出力手段は、前記検出手段の検出結果を使用して前記指示画像を前記投影装置用の画像に変換し、前記投影装置に出力し、前記投影装置は、前記出力手段から出力された変換済みの指示画像を前記入力装置上に投影し、前記入力手段は、前記入力装置に入力された座標情報と、当該入力装置上に投影された指示画像とに基づいて、当該第1画像に規定された複数の指示のうちのいずれか1つを決定し、前記実行手段は、前記決定された指示に応じた処理を実行することを特徴とする。
請求項9の情報処理システムは、注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、注釈画像又は指示を受け付ける第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、前記投影装置は、前記検知される入力手段上に、前記指示内容又は注釈画像が反映された画像を投影することを特徴とする。
請求項10の情報処理装置は、入力装置を含む領域を撮影する撮影装置と、注釈画像又は指示を入力する入力装置であって、前記撮影装置で予め撮影された撮影画像から切り出された、当該入力装置の位置に対応する部分画像が投影されているものと、前記領域に注釈画像を投影する投影装置とに接続される接続手段と、 前記入力装置から注釈画像の座標情報を入力する入力手段と、前記注釈画像の座標情報に基づいて注釈画像を生成すると共に、前記入力装置から第1の指示が入力されたときに、前記部分画像に前記生成された注釈画像を付加した注釈画像付き部分画像を生成する生成手段と、前記撮影装置で撮影された複数の撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段と、前記投影装置が前記注釈画像付き部分画像を前記入力装置上に投影するように、前記検知手段の検知結果を使用して前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力する出力手段とを備えることを特徴とする。
請求項1,9,10の発明によれば、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができる。
請求項2の発明によれば、第1の指示が入力されたときの入力装置の位置に注釈画像を投影することができる。
請求項3の発明によれば、入力装置から第1の指示が入力される前は、検知される入力装置の位置及び姿勢に応じた部分画像を入力装置上に投影することができる。
請求項4の発明によれば、注釈画像を当該注釈画像が入力されたときの入力装置の位置に貼り付けることができる。
請求項5の発明によれば、注釈画像付き部分画像が検知手段に検知される入力装置上に投影され、且つ注釈画像付き部分画像が第2の指示が入力されたときの入力装置の位置に投影されるので、注釈画像付き部分画像を複数のユーザに提供することができる。
請求項6の発明によれば、注釈画像を所定時間移動していない入力装置の位置に貼り付けることができる。
請求項7の発明によれば、注釈画像付き部分画像が検知手段に検知される入力装置上に投影され、且つ注釈画像付き部分画像が所定時間移動していない入力装置の位置に投影されるので、注釈画像付き部分画像を複数のユーザに提供することができる。
請求項8の発明によれば、ユーザは、入力装置上に投影される指示画像で規定する複数の指示のうちいずれか1つを入力装置で選択し、当該指示に応じた処理を実行手段に実行させることができる。
以下、本発明の実施の形態について、図面を参照して説明する。
図1は、本発明の実施の形態に係る情報処理装置を含む遠隔指示システムの構成を示すブロック図である。
図1の遠隔指示システムは、ローカル側のシステムとリモート側のシステムとを備えている。情報処理システムとしてのローカル側のシステムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、プロジェクタ4(投影装置)、カメラ5(撮影装置)、及びタブレット8(入力装置)を備えている。PC1には、プロジェクタ4(投影装置)、カメラ5(撮影装置)、及びタブレット8が接続されている。リモート側のシステムは、クライアントとして機能するPC2を備えており、PC2には、表示装置21が接続されている。PC1及びPC2は、ネットワーク3を介して互いに接続されている。
プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物6が置かれたテーブル7の領域に対してアノテーション画像(注釈画像)等を投影する。アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。アノテーション画像には、PC2で入力されるものと、タブレット8で入力されるものがある。
カメラ5は、ビデオカメラ又はPTZ(Pan Tilt Zoom)カメラで構成され、テーブル7の領域を撮影し、撮影画像をPC1に出力する。この撮影画像は、表示装置21で表示される。また、後述するように、撮影画像の一部は、タブレット8がテーブル7上にある場合に、プロジェクタ4を介して当該タブレット8上に投影される。
タブレット8は、形状が四角形で、感圧式のパネルを有しており、ユーザがペンを使って当該感圧式のパネルを押下する又はなぞることで、指示又はアノテーション画像を入力する。タブレット8は、入力した指示又はアノテーション画像をPC1に出力する。ローカル側のユーザがタブレット8にアノテーション画像を入力すると、当該アノテーション画像はプロジェクタ4を介してテーブル7の領域に投影される。また、タブレット8は、PC1に赤外線又はbluetooth(登録商標)等の無線通信で接続されているが、通信ケーブルを使って有線通信でPC1に接続してもよい。
尚、以下の説明において、タブレット8に投影される画像は、全てタブレット8の感圧式パネル上に投影されるものとする。
PC1は、カメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部21に接続されており、表示部21は、撮影画像の表示領域23及びユーザインターフェース(UI)22を表示する。尚、PC2は、表示装置21を備える一体型のパーソナルコンピュータで構成してもよい。
UI22は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンとを含む。表示領域23には、カメラ5で撮影された撮影画像が表示される。同図においては、タブレット8を含むテーブル7の領域をカメラ5により撮影した撮影画像が表示領域23に表示されている。例えば、UI22のペンボタンが押下されて、表示領域23内に図形等が記載されると、当該図形の情報はPC2からPC1を介してプロジェクタ4に出力される。プロジェクタ4は当該図形の情報に基づいてテーブル7又はタブレット8上に図形を描く。
尚、同図においては、クライアントは、PC2の1台が記載されているが、複数のクライアント(PC)を備えていてもよい。また、テーブル7の領域を撮影するカメラも1台に限定するものではなく、複数台あってもよい。さらに、PC1に接続されるタブレットの数は、1つでも複数でもよい。
図2は、PC1のハードウエア構成を示すブロック図である。
PC1は、装置全体を制御するCPU11、制御プログラムを備えるROM12、ワーキングエリアとして機能するRAM13、各種の情報やプログラムを備えるハードディスクドライブ(HDD)14、他のコンピュータと接続するためのネットワークインターフェース15、プロジェクタ4及びカメラ5などのUSB機器と接続するためのUSB(universal serial bus)インターフェース16(接続手段)、及びタブレット8と有線又は無線の通信を行う通信部17(接続手段)を備えている。CPU11はシステムバス18を介してROM12、RAM13、ハードディスクドライブ(HDD)14、ネットワークインターフェース15、USBインターフェース16、及び通信部17に接続されている。
図3は、PC1の機能構成を示すブロック図である。
PC1は、タブレット8からの座標情報又は指示入力を取得する入力処理部101(入力手段)と、タブレット8の移動を検知し、これらの位置及び姿勢を算出する検知処理部102(検知手段、判別手段)、各種のデータや情報を保存する保存部103と、PC1全体を制御する制御部104(実行手段)と、投影画像を生成する投影画像生成部105(生成手段)と、投影画像をタブレット8上に投影する際に投影対象の画像の変換処理を実行する投影処理部106(出力手段)とを備えている。
保存部103は、タブレット8上に投影される各種のGUI(Graphical User Interface)を記憶するGUIデータベース103aと、カメラ5で撮影された撮影画像を保存するフレームバッファ領域103bと、コピーモード実行時にカメラ5で撮影された静止画像(スナップショット)を保存するスナップショット領域103cと、コピーモード実行時のタブレット8の位置情報(即ちタブレット8の座標情報)を保存する位置保存領域103dとを備えている。
制御部104及び投影画像生成部105は、制御プログラムに従って各種の処理を実行するCPU21に相当する。入力処理部101は、CPU21及び通信部17に相当し、検知処理部102及び投影処理部106は、CPU21及びUSBインターフェース16に相当し、保存部103は、ハードディスクドライブ(HDD)14に相当する。
以下、各機能ブロックが実行する処理を具体的に説明する。
まず、カメラ5がタブレット8を含むテーブル7の領域を、継続的に撮影する(例えば、0.5秒毎に撮影する)。撮影画像は、カメラ5から検知処理部102に送信される。
検知処理部102は、撮影した画像シーケンスからタブレット8の形状検出及びテンプレートマッチングによってタブレット8を認識する。
具体的には、検知処理部102は、前処理として撮影した画像シーケンスに対しノイズ除去や平滑化を行い、公知のCanny法を用いてエッジの検出を行う。次いで、検知処理部102は、検出されたエッジから公知のHough変換を用いて、複数の直線の検出を行う。このとき、検知処理部102は、タブレット8のサイズや平行性を考慮し、タブレット8に関係のない線分の除去を行う。その後、検知処理部102は、検出された複数の直線の交差点から平行四辺形の検出を行い、検出された平行四辺形をタブレット8の候補とする。最後に、検知処理部102は、予め撮影されたタブレット8の画像と、タブレット8の候補とを比較し、タブレット8の特徴(例えば、枠の形状、又はタブレット8に装着されたボタンなど)を持つ候補をタブレット8とする。
検知処理部102は、認識したタブレット8の位置及び姿勢を特定する座標(ここではタブレット8の4つの角の座標)を算出する。
投影画像生成部105は、タブレット8に投影する画像を生成する。投影処理部106は、検知処理部102で算出されたタブレット8の座標と投影画像生成部105で生成された投影用画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用画像の変換(以下、投影変換という)を行う。
投影処理部106は、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像を全投影内容の一部としてタブレット8へ投影する。このとき、プロジェクタ4はタブレット8以外の領域には、通常の投影を行っても良い。即ち、プロジェクタ4は、タブレット8と、タブレット8以外の領域とに同時に異なる内容の画像を投影することができる。投影変換された画像がタブレット8上に投影される状態を図4に示す。
タブレット8は、ペンで入力されたアノテーション画像の座標を入力処理部101に出力する。入力処理部101は、アノテーション画像の座標に対し、上記投影変換の逆変換を行い、投影用画像上における相対座標を算出し、制御部104に当該相対座標を出力する。
制御部104は、当該相対座標を投影画像生成部105に出力し、投影画像生成部105は、投影用のアノテーション画像をタブレット8に投影する画像上に生成し、投影処理部106に出力する。逆投影変換されたアノテーション画像が投影用画像上に形成された状態を図5に示す。投影処理部106は、上述したように、推定されたパラメータを用いて、投影変換を行い、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像を全投影内容の一部としてタブレット8へ投影する。
図6,7は、PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。
本処理では、カメラ5がタブレット8を含むテーブル7の領域を、継続的に撮影しているものとする(例えば、0.5秒毎に撮影する)。
まず、制御部104は、入力処理部101を介してタブレット8からコピーモードの指示が入力されたか否かを判別する(ステップS11)。ここで、コピーモードとは、プロジェクタ4側からテーブル7の領域を見て、タブレット8がテーブル7の任意の領域と重なる場合に、その任意の領域に対応する予め撮影された撮影画像が、タブレット8の移動によらず、タブレット8上に固定的に投影されるモードである。このモードが実行されると、ユーザの目の前にある実物(即ち対象物6を含むテーブル7)の一部の画像が常にタブレット8上に固定的に投影される。よって、ユーザは、テーブル7の領域内の撮影したい場所にタブレット8を重ねて、コピーモードの指示を入力することで、撮影したい場所の画像をタブレット8上に投影することができる。
尚、ステップS11でユーザがタブレット8でコピーモードの指示を入力する場合、タブレット8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレット8に投影されるGUI内のコピーモードの位置をタップすることが必要である。
ステップS11でコピーモードの指示が入力されていない場合(NO)の場合には、検知処理部102は、カメラ5からの撮影画像をフレームバッファ領域103bに保存し、タブレット8の位置及び姿勢を特定する座標(ここではタブレット8の4つの角の座標)を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS12)。
投影画像生成部105は、フレームバッファ領域103bから撮影画像を読み出し、タブレット8の位置及び姿勢を特定する座標に基づいて、当該撮影画像から、タブレット8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する(ステップS13)。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレット8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレット8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。図8(A)は、プロジェクタ4側からテーブル7を見た場合のタブレット8と対象物6を含むテーブル7との位置関係を示す図であり、図8(B)は、対象物6上を通過するタブレット8に投影される部分画像のシーケンスを示す図である。
投影処理部106は、検知処理部102で算出されたタブレット8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS14)。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレット8へ投影し(ステップS15)、ステップS12に戻る。
ステップS12〜S15のループ処理により、タブレット8の位置及び姿勢が検知されて、タブレット8の位置及び姿勢に応じた部分画像がタブレット8上に投影される。
ステップS11でコピーモードの指示が入力された場合(YES)の場合には、制御部104は、撮影画像のスナップショット(即ち、カメラ5のシャッターを切ったときの画像)の保存指示及びスナップショットの撮影の瞬間のタブレット8の位置及び姿勢を特定する座標の保存指示を検知処理部102に出力する(ステップS16)。
検知処理部102は、撮影画像のスナップショットをスナップショット領域103cに保存すると共に当該スナップショットの撮影の瞬間のタブレット8の位置及び姿勢を特定する座標を位置保存領域103dに保存する(ステップS17)。
次いで、制御部104は、コピーモードの指示及び投影画像の生成の指示を投影画像生成部105に出力する(ステップS18)。
投影画像生成部105は、位置保存領域103dに保存されたスナップショットの撮影の瞬間のタブレット8の座標に基づいて、スナップショット領域103cに保存されたスナップショットから投影用の部分画像を切り出し、切り出した部分画像をスナップショット領域103cに保存すると共に投影処理部106に出力する(ステップS19)。切り出した画像は、適宜拡大縮小しても良い。
投影処理部106は、スナップショットの撮影の瞬間のタブレット8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS20)。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレット8へ投影する(ステップS21)。
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレット8の座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS22)。
投影画像生成部105は、入力処理部101及び制御部104を介してタブレット8からアノテーション画像の座標の入力があるか否かを判別する(ステップS23)。
ステップS23でアノテーション画像の座標の入力がない場合(NO)には、ステップ19に進み、投影画像生成部105は、スナップショット領域103cに保存された投影用の部分画像を投影処理部106に出力する。以降のステップS20の処理では、投影処理部106は、スナップショットの撮影の瞬間のタブレット8の座標に代えて、ステップS22で検知処理部102から出力されるタブレット8の座標を利用する。
以上のステップS11でYES→ステップS23でNO→ステップS19の一連の処理により、タブレット8の移動が検知されて、タブレット8の移動位置によらず、スナップショットから切り出された投影用の部分画像がタブレット8上に投影される。
ステップS23でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力すると共に、生成されたアノテーション画像をスナップショット領域103cに保存された投影用の部分画像に付加して、投影処理部106に出力する(ステップS24)。
投影処理部106は、ステップS22で検知処理部102から出力されるタブレット8の座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された部分画像及びアノテーション画像をプロジェクタ4に出力し(ステップS25)、ステップS21の処理に進む。以降のステップS21の処理では、プロジェクタ4は、投影変換された部分画像をタブレット8に投影し、アノテーション画像を対象物6を含むテーブル7の領域に投影する。
以上のステップS11でYES→ステップS23でYES→ステップS21の一連の処理により、タブレット8の移動が検知されて、タブレット8の移動位置によらず、アノテーション画像が付加された投影用の部分画像がタブレット8上に投影され、さらに、アノテーション画像は単独で実物(即ち、対象物6を含むテーブル7の領域)に投影される。
次に、PC1で実行される共有モードの処理を説明する。
共有モードとは、複数のユーザが1つのタブレットを共用し、プロジェクタ4がタブレット上に撮影画像の部分画像を投影し、さらにタブレット上に投影された撮影画像の部分画像をテーブル7の任意の領域に投影するモードである。タブレット8にアノテーション画像の入力がある場合には、当該アノテーション画像もタブレット8及び上記テーブル7の任意の領域に投影される。
図9は、PC1で実行される共有モードの処理を示すフローチャートである。
共有モードの前提として、ローカル側のシステムは、対象物6側にアノテーション画像が投影され、且つタブレット8の位置及び姿勢が検知され、タブレット8上には、撮影画像の一部である部分画像及びアノテーション画像が投影されている状態、又はアノテーション画像の投影はなく、タブレット8の位置及び姿勢が検知され、タブレット8上には、撮影画像の一部である部分画像が投影されている状態であるとする。
まず、制御部104は、入力処理部101を介してタブレット8から共有モードの指示が入力されたか否かを判別する(ステップS31)。
尚、ステップS31でユーザがタブレット8で共有モードの指示を入力する場合、タブレット8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレット8に投影されるGUI内の共有モードの位置をタップすることが必要である。
ステップS31で共有モードの指示が入力されていない場合(NO)には、本処理を終了する。一方、ステップS31で共有モードの指示が入力された場合(YES)には、制御部104は、撮影画像内のタブレット8の位置を特定する座標(以下、このタブレット8の座標を共有座標という)の保存指示を検知処理部102に出力する(ステップS32)。
検知処理部102は、撮影画像から共有座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS33)。尚、検知処理部102は、カメラ5から新たな撮影画像を入力する度にタブレット8の座標を算出し、投影画像生成部105及び投影処理部106に出力する。
投影画像生成部105は、入力処理部101及び制御部104を介してタブレット8からアノテーション画像の座標の入力があるか否かを判別する(ステップS34)。
ステップS34でアノテーション画像の座標の入力がない場合(NO)には、投影画像生成部105は、スナップショット領域103cに保存された投影用の部分画像を投影処理部106に出力する(ステップS35)。
次いで、投影処理部106は、共有座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用の第1パラメータを推定し、この推定された第1パラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された第1の部分画像をプロジェクタ4に出力すると共に、タブレット8の位置及び姿勢の変化に応じたタブレット8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用の第2パラメータを推定し、この推定された第2パラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された第2の部分画像をプロジェクタ4に出力する(ステップ36)。
プロジェクタ4は、投影変換された第1の部分画像を共有座標に対応するテーブル7の領域に投影すると共に投影変換された第2の部分画像をタブレット8へ投影する(ステップS37)。
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレット8の座標を算出し、投影画像生成部105及び投影処理部106に出力し(ステップS38)、ステップS34に戻る。
ステップS34でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力すると共に、生成されたアノテーション画像をスナップショット領域103cに保存された投影用の部分画像に付加して、投影処理部106に出力する(ステップS39)。
投影処理部106は、共有座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用の第3パラメータを推定し、この推定された第3パラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された第1のアノテーション画像付きの部分画像をプロジェクタ4に出力し、且つタブレット8の位置及び姿勢の変化に応じたタブレット8の座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用の第4パラメータを推定し、この推定された第4パラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された第2のアノテーション画像付きの部分画像をプロジェクタ4に出力する(ステップS40)。
プロジェクタ4は、第3パラメータを用いて投影変換された第1のアノテーション画像付きの部分画像を共有座標に対応するテーブル7の領域に投影し、第4パラメータを用いて投影変換された第2のアノテーション画像付きの部分画像をタブレット8に投影し、アノテーション画像をスナップショットを撮影したときのタブレット8の位置に投影する(ステップS41)。
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレット8の座標を算出し、投影画像生成部105及び投影処理部106に出力し(ステップS42)、ステップS34に戻る。
図9の処理によれば、アノテーション画像付き部分画像が検知処理部102に検知されるタブレット8上に投影され、且つアノテーション画像付き部分画像が共有モードの指示が入力されたときの撮影画像内のタブレット8の位置に投影されるので、アノテーション画像付き部分画像を同時に複数のユーザに提供することができる。
上記共有モードでは、投影変換された部分画像又は投影変換されたアノテーション画像付きの部分画像は、タブレット8から共有モードの指示が入力されたときの撮影画像内のタブレット8の位置を特定する座標(共有座標)に投影されたが、検知処理部102が、タブレット8が所定時間(例えば、5分)移動していないか否かを判別し、タブレット8が所定時間(例えば、5分)移動していない場合には、共有座標の位置に代えて、その移動していないタブレット8の位置に投影変換された部分画像又は投影変換されたアノテーション画像付きの部分画像が投影されるようにしてもよい。この場合、タブレット8が移動すると、上記移動していないタブレット8の位置及び移動したタブレット8上に、投影変換された部分画像又は投影変換されたアノテーション画像付きの部分画像が投影されるので、アノテーション画像付き部分画像を同時に複数のユーザに提供することができる。
また、図12に示すように、ステップS34でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105が、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力し(ステップS61)、投影処理部106が、アノテーション画像の投影変換を行い(ステップ62)、プロジェクタ4が、アノテーション画像が入力されたときのタブレット8の位置に投影変換されたアノテーション画像を投影するようにしてもよい(ステップ63)。この場合、アノテーション画像付き部分画像は投影されず、アノテーション画像のみが投影される。これにより、いわゆるポストイットのように、アノテーション画像を当該アノテーション画像が入力されたときのタブレット8の位置に貼り付けることができる。
さらに、検知処理部102が、タブレット8が所定時間(例えば、5分)移動していないか否かを判別し、タブレット8が所定時間(例えば、5分)移動していない場合には、その移動していないタブレット8の位置に投影変換されたアノテーション画像が投影されるようにしてもよい。これにより、いわゆるポストイットのように、アノテーション画像を所定時間移動していないタブレット8の位置に貼り付けることができる。
図10は、GUIをタブレット8上に投影する処理及びタブレットで指定されたモードを実行する処理を示すフローチャートである。本処理は、PC1により実行される。
まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレット8の形状検出及びテンプレートマッチングによってタブレット8を認識し、認識したタブレット8の位置及び姿勢を特定する座標を算出し、当該タブレット8の座標を投影画像生成部105及び投影処理部106に出力する(ステップS51)。
次に、投影画像生成部105は、GUIデータベース103aの各種のGUIの要素に基づいて、タブレット8に投影するGUI画像を生成する(ステップS52)。
投影処理部106は、検知処理部102で算出されたタブレット8の座標と投影画像生成部105で生成された投影用のGUI画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、GUI画像の投影変換を行い、投影変換されたGUI画像をプロジェクタ4に出力する(ステップS53)。プロジェクタ4は、当該投影変換されたGUI画像を全投影内容の一部としてタブレット8へ投影する(ステップS54)。タブレット8へ投影されたGUI画像の一例を図11に示す。
タブレット8は、ペンで入力された座標を入力処理部101に出力する(ステップS55)。入力処理部101は、ペンで入力された座標に対し、上記投影変換の逆変換を行い、投影画像生成部105から取得したGUI画像上における相対座標を算出し、ペンで入力されたモードを決定する(ステップS56)。
制御部104は、入力処理部101から決定されたモードの情報を入力し、当該モードの情報に応じた処理を実行し(ステップS57)、本処理を終了する。
モードの情報に応じた処理とは、例えば、入力されたモードが印刷モードの場合は、制御部104は、不図示のプリンタドライバに印刷開始の指示を出力する。また、入力されたモードがコピーモードの場合は、制御部104は、上記図6、7の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。入力されたモードが共有モードの場合は、制御部104は、上記図9の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。
図10の処理によれば、ユーザは、タブレット8上に投影されるGUI画像で規定する複数のモードのうちいずれか1つをタブレット8で選択し、当該モードに応じた処理を制御部104に実行させることができる。
以上詳細に説明したように、本実施の形態によれば、入力処理部101は、タブレット8からアノテーション画像の座標情報を入力し、投影画像生成部105は、アノテーション画像の座標情報に基づいてアノテーション画像を生成すると共に、タブレット8からコピーモードの指示(第1の指示)が入力されたときに、カメラ5で予め撮影された撮影画像から当該タブレット8の位置に対応する部分画像を切り出し、当該部分画像にアノテーション画像を付加したアノテーション画像付き部分画像を生成する。そして、検知処理部102は、カメラ5で撮影された複数の撮影画像からタブレット8の位置及び姿勢を検知し、投影処理部106は、投影画像生成部105で生成されたアノテーション画像をプロジェクタ4に出力すると共に、検知処理部102の検知結果を使用してアノテーション画像付き部分画像を投影変換し、プロジェクタ4に出力する。プロジェクタ4は、投影処理部106から出力されたアノテーション画像をタブレット8からコピーモードの指示が入力されたときの当該タブレット8の位置に投影すると共に、投影処理部106から出力された投影変換済みのアノテーション画像付き部分画像を検知処理部102に検知されるタブレット8上に投影する。
よって、カメラ5側又はプロジェクタ4側においても、対象物を含む領域にアノテーション画像を簡単な構成で投影させることができる。タブレット8には、撮影画像の一部である部分画像が投影されるので、アノテーション画像を撮影画像内のユーザ所望の位置に追記し易くなる。表示部のような発光部材を有していないタブレットが利用できるので、消費電力を抑えることができる。
PC1の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、PC1に供給し、PC1のCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。
また、PC1のCPUが、PC1の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。
なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。
1,2 PC
3 ネットワーク
4 プロジェクタ
5 カメラ
101 入力処理部
102 検知処理部
103 保存部
104 制御部
105 投影画像生成部
106 投影処理部
3 ネットワーク
4 プロジェクタ
5 カメラ
101 入力処理部
102 検知処理部
103 保存部
104 制御部
105 投影画像生成部
106 投影処理部
Claims (10)
- 入力装置を含む領域を撮影する撮影装置と、
注釈画像又は指示を入力する入力装置であって、前記撮影装置で予め撮影された撮影画像から切り出された、当該入力装置の位置に対応する部分画像が投影されているものと、
前記領域に注釈画像を投影する投影装置と、
前記入力装置から注釈画像の座標情報を入力する入力手段、
前記注釈画像の座標情報に基づいて注釈画像を生成すると共に、前記入力装置から第1の指示が入力されたときに、前記部分画像に前記生成された注釈画像を付加した注釈画像付き部分画像を生成する生成手段、
前記撮影装置で撮影された複数の撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、及び
前記投影装置が前記注釈画像付き部分画像を前記入力装置上に投影するように、前記検知手段の検知結果を使用して前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力する出力手段を有する情報処理装置とを備えることを特徴とする情報処理システム。 - 前記出力手段は、前記投影装置が前記注釈画像を前記入力装置から第1の指示が入力されたときの当該入力装置の位置に投影するように、前記生成手段で生成された注釈画像を前記投影装置に出力することを特徴とする請求項1に記載の情報処理システム。
- 前記入力装置から第1の指示が入力される前は、前記生成手段は、前記撮影装置で予め撮影された撮影画像から当該入力装置の位置に対応する部分画像を切り出し、
前記出力手段は、前記検知手段の検知結果を使用して前記部分画像を前記投影装置用の画像に変換し、前記投影装置に出力し、
前記投影装置は、前記変換済みの部分画像を前記検知手段に検知される入力装置上に投影することを特徴とする請求項1又は2に記載の情報処理システム。 - 前記出力手段は、さらに前記入力装置から注釈画像が入力されたときに、当該注釈画像が入力されたときの当該入力装置の位置に当該注釈画像が投影されるように、前記注釈画像を前記投影装置に出力することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。
- 前記出力手段は、さらに前記入力装置から注釈画像が入力されたときに、当該注釈画像が入力されたときの当該入力装置の位置に、その注釈画像を前記部分画像に付加した注釈画像付き部分画像が投影されるように、当該部分画像を前記投影装置に出力することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。
- 前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、
前記入力装置が所定時間移動していないと判別された場合に、前記出力手段は、さらに前記注釈画像が当該移動していない入力装置の位置に投影されるように、前記前記注釈画像を前記投影装置に出力することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。 - 前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、
前記入力装置が所定時間移動していないと判別された場合に、前記出力手段は、さらに前記注釈画像付き部分画像が当該移動していない入力装置の位置に投影されるように、前記前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。 - 前記入力装置で入力された指示に応じた処理を実行する実行手段をさらに備え、
前記生成手段は、複数の指示を規定する指示画像を生成し、
前記出力手段は、前記検出手段の検出結果を使用して前記指示画像を前記投影装置用の画像に変換し、前記投影装置に出力し、
前記投影装置は、前記出力手段から出力された変換済みの指示画像を前記入力装置上に投影し、
前記入力手段は、前記入力装置に入力された座標情報と、当該入力装置上に投影された指示画像とに基づいて、当該第1画像に規定された複数の指示のうちのいずれか1つを決定し、
前記実行手段は、前記決定された指示に応じた処理を実行することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理システム。 - 注釈画像又は指示を入力する入力装置と、
当該入力装置を含む領域を撮影する撮影装置と、
前記領域に注釈画像を投影する投影装置と、
前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
注釈画像又は指示を受け付ける第1画像を生成する生成手段、
前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
前記入力装置に入力された座標情報を入力する入力手段、
前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、
前記投影装置は、前記検知される入力手段上に、前記指示内容又は注釈画像が反映された画像を投影することを特徴とする情報処理システム。 - 入力装置を含む領域を撮影する撮影装置と、注釈画像又は指示を入力する入力装置であって、前記撮影装置で予め撮影された撮影画像から切り出された、当該入力装置の位置に対応する部分画像が投影されているものと、前記領域に注釈画像を投影する投影装置とに接続される接続手段と、
前記入力装置から注釈画像の座標情報を入力する入力手段と、
前記注釈画像の座標情報に基づいて注釈画像を生成すると共に、前記入力装置から第1の指示が入力されたときに、前記部分画像に前記生成された注釈画像を付加した注釈画像付き部分画像を生成する生成手段と、
前記撮影装置で撮影された複数の撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段と、
前記投影装置が前記注釈画像付き部分画像を前記入力装置上に投影するように、前記検知手段の検知結果を使用して前記注釈画像付き部分画像を前記投影装置用の画像に変換し、前記投影装置に出力する出力手段と
を備えることを特徴とする情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007241526A JP2009076983A (ja) | 2007-09-18 | 2007-09-18 | 情報処理システム及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007241526A JP2009076983A (ja) | 2007-09-18 | 2007-09-18 | 情報処理システム及び情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009076983A true JP2009076983A (ja) | 2009-04-09 |
Family
ID=40611569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007241526A Pending JP2009076983A (ja) | 2007-09-18 | 2007-09-18 | 情報処理システム及び情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009076983A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2364013A2 (en) | 2010-03-04 | 2011-09-07 | Sony Corporation | Information processing apparatus, method and program for imaging device |
EP2437244A4 (en) * | 2009-05-26 | 2015-12-30 | Panasonic Ip Man Co Ltd | INFORMATION PRESENTATION DEVICE |
-
2007
- 2007-09-18 JP JP2007241526A patent/JP2009076983A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2437244A4 (en) * | 2009-05-26 | 2015-12-30 | Panasonic Ip Man Co Ltd | INFORMATION PRESENTATION DEVICE |
EP2364013A2 (en) | 2010-03-04 | 2011-09-07 | Sony Corporation | Information processing apparatus, method and program for imaging device |
EP2364013A3 (en) * | 2010-03-04 | 2014-01-29 | Sony Corporation | Information processing apparatus, method and program for imaging device |
US9049376B2 (en) | 2010-03-04 | 2015-06-02 | Sony Corporation | Information processing apparatus, information processing method, and program |
US9516206B2 (en) | 2010-03-04 | 2016-12-06 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10015392B2 (en) | 2010-03-04 | 2018-07-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10306136B2 (en) | 2010-03-04 | 2019-05-28 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10659681B2 (en) | 2010-03-04 | 2020-05-19 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11190678B2 (en) | 2010-03-04 | 2021-11-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
EP3996361A1 (en) | 2010-03-04 | 2022-05-11 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8004571B2 (en) | Projection-based system, apparatus and program of storing annotated object image | |
JP6525611B2 (ja) | 画像処理装置およびその制御方法 | |
US8022997B2 (en) | Information processing device and computer readable recording medium | |
JP4910975B2 (ja) | 情報処理装置、指示システム及び制御プログラム | |
JP2009211166A (ja) | 認証装置、認証方法及び認証プログラム | |
JP2008217590A (ja) | 情報共有支援システム、情報処理装置及び制御プログラム | |
JP2009169768A (ja) | 情報処理装置及びプログラム | |
US9888209B1 (en) | Remote communication system, method for controlling remote communication system, and storage medium | |
US20120113255A1 (en) | Apparatus, system, and method of image processing, and recording medium storing image processing control program | |
KR101613438B1 (ko) | 증강현실 컨텐츠의 생성 및 재생 시스템과, 이를 이용한 방법 | |
JP2009094868A (ja) | 情報処理装置、遠隔指示システム及びプログラム | |
JP5262888B2 (ja) | 文書表示制御装置及びプログラム | |
JP4674627B2 (ja) | 情報処理装置、遠隔指示システム及びプログラム | |
JP2010272078A (ja) | 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法 | |
JP2009076983A (ja) | 情報処理システム及び情報処理装置 | |
JP5187001B2 (ja) | 情報処理システム及び情報処理装置 | |
KR20150039049A (ko) | 템플릿 편집 프레임 크기에 따른 사용자 인터페이스 제공 방법 및 그 장치 | |
JP2010081504A (ja) | 画像処理装置、画像処理システム、情報処理システム及び画像処理装置の制御プログラム | |
JP5623247B2 (ja) | 撮像装置及びその制御方法 | |
JP2010079529A (ja) | 情報処理装置、情報処理方法、そのプログラム及および記録媒体 | |
US8279294B2 (en) | Information processing apparatus, remote indication system, and computer readable medium | |
JP2015002514A (ja) | 画像処理装置、画像処理方法、プログラム、及び画像処理システム | |
JP2010117465A (ja) | 情報処理装置、情報処理システム及びプログラム | |
JP2009100192A (ja) | 情報処理装置、保存方法、及びプログラム | |
JP6164958B2 (ja) | 情報処理装置、方向特定方法、コンピュータプログラム、及び記憶媒体 |