JP2009290488A - Information processing system and information processing apparatus - Google Patents
Information processing system and information processing apparatus Download PDFInfo
- Publication number
- JP2009290488A JP2009290488A JP2008140061A JP2008140061A JP2009290488A JP 2009290488 A JP2009290488 A JP 2009290488A JP 2008140061 A JP2008140061 A JP 2008140061A JP 2008140061 A JP2008140061 A JP 2008140061A JP 2009290488 A JP2009290488 A JP 2009290488A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- annotation image
- tablet
- annotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理システム及び情報処理装置に関する。 The present invention relates to an information processing system and an information processing apparatus.
従来より、カメラとプロジェクタを使い、ユーザ間でコミュニケーションを行うシステムが知られている(例えば、特許文献1参照)。このシステムは、カメラと、当該カメラと光学的に主点を同位置にしたプロジェクタとがある第1の地点と、第1の地点にあるカメラで撮影した画像に対してアノテーション(注釈)を追記できる端末を有する第2の地点とで構成されている。第2の地点の端末においてアノテーションの追記を指示すると、第1の地点においてそのアノテーションがプロジェクタにより投影される。
しかしながら、上記特許文献1では、第2の地点にいるユーザでなければ、アノテーションの追記ができなかった。特許文献1のシステムは、第1の地点と第2の地点とが離れていてもユーザ間でコミュニケーションを図ることができるが、アノテーションの追記は第2の地点でしか実施ができなかった。
However, in the above-mentioned
本発明の目的は、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができると共に撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる情報処理システム及び情報処理装置を提供することにある。 An object of the present invention is to allow an annotation image to be projected onto a region including an object with a simple configuration on the imaging device side or the projection device side, and to make an annotation image easy to see for the user on the imaging device side or the projection device side. An object is to provide an information processing system and an information processing apparatus that can be provided.
上記目的を達成するため、請求項1の情報処理システムは、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。
In order to achieve the above object, the information processing system according to
請求項2の情報処理システムは、請求項1記載の情報処理システムにおいて、前記情報処理装置にネットワークを介して接続される遠隔端末を備え、前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする。
2. The information processing system according to
請求項3の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2入力手段により入力された注釈画像から、前記重なる部分の注釈画像を除いた残りの注釈画像は、前記投影装置から投影されることを特徴とする。
The information processing system according to claim 3 is the information processing system according to
請求項4の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2表示手段は、データをドラグアンドドロップにより前記入力装置に転送するホットスポットエリアを含む画面を表示することを特徴とする。
The information processing system according to
請求項5の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、さらに前記入力装置から共有モードの指示が入力され、前記注釈画像の座標が入力された場合には、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該注釈画像が入力されたときの撮影画像内の入力装置の位置に当該注釈画像を投影することを特徴とする。
The information processing system according to
請求項6の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、前記情報処理装置は、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする。
The information processing system according to
請求項7の情報処理システムは、請求項1乃至6のいずれか1つに記載の情報処理システムにおいて、前記情報処理装置は、ユーザの位置を検出するユーザ検知手段を備え、前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする。
The information processing system according to
請求項8の情報処理装置は、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と接続される情報処理装置であって、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。
The information processing apparatus according to
請求項1,8の発明によれば、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができる。さらに、注釈画像が、投影装置の解像度によらず、第1表示手段の解像度に従って表示されるので、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。 According to the first and eighth aspects of the present invention, the annotation image can be projected onto the region including the object with a simple configuration on the photographing apparatus side or the projection apparatus side. Furthermore, since the annotation image is displayed according to the resolution of the first display means regardless of the resolution of the projection device, it is possible to provide an easy-to-view annotation image for the user on the photographing device side or the projection device side.
請求項2の発明によれば、遠隔端末で入力された注釈画像のうち、第2表示手段に表示される入力装置に重なる部分は、第1表示手段により表示されるので、投影装置が当該重なる部分の注釈画像を投影する場合と比べて、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。また、第2表示手段が液晶表示体である場合でも、撮影装置側又は投影装置側のユーザに見やすい注釈画像提供することができる。 According to the second aspect of the present invention, since the portion of the annotation image input by the remote terminal that overlaps the input device displayed on the second display means is displayed by the first display means, the projection device overlaps the image. Compared with the case where a partial annotation image is projected, it is possible to provide an easy-to-view annotation image for the user on the photographing apparatus side or the projection apparatus side. Even when the second display means is a liquid crystal display, it is possible to provide an easy-to-see annotation image for the user on the photographing apparatus side or the projection apparatus side.
請求項3の発明によれば、第1表示手段及び投影装置により、撮影装置側又は投影装置側のユーザに、遠隔端末で入力された注釈画像の全体を提供することができる。 According to the invention of claim 3, the first display means and the projection device can provide the entire annotation image input at the remote terminal to the user on the photographing device side or the projection device side.
請求項4の発明によれば、遠隔端末のユーザは、簡単な操作により入力装置に所望のデータを転送することができ、入力装置のユーザ(即ち撮影装置側又は投影装置側のユーザ)とコミュニケーションすることができる。
According to the invention of
請求項5の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
According to the invention of
請求項6の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
According to the invention of
請求項7の発明によれば、ユーザにとって見やすい向きに注釈画像を自動的に回転することができる。 According to the seventh aspect of the present invention, the annotation image can be automatically rotated in a direction that is easy for the user to see.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an information processing system according to an embodiment of the present invention.
図1の情報処理システムは、ローカル側のシステムとリモート側のシステムとを備えている。ローカル側のシステムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、プロジェクタ4(投影装置)、カメラ5(撮影装置)、及びタブレットPC8(入力装置)を備えている。PC1には、プロジェクタ4、カメラ5、及びタブレットPC8が接続されている。さらに、PC1には、プロジェクタ4側又はカメラ5側のユーザの位置を検出する人感センサ10(ユーザ検知手段)を備えていてもよい。リモート側のシステムは、クライアントとして機能するPC2(遠隔端末)を備えており、PC2には、表示装置21が接続されている。PC1及びPC2は、ネットワーク3を介して互いに接続されている。ローカル側のシステムは、タブレットPC8に代えて、ディスプレイ付きのタブレットを備えていてもよい。
The information processing system shown in FIG. 1 includes a local system and a remote system. The local system includes a personal computer (PC) 1 (information processing apparatus), a projector 4 (projection apparatus), a camera 5 (imaging apparatus), and a tablet PC 8 (input apparatus) functioning as a server. A
プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物6が置かれたテーブル7の領域に対してアノテーション画像(注釈画像)等を投影する。アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。アノテーション画像には、PC2で入力される又はタブレットPC8で入力される。
The
カメラ5は、ビデオカメラ又はPTZ(Pan Tilt Zoom)カメラで構成され、テーブル7の領域を撮影し、撮影画像をPC1に出力する。この撮影画像は、表示装置21で表示される。また、撮影画像の一部は、タブレットPC8がテーブル7上にある場合に、プロジェクタ4を介して当該タブレットPC8上に投影されるようにしてもよい。
The
タブレットPC8は、形状が四角形で、感圧式のパネルを有している。ユーザがペンを使って当該感圧式のパネルを押下する又はなぞることで、指示又はアノテーション画像を入力する。また、この感圧式のパネルは、表示パネルに重ね合わせて固定されている。タブレットPC8は、入力した指示又はアノテーション画像をPC1に出力する。ローカル側のユーザがタブレットPC8にアノテーション画像を入力すると、当該アノテーション画像はプロジェクタ4を介してテーブル7の領域に投影される、又はタブレットPC8の表示パネルに表示される。また、タブレットPC8は、PC1に赤外線又はbluetooth(登録商標)等の無線通信で接続されているが、通信ケーブルを使って有線通信でPC1に接続してもよい。
The tablet PC 8 has a quadrangular shape and a pressure-sensitive panel. The user inputs an instruction or annotation image by pressing or tracing the pressure-sensitive panel using a pen. The pressure-sensitive panel is fixed by being overlapped on the display panel. The tablet PC 8 outputs the input instruction or annotation image to the PC 1. When the user on the local side inputs an annotation image to the tablet PC 8, the annotation image is projected onto the area of the table 7 via the
PC1は、カメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部21に接続されており、表示部21は、撮影画像の表示領域23及びユーザインターフェース(UI)22を表示する。尚、PC2は、表示装置21を備える一体型のパーソナルコンピュータで構成してもよい。
The
UI22は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンと、テキストや画像等のデータ(ファイル)をドラグ&ドロップによりタブレットPC8に転送することが可能なホットスポットエリア25を含む。表示領域23には、カメラ5で撮影された撮影画像が表示される。同図においては、タブレットPC8を含むテーブル7の領域をカメラ5により撮影した撮影画像が表示領域23に表示されている。例えば、UI22のペンボタンが押下されて、表示領域23内に図形等が記載されると、当該図形の情報はPC2からPC1を介してプロジェクタ4に出力される。プロジェクタ4は当該図形の情報に基づいてテーブル7又はタブレットPC8上に図形を描く。
The
尚、同図においては、クライアントは、PC2の1台が記載されているが、複数のクライアント(PC)を備えていてもよい。また、テーブル7の領域を撮影するカメラも1台に限定するものではなく、複数台あってもよい。さらに、PC1に接続されるタブレットの数は、1つでも複数でもよい。
In the figure, one
図2(A)は、PC1のハードウエア構成を示すブロック図である。図2(B)は、PC2のハードウエア構成を示すブロック図である。
FIG. 2A is a block diagram illustrating a hardware configuration of the
PC1は、装置全体を制御するCPU11、制御プログラムを備えるROM12、ワーキングエリアとして機能するRAM13、各種の情報やプログラムを備えるハードディスクドライブ(HDD)14、他のコンピュータと接続するためのネットワークインターフェース15、プロジェクタ4及びカメラ5などのUSB機器と接続するためのUSB(universal serial bus)インターフェース16、及びタブレットPC8と有線又は無線の通信を行う通信部17を備えている。CPU11はシステムバス18を介してROM12、RAM13、ハードディスクドライブ(HDD)14、ネットワークインターフェース15、USBインターフェース16、及び通信部17に接続されている。
The
PC2は、装置全体を制御するCPU31、制御プログラムを備えるROM32、ワーキングエリアとして機能するRAM33、各種の情報やプログラムを備えるハードディスクドライブ(HDD)34、他のコンピュータと接続するためのネットワークインターフェース35、キーボードやマウスなどの入力機器と接続するためのUSB(universal serial bus)インターフェース36、及び表示装置21を備えている。CPU31はシステムバス37を介してROM32、RAM33、ハードディスクドライブ(HDD)34、ネットワークインターフェース35、USBインターフェース36及び表示装置21に接続されている。
The
図3は、タブレットPC8の外観図である。
FIG. 3 is an external view of the
図3に示すように、タブレットPC8は、タッチパネル81(第1表示手段)を備えている。このタッチパネル81は、ペン82を使って入力されたデータや情報を受け付け、さらに、各種のデータや情報を表示する。
As shown in FIG. 3, the
図4は、PC1及びPC2の機能構成を示すブロック図である。 FIG. 4 is a block diagram showing the functional configuration of the PC1 and PC2.
PC1は、タブレットPC8からの座標情報又は指示入力を取得する入力処理部101(第1入力手段)と、タブレットPC8の移動を検知し、これらの位置及び姿勢を算出する検知処理部102(検知手段、判別手段)、各種のデータや情報を保存する保存部103と、PC1全体を制御する制御部104(実行手段)と、投影画像を生成する投影画像生成部105(生成手段)と、投影画像をタブレットPC8上に投影する際に投影対象の画像の変換処理を実行する投影処理部106(出力手段)とを備えている。
The
保存部103は、タブレットPC8上に投影される各種のGUI(Graphical User Interface)を記憶するGUIデータベース103aと、カメラ5で撮影された撮影画像を保存するフレームバッファ領域103bと、コピーモード実行時にカメラ5で撮影された静止画像(スナップショット)を保存するスナップショット領域103cと、コピーモード実行時のタブレットPC8の位置情報(即ちタブレットPC8の座標情報)を保存する位置保存領域103dとを備えている。
The
制御部104及び投影画像生成部105は、制御プログラムに従って各種の処理を実行するCPU21に相当する。入力処理部101は、CPU21及び通信部17に相当し、検知処理部102及び投影処理部106は、CPU21及びUSBインターフェース16に相当し、保存部103は、ハードディスクドライブ(HDD)14に相当する。
The
PC2は、PC1全体を制御する制御部201と、各種のデータや情報を保存する保存部202と、キーボードやマウスなどでデータや指示を入力する入力部203(第2入力手段)と、撮影画像を表示する表示部204(第2表示手段)とを備えている。制御部201は、制御プログラムに従って各種の処理を実行するCPU31に相当し、保存部202は、ハードディスクドライブ(HDD)34に相当する。入力部203は、不図示のキーボードやマウス及びこれらが接続されるUSBインターフェース36に相当し、表示部204は、表示装置21に相当する。
The
以下、各機能ブロックが実行する処理を具体的に説明する。 Hereinafter, processing executed by each functional block will be specifically described.
まず、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影する(例えば、0.5秒毎に撮影する)。撮影画像は、カメラ5から検知処理部102に送信される。
First, the
検知処理部102は、カメラ5からの撮影画像を保存部103(フレームバッファ領域103b)に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識する。
The
具体的には、検知処理部102は、前処理として撮影した画像シーケンスに対しノイズ除去や平滑化を行い、公知のCanny法を用いてエッジの検出を行う。次いで、検知処理部102は、検出されたエッジから公知のHough変換を用いて、複数の直線の検出を行う。このとき、検知処理部102は、タブレットPC8のサイズや平行性を考慮し、タブレットPC8に関係のない線分の除去を行う。その後、検知処理部102は、検出された複数の直線の交差点から平行四辺形の検出を行い、検出された平行四辺形をタブレットPC8の候補とする。最後に、検知処理部102は、予め撮影されたタブレットPC8の画像と、タブレットPC8の候補とを比較し、タブレットPC8の特徴(例えば、枠の形状、又はタブレットPC8に装着されたボタンなど)を持つ候補をタブレットPC8とする。
Specifically, the
検知処理部102は、認識したタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する。
The
投影画像生成部105は、タブレットPC8に投影する画像を生成する。即ち、投影画像生成部105は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。
The projection
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、部分画像の変換(以下、投影変換という)を行う。
The
投影処理部106は、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像を全投影内容の一部としてタブレットPC8へ投影する。このとき、プロジェクタ4はタブレットPC8以外の領域には、通常の投影を行っても良い。即ち、プロジェクタ4は、タブレットPC8と、タブレットPC8以外の領域とに同時に異なる内容の画像を投影することができる。投影変換された画像がタブレットPC8上に投影される状態を図5に示す。
The
タブレットPC8は、ペン82で入力されたアノテーション画像をタッチパネル81に表示すると共にペン82で入力されたアノテーション画像の座標を入力処理部101に出力する。入力処理部101は、アノテーション画像の座標に対し、上記投影変換の逆変換を行い、投影用画像上における相対座標を算出し、制御部104に当該相対座標を出力する。
The
制御部104は、当該相対座標を投影画像生成部105に出力し、投影画像生成部105は、投影用のアノテーション画像をタブレットPC8に投影する画像上に生成し、投影処理部106に出力する。逆投影変換されたアノテーション画像が投影用画像上に形成された状態を図6に示す。投影処理部106は、上述したように、推定されたパラメータを用いて、投影変換を行い、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像をタブレットPC8へ投影する。
The
このように、タブレットPC8のペン82で入力されたアノテーション画像は、タッチパネル81により表示され、さらにプロジェクタ4からタブレットPC8へ投影させることもできる。また、アノテーション画像がタブレットPC8のペン82で入力された場合には、タッチパネル81のみがアノテーション画像を表示し、PC1は当該アノテーション画像をプロジェクタ4からタブレットPC8へ投影しないような設定もできる。
As described above, the annotation image input with the
また、制御部104は、検知処理部102から、カメラ5からの撮影画像及びタブレットPC8の位置及び姿勢を特定する座標を入力し、ネットワーク3を介してPC2に出力する。これにより、図1に示すように、ローカル側の対象物6及びタブレットPC8が置かれたテーブル7の状況が表示領域23に再現される。
In addition, the
図7(A)は、表示領域23に描かれたアノテーション画像がタブレットPC8に表示される例を示す図であり、図7(B)は、アノテーション画像のファイルがホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたときに、当該アノテーション画像がタブレットPC8に表示される例を示す図である。
FIG. 7A is a diagram showing an example in which an annotation image drawn in the
図8は、表示領域21に描かれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ている場合に、ローカル側で当該アノテーション画像の一部がタブレットPC8に表示され、当該アノテーション画像の残りが投影される例を示す図である。
FIG. 8 shows that when an annotation image drawn in the
図7(A)に示すように、リモート側のユーザが、表示領域23に表示されているタブレットPC8上にアノテーション画像40を描くと、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。また、図7(B)に示すように、リモート側のユーザが、アノテーション画像40のファイルをホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップすると、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。この場合、ドラグ・アンド・ドロップされるファイルは、アノテーション画像のファイルに限定されず、テキスト、静止画像、動画像、又は音声のファイルでもよい。
As shown in FIG. 7A, when the remote user draws the
また、図8に示すように、アノテーション画像として「ABC…」のテキストと矢印の画像が表示領域23に描かれ、当該矢印の画像が表示領域23に表示されているタブレットPC8からはみ出ている場合、ローカル側では、「ABC…」のテキストと矢印の一部の画像がアノテーション画像51としてタブレットPC8に表示され、矢印の残りの画像がアノテーション画像52としてプロジェクタ4からテーブル7に投影される。尚、図8のアノテーション画像52を破線で表示しているが、破線は投影されていることを示す。
In addition, as shown in FIG. 8, when the text “ABC...” And the arrow image are drawn as the annotation image in the
図9は、PC1及びPC2で実行される基本処理を示すフローチャートである。 FIG. 9 is a flowchart showing basic processing executed by PC1 and PC2.
まず、検知処理部102は、カメラ5からの撮影画像を保存部103に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する(ステップS1)。制御部104は、タブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像をネットワーク3を介してPC2に出力する(ステップS2)。
First, the
PC2の制御部201は、PC1からタブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像を受信し、タブレットPC8の位置及び姿勢を特定する座標を保存部202に保存し、カメラ5からの撮影画像を表示部204に表示する(ステップS3)。
The
次いで、制御部201は、入力部203から編集操作があるか否かを判別する(ステップS4)。ここで、編集操作とは、アノテーション画像の書き込み操作、若しくはファイルをホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップする操作である。
Next, the
ステップS4でNOの場合には、本処理を終了する。ステップS4でYESの場合であり、ドラグ・アンド・ドロップ操作が行われた場合には、ステップS6に進む。ステップS4でYESの場合であり、アノテーション画像の書き込み操作が行われた場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ていないか否かを判別する(ステップS5)。
If NO in step S4, the process ends. If YES in step S4, and if a drag and drop operation has been performed, the process proceeds to step S6. In the case of YES in step S4, when the annotation image writing operation is performed, the
ステップS5でYESの場合には、制御部201は、当該書き込まれたアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルをPC1の制御部104に送信する(ステップS6)。
If YES in step S5, the
制御部104は、制御部201からのアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルを入力処理部101を介してタブレットPC8に出力し、タブレットPC8のタッチパネル81に当該アノテーション画像を表示させる又はタブレットPC8にドラグ・アンド・ドロップ操作が行われたファイルを再生させる(ステップS7)。ここで、制御部201からのアノテーション画像の座標は、入力処理部101によりタブレットPC8用の座標に変換して、タブレットPC8に出力される。
The
上記ステップS5でNOの場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像を表示領域23に表示されているタブレットPC8からはみ出ている部分とはみ出ていない部分とに分割する(ステップS8)。次いで、制御部201は、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標をPC1の制御部104に送信する、即ち、ステップS6と同様の処理を実行する。以後、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標に対して、ステップS7の処理が実行される。
In the case of NO in step S5, the
制御部201は、表示領域23に表示されているタブレットPC8からはみ出ているアノテーション画像の座標にフラグを付してPC1の制御部104に送信する(ステップS9)。制御部104は、制御部201からのフラグ付きのアノテーション画像の座標を投影画像生成部105に出力する(ステップS10)。このように、上記フラグは、制御部104がアノテーション画像の座標の出力先(即ち、入力処理部101又は影画像生成部105)を判断するために使用される。
The
投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS11)。
The projection
投影処理部106は、投影画像生成部105からのアノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力し(ステップS12)、本処理を終了する。プロジェクタ4は、投影変換されたアノテーション画像を対象物6を含むテーブル7の領域に投影する。
The
以上説明したように、図9の処理では、表示領域23に表示されているタブレットPC8上に書き込まれたアノテーション画像は、タブレットPC8のタッチパネル81に表示され、ホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたファイルは、タブレットPC8で再生される。また、表示領域23に表示されているタブレットPC8からはみ出たアノテーション画像は、プロジェクタ4を介してテーブル7の領域に投影される。
As described above, in the process of FIG. 9, the annotation image written on the
図10は、GUIをタブレットPC8上に投影する処理及びタブレットPC8上で指定されたモードを実行する処理を示すフローチャートである。本処理は、PC1により実行される。
FIG. 10 is a flowchart illustrating a process of projecting a GUI on the
まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を投影画像生成部105及び投影処理部106に出力する(ステップS21)。
First, the
次に、投影画像生成部105は、GUIデータベース103aの各種のGUIの要素に基づいて、タブレットPC8に投影するGUI画像を生成する(ステップS22)。
Next, the projection
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用のGUI画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、GUI画像の投影変換を行い、投影変換されたGUI画像をプロジェクタ4に出力する(ステップS23)。プロジェクタ4は、当該投影変換されたGUI画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS24)。タブレットPC8へ投影されたGUI画像の一例を図11に示す。
The
タブレットPC8は、ペンで入力された座標を入力処理部101に出力する(ステップS25)。入力処理部101は、ペンで入力された座標に対し、上記投影変換の逆変換を行い、投影画像生成部105から取得したGUI画像上における相対座標を算出し、ペンで入力されたモードを決定する(ステップS26)。
The
制御部104は、入力処理部101から決定されたモードの情報を入力し、当該モードの情報に応じた処理を実行し(ステップS27)、本処理を終了する。
The
モードの情報に応じた処理とは、例えば、入力されたモードが印刷モードの場合は、制御部104は、不図示のプリンタドライバに印刷開始の指示を出力する。また、入力されたモードがコピーモードの場合は、制御部104は、後述する図12,13の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。入力されたモードが共有モードの場合は、制御部104は、後述する図15の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。
For example, when the input mode is the print mode, the
図10の処理によれば、ユーザは、タブレットPC8上に投影されるGUI画像で規定する複数のモードのうちいずれか1つをタブレットPC8で選択し、当該モードに応じた処理を制御部104に実行させることができる。
According to the processing in FIG. 10, the user selects any one of a plurality of modes defined by the GUI image projected on the
尚、上記図10の処理では、GUI画像はプロジェクタ4からタブレットPC8上に投影されているが、GUI画像がタブレットPC8のタッチパネル81に表示されてもよい。この場合、上記処理では、ステップS25〜S27が実行される。
In the process of FIG. 10, the GUI image is projected on the
図12,13は、PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。
12 and 13 are flowcharts showing the copy mode and non-copy mode processing executed by the
本処理では、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影しているものとする(例えば、0.5秒毎に撮影する)。
In this process, it is assumed that the
まず、制御部104は、入力処理部101を介してタブレットPC8からコピーモードの指示が入力されたか否かを判別する(ステップS31)。ここで、コピーモードとは、プロジェクタ4側からテーブル7の領域を見て、タブレットPC8がテーブル7の任意の領域と重なる場合に、その任意の領域に対応する予め撮影された撮影画像が、タブレットPC8の移動によらず、タブレットPC8上に固定的に投影されるモードである。このモードが実行されると、ユーザの目の前にある実物(即ち対象物6を含むテーブル7)の一部の画像が常にタブレットPC8上に固定的に投影される。よって、ユーザは、テーブル7の領域内の撮影したい場所にタブレットPC8を重ねて、コピーモードの指示を入力することで、撮影したい場所の画像をタブレットPC8上に投影することができる。
First, the
尚、ステップS11でユーザがタブレットPC8でコピーモードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内のコピーモードの位置をタップすることが必要である。
When the user inputs a copy mode instruction on the
ステップS11でコピーモードの指示が入力されていない場合(NO)の場合には、検知処理部102は、カメラ5からの撮影画像をフレームバッファ領域103bに保存し、タブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS32)。
If the copy mode instruction is not input in step S11 (NO), the
投影画像生成部105は、フレームバッファ領域103bから撮影画像を読み出し、タブレットPC8の位置及び姿勢を特定する座標に基づいて、当該撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する(ステップS33)。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。図14(A)は、プロジェクタ4側からテーブル7を見た場合のタブレットPC8と対象物6を含むテーブル7との位置関係を示す図であり、図14(B)は、対象物6上を通過するタブレットPC8に投影される部分画像のシーケンスを示す図である。
The projection
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS34)。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影し(ステップS35)、ステップS32に戻る。
The
ステップS32〜S35のループ処理により、タブレットPC8の位置及び姿勢が検知されて、タブレットPC8の位置及び姿勢に応じた部分画像がタブレットPC8上に投影される。
Through the loop processing of steps S32 to S35, the position and orientation of the
ステップS11でコピーモードの指示が入力された場合(YES)の場合には、制御部104は、撮影画像のスナップショット(即ち、カメラ5のシャッターを切ったときの画像)の保存指示及びスナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標の保存指示を検知処理部102に出力する(ステップS36)。
When the copy mode instruction is input in step S11 (YES), the
検知処理部102は、撮影画像のスナップショットをスナップショット領域103cに保存すると共に当該スナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標を位置保存領域103dに保存する(ステップS37)。
The
次いで、制御部104は、コピーモードの指示及び投影画像の生成の指示を投影画像生成部105に出力する(ステップS38)。
Next, the
投影画像生成部105は、位置保存領域103dに保存されたスナップショットの撮影の瞬間のタブレットPC8の座標に基づいて、スナップショット領域103cに保存されたスナップショットから投影用の部分画像を切り出し、切り出した部分画像をスナップショット領域103cに保存すると共に投影処理部106に出力する(ステップS39)。
The projection
投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS40)。投影変換では、適宜部分画像の拡大縮小等を実行しても良い。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS41)。
The
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS42)。
Thereafter, the
投影画像生成部105は、入力処理部101及び制御部104を介してタブレットPC8からアノテーション画像の座標の入力があるか否かを判別する(ステップS43)。
The projection
ステップS43でアノテーション画像の座標の入力がない場合(NO)には、ステップ39に進み、投影画像生成部105は、スナップショット領域103cに保存された投影用の部分画像を投影処理部106に出力する。以降のステップS20の処理では、投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標に代えて、ステップS42で検知処理部102から出力されるタブレットPC8の座標を利用する。
If the coordinates of the annotation image are not input in step S43 (NO), the process proceeds to step 39, and the projection
以上のステップS31でYES→ステップS43でNO→ステップS39の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、スナップショットから切り出された投影用の部分画像がタブレットPC8上に投影される。
In the above-described step S31, YES → step S43, NO → step S39, the movement of the
ステップS43でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力すると共に、生成されたアノテーション画像をスナップショット領域103cに保存された投影用の部分画像に付加して、投影処理部106に出力する(ステップS44)。
If the coordinates of the annotation image are input in step S43 (YES), the projection
投影処理部106は、ステップS22で検知処理部102から出力されるタブレットPC8の座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された部分画像及びアノテーション画像をプロジェクタ4に出力し(ステップS45)、ステップS41の処理に進む。以降のステップS21の処理では、プロジェクタ4は、投影変換された部分画像をタブレットPC8に投影し、アノテーション画像を対象物6を含むテーブル7の領域に投影する。
The
以上のステップS31でYES→ステップS43でYES→ステップS41の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、アノテーション画像が付加された投影用の部分画像がタブレットPC8上に投影され、さらに、アノテーション画像は単独で実物(即ち、対象物6を含むテーブル7の領域)に投影される。
In the above step S31, YES → step S43 YES → step S41, the movement of the
次に、PC1で実行される共有モードの処理を説明する。
Next, shared mode processing executed by the
共有モードとは、複数のユーザが1つのタブレットPC8を共用し、タブレットPC8のタッチパネルに表示される画像と同一の画像をテーブル7の任意の領域に投影するモードである。このとき、タブレットPC8は表示機能を有するので、プロジェクタ4がタブレットPC8上に画像を投影する必要はないが、画像を投影してもよい。また、タブレットPC8にアノテーション画像の入力がある場合には、当該アノテーション画像も上記テーブル7の任意の領域に投影される。
The sharing mode is a mode in which a plurality of users share one
図15は、PC1で実行される共有モードの処理を示すフローチャートである。
FIG. 15 is a flowchart showing the processing in the sharing mode executed by the
まず、制御部104は、入力処理部101を介してタブレットPC8から共有モードの指示が入力されたか否かを判別する(ステップS51)。
First, the
尚、ステップS31でユーザがタブレットPC8で共有モードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内の共有モードの位置をタップすることが必要である。
When the user inputs a sharing mode instruction on the
ステップS51で共有モードの指示が入力されていない場合(NO)には、本処理を終了する。一方、ステップS51で共有モードの指示が入力された場合(YES)には、制御部104は、撮影画像内のタブレットPC8の位置を特定する座標(以下、このタブレットPC8の座標を共有座標という)の保存指示を検知処理部102に出力する(ステップS52)。
If the sharing mode instruction is not input in step S51 (NO), the process is terminated. On the other hand, when the sharing mode instruction is input in step S51 (YES), the
検知処理部102は、撮影画像から共有座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS53)。尚、検知処理部102は、カメラ5から新たな撮影画像を入力する度にタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力する。
The
投影画像生成部105は、制御部104を介してアノテーション画像の座標の入力があるか否かを判別する(ステップS54)。アノテーション画像の座標は、タブレットPC8から入力される場合に限らず、PC2から入力されてもよい。
The projection
ステップS54でアノテーション画像の座標の入力がない場合(NO)には、本判別を繰り返す。 If there is no input of the coordinates of the annotation image in step S54 (NO), this determination is repeated.
ステップS54でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS55)。
If there is an input of an annotation image coordinate in step S54 (YES), the projection
一方、PC2からアノテーション画像の座標が入力されている場合は、制御部104がアノテーション画像の座標を入力処理部101を介してタブレットPC8に出力し、タブレットPC8に、このアノテーション画像を表示させる(ステップS56)。タブレットPC8に直接アノテーション画像が入力されている場合は、タブレットPC8がアノテーション画像を表示するので、ステップS56の処理は省略される。
On the other hand, if the coordinates of the annotation image are input from the
投影処理部106は、アノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力する(ステップS57)。
The
プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影する(ステップS58)。
The
その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力し(ステップS59)、ステップS54に戻る。
Thereafter, the
図15の処理によれば、アノテーション画像が検知処理部102に検知されるタブレットPC8に表示され、且つアノテーション画像が共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置に投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、アノテーション画像を当該アノテーション画像が入力されたときのタブレットPC8の位置に貼り付けることができる。
15, the annotation image is displayed on the
また、ステップS54〜S59のループにより、アノテーション画像の内容が更新されると、タブレットPC8に表示されるアノテーション画像及び投影されるアノテーション画像も逐次更新される。
Further, when the content of the annotation image is updated by the loop of steps S54 to S59, the annotation image displayed on the
上記共有モードでは、投影変換されたアノテーション画像は、タブレットPC8から共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置を特定する座標(共有座標)に投影されたが、検知処理部102が、タブレットPC8が所定時間(例えば、5分)移動していないか否かを判別し、タブレットPC8が所定時間(例えば、5分)移動していない場合には、その移動していないタブレットPC8の位置に投影変換されたアノテーション画像が投影されるようにしてもよい。この場合、タブレットPC8が移動すると、移動中のタブレットPC8がアノテーション画像を表示し、さらに上記移動していないタブレットPC8の位置に、投影変換されたアノテーション画像が投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。
In the sharing mode, the annotation image that has been subjected to projection conversion is projected on coordinates (shared coordinates) that specify the position of the
上記共有モードでは、アノテーション画像をスナップショットを撮影したときのタブレットPC8の位置に投影する例を説明したが、図16(A)に示すようにローカル側のユーザがタブレットPC8の正面に向いていない場合がある。この場合、アノテーション画像が文字を含むと、ユーザは読みにくいという問題がある。そこで、PC1が、ユーザにとって見やすい向きにアノテーション画像を自動的に回転させる処理を説明する。
In the sharing mode, an example in which an annotation image is projected onto the position of the
図16(A)は、机7の領域、カメラ5の撮影領域、プロジェクタ4の投影領域、及びタブレットPC8の位置との関係を示す図であり、図16(B)は、カメラ5の撮影領域とタブレットPC8の位置との関係を示す図であり、図16(C)は、アノテーション画像の回転処理後のプロジェクタ4の投影領域とタブレットPC8の位置との関係を示す図である。
16A is a diagram showing the relationship between the area of the
尚、ローカル側のユーザの位置を検出するための人感センサ10がPC1の制御部104に接続されているものとする。また、タブレットPC8には、その底辺を示すライン状のマークが付けられているものとする。
It is assumed that the
図17は、PC1により実行されるアノテーション画像の回転処理を示すフローチャートである。
FIG. 17 is a flowchart showing the annotation image rotation processing executed by the
まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を制御部104、投影画像生成部105及び投影処理部106に出力する(ステップS71)。また、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の底辺に付されたマークを検出し、投影処理部106に出力する(ステップS72)。
First, the
次いで、制御部104は、不図示の人感センサからのユーザの位置の検出情報に基づいて、撮影領域又は投影領域の4つの辺のうち基準となる1つの辺を選択し、基準となる辺の情報を投影処理部106に通知する(ステップS73)。例えば、図16(A)〜(C)では、制御部104は、撮影領域又は投影領域の右辺を基準となる辺とする。
Next, the
制御部104は、タブレットPC8に表示される又は投影されるアノテーション画像の座標若しくはPC2から受信した、タブレットPC8上に表示されるアノテーション画像の座標を投影画像生成部105に出力する(ステップS74)。
The
投影画像生成部105は、アノテーション画像の座標に基づいて投影用のアノテーション画像を生成する(ステップS75)。
The projection
投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影用のアノテーション画像を内接するように構成された矩形領域の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用のアノテーション画像に投影変換を行う(ステップS76)。さらに、投影処理部106は、PC8の底辺に付されたマーク及び基準となる辺の情報に基づいて、投影変換されたアノテーション画像に対して回転処理を実行し、回転処理後のアノテーション画像をプロジェクタ4に出力する(ステップS77)。より具体的には、投影処理部106は、PC8の底辺に付されたマークと基準となる辺との距離が最短になり、且つPC8の底辺に付されたマークと基準となる辺が並行になるように、投影変換されたアノテーション画像を回転する。
The
プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影し(ステップS78)、本処理を終了する。
The
上記回転処理よれば、ユーザの位置に基づいて撮影領域又は投影領域の4つの辺のうち基準となる1つの辺が選択され、この辺とPC8の底辺に付されたライン状のマークに基づいて、アノテーション画像に対する回転処理が実行されるので、ユーザにとって見やすい向きにアノテーション画像を自動的に回転することができる。尚、上記の実施例では、タブレットPC8の底辺にマークが付されているが、このマークは、タブレットPC8の上部又は左右の側部に付してもよい。
According to the above rotation processing, one of the four sides of the imaging region or the projection region is selected based on the position of the user, and based on the line-shaped mark attached to this side and the bottom side of the
PC1,PC2の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、PC1,PC2に供給し、PC1,PC2のCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。 Even when a recording medium in which a software program for realizing the functions of PC1 and PC2 is recorded is supplied to PC1 and PC2, and the CPU of PC1 and PC2 reads and executes the program stored in the storage medium, The same effects as in the above embodiment are achieved. Examples of the storage medium for supplying the program include a CD-ROM, a DVD, or an SD card.
また、PC1のCPUが、PC1の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。
In addition, the same effect as that of the above-described embodiment can be obtained when the CPU of the
なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。 Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications without departing from the scope of the invention.
1,2 PC
3 ネットワーク
4 プロジェクタ
5 カメラ
7 机
8 タブレットPC
10 人感センサ
101 入力処理部
102 検知処理部
103 保存部
104 制御部
105 投影画像生成部
106 投影処理部
201 制御部
202 保存部
203 入力部
204 表示部
1, 2 PC
3
DESCRIPTION OF
Claims (8)
当該入力装置を含む領域を撮影する撮影装置と、
前記領域に注釈画像を投影する投影装置と、
前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
前記入力装置に入力された座標情報を入力する第1入力手段、
前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、
前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理システム。 An input device that includes first display means for displaying an annotation image and that inputs the annotation image or instruction;
An imaging device for imaging an area including the input device;
A projection device for projecting an annotation image onto the region;
Detecting means for detecting the position and orientation of the input device based on a photographed image photographed by the photographing device;
Generating means for generating a first image for receiving the annotation image or the instruction;
Output means for converting the first image into an image for the projection device based on the position and orientation of the input device detected by the detection means, and outputting the image to the projection device;
First input means for inputting coordinate information input to the input device;
An annotation image or instruction content is determined based on the coordinate information and the first image projected on the input device, and when the annotation image is included, the annotation image is projected onto the area on the output means. An information processing apparatus having an execution unit that converts the image into an image for the projection apparatus to be output to the projection apparatus and executes processing according to the instruction content when the instruction content is included.
The projection device projects the annotation image or the image reflecting the instruction content onto the detected input device,
When the first display unit displays the annotation image, the projection device does not project the annotation image on the detected input device.
前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、
前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする請求項1記載の情報処理システム。 A remote terminal connected to the information processing apparatus via a network;
The remote terminal includes second display means for displaying a photographed image from the photographing apparatus, and second input means for inputting the annotation image or the instruction,
When the annotation image input by the second input unit overlaps the input device displayed on the second display unit, the annotation image of the overlapped portion is transmitted to the input device, and the first display unit overlaps the input image. 2. The information processing system according to claim 1, wherein an annotation image of the selected part is displayed.
前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする請求項2又は3に記載の情報処理システム。 The information processing apparatus further includes a determination unit that determines whether or not the input device has not moved for a predetermined time,
When it is determined that the input device has not moved for a predetermined time, the second display means displays the annotation image, and the projection device projects the annotation image at a position of the input device that has not moved. The information processing system according to claim 2 or 3,
前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、
前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、
前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする請求項1乃至6のいずれか1つに記載の情報処理システム。 The information processing apparatus includes user detection means for detecting a position of a user,
The detection means detects a line-shaped mark attached to at least one place of the input device from a photographed image photographed by the photographing device,
The execution unit selects one side from four sides of the imaging region of the imaging device or the projection region of the projection device based on the detection information of the user position detected by the user detection unit,
The output means executes a rotation process on the annotation image based on the detected line-shaped mark and the selected one side, and outputs the rotation to the projection device. The information processing system as described in any one of thru | or 6.
前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
前記入力装置に入力された座標情報を入力する第1入力手段、
前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、
前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理装置。 First input means for displaying an annotation image is connected to an input device for inputting the annotation image or instruction, a photographing device for photographing an area including the input device, and a projection device for projecting the annotation image onto the area. An information processing apparatus comprising:
Detecting means for detecting the position and orientation of the input device based on a photographed image photographed by the photographing device;
Generating means for generating a first image for receiving the annotation image or the instruction;
Output means for converting the first image into an image for the projection device based on the position and orientation of the input device detected by the detection means, and outputting the image to the projection device;
First input means for inputting coordinate information input to the input device;
An annotation image or instruction content is determined based on the coordinate information and the first image projected on the input device, and when the annotation image is included, the annotation image is projected onto the region by the output means. An execution unit that converts the image into an image for the projection device to be output to the projection device and, when the instruction content is included, executes processing according to the instruction content;
The projection device projects the annotation image or the image reflecting the instruction content onto the detected input device,
When the first display unit displays the annotation image, the projection device does not project the annotation image on the detected input device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008140061A JP5187001B2 (en) | 2008-05-28 | 2008-05-28 | Information processing system and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008140061A JP5187001B2 (en) | 2008-05-28 | 2008-05-28 | Information processing system and information processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009290488A true JP2009290488A (en) | 2009-12-10 |
JP5187001B2 JP5187001B2 (en) | 2013-04-24 |
Family
ID=41459275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008140061A Expired - Fee Related JP5187001B2 (en) | 2008-05-28 | 2008-05-28 | Information processing system and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5187001B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118713A (en) * | 2009-12-04 | 2011-06-16 | Fujitsu Ltd | Program, device and method for controlling light projection |
JP7502154B2 (en) | 2020-11-12 | 2024-06-18 | 株式会社Nttドコモ | Control device and robot |
-
2008
- 2008-05-28 JP JP2008140061A patent/JP5187001B2/en not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
JPN6012067209; Izad,S.,et al: 'C-Slate: A Multi-Touch and Object Recognition Systemfor Remote Collaboration using Horizontal Surfac' Proc. of Second Annual IEEE Int. Workshop on Horizontal Interactive Human-Computer System , 2007, P.3-10 * |
JPN7012005279; Foote,J., et al: 'Annotating Remote Reality with iLight' FXPAL Technical Paper , 2005 * |
JPN7012005280; Palmer,D.,et al: 'Annotating with light for remote guidance' Proc. of the 19th Australasian conf. on Computer-Human Interaction: Entertaining User Interfaces , 20071128, P.103-110 * |
JPN7012005281; 伊與田ほか: '実物ベース遠隔コラボレーション支援システム"LightCollabo"' 富士ゼロックス テクニカルレポート No.16, 2006, P.54-63 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118713A (en) * | 2009-12-04 | 2011-06-16 | Fujitsu Ltd | Program, device and method for controlling light projection |
JP7502154B2 (en) | 2020-11-12 | 2024-06-18 | 株式会社Nttドコモ | Control device and robot |
Also Published As
Publication number | Publication date |
---|---|
JP5187001B2 (en) | 2013-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220103709A1 (en) | Method and apparatus for scanning and printing a 3d object | |
US8004571B2 (en) | Projection-based system, apparatus and program of storing annotated object image | |
JP2008217590A (en) | Information sharing support system, information processor, and control program | |
US20100149206A1 (en) | Data distribution system, data distribution apparatus, data distribution method and recording medium, improving user convenience | |
JP2021052289A (en) | Image processing method, program, image processing apparatus, and image processing system | |
JP7155781B2 (en) | Information processing device and information processing program | |
JP5262888B2 (en) | Document display control device and program | |
JP5187001B2 (en) | Information processing system and information processing apparatus | |
JP6314564B2 (en) | Image processing apparatus, image processing method, and program | |
JP2008250700A (en) | Information processor, window reproduction method and program | |
JP4674627B2 (en) | Information processing apparatus, remote instruction system, and program | |
JP2008078937A (en) | Image processing apparatus, method and program for controlling the image processor | |
JP2010272078A (en) | System, and control unit of electronic information board, and cursor control method | |
JP4999606B2 (en) | Image shooting and editing apparatus, image shooting and editing method, and image editing program | |
JP2009076983A (en) | Information processing system, and information processor | |
JP6070795B2 (en) | Information processing apparatus, control method thereof, and program | |
JP5162855B2 (en) | Image processing apparatus, remote image processing system, and image processing method | |
JP2010079529A (en) | Information processor, information processing method, program therefor and recording medium | |
JP2013131811A (en) | Image display device | |
JP2009200612A (en) | Image forming system and method | |
JP2010117465A (en) | Information processing device, information processing system and program | |
JP2013084148A (en) | Electronic pen system and program | |
JP2010068500A (en) | Information processor, remote instruction system, and program | |
JP2010217760A (en) | Method and device for generating projection assistant image, and image forming apparatus | |
JP2009100192A (en) | Information processing apparatus, storing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130107 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160201 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5187001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |