JP5187001B2 - Information processing system and information processing apparatus - Google Patents

Information processing system and information processing apparatus Download PDF

Info

Publication number
JP5187001B2
JP5187001B2 JP2008140061A JP2008140061A JP5187001B2 JP 5187001 B2 JP5187001 B2 JP 5187001B2 JP 2008140061 A JP2008140061 A JP 2008140061A JP 2008140061 A JP2008140061 A JP 2008140061A JP 5187001 B2 JP5187001 B2 JP 5187001B2
Authority
JP
Japan
Prior art keywords
image
projection
annotation image
input
tablet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008140061A
Other languages
Japanese (ja)
Other versions
JP2009290488A (en
Inventor
勉 安部
萌 時
彰司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2008140061A priority Critical patent/JP5187001B2/en
Publication of JP2009290488A publication Critical patent/JP2009290488A/en
Application granted granted Critical
Publication of JP5187001B2 publication Critical patent/JP5187001B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理システム及び情報処理装置に関する。   The present invention relates to an information processing system and an information processing apparatus.

従来より、カメラとプロジェクタを使い、ユーザ間でコミュニケーションを行うシステムが知られている(例えば、特許文献1参照)。このシステムは、カメラと、当該カメラと光学的に主点を同位置にしたプロジェクタとがある第1の地点と、第1の地点にあるカメラで撮影した画像に対してアノテーション(注釈)を追記できる端末を有する第2の地点とで構成されている。第2の地点の端末においてアノテーションの追記を指示すると、第1の地点においてそのアノテーションがプロジェクタにより投影される。
特開2005−33756号公報
2. Description of the Related Art Conventionally, a system that communicates between users using a camera and a projector is known (see, for example, Patent Document 1). This system adds a first point where a camera and a projector whose optical point is optically the same as the camera and an annotation (annotation) to an image taken by the camera at the first point. And a second point having a capable terminal. When an instruction to add an annotation is given at the terminal at the second point, the annotation is projected by the projector at the first point.
JP 2005-33756 A

しかしながら、上記特許文献1では、第2の地点にいるユーザでなければ、アノテーションの追記ができなかった。特許文献1のシステムは、第1の地点と第2の地点とが離れていてもユーザ間でコミュニケーションを図ることができるが、アノテーションの追記は第2の地点でしか実施ができなかった。   However, in the above-mentioned patent document 1, an annotation cannot be added unless the user is at the second point. Although the system of Patent Document 1 can communicate between users even when the first point and the second point are separated, the annotation can be added only at the second point.

本発明の目的は、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができると共に撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる情報処理システム及び情報処理装置を提供することにある。   An object of the present invention is to allow an annotation image to be projected onto a region including an object with a simple configuration on the imaging device side or the projection device side, and to make an annotation image easy to see for the user on the imaging device side or the projection device side. An object is to provide an information processing system and an information processing apparatus that can be provided.

上記目的を達成するため、請求項1の情報処理システムは、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。   In order to achieve the above object, the information processing system according to claim 1 includes first display means for displaying an annotation image, an input device for inputting the annotation image or an instruction, and imaging for capturing an area including the input device. An apparatus, a projection device that projects an annotation image onto the area, a detection unit that detects a position and orientation of the input device based on a captured image captured by the imaging device, and the annotation image or the instruction for receiving the instruction Generation means for generating a first image, output means for converting the first image into an image for the projection apparatus based on the position and orientation of the input apparatus detected by the detection means, and outputting the image to the projection apparatus A first input means for inputting coordinate information input to the input device; an annotation image or instruction content is determined based on the coordinate information and the first image projected on the input device; If an image is included, the output means converts the annotation image into an image for the projection device projected onto the area and outputs the image to the projection device. An information processing device having an execution unit that executes processing according to the content, and the projection device projects the annotation image or the image reflecting the instruction content on the detected input device, When the first display unit displays the annotation image, the projection device does not project the annotation image on the detected input device.

請求項2の情報処理システムは、請求項1記載の情報処理システムにおいて、前記情報処理装置にネットワークを介して接続される遠隔端末を備え、前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする。   2. The information processing system according to claim 2, further comprising a remote terminal connected to the information processing apparatus via a network, wherein the remote terminal displays a captured image from the imaging apparatus. A second display unit that inputs the annotation image or the instruction, and the annotation image input by the second input unit overlaps the input device displayed on the second display unit. Sometimes, the annotation image of the overlapped portion is transmitted to the input device, and the first display means displays the annotation image of the overlapped portion.

請求項3の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2入力手段により入力された注釈画像から、前記重なる部分の注釈画像を除いた残りの注釈画像は、前記投影装置から投影されることを特徴とする。   The information processing system according to claim 3 is the information processing system according to claim 2, wherein a remaining annotation image obtained by removing the annotation image of the overlapping portion from the annotation image input by the second input unit is the projection device. It is projected from.

請求項4の情報処理システムは、請求項2記載の情報処理システムにおいて、前記第2表示手段は、データをドラグアンドドロップにより前記入力装置に転送するホットスポットエリアを含む画面を表示することを特徴とする。   The information processing system according to claim 4 is the information processing system according to claim 2, wherein the second display means displays a screen including a hot spot area for transferring data to the input device by drag and drop. And

請求項5の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、さらに前記入力装置から共有モードの指示が入力され、前記注釈画像の座標が入力された場合には、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該注釈画像が入力されたときの撮影画像内の入力装置の位置に当該注釈画像を投影することを特徴とする。   The information processing system according to claim 5 is the information processing system according to claim 2 or 3, wherein when an instruction of a sharing mode is further input from the input device and coordinates of the annotation image are input, The two display means displays the annotation image, and the projection device projects the annotation image to the position of the input device in the captured image when the annotation image is input.

請求項6の情報処理システムは、請求項2又は3に記載の情報処理システムにおいて、前記情報処理装置は、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする。   The information processing system according to claim 6 is the information processing system according to claim 2 or 3, further comprising a determination unit that determines whether or not the input device has not moved for a predetermined time, When it is determined that the input device has not moved for a predetermined time, the second display means displays the annotation image, and the projection device projects the annotation image at a position of the input device that has not moved. It is characterized by that.

請求項7の情報処理システムは、請求項1乃至6のいずれか1つに記載の情報処理システムにおいて、前記情報処理装置は、ユーザの位置を検出するユーザ検知手段を備え、前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする。   The information processing system according to claim 7 is the information processing system according to any one of claims 1 to 6, wherein the information processing apparatus includes a user detection unit that detects a position of the user, and the detection unit includes: A line-shaped mark attached to at least one place of the input device is detected from a photographed image photographed by the photographing device, and the execution means is based on detection information of a user position detected by the user detection means. Then, one side is selected from the four sides of the imaging region of the imaging device or the projection region of the projection device, and the output means applies the detected line-shaped mark and the selected one side. Based on this, a rotation process is performed on the annotation image, and the annotation image is output to the projection device.

請求項8の情報処理装置は、注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と接続される情報処理装置であって、前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、前記入力装置に入力された座標情報を入力する第1入力手段、前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする。   The information processing apparatus according to claim 8 includes first display means for displaying an annotation image, an input device for inputting the annotation image or an instruction, an imaging device for photographing an area including the input device, and an annotation for the area. An information processing apparatus connected to a projection apparatus for projecting an image, the detection means for detecting the position and orientation of the input apparatus based on a captured image captured by the imaging apparatus, the annotation image or the instruction is received The first image is converted into an image for the projection device based on the position and orientation of the input device detected by the detection unit and the generation unit for generating the first image for output to the projection device Based on the output means, the first input means for inputting the coordinate information input to the input device, the coordinate information and the first image projected on the input device, the annotation image or the instruction content is determined; When an image is included, the output means converts the annotation image into an image for the projection device projected onto the area and outputs the image to the projection device. Execution means for executing processing according to contents is provided, wherein the projection apparatus projects the annotation image or the image reflecting the instruction contents onto the detected input device, and the first display means When displaying the annotation image, the projection device does not project the annotation image onto the detected input device.

請求項1,8の発明によれば、撮影装置側又は投影装置側においても、注釈画像を簡単な構成で、対象物を含む領域に投影させることができる。さらに、注釈画像が、投影装置の解像度によらず、第1表示手段の解像度に従って表示されるので、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。   According to the first and eighth aspects of the present invention, the annotation image can be projected onto the region including the object with a simple configuration on the photographing apparatus side or the projection apparatus side. Furthermore, since the annotation image is displayed according to the resolution of the first display means regardless of the resolution of the projection device, it is possible to provide an easy-to-view annotation image for the user on the photographing device side or the projection device side.

請求項2の発明によれば、遠隔端末で入力された注釈画像のうち、第2表示手段に表示される入力装置に重なる部分は、第1表示手段により表示されるので、投影装置が当該重なる部分の注釈画像を投影する場合と比べて、撮影装置側又は投影装置側のユーザに見やすい注釈画像を提供することができる。また、第2表示手段が液晶表示体である場合でも、撮影装置側又は投影装置側のユーザに見やすい注釈画像提供することができる。   According to the second aspect of the present invention, since the portion of the annotation image input by the remote terminal that overlaps the input device displayed on the second display means is displayed by the first display means, the projection device overlaps the image. Compared with the case where a partial annotation image is projected, it is possible to provide an easy-to-view annotation image for the user on the photographing apparatus side or the projection apparatus side. Even when the second display means is a liquid crystal display, it is possible to provide an easy-to-see annotation image for the user on the photographing apparatus side or the projection apparatus side.

請求項3の発明によれば、第1表示手段及び投影装置により、撮影装置側又は投影装置側のユーザに、遠隔端末で入力された注釈画像の全体を提供することができる。   According to the invention of claim 3, the first display means and the projection device can provide the entire annotation image input at the remote terminal to the user on the photographing device side or the projection device side.

請求項4の発明によれば、遠隔端末のユーザは、簡単な操作により入力装置に所望のデータを転送することができ、入力装置のユーザ(即ち撮影装置側又は投影装置側のユーザ)とコミュニケーションすることができる。   According to the invention of claim 4, the user of the remote terminal can transfer desired data to the input device by a simple operation, and communicates with the user of the input device (that is, the user on the photographing device side or the projection device side). can do.

請求項5の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。   According to the invention of claim 5, the annotation image can be simultaneously provided to a plurality of users. Further, like so-called post-it, the annotation image can be pasted on the position of the tablet PC 8 when the annotation image is input.

請求項6の発明によれば、注釈画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、注釈画像を当該注釈画像が入力されたときのタブレットPC8の位置に貼り付けることができる。   According to the invention of claim 6, an annotation image can be provided to a plurality of users at the same time. Further, like so-called post-it, the annotation image can be pasted on the position of the tablet PC 8 when the annotation image is input.

請求項7の発明によれば、ユーザにとって見やすい向きに注釈画像を自動的に回転することができる。   According to the seventh aspect of the present invention, the annotation image can be automatically rotated in a direction that is easy for the user to see.

以下、本発明の実施の形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an information processing system according to an embodiment of the present invention.

図1の情報処理システムは、ローカル側のシステムとリモート側のシステムとを備えている。ローカル側のシステムは、サーバとして機能するパーソナルコンピュータ(PC)1(情報処理装置)、プロジェクタ4(投影装置)、カメラ5(撮影装置)、及びタブレットPC8(入力装置)を備えている。PC1には、プロジェクタ4、カメラ5、及びタブレットPC8が接続されている。さらに、PC1には、プロジェクタ4側又はカメラ5側のユーザの位置を検出する人感センサ10(ユーザ検知手段)を備えていてもよい。リモート側のシステムは、クライアントとして機能するPC2(遠隔端末)を備えており、PC2には、表示装置21が接続されている。PC1及びPC2は、ネットワーク3を介して互いに接続されている。ローカル側のシステムは、タブレットPC8に代えて、ディスプレイ付きのタブレットを備えていてもよい。   The information processing system shown in FIG. 1 includes a local system and a remote system. The local system includes a personal computer (PC) 1 (information processing apparatus), a projector 4 (projection apparatus), a camera 5 (imaging apparatus), and a tablet PC 8 (input apparatus) functioning as a server. A projector 4, a camera 5, and a tablet PC 8 are connected to the PC 1. Further, the PC 1 may include a human sensor 10 (user detection means) that detects the position of the user on the projector 4 side or the camera 5 side. The remote system includes a PC 2 (remote terminal) that functions as a client, and a display device 21 is connected to the PC 2. The PC 1 and the PC 2 are connected to each other via the network 3. The local system may include a tablet with a display instead of the tablet PC 8.

プロジェクタ4は、PC1からの制御コマンドに基づいて、対象物6が置かれたテーブル7の領域に対してアノテーション画像(注釈画像)等を投影する。アノテーション画像は、線、文字、記号、図形、色、フォント(書体)等のあらゆる態様の画像を含む。アノテーション画像には、PC2で入力される又はタブレットPC8で入力される。   The projector 4 projects an annotation image (annotation image) or the like on the area of the table 7 on which the object 6 is placed based on a control command from the PC 1. An annotation image includes images of all forms such as lines, characters, symbols, figures, colors, fonts (typefaces), and the like. The annotation image is input by the PC 2 or the tablet PC 8.

カメラ5は、ビデオカメラ又はPTZ(Pan Tilt Zoom)カメラで構成され、テーブル7の領域を撮影し、撮影画像をPC1に出力する。この撮影画像は、表示装置21で表示される。また、撮影画像の一部は、タブレットPC8がテーブル7上にある場合に、プロジェクタ4を介して当該タブレットPC8上に投影されるようにしてもよい。   The camera 5 is composed of a video camera or a PTZ (Pan Tilt Zoom) camera. The camera 5 captures an area of the table 7 and outputs a captured image to the PC 1. This captured image is displayed on the display device 21. A part of the captured image may be projected onto the tablet PC 8 via the projector 4 when the tablet PC 8 is on the table 7.

タブレットPC8は、形状が四角形で、感圧式のパネルを有している。ユーザがペンを使って当該感圧式のパネルを押下する又はなぞることで、指示又はアノテーション画像を入力する。また、この感圧式のパネルは、表示パネルに重ね合わせて固定されている。タブレットPC8は、入力した指示又はアノテーション画像をPC1に出力する。ローカル側のユーザがタブレットPC8にアノテーション画像を入力すると、当該アノテーション画像はプロジェクタ4を介してテーブル7の領域に投影される、又はタブレットPC8の表示パネルに表示される。また、タブレットPC8は、PC1に赤外線又はbluetooth(登録商標)等の無線通信で接続されているが、通信ケーブルを使って有線通信でPC1に接続してもよい。   The tablet PC 8 has a quadrangular shape and a pressure-sensitive panel. The user inputs an instruction or annotation image by pressing or tracing the pressure-sensitive panel using a pen. The pressure-sensitive panel is fixed by being overlapped on the display panel. The tablet PC 8 outputs the input instruction or annotation image to the PC 1. When the user on the local side inputs an annotation image to the tablet PC 8, the annotation image is projected onto the area of the table 7 via the projector 4 or displayed on the display panel of the tablet PC 8. The tablet PC 8 is connected to the PC 1 by wireless communication such as infrared or bluetooth (registered trademark), but may be connected to the PC 1 by wired communication using a communication cable.

PC1は、カメラ5により撮影された撮影画像をネットワーク3を介してPC2に出力する。PC2は、表示部21に接続されており、表示部21は、撮影画像の表示領域23及びユーザインターフェース(UI)22を表示する。尚、PC2は、表示装置21を備える一体型のパーソナルコンピュータで構成してもよい。   The PC 1 outputs the captured image captured by the camera 5 to the PC 2 via the network 3. The PC 2 is connected to a display unit 21. The display unit 21 displays a captured image display area 23 and a user interface (UI) 22. The PC 2 may be configured as an integrated personal computer including the display device 21.

UI22は、ペン、テキスト、及び消去などのボタン群と、線種や色種のアイコンと、テキストや画像等のデータ(ファイル)をドラグ&ドロップによりタブレットPC8に転送することが可能なホットスポットエリア25を含む。表示領域23には、カメラ5で撮影された撮影画像が表示される。同図においては、タブレットPC8を含むテーブル7の領域をカメラ5により撮影した撮影画像が表示領域23に表示されている。例えば、UI22のペンボタンが押下されて、表示領域23内に図形等が記載されると、当該図形の情報はPC2からPC1を介してプロジェクタ4に出力される。プロジェクタ4は当該図形の情報に基づいてテーブル7又はタブレットPC8上に図形を描く。   The UI 22 is a hot spot area in which buttons such as pen, text, and erase, line type and color type icons, and data (files) such as text and images can be transferred to the tablet PC 8 by drag and drop. 25. In the display area 23, a photographed image photographed by the camera 5 is displayed. In the figure, a photographed image obtained by photographing the area of the table 7 including the tablet PC 8 with the camera 5 is displayed in the display area 23. For example, when a pen button of the UI 22 is pressed and a graphic or the like is written in the display area 23, information on the graphic is output from the PC 2 to the projector 4 via the PC 1. The projector 4 draws a graphic on the table 7 or the tablet PC 8 based on the graphic information.

尚、同図においては、クライアントは、PC2の1台が記載されているが、複数のクライアント(PC)を備えていてもよい。また、テーブル7の領域を撮影するカメラも1台に限定するものではなく、複数台あってもよい。さらに、PC1に接続されるタブレットの数は、1つでも複数でもよい。   In the figure, one client PC 2 is shown, but a plurality of clients (PCs) may be provided. Further, the number of cameras that capture the area of the table 7 is not limited to one, and a plurality of cameras may be provided. Further, the number of tablets connected to the PC 1 may be one or plural.

図2(A)は、PC1のハードウエア構成を示すブロック図である。図2(B)は、PC2のハードウエア構成を示すブロック図である。   FIG. 2A is a block diagram illustrating a hardware configuration of the PC 1. FIG. 2B is a block diagram illustrating a hardware configuration of the PC 2.

PC1は、装置全体を制御するCPU11、制御プログラムを備えるROM12、ワーキングエリアとして機能するRAM13、各種の情報やプログラムを備えるハードディスクドライブ(HDD)14、他のコンピュータと接続するためのネットワークインターフェース15、プロジェクタ4及びカメラ5などのUSB機器と接続するためのUSB(universal serial bus)インターフェース16、及びタブレットPC8と有線又は無線の通信を行う通信部17を備えている。CPU11はシステムバス18を介してROM12、RAM13、ハードディスクドライブ(HDD)14、ネットワークインターフェース15、USBインターフェース16、及び通信部17に接続されている。   The PC 1 includes a CPU 11 that controls the entire apparatus, a ROM 12 that includes a control program, a RAM 13 that functions as a working area, a hard disk drive (HDD) 14 that includes various information and programs, a network interface 15 for connecting to other computers, and a projector. 4 and a USB (universal serial bus) interface 16 for connecting to USB devices such as the camera 5, and a communication unit 17 that performs wired or wireless communication with the tablet PC 8. The CPU 11 is connected to the ROM 12, RAM 13, hard disk drive (HDD) 14, network interface 15, USB interface 16, and communication unit 17 via the system bus 18.

PC2は、装置全体を制御するCPU31、制御プログラムを備えるROM32、ワーキングエリアとして機能するRAM33、各種の情報やプログラムを備えるハードディスクドライブ(HDD)34、他のコンピュータと接続するためのネットワークインターフェース35、キーボードやマウスなどの入力機器と接続するためのUSB(universal serial bus)インターフェース36、及び表示装置21を備えている。CPU31はシステムバス37を介してROM32、RAM33、ハードディスクドライブ(HDD)34、ネットワークインターフェース35、USBインターフェース36及び表示装置21に接続されている。   The PC 2 includes a CPU 31 that controls the entire apparatus, a ROM 32 that includes a control program, a RAM 33 that functions as a working area, a hard disk drive (HDD) 34 that includes various information and programs, a network interface 35 for connecting to other computers, and a keyboard. And a USB (universal serial bus) interface 36 for connection with an input device such as a mouse and a display device 21. The CPU 31 is connected to the ROM 32, RAM 33, hard disk drive (HDD) 34, network interface 35, USB interface 36, and display device 21 via the system bus 37.

図3は、タブレットPC8の外観図である。   FIG. 3 is an external view of the tablet PC 8.

図3に示すように、タブレットPC8は、タッチパネル81(第1表示手段)を備えている。このタッチパネル81は、ペン82を使って入力されたデータや情報を受け付け、さらに、各種のデータや情報を表示する。   As shown in FIG. 3, the tablet PC 8 includes a touch panel 81 (first display means). The touch panel 81 receives data and information input using the pen 82, and further displays various data and information.

図4は、PC1及びPC2の機能構成を示すブロック図である。   FIG. 4 is a block diagram showing the functional configuration of the PC1 and PC2.

PC1は、タブレットPC8からの座標情報又は指示入力を取得する入力処理部101(第1入力手段)と、タブレットPC8の移動を検知し、これらの位置及び姿勢を算出する検知処理部102(検知手段、判別手段)、各種のデータや情報を保存する保存部103と、PC1全体を制御する制御部104(実行手段)と、投影画像を生成する投影画像生成部105(生成手段)と、投影画像をタブレットPC8上に投影する際に投影対象の画像の変換処理を実行する投影処理部106(出力手段)とを備えている。   The PC 1 detects the movement of the tablet PC 8 by detecting coordinate information or instruction input from the tablet PC 8 (first input means), and detects the movement of the tablet PC 8 (detection means). A determination unit), a storage unit 103 that stores various data and information, a control unit 104 (execution unit) that controls the entire PC 1, a projection image generation unit 105 (generation unit) that generates a projection image, and a projection image A projection processing unit 106 (output means) that executes conversion processing of an image to be projected when the image is projected onto the tablet PC 8.

保存部103は、タブレットPC8上に投影される各種のGUI(Graphical User Interface)を記憶するGUIデータベース103aと、カメラ5で撮影された撮影画像を保存するフレームバッファ領域103bと、コピーモード実行時にカメラ5で撮影された静止画像(スナップショット)を保存するスナップショット領域103cと、コピーモード実行時のタブレットPC8の位置情報(即ちタブレットPC8の座標情報)を保存する位置保存領域103dとを備えている。   The storage unit 103 includes a GUI database 103a that stores various GUIs (Graphical User Interfaces) projected on the tablet PC 8, a frame buffer area 103b that stores captured images captured by the camera 5, and a camera when executing the copy mode. 5 includes a snapshot area 103c for storing the still image (snapshot) photographed in step 5, and a position storage area 103d for storing position information of the tablet PC 8 (that is, coordinate information of the tablet PC 8) when the copy mode is executed. .

制御部104及び投影画像生成部105は、制御プログラムに従って各種の処理を実行するCPU21に相当する。入力処理部101は、CPU21及び通信部17に相当し、検知処理部102及び投影処理部106は、CPU21及びUSBインターフェース16に相当し、保存部103は、ハードディスクドライブ(HDD)14に相当する。   The control unit 104 and the projection image generation unit 105 correspond to the CPU 21 that executes various processes according to the control program. The input processing unit 101 corresponds to the CPU 21 and the communication unit 17, the detection processing unit 102 and the projection processing unit 106 correspond to the CPU 21 and the USB interface 16, and the storage unit 103 corresponds to the hard disk drive (HDD) 14.

PC2は、PC1全体を制御する制御部201と、各種のデータや情報を保存する保存部202と、キーボードやマウスなどでデータや指示を入力する入力部203(第2入力手段)と、撮影画像を表示する表示部204(第2表示手段)とを備えている。制御部201は、制御プログラムに従って各種の処理を実行するCPU31に相当し、保存部202は、ハードディスクドライブ(HDD)34に相当する。入力部203は、不図示のキーボードやマウス及びこれらが接続されるUSBインターフェース36に相当し、表示部204は、表示装置21に相当する。   The PC 2 includes a control unit 201 that controls the entire PC 1, a storage unit 202 that stores various data and information, an input unit 203 (second input unit) that inputs data and instructions using a keyboard and a mouse, and a captured image. Display unit 204 (second display means). The control unit 201 corresponds to the CPU 31 that executes various processes according to the control program, and the storage unit 202 corresponds to the hard disk drive (HDD) 34. The input unit 203 corresponds to a keyboard and mouse (not shown) and the USB interface 36 to which these are connected, and the display unit 204 corresponds to the display device 21.

以下、各機能ブロックが実行する処理を具体的に説明する。   Hereinafter, processing executed by each functional block will be specifically described.

まず、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影する(例えば、0.5秒毎に撮影する)。撮影画像は、カメラ5から検知処理部102に送信される。   First, the camera 5 continuously shoots the area of the table 7 including the tablet PC 8 (for example, every 0.5 seconds). The captured image is transmitted from the camera 5 to the detection processing unit 102.

検知処理部102は、カメラ5からの撮影画像を保存部103(フレームバッファ領域103b)に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識する。   The detection processing unit 102 stores the captured image from the camera 5 in the storage unit 103 (frame buffer area 103b), and recognizes the tablet PC 8 from the sequence of the captured image by detecting the shape of the tablet PC 8 and template matching.

具体的には、検知処理部102は、前処理として撮影した画像シーケンスに対しノイズ除去や平滑化を行い、公知のCanny法を用いてエッジの検出を行う。次いで、検知処理部102は、検出されたエッジから公知のHough変換を用いて、複数の直線の検出を行う。このとき、検知処理部102は、タブレットPC8のサイズや平行性を考慮し、タブレットPC8に関係のない線分の除去を行う。その後、検知処理部102は、検出された複数の直線の交差点から平行四辺形の検出を行い、検出された平行四辺形をタブレットPC8の候補とする。最後に、検知処理部102は、予め撮影されたタブレットPC8の画像と、タブレットPC8の候補とを比較し、タブレットPC8の特徴(例えば、枠の形状、又はタブレットPC8に装着されたボタンなど)を持つ候補をタブレットPC8とする。   Specifically, the detection processing unit 102 performs noise removal and smoothing on an image sequence photographed as preprocessing, and detects an edge using a known Canny method. Next, the detection processing unit 102 detects a plurality of straight lines from the detected edges using a known Hough transform. At this time, the detection processing unit 102 removes line segments that are not related to the tablet PC 8 in consideration of the size and parallelism of the tablet PC 8. Thereafter, the detection processing unit 102 detects a parallelogram from the detected intersections of a plurality of straight lines, and sets the detected parallelogram as a candidate for the tablet PC 8. Finally, the detection processing unit 102 compares the pre-captured image of the tablet PC 8 with the candidates for the tablet PC 8, and compares the characteristics of the tablet PC 8 (for example, the shape of the frame or the buttons attached to the tablet PC 8). Let the candidate to have be tablet PC8.

検知処理部102は、認識したタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する。   The detection processing unit 102 calculates coordinates that specify the position and orientation of the recognized tablet PC 8 (here, the coordinates of the four corners of the tablet PC 8), and outputs the calculated coordinates to the control unit 104, the projection image generation unit 105, and the projection processing unit 106. To do. In addition, the detection processing unit 102 outputs a captured image from the camera 5 to the control unit 104.

投影画像生成部105は、タブレットPC8に投影する画像を生成する。即ち、投影画像生成部105は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。   The projection image generation unit 105 generates an image to be projected on the tablet PC 8. That is, the projection image generation unit 105 cuts out a partial image projected on the tablet PC 8 from the captured image based on the coordinates specifying the position and orientation of the tablet PC 8 and outputs the partial image to the projection processing unit 106. The partial image cut out by the projection image generation unit 105 is a captured image of a portion where the tablet PC 8 overlaps the region of the table 7 including the object 6 when the region of the table 7 is viewed from the projector 4 side. Therefore, when the tablet PC 8 overlaps an arbitrary area of the table 7, the projection image generation unit 105 cuts out the partial image from the captured image that is captured immediately before the tablet PC 8 overlaps the arbitrary area.

投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、部分画像の変換(以下、投影変換という)を行う。   The projection processing unit 106 estimates projection conversion parameters based on the coordinates of the tablet PC 8 calculated by the detection processing unit 102 and the coordinates of the four corners of the projection partial image generated by the projection image generation unit 105. Then, partial image conversion (hereinafter referred to as projection conversion) is performed using the estimated parameters.

投影処理部106は、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像を全投影内容の一部としてタブレットPC8へ投影する。このとき、プロジェクタ4はタブレットPC8以外の領域には、通常の投影を行っても良い。即ち、プロジェクタ4は、タブレットPC8と、タブレットPC8以外の領域とに同時に異なる内容の画像を投影することができる。投影変換された画像がタブレットPC8上に投影される状態を図5に示す。   The projection processing unit 106 outputs the projection-converted image to the projector 4, and the projector 4 projects the projection-converted image onto the tablet PC 8 as a part of all projection contents. At this time, the projector 4 may perform normal projection on an area other than the tablet PC 8. That is, the projector 4 can project images with different contents simultaneously on the tablet PC 8 and an area other than the tablet PC 8. FIG. 5 shows a state in which the projection-converted image is projected on the tablet PC 8.

タブレットPC8は、ペン82で入力されたアノテーション画像をタッチパネル81に表示すると共にペン82で入力されたアノテーション画像の座標を入力処理部101に出力する。入力処理部101は、アノテーション画像の座標に対し、上記投影変換の逆変換を行い、投影用画像上における相対座標を算出し、制御部104に当該相対座標を出力する。   The tablet PC 8 displays the annotation image input with the pen 82 on the touch panel 81 and outputs the coordinates of the annotation image input with the pen 82 to the input processing unit 101. The input processing unit 101 performs the inverse transformation of the projection transformation on the coordinates of the annotation image, calculates the relative coordinates on the projection image, and outputs the relative coordinates to the control unit 104.

制御部104は、当該相対座標を投影画像生成部105に出力し、投影画像生成部105は、投影用のアノテーション画像をタブレットPC8に投影する画像上に生成し、投影処理部106に出力する。逆投影変換されたアノテーション画像が投影用画像上に形成された状態を図6に示す。投影処理部106は、上述したように、推定されたパラメータを用いて、投影変換を行い、投影変換された画像をプロジェクタ4に出力し、プロジェクタ4が、当該投影変換された画像をタブレットPC8へ投影する。   The control unit 104 outputs the relative coordinates to the projection image generation unit 105, and the projection image generation unit 105 generates a projection annotation image on the image to be projected on the tablet PC 8 and outputs it to the projection processing unit 106. FIG. 6 shows a state in which the backprojection-transformed annotation image is formed on the projection image. As described above, the projection processing unit 106 performs projection conversion using the estimated parameters, outputs the projection-converted image to the projector 4, and the projector 4 outputs the projection-converted image to the tablet PC 8. Project.

このように、タブレットPC8のペン82で入力されたアノテーション画像は、タッチパネル81により表示され、さらにプロジェクタ4からタブレットPC8へ投影させることもできる。また、アノテーション画像がタブレットPC8のペン82で入力された場合には、タッチパネル81のみがアノテーション画像を表示し、PC1は当該アノテーション画像をプロジェクタ4からタブレットPC8へ投影しないような設定もできる。   As described above, the annotation image input with the pen 82 of the tablet PC 8 is displayed on the touch panel 81 and can be further projected from the projector 4 to the tablet PC 8. When an annotation image is input with the pen 82 of the tablet PC 8, only the touch panel 81 displays the annotation image, and the PC 1 can be set not to project the annotation image from the projector 4 to the tablet PC 8.

また、制御部104は、検知処理部102から、カメラ5からの撮影画像及びタブレットPC8の位置及び姿勢を特定する座標を入力し、ネットワーク3を介してPC2に出力する。これにより、図1に示すように、ローカル側の対象物6及びタブレットPC8が置かれたテーブル7の状況が表示領域23に再現される。   In addition, the control unit 104 inputs a captured image from the camera 5 and coordinates specifying the position and orientation of the tablet PC 8 from the detection processing unit 102, and outputs them to the PC 2 via the network 3. Thereby, as shown in FIG. 1, the state of the table 7 on which the local object 6 and the tablet PC 8 are placed is reproduced in the display area 23.

図7(A)は、表示領域23に描かれたアノテーション画像がタブレットPC8に表示される例を示す図であり、図7(B)は、アノテーション画像のファイルがホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたときに、当該アノテーション画像がタブレットPC8に表示される例を示す図である。   FIG. 7A is a diagram showing an example in which an annotation image drawn in the display area 23 is displayed on the tablet PC 8, and FIG. 7B shows an annotation image file in the hot spot 25 or the display area 23. It is a figure which shows the example by which the said annotation image is displayed on tablet PC8 when it is dragged and dropped on tablet PC8 currently displayed.

図8は、表示領域21に描かれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ている場合に、ローカル側で当該アノテーション画像の一部がタブレットPC8に表示され、当該アノテーション画像の残りが投影される例を示す図である。   FIG. 8 shows that when an annotation image drawn in the display area 21 protrudes from the tablet PC 8 displayed in the display area 23, a part of the annotation image is displayed on the tablet PC 8 on the local side, and the annotation image is displayed. It is a figure which shows the example by which the remainder is projected.

図7(A)に示すように、リモート側のユーザが、表示領域23に表示されているタブレットPC8上にアノテーション画像40を描くと、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。また、図7(B)に示すように、リモート側のユーザが、アノテーション画像40のファイルをホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップすると、ローカル側のタブレットPC8には、当該アノテーション画像40が表示される。この場合、ドラグ・アンド・ドロップされるファイルは、アノテーション画像のファイルに限定されず、テキスト、静止画像、動画像、又は音声のファイルでもよい。   As shown in FIG. 7A, when the remote user draws the annotation image 40 on the tablet PC 8 displayed in the display area 23, the annotation image 40 is displayed on the local tablet PC 8. The Further, as shown in FIG. 7B, when the user on the remote side drags and drops the file of the annotation image 40 onto the tablet PC 8 displayed in the hot spot 25 or the display area 23, the user on the local side The annotation image 40 is displayed on the tablet PC 8. In this case, the drag-and-drop file is not limited to an annotation image file, and may be a text, still image, moving image, or audio file.

また、図8に示すように、アノテーション画像として「ABC…」のテキストと矢印の画像が表示領域23に描かれ、当該矢印の画像が表示領域23に表示されているタブレットPC8からはみ出ている場合、ローカル側では、「ABC…」のテキストと矢印の一部の画像がアノテーション画像51としてタブレットPC8に表示され、矢印の残りの画像がアノテーション画像52としてプロジェクタ4からテーブル7に投影される。尚、図8のアノテーション画像52を破線で表示しているが、破線は投影されていることを示す。   In addition, as shown in FIG. 8, when the text “ABC...” And the arrow image are drawn as the annotation image in the display area 23 and the arrow image protrudes from the tablet PC 8 displayed in the display area 23. On the local side, the text “ABC...” And an image of a part of the arrow are displayed on the tablet PC 8 as the annotation image 51, and the remaining image of the arrow is projected from the projector 4 to the table 7 as the annotation image 52. Although the annotation image 52 in FIG. 8 is displayed with a broken line, the broken line indicates that it is projected.

図9は、PC1及びPC2で実行される基本処理を示すフローチャートである。   FIG. 9 is a flowchart showing basic processing executed by PC1 and PC2.

まず、検知処理部102は、カメラ5からの撮影画像を保存部103に保存し、撮影画像のシーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、制御部104、投影画像生成部105及び投影処理部106に出力する。また、検知処理部102は、カメラ5からの撮影画像を制御部104に出力する(ステップS1)。制御部104は、タブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像をネットワーク3を介してPC2に出力する(ステップS2)。   First, the detection processing unit 102 stores the captured image from the camera 5 in the storage unit 103, and coordinates (in this case, the tablet PC8) specifying the position and orientation of the tablet PC8 by shape detection and template matching of the tablet PC8 from the sequence of the captured image. The coordinates of the four corners of the PC 8 are calculated and output to the control unit 104, the projection image generation unit 105, and the projection processing unit 106. Further, the detection processing unit 102 outputs a captured image from the camera 5 to the control unit 104 (step S1). The control unit 104 outputs the coordinates specifying the position and orientation of the tablet PC 8 and the captured image from the camera 5 to the PC 2 via the network 3 (step S2).

PC2の制御部201は、PC1からタブレットPC8の位置及び姿勢を特定する座標及びカメラ5からの撮影画像を受信し、タブレットPC8の位置及び姿勢を特定する座標を保存部202に保存し、カメラ5からの撮影画像を表示部204に表示する(ステップS3)。   The control unit 201 of the PC 2 receives the coordinates specifying the position and orientation of the tablet PC 8 from the PC 1 and the captured image from the camera 5, stores the coordinates specifying the position and orientation of the tablet PC 8 in the storage unit 202, and The captured image is displayed on the display unit 204 (step S3).

次いで、制御部201は、入力部203から編集操作があるか否かを判別する(ステップS4)。ここで、編集操作とは、アノテーション画像の書き込み操作、若しくはファイルをホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップする操作である。   Next, the control unit 201 determines whether there is an editing operation from the input unit 203 (step S4). Here, the editing operation is an operation for writing an annotation image or an operation for dragging and dropping a file onto the hot spot 25 or the tablet PC 8 displayed in the display area 23.

ステップS4でNOの場合には、本処理を終了する。ステップS4でYESの場合であり、ドラグ・アンド・ドロップ操作が行われた場合には、ステップS6に進む。ステップS4でYESの場合であり、アノテーション画像の書き込み操作が行われた場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ていないか否かを判別する(ステップS5)。   If NO in step S4, the process ends. If YES in step S4, and if a drag and drop operation has been performed, the process proceeds to step S6. In the case of YES in step S4, when the annotation image writing operation is performed, the control unit 201 displays the written annotation image in the display area 23 based on the coordinates specifying the position and orientation of the tablet PC 8. It is determined whether or not the tablet PC 8 displayed on the screen does not protrude (step S5).

ステップS5でYESの場合には、制御部201は、当該書き込まれたアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルをPC1の制御部104に送信する(ステップS6)。   If YES in step S5, the control unit 201 transmits the coordinates of the written annotation image or the file on which the drag and drop operation has been performed to the control unit 104 of the PC 1 (step S6).

制御部104は、制御部201からのアノテーション画像の座標又はドラグ・アンド・ドロップ操作が行われたファイルを入力処理部101を介してタブレットPC8に出力し、タブレットPC8のタッチパネル81に当該アノテーション画像を表示させる又はタブレットPC8にドラグ・アンド・ドロップ操作が行われたファイルを再生させる(ステップS7)。ここで、制御部201からのアノテーション画像の座標は、入力処理部101によりタブレットPC8用の座標に変換して、タブレットPC8に出力される。   The control unit 104 outputs the annotation image coordinates from the control unit 201 or the file on which the drag and drop operation has been performed to the tablet PC 8 via the input processing unit 101, and the annotation image is displayed on the touch panel 81 of the tablet PC 8. The file that is displayed or dragged and dropped on the tablet PC 8 is played back (step S7). Here, the coordinates of the annotation image from the control unit 201 are converted into coordinates for the tablet PC 8 by the input processing unit 101 and output to the tablet PC 8.

上記ステップS5でNOの場合には、制御部201は、タブレットPC8の位置及び姿勢を特定する座標に基づいて、書き込まれたアノテーション画像を表示領域23に表示されているタブレットPC8からはみ出ている部分とはみ出ていない部分とに分割する(ステップS8)。次いで、制御部201は、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標をPC1の制御部104に送信する、即ち、ステップS6と同様の処理を実行する。以後、表示領域23に表示されているタブレットPC8からはみ出ていないアノテーション画像の座標に対して、ステップS7の処理が実行される。   In the case of NO in step S5, the control unit 201 protrudes from the tablet PC 8 where the written annotation image is displayed in the display area 23 based on the coordinates specifying the position and orientation of the tablet PC 8. Divide into parts that do not protrude (step S8). Next, the control unit 201 transmits the coordinates of the annotation image that does not protrude from the tablet PC 8 displayed in the display area 23 to the control unit 104 of the PC 1, that is, executes the same processing as step S6. Thereafter, the process of step S7 is executed for the coordinates of the annotation image that does not protrude from the tablet PC 8 displayed in the display area 23.

制御部201は、表示領域23に表示されているタブレットPC8からはみ出ているアノテーション画像の座標にフラグを付してPC1の制御部104に送信する(ステップS9)。制御部104は、制御部201からのフラグ付きのアノテーション画像の座標を投影画像生成部105に出力する(ステップS10)。このように、上記フラグは、制御部104がアノテーション画像の座標の出力先(即ち、入力処理部101又は影画像生成部105)を判断するために使用される。   The control unit 201 adds a flag to the coordinates of the annotation image protruding from the tablet PC 8 displayed in the display area 23 and transmits the flag to the control unit 104 of the PC 1 (step S9). The control unit 104 outputs the coordinates of the annotation image with the flag from the control unit 201 to the projection image generation unit 105 (step S10). As described above, the flag is used by the control unit 104 to determine the output destination of the coordinates of the annotation image (that is, the input processing unit 101 or the shadow image generation unit 105).

投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS11)。   The projection image generation unit 105 generates an annotation image based on the coordinates of the annotation image and outputs the annotation image to the projection processing unit 106 (step S11).

投影処理部106は、投影画像生成部105からのアノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力し(ステップS12)、本処理を終了する。プロジェクタ4は、投影変換されたアノテーション画像を対象物6を含むテーブル7の領域に投影する。   The projection processing unit 106 performs projection conversion of the annotation image from the projection image generation unit 105, outputs the projection-converted annotation image to the projector 4 (step S12), and ends this processing. The projector 4 projects the projection-transformed annotation image onto the area of the table 7 including the object 6.

以上説明したように、図9の処理では、表示領域23に表示されているタブレットPC8上に書き込まれたアノテーション画像は、タブレットPC8のタッチパネル81に表示され、ホットスポット25上又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたファイルは、タブレットPC8で再生される。また、表示領域23に表示されているタブレットPC8からはみ出たアノテーション画像は、プロジェクタ4を介してテーブル7の領域に投影される。   As described above, in the process of FIG. 9, the annotation image written on the tablet PC 8 displayed in the display area 23 is displayed on the touch panel 81 of the tablet PC 8 and displayed on the hot spot 25 or the display area 23. The file dragged and dropped onto the tablet PC 8 being played is played back on the tablet PC 8. Further, the annotation image protruding from the tablet PC 8 displayed in the display area 23 is projected onto the area of the table 7 via the projector 4.

図10は、GUIをタブレットPC8上に投影する処理及びタブレットPC8上で指定されたモードを実行する処理を示すフローチャートである。本処理は、PC1により実行される。   FIG. 10 is a flowchart illustrating a process of projecting a GUI on the tablet PC 8 and a process of executing a mode designated on the tablet PC 8. This process is executed by the PC 1.

まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を投影画像生成部105及び投影処理部106に出力する(ステップS21)。   First, the detection processing unit 102 recognizes the tablet PC 8 from the image sequence photographed by the camera 5 by shape detection and template matching of the tablet PC 8, calculates coordinates for specifying the position and orientation of the recognized tablet PC 8, and the tablet The coordinates of the PC 8 are output to the projection image generation unit 105 and the projection processing unit 106 (step S21).

次に、投影画像生成部105は、GUIデータベース103aの各種のGUIの要素に基づいて、タブレットPC8に投影するGUI画像を生成する(ステップS22)。   Next, the projection image generation unit 105 generates a GUI image to be projected on the tablet PC 8 based on various GUI elements of the GUI database 103a (step S22).

投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用のGUI画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、GUI画像の投影変換を行い、投影変換されたGUI画像をプロジェクタ4に出力する(ステップS23)。プロジェクタ4は、当該投影変換されたGUI画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS24)。タブレットPC8へ投影されたGUI画像の一例を図11に示す。   The projection processing unit 106 estimates projection conversion parameters based on the coordinates of the tablet PC 8 calculated by the detection processing unit 102 and the coordinates of the four corners of the projection GUI image generated by the projection image generation unit 105. Then, using this estimated parameter, the GUI image is projected and converted, and the projected and converted GUI image is output to the projector 4 (step S23). The projector 4 projects the projection-converted GUI image onto the tablet PC 8 as a part of the entire projection content (step S24). An example of a GUI image projected onto the tablet PC 8 is shown in FIG.

タブレットPC8は、ペンで入力された座標を入力処理部101に出力する(ステップS25)。入力処理部101は、ペンで入力された座標に対し、上記投影変換の逆変換を行い、投影画像生成部105から取得したGUI画像上における相対座標を算出し、ペンで入力されたモードを決定する(ステップS26)。   The tablet PC 8 outputs the coordinates input with the pen to the input processing unit 101 (step S25). The input processing unit 101 performs inverse transformation of the above-described projection transformation on the coordinates input with the pen, calculates the relative coordinates on the GUI image acquired from the projection image generation unit 105, and determines the mode input with the pen (Step S26).

制御部104は、入力処理部101から決定されたモードの情報を入力し、当該モードの情報に応じた処理を実行し(ステップS27)、本処理を終了する。   The control unit 104 inputs the mode information determined from the input processing unit 101, executes a process according to the mode information (step S27), and ends the present process.

モードの情報に応じた処理とは、例えば、入力されたモードが印刷モードの場合は、制御部104は、不図示のプリンタドライバに印刷開始の指示を出力する。また、入力されたモードがコピーモードの場合は、制御部104は、後述する図12,13の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。入力されたモードが共有モードの場合は、制御部104は、後述する図15の処理を開始する指示を検知処理部102、投影画像生成部105、及び投影処理部106に出力する。   For example, when the input mode is the print mode, the control unit 104 outputs a print start instruction to a printer driver (not shown). When the input mode is the copy mode, the control unit 104 outputs an instruction to start processing in FIGS. 12 and 13 described later to the detection processing unit 102, the projection image generation unit 105, and the projection processing unit 106. . When the input mode is the sharing mode, the control unit 104 outputs an instruction to start the processing of FIG. 15 described later to the detection processing unit 102, the projection image generation unit 105, and the projection processing unit 106.

図10の処理によれば、ユーザは、タブレットPC8上に投影されるGUI画像で規定する複数のモードのうちいずれか1つをタブレットPC8で選択し、当該モードに応じた処理を制御部104に実行させることができる。   According to the processing in FIG. 10, the user selects any one of a plurality of modes defined by the GUI image projected on the tablet PC 8 with the tablet PC 8, and performs processing corresponding to the mode on the control unit 104. Can be executed.

尚、上記図10の処理では、GUI画像はプロジェクタ4からタブレットPC8上に投影されているが、GUI画像がタブレットPC8のタッチパネル81に表示されてもよい。この場合、上記処理では、ステップS25〜S27が実行される。   In the process of FIG. 10, the GUI image is projected on the tablet PC 8 from the projector 4, but the GUI image may be displayed on the touch panel 81 of the tablet PC 8. In this case, steps S25 to S27 are executed in the above process.

図12,13は、PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。   12 and 13 are flowcharts showing the copy mode and non-copy mode processing executed by the PC 1.

本処理では、カメラ5がタブレットPC8を含むテーブル7の領域を、継続的に撮影しているものとする(例えば、0.5秒毎に撮影する)。   In this process, it is assumed that the camera 5 is continuously shooting the area of the table 7 including the tablet PC 8 (for example, shooting every 0.5 seconds).

まず、制御部104は、入力処理部101を介してタブレットPC8からコピーモードの指示が入力されたか否かを判別する(ステップS31)。ここで、コピーモードとは、プロジェクタ4側からテーブル7の領域を見て、タブレットPC8がテーブル7の任意の領域と重なる場合に、その任意の領域に対応する予め撮影された撮影画像が、タブレットPC8の移動によらず、タブレットPC8上に固定的に投影されるモードである。このモードが実行されると、ユーザの目の前にある実物(即ち対象物6を含むテーブル7)の一部の画像が常にタブレットPC8上に固定的に投影される。よって、ユーザは、テーブル7の領域内の撮影したい場所にタブレットPC8を重ねて、コピーモードの指示を入力することで、撮影したい場所の画像をタブレットPC8上に投影することができる。   First, the control unit 104 determines whether a copy mode instruction is input from the tablet PC 8 via the input processing unit 101 (step S31). Here, the copy mode refers to a region of the table 7 viewed from the projector 4 side, and when the tablet PC 8 overlaps with an arbitrary region of the table 7, a pre-photographed image corresponding to the arbitrary region is displayed on the tablet. In this mode, the screen is fixedly projected on the tablet PC 8 regardless of the movement of the PC 8. When this mode is executed, a partial image of the real object (that is, the table 7 including the object 6) in front of the user's eyes is always projected on the tablet PC 8 in a fixed manner. Therefore, the user can project the image of the place to be photographed on the tablet PC 8 by superimposing the tablet PC 8 on the place to be photographed in the area of the table 7 and inputting a copy mode instruction.

尚、ステップS11でユーザがタブレットPC8でコピーモードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内のコピーモードの位置をタップすることが必要である。   When the user inputs a copy mode instruction on the tablet PC 8 in step S11, a button (not shown) provided on the tablet PC 8 is pressed or the position of the copy mode in the GUI projected from the projector 4 onto the tablet PC 8 is set. It is necessary to tap.

ステップS11でコピーモードの指示が入力されていない場合(NO)の場合には、検知処理部102は、カメラ5からの撮影画像をフレームバッファ領域103bに保存し、タブレットPC8の位置及び姿勢を特定する座標(ここではタブレットPC8の4つの角の座標)を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS32)。   If the copy mode instruction is not input in step S11 (NO), the detection processing unit 102 stores the captured image from the camera 5 in the frame buffer area 103b and specifies the position and orientation of the tablet PC 8. Coordinates (here, the coordinates of the four corners of the tablet PC 8) are calculated and output to the projection image generation unit 105 and the projection processing unit 106 (step S32).

投影画像生成部105は、フレームバッファ領域103bから撮影画像を読み出し、タブレットPC8の位置及び姿勢を特定する座標に基づいて、当該撮影画像から、タブレットPC8に投影される部分画像を切り出し、当該部分画像を投影処理部106に出力する(ステップS33)。投影画像生成部105により切り出される部分画像は、プロジェクタ4側からテーブル7の領域を見たときに、タブレットPC8が対象物6を含むテーブル7の領域と重なる部分の撮影画像である。従って、投影画像生成部105は、タブレットPC8がテーブル7の任意の領域と重なる場合には、当該任意の領域に重なる直前に撮影された撮影画像から当該部分画像を切り出す。図14(A)は、プロジェクタ4側からテーブル7を見た場合のタブレットPC8と対象物6を含むテーブル7との位置関係を示す図であり、図14(B)は、対象物6上を通過するタブレットPC8に投影される部分画像のシーケンスを示す図である。   The projection image generation unit 105 reads the captured image from the frame buffer area 103b, cuts out the partial image projected on the tablet PC 8 from the captured image based on the coordinates specifying the position and orientation of the tablet PC 8, and extracts the partial image. Is output to the projection processing unit 106 (step S33). The partial image cut out by the projection image generation unit 105 is a captured image of a portion where the tablet PC 8 overlaps the region of the table 7 including the object 6 when the region of the table 7 is viewed from the projector 4 side. Therefore, when the tablet PC 8 overlaps an arbitrary area of the table 7, the projection image generation unit 105 cuts out the partial image from the captured image that is captured immediately before the tablet PC 8 overlaps the arbitrary area. FIG. 14A is a diagram showing a positional relationship between the tablet PC 8 and the table 7 including the object 6 when the table 7 is viewed from the projector 4 side, and FIG. It is a figure which shows the sequence of the partial image projected on tablet PC8 to pass.

投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS34)。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影し(ステップS35)、ステップS32に戻る。   The projection processing unit 106 estimates projection conversion parameters based on the coordinates of the tablet PC 8 calculated by the detection processing unit 102 and the coordinates of the four corners of the projection partial image generated by the projection image generation unit 105. Then, projection conversion of the projection partial image is performed using the estimated parameters, and the projection-converted partial image is output to the projector 4 (step S34). The projector 4 projects the projection-converted partial image onto the tablet PC 8 as a part of the entire projection content (step S35), and returns to step S32.

ステップS32〜S35のループ処理により、タブレットPC8の位置及び姿勢が検知されて、タブレットPC8の位置及び姿勢に応じた部分画像がタブレットPC8上に投影される。   Through the loop processing of steps S32 to S35, the position and orientation of the tablet PC 8 are detected, and a partial image corresponding to the position and orientation of the tablet PC 8 is projected onto the tablet PC 8.

ステップS11でコピーモードの指示が入力された場合(YES)の場合には、制御部104は、撮影画像のスナップショット(即ち、カメラ5のシャッターを切ったときの画像)の保存指示及びスナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標の保存指示を検知処理部102に出力する(ステップS36)。   When the copy mode instruction is input in step S11 (YES), the control unit 104 stores the snapshot of the captured image (that is, the image when the shutter of the camera 5 is released) and the snapshot. An instruction to store coordinates specifying the position and orientation of the tablet PC 8 at the moment of shooting is output to the detection processing unit 102 (step S36).

検知処理部102は、撮影画像のスナップショットをスナップショット領域103cに保存すると共に当該スナップショットの撮影の瞬間のタブレットPC8の位置及び姿勢を特定する座標を位置保存領域103dに保存する(ステップS37)。   The detection processing unit 102 stores a snapshot of the captured image in the snapshot area 103c, and stores coordinates that specify the position and orientation of the tablet PC 8 at the moment of capturing the snapshot in the position storage area 103d (step S37). .

次いで、制御部104は、コピーモードの指示及び投影画像の生成の指示を投影画像生成部105に出力する(ステップS38)。   Next, the control unit 104 outputs a copy mode instruction and a projection image generation instruction to the projection image generation unit 105 (step S38).

投影画像生成部105は、位置保存領域103dに保存されたスナップショットの撮影の瞬間のタブレットPC8の座標に基づいて、スナップショット領域103cに保存されたスナップショットから投影用の部分画像を切り出し、切り出した部分画像をスナップショット領域103cに保存すると共に投影処理部106に出力する(ステップS39)。   The projection image generation unit 105 cuts out and extracts a partial image for projection from the snapshot saved in the snapshot area 103c based on the coordinates of the tablet PC 8 at the moment of taking the snapshot saved in the position saving area 103d. The partial image is stored in the snapshot area 103c and is output to the projection processing unit 106 (step S39).

投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標と投影画像生成部105で生成された投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用の部分画像の投影変換を行い、投影変換された部分画像をプロジェクタ4に出力する(ステップS40)。投影変換では、適宜部分画像の拡大縮小等を実行しても良い。プロジェクタ4は、当該投影変換された部分画像を全投影内容の一部としてタブレットPC8へ投影する(ステップS41)。   The projection processing unit 106 estimates projection conversion parameters based on the coordinates of the tablet PC 8 at the moment of taking the snapshot and the coordinates of the four corners of the projection partial image generated by the projection image generation unit 105. Then, projection conversion of the partial image for projection is performed using the estimated parameters, and the projected partial image is output to the projector 4 (step S40). In the projection conversion, enlargement / reduction of a partial image or the like may be executed as appropriate. The projector 4 projects the projection-converted partial image onto the tablet PC 8 as a part of the entire projection content (step S41).

その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS42)。   Thereafter, the detection processing unit 102 calculates the coordinates of the tablet PC 8 from the captured image of the camera 5 that has captured the image projected by the projector 4, and outputs the coordinates to the projection image generation unit 105 and the projection processing unit 106 (step S42).

投影画像生成部105は、入力処理部101及び制御部104を介してタブレットPC8からアノテーション画像の座標の入力があるか否かを判別する(ステップS43)。   The projection image generation unit 105 determines whether there is an input of the coordinates of the annotation image from the tablet PC 8 via the input processing unit 101 and the control unit 104 (step S43).

ステップS43でアノテーション画像の座標の入力がない場合(NO)には、ステップ39に進み、投影画像生成部105は、スナップショット領域103cに保存された投影用の部分画像を投影処理部106に出力する。以降のステップS20の処理では、投影処理部106は、スナップショットの撮影の瞬間のタブレットPC8の座標に代えて、ステップS42で検知処理部102から出力されるタブレットPC8の座標を利用する。   If the coordinates of the annotation image are not input in step S43 (NO), the process proceeds to step 39, and the projection image generation unit 105 outputs the partial image for projection stored in the snapshot area 103c to the projection processing unit 106. To do. In the subsequent processing in step S20, the projection processing unit 106 uses the coordinates of the tablet PC 8 output from the detection processing unit 102 in step S42 instead of the coordinates of the tablet PC 8 at the moment of taking the snapshot.

以上のステップS31でYES→ステップS43でNO→ステップS39の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、スナップショットから切り出された投影用の部分画像がタブレットPC8上に投影される。   In the above-described step S31, YES → step S43, NO → step S39, the movement of the tablet PC 8 is detected, and the projection partial image cut out from the snapshot is obtained regardless of the movement position of the tablet PC 8. Projected onto the tablet PC 8.

ステップS43でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力すると共に、生成されたアノテーション画像をスナップショット領域103cに保存された投影用の部分画像に付加して、投影処理部106に出力する(ステップS44)。   If the coordinates of the annotation image are input in step S43 (YES), the projection image generation unit 105 generates an annotation image based on the coordinates of the annotation image, outputs the annotation image to the projection processing unit 106, and generates the annotation image. The annotation image is added to the partial image for projection stored in the snapshot area 103c, and is output to the projection processing unit 106 (step S44).

投影処理部106は、ステップS22で検知処理部102から出力されるタブレットPC8の座標とアノテーション画像付きの投影用の部分画像の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、アノテーション画像付きの投影用の部分画像の投影変換を行い、投影変換された部分画像及びアノテーション画像をプロジェクタ4に出力し(ステップS45)、ステップS41の処理に進む。以降のステップS21の処理では、プロジェクタ4は、投影変換された部分画像をタブレットPC8に投影し、アノテーション画像を対象物6を含むテーブル7の領域に投影する。   The projection processing unit 106 estimates projection conversion parameters based on the coordinates of the tablet PC 8 output from the detection processing unit 102 in step S22 and the coordinates of the four corners of the projection partial image with the annotation image. Using this estimated parameter, the projection partial image with the annotation image is subjected to projection conversion, and the projection-converted partial image and annotation image are output to the projector 4 (step S45), and the process proceeds to step S41. . In the subsequent process of step S <b> 21, the projector 4 projects the projection-converted partial image onto the tablet PC 8 and projects the annotation image onto the area of the table 7 including the target object 6.

以上のステップS31でYES→ステップS43でYES→ステップS41の一連の処理により、タブレットPC8の移動が検知されて、タブレットPC8の移動位置によらず、アノテーション画像が付加された投影用の部分画像がタブレットPC8上に投影され、さらに、アノテーション画像は単独で実物(即ち、対象物6を含むテーブル7の領域)に投影される。   In the above step S31, YES → step S43 YES → step S41, the movement of the tablet PC 8 is detected, and the projection partial image to which the annotation image is added is detected regardless of the movement position of the tablet PC 8. The image is projected onto the tablet PC 8 and the annotation image is projected onto the real object (that is, the area of the table 7 including the object 6) alone.

次に、PC1で実行される共有モードの処理を説明する。   Next, shared mode processing executed by the PC 1 will be described.

共有モードとは、複数のユーザが1つのタブレットPC8を共用し、タブレットPC8のタッチパネルに表示される画像と同一の画像をテーブル7の任意の領域に投影するモードである。このとき、タブレットPC8は表示機能を有するので、プロジェクタ4がタブレットPC8上に画像を投影する必要はないが、画像を投影してもよい。また、タブレットPC8にアノテーション画像の入力がある場合には、当該アノテーション画像も上記テーブル7の任意の領域に投影される。   The sharing mode is a mode in which a plurality of users share one tablet PC 8 and project the same image as the image displayed on the touch panel of the tablet PC 8 onto an arbitrary area of the table 7. At this time, since the tablet PC 8 has a display function, it is not necessary for the projector 4 to project an image on the tablet PC 8, but an image may be projected. When an annotation image is input to the tablet PC 8, the annotation image is also projected on an arbitrary area of the table 7.

図15は、PC1で実行される共有モードの処理を示すフローチャートである。   FIG. 15 is a flowchart showing the processing in the sharing mode executed by the PC 1.

まず、制御部104は、入力処理部101を介してタブレットPC8から共有モードの指示が入力されたか否かを判別する(ステップS51)。   First, the control unit 104 determines whether or not a share mode instruction is input from the tablet PC 8 via the input processing unit 101 (step S51).

尚、ステップS31でユーザがタブレットPC8で共有モードの指示を入力する場合、タブレットPC8に設けられた不図示のボタンを押下する又はプロジェクタ4からタブレットPC8に投影されるGUI内の共有モードの位置をタップすることが必要である。   When the user inputs a sharing mode instruction on the tablet PC 8 in step S31, a button (not shown) provided on the tablet PC 8 is pressed or the position of the sharing mode in the GUI projected on the tablet PC 8 from the projector 4 is set. It is necessary to tap.

ステップS51で共有モードの指示が入力されていない場合(NO)には、本処理を終了する。一方、ステップS51で共有モードの指示が入力された場合(YES)には、制御部104は、撮影画像内のタブレットPC8の位置を特定する座標(以下、このタブレットPC8の座標を共有座標という)の保存指示を検知処理部102に出力する(ステップS52)。   If the sharing mode instruction is not input in step S51 (NO), the process is terminated. On the other hand, if the sharing mode instruction is input in step S51 (YES), the control unit 104 specifies coordinates for specifying the position of the tablet PC 8 in the captured image (hereinafter, the coordinates of the tablet PC 8 are referred to as shared coordinates). Is output to the detection processing unit 102 (step S52).

検知処理部102は、撮影画像から共有座標を算出し、投影画像生成部105及び投影処理部106に出力する(ステップS53)。尚、検知処理部102は、カメラ5から新たな撮影画像を入力する度にタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力する。   The detection processing unit 102 calculates shared coordinates from the captured image, and outputs them to the projection image generation unit 105 and the projection processing unit 106 (step S53). The detection processing unit 102 calculates the coordinates (shared coordinates) of the tablet PC 8 each time a new captured image is input from the camera 5, and outputs the calculated coordinates to the projection image generation unit 105 and the projection processing unit 106.

投影画像生成部105は、制御部104を介してアノテーション画像の座標の入力があるか否かを判別する(ステップS54)。アノテーション画像の座標は、タブレットPC8から入力される場合に限らず、PC2から入力されてもよい。   The projection image generation unit 105 determines whether there is an input of the coordinates of the annotation image via the control unit 104 (step S54). The coordinates of the annotation image are not limited to being input from the tablet PC 8 and may be input from the PC 2.

ステップS54でアノテーション画像の座標の入力がない場合(NO)には、本判別を繰り返す。   If there is no input of the coordinates of the annotation image in step S54 (NO), this determination is repeated.

ステップS54でアノテーション画像の座標の入力がある場合(YES)には、投影画像生成部105は、アノテーション画像の座標に基づいて、アノテーション画像を生成し、投影処理部106に出力する(ステップS55)。   If there is an input of an annotation image coordinate in step S54 (YES), the projection image generation unit 105 generates an annotation image based on the annotation image coordinate and outputs it to the projection processing unit 106 (step S55). .

一方、PC2からアノテーション画像の座標が入力されている場合は、制御部104がアノテーション画像の座標を入力処理部101を介してタブレットPC8に出力し、タブレットPC8に、このアノテーション画像を表示させる(ステップS56)。タブレットPC8に直接アノテーション画像が入力されている場合は、タブレットPC8がアノテーション画像を表示するので、ステップS56の処理は省略される。   On the other hand, if the coordinates of the annotation image are input from the PC 2, the control unit 104 outputs the coordinates of the annotation image to the tablet PC 8 via the input processing unit 101 and causes the tablet PC 8 to display the annotation image (step S56). When the annotation image is directly input to the tablet PC 8, the tablet PC 8 displays the annotation image, and thus the process of step S56 is omitted.

投影処理部106は、アノテーション画像の投影変換を行い、投影変換されたアノテーション画像をプロジェクタ4に出力する(ステップS57)。   The projection processing unit 106 performs projection conversion of the annotation image and outputs the projection-converted annotation image to the projector 4 (step S57).

プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影する(ステップS58)。   The projector 4 projects the annotation image that has been projected and converted to the position of the tablet PC 8 when the annotation image is input (step S58).

その後、検知処理部102は、プロジェクタ4で投影された画像を撮影したカメラ5の撮影画像からタブレットPC8の座標(共有座標)を算出し、投影画像生成部105及び投影処理部106に出力し(ステップS59)、ステップS54に戻る。   Thereafter, the detection processing unit 102 calculates the coordinates (shared coordinates) of the tablet PC 8 from the captured image of the camera 5 that has captured the image projected by the projector 4 and outputs the calculated coordinate to the projection image generation unit 105 and the projection processing unit 106 ( Step S59) and return to Step S54.

図15の処理によれば、アノテーション画像が検知処理部102に検知されるタブレットPC8に表示され、且つアノテーション画像が共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置に投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。また、いわゆるポストイットのように、アノテーション画像を当該アノテーション画像が入力されたときのタブレットPC8の位置に貼り付けることができる。   15, the annotation image is displayed on the tablet PC 8 detected by the detection processing unit 102, and the annotation image is projected on the position of the tablet PC 8 in the captured image when the sharing mode instruction is input. Therefore, an annotation image can be provided to a plurality of users at the same time. Further, like so-called post-it, the annotation image can be pasted on the position of the tablet PC 8 when the annotation image is input.

また、ステップS54〜S59のループにより、アノテーション画像の内容が更新されると、タブレットPC8に表示されるアノテーション画像及び投影されるアノテーション画像も逐次更新される。   Further, when the content of the annotation image is updated by the loop of steps S54 to S59, the annotation image displayed on the tablet PC 8 and the projected annotation image are also updated sequentially.

上記共有モードでは、投影変換されたアノテーション画像は、タブレットPC8から共有モードの指示が入力されたときの撮影画像内のタブレットPC8の位置を特定する座標(共有座標)に投影されたが、検知処理部102が、タブレットPC8が所定時間(例えば、5分)移動していないか否かを判別し、タブレットPC8が所定時間(例えば、5分)移動していない場合には、その移動していないタブレットPC8の位置に投影変換されたアノテーション画像が投影されるようにしてもよい。この場合、タブレットPC8が移動すると、移動中のタブレットPC8がアノテーション画像を表示し、さらに上記移動していないタブレットPC8の位置に、投影変換されたアノテーション画像が投影されるので、アノテーション画像を同時に複数のユーザに提供することができる。   In the sharing mode, the annotation image that has been subjected to projection conversion is projected on coordinates (shared coordinates) that specify the position of the tablet PC 8 in the captured image when the sharing mode instruction is input from the tablet PC 8. The unit 102 determines whether or not the tablet PC 8 has not moved for a predetermined time (for example, 5 minutes). If the tablet PC 8 has not moved for a predetermined time (for example, 5 minutes), the tablet PC 8 has not moved. You may make it project the annotation image by which projection conversion was carried out to the position of tablet PC8. In this case, when the tablet PC 8 moves, the moving tablet PC 8 displays the annotation image, and the projected annotation image is projected at the position of the tablet PC 8 that has not moved. Can be provided to any user.

上記共有モードでは、アノテーション画像をスナップショットを撮影したときのタブレットPC8の位置に投影する例を説明したが、図16(A)に示すようにローカル側のユーザがタブレットPC8の正面に向いていない場合がある。この場合、アノテーション画像が文字を含むと、ユーザは読みにくいという問題がある。そこで、PC1が、ユーザにとって見やすい向きにアノテーション画像を自動的に回転させる処理を説明する。   In the shared mode, the example in which the annotation image is projected onto the position of the tablet PC 8 when the snapshot is taken has been described, but the local user is not facing the front of the tablet PC 8 as shown in FIG. There is a case. In this case, if the annotation image includes characters, there is a problem that it is difficult for the user to read. Therefore, a process in which the PC 1 automatically rotates the annotation image in a direction that is easy for the user to see will be described.

図16(A)は、机7の領域、カメラ5の撮影領域、プロジェクタ4の投影領域、及びタブレットPC8の位置との関係を示す図であり、図16(B)は、カメラ5の撮影領域とタブレットPC8の位置との関係を示す図であり、図16(C)は、アノテーション画像の回転処理後のプロジェクタ4の投影領域とタブレットPC8の位置との関係を示す図である。   16A is a diagram showing the relationship between the area of the desk 7, the imaging area of the camera 5, the projection area of the projector 4, and the position of the tablet PC 8, and FIG. 16B is the imaging area of the camera 5. FIG. 16C is a diagram illustrating the relationship between the projection area of the projector 4 after the annotation image rotation process and the position of the tablet PC 8.

尚、ローカル側のユーザの位置を検出するための人感センサ10がPC1の制御部104に接続されているものとする。また、タブレットPC8には、その底辺を示すライン状のマークが付けられているものとする。   It is assumed that the human sensor 10 for detecting the position of the user on the local side is connected to the control unit 104 of the PC 1. Further, it is assumed that the tablet PC 8 is provided with a line-shaped mark indicating the bottom side.

図17は、PC1により実行されるアノテーション画像の回転処理を示すフローチャートである。   FIG. 17 is a flowchart showing the annotation image rotation processing executed by the PC 1.

まず、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の形状検出及びテンプレートマッチングによってタブレットPC8を認識し、認識したタブレットPC8の位置及び姿勢を特定する座標を算出し、当該タブレットPC8の座標を制御部104、投影画像生成部105及び投影処理部106に出力する(ステップS71)。また、検知処理部102は、カメラ5で撮影された画像シーケンスからタブレットPC8の底辺に付されたマークを検出し、投影処理部106に出力する(ステップS72)。   First, the detection processing unit 102 recognizes the tablet PC 8 from the image sequence photographed by the camera 5 by shape detection and template matching of the tablet PC 8, calculates coordinates for specifying the position and orientation of the recognized tablet PC 8, and the tablet The coordinates of the PC 8 are output to the control unit 104, the projection image generation unit 105, and the projection processing unit 106 (step S71). In addition, the detection processing unit 102 detects a mark attached to the bottom side of the tablet PC 8 from the image sequence photographed by the camera 5, and outputs the mark to the projection processing unit 106 (step S72).

次いで、制御部104は、不図示の人感センサからのユーザの位置の検出情報に基づいて、撮影領域又は投影領域の4つの辺のうち基準となる1つの辺を選択し、基準となる辺の情報を投影処理部106に通知する(ステップS73)。例えば、図16(A)〜(C)では、制御部104は、撮影領域又は投影領域の右辺を基準となる辺とする。   Next, the control unit 104 selects one of the four sides of the imaging region or the projection region as a reference based on the detection information of the user position from a human sensor (not shown), and the reference side Is sent to the projection processing unit 106 (step S73). For example, in FIGS. 16A to 16C, the control unit 104 uses the right side of the imaging region or the projection region as a reference side.

制御部104は、タブレットPC8に表示される又は投影されるアノテーション画像の座標若しくはPC2から受信した、タブレットPC8上に表示されるアノテーション画像の座標を投影画像生成部105に出力する(ステップS74)。   The control unit 104 outputs the coordinates of the annotation image displayed or projected on the tablet PC 8 or the coordinates of the annotation image displayed on the tablet PC 8 received from the PC 2 to the projection image generation unit 105 (step S74).

投影画像生成部105は、アノテーション画像の座標に基づいて投影用のアノテーション画像を生成する(ステップS75)。   The projection image generation unit 105 generates a projection annotation image based on the coordinates of the annotation image (step S75).

投影処理部106は、検知処理部102で算出されたタブレットPC8の座標と投影用のアノテーション画像を内接するように構成された矩形領域の4つの角の座標とに基づいて投影変換用のパラメータを推定し、この推定されたパラメータを用いて、投影用のアノテーション画像に投影変換を行う(ステップS76)。さらに、投影処理部106は、PC8の底辺に付されたマーク及び基準となる辺の情報に基づいて、投影変換されたアノテーション画像に対して回転処理を実行し、回転処理後のアノテーション画像をプロジェクタ4に出力する(ステップS77)。より具体的には、投影処理部106は、PC8の底辺に付されたマークと基準となる辺との距離が最短になり、且つPC8の底辺に付されたマークと基準となる辺が並行になるように、投影変換されたアノテーション画像を回転する。   The projection processing unit 106 sets parameters for projection conversion based on the coordinates of the tablet PC 8 calculated by the detection processing unit 102 and the coordinates of the four corners of the rectangular area that is inscribed in the projection annotation image. Then, projection conversion is performed on the annotation image for projection using the estimated parameters (step S76). Further, the projection processing unit 106 executes a rotation process on the annotation image that has been subjected to the projection conversion based on the mark attached to the bottom side of the PC 8 and the reference side information, and the annotation image after the rotation process is displayed on the projector. 4 (step S77). More specifically, the projection processing unit 106 has the shortest distance between the mark attached to the bottom side of the PC 8 and the reference side, and the mark attached to the bottom side of the PC 8 and the reference side are parallel to each other. The annotation image that has undergone the projection conversion is rotated so that

プロジェクタ4は、アノテーション画像が入力されたときのタブレットPC8の位置に投影変換されたアノテーション画像を投影し(ステップS78)、本処理を終了する。   The projector 4 projects the annotation image that has been projected and converted to the position of the tablet PC 8 when the annotation image is input (step S78), and ends the present process.

上記回転処理よれば、ユーザの位置に基づいて撮影領域又は投影領域の4つの辺のうち基準となる1つの辺が選択され、この辺とPC8の底辺に付されたライン状のマークに基づいて、アノテーション画像に対する回転処理が実行されるので、ユーザにとって見やすい向きにアノテーション画像を自動的に回転することができる。尚、上記の実施例では、タブレットPC8の底辺にマークが付されているが、このマークは、タブレットPC8の上部又は左右の側部に付してもよい。   According to the above rotation processing, one of the four sides of the imaging region or the projection region is selected based on the position of the user, and based on the line-shaped mark attached to this side and the bottom side of the PC 8, Since the rotation processing for the annotation image is executed, the annotation image can be automatically rotated in a direction that is easy for the user to see. In the above embodiment, a mark is attached to the bottom side of the tablet PC 8, but this mark may be attached to the upper part or the left and right sides of the tablet PC 8.

PC1,PC2の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、PC1,PC2に供給し、PC1,PC2のCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。   Even when a recording medium in which a software program for realizing the functions of PC1 and PC2 is recorded is supplied to PC1 and PC2, and the CPU of PC1 and PC2 reads and executes the program stored in the storage medium, The same effects as in the above embodiment are achieved. Examples of the storage medium for supplying the program include a CD-ROM, a DVD, or an SD card.

また、PC1のCPUが、PC1の機能を実現するためのソフトウェアのプログラムを実行することによっても、上記実施の形態と同様の効果を奏する。   In addition, the same effect as that of the above-described embodiment can be obtained when the CPU of the PC 1 executes a software program for realizing the functions of the PC 1.

なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications without departing from the scope of the invention.

本発明の実施の形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on embodiment of this invention. (A)は、PC1のハードウエア構成を示すブロック図であり、(B)は、PC2のハードウエア構成を示すブロック図である。(A) is a block diagram showing a hardware configuration of the PC 1, and (B) is a block diagram showing a hardware configuration of the PC 2. タブレットPC8の外観図である。It is an external view of tablet PC8. PC1及びPC2の機能構成を示すブロック図である。It is a block diagram which shows the function structure of PC1 and PC2. 投影変換された画像がタブレットPC8上に投影される状態を示す図である。It is a figure which shows the state by which the image by which projection conversion was carried out is projected on tablet PC8. 逆投影変換されたアノテーション画像が投影用画像上に形成された状態を示す図である。It is a figure which shows the state in which the annotation image by which back projection conversion was carried out was formed on the image for projection. (A)は、表示領域23に描かれたアノテーション画像がタブレットPC8に表示される例を示す図であり、(B)は、アノテーション画像のファイルがホットスポット25又は表示領域23に表示されているタブレットPC8上へドラグ・アンド・ドロップされたときに、当該アノテーション画像がタブレットPC8に表示される例を示す図である。(A) is a figure which shows the example in which the annotation image drawn on the display area 23 is displayed on tablet PC8, (B) is the file of the annotation image displayed on the hot spot 25 or the display area 23. It is a figure which shows the example by which the said annotation image is displayed on tablet PC8 when it is dragged and dropped on tablet PC8. 図8は、表示領域21に描かれたアノテーション画像が表示領域23に表示されているタブレットPC8からはみ出ている場合に、ローカル側で当該アノテーション画像の一部がタブレットPC8に表示され、当該アノテーション画像の残りが投影される例を示す図である。FIG. 8 shows that when an annotation image drawn in the display area 21 protrudes from the tablet PC 8 displayed in the display area 23, a part of the annotation image is displayed on the tablet PC 8 on the local side, and the annotation image is displayed. It is a figure which shows the example by which the remainder is projected. PC1及びPC2で実行される基本処理を示すフローチャートである。It is a flowchart which shows the basic process performed by PC1 and PC2. GUIをタブレットPC8上に投影する処理及びタブレットPC8上で指定されたモードを実行する処理を示すフローチャートである。It is a flowchart which shows the process which projects the GUI on the tablet PC8, and the mode designated on the tablet PC8. タブレットPC8へ投影されたGUI画像の一例を示す図である。It is a figure which shows an example of the GUI image projected on tablet PC8. PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。It is a flowchart which shows the process of the copy mode and non-copy mode which are performed with PC1. PC1で実行されるコピーモード及び非コピーモードの処理を示すフローチャートである。It is a flowchart which shows the process of the copy mode and non-copy mode which are performed with PC1. (A)は、プロジェクタ4側からテーブル7を見た場合のタブレットPC8と対象物6を含むテーブル7との位置関係を示す図であり、(B)は、対象物6上を通過するタブレットPC8に投影される部分画像のシーケンスを示す図である。(A) is a figure which shows the positional relationship of tablet PC8 at the time of seeing the table 7 from the projector 4 side, and the table 7 containing the target object 6, (B) is tablet PC8 which passes on the target object 6 It is a figure which shows the sequence of the partial image projected on. PC1で実行される共有モードの処理を示すフローチャートである。It is a flowchart which shows the process of the sharing mode performed with PC1. (A)は、机7の領域、カメラ5の撮影領域、プロジェクタ4の投影領域、及びタブレットPC8の位置との関係を示す図であり、(B)は、カメラ5の撮影領域とタブレットPC8の位置との関係を示す図であり、(C)は、アノテーション画像の回転処理後のプロジェクタ4の投影領域とタブレットPC8の位置との関係を示す図である。(A) is a figure which shows the relationship between the area | region of the desk 7, the imaging | photography area | region of the camera 5, the projection area | region of the projector 4, and the position of tablet PC8, (B) is the imaging | photography area | region of the camera 5 and tablet PC8. It is a figure which shows the relationship with a position, (C) is a figure which shows the relationship between the projection area | region of the projector 4 after the rotation process of an annotation image, and the position of tablet PC8. PC1により実行されるアノテーション画像の回転処理を示すフローチャートである。It is a flowchart which shows the rotation process of the annotation image performed by PC1.

符号の説明Explanation of symbols

1,2 PC
3 ネットワーク
4 プロジェクタ
5 カメラ
7 机
8 タブレットPC
10 人感センサ
101 入力処理部
102 検知処理部
103 保存部
104 制御部
105 投影画像生成部
106 投影処理部
201 制御部
202 保存部
203 入力部
204 表示部
1, 2 PC
3 Network 4 Projector 5 Camera 7 Desk 8 Tablet PC
DESCRIPTION OF SYMBOLS 10 Human sensor 101 Input processing part 102 Detection processing part 103 Storage part 104 Control part 105 Projection image generation part 106 Projection processing part 201 Control part 202 Storage part 203 Input part 204 Display part

Claims (8)

注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、
当該入力装置を含む領域を撮影する撮影装置と、
前記領域に注釈画像を投影する投影装置と、
前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
前記入力装置に入力された座標情報を入力する第1入力手段、
前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を有する情報処理装置とを備え、
前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理システム。
An input device that includes first display means for displaying an annotation image and that inputs the annotation image or instructions;
An imaging device for imaging an area including the input device;
A projection device for projecting an annotation image onto the region;
Detecting means for detecting the position and orientation of the input device based on a photographed image photographed by the photographing device;
Generating means for generating a first image for receiving the annotation image or the instruction;
Output means for converting the first image into an image for the projection device based on the position and orientation of the input device detected by the detection means, and outputting the image to the projection device;
First input means for inputting coordinate information input to the input device;
An annotation image or instruction content is determined based on the coordinate information and the first image projected on the input device, and when the annotation image is included, the annotation image is projected onto the area on the output means. An information processing apparatus having an execution unit that converts the image into an image for the projection apparatus to be output to the projection apparatus and executes processing according to the instruction content when the instruction content is included.
The projection device projects the annotation image or the image reflecting the instruction content onto the detected input device,
When the first display unit displays the annotation image, the projection device does not project the annotation image on the detected input device.
前記情報処理装置にネットワークを介して接続される遠隔端末を備え、
前記遠隔端末は、前記撮影装置からの撮影画像を表示する第2表示手段と、前記注釈画像又は前記指示を入力する第2入力手段とを備え、
前記第2入力手段により入力された注釈画像が、前記第2表示手段に表示される入力装置に重なるときには、重なった部分の注釈画像が前記入力装置に送信され、前記第1表示手段が当該重なった部分の注釈画像を表示することを特徴とする請求項1記載の情報処理システム。
A remote terminal connected to the information processing apparatus via a network;
The remote terminal includes second display means for displaying a photographed image from the photographing apparatus, and second input means for inputting the annotation image or the instruction.
When the annotation image input by the second input unit overlaps the input device displayed on the second display unit, the annotation image of the overlapped portion is transmitted to the input device, and the first display unit overlaps the input image. 2. The information processing system according to claim 1, wherein an annotation image of the selected part is displayed.
前記第2入力手段により入力された注釈画像から、前記重なる部分の注釈画像を除いた残りの注釈画像は、前記投影装置から投影されることを特徴とする請求項2記載の情報処理システム。   The information processing system according to claim 2, wherein the remaining annotation image obtained by removing the overlapping portion of the annotation image from the annotation image input by the second input unit is projected from the projection device. 前記第2表示手段は、データをドラグアンドドロップにより前記入力装置に転送するホットスポットエリアを含む画面を表示することを特徴とする請求項2記載の情報処理システム。   The information processing system according to claim 2, wherein the second display unit displays a screen including a hot spot area for transferring data to the input device by drag and drop. さらに前記入力装置から共有モードの指示が入力され、前記注釈画像の座標が入力された場合には、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該注釈画像が入力されたときの撮影画像内の入力装置の位置に当該注釈画像を投影することを特徴とする請求項2又は3に記載の情報処理システム。   Further, when an instruction for sharing mode is input from the input device and coordinates of the annotation image are input, the second display means displays the annotation image, and the projection device receives the annotation image. The information processing system according to claim 2, wherein the annotation image is projected to a position of the input device in the captured image at that time. 前記情報処理装置は、前記入力装置が所定時間移動していないか否かを判別する判別手段をさらに備え、
前記入力装置が所定時間移動していないと判別された場合に、前記第2表示手段は当該注釈画像を表示し、前記投影装置は当該移動していない入力装置の位置に当該注釈画像を投影することを特徴とする請求項2又は3に記載の情報処理システム。
The information processing apparatus further includes a determination unit that determines whether or not the input device has not moved for a predetermined time,
When it is determined that the input device has not moved for a predetermined time, the second display means displays the annotation image, and the projection device projects the annotation image at a position of the input device that has not moved. The information processing system according to claim 2 or 3,
前記情報処理装置は、ユーザの位置を検出するユーザ検知手段を備え、
前記検知手段は、前記撮影装置で撮影された撮影画像から前記入力装置の少なくとも1カ所に付されたライン状のマークを検知し、
前記実行手段は、前記ユーザ検知手段により検出されたユーザの位置の検出情報に基づいて、前記撮影装置の撮影領域又は前記投影装置の投影領域の4つの辺から1つの辺を選択し、
前記出力手段は、前記検知されたライン状のマーク及び前記選択された1つの辺とに基づいて、前記注釈画像に回転処理を実行し、前記投影装置に出力することを特徴とする請求項1乃至6のいずれか1つに記載の情報処理システム。
The information processing apparatus includes user detection means for detecting a position of a user,
The detection means detects a line-shaped mark attached to at least one place of the input device from a photographed image photographed by the photographing device,
The execution unit selects one side from four sides of the imaging region of the imaging device or the projection region of the projection device based on the detection information of the user position detected by the user detection unit,
The output means executes a rotation process on the annotation image based on the detected line-shaped mark and the selected one side, and outputs the rotation to the projection device. The information processing system as described in any one of thru | or 6.
注釈画像を表示する第1表示手段を備え、当該注釈画像又は指示を入力する入力装置と、当該入力装置を含む領域を撮影する撮影装置と、前記領域に注釈画像を投影する投影装置と接続される情報処理装置であって、
前記撮影装置で撮影された撮影画像に基づいて前記入力装置の位置及び姿勢を検知する検知手段、
前記注釈画像又は前記指示を受け付けるための第1画像を生成する生成手段、
前記検知手段で検出した前記入力装置の位置及び姿勢に基づいて、前記第1画像を前記投影装置用の画像に変換して、前記投影装置に出力する出力手段、
前記入力装置に入力された座標情報を入力する第1入力手段、
前記座標情報と前記入力装置上に投影された第1画像とに基づいて、注釈画像又は指示内容を決定し、注釈画像が含まれる場合には、前記出力手段にその注釈画像を前記領域に投影される前記投影装置用の画像に変換して前記投影装置に出力させ、指示内容が含まれる場合には、その指示内容に応じた処理を実行させる、実行手段を備え、
前記投影装置は、前記検知される入力装置上に、前記注釈画像又は前記指示内容が反映された画像を投影し、
前記第1表示手段が前記注釈画像を表示するときには、前記投影装置は、前記検知される入力装置上に、前記注釈画像を投影しないことを特徴とする情報処理装置。
First input means for displaying an annotation image is connected to an input device for inputting the annotation image or instruction, a photographing device for photographing an area including the input device, and a projection device for projecting the annotation image onto the area. An information processing apparatus comprising:
Detecting means for detecting the position and orientation of the input device based on a photographed image photographed by the photographing device;
Generating means for generating a first image for receiving the annotation image or the instruction;
Output means for converting the first image into an image for the projection device based on the position and orientation of the input device detected by the detection means, and outputting the image to the projection device;
First input means for inputting coordinate information input to the input device;
An annotation image or instruction content is determined based on the coordinate information and the first image projected on the input device, and when the annotation image is included, the annotation image is projected onto the area on the output means. An execution unit that converts the image into an image for the projection device to be output to the projection device and, when the instruction content is included, executes processing according to the instruction content;
The projection device projects the annotation image or the image reflecting the instruction content onto the detected input device,
When the first display unit displays the annotation image, the projection device does not project the annotation image on the detected input device.
JP2008140061A 2008-05-28 2008-05-28 Information processing system and information processing apparatus Expired - Fee Related JP5187001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008140061A JP5187001B2 (en) 2008-05-28 2008-05-28 Information processing system and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008140061A JP5187001B2 (en) 2008-05-28 2008-05-28 Information processing system and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2009290488A JP2009290488A (en) 2009-12-10
JP5187001B2 true JP5187001B2 (en) 2013-04-24

Family

ID=41459275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008140061A Expired - Fee Related JP5187001B2 (en) 2008-05-28 2008-05-28 Information processing system and information processing apparatus

Country Status (1)

Country Link
JP (1) JP5187001B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5246148B2 (en) * 2009-12-04 2013-07-24 富士通株式会社 Light projection control program, light projection control device, and light projection control method

Also Published As

Publication number Publication date
JP2009290488A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
US8004571B2 (en) Projection-based system, apparatus and program of storing annotated object image
JP6525611B2 (en) Image processing apparatus and control method thereof
US20100149206A1 (en) Data distribution system, data distribution apparatus, data distribution method and recording medium, improving user convenience
JP2008217590A (en) Information sharing support system, information processor, and control program
JP2009055110A (en) Image recorder and its control method
KR20120033246A (en) Image processing apparatus, image processing method, and computer program
JP2012053545A (en) Image processing system, and method for controlling the same
JP2021052289A (en) Image processing method, program, image processing apparatus, and image processing system
JP5751775B2 (en) Imaging apparatus, control method and program thereof, and recording medium
JP7155781B2 (en) Information processing device and information processing program
JP5262888B2 (en) Document display control device and program
JP2008250700A (en) Information processor, window reproduction method and program
JP4674627B2 (en) Information processing apparatus, remote instruction system, and program
JP2008078937A (en) Image processing apparatus, method and program for controlling the image processor
JP5187001B2 (en) Information processing system and information processing apparatus
JP6314564B2 (en) Image processing apparatus, image processing method, and program
JP4999606B2 (en) Image shooting and editing apparatus, image shooting and editing method, and image editing program
JP2009076983A (en) Information processing system, and information processor
JP6070795B2 (en) Information processing apparatus, control method thereof, and program
KR20120012870A (en) Multifunction Eletronic Pen and character input method using the same
JP2010079529A (en) Information processor, information processing method, program therefor and recording medium
JP2013131811A (en) Image display device
JP2010117465A (en) Information processing device, information processing system and program
JP2013084148A (en) Electronic pen system and program
JP4894458B2 (en) Instruction device, instruction system, instruction method, and instruction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5187001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees