JP2008217590A - 情報共有支援システム、情報処理装置及び制御プログラム - Google Patents

情報共有支援システム、情報処理装置及び制御プログラム Download PDF

Info

Publication number
JP2008217590A
JP2008217590A JP2007056091A JP2007056091A JP2008217590A JP 2008217590 A JP2008217590 A JP 2008217590A JP 2007056091 A JP2007056091 A JP 2007056091A JP 2007056091 A JP2007056091 A JP 2007056091A JP 2008217590 A JP2008217590 A JP 2008217590A
Authority
JP
Japan
Prior art keywords
image
annotation
layer
information
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007056091A
Other languages
English (en)
Inventor
Kizashi Toki
萌 時
Ken Tokai
研 東海
Tsutomu Abe
勉 安部
Hiroyuki Miyake
弘之 三宅
Tetsuo Iyoda
哲男 伊與田
Shoji Sakamoto
彰司 坂本
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007056091A priority Critical patent/JP2008217590A/ja
Priority to US11/861,331 priority patent/US8239753B2/en
Priority to CN2007101819439A priority patent/CN101262586B/zh
Publication of JP2008217590A publication Critical patent/JP2008217590A/ja
Priority to US13/529,760 priority patent/US9727563B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00249Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a photographic apparatus, e.g. a photographic printer or a projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Abstract

【課題】 対象物(実物)と文書との対応関係をユーザに対して認識しやすい状態で提供する情報共有支援システム、情報処理装置及び制御プログラムを提供する。
【解決手段】 制御部301は、操作部303を介して、ビデオカメラにより撮影された、アノテーション38の一部分であるアノテーション38bを実物ビューウインドウに入力し、アノテーション38のうちアノテーション38bを除いたアノテーション38aをストローク描画レイヤーに入力し、文書を文書画像レイヤーに入力する。そして、制御部301は、アノテーション38bをプロジェクタ10に送信し、プロジェクタ10によりアノテーション38bが投影された投影領域を撮影した撮影画像をビデオカメラ11から受信する。表示部305は、実物ビューウインドウに撮影画像を割り当て、アノテーション38a及び文書を重ね合わせて表示する。
【選択図】 図6

Description

本発明は、対象物を撮影した実物情報及び文書等の電子情報を統合的に管理する情報共有支援システム、情報処理装置及び制御プログラムに関する。
従来より、対象物の任意の位置を遠隔地から容易かつ正確に指示する技術(例えば、特許文献1参照)、表示部の表示領域に注釈メッセージと議論の焦点を共有するために描画した透明ボードを直接かぶせる技術(例えば、特許文献2参照)、コンピュータ画面へ実物のイメージ画像を表示し、その作業箇所へ印を表示する技術(例えば、特許文献2参照)などが知られている。
上記特許文献1では、複数のPC間で対象物の任意の位置を指示し、その情報は複数のPC間で共有できる。但し、対象物の点(ポインティング)で指示する技術である。上記特許文献2は、いわゆるレイヤー構造を開示し、文書、図形等に書込情報を重ねたりして、複数のPCで情報の共有を図る。上記特許文献3は、PC上で実物のイメージと作業箇所の印の情報を融合している。
特許2002−315065号公報 特許平08−036546号公報 特許平10−269292号公報
しかしながら、上記特許文献1〜3の技術では、実物の撮影画像を表示する第1レイヤーとそれ以外の第2レイヤーとをまたぐように記載されるアノテーションを分離することや、実物及び実物上に投影したアノテーションの一部を撮影し、第1レイヤーに表示することで、第1レイヤー上のアノテーションが透過的に表示され、第1レイヤー上のアノテーションと第2レイヤー上のアノテーションが連続的に表示されることが実現できなかった。
本発明は、かかる点に鑑みてなされたものであり、その目的は、対象物(実物)と文書との対応関係をユーザが容易に認識することができる情報共有支援システム、情報処理装置及び制御プログラムを提供することにある。
上記目的を達成するため、請求項1に記載の情報共有支援システムは、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される第1の情報処理装置と、第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、前記第2の注釈画像を前記投影装置に送信する送信手段と、前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備える第2の情報処理装置とを有することを特徴とする。
請求項2に記載の情報共有支援システムは、請求項1に記載の情報共有支援システムにおいて、前記第1の情報処理装置または前記第2の情報処理装置が、前記第2の注釈画像の座標情報を前記投影装置の投影領域の座標情報に変換する変換手段を備え、前記送信手段は、前記撮影画像上における前記第2の注釈画像の座標情報を前記変換手段に送信し、前記変換手段は、変換された座標情報を前記投影装置に送信することを特徴とする。
請求項3に記載の情報共有支援システムは、請求項1又は2に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記第4の層に描画される文書及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士を注釈画像で連結する連結手段とを備えることを特徴とする。
請求項4に記載の情報共有支援システムは、請求項1乃至3のいずれか1項に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記対象物の属性情報と、前記撮像装置及び前記投影装置の属性情報を取得する取得手段と、前記表示手段に表示されるデータ、前記第2の層の属性情報、前記文書の属性情報、前記対象物の属性情報、並びに前記撮像装置及び前記投影装置の属性情報を関連付けて記憶する記憶手段と、前記第2の層の属性情報、前記文書の属性情報、前記対象物の属性情報、並びに前記撮像装置及び前記投影装置の属性情報のうち、少なくともいずれか1つの属性情報に基づいて前記表示手段に表示されるデータを検索する検索手段とを備えることを特徴とする。
請求項5に記載の情報共有支援システムは、請求項1乃至4のいずれか1項に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記表示手段による第2の層の可視又は不可視を設定する設定手段を備えることを特徴とする。
請求項6に記載の情報共有支援システムは、請求項1乃至5のいずれか1項に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させる一致手段を備え、前記第1の情報処理装置は、前記対象物又は前記投影領域に書き込まれた書込情報を前記第3の注釈画像として検出する検出手段と、当該検出手段で検出された前記第3の注釈画像としての書込情報を前記第2の情報処理装置に出力する出力手段とを備え、前記一致手段により前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させた状態で、前記表示手段は前記書込情報を前記第3の層に表示することを特徴とする。
請求項7に記載の情報共有支援システムは、請求項6に記載の情報共有支援システムにおいて、前記検出手段は、前記撮影装置により撮影された、連続する撮影画像の差分を抽出し、当該抽出結果から前記連続する撮影画像に含まれる第2の注釈画像を除去することにより、前記対象物又は前記投影領域に書き込まれた書込情報を検出することを特徴とする。
請求項8に記載の情報共有支援システムは、請求項1に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させる一致手段を備え、前記一致手段により前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させた状態で、前記送信手段は、前記第3の層に描画された第3の注釈画像及び前記第4の層に描画された文書を前記投影装置に送信することを特徴とする。
請求項9に記載の情報共有支援システムは、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される第1の情報処理装置と、 第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段と、前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段とを備える第2の情報処理装置と有し、前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする。
請求項10に記載の情報共有支援システムは、請求項9に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記投影装置により前記部分画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備えることを特徴とする。
請求項11に記載の情報共有支援システムは、請求項9又は10に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記部分画像及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士が重なりあうように、前記部分画像の位置を補正する補正手段とを備えることを特徴とする。
請求項12に記載の情報共有支援システムは、請求項9又は10に記載の情報共有支援システムにおいて、前記第2の情報処理装置は、前記部分画像及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士を注釈画像で連結する連結手段とを備え、前記送信手段は、前記部分画像、当該部分画像の座標情報及び当該注釈画像の座標情報を前記投影装置に送信し、前記投影装置は、前記部分画像及び注釈画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像及び前記注釈画像を投影することを特徴とする。
請求項13に記載の情報処理装置は、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続される情報処理装置であって、 第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、前記第2の注釈画像を前記投影装置に送信する送信手段と、前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備えることを特徴とする。
請求項14に記載の情報処理装置は、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続される情報処理装置であって、 第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段と、前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段とを備え、前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする。
請求項15に記載の制御プログラムは、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続されるコンピュータを、第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段、前記第2の注釈画像を前記投影装置に送信する送信手段、前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段、及び前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段として機能させることを特徴とする。
請求項16に記載の制御プログラムは、対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続されるコンピュータを、第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段、前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段、及び前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段として機能させ、前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする。
請求項1,13,15の発明によれば、第2の層〜第4の層が重ね合わせて表示されるので、第2の情報処理装置のユーザは、対象物と文書とを繋ぐ注釈画像が連続かつ透過的に表示され、対象物と文書との対応関係を容易に認識することができる。
請求項2の発明によれば、第2の注釈画像を、対象物を含む投影領域に正確な位置で投影することができる。
請求項3の発明によれば、表示手段を観るユーザが、撮影画像として表示される実際の対象物と文書との対応関係を容易に判断することができる。
請求項4の発明によれば、各種の属性情報に基づいて表示手段に表示されるデータの検索を実行することができる。
請求項5の発明によれば、第2の層を不可視に設定することができ、第2の情報処理装置のユーザは、撮影画像を表示する第2の層の存在を意識せずに、第2の層に書き込んだ第2の注釈画像を、対象物を含む投影領域に自動的に投影することができる。
請求項6の発明によれば、対象物又は投影領域に書き込まれた書込情報を表示手段の該当箇所に反映することができる。
請求項7の発明によれば、対象物又は投影領域に書き込まれた書込情報を精度良く検出することができる。
請求項8の発明によれば、投影領域と表示手段における表示領域で共通の情報(第3の注釈画像及び文書)を表示できる。
請求項9,14,16の発明によれば、投影領域側にいるユーザは、部分画像を閲覧することができ、対象物と文書との対応関係を容易に認識することができる。
請求項10の発明によれば、第2の情報処理装置のユーザは、対象物を含む投影領域に部分画像がどのように投影されているかを確認することができる。
請求項11の発明によれば、投影領域側にいるユーザは、部分画像と対象物と重ね合わせて観ることができ、これらの差違を認識することができる。
請求項12の発明によれば、投影領域側にいるユーザは、実際の対象物と文書との対応関係を容易に判断することができる。
以下、図面を参照しながら本発明の実施の形態を説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る情報共有支援システムの構成を示すブロック図である。
図1の情報共有支援システム100は、遠隔指示システム150及び電子情報共有システム151を備え、ネットワーク5を介して互いに接続されている。
遠隔指示システム150は、サーバとして機能するパーソナルコンピュータ(PC)1(第1の情報処理装置、外部装置)、クライアントとして機能するPC2を備えており、これらは、ネットワーク5を介して互いに接続されている。PC1には、プロジェクタ10(投影装置)及びビデオカメラ11(撮影装置)が接続されている。プロジェクタ10は、PC1からの制御コマンドに基づいて、テーブル15上に載置された対象物14に対して、ハーフミラー12を介して単なる光線を照射する又はアノテーション画像等を投影する。ビデオカメラ11は、対象物14を含むテーブル15の反射画像をハーフミラー12を介して撮影し、撮影画像をPC1に出力する。
PC1は、撮影画像をPC2に出力すると共に、ネットワーク5を介して電子情報共有システム151に出力する。PC2は、表示部205に接続されており、表示部205は、表示領域210及びユーザインターフェース(UI)16を表示する。尚、PC2は、表示部205を備える一体型のパーソナルコンピュータで構成してもよい。
UI16は、ペン、テキスト、及び消去などのボタン群と、線種などを含む。表示領域210は、ビデオカメラ11で撮影された撮影画像が表示される。同図においては、表示領域210に対象物14を含むテーブル15を上方から撮影した画像が表示されている。また、例えば、UI16のペンボタンが押下されて、表示領域210内の対象物14上に図形等が記載されると、当該図形の情報はPC2からPC1を介してプロジェクタ10に出力される。プロジェクタ10は当該図形の情報に基づいて対象物14上に図形を描く。
また、PC2では、例えば表示領域210内に表示される対象物14の一部の範囲を選択する、即ち、対象物14の全体図から一部の範囲を選択すると、後述するPC2の制御部201は、少なくとも1つの対象物14の部分拡大図を自動的に作成し、全体図内の選択された一部の範囲と自動作成された部分拡大図とをアノテーションで連結する。PC2が、アノテーションで連結された全体図及び部分拡大図の情報をプロジェクタ10に送信すると、テーブル15上に全体図、部分拡大図及び両者を連結するアノテーションを投影することができる。
また、PC2は、PC1に対して制御コマンドを出力し、プロジェクタ10及びビデオカメラ11の動作(例えば、ビデオカメラ11の撮影角度やプロジェクタ10の明るさなど)を制御することができる。
電子情報共有システム151は、PC3(第2の情報処理装置)及びPC4を備え、ネットワーク5を介して互いに接続されている。PC3は、表示部305(表示手段)に接続されている。表示部305の表示領域310は、ビデオカメラ11で撮影された撮影画像の全部又は一部を表示する実物ビューウインドウ311及び文字、図形、静止画像などを表示する文書領域312を含む。PC3は、ビデオカメラ11で撮影された撮影画像をPC1から受信し、表示部305の実物ビューウインドウ311に出力する。PC4は、表示部405に接続されている。表示部405の表示領域410は、ビデオカメラ11で撮影された撮影画像の全部又は一部を表示する実物ビューウインドウ411及び文字、図形、又は静止画像などを含む文書を表示する文書領域412を含む。PC4は、ビデオカメラ11で撮影された撮影画像をPC1から受信し、表示部405の実物ビューウインドウ411に出力する。実物ビューウインドウ311、411は、後述するように表示領域310,410に表示されるデータを構成するレイヤーとしての機能を有する。
PC3及びPC4は、互いに情報を共有する機能を備え、リアルタイムで同一の情報をそれぞれの表示部に表示することができる。
尚、PC3,4も、それぞれ表示部305,405を備える一体型のパーソナルコンピュータで構成してもよい。
図2は、PC1〜4の機能構成を示す図である。
PC1は、装置全体を制御すると共にプロジェクタ10及びビデオカメラ11の動作を制御する制御部101(出力手段)と、ネットワーク5を介して他のPCと情報やデータの送受信を行う送受信部102(出力手段)と、制御プログラム、データ及び情報等を記憶する記憶部104と、バーコードリーダ又はRFIDタグリーダなどで構成される入力部105とを備えている。入力部105は、対象物14に付されたバーコード又はRFIDタグから対象物14の識別情報(例えばID)を読み取るために使用される。制御部101は、プロジェクタ10、ビデオカメラ11、送受信部102、記憶部104及び入力部105に接続されている。
PC2は、装置全体を制御する制御部201と、ネットワーク5を介して他のPCと情報やデータの送受信を行う送受信部202と、マウスやキーボードなどで構成される操作部203と、制御プログラム、データ及び情報等を記憶する記憶部204と、表示部205とを備えている。制御部201は、送受信部202、操作部203、記憶部204及び表示部205に接続されている。
PC3,4は、PCと同様に、それぞれ、制御部301,401(入力手段、送信手段、受信手段、変換手段、抽出手段、マッチング手段、連結手段、取得手段、検索手段、設定手段、一致手段、貼付手段)、送受信部302,402(送信手段、受信手段、取得手段)、操作部303,403(入力手段、貼付手段)、記憶部304,404(記憶手段)、及び表示部305,405(表示手段)を備えている。制御部301は、送受信部302、操作部303、記憶部304及び表示部305に接続され、制御部401は、送受信部402、操作部403、記憶部404及び表示部405に接続されている。
PC1〜4は、各々が備える送受信部及びネットワーク5を介して互いに接続されている。
図3は、PC3のハードウエア構成を示すブロック図である。
PC3は、装置全体を制御するCPU21、制御プログラムを備えるROM22、ワーキングエリアとして機能するRAM23、各種の情報やプログラムを備えるハードディスクドライブ(HDD)24、マウス及びキーボード25、他のコンピュータと接続するためのネットワークインタフェース26、及び液晶モニタ又はCRTで構成されるディスプレイ27を備えている。CPU21はシステムバス28を介してROM22、RAM23、ハードディスクドライブ(HDD)24、マウス及びキーボード25、ネットワークインタフェース26、及びディスプレイ27と接続されている。
尚、PC2,4は、PC3と同様の構成を備えるので、その説明は省略する。PC1は、PC3の構成から、マウス及びキーボード25、並びにディスプレイ27を除外し、バーコードリーダ又はRFIDタグリーダを備える構成であるが、マウス及びキーボード25、並びにディスプレイ27を備えていてもよい。
制御部301は、制御プログラムに従って各種の処理を実行するCPU21に相当する。送受信部302は、ネットワークインタフェース26に相当し、操作部303は、マウス及びキーボード25に相当する。記憶部304は、ハードディスクドライブ(HDD)24に相当し、表示部305は、ディスプレイ27に相当する。
図4は、表示部305の表示領域310に表示されるデータの構造を模式的に示す図である。
PC3の制御部301は、送受信部302及びネットワーク5を介してPC1からビデオカメラ11で撮影された撮影画像30を取得し、レイヤーとしての機能を有する実物ビューウインドウ311(第2の層)に当該撮影画像30の一部を表示する。実物ビューウインドウ311は、そのサイズや位置(表示領域310内での位置)を操作部303(例えばマウス)の操作により変更することができる。また、制御部301は、実物ビューウインドウ311に表示されている画像の撮影画像30上における位置及び当該実物ビューウインドウ311に表示されている画像の大きさに関する情報を記憶部304に保存する。より具体的には、制御部301は、撮影画像30の座標情報を基準とした、実物ビューウインドウ311に表示されている画像の座標情報及び当該座標情報から求まる画像の大きさの情報を記憶部304に保存する。また、制御部301は、実物ビューウインドウ311に表示されている画像のスケール(縮尺)も変更可能である。
制御部301は、イベント受信用ウインドウ35(第1の層)、ストローク描画レイヤー36(第3の層)、実物ビューウインドウ311及び文書画像レイヤー37(第4の層)を重ね合わせて、表示部305の表示領域310に表示されるデータを作成し、表示部305に出力する。尚、イベント受信用ウインドウ35、ストローク描画レイヤー36、及び文書画像レイヤー37は、通常透明に設定されているが、操作部303の操作によりレイヤーに色付けをすることも可能である。
制御部301は、操作部303を介してアノテーションや文書などを記載するイベントが生じたときに、イベント受信用ウインドウ35に当該イベントを入力する。イベント受信用ウインドウ35は、当該イベントを受信する。同図において、イベント受信用ウインドウ35は、アノテーション38(第1の注釈画像)のイベントを受信している。
制御部301は、操作部303を介して実物ビューウインドウ311以外の範囲に記載されたアノテーションをストローク描画レイヤー36に入力する。ストローク描画レイヤー36は、実物ビューウインドウ311以外の範囲に記載されたアノテーションを描画する。同図において、ストローク描画レイヤー36は、アノテーション38の一部であり、実物ビューウインドウ311以外の範囲に記載されたアノテーション38a(第3の注釈画像)を描画する。
制御部301は、操作部303を介して実物ビューウインドウ311の範囲に記載されたアノテーションを実物ビューウインドウ311に入力する。実物ビューウインドウ311は、実物ビューウインドウ311の範囲に記載されたアノテーションを描画すると共に、撮影画像30の一部を表示する。同図において、実物ビューウインドウ311は、アノテーション38の一部であり、実物ビューウインドウ311の範囲に記載されたアノテーション38b(第2の注釈画像)を描画する。
アノテーション38bが実物ビューウインドウ311の範囲に記載されると、制御部301は、撮影画像30上におけるアノテーション38bの座標情報をPC1に送信する。PC1は、当該座標情報及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上にアノテーション38bを投影する。尚、PC1の制御部101は、撮影画像30上におけるアノテーション38bの座標情報をプロジェクタ10の投影領域の座標情報に変換する処理を行い、変換後のアノテーション38bの座標情報をプロジェクタ10に送信する。これは、撮影画像30上におけるアノテーション38bをプロジェクタ10で正確な位置に投影させるためである。
尚、PC3の制御部301が、撮影画像30上におけるアノテーション38bの座標情報をプロジェクタ10の投影領域の座標情報に変換する処理を行い、変換後のアノテーション38bの座標情報をPC1を介してプロジェクタ10に送信するようにしてもよい。
ビデオカメラ11は、このアノテーション38bが投影された対象物14を含むテーブル15の撮影画像をPC1及びナットワーク5を介してPC3の制御部301に逐次出力する(例えば、0.5秒毎に出力する)。制御部301がこの撮影画像を受信することで、実物ビューウインドウ311にアノテーション38bが描画される。
制御部301は、操作部303を介して文書を文書画像レイヤー37に入力する。文書画像レイヤー37は、操作部303を介して記載された文書を描画する。
このように、表示部305の表示領域310に表示されるデータは、個別にアノテーションの範囲を指定可能なレイヤーを複数重ね合わす構造を持つことにより、連続かつ透過的なアノテーションを実現している。
図5は、実際に表示部305の表示領域310に表示されるデータの例を示す図である。
同図において、文書領域312には、複合機の設計図、複合機の操作ボタン等の説明及びアノテーション38の一部であるアノテーション38aが表示されており、実物ビューウインドウ311には、実際にアノテーション38bが投影された複合機の撮影画像が表示されている。
図6は、表示部305の表示領域310に表示されるデータの作成処理を示すフローチャートである。
まず、PC3の制御部301は、初期化処理を実行する(ステップS1)。この初期化処理は、(1)文書画像レイヤー37を全画面表示する(即ち、文書領域312に文書を表示する)、(2)実物ビューウインドウ311を表示する、(3)ストローク描画レイヤー36を全画面表示する、(4)イベント受信用ウインドウ35を全画面表示する、の4つの処理を含む。
次に、制御部301は、操作部303からのイベント(操作)の入力を受け付ける(ステップS2)。制御部301は、本データの作成処理が開始されると、操作部303からの指示や書き込みなどのイベント(操作)の入力を常時受け付ける(ステップS3)。
次いで、制御部301は、操作部303からのイベント(操作)の入力が終了したか否かを判別する(ステップS4)。ステップS4でYESの場合には、本データの作成処理を終了する。一方、ステップS4でNOの場合には、制御部301は、アノテーションが実物ビューウインドウ311の範囲内に記載されたか否かを判別する(ステップS5)。具体的には、制御部301は、実物ビューウインドウ311の4角の座標情報で規定される領域にアノテーションの座標情報が含まれる場合に、アノテーションが実物ビューウインドウ311の範囲内に記載されたと判別する。
ステップS5でNOの場合には、制御部301は、ストローク描画レイヤー36にアノテーションを描画し(ステップS6)、ステップS2に戻る。これにより、ストローク描画レイヤー36は、実物ビューウインドウ311以外の範囲に記載されたアノテーションを描画する。
一方、ステップS5でYESの場合には、制御部301は、送受信部302を介して、実物ビューウインドウ311の範囲に記載されたアノテーションの、撮影画像30上における座標情報をPC1に送信し(ステップS7)、ステップS2に戻る。
続いて、PC1、プロジェクタ10、ビデオカメラ11で実行される処理を説明する。
まず、PC1の制御部101は、初期化処理を実行すると共に入力部105により読み取られた対象物14の識別情報(例えばID)を記憶部104に記憶する(ステップS8)。ここでの初期化処理は、プロジェクタ10及びビデオカメラ11へ制御コマンドを出力し、プロジェクタ10の投影及びビデオカメラ11での撮影画像の出力などがある。尚、ステップS8の処理は、PC3側の処理とは独立して実行される。
次いで、制御部101は、ネットワーク5及び送受信部102を介してPC3からアノテーションの、撮影画像30上における座標情報の入力を受け付ける(ステップS9)。制御部101は、本データの作成処理が開始されると、PC2からの指示や書き込みなどのイベント(操作)の入力も常時受け付ける(ステップS10)。
次に、制御部101は、アノテーションの、撮影画像30上における座標情報の入力が終了したか否かを判別する(ステップS11)。
ステップS11でYESの場合には、データの作成処理を終了する。一方、ステップS11でNOの場合には、制御部101は、当該座標情報をプロジェクタ10用の座標情報に変換し、当該変換後の座標情報及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上に当該変換後の座標情報に対応するアノテーションを投影する(ステップS12)。ビデオカメラ11は、このアノテーションが投影された対象物14を含むテーブル15の撮影画像をPC1、ネットワーク5、及び送受信部302を介してPC3の制御部301に出力し、制御部101は、記憶部104に記憶された対象物14の識別情報をPC3の制御部301に出力する(ステップS13)。
制御部301は、この撮影画像を受信し、実物ビューウインドウ311の表示を更新する(ステップS14)。これにより、実物ビューウインドウ311に対象物14を含むテーブル15と共にアノテーションが表示される。尚、ステップS14の表示の更新は逐次実行される。また、制御部301は、PC1から対象物14の識別情報を取得し、記憶部304に保存する(ステップS15)。
本実施の形態において、制御部301は、文書画像レイヤー37に記載された文書(文字、図形、静止画像を含む)及び実物ビューウインドウ311内の撮影画像の特徴点をそれぞれ抽出し、抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士をアノテーションで連結するようにしてもよい。この連結されたアノテーションのうち、実物ビューウインドウ311以外の範囲に記載されるアノテーションの部分は、ストローク描画レイヤー36に描画され、実物ビューウインドウ311の範囲に記載されるアノテーションの部分は、上述した図6のフローチャートに従って、プロジェクタ10の投影処理及びビデオカメラ11の撮影処理を介して実物ビューウインドウ311に描画される。
これにより、PC3の表示部305を観るユーザは、撮影画像として表示される実際の対象物14と文書との対応関係を容易に判断することができる。
また、制御部301は、ビデオカメラ11から撮影画像を受信する際に、PC1からプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)を受信して記憶部304に記憶するようにしてもよい。
制御部301は、表示部305の表示領域310に表示されるデータを記憶部304に保存する際には、記憶部304は、アノテーション(座標情報を含む)、実物ビューウインドウ311内の撮影画像、及び文書のメイン情報を記憶する他に、実物ビューウインドウ311の属性情報(位置、範囲)、文書の属性情報(該当する文書ID、ページ番号、文書の表示範囲、文書の表示位置を含む)、対象物の属性情報(対象物の識別情報(ID))、及びプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)をメイン情報に関連付けて記憶するようにしてもよい。
これにより、制御部301は、対象物の識別情報等の属性情報に基づいて表示部305の表示領域310に表示されるデータの検索を実行することができる。また、制御部301は、記憶部304に保存された当該データを表示部305の表示領域310に表示させることができる。
以上詳細に説明したように、本実施の形態によれば、制御部301が、操作部303を介して、アノテーション38の描画操作をイベント受信用ウインドウ35に入力し、ビデオカメラ11により撮影された、アノテーション38の一部分であるアノテーション38bを実物ビューウインドウ311に入力し、アノテーション38のうちアノテーション38bを除いたアノテーション38aをストローク描画レイヤー36に入力し、文書を文書画像レイヤー37に入力する。そして、制御部301は送受信部302を介してアノテーション38bをプロジェクタ10に送信し、プロジェクタ10によりアノテーション38bが投影された投影領域を撮影した撮影画像をビデオカメラ11から送受信部302を介して受信し、表示部305は、実物ビューウインドウ311に制御部301で受信された撮影画像を割り当て、ストローク描画レイヤー36におけるアノテーション38a及び文書画像レイヤー37における文書を重ね合わせて表示する。
このように、表示部305では、実物ビューウインドウ311、ストローク描画レイヤー36、及び文書画像レイヤー37が重ね合わせて表示されるので、PC3のユーザは、対象物と文書とを繋ぐアノテーションが連続かつ透過的に表示され、対象物と文書との対応関係を容易に認識することができる。また、アノテーション38b及びアノテーション38aにより連続かつ透過的なアノテーション38を実現することができる。
また、制御部301は、送受信部302を介して、撮影画像30上におけるアノテーション38bの座標情報をPC1の制御部101に送信し、当該制御部101は、アノテーション38bの座標情報をプロジェクタ10の投影領域の座標情報に変換し、変換された座標情報をプロジェクタ10に送信するので、アノテーション38bを、対象物14を含む投影領域に正確な位置で投影することができる。
さらに、制御部301は、文書画像レイヤー37に描画される文書及び実物ビューウインドウ311に表示される撮影画像の特徴点をそれぞれ抽出し、当該抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士をアノテーションで連結するので、PC3の表示部305を観るユーザは、撮影画像として表示される実際の対象物と文書との対応関係を容易に判断することができる。
さらにまた、制御部301は、対象物14の属性情報と、プロジェクタ10及びビデオカメラ11の属性情報とを取得し、記憶部304は、表示部305に表示されるデータ、実物ビューウインドウ311の属性情報、文書の属性情報、対象物の属性情報、並びにプロジェクタ10及びビデオカメラ11の属性情報を関連付けて記憶し、制御部301は、実物ビューウインドウ311の属性情報、文書の属性情報、対象物の属性情報、並びにプロジェクタ10及びビデオカメラ11の属性情報のうち、少なくともいずれか1つの属性情報に基づいて表示部305に表示されるデータを検索する。よって、各種の属性情報に基づいて表示部305に表示されるデータの検索を実行することができる。
(第2の実施の形態)
以下、第2の実施の形態について図面を参照しながら説明する。
本実施の形態では、文書領域312に記載されている文書(例えば、図面)を実物ビューウインドウ311にドラッグ&ドロップすることで、プロジェクタ10が対象物14を含むテーブル15上に当該文書を投影する。
尚、本実施の形態では、上記情報共有支援システム100と同様の構成を使用するため、その説明は省略する。
図7は、表示部305の表示領域310に表示されるデータの例を示す図である。この例では対象物14は複写機の操作パネルである。
同図において、文書領域312には、複写機の操作パネルの一部の構成図、複写機のボタンの説明が表示されており、実物ビューウインドウ311には、複写機の操作パネルの撮影画像が表示されている。
ここで、図7において、ユーザは、操作部303を介して、文書領域312に記載されている文書(ここでは、複写機の操作パネルの一部の構成図)の部分画像315を選択し、当該選択された部分画像315を実物ビューウインドウ311内にドラッグ&ドロップすることができる。
図8は、文書領域312内の部分画像をプロジェクタ10で対象物14を含むテーブル15上に投影する処理を示すフローチャートである。
まず、制御部301は、操作部303からのイベントを受け付け(ステップS101)、文書領域312内で部分画像の範囲が指定されているか否かを判別する(ステップS102)。ステップS102でNOの場合には、制御部301は、ストローク描画レイヤー36に部分画像を指定するための矩形を描くドラッグ&ドロップが終了したか否かを判別する(ステップS103)。尚、部分画像を指定するための範囲の形状は、矩形に限定されるものではなく、例えば、円形でも楕円形でもよい。
ステップS103でNOの場合には、制御部301は、ストローク描画レイヤー36に部分画像を指定するための矩形を描くことを継続し(ステップS104)、ステップS102に戻る。一方、ステップS103でYESの場合には、制御部301は、矩形で選択された範囲に対応する文書画像レイヤー37上の文書を使って、部分画像を作成し(ステップS105)、ステップS102に戻る。
上記ステップS102でYESの場合には、制御部301は、部分画像の実物ビューウインドウ311内へのドラッグ&ドロップが終了したか否かを判別する(ステップS106)。ステップS106でNOの場合、即ち、部分画像のドラッグ中の場合には、制御部301は、不図示のマウスカーソルの位置に部分画像のサムネイルを表示し(ステップS107)、ステップS102に戻る。一方、ステップS106でYESの場合には、制御部301は、送受信部302及びネットワーク5を介して、部分画像のデータ及び当該部分画像が貼り付けられた(即ち、ドロップされた)、実物ビューウインドウ311内の撮影画像30における座標情報をPC1に送信し(ステップS108)、ステップS102に戻る。
続いて、PC1、プロジェクタ10、ビデオカメラ11で実行される処理を説明する。
まず、PC1の制御部101は、初期化処理を実行すると共に入力部105により読み取られた対象物14の識別情報(例えばID)を記憶部104に記憶する(ステップS109)。ここでの初期化処理は、プロジェクタ10及びビデオカメラ11へ制御コマンドを出力し、プロジェクタ10の投影及びビデオカメラ11での撮影画像の出力などがある。尚、ステップS109の処理は、PC3側の処理とは独立して実行される。
次いで、制御部101は、ネットワーク5及び送受信部102を介してPC3から部分画像のデータ及び当該部分画像が貼り付けられた(即ち、ドロップされた)、実物ビューウインドウ311内の撮影画像30における座標情報の入力を受け付ける(ステップS110)。制御部101は、本処理が開始されると、PC2からの指示や書き込みなどのイベント(操作)の入力も常時受け付ける(ステップS111)。
次に、制御部101は、上記部分画像のデータ及び座標情報の入力が終了したか否かを判別する(ステップS112)。
ステップS112でYESの場合には、本処理を終了する。一方、ステップS112でNOの場合には、制御部101は、当該部分画像の座標情報をプロジェクタ10用の座標情報に変換し、当該変換後の座標情報、部分画像のデータ及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上に当該変換後の座標情報に対応する部分画像を投影する(ステップS113)。ビデオカメラ11は、この部分画像が投影された対象物14を含むテーブル15の撮影画像をPC1、ネットワーク5、及び送受信部302を介してPC3の制御部301に出力し、制御部101は、記憶部104に記憶された対象物14の識別情報をPC3の制御部301に出力する(ステップS114)。
制御部301は、この撮影画像を受信し、実物ビューウインドウ311の表示を更新する(ステップS115)。これにより、実物ビューウインドウ311に、部分画像が投影された、対象物14を含むテーブル15が表示される。尚、ステップS115の表示の更新は逐次実行される。また、制御部301は、PC1から対象物14の識別情報を取得し、記憶部304に保存する(ステップS116)。
図9に、図8の処理に従って、プロジェクタ10が対象物14(複写機の操作パネル)を含むテーブル15へ部分画像315を投影した例を示す。図9(A)は、対象物14に重ならないように部分画像315を投影した例を示し、図9(B)は、対象物14に重なるように部分画像315を投影した例を示す。
図10は、図8の変形例を示すフローチャートである。尚、図8と同一の処理を実行する場合には、同一のステップ番号を付し、その説明を省略する。
まず、制御部301は、操作部303からのユーザの入力に応じて、部分画像315を実物ビューウインドウ311内の撮影画像の対応箇所に重ね合わせる、又は実物ビューウインドウ311内に貼り付けられた部分画像315(この部分画像315はプロジェクタ10により対象物14を含むテーブル15上に投影される)と実物ビューウインドウ311内の撮影画像の対応箇所とをアノテーションで連結する、のいずれかの設定を行い(ステップS120)、ステップS101に進む。
ステップS6でYESの場合には、制御部301は、実物ビューウインドウ311内に貼り付けられた部分画像315及び実物ビューウインドウ311内の撮影画像の特徴点をそれぞれ抽出し、抽出された特徴点同士のマッチング処理を行う(ステップS121)。
次いで、制御部301は、ステップS120での設定が、部分画像315の撮影画像の対応箇所への重ね合わせであるか、又は部分画像315と撮影画像の対応箇所との連結であるかを判別する(ステップS122)。
ステップS120での設定が、部分画像315の撮影画像の対応箇所への重ね合わせである場合には、制御部301は、マッチング処理により対応関係を持つ特徴点同士が重なりあうように、部分画像の貼り付け位置を補正し、送受信部302及びネットワーク5を介して、部分画像のデータ及び貼り付け位置の補正がなされている部分画像が貼り付けられた、実物ビューウインドウ311内の撮影画像30における座標情報をPC1に送信し(ステップS123)、ステップS102に戻る。
ステップS120での設定が、部分画像315と撮影画像の対応箇所との連結である場合には、制御部301は、送受信部302及びネットワーク5を介して、部分画像のデータ、実物ビューウインドウ311内の撮影画像30における座標情報で且つ前記撮影画像の対応箇所と重ならない範囲で任意に選択される座標情報(好ましくは、テーブル15上の空いた領域に対応する座標情報)、及び部分画像315と撮影画像の対応箇所とを連結するアノテーションの座標情報(即ち、両者の対応関係のある特徴点の少なくとも1組を連結するアノテーションの座標情報)をPC1に送信し(ステップS124)、ステップS102に戻る。
ステップS120での設定が、部分画像315の撮影画像の対応箇所への重ね合わせである場合には、ステップS113では、上述した図8のステップS113と同様の処理が実行される。
一方、ステップS120での設定が、部分画像315と撮影画像の対応箇所との連結である場合には、ステップS113では、制御部101は、上記任意に選択される座標情報をプロジェクタ10用の座標情報に変換し、当該変換後の座標情報、部分画像のデータ、アノテーションの座標情報及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上に当該変換後の座標情報に対応する部分画像とアノテーションを投影する。
図11に、図10の処理に従って、プロジェクタ10が対象物14(複写機の操作パネル)を含むテーブル15へ部分画像315を投影した例を示す。図11(A)は、部分画像315を撮影画像の対応箇所への重ね合わせる設定により、対象物14に重なるように部分画像315を投影した例を示す。図11(B)は、部分画像315と撮影画像の対応箇所とを連結する設定により、対象物14の対応箇所にアノテーションで連結されている部分画像315を投影した例を示す。
本実施の形態において、制御部301は、ビデオカメラ11から撮影画像を受信する際に、PC1からプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)を受信して記憶部304に記憶するようにしてもよい。
制御部301は、表示部305の表示領域310に表示されるデータを記憶部304に保存する際には、記憶部304は、部分画像(座標情報を含む)、アノテーション(座標情報を含む)、実物ビューウインドウ311内の撮影画像、及び文書のメイン情報を記憶する他に、実物ビューウインドウ311の属性情報(位置、範囲)、文書の属性情報(該当する文書ID、ページ番号、文書の表示範囲、文書の表示位置を含む)、対象物の属性情報(対象物の識別情報(ID))、及びプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)をメイン情報に関連付けて記憶するようにしてもよい。
これにより、制御部301は、対象物の識別情報等の属性情報に基づいて表示部305の表示領域310に表示されるデータの検索を実行することができる。また、制御部301は、記憶部304に保存された当該データを表示部305の表示領域310に表示させることができる。
以上詳細に説明したように、本実施の形態によれば、制御部301が、操作部303を介して、アノテーション38の描画操作をイベント受信用ウインドウ35に入力し、ビデオカメラ11により撮影された、アノテーション38の一部分であるアノテーション38bを実物ビューウインドウ311に入力し、アノテーション38のうちアノテーション38bを除いたアノテーション38aをストローク描画レイヤー36に入力し、文書を文書画像レイヤー37に入力する。そして、制御部301は、文書の一部を部分画像として選択し、実物ビューウインドウ311に貼り付け、送受信部302を介して当該部分画像及び当該部分画像の座標情報をプロジェクタ10に送信し、プロジェクタ10は当該部分画像の座標情報に基づいて、対象物14を含む投影領域に部分画像を投影する。
よって、投影領域側にいるユーザは、部分画像を閲覧することができ、対象物14と文書との対応関係を認識することができる。特に、実物ビューウインドウ311において、部分画像が対象物14と重なるように貼り付けられた場合、投影領域側にいるユーザは、部分画像と対象物14との差違を認識することができる。また、PC3のユーザは、実物ビューウインドウ311に表示される撮影画像を観て、対象物14の位置等を考慮しつつ、部分画像(即ち、文書の一部)を投影する位置を決定することができる。
なお、部分画像としては、ピクチャ画像のように視覚的にレンダリングできるものに限らず、音声、ビデオのようなマルチメディア情報も適用できる。
また、制御部301が、プロジェクタ10により部分画像が投影された投影領域を撮影した撮影画像をビデオカメラ11から送受信部302を介して受信し、表示部305は、実物ビューウインドウ311に制御部301で受信された撮影画像を割り当て、ストローク描画レイヤー36におけるアノテーション38a及び文書画像レイヤー37における文書を重ね合わせて表示する。よって、PC3のユーザは、対象物14を含む投影領域に部分画像がどのように投影されているかを確認することができる。
さらに、制御部301は、部分画像及び実物ビューウインドウ311に表示される撮影画像の特徴点をそれぞれ抽出し、当該抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士が重なりあうように、部分画像の位置を補正するので、部分画像を撮影画像に含まれる対応箇所に精度よく重ね合わせることができる。結果として、投影領域側にいるユーザは、部分画像と対象物14と重ね合わせて観ることができ、これらの差違を認識することができる。
さらにまた、制御部301は、部分画像及び実物ビューウインドウ311に表示される撮影画像の特徴点をそれぞれ抽出し、当該抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士をアノテーションで連結し、部分画像、当該部分画像の座標情報及び当該アノテーションの座標情報を送受信部302を介してプロジェクタ10に送信し、プロジェクタ10は、部分画像及びアノテーションの座標情報に基づいて、対象物14を含む投影領域に部分画像及びアノテーションを投影する。よって、投影領域側にいるユーザは、実際の対象物と文書との対応関係を容易に判断することができる。さらに、マッチング処理としては、本実施の形態に記載の方法に限らず、SIFT等の周知のマッチング方法を採用することが可能である。
(第3の実施の形態)
以下、第3の実施の形態について図面を参照しながら説明する。
本実施の形態では、実物ビューウインドウ311の可視又は不可視の設定をすることができる。また、PC2のUI16を使って、表示部205の表示領域210に書き込まれた情報又はペン等を利用して、直接、対象物14又はテーブル15上に書き込まれた情報をPC3のストローク描画レイヤー36に反映させる。
尚、本実施の形態では、上記情報共有支援システム100と同様の構成を使用するため、その説明は省略する。
図12は、表示部305の表示領域310に表示されるデータの作成処理を示すフローチャートである。
PC3の制御部301は、初期化処理を実行する(ステップS201)。この初期化処理は、(1)文書画像レイヤー37を全画面表示する(即ち、文書領域312に文書を表示する)、(2)実物ビューウインドウ311を表示する、(3)ストローク描画レイヤー36を全画面表示する、(4)イベント受信用ウインドウ35を全画面表示する、の4つの処理を含む。
次に、制御部301は、実物ビューウインドウ311のキャリブレーションを実行する(ステップS202)。ここで、実物ビューウインドウ311のキャリブレーションとは、実物ビューウインドウ311に表示されるデータのスケール(縮尺)と文書領域312に記載されている文書(例えば、図面)のスケール(縮尺)とを同一にし、さらに、実物ビューウインドウ311を、文書領域312に記載されている文書(例えば、図面)上の対応箇所に配置することである。これにより、実物ビューウインドウ311に表示されるデータが、文書領域312に記載されている文書(例えば、図面)と連続性を持つように表示される。
また、このキャリブレーションが実行されると、対象物14を含むテーブル15の撮影領域(撮影画像の撮影領域)と表示領域310との大きさ(サイズ)が一致する。
図13は、キャリブレーション実行後の表示領域310の一例を示す図である。この例では、文書領域312に、複写機の操作パネルの図面が記載されており、複写機の表示部500と重なる位置に実物ビューウインドウ311が配置されている。
この場合、対象物14は複写機の操作パネルの実物又は設計図であり、これをビデオカメラ11で撮影した撮影画像が、文書領域312内の複写機の操作パネルの図面と同一スケールで実物ビューウインドウ311内に表示されている。図13に示すように、操作部303を介して複写機の表示部500の外周部に沿って矩形のアノテーションが描画されると、ストローク描画レイヤー36にアノテーション501が描画され、実物ビューウインドウ311内にアノテーション502が表示される。
図14(A)は、複写機の操作パネルの図面と移動前の実物ビューウインドウ311との配置関係を示す図であり、図14(B)は、複写機の操作パネルの図面と移動後の実物ビューウインドウ311との配置関係を示す図である。
制御部301が、実物ビューウインドウ311のキャリブレーションを実行し、複写機の操作パネルの図面と実物ビューウインドウ311内のデータは同一スケールで表示されるので、図14(A)、(B)に示すように、実物ビューウインドウ311が移動されると、制御部301は、撮影画像30上における実物ビューウインドウ311の座標情報を実物ビューウインドウ311の移動量に応じて変更する。
例えば、撮影画像30の領域が、(x、y)座標において、(0,0)、(800,0)、(0,640)、(800,640)であり、移動前の実物ビューウインドウ311の座標情報が(400,200)、(500,200)、(400、400)、(500、400)であり、実物ビューウインドウ311をx方向に100移動させた場合には、制御部301は、移動後の実物ビューウインドウ311の座標情報を(500,200)、(600,200)、(500、400)、(600、400)に設定する。これにより、実物ビューウインドウ311には移動先の撮影画像が表示される。
図12に戻り、制御部301は、操作部303からのイベント(操作)の入力を受け付ける(ステップS203)。制御部301は、本データの作成処理が開始されると、操作部303からの実物ビューウインドウ311の可視又は不可視の指示や書き込みなどのイベント(操作)の入力を常時受け付ける(ステップS204)。
制御部301は、操作部303から実物ビューウインドウ311の可視/不可視のいずれの指示が入力されたかを判別する(ステップS205)。
ステップS205で、操作部303から実物ビューウインドウ311の可視の指示が入力されたと判別された場合には、後述するステップS207に進む。一方、ステップS205で、操作部303から実物ビューウインドウ311の不可視の指示が入力されたと判別された場合には、制御部301は、実物ビューウインドウ311の表示を削除し(ステップS206)、ステップS207に進む。具体的には、制御部301は、実物ビューウインドウ311のレイヤーを非表示に設定する。
次いで、ステップS207において、制御部301は、アノテーションが実物ビューウインドウ311の範囲内に記載されたか否かを判別する。具体的には、制御部301は、実物ビューウインドウ311の4角の座標情報で規定される領域にアノテーションの座標情報が含まれる場合に、アノテーションが実物ビューウインドウ311の範囲内に記載されたと判別する。
ステップS207でNOの場合には、制御部301は、ストローク描画レイヤー36にアノテーションを描画し(ステップS208)、ステップS203に戻る。これにより、ストローク描画レイヤー36は、実物ビューウインドウ311以外の範囲に記載されたアノテーションを描画する。
一方、ステップS207でYESの場合には、制御部301は、送受信部302を介して、実物ビューウインドウ311の範囲に記載されたアノテーションの、撮影画像30上における座標情報をPC1に送信し(ステップS209)、ステップS203に戻る。尚、実物ビューウインドウ311が不可視の場合には、ステップS209で、さらに、実物ビューウインドウ311の範囲に記載されたアノテーションもストローク描画レイヤー36に描画する。
続いて、PC1、プロジェクタ10、ビデオカメラ11で実行される処理を説明する。
まず、PC1の制御部101は、初期化処理を実行すると共に入力部105により読み取られた対象物14の識別情報(例えばID)を記憶部104に記憶する(ステップS210)。ここでの初期化処理は、プロジェクタ10及びビデオカメラ11へ制御コマンドを出力し、プロジェクタ10の投影及びビデオカメラ11での撮影画像の出力などがある。尚、ステップS210の処理は、PC3側の処理とは独立して実行される。
次いで、制御部101は、ネットワーク5及び送受信部102を介してPC3からアノテーションの、撮影画像30上における座標情報の入力を受け付ける(ステップS211)。制御部101は、本データの作成処理が開始されると、PC2からの指示や書き込みなどのイベント(操作)の入力も常時受け付ける(ステップS212)。
次に、制御部101は、当該座標情報をプロジェクタ10用の座標情報に変換し、当該変換後の座標情報及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上に当該変換後の座標情報に対応するアノテーションを投影する(ステップS213)。ビデオカメラ11は、このアノテーションが投影された対象物14を含むテーブル15の撮影画像をPC1、ネットワーク5、及び送受信部302を介してPC3の制御部301に出力し、制御部101は、記憶部104に記憶された対象物14の識別情報をPC3の制御部301に出力する(ステップS215)。
制御部301は、この撮影画像を受信し、実物ビューウインドウ311の表示を更新する(ステップS219)。これにより、実物ビューウインドウ311に対象物14を含むテーブル15と共にアノテーションが表示される。尚、ステップS219の表示の更新は逐次実行される。また、制御部301は、PC1から対象物14の識別情報を取得し、記憶部304に保存する(ステップS220)。
制御部101は、ステップS211で受け付けた、アノテーションの、撮影画像30上における座標情報を記憶部104に記憶する(ステップS214)。また、制御部101は、ステップS215で制御部301に出力される撮影画像(フレーム画像)を記憶部104に記憶する(ステップS216)。ステップS214におけるアノテーションの座標情報の記憶及びステップS215における撮影画像の記憶は、所定時間毎(例えば、0.5秒毎)に実行される。
その後、制御部101は、記憶部104に記憶された連続する撮影画像同士の差分を抽出し(ステップS217)、その差分抽出結果から、当該連続する撮影画像に対応するアノテーションの座標情報に基づいて、ステップS217の差分抽出結果からアノテーションを除去する(ステップS218)。上記ステップS214〜ステップS218の処理により、PC2のUI16を使って、表示部205の表示領域210に書き込まれた書込情報又はペン等を利用して、直接、対象物14又はテーブル15上に書き込まれた書込情報をアノテーションとして抽出することができる。
最後に、制御部101は、ステップS218でアノテーションの除去により得られた情報(即ち、PC2のUI16を使って、表示部205の表示領域210に書き込まれた書込情報又はペン等を利用して、直接、対象物14又はテーブル15上に書き込まれたアノテーションとしての書込情報)を送受信部102、ネットワーク5、送受信部302を介して制御部301に出力する(ステップS218→ステップS208)。
そして、制御部301は、PC2のUI16を使って、表示部205の表示領域210に書き込まれた書込情報又はペン等を利用して、直接、対象物14又はテーブル15上に書き込まれた書込情報をストローク描画レイヤー36に描画する(ステップS208)。
以上のように、制御部301がキャリブレーションを実行し、対象物14を含むテーブル15の撮影領域(撮影画像の撮影領域)と表示領域310との大きさが一致した状態で、制御部101により書込情報が抽出され、制御部301が当該書込情報をストローク描画レイヤー36に描画するので、書込情報を表示領域310の該当箇所に反映することができる。
尚、図13のキャリブレーション実行後の表示領域310の状態において、制御部301は、実物ビューウインドウ311を文書領域312の複写機の操作パネルの図面と同列表示する設定を行えるようにしてもよい。この設定後の表示領域310の一例を図15に示す。実物ビューウインドウ311内の点線は、撮影された複写機の操作パネルの一部を示す。
制御部301は、文書領域312の複写機の操作パネルの図面(文書画像レイヤー37に記載された文書)及び実物ビューウインドウ311内の撮影画像の特徴点をそれぞれ抽出し、抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士をアノテーションで連結するようにしてもよい。
これにより、PC3の表示部305を観るユーザは、撮影画像として表示される実際の対象物(即ち、複写機の操作パネルの実物又は設計図)と文書(文書領域312の複写機の操作パネルの図面)との対応関係を容易に判断することができる。
以上詳細に説明したように、制御部301は、表示部305による実物ビューウインドウ311の可視又は不可視を設定する。よって、実物ビューウインドウ311を不可視に設定することができる。結果として、PC3のユーザは、撮影画像を表示する実物ビューウインドウ311の存在を意識せずに、実物ビューウインドウ311に書き込んだアノテーションを、対象物を含む投影領域に自動的に投影することができる。
また、制御部301は、キャリブレーションの実行によりビデオカメラ11の撮影領域と表示部305における表示領域310との大きさを一致させ、制御部101は、対象物又は投影領域に書き込まれた書込情報をアノテーションとして検出し、PC3に出力し、表示部305は、ビデオカメラ11の撮影領域と表示部305における表示領域310との大きさを一致させた状態で、当該書込情報をストローク描画レイヤー36に表示するので、対象物又は投影領域に書き込まれたアノテーションとしての書込情報を表示部305の該当箇所に反映することができる。
さらに、制御部101は、ビデオカメラ11により撮影された、連続する撮影画像の差分を抽出し、当該抽出結果から上記連続する撮影画像に含まれるアノテーションを除去することにより、対象物又は投影領域に書き込まれた書込情報を検出するので、対象物又は投影領域に書き込まれた書込情報を精度良く検出することができる。
(第4の実施の形態)
以下、第4の実施の形態について図面を参照しながら説明する。
本実施の形態では、文書画像レイヤー37に記載された文書を対象物14に重ならないようにテーブル15の空き領域に投影する。
尚、本実施の形態では、上記情報共有支援システム100と同様の構成を使用するため、その説明は省略する。
図16は、表示部305の表示領域310に表示されるデータの作成処理を示すフローチャートである。
まず、制御部301は、実物ビューウインドウ311のキャリブレーションを実行する(ステップS301)。実物ビューウインドウ311のキャリブレーションついては、上記第3の実施の形態において説明しているので、ここでは省略する。尚、キャリブレーションが実行されると、対象物14を含むテーブル15の撮影領域(撮影画像の撮影領域)と表示領域310との大きさ(サイズ)が一致する。
次いで、制御部301は、撮影画像30上における実物ビューウインドウ311の座標情報を取得し(ステップS302)、実物ビューウインドウ311の範囲以外のストローク描画レイヤー36、及び文書画像レイヤー37に記載されている情報(アノテーション38a、及び文書)を取得し(ステップS303)、取得した情報を送受信部302及びネットワーク5を介してPC1に送信する(ステップS304)。このPC1に送信される情報は、より具体的には、実物ビューウインドウ311の範囲を中抜きにした、表示領域310に表示されるデータの画像である。
続いて、PC1、プロジェクタ10、ビデオカメラ11で実行される処理を説明する。
まず、PC1の制御部101は、初期化処理を実行すると共に入力部105により読み取られた対象物14の識別情報(例えばID)を記憶部104に記憶する(ステップS305)。ここでの初期化処理は、プロジェクタ10及びビデオカメラ11へ制御コマンドを出力し、プロジェクタ10の投影及びビデオカメラ11での撮影画像の出力などがある。尚、ステップS8の処理は、PC3側の処理とは独立して実行される。
次いで、制御部101は、ネットワーク5及び送受信部102を介してPC3から実物ビューウインドウ311の範囲を中抜きにした、表示領域310に表示されるデータの画像の入力を受け付ける(ステップS306)。制御部101は、本データの作成処理が開始されると、PC2からの指示や書き込みなどのイベント(操作)の入力も常時受け付ける(ステップS307)。
次に、制御部101は、実物ビューウインドウ311の範囲を中抜きにした、表示領域310に表示されるデータの画像の入力が終了したか否かを判別する(ステップS308)。
ステップS308でYESの場合には、データの作成処理を終了する。一方、ステップS308でNOの場合には、制御部101は、実物ビューウインドウ311の範囲を中抜きにした、表示領域310に表示されるデータの画像及び制御コマンドを使ってプロジェクタ10を制御し、プロジェクタ10は、対象物14を含むテーブル15上に当該画像を投影する(ステップS309)。ビデオカメラ11は、このアノテーションが投影された対象物14を含むテーブル15の撮影画像をPC1、ネットワーク5、及び送受信部302を介してPC3の制御部301に出力し、制御部101は、記憶部104に記憶された対象物14の識別情報をPC3の制御部301に出力する(ステップS310)。
制御部301は、この撮影画像を受信し、実物ビューウインドウ311の表示を更新する(ステップS311)。これにより、実物ビューウインドウ311に対象物14を含むテーブル15と共にアノテーションが表示される。尚、ステップS311の表示の更新は逐次実行される。また、制御部301は、PC1から対象物14の識別情報を取得し、記憶部304に保存する(ステップS312)。
本実施の形態では、第1の実施の形態と同様に、制御部301は、文書画像レイヤー37に記載された文書(文字、図形、静止画像を含む)及び実物ビューウインドウ311内の撮影画像の特徴点をそれぞれ抽出し、抽出された特徴点同士のマッチング処理を行い、対応関係を持つ特徴点同士をアノテーションで連結するようにしてもよい。さらに、マッチング処理としては、本実施の形態に記載の方法に限らず、SIFT等の周知のマッチング方法を採用することが可能である。
これにより、PC3の表示部305を観るユーザは、撮影画像として表示される実際の対象物14と文書との対応関係を容易に判断することができる。
また、制御部301は、ビデオカメラ11から撮影画像を受信する際に、PC1からプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)を受信して記憶部304に記憶するようにしてもよい。
制御部301は、表示部305の表示領域310に表示されるデータを記憶部304に保存する際には、記憶部304は、アノテーション(座標情報を含む)、実物ビューウインドウ311内の撮影画像、及び文書のメイン情報を記憶する他に、実物ビューウインドウ311の属性情報(位置、範囲)、文書の属性情報(該当する文書ID、ページ番号、文書の表示範囲、文書の表示位置を含む)、対象物の属性情報(対象物の識別情報(ID))、及びプロジェクタ10及びビデオカメラ11の属性情報(プロジェクタ10の投影位置及び投影範囲の情報、ビデオカメラ11の撮影位置及び撮影範囲の情報を含む)をメイン情報に関連付けて記憶するようにしてもよい。
これにより、制御部301は、対象物の識別情報等の属性情報に基づいて表示部305の表示領域310に表示されるデータの検索を実行することができる。また、制御部301は、記憶部304に保存された当該データを表示部305の表示領域310に表示させることができる。
以上詳細に説明したように、本実施の形態によれば、制御部301は、ビデオカメラ11の撮影領域と表示部305における表示領域310との大きさを一致させ、その状態で、ストローク描画レイヤー36に描画されたアノテーション38a及び文書画像レイヤー37に描画された文書をプロジェクタ10に送信するので、投影領域にアノテーション38a及び文書を投影することができ、投影領域と表示部305における表示領域310とで共通の情報(アノテーション38a及び文書)を表示できる。つまり、投影領域側にいるユーザとPC3のユーザとで互いに情報を共有することができる。
PC1〜PC4の機能を実現するためのソフトウェアのプログラムが記録されている記録媒体を、各PCに供給し、各PCのCPUが記憶媒体に格納されたプログラムを読み出し実行することによっても、上記第1〜第4の実施の形態と同様の効果を奏する。プログラムを供給するための記憶媒体としては、例えば、CD−ROM、DVD、又はSDカードなどがある。
また、各PCのCPUが、各PCの機能を実現するためのソフトウェアのプログラムを実行することによっても、上記第1〜第4の実施の形態と同様の効果を奏する。
なお、本発明は、上述した実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内で種々変形して実施することが可能である。
本発明の第1の実施の形態に係る情報共有支援システムの構成を示すブロック図である。 PC1〜4の機能構成を示す図である。 PC3のハードウエア構成を示すブロック図である。 表示部の表示領域に表示されるデータの構造を模式的に示す図である。 実際に表示部の表示領域に表示されるデータの例を示す図である。 表示部の表示領域に表示されるデータの作成処理を示すフローチャートである。 第2の実施の形態に係る表示部の表示領域に表示されるデータの例を示す図である。 文書領域内の部分画像をプロジェクタで対象物を含むテーブル上に投影する処理を示すフローチャートである。 (A)は、対象物に重ならないように部分画像を投影した例を示す図であり、(B)は、対象物に重なるように部分画像を投影した例を示す図である。 図8の変形例を示すフローチャートである。 (A)は、部分画像を撮影画像の対応箇所への重ね合わせる設定により、対象物に重なるように部分画像を投影した例を示す図であり、(B)は、部分画像と撮影画像の対応箇所とを連結する設定により、対象物の対応箇所にアノテーションで連結されている部分画像を投影した例を示す図である。 第3の実施の形態に係る表示部の表示領域に表示されるデータの作成処理を示すフローチャートである。 キャリブレーション実行後の表示領域の一例を示す図である。 (A)は、複写機の操作パネルの図面と移動前の実物ビューウインドウとの配置関係を示す図であり、(B)は、複写機の操作パネルの図面と移動後の実物ビューウインドウとの配置関係を示す図である。 実物ビューウインドウを文書領域の複写機の操作パネルの図面と同列表示する一例を示す図である。 第4の実施の形態に係る表示部の表示領域に表示されるデータの作成処理を示すフローチャートである。
符号の説明
1〜4 PC
10 プロジェクタ
11 ビデオカメラ
14 対象物
15 テーブル
30 撮影画像
35 イベント受信用ウインドウ35
36 ストローク描画レイヤー
37 文書画像レイヤー
101,201,301,401 制御部
102,202,302,402 送受信部
203,303,403 操作部
104,204,304,404 記憶部
205,305,405 表示部
311 実物ビューウインドウ

Claims (16)

  1. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される第1の情報処理装置と、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、
    前記第2の注釈画像を前記投影装置に送信する送信手段と、
    前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、
    前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備える第2の情報処理装置と
    を有することを特徴とする情報共有支援システム。
  2. 前記第1の情報処理装置または前記第2の情報処理装置が、前記第2の注釈画像の座標情報を前記投影装置の投影領域の座標情報に変換する変換手段を備え、
    前記送信手段は、前記撮影画像上における前記第2の注釈画像の座標情報を前記変換手段に送信し、前記変換手段は、変換された座標情報を前記投影装置に送信することを特徴とする請求項1に記載の情報共有支援システム。
  3. 前記第2の情報処理装置は、前記第4の層に描画される文書及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士を注釈画像で連結する連結手段とを備えることを特徴とする請求項1又は2に記載の情報共有支援システム。
  4. 前記第2の情報処理装置は、前記対象物の属性情報と、前記撮像装置及び前記投影装置の属性情報を取得する取得手段と、
    前記表示手段に表示されるデータ、前記第2の層の属性情報、前記文書の属性情報、前記対象物の属性情報、並びに前記撮像装置及び前記投影装置の属性情報を関連付けて記憶する記憶手段と、
    前記第2の層の属性情報、前記文書の属性情報、前記対象物の属性情報、並びに前記撮像装置及び前記投影装置の属性情報のうち、少なくともいずれか1つの属性情報に基づいて前記表示手段に表示されるデータを検索する検索手段とを備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報共有支援システム。
  5. 前記第2の情報処理装置は、前記表示手段による第2の層の可視又は不可視を設定する設定手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の情報共有支援システム。
  6. 前記第2の情報処理装置は、前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させる一致手段を備え、
    前記第1の情報処理装置は、前記対象物又は前記投影領域に書き込まれた書込情報を前記第3の注釈画像として検出する検出手段と、当該検出手段で検出された前記第3の注釈画像としての書込情報を前記第2の情報処理装置に出力する出力手段とを備え、
    前記一致手段により前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させた状態で、前記表示手段は前記書込情報を前記第3の層に表示することを特徴とする請求項1乃至5のいずれか1項に記載の情報共有支援システム。
  7. 前記検出手段は、前記撮影装置により撮影された、連続する撮影画像の差分を抽出し、当該抽出結果から前記連続する撮影画像に含まれる第2の注釈画像を除去することにより、前記対象物又は前記投影領域に書き込まれた書込情報を検出することを特徴とする請求項6に記載の情報共有支援システム。
  8. 前記第2の情報処理装置は、前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させる一致手段を備え、
    前記一致手段により前記撮影装置の撮影領域と前記表示手段における表示領域との大きさを一致させた状態で、前記送信手段は、前記第3の層に描画された第3の注釈画像及び前記第4の層に描画された文書を前記投影装置に送信することを特徴とする請求項1に記載の情報共有支援システム。
  9. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される第1の情報処理装置と、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、
    前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段と、
    前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段とを備える第2の情報処理装置と有し、
    前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする情報共有支援システム。
  10. 前記第2の情報処理装置は、前記投影装置により前記部分画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、
    前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備えることを特徴とする請求項9に記載の情報共有支援システム。
  11. 前記第2の情報処理装置は、前記部分画像及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士が重なりあうように、前記部分画像の位置を補正する補正手段とを備えることを特徴とする請求項9又は10に記載の情報共有支援システム。
  12. 前記第2の情報処理装置は、前記部分画像及び前記第2の層に表示される撮影画像の特徴点をそれぞれ抽出する抽出手段と、当該抽出された特徴点同士のマッチング処理を行うマッチング手段と、対応関係を持つ特徴点同士を注釈画像で連結する連結手段とを備え、
    前記送信手段は、前記部分画像、当該部分画像の座標情報及び当該注釈画像の座標情報を前記投影装置に送信し、
    前記投影装置は、前記部分画像及び注釈画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像及び前記注釈画像を投影することを特徴とする請求項9又は10に記載の情報共有支援システム。
  13. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続される情報処理装置であって、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、
    前記第2の注釈画像を前記投影装置に送信する送信手段と、
    前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段と、
    前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段とを備えることを特徴とする情報処理装置。
  14. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続される情報処理装置であって、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段と、
    前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段と、
    前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段とを備え、
    前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする情報処理装置。
  15. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続されるコンピュータを、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段、
    前記第2の注釈画像を前記投影装置に送信する送信手段、
    前記投影装置により前記第2の注釈画像が投影された投影領域を撮影した撮影画像を前記撮影装置から受信する受信手段、及び
    前記第2の層に前記受信手段で受信された撮影画像を割り当て、前記第3の層における前記第3の注釈画像及び前記第4の層における前記文書を重ね合わせて表示する表示手段として機能させることを特徴とする制御プログラム。
  16. 対象物を含む投影領域に画像を投影する投影装置、及び前記画像が投影された、対象物を含む投影領域を撮影する撮影装置に接続される外部装置と通信網を介して接続されるコンピュータを、
    第1の層に第1の注釈画像の描画操作を入力し、第2の層に前記第1の注釈画像の一部分である第2の注釈画像を入力し、第3の層に前記第1の注釈画像のうち前記第2の注釈画像を除いた第3の注釈画像を入力し、第4の層に文書を入力する入力手段、
    前記文書の一部を部分画像として選択し、前記第2の層に貼り付ける貼付手段、及び
    前記第2の層に貼り付けられた部分画像及び当該部分画像の座標情報を前記投影装置に送信する送信手段として機能させ、
    前記投影装置は、前記部分画像の座標情報に基づいて、前記対象物を含む投影領域に前記部分画像を投影することを特徴とする制御プログラム。

JP2007056091A 2007-03-06 2007-03-06 情報共有支援システム、情報処理装置及び制御プログラム Withdrawn JP2008217590A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007056091A JP2008217590A (ja) 2007-03-06 2007-03-06 情報共有支援システム、情報処理装置及び制御プログラム
US11/861,331 US8239753B2 (en) 2007-03-06 2007-09-26 Information sharing support system providing corraborative annotation, information processing device, computer readable recording medium, and computer controlling method providing the same
CN2007101819439A CN101262586B (zh) 2007-03-06 2007-10-17 信息共享支持系统、信息处理装置和计算机控制方法
US13/529,760 US9727563B2 (en) 2007-03-06 2012-06-21 Information sharing support system, information processing device, computer readable recording medium, and computer controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007056091A JP2008217590A (ja) 2007-03-06 2007-03-06 情報共有支援システム、情報処理装置及び制御プログラム

Publications (1)

Publication Number Publication Date
JP2008217590A true JP2008217590A (ja) 2008-09-18

Family

ID=39742727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007056091A Withdrawn JP2008217590A (ja) 2007-03-06 2007-03-06 情報共有支援システム、情報処理装置及び制御プログラム

Country Status (3)

Country Link
US (2) US8239753B2 (ja)
JP (1) JP2008217590A (ja)
CN (1) CN101262586B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2159654A1 (en) 2008-08-27 2010-03-03 Kawasaki Jukogyo Kabushiki Kaisha Automatic finishing machine and control method thereof

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9128537B2 (en) * 2010-03-04 2015-09-08 Autodesk, Inc. Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector
US20110316697A1 (en) * 2010-06-29 2011-12-29 General Electric Company System and method for monitoring an entity within an area
JP5790301B2 (ja) * 2011-08-18 2015-10-07 株式会社リコー ネットワークシステム、画像投影装置、プログラム
JP5927845B2 (ja) * 2011-11-01 2016-06-01 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
CN103428472B (zh) * 2012-05-18 2016-08-10 郑州正信科技发展股份有限公司 一种基于协同感知的实物全交互交流沟通方法及其装置
CN103353822A (zh) * 2013-06-26 2013-10-16 上海鹞迅信息技术有限公司 文件获取方法及装置
CN104049750B (zh) * 2014-05-08 2017-11-07 苏州佳世达光电有限公司 显示方法及使用其的显示系统
JP5955491B2 (ja) * 2014-06-13 2016-07-20 三菱電機株式会社 情報重畳画像表示装置および情報重畳画像表示プログラム
CN106463000A (zh) 2014-06-13 2017-02-22 三菱电机株式会社 信息处理装置、信息重叠图像显示装置、标记显示程序和信息重叠图像显示程序
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
US10650115B2 (en) * 2015-02-27 2020-05-12 Xifin, Inc. Processing, aggregating, annotating, and/or organizing data
JP2016189517A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法
JP6281529B2 (ja) * 2015-06-30 2018-02-21 コニカミノルタ株式会社 画像生成装置
DK201870351A1 (en) 2018-05-07 2020-01-13 Apple Inc. Devices and Methods for Measuring Using Augmented Reality
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11138771B2 (en) * 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5577188A (en) * 1994-05-31 1996-11-19 Future Labs, Inc. Method to provide for virtual screen overlay
JPH0836546A (ja) 1994-07-26 1996-02-06 Nippon Telegr & Teleph Corp <Ntt> 協調作業支援システム
JPH10269292A (ja) 1997-03-27 1998-10-09 Hitachi Ltd 作業箇所指示方式
JP3546705B2 (ja) * 1998-07-10 2004-07-28 インターナショナル・ビジネス・マシーンズ・コーポレーション アプリケーション・ウインドウにアノテーション・データを対応付ける方法及び装置、システム、アプリケーション・ウインドウへのアノテーション・データの対応付けを制御するプログラムを格納した記憶媒体
US6342906B1 (en) * 1999-02-02 2002-01-29 International Business Machines Corporation Annotation layer for synchronous collaboration
DE19928341C2 (de) * 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
CN1197372C (zh) * 1999-08-10 2005-04-13 彼得·麦克达菲·怀特 通信系统
JP2002073242A (ja) * 2000-08-31 2002-03-12 Internatl Business Mach Corp <Ibm> アノテーション方法、アプリケーションウィンドウに対する追加的な書き込み方法、コンピュータ装置、自動契約機、コラボレーションシステム、記憶媒体、コンピュータ・プログラム・プロダクト、およびプログラム伝送装置
JP2002315065A (ja) 2001-04-09 2002-10-25 Sharp Corp 遠隔指示システム、遠隔指示方法、及びその方法を実現するプログラムを記憶した記録媒体
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
AU2003247452A1 (en) * 2002-05-31 2004-07-14 University Of Utah Research Foundation System and method for visual annotation and knowledge representation
US7333135B2 (en) * 2002-10-15 2008-02-19 Fuji Xerox Co., Ltd. Method, apparatus, and system for remotely annotating a target
US7218783B2 (en) * 2003-06-13 2007-05-15 Microsoft Corporation Digital ink annotation process and system for recognizing, anchoring and reflowing digital ink annotations
US7870152B2 (en) * 2003-10-22 2011-01-11 International Business Machines Corporation Attaching and displaying annotations to changing data views
US7349104B2 (en) * 2003-10-23 2008-03-25 Technest Holdings, Inc. System and a method for three-dimensional imaging systems
JP2005143014A (ja) * 2003-11-10 2005-06-02 Konica Minolta Photo Imaging Inc 画像処理装置、画像処理方法および画像処理プログラム
US20050099432A1 (en) * 2003-11-12 2005-05-12 International Business Machines Corporation Multi-value hidden object properties in a presentation graphics application
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7551187B2 (en) * 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
FR2872660B1 (fr) * 2004-07-05 2006-12-22 Eastman Kodak Co Appareil de prise de vue et procede pour la formation d'images annotees
JP4306550B2 (ja) * 2004-07-21 2009-08-05 富士ゼロックス株式会社 画像処理装置
JP2006108813A (ja) * 2004-09-30 2006-04-20 Fuji Xerox Co Ltd 画像処理システムおよび画像処理方法および画像処理プログラム
US20080028301A1 (en) * 2005-04-22 2008-01-31 Autodesk, Inc. Document markup processing system and method
US20060262336A1 (en) * 2005-05-23 2006-11-23 Sharp Laboratories Of America, Inc. Manual annotation document reformation
JP2006352495A (ja) * 2005-06-16 2006-12-28 Fuji Xerox Co Ltd 遠隔指示システム
JP2007004311A (ja) * 2005-06-21 2007-01-11 Fuji Xerox Co Ltd 遠隔指示システム及びその方法
US7599561B2 (en) * 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
US20070239831A1 (en) * 2006-04-06 2007-10-11 Yahoo! Inc. Interface for editing, binding, and displaying an annotation for a message
US8994757B2 (en) * 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
US8918162B2 (en) * 2007-04-17 2014-12-23 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
US20090065138A1 (en) * 2007-05-11 2009-03-12 Innovative Graphics, Inc. Manufacture of environmentally safe cards
US7975215B2 (en) * 2007-05-14 2011-07-05 Microsoft Corporation Sharing editable ink annotated images with annotation-unaware applications
US20090254867A1 (en) * 2008-04-03 2009-10-08 Microsoft Corporation Zoom for annotatable margins
US20090307618A1 (en) * 2008-06-05 2009-12-10 Microsoft Corporation Annotate at multiple levels

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2159654A1 (en) 2008-08-27 2010-03-03 Kawasaki Jukogyo Kabushiki Kaisha Automatic finishing machine and control method thereof

Also Published As

Publication number Publication date
US20080222233A1 (en) 2008-09-11
CN101262586B (zh) 2012-11-21
US9727563B2 (en) 2017-08-08
US8239753B2 (en) 2012-08-07
US20120324330A1 (en) 2012-12-20
CN101262586A (zh) 2008-09-10

Similar Documents

Publication Publication Date Title
JP2008217590A (ja) 情報共有支援システム、情報処理装置及び制御プログラム
EP3058512B1 (en) Organizing digital notes on a user interface
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
EP3100208B1 (en) Note capture and recognition with manual assist
US8004571B2 (en) Projection-based system, apparatus and program of storing annotated object image
JP6270325B2 (ja) 情報処理装置およびその制御方法
US20170169595A1 (en) Information superimposed image display device, non-transitory computer-readable medium which records information superimposed image display program, and information superimposed image display method
US10229543B2 (en) Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
WO2015116799A1 (en) Note capture, recognition, and management with hints on a user interface
JP2017117115A (ja) コンテンツ制御プログラム、コンテンツ制御方法、コンテンツ制御装置、及びコンテンツ表示装置
JP5152317B2 (ja) プレゼンテーション制御装置及びプログラム
JP2020009008A (ja) 情報処理システム及び情報処理システム用プログラム
JP2010093512A (ja) 情報処理装置、遠隔指示システム及びプログラム
JP6689492B2 (ja) 端末装置、データ処理システム及びプログラム
JP2006287748A (ja) 情報処理方法、情報処理装置
JP5186870B2 (ja) 情報共有支援システム、情報共有支援プログラム及び情報共有支援装置
JP5187001B2 (ja) 情報処理システム及び情報処理装置
WO2023224036A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
WO2024018975A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
KR102339825B1 (ko) 상황인식 장치 및 이의 영상 스티칭 방법
WO2024018974A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
US20230316667A1 (en) Information processing apparatus, non-transitory computer readable medium storing information processing program, and information processing method
JP2006251206A (ja) 情報提示装置及び情報提示方法とそのプログラム
JP2017049847A (ja) 情報処理装置及び、情報処理方法、制御プログラム
JP6512829B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110708