JP2010224666A - Document display control device and program - Google Patents

Document display control device and program Download PDF

Info

Publication number
JP2010224666A
JP2010224666A JP2009068714A JP2009068714A JP2010224666A JP 2010224666 A JP2010224666 A JP 2010224666A JP 2009068714 A JP2009068714 A JP 2009068714A JP 2009068714 A JP2009068714 A JP 2009068714A JP 2010224666 A JP2010224666 A JP 2010224666A
Authority
JP
Japan
Prior art keywords
image
document
electronic document
medium
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009068714A
Other languages
Japanese (ja)
Other versions
JP5262888B2 (en
Inventor
Hisashi Mishima
悠 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2009068714A priority Critical patent/JP5262888B2/en
Publication of JP2010224666A publication Critical patent/JP2010224666A/en
Application granted granted Critical
Publication of JP5262888B2 publication Critical patent/JP5262888B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce the state of a face, to which a medium is attached, so that it is possible to understand an electronic document printed on the medium. <P>SOLUTION: In a document server 30, a reception part 31 receives an imaged image obtained by imaging a whiteboard, to which a medium is attached or an image is projected, from a projection imaging device, a difference information generation part 33 generates a difference image by calculating a difference between imaged images before and after one meaningful operation, a document retrieval part 35 compares the layout of the difference image with the layout of an electronic document to specify the electronic document, which is printed on the medium or which is the original of an image projected, and to generate display information obtained by arranging an element object, in which a link to the electronic document is embedded, at a position corresponding to the position of the difference image in the imaged image on a screen object showing the whiteboard, and a transmission part 39 transmits the display information to a terminal device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、文書表示制御装置、プログラムに関する。   The present invention relates to a document display control device and a program.

ホワイトボードを用いた会議等の振り返りを可能とする技術は知られている(例えば、特許文献1、2参照)。
特許文献1の技術では、ホワイトボード上で行なわれた各操作を経過時間と共に保存し、各操作を、操作に対応する経過時間と1つ前の操作に対応する経過時間との時間差が設定時間より長い場合は、1つ前の操作を再現した時刻から上記設定時間が経過した時点で再現し、そうでない場合は、1つ前の操作を再現した時刻から上記時間差が経過した時点で再現している。
特許文献2の技術では、ホワイトボードをビデオカメラで撮像した撮像画像、その撮像画像に付加する注釈画像の描画コマンド、時刻等を保存し、復元コマンドで時刻等により指定された撮像画像及び描画コマンドから作成した投影画像をプロジェクタに転送してホワイトボードに投影させている。
A technique that enables reflection of a conference using a whiteboard is known (see, for example, Patent Documents 1 and 2).
In the technique of Patent Document 1, each operation performed on the whiteboard is stored together with the elapsed time, and each operation is set to a time difference between the elapsed time corresponding to the operation and the elapsed time corresponding to the previous operation. If it is longer, it is reproduced when the set time has elapsed since the time when the previous operation was reproduced. Otherwise, it is reproduced when the time difference has elapsed since the time when the previous operation was reproduced. ing.
In the technique of Patent Document 2, a captured image obtained by capturing a whiteboard with a video camera, a drawing command of an annotation image to be added to the captured image, a time, and the like are stored, and a captured image and a drawing command designated by the time or the like by a restoration command The projected image created from is transferred to the projector and projected onto the whiteboard.

特開2007−066315号公報JP 2007-066631 A 特開2008−258732号公報JP 2008-258732 A

本発明の目的は、媒体が貼られた面の状態を、その媒体に印刷された電子文書が分かるように再現することにある。   An object of the present invention is to reproduce the state of a surface on which a medium is pasted so that an electronic document printed on the medium can be seen.

請求項1に記載の発明は、電子文書が印刷された媒体が貼られた面を撮像することによって得られた撮像画像を取得する取得手段と、前記取得手段により取得された前記撮像画像から、前記媒体が貼られた部分の部分画像を抽出する抽出手段と、前記抽出手段により抽出された前記部分画像に基づいて、前記電子文書を特定する特定手段と、前記取得手段により取得された前記撮像画像を表す画面であって、前記抽出手段により抽出された前記部分画像の位置に、前記特定手段により特定された前記電子文書に関連付けられた表示要素を含む画面の表示を指示する指示手段とを備えたことを特徴とする文書表示制御装置である。
請求項2に記載の発明は、前記取得手段は、媒体が貼られるごとに前記面を撮像することによって得られた複数の撮像画像と、当該複数の撮像画像が得られた複数の時刻をそれぞれ示す複数の時刻情報とを取得し、前記指示手段は、前記取得手段により取得された前記複数の撮像画像をそれぞれ表す複数の画面であって、各画面が、前記取得手段により取得された前記複数の時刻情報のうち当該各画面が表す撮像画像が得られた時刻を示す時刻情報に関連付けられた複数の画面の表示を指示することを特徴とする請求項1に記載の文書表示制御装置である。
請求項3に記載の発明は、前記指示手段は、前記複数の画面のうち、指定された時刻を示す時刻情報に関連付けられた画面の表示を指示することを特徴とする請求項2に記載の文書表示制御装置である。
請求項4に記載の発明は、前記取得手段は、電子文書の画像が投影装置により投影された前記面を撮像することによって得られた撮像画像を取得し、前記抽出手段は、前記投影装置により投影された前記電子文書の画像に基づいて、前記取得手段により取得された前記撮像画像から、当該電子文書の画像が投影された部分の部分画像を抽出することを特徴とする請求項1乃至3の何れかに記載の文書表示制御装置である。
請求項5に記載の発明は、前記特定手段は、前記部分画像における前記電子文書の文書要素が配置された領域の形状と、前記電子文書における当該電子文書の文書要素が配置された領域の形状とに基づいて、前記電子文書を特定することを特徴とする請求項1乃至4の何れかに記載の文書表示制御装置である。
請求項6に記載の発明は、前記指示手段は、前記電子文書を参照するための情報が埋め込まれた前記表示要素を含む前記画面の表示を指示することを特徴とする請求項1乃至5の何れかに記載の文書表示制御装置である。
請求項7に記載の発明は、前記指示手段は、前記電子文書の画像が重畳された前記表示要素を含む前記画面の表示を指示することを特徴とする請求項1乃至5の何れかに記載の文書表示制御装置である。
請求項8に記載の発明は、コンピュータに、電子文書が印刷された媒体が貼られた面を撮像することによって得られた撮像画像を取得する機能と、前記撮像画像から、前記媒体が貼られた部分の部分画像を抽出する機能と、前記部分画像に基づいて、前記電子文書を特定する機能と、前記撮像画像を表す画面であって、前記部分画像の位置に、前記電子文書に関連付けられた表示要素を含む画面の表示を指示する機能とを実現させるためのプログラムである。
The invention according to claim 1 is an acquisition unit that acquires a captured image obtained by imaging a surface on which a medium on which an electronic document is printed is pasted, and the captured image acquired by the acquisition unit. Extracting means for extracting a partial image of a portion to which the medium is pasted, specifying means for specifying the electronic document based on the partial image extracted by the extracting means, and the imaging acquired by the acquiring means An instruction means for instructing display of a screen including a display element associated with the electronic document specified by the specifying means at a position of the partial image extracted by the extracting means. A document display control device characterized by being provided.
The invention according to claim 2 is characterized in that the acquisition means obtains a plurality of captured images obtained by capturing the surface each time a medium is attached and a plurality of times when the plurality of captured images are obtained. A plurality of time information shown, and the instruction means is a plurality of screens respectively representing the plurality of captured images acquired by the acquisition means, and each screen is acquired by the acquisition means. 2. The document display control apparatus according to claim 1, wherein a display of a plurality of screens associated with time information indicating a time at which a captured image represented by each screen is obtained is instructed to be displayed. .
The invention according to claim 3 is characterized in that the instruction means instructs display of a screen associated with time information indicating a specified time among the plurality of screens. This is a document display control device.
According to a fourth aspect of the present invention, the acquisition unit acquires a captured image obtained by capturing the surface on which an image of an electronic document is projected by a projection device, and the extraction unit includes the projection device. 4. A partial image of a portion onto which an image of the electronic document is projected is extracted from the captured image acquired by the acquisition unit based on the projected image of the electronic document. The document display control device according to any one of the above.
According to a fifth aspect of the present invention, the specifying means includes: a shape of a region in which the document element of the electronic document in the partial image is disposed; and a shape of a region in which the document element of the electronic document is disposed in the electronic document. The document display control apparatus according to claim 1, wherein the electronic document is specified based on
The invention described in claim 6 is characterized in that the instruction means instructs display of the screen including the display element in which information for referring to the electronic document is embedded. The document display control apparatus according to any one of the above.
The invention according to claim 7 is characterized in that the instruction means instructs display of the screen including the display element on which the image of the electronic document is superimposed. This is a document display control device.
According to an eighth aspect of the present invention, the computer has a function of acquiring a captured image obtained by capturing an image of a surface on which a medium on which an electronic document is printed is pasted on a computer, and the medium is pasted from the captured image. A function of extracting a partial image of a part, a function of specifying the electronic document based on the partial image, and a screen representing the captured image, the position of the partial image being associated with the electronic document And a function for instructing display of a screen including the displayed elements.

請求項1の発明によれば、媒体が貼られた面の状態を、その媒体に印刷された電子文書が分かるように再現することができる。
請求項2の発明によれば、媒体が貼られた面の状態を、その状態が保たれていた時刻が分かるように再現することができる。
請求項3の発明によれば、媒体が貼られた面の指定された時刻における状態を再現することができる。
請求項4の発明によれば、本構成を有していない場合に比較して、画像が投影された面の状態をその画像の元となる電子文書が分かるように再現する処理を、効率よく行うことができる。
請求項5の発明によれば、媒体が貼られた面を撮像できる程度に離れた距離から面を撮像した場合であっても、その媒体に印刷された電子文書を特定することができる。
請求項6の発明によれば、媒体が貼られた面の状態を再現する画面を複雑化させることなく、その媒体に印刷された電子文書を参照させることができる。
請求項7の発明によれば、媒体が貼られた面の状態を再現する画面に対する必要以上の操作を強いることなく、その媒体に印刷された電子文書を参照させることができる。
請求項8の発明によれば、媒体が貼られた面の状態を、その媒体に印刷された電子文書が分かるように再現することができる。
According to the first aspect of the present invention, the state of the surface on which the medium is affixed can be reproduced so that the electronic document printed on the medium can be seen.
According to invention of Claim 2, the state of the surface where the medium was stuck can be reproduced so that the time when the state was maintained can be known.
According to invention of Claim 3, the state in the designated time of the surface where the medium was affixed can be reproduced.
According to the invention of claim 4, compared with the case where the present configuration is not provided, the process of reproducing the state of the surface on which the image is projected so that the electronic document that is the source of the image can be understood efficiently. It can be carried out.
According to the invention of claim 5, even when the surface is imaged from such a distance that the surface on which the medium is affixed can be imaged, the electronic document printed on the medium can be specified.
According to the invention of claim 6, it is possible to refer to the electronic document printed on the medium without complicating the screen for reproducing the state of the surface on which the medium is pasted.
According to the seventh aspect of the present invention, it is possible to refer to the electronic document printed on the medium without forcing unnecessary operations on the screen that reproduces the state of the surface on which the medium is pasted.
According to invention of Claim 8, the state of the surface where the medium was stuck can be reproduced so that the electronic document printed on the medium can be understood.

本発明の実施の形態が適用されるシステム構成を示した図である。It is the figure which showed the system configuration | structure with which embodiment of this invention is applied. 本発明の実施の形態における投影撮像装置について示した図である。It is the figure shown about the projection imaging device in embodiment of this invention. 本発明の実施の形態における文書サーバの機能構成を示したブロック図である。It is the block diagram which showed the function structure of the document server in embodiment of this invention. 本発明の実施の形態の動作説明で用いるホワイトボード上の状態を示した図である。It is the figure which showed the state on a white board used by operation | movement description of embodiment of this invention. 本発明の実施の形態における投影撮像装置の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the projection imaging device in embodiment of this invention. 本発明の実施の形態における投影撮像装置で記録される撮像情報の例を示した図である。It is the figure which showed the example of the imaging information recorded with the projection imaging device in embodiment of this invention. 本発明の実施の形態における文書サーバの差分情報生成部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the difference information generation part of the document server in embodiment of this invention. 本発明の実施の形態における文書サーバの差分情報生成部で生成される差分情報の例を示した図である。It is the figure which showed the example of the difference information produced | generated by the difference information production | generation part of the document server in embodiment of this invention. 本発明の実施の形態における文書サーバの文書検索部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the document search part of the document server in embodiment of this invention. 本発明の実施の形態における文書サーバの文書検索部で生成される表示情報の例を示した図である。It is the figure which showed the example of the display information produced | generated by the document search part of the document server in embodiment of this invention. 本発明の実施の形態における表示情報に基づいて端末装置に表示される画面の例を示した図である。It is the figure which showed the example of the screen displayed on a terminal device based on the display information in embodiment of this invention. 本発明の実施の形態を実現可能なコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer which can implement | achieve embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
まず、本発明の実施の形態の適用が想定される場面について説明する。
例えば、壁面に画像を投影したり紙文書を貼り付けたりして会議を行うことがある。このような会議環境において、会議の内容を記録するための方法としては、壁面を撮影して写真で残す方法がある。
しかしながら、画像を投影したり紙文書を貼り付けたりした壁面を撮影した場合、投影された画像、貼られた紙文書、壁面の全てが1つの画像に収まった写真が得られるに過ぎない。
従って、会議終了後、自席に戻って会議に関連する作業を行おうとしても限界がある。即ち、壁面に貼ってあった紙文書の任意のページの閲覧や編集を行いたい場合、壁面全体が写った写真から目的の文書の部分を目視で確認してファイル名や格納場所を推測し、取得しなければならない。しかも、それが目的の文書のファイルであるという保証はない。
そこで、本実施の形態では、壁面に画像を投影したり紙文書を貼り付けたりして会議を行う場合に、投影された画像や紙文書に対応する電子文書を確実に特定し、自席のPC(Personal Computer)等でこの電子文書を扱えるようにする。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
First, the scene where application of the embodiment of the present invention is assumed will be described.
For example, a meeting may be held by projecting an image on a wall or pasting a paper document. In such a conference environment, as a method for recording the content of the conference, there is a method of photographing a wall surface and leaving it with a photograph.
However, when a wall surface on which an image is projected or a paper document is pasted is photographed, only a photograph in which the projected image, the pasted paper document, and the wall surface are all contained in one image is obtained.
Therefore, there is a limit even if it is attempted to return to his / her seat and perform work related to the conference after the conference. In other words, if you want to view or edit any page of a paper document that has been pasted on the wall, you can visually inspect the part of the target document from the photo showing the entire wall and guess the file name and storage location. Must get. Moreover, there is no guarantee that it is the target document file.
Therefore, in the present embodiment, when a meeting is performed by projecting an image on a wall surface or pasting a paper document, an electronic document corresponding to the projected image or paper document is reliably identified, and the personal computer (Personal Computer) etc. can handle this electronic document.

まず、本実施の形態におけるコンピュータシステムの全体構成について説明する。
図1は、本実施の形態のコンピュータシステムの構成例を示したものである。
図示するように、このコンピュータシステムは、端末装置10と、画像形成装置20と、文書サーバ30と、投影撮像装置40と、端末装置50とがネットワーク80に接続されることにより構成されている。
First, the overall configuration of the computer system in the present embodiment will be described.
FIG. 1 shows a configuration example of a computer system according to the present embodiment.
As shown in the figure, this computer system is configured by connecting a terminal device 10, an image forming device 20, a document server 30, a projection imaging device 40, and a terminal device 50 to a network 80.

端末装置10は、文書サーバ30に格納された電子文書の印刷を画像形成装置20に指示するコンピュータ装置である。ここで、端末装置10としては、例えば、パーソナルコンピュータやワークステーション、その他のコンピュータを用いるとよい。
画像形成装置20は、媒体に画像を印刷し、印刷文書として出力する装置である。この画像形成装置20は、単体のプリンタや印刷機であってもよいし、他にスキャナや通信の機能を備えた所謂複合機であってもよい。ここで、画像形成装置20における画像形成方式としては、例えば、電子写真方式を用いるとよいが、その他の方式を用いてもよい。
文書サーバ30は、電子文書を記憶し管理するコンピュータ装置である。また、本実施の形態では、壁面に貼り付けられた媒体に印刷された電子文書や壁面に投影された画像の元となる電子文書を端末装置50に表示するための制御を行う。即ち、文書表示制御装置の一例として、文書サーバ30を設けている。ここで、文書サーバ30としては、例えば、パーソナルコンピュータやワークステーション、その他のコンピュータを用いるとよい。
The terminal device 10 is a computer device that instructs the image forming apparatus 20 to print an electronic document stored in the document server 30. Here, for example, a personal computer, a workstation, or another computer may be used as the terminal device 10.
The image forming apparatus 20 is an apparatus that prints an image on a medium and outputs it as a print document. The image forming apparatus 20 may be a single printer or printing machine, or may be a so-called multifunction machine having a scanner or a communication function. Here, as an image forming method in the image forming apparatus 20, for example, an electrophotographic method may be used, but other methods may be used.
The document server 30 is a computer device that stores and manages electronic documents. In the present embodiment, control is performed to display on the terminal device 50 an electronic document printed on a medium pasted on a wall surface or an electronic document that is the basis of an image projected on the wall surface. That is, the document server 30 is provided as an example of the document display control device. Here, as the document server 30, for example, a personal computer, a workstation, or another computer may be used.

投影撮像装置40は、画像を壁面に投影するプロジェクタ機能と、被写体を撮像するカメラ機能とを兼ね備えた装置である。プロジェクタ機能の部分は、投影装置の一例であり、カメラ機能の部分は、撮像装置の一例である。この装置において、プロジェクタ機能による画像の投影先は、壁面だけでなく、ホワイトボード、電子黒板、壁面に模造紙等を貼り付けた面等であってもよい。また、プロジェクタ機能による画像の投影先がカメラ機能で撮像される被写体となるので、この被写体も、壁面、ホワイトボード、電子黒板、壁面に模造紙等を貼り付けた面等であってよい。ここで、ホワイトボードとは、専用マーカで文字や図等を書くのに用いる白い板で、書かれた文字や図等を電子化する機能を備えていないものをいい、電子黒板とは、ホワイトボードと同様の白い板で、書かれた文字や図等を電子化する機能を備えたものをいうものとする。尚、ここでは、プロジェクタ機能とカメラ機能とを兼ね備えた投影撮像装置40を用いるが、互いに別体の投影装置と撮像装置とを用いるようにしてもよい。
端末装置50は、投影撮像装置40によって撮像された壁面の画像に基づいて生成された画面を表示するコンピュータ装置である。ここで、端末装置50としては、例えば、パーソナルコンピュータやワークステーション、その他のコンピュータを用いるとよい。
The projection imaging device 40 is a device having both a projector function for projecting an image on a wall surface and a camera function for imaging a subject. The projector function part is an example of a projection apparatus, and the camera function part is an example of an imaging apparatus. In this apparatus, the image projection destination by the projector function may be not only a wall surface, but also a whiteboard, an electronic blackboard, a surface with imitation paper or the like attached to the wall surface, and the like. In addition, since the projection destination of the image by the projector function is a subject imaged by the camera function, this subject may also be a wall surface, a whiteboard, an electronic blackboard, a surface with imitation paper or the like attached to the wall surface, and the like. Here, the whiteboard is a white board used to write characters and figures with a dedicated marker and does not have a function to digitize written letters and diagrams. A white board similar to a board, which has the function of digitizing written characters and drawings. Here, although the projection imaging device 40 having both the projector function and the camera function is used, a separate projection device and imaging device may be used.
The terminal device 50 is a computer device that displays a screen generated based on a wall surface image captured by the projection imaging device 40. Here, as the terminal device 50, for example, a personal computer, a workstation, or another computer may be used.

尚、本明細書では、媒体に記録する画像の元となる電子データを「電子文書」と表記するが、これは、テキストを含む「文書」を電子化したデータのみを意味するものではない。例えば、絵、写真、図形等の画像データ(ラスタデータかベクターデータかによらない)、データベース管理ソフトウェアや表計算ソフトウェアで記録されるデータ、その他の印刷可能な電子データも含めて「電子文書」としている。
また、本明細書において、「媒体」は、画像を印刷可能な媒体であれば、その材質は問わない。代表例は紙であるが、OHPシートや金属板等であっても構わない。
In this specification, electronic data that is the basis of an image to be recorded on a medium is referred to as “electronic document”. However, this does not mean only data obtained by digitizing a “document” including text. For example, "electronic document" including image data such as pictures, photos, figures (regardless of raster data or vector data), data recorded by database management software or spreadsheet software, and other printable electronic data It is said.
In the present specification, the “medium” may be any material as long as it can print an image. A typical example is paper, but an OHP sheet or a metal plate may be used.

次に、このようなコンピュータシステムを構成する装置のうち、本実施の形態において特に中心となって動作する投影撮像装置40及び文書サーバ30の構成について説明する。尚、以下では、投影撮像装置40による画像の投影先及び被写体はホワイトボードであるものとして説明する。
図2は、投影撮像装置40について示した図である。
まず、(a)には、投影撮像装置40の外観について示している。
図示するように、投影撮像装置40は、プロジェクタとカメラとを一体化した装置であり、プロジェクタに相当する投影部46と、カメラに相当する撮像部47とを備える。
Next, among the devices constituting such a computer system, the configurations of the projection imaging device 40 and the document server 30 that operate particularly in the present embodiment will be described. In the following description, it is assumed that the projection destination of the image by the projection imaging apparatus 40 and the subject are white boards.
FIG. 2 is a diagram illustrating the projection imaging apparatus 40.
First, (a) shows the appearance of the projection imaging apparatus 40.
As illustrated, the projection imaging apparatus 40 is an apparatus in which a projector and a camera are integrated, and includes a projection unit 46 corresponding to a projector and an imaging unit 47 corresponding to a camera.

また、(b)には、投影撮像装置40の機能構成例を示す。
図示するように、投影撮像装置40は、制御部41と、メモリ42と、操作部43と、液晶モニタ44と、通信インターフェイス(I/F)45とを備える。また、上述したように、投影部46と、撮像部47とを備える。
Further, (b) shows a functional configuration example of the projection imaging apparatus 40.
As illustrated, the projection imaging apparatus 40 includes a control unit 41, a memory 42, an operation unit 43, a liquid crystal monitor 44, and a communication interface (I / F) 45. Further, as described above, the projector 46 and the imaging unit 47 are provided.

制御部41は、制御プログラムに基づいて、プロジェクタ機能及びカメラ機能における各種動作を制御する。尚、制御プログラムは、ROM(図示せず)に記憶されている。
メモリ42は、制御部41が処理するデータを記憶する不揮発性のメモリである。本実施の形態では、特に、ホワイトボードに対する媒体の貼り付け、画像の投影、手書き等によりホワイトボード上の画像が変化した場合に撮像した画像(撮像画像)とその撮像が行われた時刻(撮像時刻)とを対応付けた情報(以下、「撮像情報」という)を記憶する。
操作部43は、操作されたボタン等に対応する操作信号を制御部41へ送出する。
液晶モニタ44は、制御部41からの指示により画像やテキスト等を表示する。
通信I/F45は、制御部41からの指示によりネットワーク80(図1参照)を介して文書サーバ30との間でデータを送受信する。
The control unit 41 controls various operations in the projector function and the camera function based on the control program. The control program is stored in a ROM (not shown).
The memory 42 is a non-volatile memory that stores data processed by the control unit 41. In the present embodiment, in particular, an image (captured image) captured when an image on the whiteboard changes due to pasting of a medium on the whiteboard, projection of an image, handwriting, and the time (captured) Information associated with (time) is stored (hereinafter referred to as “imaging information”).
The operation unit 43 sends an operation signal corresponding to the operated button or the like to the control unit 41.
The liquid crystal monitor 44 displays an image, text or the like according to an instruction from the control unit 41.
The communication I / F 45 transmits / receives data to / from the document server 30 via the network 80 (see FIG. 1) according to an instruction from the control unit 41.

投影部46は、投影制御回路460と、LED光源461と、液晶パネル462と、投影光学系463とを含む。投影制御回路460は、制御部41からの指示によりLED光源461及び液晶パネル462へ制御信号を送出する。LED光源461は、供給電流に応じた明るさで液晶パネル462を照明する。液晶パネル462は、変調素子を構成し、投影制御回路460からの駆動信号に応じて光像を生成する(照明光を変調する)。投影光学系463は、液晶パネル462から射出される変調光を投影する。   The projection unit 46 includes a projection control circuit 460, an LED light source 461, a liquid crystal panel 462, and a projection optical system 463. The projection control circuit 460 sends control signals to the LED light source 461 and the liquid crystal panel 462 according to instructions from the control unit 41. The LED light source 461 illuminates the liquid crystal panel 462 with brightness according to the supply current. The liquid crystal panel 462 constitutes a modulation element, and generates a light image (modulates illumination light) in accordance with a drive signal from the projection control circuit 460. The projection optical system 463 projects the modulated light emitted from the liquid crystal panel 462.

撮像部47は、撮像制御回路470と、撮像光学系471と、撮像素子472とを含む。撮像制御回路470は、制御部41からの指示により撮像素子472を駆動制御すると共に、撮像素子472から出力される画像信号に対して信号処理を行う。信号処理後の画像は、画像ファイルとしてメモリ42に記憶される。撮像光学系471は、撮像素子472の撮像面上に被写体像を結像させる。撮像素子472としては、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)撮像素子等が用いられる。   The imaging unit 47 includes an imaging control circuit 470, an imaging optical system 471, and an imaging element 472. The imaging control circuit 470 controls driving of the imaging device 472 according to an instruction from the control unit 41 and performs signal processing on an image signal output from the imaging device 472. The image after signal processing is stored in the memory 42 as an image file. The imaging optical system 471 forms a subject image on the imaging surface of the imaging element 472. As the image sensor 472, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS) image sensor, or the like is used.

図3は、文書サーバ30の機能構成例を示した図である。
図示するように、文書サーバ30は、受信部31と、撮像情報記憶部32と、差分情報生成部33と、差分情報記憶部34と、文書検索部35と、表示情報記憶部36と、送信部39とを備える。
FIG. 3 is a diagram illustrating a functional configuration example of the document server 30.
As illustrated, the document server 30 includes a receiving unit 31, an imaging information storage unit 32, a difference information generation unit 33, a difference information storage unit 34, a document search unit 35, a display information storage unit 36, and a transmission. Part 39.

受信部31は、投影撮像装置40のメモリ42に記憶された撮像情報を任意の時点で受信する。本実施の形態では、撮像画像を取得する取得手段の一例として、受信部31を設けている。
撮像情報記憶部32は、受信部31が受信した撮像情報を記憶する。
差分情報生成部33は、撮像情報記憶部32に記憶された撮像情報を対象として、後の撮像情報から前の撮像情報を差し引く処理を行うことにより、前の撮像画像に対して追加された画像(差分画像)と前の画像の記録時刻からの経過時間(差分時間)とを含む差分情報を生成する。本実施の形態では、部分画像の一例として、差分画像を用いており、部分画像を抽出する抽出手段の一例として、差分情報生成部33を設けている。
差分情報記憶部34は、差分情報生成部33が生成した差分情報を記憶する。
The receiving unit 31 receives imaging information stored in the memory 42 of the projection imaging apparatus 40 at an arbitrary time. In the present embodiment, the receiving unit 31 is provided as an example of an acquisition unit that acquires a captured image.
The imaging information storage unit 32 stores imaging information received by the receiving unit 31.
The difference information generation unit 33 performs the process of subtracting the previous imaging information from the subsequent imaging information for the imaging information stored in the imaging information storage unit 32, thereby adding an image added to the previous captured image. Difference information including (difference image) and elapsed time (difference time) from the recording time of the previous image is generated. In the present embodiment, a difference image is used as an example of a partial image, and a difference information generation unit 33 is provided as an example of an extraction unit that extracts a partial image.
The difference information storage unit 34 stores the difference information generated by the difference information generation unit 33.

文書検索部35は、差分情報に含まれる差分画像の元となる電子文書を検索する。本実施の形態では、電子文書を特定する特定手段の一例として、文書検索部35を設けている。
表示情報記憶部36は、文書検索部35が検索した電子文書に対応するオブジェクトを、撮像画像における差分画像の位置等を反映させた状態で表示するための表示情報を記憶する。
送信部39は、表示情報記憶部36に記憶された表示情報を読み出して端末装置50に送信する。本実施の形態では、画面の表示を指示する指示手段の一例として、送信部39を設けている。
The document search unit 35 searches for an electronic document that is a source of the difference image included in the difference information. In the present embodiment, a document search unit 35 is provided as an example of a specifying unit that specifies an electronic document.
The display information storage unit 36 stores display information for displaying the object corresponding to the electronic document searched by the document search unit 35 in a state in which the position of the difference image in the captured image is reflected.
The transmission unit 39 reads the display information stored in the display information storage unit 36 and transmits it to the terminal device 50. In the present embodiment, a transmission unit 39 is provided as an example of an instruction unit that instructs display of a screen.

次いで、本実施の形態の動作について説明する。
本実施の形態では、電子文書が印刷された媒体をホワイトボードに貼り付けるが、このような媒体への電子文書の印刷時の動作について説明する。
まず、端末装置10は、印刷対象の電子文書を指定して、電子文書の印刷命令を画像形成装置20に送信する。これにより、画像形成装置20は、印刷命令に基づいて、電子文書の画像を媒体に印刷する。このとき、本実施の形態では、端末装置10が、画像形成装置20における印刷イメージを表す電子文書を作成し、この電子文書を文書サーバ30の貼り付け文書用フォルダにアップロードしておくものとする。
また、本実施の形態では、電子文書の画像をホワイトボードに投影するが、このような投影対象の電子文書も、予め文書サーバ30の投影文書用フォルダにアップロードしておくものとする。
Next, the operation of the present embodiment will be described.
In this embodiment, a medium on which an electronic document is printed is pasted on a whiteboard. An operation at the time of printing an electronic document on such a medium will be described.
First, the terminal device 10 designates an electronic document to be printed, and transmits an electronic document print command to the image forming apparatus 20. As a result, the image forming apparatus 20 prints the image of the electronic document on the medium based on the print command. At this time, in the present embodiment, the terminal device 10 creates an electronic document representing a print image in the image forming apparatus 20 and uploads the electronic document to a pasted document folder of the document server 30. .
In this embodiment, an image of an electronic document is projected onto a whiteboard. Such an electronic document to be projected is also uploaded to a projected document folder in the document server 30 in advance.

ここで、本実施の形態の動作の説明で用いるホワイトボードへの媒体の貼り付け、画像の投影、手書きの具体例について説明する。
図4は、このような具体例を時間順に示した図である。尚、(a)〜(e)の各図では、外枠で囲まれた矩形が、ホワイトボードを示しており、ホワイトボード内の細い実線の枠で囲まれた矩形が、貼り付けられた媒体を示しており、ホワイトボード内の太い実線の枠で囲まれた矩形が、画像が投影された範囲を示しており、ホワイトボード内の枠を構成しない太い実線が、手書きの軌跡を示している。
Here, a specific example of pasting a medium on a whiteboard, projecting an image, and handwriting used in the description of the operation of the present embodiment will be described.
FIG. 4 is a diagram showing such a specific example in time order. In each of the drawings (a) to (e), a rectangle surrounded by an outer frame indicates a whiteboard, and a rectangle surrounded by a thin solid line frame in the whiteboard is a pasted medium. A rectangle surrounded by a thick solid line frame in the whiteboard indicates the range where the image is projected, and a thick solid line that does not constitute a frame in the whiteboard indicates a handwritten locus .

(a)では、ホワイトボードに媒体Aが貼り付けられている。
(b)では、ホワイトボードに画像が投影されている。
(c)では、ホワイトボードに媒体Bが貼り付けられている。
(d)では、ホワイトボード上の媒体Aに重ねて媒体Cが貼り付けられている。
(e)では、ホワイトボード上の媒体Bから媒体Cにかけて手書きが行われている。
尚、この例において、媒体A,B,Cには、上述したように、電子文書が印刷され、これらの電子文書は文書サーバ30の貼り付け文書用フォルダに格納されているものとする。また、投影される画像は、上述したように、電子文書の画像であり、この電子文書は文書サーバ30の投影文書用フォルダに格納されているものとする。
In (a), medium A is affixed to the whiteboard.
In (b), an image is projected on the whiteboard.
In (c), medium B is affixed to the whiteboard.
In (d), medium C is pasted over medium A on the whiteboard.
In (e), handwriting is performed from medium B to medium C on the whiteboard.
In this example, it is assumed that the electronic documents are printed on the media A, B, and C and stored in the pasted document folder of the document server 30 as described above. The projected image is an electronic document image as described above, and this electronic document is stored in the projected document folder of the document server 30.

まず、本実施の形態における投影撮像装置40の動作について説明する。
図5は、投影撮像装置40の動作例を示したフローチャートである。
投影撮像装置40では、まず、制御部41が、撮像情報のインデックスを示す変数Nに「0」を代入する(ステップ401)。次に、撮像部47を制御してホワイトボードの初期状態を撮像する(ステップ402)。そして、撮像時刻をT(0)として、撮像画像をP(0)としてメモリ42にそれぞれ記録する(ステップ403)。
First, the operation of the projection imaging apparatus 40 in the present embodiment will be described.
FIG. 5 is a flowchart showing an operation example of the projection imaging apparatus 40.
In the projection imaging apparatus 40, first, the control unit 41 assigns “0” to a variable N indicating an index of imaging information (step 401). Next, the imaging unit 47 is controlled to image the initial state of the whiteboard (step 402). Then, the captured time is recorded as T (0) and the captured image is recorded as P (0) in the memory 42 (step 403).

その後、制御部41は、終了指示があるまで、ホワイトボードを撮像して変化があれば記録する、という処理を繰り返す。
即ち、まず、制御部41は、撮像間隔として予め定められた時間T1が経過しているかどうかを判定し(ステップ404)、時間T1が経過していなければ、ステップ404の判定を繰り返し、時間T1が経過していれば、終了指示があったかどうかを判定する(ステップ405)。
ここで、終了指示がなければ、撮像部47を制御してホワイトボードの現在の状態を撮像する(ステップ406)。そして、直近に記録した撮像画像と、今回の撮像で得られた撮像画像とを比較し、変化があったかどうかを判定する(ステップ407)。
Thereafter, the control unit 41 repeats the process of imaging the whiteboard and recording if there is a change until an end instruction is issued.
That is, first, the control unit 41 determines whether or not a predetermined time T1 has passed as an imaging interval (step 404), and if the time T1 has not elapsed, the determination in step 404 is repeated and the time T1 is repeated. If elapses, it is determined whether or not there is an end instruction (step 405).
If there is no end instruction, the imaging unit 47 is controlled to image the current state of the whiteboard (step 406). Then, the most recently recorded captured image is compared with the captured image obtained by the current imaging to determine whether there has been a change (step 407).

その結果、変化がなければ、ステップ404に進む。
一方、変化があったとしても、ホワイトボードに媒体が貼り付けられたり画像が投影されたり手書きが行われたりしたことによる変化だけとは限らない。例えば、ホワイトボードの前にいる発表者等の動きが撮像画像の変化として認識される場合もある。そこで、制御部41は、ステップ407で認識された変化がホワイトボード上のものかどうかを判定する(ステップ408)。具体的には、撮像部47のフォーカスがホワイトボードに合うように設定しておき、変化があった部分のシャープネスを解析することで、判定するとよい。つまり、シャープネスがある程度高い場合に、ホワイトボード上の変化であると判定し、シャープネスがそれよりも低い場合に、ホワイトボード上の変化ではないと判定する。
As a result, if there is no change, the process proceeds to step 404.
On the other hand, even if there is a change, it is not necessarily the change due to the medium being pasted on the whiteboard, the image being projected, or the handwriting being performed. For example, the movement of a presenter or the like in front of the whiteboard may be recognized as a change in the captured image. Therefore, the control unit 41 determines whether the change recognized in step 407 is on the whiteboard (step 408). Specifically, the determination may be made by setting the focus of the imaging unit 47 so as to match the whiteboard and analyzing the sharpness of the changed portion. That is, when the sharpness is high to some extent, it is determined that the change is on the whiteboard, and when the sharpness is lower than that, it is determined that the change is not on the whiteboard.

そして、変化がホワイトボード上のものでなければ、ステップ404に進む。
また、変化がホワイトボード上のものであれば、制御部41は、撮像画像の記録に先立って必要な画像処理を行う。即ち、ホワイトボードの前に発表者等がいれば、その発表者等の画像を除去する(ステップ409)。そして、除去した部分は、例えば、ホワイトボード上のその部分を含む撮像画像のうち、最新に記録されたものを用いて補う(ステップ410)。その後、変数Nに「1」を加算し(ステップ411)、ステップ403に戻って、撮像時刻T(N)、撮像画像P(N)を記録する。
このような処理を終了指示があるまで続け、ステップ405で終了指示があったと判定されると、処理を終了する。
If the change is not on the whiteboard, go to step 404.
If the change is on the whiteboard, the control unit 41 performs necessary image processing prior to recording the captured image. That is, if there is a presenter in front of the whiteboard, the image of the presenter is removed (step 409). The removed portion is supplemented by using, for example, the latest recorded image of the captured image including the portion on the whiteboard (step 410). Thereafter, “1” is added to the variable N (step 411), the process returns to step 403, and the imaging time T (N) and the captured image P (N) are recorded.
Such a process is continued until an end instruction is issued, and if it is determined in step 405 that an end instruction has been issued, the process ends.

図6は、図4(a)〜(e)のような操作がホワイトボードに対して行われた場合に、図5の動作によって記録される撮像情報の例を示したものである。
撮像時刻T(N)は、撮像画像P(N)が実際に記録された時刻である。
また、撮像画像P(N)としては、媒体の貼り付けについては、1枚の媒体の貼り付けを1回の変化と捉え、媒体が貼られるごとに1つの撮像画像P(N)を記録している(N=1,3,4の場合)。また、画像の投影については、1回の投影又はその投影先の移動を1回の変化と捉え、投影が行われるごと又は投影先が変化するごとに1つの撮像画像P(N)を記録している(N=2の場合)。一方で、手書きについては、その開始から終了までにある程度の時間を要し、その時間は撮像間隔T1の何倍かに達することがある。従って、ここでは、手書きを複数回の変化として捉え、個々の変化ごとに撮像画像P(N)を記録している(N=5〜7)。
FIG. 6 shows an example of imaging information recorded by the operation of FIG. 5 when the operations shown in FIGS. 4A to 4E are performed on the whiteboard.
The imaging time T (N) is the time when the captured image P (N) was actually recorded.
As for the captured image P (N), regarding the pasting of the medium, the pasting of one medium is regarded as one change, and one captured image P (N) is recorded every time the medium is pasted. (N = 1, 3, 4). Further, regarding the projection of an image, one projection or movement of the projection destination is regarded as one change, and one captured image P (N) is recorded every time the projection is performed or the projection destination is changed. (N = 2). On the other hand, handwriting requires a certain amount of time from the start to the end, and this time may reach several times the imaging interval T1. Therefore, here, handwriting is regarded as a plurality of changes, and the captured image P (N) is recorded for each change (N = 5 to 7).

尚、媒体の貼り付けや画像の投影についても、1枚の媒体の貼り付けや1回の画像の投影に対して複数の撮像画像P(N)が記録されることはある。例えば、媒体を貼り付ける際に、その媒体の一部が発表者等によって隠されている場合である。この場合は、発表者等の動きに応じて、隠されている部分が徐々に現れてくることもあるので、その都度変化として認識し、撮像画像P(N)として記録することになる。   As for the pasting of the medium and the projection of the image, a plurality of captured images P (N) may be recorded for the pasting of one medium and the projection of one image. For example, when a medium is pasted, a part of the medium is hidden by a presenter or the like. In this case, the hidden portion may gradually appear according to the movement of the presenter or the like, so that it is recognized as a change each time and is recorded as the captured image P (N).

以上のようにして記録された撮像情報は、任意のタイミングで文書サーバ30に送られる。例えば、撮像情報の記録が終了してから予め定められた時間が経過すると送られるようにしてもよいし、撮像情報の記録が終了した後に外部から明示的な指示があると送られるようにしてもよい。   The imaging information recorded as described above is sent to the document server 30 at an arbitrary timing. For example, it may be sent when a predetermined time elapses after the recording of imaging information ends, or it may be sent when there is an explicit instruction from the outside after the recording of imaging information ends. Also good.

次に、本実施の形態における文書サーバ30の動作について説明する。
まず、文書サーバ30では、受信部31が、このようにして送られてきた撮像情報を受信し、撮像情報記憶部32に記憶する。
その後、差分情報生成部33が、撮像情報記憶部32に記憶された撮像情報に基づいて、差分情報を生成する。
図7は、差分情報生成部33の動作例を示したフローチャートである。
まず、差分情報生成部33は、図5で用いた変数Nに「0」を代入すると共に、ホワイトボードに対する1つの意味ある操作の回数をカウントするための変数Mに「0」を代入する(ステップ301)。ここで、1つの意味ある操作とは、例えば、1枚の媒体を貼り付ける操作、1回の投影を行う操作、1つの連続する手書きを行う操作等を意味する。そして、撮像時刻T(0)、撮像画像P(0)を撮像情報記憶部32から読み込む(ステップ302)。
Next, the operation of the document server 30 in the present embodiment will be described.
First, in the document server 30, the reception unit 31 receives the imaging information sent in this way and stores it in the imaging information storage unit 32.
Thereafter, the difference information generation unit 33 generates difference information based on the imaging information stored in the imaging information storage unit 32.
FIG. 7 is a flowchart showing an operation example of the difference information generation unit 33.
First, the difference information generation unit 33 assigns “0” to the variable N used in FIG. 5 and assigns “0” to the variable M for counting the number of one meaningful operations on the whiteboard ( Step 301). Here, one meaningful operation means, for example, an operation of pasting one medium, an operation of performing projection once, an operation of performing continuous handwriting, and the like. Then, the imaging time T (0) and the captured image P (0) are read from the imaging information storage unit 32 (step 302).

次に、差分情報生成部33は、撮像時刻T(N)及び撮像画像P(N)がある限り、撮像時刻T(N)及び撮像画像P(N)に基づいて差分情報を生成する、という処理を行う。
即ち、まず、差分情報生成部33は、変数Nに「1」を加算し(ステップ303)、撮像時刻T(N)と撮像画像P(N)との対応があるかどうかを判定する(ステップ304)。
Next, the difference information generation unit 33 generates difference information based on the imaging time T (N) and the captured image P (N) as long as the imaging time T (N) and the captured image P (N) are present. Process.
That is, first, the difference information generation unit 33 adds “1” to the variable N (step 303), and determines whether or not there is a correspondence between the imaging time T (N) and the captured image P (N) (step). 304).

ここで、撮像時刻T(N)と撮像画像P(N)との対応があれば、撮像時刻T(N)、撮像画像P(N)を撮像情報記憶部32から読み込む(ステップ305)。そして、今回の撮像時刻T(N)から1つ前の撮像時刻T(N−1)を減ずることにより、第1差分時刻DT(N)を求め、差分情報記憶部34に記憶する(ステップ306)。また、今回の撮像画像P(N)から1つ前の撮像画像P(N−1)を差し引く画像処理を行うことにより、第1差分画像DP(N)を求め、差分情報記憶部34に記憶する(ステップ307)。ここで、第1差分時刻及び第1差分画像は、ホワイトボードに対する操作が1つの意味ある操作であるかどうかを考慮せず、今回の撮像情報から単純に1つ前の撮像情報を差し引いて得られた情報である。   If there is a correspondence between the imaging time T (N) and the captured image P (N), the imaging time T (N) and the captured image P (N) are read from the imaging information storage unit 32 (step 305). Then, by subtracting the previous imaging time T (N−1) from the current imaging time T (N), the first difference time DT (N) is obtained and stored in the difference information storage unit 34 (step 306). ). Further, by performing image processing for subtracting the previous captured image P (N−1) from the current captured image P (N), the first differential image DP (N) is obtained and stored in the differential information storage unit 34. (Step 307). Here, the first difference time and the first difference image are obtained by simply subtracting the previous imaging information from the current imaging information without considering whether the operation on the whiteboard is one meaningful operation. Information.

次に、差分情報生成部33は、第1差分時刻DT(N)が、ホワイトボードに対する意味のある操作を区別するための時間間隔として予め定められた時間T2を超えているかどうかを判定する(ステップ308)。ここで、時間T2としては、一般的には、図5で用いた撮像間隔T1よりも大きな値が設定される。
その結果、時間T2を超えていれば、まず、変数Mに「1」を加算する(ステップ309)。そして、今回の意味ある操作までの時間である第2差分時刻CT(M)に、前回の意味ある操作までの時間である第2差分時刻CT(M−1)を代入し(ステップ310)、第2差分画像CP(M)を初期化する(ステップ311)。
一方、時間T2を超えていなければ、変数M、第2差分時刻CT(M)、第2差分画像CP(M)はそのままにしておく。
Next, the difference information generation unit 33 determines whether or not the first difference time DT (N) exceeds a predetermined time T2 as a time interval for distinguishing meaningful operations on the whiteboard ( Step 308). Here, as the time T2, a value larger than the imaging interval T1 used in FIG. 5 is generally set.
As a result, if the time T2 is exceeded, first, “1” is added to the variable M (step 309). Then, the second differential time CT (M−1) that is the time to the previous meaningful operation is substituted into the second differential time CT (M) that is the time to the current meaningful operation (step 310). The second difference image CP (M) is initialized (step 311).
On the other hand, if the time T2 is not exceeded, the variable M, the second difference time CT (M), and the second difference image CP (M) are left as they are.

その後、差分情報生成部33は、操作の開始から今回の意味ある操作の終了までの時間である第2差分時刻CT(M)を、ステップ306で求めた第1差分時刻DT(N)を順次足し込んでいくことにより求め、差分情報記憶部34に記憶する(ステップ312)。尚、今回の操作が、1つの意味ある操作の途中の操作である場合、第2差分時刻CT(M)は、この時点ではまだ、意味ある操作の終了までの時間を表すものとはなっていない。しかしながら、変数Mを「1」ずつ加算しながら計算を繰り返すことにより、最終的には、第2差分時刻CT(M)は、意味ある操作の終了までの時間を表すものとなる。
また、差分情報生成部33は、今回の意味ある操作の画像である第2差分画像CP(M)を、ステップ307で求めた第1差分画像DP(N)を順次足し込んでいくことにより求め、差分情報記憶部34に記憶する(ステップ313)。尚、今回の操作が、1つの意味ある操作の途中の操作である場合、第2差分画像CP(M)は、この時点ではまだ、意味ある操作全体の画像を表すものとはなっていない。しかしながら、変数Mを「1」ずつ加算しながら計算を繰り返すことにより、最終的には、第2差分画像CP(M)は、意味ある操作全体の画像を表すものとなる。
このような処理を撮像時刻T(N)と撮像画像P(N)との対応がなくなるまで続け、ステップ304で撮像時刻T(N)と撮像画像P(N)との対応がないと判定されると、処理を終了する。
Thereafter, the difference information generation unit 33 sequentially obtains the second difference time CT (M), which is the time from the start of the operation to the end of the current meaningful operation, and the first difference time DT (N) obtained in step 306. It is obtained by adding and stored in the difference information storage unit 34 (step 312). When the current operation is an operation in the middle of one meaningful operation, the second differential time CT (M) still does not represent the time until the end of the meaningful operation at this point. Absent. However, by repeating the calculation while adding the variable M by “1”, finally, the second difference time CT (M) represents the time until the end of the meaningful operation.
Further, the difference information generation unit 33 obtains the second difference image CP (M) that is an image of the meaningful operation of this time by sequentially adding the first difference image DP (N) obtained in step 307. And stored in the difference information storage unit 34 (step 313). When the current operation is an operation in the middle of one meaningful operation, the second difference image CP (M) does not yet represent an image of the entire meaningful operation at this point. However, by repeating the calculation while adding the variable M by “1”, the second difference image CP (M) finally represents an image of the entire meaningful operation.
Such processing is continued until the correspondence between the imaging time T (N) and the captured image P (N) is lost, and it is determined in step 304 that there is no correspondence between the imaging time T (N) and the captured image P (N). Then, the process ends.

図8は、図6のような撮像情報を受信した場合に、図7の動作によって差分情報記憶部34に記録される差分情報の例を示したものである。
第1差分時刻DT(N)は、(N−1)回目の撮像画像の記録からN回目の撮像画像の記録までの時間である。
第1差分画像DP(N)は、(N−1)回目の撮像画像の記録からN回目の撮像画像の記録までに追加された画像である。ここで、ホワイトボードの枠については、点線で示している。これは、第1差分画像DP(N)が、追加された画像の内容のみを管理するものではなく、撮像画像全体における位置の情報や、撮像画像全体に対するサイズの情報も管理していることを意味する。また、例えば、媒体が傾いた状態で貼り付けられた場合には、角度の情報も管理する。
FIG. 8 shows an example of difference information recorded in the difference information storage unit 34 by the operation of FIG. 7 when the imaging information as shown in FIG. 6 is received.
The first difference time DT (N) is the time from the recording of the (N−1) th captured image to the recording of the Nth captured image.
The first difference image DP (N) is an image added from the (N−1) th captured image recording to the Nth captured image recording. Here, the whiteboard frame is indicated by a dotted line. This is because the first difference image DP (N) does not manage only the content of the added image, but also manages the position information in the entire captured image and the size information for the entire captured image. means. Further, for example, when the medium is attached in a tilted state, information on the angle is also managed.

また、第2差分時刻CT(M)は、ホワイトボードの初期状態の撮像画像の記録から、ホワイトボードに対するM回目の意味ある操作の撮像画像の記録までの時間である。
第2差分画像CP(M)は、ホワイトボードに対する(M−1)回目の意味ある操作の撮像画像の記録から、ホワイトボードに対するM回目の意味ある操作の撮像画像の記録までに追加された画像である。つまり、ホワイトボードに対するM回目の意味ある操作を表す画像である。
尚、図では、このような処理によって複数の第1差分画像を1つの意味ある操作を表す第2差分画像にまとめる例として、手書きの場合を示した(N=5〜7)。しかしながら、上述したように、媒体の貼り付けや画像の投影についても、1枚の媒体の貼り付けや1回の画像の投影に対して複数の撮像画像が記録されることはあるので、このような場合に、複数の第1差分画像を1つの意味ある操作を表す第2差分画像にまとめるようにしてもよい。
The second differential time CT (M) is the time from recording of the captured image in the initial state of the whiteboard to recording of the captured image of the Mth meaningful operation on the whiteboard.
The second difference image CP (M) is an image added from the recording of the captured image of the (M-1) th meaningful operation to the whiteboard to the recording of the captured image of the Mth meaningful operation to the whiteboard. It is. That is, the image represents an M-th meaningful operation on the whiteboard.
In the drawing, as an example of combining a plurality of first difference images into a second difference image representing one meaningful operation by such processing, the case of handwriting is shown (N = 5 to 7). However, as described above, a plurality of picked-up images may be recorded for the pasting of one medium and the projection of a single image for the pasting of a medium and the projection of an image. In such a case, the plurality of first difference images may be combined into a second difference image representing one meaningful operation.

次いで、文書検索部35が、差分情報記憶部34に記憶された差分情報に基づいて、表示情報を生成する。
図9は、文書検索部35の動作例を示したフローチャートである。
まず、文書検索部35は、図7で用いた変数Mに「0」を代入し(ステップ321)、画面オブジェクトV(0)を初期化する(ステップ322)。ここで、画面オブジェクトV(M)は、M回目の意味ある操作が行われた時点のホワイトボードの状態を表す画面オブジェクトであり、M=0の場合、ホワイトボードの初期状態を表す画面オブジェクトである。
Next, the document search unit 35 generates display information based on the difference information stored in the difference information storage unit 34.
FIG. 9 is a flowchart illustrating an operation example of the document search unit 35.
First, the document search unit 35 substitutes “0” for the variable M used in FIG. 7 (step 321), and initializes the screen object V (0) (step 322). Here, the screen object V (M) is a screen object that represents the state of the whiteboard when the Mth meaningful operation is performed. When M = 0, the screen object represents the initial state of the whiteboard. is there.

次に、文書検索部35は、第2差分時刻CT(M)及び第2差分画像CP(M)がある限り、第2差分時刻CT(M)及び第2差分画像CP(M)に基づいて表示情報を生成する、という処理を行う。
即ち、まず、文書検索部35は、変数Mに「1」を加算し(ステップ323)、第2差分時刻CT(M)と第2差分画像CP(M)との対応があるかどうかを判定する(ステップ324)。
Next, as long as there is the second difference time CT (M) and the second difference image CP (M), the document search unit 35 is based on the second difference time CT (M) and the second difference image CP (M). A process of generating display information is performed.
That is, first, the document search unit 35 adds “1” to the variable M (step 323), and determines whether or not there is a correspondence between the second difference time CT (M) and the second difference image CP (M). (Step 324).

ここで、第2差分時刻CT(M)と第2差分画像CP(M)との対応があれば、第2差分時刻CT(M)、第2差分画像CP(M)を差分情報記憶部34から読み込む(ステップ325)。そして、ホワイトボードに対する操作の開始時刻であるT(0)に、ホワイトボードに対する操作の開始時刻からM回目の意味ある操作までの時間である第2差分時刻CT(M)を加算することにより、M回目の意味ある操作が行われた操作時刻VT(M)を求め、表示情報記憶部36に記憶する(ステップ326)。また、M回目の意味ある操作を表す画像である第2差分画像CP(M)をオブジェクト化することにより、表示要素の一例である要素オブジェクトVO(M)を生成し、表示情報記憶部36に記憶する(ステップ327)。   Here, if there is a correspondence between the second difference time CT (M) and the second difference image CP (M), the second difference time CT (M) and the second difference image CP (M) are stored in the difference information storage unit 34. (Step 325). Then, by adding the second difference time CT (M) that is the time from the start time of the operation to the whiteboard to the Mth meaningful operation to T (0) that is the start time of the operation to the whiteboard, An operation time VT (M) at which the Mth meaningful operation is performed is obtained and stored in the display information storage unit 36 (step 326). In addition, the second differential image CP (M), which is an image representing the Mth meaningful operation, is converted into an object to generate an element object VO (M) that is an example of a display element, and is stored in the display information storage unit 36. Store (step 327).

その後、文書検索部35は、要素オブジェクトVO(M)の形状が矩形であるかどうかを判定する(ステップ328)。これは、ホワイトボードに貼り付けられる媒体、投影された画像の形状が一般に矩形だからであるが、矩形以外の形状が想定される場合には、このステップ328の判定条件は柔軟に変更してよい。
その結果、要素オブジェクトVO(M)の形状が矩形でなければ、要素オブジェクトVO(M)は手書きを表すオブジェクトであって、電子文書との関連付けは必要ないので、そのままステップ334へ進む。
Thereafter, the document search unit 35 determines whether or not the shape of the element object VO (M) is a rectangle (step 328). This is because the medium to be pasted on the whiteboard and the shape of the projected image are generally rectangular. However, when a shape other than the rectangle is assumed, the determination condition in step 328 may be flexibly changed. .
As a result, if the shape of the element object VO (M) is not rectangular, the element object VO (M) is an object representing handwriting and does not need to be associated with the electronic document.

一方、要素オブジェクトVO(M)の形状が矩形であれば、要素オブジェクトVO(M)に対応する電子文書を特定する処理を行う。
即ち、まず、文書検索部35は、要素オブジェクトVO(M)をその1つの頂点を左上点として正立させることにより、画像を生成する(ステップ329)。そして、特定のフォルダに格納された電子文書の中から、この画像と縦横比が類似し、かつ、レイアウトが類似する電子文書を検索する(ステップ330)。
On the other hand, if the shape of the element object VO (M) is a rectangle, the electronic document corresponding to the element object VO (M) is specified.
That is, first, the document search unit 35 generates an image by erecting the element object VO (M) with one vertex as the upper left point (step 329). Then, an electronic document having an aspect ratio similar to that of the image and a similar layout is searched from electronic documents stored in a specific folder (step 330).

ここで、受信部31が、投影撮像装置40から投影した時刻及びその時刻に投影した画像を入手しておけば、差分情報生成部33が、この入手した時刻と第2差分時刻CT(M)から得られる操作時刻とを比較すると共に、この入手した画像と第2差分画像CP(M)とを比較することにより、第2差分画像CP(M)が投影撮像装置40によって投影された画像かどうかを推測することができる。つまり、2つの時刻がある程度近く、2つの画像がある程度類似するものであれば、第2差分画像CP(M)は、投影された画像であると推測できる。一方、投影された画像であると推測できなかった第2差分画像CP(M)は、貼り付けられた媒体を表すものと考えることができる。従って、文書検索部35は、差分情報生成部33からこのような推測結果を受け、ステップ330において、要素オブジェクトVO(M)が投影された画像を表すものと考えられる場合は、投影文書用フォルダに格納された電子文書を対象に検索すればよく、要素オブジェクトVO(M)が貼り付けられた媒体の画像を表すものと考えられる場合は、貼り付け文書用フォルダに格納された電子文書を対象に検索すればよい。   Here, if the receiving unit 31 obtains the time projected from the projection imaging device 40 and the image projected at that time, the difference information generating unit 33 obtains the obtained time and the second difference time CT (M). And comparing the obtained time with the second difference image CP (M) so that the second difference image CP (M) is an image projected by the projection imaging device 40. I can guess. That is, if the two times are close to some extent and the two images are somewhat similar, it can be estimated that the second difference image CP (M) is a projected image. On the other hand, the second difference image CP (M) that could not be estimated as a projected image can be considered to represent a pasted medium. Accordingly, when the document search unit 35 receives such an estimation result from the difference information generation unit 33 and is considered to represent an image on which the element object VO (M) is projected in step 330, the document search folder 35 If the electronic document stored in the folder is considered to represent an image of the medium on which the element object VO (M) is pasted, the electronic document stored in the pasted document folder is targeted. You can search for it.

また、ステップ330でのレイアウトが類似する電子文書の検索は、具体的には、ステップ329で生成した画像における電子文書の文書要素(文字、数字、記号、図形、絵等の文書を構成する要素)が配置された領域の形状と、電子文書における文書要素が配置された領域の形状とを比較することにより行うとよい。或いは、文書要素の形状だけでなく、文書要素の色を考慮してもよい。   The search for electronic documents having similar layouts in step 330 is specifically performed by searching for document elements (characters, numbers, symbols, figures, pictures, etc. of the electronic document in the image generated in step 329. ) Is preferably compared with the shape of the area where the document element is placed in the electronic document. Alternatively, not only the shape of the document element but also the color of the document element may be considered.

次に、文書検索部35は、電子文書の検索が成功したかどうかを判定する(ステップ331)。
ここで、電子文書の検索が成功した場合には、検索した電子文書へのリンクを要素オブジェクトVO(M)に埋め込み(ステップ332)、ステップ334へ進む。
一方、電子文書の検索が成功しなかった場合は、他に頂点があるかどうかを判定する(ステップ333)。そして、他に頂点があれば、その頂点に着目して、ステップ329〜333の処理を繰り返す。また、他に頂点がなければ、そのままステップ334へ進む。
そして、最後に、文書検索部35は、(M−1)回目の意味ある操作が行われた時点のホワイトボードの状態を表す画面オブジェクトV(M−1)に、M回目の意味ある操作を表す要素オブジェクトVO(M)を追加することにより、M回目の意味ある操作が行われた時点のホワイトボードの状態を表す画面オブジェクトV(M)を求め、表示情報記憶部36に記憶する(ステップ334)。
このような処理を第2差分時刻CT(M)と第2差分画像CP(M)との対応がなくなるまで続け、ステップ324で第2差分時刻CT(M)と第2差分画像CP(M)との対応がないと判定されると、処理を終了する。
Next, the document search unit 35 determines whether the electronic document search is successful (step 331).
If the electronic document search is successful, a link to the searched electronic document is embedded in the element object VO (M) (step 332), and the process proceeds to step 334.
On the other hand, if the electronic document search is not successful, it is determined whether there is another vertex (step 333). If there are other vertices, paying attention to the vertices, the processing of steps 329 to 333 is repeated. If there is no other vertex, the process proceeds to step 334 as it is.
Finally, the document search unit 35 applies the M-th meaningful operation to the screen object V (M-1) representing the state of the whiteboard at the time when the (M-1) -th meaningful operation was performed. By adding the element object VO (M) to be represented, the screen object V (M) representing the state of the whiteboard at the time when the Mth meaningful operation is performed is obtained and stored in the display information storage unit 36 (step S40). 334).
Such processing is continued until the correspondence between the second difference time CT (M) and the second difference image CP (M) is lost, and in step 324, the second difference time CT (M) and the second difference image CP (M). If it is determined that there is no correspondence with, the process is terminated.

図10は、図8のような差分情報が記憶されていた場合に、図9の動作によって表示情報記憶部36に記録される表示情報の例を示したものである。
VT(M)は、ホワイトボードに対する1つの意味のある操作が行われた操作時刻である。
VO(M)は、ホワイトボードに対する1つの意味のある操作で追加された画像を表す要素オブジェクトである。例えば、貼り付けられた媒体を表す要素オブジェクト(M=1,3,4の場合)や、投影された画像を表す要素オブジェクト(M=2の場合)や、手書きを表す要素オブジェクト(M=5の場合)がある。このうち、貼り付けられた媒体を表す要素オブジェクトには媒体に印刷された電子文書へのリンクが埋め込まれ、投影された電子文書の画像を表す要素オブジェクトには、この電子文書へのリンクが埋め込まれる。図では、リンクが埋め込まれていることを網掛けで表している。そして、ここでも、ホワイトボードの枠については、点線で示している。これは、要素オブジェクトVO(M)が、ホワイトボードに対する操作のみに対応するオブジェクトであるので、ホワイトボード全体を表す画面オブジェクトにおける位置の情報や、画面オブジェクトに対するサイズの情報も管理していることを意味する。また、例えば、媒体が傾いた状態で貼り付けられた場合には、角度の情報も管理する。そこで、これらの位置、サイズ、角度の情報を用いて、ホワイトボードを表す画面オブジェクトに時間順に要素オブジェクトVO(M)を追加していくことにより、画面オブジェクトV(M)が生成される。
FIG. 10 shows an example of display information recorded in the display information storage unit 36 by the operation of FIG. 9 when difference information as shown in FIG. 8 is stored.
VT (M) is an operation time when one meaningful operation is performed on the whiteboard.
VO (M) is an element object representing an image added by one meaningful operation on the whiteboard. For example, an element object representing a pasted medium (when M = 1, 3, 4), an element object representing a projected image (when M = 2), an element object representing handwriting (M = 5) In the case of). Among these, a link to the electronic document printed on the medium is embedded in the element object representing the pasted medium, and a link to this electronic document is embedded in the element object representing the image of the projected electronic document. It is. In the figure, the fact that the link is embedded is indicated by shading. Again, the whiteboard frame is indicated by a dotted line. This is because the element object VO (M) is an object corresponding only to an operation on the whiteboard, so that the position information on the screen object representing the entire whiteboard and the size information on the screen object are also managed. means. Further, for example, when the medium is attached in a tilted state, information on the angle is also managed. Therefore, the screen object V (M) is generated by adding the element objects VO (M) in time order to the screen object representing the whiteboard using the information on the position, size, and angle.

そして、最後に、文書サーバ30では、送信部39が、表示情報記憶部36に記憶された画面オブジェクトV(M)を読み出して、端末装置50に送信する。これにより、端末装置50には、画面オブジェクトが表示される。
図11は、端末装置50に表示される画面オブジェクトの例を示したものである。
ここでは、図10におけるV(5)に基づく画面オブジェクトの例を示している。即ち、要素オブジェクト51、52、53は、それぞれ、図4の媒体A,B,Cを表す要素オブジェクトであり、要素オブジェクト54は、投影された画像を表す要素オブジェクトである。
ここで、各要素オブジェクトには、上述したように、電子文書へのリンクが埋め込まれている。従って、例えば、要素オブジェクト54をクリックすると、エディタ55が起動され、投影された画像の元となる電子文書の編集等が可能になる。
尚、この例では、電子文書へのリンク(電子文書を参照するための情報)を要素オブジェクトに埋め込むようにしたが、電子文書の画像を要素オブジェクトに重畳して表示するようにしてもよい。
Finally, in the document server 30, the transmission unit 39 reads the screen object V (M) stored in the display information storage unit 36 and transmits it to the terminal device 50. Thereby, a screen object is displayed on the terminal device 50.
FIG. 11 shows an example of a screen object displayed on the terminal device 50.
Here, an example of a screen object based on V (5) in FIG. 10 is shown. That is, the element objects 51, 52, and 53 are element objects that represent the media A, B, and C in FIG. 4, respectively, and the element object 54 is an element object that represents a projected image.
Here, as described above, a link to the electronic document is embedded in each element object. Therefore, for example, when the element object 54 is clicked, the editor 55 is activated, and the electronic document that is the basis of the projected image can be edited.
In this example, the link to the electronic document (information for referring to the electronic document) is embedded in the element object, but the image of the electronic document may be displayed superimposed on the element object.

また、図11に示した画面オブジェクトは、各画面オブジェクトの元となる操作が行われた操作時刻に関連付けられる。そして、端末装置50は、操作時刻が指定されると、その操作時刻に関連付けられた画面オブジェクトを表示する。或いは、ホワイトボードに対する操作の開始から操作の終了まで、画面オブジェクトを時間順に表示するようにしてもよい。
以上により、本実施の形態の動作の説明を終了する。
Further, the screen object shown in FIG. 11 is associated with the operation time when the operation that is the basis of each screen object is performed. Then, when the operation time is designated, the terminal device 50 displays a screen object associated with the operation time. Or you may make it display a screen object in order of time from the start of operation with respect to a whiteboard to completion | finish of operation.
This is the end of the description of the operation of the present embodiment.

尚、本実施の形態では、媒体に印刷された電子文書や投影された画像の元となる電子文書を、電子文書のレイアウトに基づいて特定したが、これには限らない。例えば、電子文書が印刷された媒体や投影される電子文書に対して電子文書を識別する情報を埋め込んでおき、この情報に基づいて電子文書を特定するようにしてもよい。但し、この場合の埋め込む情報は、撮像画像から誤りなく取り出せる程度の大きさとすることが好ましい。   In the present embodiment, the electronic document printed on the medium or the electronic document that is the basis of the projected image is specified based on the layout of the electronic document. However, the present invention is not limited to this. For example, information for identifying an electronic document may be embedded in a medium on which the electronic document is printed or an electronic document to be projected, and the electronic document may be specified based on this information. However, the information to be embedded in this case is preferably large enough to be extracted from the captured image without error.

ところで、本実施の形態では、電子文書を保持する文書サーバ30が、撮像情報の取得、差分情報の生成、電子文書の特定、画面の表示の指示等の処理を行うようにしたが、これらの処理は如何なる装置で行ってもよい。例えば、投影撮像装置40や端末装置50で行ってもよいし、これ以外の電子文書を保持しないコンピュータで行ってもよい。
そこで、これらの処理をコンピュータ90で行うものとして、コンピュータ90のハードウェア構成について説明する。
By the way, in the present embodiment, the document server 30 that holds an electronic document performs processing such as acquisition of imaging information, generation of difference information, identification of an electronic document, instruction to display a screen, and the like. Processing may be performed by any apparatus. For example, it may be performed by the projection imaging device 40 or the terminal device 50, or may be performed by a computer that does not hold any other electronic document.
Therefore, the hardware configuration of the computer 90 will be described assuming that these processes are performed by the computer 90.

図12は、コンピュータ90のハードウェア構成を示した図である。
図示するように、コンピュータ90は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92及び磁気ディスク装置(HDD:Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各機能を実現する。また、メインメモリ92は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置93は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。
更に、コンピュータ90は、外部との通信を行うための通信I/F94と、ビデオメモリやディスプレイ等からなる表示機構95と、キーボードやマウス等の入力デバイス96とを備える。
FIG. 12 is a diagram illustrating a hardware configuration of the computer 90.
As shown in the figure, the computer 90 includes a CPU (Central Processing Unit) 91 as a calculation means, a main memory 92 as a storage means, and a magnetic disk device (HDD: Hard Disk Drive) 93. Here, the CPU 91 executes various types of software such as an OS (Operating System) and applications to realize the above-described functions. The main memory 92 is a storage area for storing various software and data used for execution thereof, and the magnetic disk device 93 is a storage area for storing input data for various software, output data from various software, and the like. .
Further, the computer 90 includes a communication I / F 94 for performing communication with the outside, a display mechanism 95 including a video memory and a display, and an input device 96 such as a keyboard and a mouse.

尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。   The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

10,50…端末装置、20…画像形成装置、30…文書サーバ、40…投影撮像装置、80…ネットワーク DESCRIPTION OF SYMBOLS 10,50 ... Terminal device, 20 ... Image forming device, 30 ... Document server, 40 ... Projection imaging device, 80 ... Network

Claims (8)

電子文書が印刷された媒体が貼られた面を撮像することによって得られた撮像画像を取得する取得手段と、
前記取得手段により取得された前記撮像画像から、前記媒体が貼られた部分の部分画像を抽出する抽出手段と、
前記抽出手段により抽出された前記部分画像に基づいて、前記電子文書を特定する特定手段と、
前記取得手段により取得された前記撮像画像を表す画面であって、前記抽出手段により抽出された前記部分画像の位置に、前記特定手段により特定された前記電子文書に関連付けられた表示要素を含む画面の表示を指示する指示手段と
を備えたことを特徴とする文書表示制御装置。
An acquisition means for acquiring a captured image obtained by imaging a surface on which a medium on which an electronic document is printed is pasted;
Extraction means for extracting a partial image of a part to which the medium is pasted from the captured image acquired by the acquisition means;
Specifying means for specifying the electronic document based on the partial image extracted by the extracting means;
A screen that represents the captured image acquired by the acquisition unit, and includes a display element associated with the electronic document specified by the specifying unit at the position of the partial image extracted by the extraction unit. A document display control apparatus comprising: instruction means for instructing display of the document.
前記取得手段は、媒体が貼られるごとに前記面を撮像することによって得られた複数の撮像画像と、当該複数の撮像画像が得られた複数の時刻をそれぞれ示す複数の時刻情報とを取得し、
前記指示手段は、前記取得手段により取得された前記複数の撮像画像をそれぞれ表す複数の画面であって、各画面が、前記取得手段により取得された前記複数の時刻情報のうち当該各画面が表す撮像画像が得られた時刻を示す時刻情報に関連付けられた複数の画面の表示を指示することを特徴とする請求項1に記載の文書表示制御装置。
The acquisition unit acquires a plurality of captured images obtained by capturing the surface each time a medium is attached, and a plurality of time information respectively indicating a plurality of times when the plurality of captured images are obtained. ,
The instruction means is a plurality of screens respectively representing the plurality of captured images acquired by the acquisition means, and each screen represents each of the plurality of time information acquired by the acquisition means. The document display control apparatus according to claim 1, wherein a display of a plurality of screens associated with time information indicating a time when a captured image is obtained is instructed.
前記指示手段は、前記複数の画面のうち、指定された時刻を示す時刻情報に関連付けられた画面の表示を指示することを特徴とする請求項2に記載の文書表示制御装置。   The document display control apparatus according to claim 2, wherein the instruction unit instructs display of a screen associated with time information indicating a specified time among the plurality of screens. 前記取得手段は、電子文書の画像が投影装置により投影された前記面を撮像することによって得られた撮像画像を取得し、
前記抽出手段は、前記投影装置により投影された前記電子文書の画像に基づいて、前記取得手段により取得された前記撮像画像から、当該電子文書の画像が投影された部分の部分画像を抽出することを特徴とする請求項1乃至3の何れかに記載の文書表示制御装置。
The acquisition unit acquires a captured image obtained by capturing the surface on which an image of an electronic document is projected by a projection device;
The extraction unit extracts a partial image of a portion onto which the image of the electronic document is projected from the captured image acquired by the acquisition unit based on the image of the electronic document projected by the projection device. The document display control device according to claim 1, wherein
前記特定手段は、前記部分画像における前記電子文書の文書要素が配置された領域の形状と、前記電子文書における当該電子文書の文書要素が配置された領域の形状とに基づいて、前記電子文書を特定することを特徴とする請求項1乃至4の何れかに記載の文書表示制御装置。   The specifying unit is configured to determine the electronic document based on a shape of a region in which the document element of the electronic document is arranged in the partial image and a shape of a region in which the document element of the electronic document is arranged in the electronic document. The document display control apparatus according to claim 1, wherein the document display control apparatus is specified. 前記指示手段は、前記電子文書を参照するための情報が埋め込まれた前記表示要素を含む前記画面の表示を指示することを特徴とする請求項1乃至5の何れかに記載の文書表示制御装置。   The document display control device according to claim 1, wherein the instruction unit instructs display of the screen including the display element in which information for referring to the electronic document is embedded. . 前記指示手段は、前記電子文書の画像が重畳された前記表示要素を含む前記画面の表示を指示することを特徴とする請求項1乃至5の何れかに記載の文書表示制御装置。   The document display control apparatus according to claim 1, wherein the instruction unit instructs display of the screen including the display element on which an image of the electronic document is superimposed. コンピュータに、
電子文書が印刷された媒体が貼られた面を撮像することによって得られた撮像画像を取得する機能と、
前記撮像画像から、前記媒体が貼られた部分の部分画像を抽出する機能と、
前記部分画像に基づいて、前記電子文書を特定する機能と、
前記撮像画像を表す画面であって、前記部分画像の位置に、前記電子文書に関連付けられた表示要素を含む画面の表示を指示する機能と
を実現させるためのプログラム。
On the computer,
A function of acquiring a captured image obtained by imaging a surface on which a medium on which an electronic document is printed is pasted;
A function of extracting a partial image of a portion to which the medium is pasted from the captured image;
A function of identifying the electronic document based on the partial image;
A program for realizing a function of instructing display of a screen including the display element associated with the electronic document at a position of the partial image, the screen representing the captured image.
JP2009068714A 2009-03-19 2009-03-19 Document display control device and program Expired - Fee Related JP5262888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009068714A JP5262888B2 (en) 2009-03-19 2009-03-19 Document display control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009068714A JP5262888B2 (en) 2009-03-19 2009-03-19 Document display control device and program

Publications (2)

Publication Number Publication Date
JP2010224666A true JP2010224666A (en) 2010-10-07
JP5262888B2 JP5262888B2 (en) 2013-08-14

Family

ID=43041814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009068714A Expired - Fee Related JP5262888B2 (en) 2009-03-19 2009-03-19 Document display control device and program

Country Status (1)

Country Link
JP (1) JP5262888B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199676A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Image processor and image processing method
JP2015233214A (en) * 2014-06-10 2015-12-24 日本電気株式会社 Information display processing system, information display processing method, and information display processing program
JP2018050285A (en) * 2016-09-16 2018-03-29 株式会社リコー Communication terminal, communication system, output method, and program
JP2019114941A (en) * 2017-12-25 2019-07-11 古野電気株式会社 Reproducer, remote reproduction system, reproduction method, and computer program
JP2020126320A (en) * 2019-02-01 2020-08-20 三菱重工業株式会社 Information management device, information management system, allonge tag, information management method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259635A (en) * 1998-03-13 1999-09-24 Fuji Photo Film Co Ltd Method and device for editing image
JP2001078020A (en) * 1999-09-08 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> Image preparing and processing method
JP2005062748A (en) * 2003-08-20 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Information presentation system and method of using information presentation system
JP2006134079A (en) * 2004-11-05 2006-05-25 Fuji Xerox Co Ltd Image processing device and program
WO2007004519A1 (en) * 2005-06-30 2007-01-11 Olympus Corporation Search system and search method
JP2007066315A (en) * 2006-09-11 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> Shared white board history reproduction method, shared white board system, program and recording medium
JP2008258732A (en) * 2007-04-02 2008-10-23 Nikon Corp Camera with projector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259635A (en) * 1998-03-13 1999-09-24 Fuji Photo Film Co Ltd Method and device for editing image
JP2001078020A (en) * 1999-09-08 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> Image preparing and processing method
JP2005062748A (en) * 2003-08-20 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Information presentation system and method of using information presentation system
JP2006134079A (en) * 2004-11-05 2006-05-25 Fuji Xerox Co Ltd Image processing device and program
WO2007004519A1 (en) * 2005-06-30 2007-01-11 Olympus Corporation Search system and search method
JP2007066315A (en) * 2006-09-11 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> Shared white board history reproduction method, shared white board system, program and recording medium
JP2008258732A (en) * 2007-04-02 2008-10-23 Nikon Corp Camera with projector

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012199676A (en) * 2011-03-18 2012-10-18 Ricoh Co Ltd Image processor and image processing method
JP2015233214A (en) * 2014-06-10 2015-12-24 日本電気株式会社 Information display processing system, information display processing method, and information display processing program
US10055106B2 (en) 2014-06-10 2018-08-21 Nec Corporation Information display processing system, information display processing method, and program recording medium
JP2018050285A (en) * 2016-09-16 2018-03-29 株式会社リコー Communication terminal, communication system, output method, and program
JP2019114941A (en) * 2017-12-25 2019-07-11 古野電気株式会社 Reproducer, remote reproduction system, reproduction method, and computer program
JP6993869B2 (en) 2017-12-25 2022-01-14 古野電気株式会社 Playback device, remote playback system, playback method, and computer program
JP2020126320A (en) * 2019-02-01 2020-08-20 三菱重工業株式会社 Information management device, information management system, allonge tag, information management method, and program
JP7222734B2 (en) 2019-02-01 2023-02-15 三菱重工業株式会社 Information management device, information management system, sticky note, information management method and program

Also Published As

Publication number Publication date
JP5262888B2 (en) 2013-08-14

Similar Documents

Publication Publication Date Title
EP2105930B1 (en) Selection and positioning of images within a template based on relative comparison of image attributes
JP2011176794A (en) Imaging apparatus and imaging method
US20040076342A1 (en) Automatic image placement and linking
JP5262888B2 (en) Document display control device and program
JP5870639B2 (en) Image processing system, image processing apparatus, and image processing program
US20060013508A1 (en) Projection apparatus and image acquisition method
JP5024028B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2005275447A (en) Image processing device, image processing method and program
JP5441349B2 (en) Image projection apparatus and control method thereof
JP6261198B2 (en) Information processing apparatus, information processing method, and program
JP4793377B2 (en) Projection recording apparatus, on-screen information recording method, and program
JP5187001B2 (en) Information processing system and information processing apparatus
JP2009055272A (en) Image processing apparatus, image processing method, and image processing program
JP5321176B2 (en) Projection auxiliary image generation method and generation apparatus, and image forming apparatus
JP5195201B2 (en) Information processing apparatus, remote instruction system, and program
JP2006318352A (en) Image processing device
CN100583972C (en) Digital camera
JP2006157825A (en) Image selection method and image selection apparatus
JP5218687B2 (en) Image conversion apparatus, image providing system, photographing / editing apparatus, image conversion method, image conversion program, and recording medium recording the program
JP2009076983A (en) Information processing system, and information processor
JP2005122327A (en) Photographing apparatus, and its image processing method and program
JP4983489B2 (en) Information processing apparatus and information processing program
JP4389728B2 (en) Image forming apparatus, image selection screen generation method, and program
JP5518172B2 (en) Image projection device
JP2009038485A (en) Image editing device, image editing method, and image editing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5262888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees