JP2012060452A - Image processor, method therefor and program - Google Patents

Image processor, method therefor and program Download PDF

Info

Publication number
JP2012060452A
JP2012060452A JP2010202117A JP2010202117A JP2012060452A JP 2012060452 A JP2012060452 A JP 2012060452A JP 2010202117 A JP2010202117 A JP 2010202117A JP 2010202117 A JP2010202117 A JP 2010202117A JP 2012060452 A JP2012060452 A JP 2012060452A
Authority
JP
Japan
Prior art keywords
projection
image
electronic data
handwritten
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010202117A
Other languages
Japanese (ja)
Other versions
JP5618719B2 (en
Inventor
Tetsuomi Tanaka
哲臣 田中
Taeko Yamazaki
妙子 山▲崎▼
Makoto Enomoto
誠 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010202117A priority Critical patent/JP5618719B2/en
Publication of JP2012060452A publication Critical patent/JP2012060452A/en
Application granted granted Critical
Publication of JP5618719B2 publication Critical patent/JP5618719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide electronic data for which a handwritten object added to projected electronic data is combined in such a form that a positional relation is close to an original description shape.SOLUTION: A frame extraction processing unit 401 extracts a frame comprising four straight lines from an object image 400. A projection area frame shape 402 is equivalent to the contour of a projection area extracted from the frame extraction processing unit 401. An electronic data specifying unit 403 specifies projected electronic data 404 from the object image 400, an object extraction processing unit 405 extracts a handwritten object 406 from the object image 400 and the electronic data 404, and an object arrangement processing unit 407 arranges the handwritten object 406 in the electronic data 404. In this embodiment, the handwritten object 406 is arranged in the electronic data 404 to attain output data 408. In this case, the output data 408 are in the same structure as the electronic data 404 but are different in the point that the handwritten object 406 is included.

Description

本発明は、画像処理装置、その方法およびプログラムに関し、特に文書画像処理結果の保存を行う画像処理装置、その方法およびプログラムに関する。   The present invention relates to an image processing apparatus, a method thereof, and a program, and more particularly to an image processing apparatus for storing a document image processing result, a method thereof, and a program thereof.

近年、コンピュータやネットワークの発達により会議資料を電子的に配布し、会議の際にはホワイトボード等の手書きを加えることが可能な投影板にプロジェクタ等の投影装置により、電子的に配布した会議資料をそのまま投影することが多い。このような形態の会議では、参加者は電子データを投影しているホワイトボードに文字や図などを書き加えて議論を進め、手書きが加えられたホワイトボードをデジタルカメラなどの撮影装置により撮影して撮影データを議事録資料とすることがある。   In recent years, conference materials have been distributed electronically by the development of computers and networks, and conference materials distributed electronically by a projector such as a projector on a projection board that can be handwritten such as a whiteboard during a conference. Is often projected as it is. In this type of meeting, participants add letters and diagrams to the whiteboard onto which electronic data is projected and proceed with the discussion. The handwritten whiteboard is photographed with a photographing device such as a digital camera. The shooting data may be used as minutes.

撮影データは撮影角度により歪みが生じたり、元の会議資料のどの部分と関連しているのか不明であったりするため、そのままでは議事録の代用には不便である。そこで、このような手書きの撮影データを議事録として電子配布可能なデータとする技術が提案されている。   Since the shooting data is distorted depending on the shooting angle and it is unclear which part of the original meeting material is associated, it is inconvenient to substitute the minutes. Therefore, a technique has been proposed in which such handwritten image data is converted into data that can be distributed electronically as minutes.

例えば、投影画像面に書き込みがされると投影を一旦停止して記入された手書き画像をキャプチャして合成した画像データを生成する方法が提案されている(例えば、特許文献1参照)。また、通常このような撮影装置とホワイトボードとの位置関係により撮影データは投影板の正面から撮影できずに投影データが歪むため、単純に合成すると元の電子データと手書き画像とでずれを生ずる。このずれを除去するため、投影画像の外枠取得手段で歪みを取得して画像の歪みを補正する方法が提案されている(例えば、特許文献2参照)。   For example, a method has been proposed in which when writing is performed on a projected image plane, projection is temporarily stopped and a handwritten image that has been entered is captured and combined to generate image data (see, for example, Patent Document 1). In addition, since the photographing data cannot normally be photographed from the front of the projection plate due to the positional relationship between the photographing device and the whiteboard, the projection data is distorted. Therefore, when the composition is simply combined, the original electronic data and the handwritten image are displaced. . In order to remove this deviation, a method has been proposed in which distortion is acquired by an outer frame acquisition unit of a projected image to correct the distortion of the image (see, for example, Patent Document 2).

特開2006−108813号公報JP 2006-108813 A 特開2007−017543号公報JP 2007-017543 A

しかしながら、従来の投影装置により会議資料を投影するシステムでは、手書きされる場所は投影板に投影された投影領域内部のみではなく投影領域外となることも多い。例えば、ホワイトボードに投影している場合、会議資料は一定の領域に投影されているが、その領域以外に手書きで文字や絵を書くことは会議では通常行われることである。特許文献1では投影領域内部に手書きされた内容(あるいは、手書きオブジェクト)の合成について記載されているが、投影領域外に手書きオブジェクトがある場合の処理は不明である。実際の会議においては、投影領域外にも手書きされる可能性が高いことから、手書きオブジェクトの位置が投影領域の内外に限らず、元の電子データと合成してよりよい議事録を作成することが望ましい。   However, in a system for projecting conference materials using a conventional projection apparatus, the handwritten location is often not only inside the projection area projected onto the projection plate but outside the projection area. For example, when projecting onto a whiteboard, the conference material is projected onto a certain area, but writing characters and pictures by hand in areas other than that area is usually performed in a meeting. Japanese Patent Application Laid-Open No. 2004-151561 describes the composition of handwritten content (or handwritten object) inside the projection area, but the processing when there is a handwritten object outside the projection area is unknown. In an actual meeting, there is a high possibility of handwriting outside the projection area, so the location of the handwritten object is not limited to the inside or outside of the projection area. Is desirable.

また、実際に非固定の可搬型のプロジェクタを用いて会議を行う際には、投影板とプロジェクタが正確に正対していない状態で運用する場合も多い。このような状況で撮影された画像には、投影板と撮影装置との位置関係による歪みの他に、投影装置と投影板との位置関係による歪みが存在し、かつ一般にはこの歪みは異なるものである。したがって、投影領域の外枠を基準に画像を補正すると手書き部分の形状が歪んでしまうという問題があった。一方、手書き部分の歪みをなくすために投影板の枠を補正に用いると、補正画像を投影画像データに合成する際に位置がずれてしまうという問題がある。特許文献2の方法では一方しか補正できないため、もう一方の歪みは残ったままになるという問題がある。   In addition, when a conference is actually performed using a non-fixed portable projector, the projector is often operated in a state where the projection plate and the projector are not correctly facing each other. In an image shot in such a situation, there is distortion due to the positional relationship between the projection device and the projection plate in addition to distortion due to the positional relationship between the projection plate and the imaging device, and this distortion is generally different. It is. Therefore, there is a problem that when the image is corrected based on the outer frame of the projection area, the shape of the handwritten part is distorted. On the other hand, when the frame of the projection plate is used for correction in order to eliminate the distortion of the handwritten part, there is a problem that the position is shifted when the corrected image is combined with the projection image data. Since only one of the methods of Patent Document 2 can be corrected, there is a problem that the other distortion remains.

このような課題を解決するため、本願の画像処理装置は、手書き可能な投影板に電子データを投影する投影手段と、投影板に手書きされた画像である手書きオブジェクトを、電子データを投影した投影画像とともに撮影して画像データを生成する撮影手段と、画像データから、手書きされた画像とともに撮影された投影画像を抽出して、抽出された投影画像の電子データを特定する電子データ特定手段と、画像データから投影手段により投影板に投影された投影領域の枠を抽出する枠抽出手段と、画像データから手書きオブジェクトを抽出し、抽出された手書きオブジェクトを、投影領域の内部のオブジェクトと、投影領域の外部のオブジェクトとに分けて保持する抽出手段と、抽出された投影領域の内部のオブジェクトと、投影領域の外部のオブジェクトとを、電子データ特定手段により特定された電子データとともに出力する出力手段とを備えたことを特徴とする。   In order to solve such a problem, the image processing apparatus of the present application projects a projection unit that projects electronic data onto a projection plate capable of handwriting, and a projection obtained by projecting electronic data on a handwritten object that is an image handwritten on the projection plate. A photographing means for photographing together with an image to generate image data, an electronic data identifying means for extracting a projection image photographed together with a handwritten image from the image data, and identifying electronic data of the extracted projection image; A frame extraction unit that extracts a frame of the projection area projected on the projection plate by the projection unit from the image data, a handwritten object is extracted from the image data, and the extracted handwritten object is converted into an object inside the projection area, and the projection area. Means for separating and holding objects outside the object, objects inside the extracted projection area, and outside the projection area And object, characterized by comprising an output means for outputting with the electronic data specified by the electronic data identification means.

投影した電子データに対して加えられた手書きオブジェクトを本来の記述形状と位置関係が近い形で合成した電子データを得ることができる。   It is possible to obtain electronic data obtained by synthesizing a handwritten object added to the projected electronic data in a form having a positional relationship close to the original description shape.

本発明の一実施形態の画像処理装置へと入力される画像が取得される環境を示す図である。It is a figure which shows the environment where the image input into the image processing apparatus of one Embodiment of this invention is acquired. 画像処理装置に入力される入力画像の例を示す図である。It is a figure which shows the example of the input image input into an image processing apparatus. 画像処理装置の構成例を示す図である。It is a figure which shows the structural example of an image processing apparatus. 本発明の一実施形態の処理を説明するブロックダイアグラムを示す図である。It is a figure which shows the block diagram explaining the process of one Embodiment of this invention. ブロックダイアグラム図4をフローチャートで表した図を示す図である。Block Diagram FIG. 4 is a diagram showing a flowchart of FIG. 図2の入力画像200に対してエッジ強調をおこなった画像の例を示す図である。FIG. 3 is a diagram showing an example of an image obtained by performing edge enhancement on the input image 200 of FIG. 入力画像から白板領域を切り出し、歪みを補正した画像の例を示す図である。It is a figure which shows the example of the image which cut out the white board area | region from the input image, and correct | amended distortion. 表示・編集プログラムに実施形態1を適用した電子データの表示例を示す図である。FIG. 6 is a diagram showing a display example of electronic data in which the first embodiment is applied to a display / edit program. 表示・編集プログラムのスライドプレビュー表示例を示す図である。It is a figure which shows the example of a slide preview display of a display / edit program. 表示・編集プログラムに実施形態2を適用した電子データ表示例を示す図である。It is a figure which shows the example of electronic data display which applied Embodiment 2 to the display and edit program. 表示・編集プログラムに実施形態3を適用した電子データ表示例を示す図である。FIG. 10 is a diagram showing an example of electronic data display in which the third embodiment is applied to a display / edit program. 表示・編集プログラムに実施形態4を適用した電子データ表示例を示す図である。It is a figure which shows the example of an electronic data display which applied Embodiment 4 to the display and edit program. 表示・編集プログラムに実施形態5を適用した電子データ表示例を示す図である。It is a figure which shows the example of an electronic data display which applied Embodiment 5 to the display and edit program. 表示・編集プログラムに実施形態6を適用した電子データ表示例を示す図である。It is a figure which shows the example of electronic data display which applied Embodiment 6 to the display and edit program.

[実施例1]
以下、図面を参照して本発明の好適な実施形態を詳細に説明する。
[Example 1]
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例の画像処理装置へと入力される画像が取得される環境を示す図である。   FIG. 1 is a diagram illustrating an environment in which an image input to an image processing apparatus according to an embodiment of the present invention is acquired.

図1を参照すると、白板101は投影板と記入板を兼ねており、ペン102により白板101へ記入を行う。投影装置103は白板101へ画像を投影するであり、パーソナルコンピューター104は投影装置103へ投影する画像を送信する。デジタルカメラなどの撮影装置105は投影領域を包含する白板101を撮影し、投影装置103より白板101上へ投影データ110が投影される。   Referring to FIG. 1, a white plate 101 serves as both a projection plate and an entry plate, and an entry is made on the white plate 101 with a pen 102. The projection device 103 projects an image on the white plate 101, and the personal computer 104 transmits the image to be projected to the projection device 103. A photographing device 105 such as a digital camera photographs the white plate 101 including the projection area, and the projection data 110 is projected onto the white plate 101 from the projection device 103.

図2に本実施例の画像処理装置に送信される画像の例200を示す図である。撮影装置105により撮影された画像200は、白板領域枠201と、投影領域枠202とで構成される。   FIG. 2 is a diagram illustrating an example 200 of an image transmitted to the image processing apparatus of the present embodiment. An image 200 photographed by the photographing apparatus 105 includes a white board region frame 201 and a projection region frame 202.

同じく、入力画像200には、投影された画像の投影画像オブジェクト203(「Slide Title」)、ペン102により記入された手書きオブジェクト204(「Handwriting」)および205(「memo」)が存在する。また、撮影装置105の位置と対象物の位置との関係から傾き、すなわち線形歪みが生じ、投影領域枠202および投影画像オブジェクト203については、投影装置103と白板101との位置関係から、白板101の歪みとは別の歪みを生じている。ここで、手書きオブジェクト204は投影領域枠202の内側に、手書きオブジェクト205は投影領域枠202の外側に存在している。   Similarly, the input image 200 includes a projected image object 203 (“Slide Title”) of the projected image, and handwritten objects 204 (“Handwriting”) and 205 (“memo”) written by the pen 102. Further, an inclination, that is, linear distortion occurs due to the relationship between the position of the photographing device 105 and the position of the object, and the projection area frame 202 and the projection image object 203 are related to the white plate 101 from the positional relationship between the projection device 103 and the white plate 101. Distortion different from the distortion of is caused. Here, the handwritten object 204 exists inside the projection area frame 202, and the handwritten object 205 exists outside the projection area frame 202.

図3は本発明を実施する画像処理装置300の構成例を示す図である。画像処理装置300は、撮影した画像データの入力を行うための外部記憶媒体I/F301および画像データに本発明の処理を施すための画像処理プログラムを実行するCPU302を備える。また、このような画像処理プログラムを実行する際のワークメモリやデータの一時保存に利用するメモリ303およびプログラムやデータを格納するハードディスク304を備える。以上の画像処理装置300の構成は一例であり、パーソナルコンピューター104を用いて画像処理を実行してもよいし、撮影装置105などの電子回路上で画像処理を実行しても構わない。   FIG. 3 is a diagram showing a configuration example of an image processing apparatus 300 for implementing the present invention. The image processing apparatus 300 includes an external storage medium I / F 301 for inputting captured image data and a CPU 302 for executing an image processing program for performing the processing of the present invention on the image data. Further, a work memory when executing such an image processing program, a memory 303 used for temporary storage of data, and a hard disk 304 for storing the program and data are provided. The configuration of the image processing apparatus 300 described above is an example, and image processing may be executed using the personal computer 104, or image processing may be executed on an electronic circuit such as the photographing apparatus 105.

図4は本発明の処理を説明するブロックダイアグラムである。対象画像400は、撮影装置105で撮影され外部記憶媒体に記憶された画像を外部記憶媒体I/F301を介して入力される。枠抽出処理部401は、対象画像400から4つの直線で構成された枠を抽出する。投影領域枠形状402は、枠抽出処理部401で抽出された投影領域の輪郭に相当する。電子データ特定部403は、対象画像400から投影された電子データ404を特定する。オブジェクト抽出処理部405は、対象画像400と電子データ404とから手書きオブジェクト406を抽出する。   FIG. 4 is a block diagram illustrating the processing of the present invention. The target image 400 is input through the external storage medium I / F 301 as an image captured by the image capturing apparatus 105 and stored in an external storage medium. The frame extraction processing unit 401 extracts a frame composed of four straight lines from the target image 400. The projection area frame shape 402 corresponds to the outline of the projection area extracted by the frame extraction processing unit 401. The electronic data specifying unit 403 specifies electronic data 404 projected from the target image 400. The object extraction processing unit 405 extracts the handwritten object 406 from the target image 400 and the electronic data 404.

オブジェクト配置処理部407は、手書きオブジェクト406を電子データ404の内部に関連付けて配置する。   The object placement processing unit 407 places the handwritten object 406 in association with the inside of the electronic data 404.

本実施例では、電子データ404に手書きオブジェクト406を配置して出力データ408とする。ここで、出力データ408は、電子データ404と同じ構造をしているが、手書きオブジェクト406が含まれる点で異なる。   In this embodiment, the handwritten object 406 is arranged in the electronic data 404 and used as output data 408. Here, the output data 408 has the same structure as the electronic data 404, but differs in that a handwritten object 406 is included.

出力データ408は、各データ409〜413によって構成され、PC104にある表示・編集プログラムによって表示・編集が可能である。データ409は、表示・編集プログラムおいてレイアウト編集用に用いられ、投影表示領域410と非投影表示領域411とによって構成される。表示・編集プログラムは、データ412を、テキスト編集用に用い、投影表示モード時には、投影表示領域上のデータのみをPC104のディスプレイに表示する。また、編集モード時にはレイアウトデータの投影表示領域410、非投影表示領域411およびテキスト編集データ412を表示する。なお、表示・編集プログラムとして、例えばマイクロソフト社のオフィス・パワーポイント(登録商標)などのアプリケーションを使用することができる。   The output data 408 is composed of data 409 to 413 and can be displayed / edited by a display / editing program in the PC 104. The data 409 is used for layout editing in the display / editing program, and includes a projection display area 410 and a non-projection display area 411. The display / edit program uses the data 412 for text editing, and displays only the data on the projection display area on the display of the PC 104 in the projection display mode. In the editing mode, the projection display area 410, the non-projection display area 411, and the text editing data 412 of the layout data are displayed. For example, an application such as Microsoft Office PowerPoint (registered trademark) can be used as the display / editing program.

図5は、図4のブロックダイアグラムに基づく本実施例の処理の詳細を示すフローチャートである。以下、対象画像400として図2の対象画像200を用い、出力データ408を生成する場合の例を図5のフローチャートを用いて説明する。   FIG. 5 is a flowchart showing details of the processing of this embodiment based on the block diagram of FIG. Hereinafter, an example of generating the output data 408 using the target image 200 of FIG. 2 as the target image 400 will be described with reference to the flowchart of FIG.

ステップS501で、電子データ特定部403は、撮影装置105が画像を撮影した際に投影装置103が投影していた電子データを特定し、ステップS502へ進む。電子データの特定は、PC104内に保存されている投影していた電子データである対象ファイル、文字列を用いた全文検索などの検索技術により検索して特定すればよい。具体的には、検索の為のキー情報は、撮影された画像の投影領域枠202内を投影歪で補正した画像や、その画像をOCR処理して得られた結果の文字列から取得することができる。あるいは、ユーザーに、対象ファイルのファイル名を入力するように促し、入力された結果を用いて特定するようにしても良い。ここでは電子データそのものの特定とともに、この電子データの投影領域枠202の幅wと高さhも特定する。   In step S501, the electronic data specifying unit 403 specifies the electronic data projected by the projection device 103 when the shooting device 105 takes an image, and the process proceeds to step S502. The electronic data may be specified by searching by a search technique such as a full text search using a target file or character string which is the electronic data projected in the image stored in the PC 104. Specifically, the key information for the search is acquired from an image obtained by correcting the projection area frame 202 of the captured image with projection distortion, or a character string obtained as a result of OCR processing of the image. Can do. Alternatively, the user may be prompted to input the file name of the target file, and specified using the input result. Here, the width w and the height h of the projection area frame 202 of the electronic data are specified together with the specification of the electronic data itself.

ステップS502で、枠抽出処理部401は、撮影された画像中から投影領域枠202および白版領域枠201に相当する不等辺四角形を抽出する。枠に相当する四角形の抽出は、公知の手法を用いて次のように行うことができる。すなわち、SobelやLaplacianフィルタなどを用いたエッジ強調手法により、対象画像中の白板領域の境界部分に該当する画素を極立たせる。この強調画像にハフ変換や最小近似法などの公知の直線抽出手法を用いて、四角形を構成する十分に長い4辺の直線を抽出する。図2の対象画像200に対してエッジ強調を行った画像の例を図6に示す。不等辺四角形601が、投影領域枠202に相当する四角形である。なお、図6に示すように、エッジ強調された画像からは投影領域枠601の外側に、白板領域枠602が抽出される。本ステップS501では、抽出された2つの枠のうち内側の枠を投影領域枠、外側の枠を白版領域枠として選択することとする。   In step S502, the frame extraction processing unit 401 extracts unequal side rectangles corresponding to the projection area frame 202 and the white plate area frame 201 from the captured image. Extraction of a rectangle corresponding to a frame can be performed as follows using a known method. That is, pixels corresponding to the boundary portion of the white plate region in the target image are made to stand out by an edge enhancement method using a Sobel or Laplacian filter. A sufficiently long four-side straight line constituting a quadrangle is extracted from this enhanced image using a known straight line extraction method such as a Hough transform or a minimum approximation method. An example of an image obtained by performing edge enhancement on the target image 200 of FIG. 2 is shown in FIG. An unequal side rectangle 601 is a rectangle corresponding to the projection area frame 202. As shown in FIG. 6, a white plate region frame 602 is extracted outside the projection region frame 601 from the edge-enhanced image. In step S501, the inner frame of the two extracted frames is selected as the projection area frame, and the outer frame is selected as the white area frame.

ステップS504では、撮影された画像の歪みを補正するための歪補正値を抽出し、歪み補正処理をする。ここで歪み補正値とは、矩形領域を3次元的な角度をもって2次元平面に投影した場合に生じる不等辺四角形領域を、元の矩形領域へと補正する演算、いわゆる逆透視変換演算で用いられる変換行列のパラメータである。たとえば特開2003-288588号公報に開示されているように、逆透視変換の演算式に変換前の4頂点の座標と変換後の4頂点の座標をそれぞれ代入し、得られる連立方程式を解くことにより変換行列のパラメータは抽出される。   In step S504, a distortion correction value for correcting distortion of the captured image is extracted and distortion correction processing is performed. Here, the distortion correction value is used in a so-called reverse perspective transformation calculation that corrects an inequilateral quadrangular region that occurs when a rectangular region is projected onto a two-dimensional plane with a three-dimensional angle to the original rectangular region. It is a parameter of the transformation matrix. For example, as disclosed in Japanese Patent Application Laid-Open No. 2003-288588, by substituting the coordinates of the four vertices before conversion and the coordinates of the four vertices after conversion into the arithmetic expression of inverse perspective transformation, solving the obtained simultaneous equations Thus, the parameters of the transformation matrix are extracted.

本実施例で変換前の4頂点の座標は、ステップS502で抽出された投影領域枠601の4頂点の座標とする。変換後の4頂点の座標は、ステップS501により特定された投影データの投影表示領域部分に対する出力サイズw×hの画像領域の4隅、すなわち、(0,0), (w,0), (w, h), (0, h)の4点となる。両座標を用いて作られた連立方程式を解いて得られた行列の各パラメータを、歪み補正値とする。   In this embodiment, the coordinates of the four vertices before conversion are the coordinates of the four vertices of the projection area frame 601 extracted in step S502. The coordinates of the four vertices after conversion are the four corners of the image area of the output size w × h with respect to the projection display area portion of the projection data specified in step S501, that is, (0,0), (w, 0), ( w, h), (0, h). Each parameter of the matrix obtained by solving the simultaneous equations created using both coordinates is set as a distortion correction value.

次にS502で抽出した白板領域枠を用いて撮影された画像から白板領域を切り出し、歪み補正値を用いて透視変換し、歪みを補正した画像を生成する。図7は、このようにして補正した後の画像例を示す図である。   Next, a white board area is cut out from the image photographed using the white board area frame extracted in S502, and is perspective-transformed using a distortion correction value to generate an image in which distortion is corrected. FIG. 7 is a diagram illustrating an example of an image after correction is performed in this manner.

ステップS504では、手書きオブジェクト抽出処理部405により、撮影された画像から手書き画像や投影データを各々オブジェクトとして分割する。分割されたオブジェクトは形状と位置に関するデータを記憶する。   In step S504, the handwritten object extraction processing unit 405 divides the handwritten image and projection data from the captured image as objects. The divided objects store data related to shape and position.

オブジェクト分割の処理は次のようにして行う。まずオブジェクト画像が黒、背景画像が白となるようにS503で生成した歪み補正画像を二値画像へと変換する。本変換は、本技術分野で知られたいずれかのものにより行うことができる。例えば多値画像の輝度ヒストグラムを取得し、それらのピークから適応的に求めた閾値を用いて二値化画像へ変換することにより二値画像を得られるがこれに限られない。次に公知の手法によりラベリング画像を生成する。例えば以下のような手法が知られている。すなわち、二値画像を形成する各ラインの画素をスキャンし、黒画素が連続する区間について、開始位置と終了位置をテーブルに格納する。全ラインについてこの処理を終えると、ライン間で接している区間に同じラベルを与え、同一のラベルを有する黒画素が連続する領域を形成することによりラベリング画像を生成することができる。ここで、ラベリング画像内で同一のラベルを持つ画素塊を各々オブジェクトとみなす。   The object division process is performed as follows. First, the distortion corrected image generated in S503 is converted into a binary image so that the object image is black and the background image is white. This conversion can be performed by any of those known in the art. For example, a binary image can be obtained by acquiring a luminance histogram of a multilevel image and converting it to a binarized image using a threshold value obtained adaptively from those peaks, but the present invention is not limited to this. Next, a labeling image is generated by a known method. For example, the following methods are known. That is, the pixels of each line forming the binary image are scanned, and the start position and the end position are stored in a table for a section in which black pixels are continuous. When this process is completed for all lines, a labeling image can be generated by giving the same label to the section in contact between the lines and forming a region in which black pixels having the same label are continuous. Here, each pixel block having the same label in the labeling image is regarded as an object.

ステップS505は、ステップS504で抽出されたオブジェクトの各々に対し、以降繰り返し終端ステップS510までの繰り返し処理を実行することを意味するステップである。   Step S505 is a step that means that the iterative process up to the repetitive termination step S510 is executed for each of the objects extracted in step S504.

ステップS506では、手書きオブジェクト抽出処理部405が、対象となるオブジェクトが手書き画像のオブジェクトであるか否かの判定を行う。手書き画像のオブジェクトであればステップS507に、それ以外であればステップS508にそれぞれ進む。手書き画像のオブジェクトか否かの判定は本技術分野で知られたいずれの方法でもよ使用することができる。例えば、予め投影画像と手書き画像とが異なる色になるように定めておき、撮影された画像から取得した各オブジェクトの色が投影画像用の色か、手書き画像用の色かにより判断することができる。あるいは、線の揺れ度合の大きさや濃淡の不均一性などで手書き画像の特性を考慮して判断してもよい。さらに、予め手書き用の色を指定し、対象オブジェクトの色情報と、手書き用の指定色情報とを比較することで判断してもよい。この場合、別の色であると判断された場合は、投影オブジェクトと判断できる。また、画像の撮影時に、手書きの判断のため投影装置による投影を停止して手書き画像だけを撮影して判断に用いてもよい。さらに、先に特定された電子データ404の投影表示領域にあるコンテンツの位置情報を比較し、一致するものがない場合、手書きオブジェクトと判定してもよい。   In step S506, the handwritten object extraction processing unit 405 determines whether or not the target object is a handwritten image object. If it is an object of a handwritten image, the process proceeds to step S507. Otherwise, the process proceeds to step S508. The determination of whether or not the object is a handwritten image can be used by any method known in the art. For example, it is possible to determine in advance that the projected image and the handwritten image have different colors and determine whether the color of each object acquired from the captured image is the color for the projected image or the color for the handwritten image. it can. Alternatively, the determination may be made in consideration of the characteristics of the handwritten image based on the magnitude of the fluctuation of the line and the unevenness of the density. Furthermore, it may be determined by designating a handwritten color in advance and comparing the color information of the target object with the handwritten designated color information. In this case, if it is determined that the color is different, it can be determined as a projection object. Further, at the time of shooting an image, projection by the projection device may be stopped for handwriting judgment, and only a handwritten image may be taken and used for judgment. Furthermore, the position information of the content in the projection display area of the electronic data 404 specified earlier may be compared, and if there is no match, it may be determined as a handwritten object.

以上の判定結果は、各オブジェクトのデータに付随して保持される。本実施例では、撮影された画像200中のオブジェクト204および205が手書きオブジェクトと判定されS507へ遷移し、オブジェクト203が手書きではないオブジェクトすなわち投影オブジェクトと判定されS510へ遷移する。   The above determination results are held accompanying the data of each object. In this embodiment, the objects 204 and 205 in the photographed image 200 are determined as handwritten objects and the process proceeds to S507, and the object 203 is determined to be a non-handwritten object, that is, a projected object, and the process proceeds to S510.

ステップS507では、オブジェクト配置処理部407によって、手書きオブジェクトの位置が投影領域枠の内側か外側かを判定する。手書きオブジェクトの位置が投影領域枠の内側であった場合はS508へ、そうでない場合、つまり投影領域の外側にある場合はS509へ遷移する。本実施例では、手書きオブジェクト204は投影領域202内に位置するのでS508へ、オブジェクト205は投影領域202の外側に位置するのでS509へ遷移する。   In step S507, the object placement processing unit 407 determines whether the position of the handwritten object is inside or outside the projection area frame. If the position of the handwritten object is inside the projection area frame, the process proceeds to S508. If not, that is, if the position is outside the projection area, the process proceeds to S509. In this embodiment, since the handwritten object 204 is located within the projection area 202, the process proceeds to S508, and since the object 205 is located outside the projection area 202, the process proceeds to S509.

ステップS508では、オブジェクト配置処理部407によって、オブジェクトの線部分の輪郭や芯線などを公知のベクトル変換技術によりベクトルパスデータに変換し、電子データ404のレイアウトデータ上の投影表示領域410に配置する。ここで、公知のベクトル変換技術には、特許第3026592号公報に開示される方法がある。特許第3026592号公報では、画像をラスタ走査しながら注目画素とその近傍画素の状態に基づいて、水平方向及び垂直方向の画素間ベクトルを検出する。次に、これら画素間ベクトル同士の接続状態をもとに、画像データの輪郭を抽出することで、アウトラインベクトルと呼ばれる連結画素データの周回を画素間ベクトルの集合で記述する情報を生成する技術が開示されている。   In step S508, the object arrangement processing unit 407 converts the outline of the line portion of the object, the core line, and the like into vector path data by a known vector conversion technique, and arranges it in the projection display area 410 on the layout data of the electronic data 404. Here, as a known vector conversion technique, there is a method disclosed in Japanese Patent No. 3026592. In Japanese Patent No. 3026592, horizontal and vertical inter-pixel vectors are detected based on the state of a target pixel and its neighboring pixels while raster scanning an image. Next, based on the connection state between these inter-pixel vectors, a technique for generating information that describes the circulation of connected pixel data called an outline vector as a set of inter-pixel vectors by extracting the outline of the image data. It is disclosed.

ステップS509では、オブジェクト配置処理部407によって、オブジェクトを公知の文字認識技術を用いて文字コードデータに変換し、電子データ404のテキスト編集データ412に配置する。   In step S509, the object placement processing unit 407 converts the object into character code data using a known character recognition technique, and places it in the text editing data 412 of the electronic data 404.

ステップS510は繰り返し終端ステップであり、未処理のオブジェクトがあればS505へ、すべてのオブジェクトについて処理したのであれば終了へと遷移する。   Step S510 is a repeated termination step. If there is an unprocessed object, the process proceeds to S505, and if all the objects have been processed, the process proceeds to the end.

図8は、本実施例1を適用して得られた出力データ408を表示・編集プログラムにより表示した例である。ウィンドウ800は、表示・編集プログラムの全体の表示ウインドウであり、以下に説明するウィンドウ801〜807を含む。レイアウト編集ウインドウ801は、スライドプレビュー802はおよびプリントプレビューウインドウ803は、本実施例の表示・編集プログラムにおいては切り替え表示され、図8は編集ウインドウ805が表示されている状態を示している。さらに、ウィンドウ800は、テキスト編集ウインドウ806および要約情報表示ウインドウ807を含む。   FIG. 8 shows an example in which output data 408 obtained by applying the first embodiment is displayed by a display / edit program. The window 800 is an entire display window of the display / editing program, and includes windows 801 to 807 described below. In the layout editing window 801, the slide preview 802 and the print preview window 803 are switched in the display / editing program of this embodiment, and FIG. 8 shows a state in which the editing window 805 is displayed. Further, the window 800 includes a text editing window 806 and a summary information display window 807.

レイアウト編集ウインドウ801には、出力データ408のレイアウト編集データ409の内容に従った表示がなされる。本発明の実施例1においては、特定された電子データのレイアウトデータの投影表示領域804と、手書きオブジェクト204をベクトル化したオブジェクト808が描画されている。テキスト編集ウインドウ806には、出力データ408のテキスト編集データ412の内容に従った表示がなされる。本発明の実施例においては、手書きオブジェクト205を文字認識して文字コード化したオブジェクト809が描画されている。   In the layout editing window 801, a display according to the contents of the layout editing data 409 of the output data 408 is made. In the first embodiment of the present invention, a projection display area 804 of the specified electronic data layout data and an object 808 obtained by vectorizing the handwritten object 204 are drawn. In the text editing window 806, display according to the contents of the text editing data 412 of the output data 408 is performed. In the embodiment of the present invention, an object 809 obtained by character recognition of the handwritten object 205 is drawn.

図9は表示・編集プログラムのスライドプレビュー802を表示した例であり、出力データ408のレイアウトデータ409における投影表示領域410のみが表示され、投影非表示領域411およびテキスト編集データ412は表示されない。   FIG. 9 shows an example in which a slide preview 802 of the display / edit program is displayed. Only the projection display area 410 in the layout data 409 of the output data 408 is displayed, and the projection non-display area 411 and the text editing data 412 are not displayed.

以上説明したように、本実施例によれば、投影画面を含んだ白板画像から、手書きオブジェクトを抽出し、投影領域の内外で手書きオブジェクトのデータ変換形式および、投影画面の原本電子データへの格納先を変えた出力データを生成する。   As described above, according to the present embodiment, a handwritten object is extracted from a white board image including a projection screen, and the data conversion format of the handwritten object is stored inside and outside the projection area and stored in the original electronic data of the projection screen. Generate different output data.

このように生成した電子データは表示・編集プログラムにおいては、投影領域内の手書きオブジェクトはベクトルデータとして、投影領域外の手書きオブジェクトは文字コードデータとして元の電子データと関連で受けて保持しておく。これにより、議事録等として再利用可能な状態での提供が可能となる。   In the display / editing program, the electronic data generated in this manner is received and held in association with the original electronic data as handwritten objects in the projection area as vector data and handwritten objects outside the projection area as character code data. . As a result, it is possible to provide the minutes in a reusable state.

[実施例2]
実施例1では、投影領域外の手書きオブジェクトを文字認識して文字コードデータを格納したが、投影領域内と同じくベクトル化して格納してもよい。本実施例は、ベクトル化した投影領域外のオブジェクトは実際に撮影された画像と同じ位置関係を保持し、電子データ408の投影非表示領域412に配置する。すなわち、投影非表示領域の手書きオブジェクトは、ベクトル化してオブジェクト自体のデータを保持するとともに、その表示位置を投影表示領域との関係で保持するようにする。
[Example 2]
In the first embodiment, the character code data is stored by recognizing a handwritten object outside the projection area, but may be vectorized and stored as in the projection area. In this embodiment, the objects outside the vectorized projection area retain the same positional relationship as the actually captured image and are arranged in the projection non-display area 412 of the electronic data 408. That is, the handwritten object in the projection non-display area is vectorized to hold the data of the object itself, and the display position is held in relation to the projection display area.

図10は、表示・編集プログラムに本実施例2を適用した出力データ408を表示した例である。オブジェクト1001は手書きオブジェクト205をベクトル化したものであり投影表示領域804の外部に配置される。この時のオブジェクト1001と投影表示領域804の位置関係は元の手書きオブジェクト205と投影領域枠202の位置関係を保持する。   FIG. 10 shows an example in which output data 408 obtained by applying the second embodiment to the display / edit program is displayed. An object 1001 is a vectorization of the handwritten object 205 and is arranged outside the projection display area 804. At this time, the positional relationship between the object 1001 and the projection display area 804 holds the positional relationship between the original handwritten object 205 and the projection area frame 202.

本実施例によれば、生成した電子データは、表示・編集プログラムにおいて、投影領域外の手書きオブジェクトを撮影時に近い状態で編集操作可能となる。   According to the present embodiment, the generated electronic data can be edited in the display / editing program in a state in which a handwritten object outside the projection area is close to the time of photographing.

[実施例3]
実施例2では、投影領域外の手書きオブジェクトの位置関係を保持したまま電子データに格納したが、投影表示領域内に格納してもよい。本実施例は、投影領域外の手書きオブジェクトを、投影表示領域804に表示できるようにするものである。
[Example 3]
In the second embodiment, the electronic data is stored while maintaining the positional relationship of the handwritten object outside the projection area, but may be stored in the projection display area. In this embodiment, a handwritten object outside the projection area can be displayed in the projection display area 804.

図11は、表示・編集プログラムに本実施例3を適用した出力データ408を表示した例である。オブジェクト1101は手書きオブジェクト205をベクトル化したものであり、それが配置される場所は投影表示領域804上の、他のオブジェクトが存在しないところとなる。   FIG. 11 shows an example in which output data 408 obtained by applying the third embodiment to the display / edit program is displayed. The object 1101 is a vectorization of the handwritten object 205, and the place where the object 1101 is arranged is a place on the projection display area 804 where no other object exists.

本実施例によれば、生成した電子データは表示・編集プログラムにおいて、投影表示領域内に手書きオブジェクトを表示するので、投影領域外の手書きオブジェクトをプレビュー時に表示可能な状態で提供が可能である。   According to the present embodiment, since the generated electronic data displays a handwritten object in the projection display area in the display / editing program, it is possible to provide the handwritten object outside the projection area in a state where it can be displayed during preview.

[実施例4]
実施例3では、投影領域外の手書きオブジェクトをプレビューウインドウ上でも表示させることができるように投影表示領域内に位置をずらして電子データに格納したが、オブジェクトにアニメーションをつけてもよい。本実施例は、投影領域外の手書きオブジェクトにアニメーションをつけるものである。
[Example 4]
In the third embodiment, the handwritten object outside the projection area is stored in the electronic data while being shifted in the projection display area so that the handwritten object can be displayed on the preview window. However, the object may be animated. In this embodiment, an animation is applied to a handwritten object outside the projection area.

図12は、表示・編集プログラムに本実施例4を適用した出力データ408を表示した例である。図12(A)はレイアウト表示ウインドウ、図12(B)はプレビューウインドウである。オブジェクト1201は手書きオブジェクト205をベクトル化したものであり、レイアウト表示ウインドウにおいて、投影非表示領域に配置される。ウィンドウ800をプレビューウインドウ802に切り替えると、オブジェクト1201はレイアウトデータの投影表示領域804上であって、他のオブジェクトが存在しない余白領域を余白抽出して配置移動される。またレイアウト表示ウインドウ801に切り替えると、オブジェクト1201投影非表示領域に配置移動される。   FIG. 12 shows an example in which output data 408 obtained by applying the fourth embodiment to the display / edit program is displayed. FIG. 12A shows a layout display window, and FIG. 12B shows a preview window. An object 1201 is a vectorization of the handwritten object 205, and is arranged in the projection non-display area in the layout display window. When the window 800 is switched to the preview window 802, the object 1201 is placed on the projected display area 804 of the layout data, and a margin area where no other object exists is extracted and arranged and moved. When the layout display window 801 is switched to, the object 1201 is moved to the projection non-display area.

本実施形態によれば、生成した電子データは表示・編集プログラムにおいて、投影領域外の手書きオブジェクトを、編集時はオブジェクトの位置関係を保持し、プレビュー時には表示可能な状態での提供が可能である。   According to the present embodiment, the generated electronic data can be provided in a display / editing program so that a handwritten object outside the projection area can be displayed while maintaining the positional relationship of the object during editing and displayable during preview. .

[実施例5]
実施例4では、投影領域外の手書きオブジェクトを編集ウインドウ、プレビューウインドウ上でも表示ができるように電子データに格納したが、印刷時に表示できる領域に格納してもよい。本実施例は、投影領域外の手書きオブジェクトをプリントプレビュー803に表示して、印刷出力できるようにしたものである。
[Example 5]
In the fourth embodiment, the handwritten object outside the projection area is stored in the electronic data so that it can be displayed on the editing window and the preview window, but it may be stored in an area that can be displayed during printing. In this embodiment, a handwritten object outside the projection area is displayed on the print preview 803 so that it can be printed out.

図13は、表示・編集プログラムに本実施例4を適用した出力データ408をプリントプレビューウインドウに表示した例である。オブジェクト1301は手書きオブジェクト205をベクトル化したものであり、プリントプレビューウインドウ803において、投影領域とオブジェクト813の位置関係は元の手書きオブジェクト205と投影領域枠202の位置関係を保持して配置される。   FIG. 13 shows an example in which output data 408 obtained by applying the fourth embodiment to the display / edit program is displayed in the print preview window. An object 1301 is obtained by vectorizing the handwritten object 205, and the positional relationship between the projection area and the object 813 is arranged in the print preview window 803 while maintaining the positional relationship between the original handwritten object 205 and the projection area frame 202.

本実施例によれば、生成した電子データは表示・編集プログラムにおいて、投影領域外の手書きオブジェクトを投影領域との位置関係を保持して印刷可能な状態での提供が可能である。   According to the present embodiment, the generated electronic data can be provided in a displayable / editable program in a printable state while maintaining the positional relationship with the projection area for a handwritten object outside the projection area.

[実施例6]
実施例5では、投影領域外の手書きオブジェクトを印刷ができるように電子データに格納したが、原本となる電子データの投影表示領域を拡張してもよい。本実施例は、投影領域外の手書きオブジェクトを処理するものである。
[Example 6]
In the fifth embodiment, the handwritten object outside the projection area is stored in the electronic data so that it can be printed. However, the projection display area of the original electronic data may be expanded. In this embodiment, a handwritten object outside the projection area is processed.

図14は、表示・編集プログラムに本実施形態6を適用した出力データ408を表示した例である。ウィンドウ1401は、拡張した投影表示領域であり、投影領域外の手書きオブジェクト1402も含まれる大きさに拡大してある。   FIG. 14 shows an example in which output data 408 obtained by applying the sixth embodiment to the display / edit program is displayed. A window 1401 is an expanded projection display area, and is enlarged to include a handwritten object 1402 outside the projection area.

本実施例によれば、生成した電子データは表示・編集プログラムにおいて、投影領域外の手書きオブジェクトを編集ウインドウ、プレビューウインドウの両方において投影領域との位置関係を保持した状態での提供が可能である。   According to the present embodiment, the generated electronic data can be provided in a display / editing program in a state in which the handwritten object outside the projection area maintains the positional relationship with the projection area in both the editing window and the preview window. .

手書き可能な投影板に電子データを投影し手書きを加えた状態を撮影し議事録にする画像処理装置。   An image processing device that projects electronic data on a hand-drawn projection plate, captures the handwritten state, and creates minutes.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.

Claims (11)

手書き可能な投影板に電子データを投影する投影手段と、
前記投影板に手書きされた画像である手書きオブジェクトを、前記電子データを投影した投影画像とともに撮影して画像データを生成する撮影手段と、
前記画像データから、前記手書きされた画像とともに撮影された投影画像を抽出して、抽出された投影画像の電子データを特定する電子データ特定手段と、
前記画像データから前記投影手段により前記投影板に投影された投影領域の枠を抽出する枠抽出手段と、
前記画像データから前記手書きオブジェクトを抽出し、当該抽出された手書きオブジェクトを、前記投影領域の内部のオブジェクトと、前記投影領域の外部のオブジェクトとに分けて保持する抽出手段と、
前記抽出された投影領域の内部のオブジェクトと、投影領域の外部のオブジェクトとを、前記電子データ特定手段により特定された電子データとともに出力する出力手段と
を備えたことを特徴とする画像処理装置。
Projection means for projecting electronic data onto a hand-drawn projection plate;
Photographing means for photographing a handwritten object, which is an image handwritten on the projection plate, together with a projection image obtained by projecting the electronic data, and generating image data;
An electronic data specifying means for extracting a projection image taken together with the handwritten image from the image data, and specifying electronic data of the extracted projection image;
A frame extraction means for extracting a frame of a projection area projected on the projection plate by the projection means from the image data;
Extraction means for extracting the handwritten object from the image data, and holding the extracted handwritten object separately for an object inside the projection area and an object outside the projection area;
An image processing apparatus comprising: output means for outputting an object inside the extracted projection area and an object outside the projection area together with the electronic data specified by the electronic data specifying means.
前記出力手段は、前記投影領域の内部のオブジェクトを前記特定された電子データが表示される領域の内に出力することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit outputs an object inside the projection area to an area where the specified electronic data is displayed. 前記投影領域の外部のオブジェクトを文字認識して文字コードを取得し、前記特定された電子データと関連付けて保持する手書き文字認識手段をさらに備えたことを特徴とする請求項1または2記載の画像処理装置。   3. The image according to claim 1, further comprising handwritten character recognizing means for recognizing an object outside the projection area to obtain a character code and holding the character code in association with the specified electronic data. Processing equipment. 前記出力手段は、前記手書き文字認識手段により取得した文字コードを、前記電子データが表示される領域の外に出力することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the output unit outputs the character code acquired by the handwritten character recognition unit outside an area where the electronic data is displayed. 前記電子データの表示される領域の内の何も表示されない余白の領域を抽出する余白抽出手段をさらに備え、
前記出力手段は、前記投影領域の外部のオブジェクトを、前記余白の領域に出力することを特徴とする請求項1または2に記載の画像処理装置。
Further comprising a blank extracting means for extracting a blank area in which nothing is displayed in the display area of the electronic data;
The image processing apparatus according to claim 1, wherein the output unit outputs an object outside the projection area to the margin area.
前記出力手段は、前記投影領域の外部のオブジェクトを、前記特定された電子データの表示領域の外に出力するモードをさらに有することを特徴とする請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the output unit further includes a mode for outputting an object outside the projection area outside the display area of the specified electronic data. 前記出力手段は、印刷により出力することを特徴とする請求項1乃至6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit outputs by printing. 前記出力手段は、表示装置に表示することにより出力することを特徴とする請求項1乃至6のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit performs output by displaying on a display device. 前記出力手段は、前記特定された電子データの表示される領域を拡大して、前記投影領域の外部のオブジェクトを当該拡大した表示される領域の内に出力することを特徴とする請求項1乃至8のいずれかに記載の画像処理装置。   The output means enlarges an area where the specified electronic data is displayed, and outputs an object outside the projection area into the enlarged display area. The image processing apparatus according to any one of 8. 手書き可能な投影板に、記憶手段から電子データを読み出して投影する投影ステップと、
前記投影板に手書きされた画像である手書きオブジェクトを、前記電子データを投影した投影画像とともに撮影して画像データを生成する撮影ステップと、
前記画像データから、前記手書きされた画像とともに撮影された投影画像を抽出して、抽出された投影画像の電子データを、前記記憶手段内で特定する電子データ特定ステップと、
前記画像データから前記投影ステップにおいて、前記投影板に投影された投影領域の枠を抽出する枠抽出ステップと、
前記画像データから前記手書きオブジェクトを抽出し、当該抽出された手書きオブジェクトを、前記投影領域の内部のオブジェクトと、前記投影領域の外部のオブジェクトとに分けて前記記憶手段に保持する抽出ステップと、
前記抽出された投影領域の内部のオブジェクトと、投影領域の外部のオブジェクトとを、前記電子データ特定ステップにおいて特定された電子データとともに出力する出力ステップと
を備えたことを特徴とする画像処理方法。
A projection step of reading out and projecting electronic data from the storage means on a handwritten projection plate,
A photographing step of photographing a handwritten object, which is an image handwritten on the projection plate, together with a projection image obtained by projecting the electronic data to generate image data;
An electronic data specifying step of extracting a projection image taken together with the handwritten image from the image data, and specifying electronic data of the extracted projection image in the storage means;
A frame extraction step for extracting a frame of a projection area projected on the projection plate in the projection step from the image data;
An extraction step of extracting the handwritten object from the image data and dividing the extracted handwritten object into an object inside the projection area and an object outside the projection area and holding the storage means in the storage unit;
An image processing method comprising: an output step of outputting an object inside the extracted projection area and an object outside the projection area together with the electronic data identified in the electronic data identification step.
画像処理装置に画像処理方法を実行させるプログラムであって、該画像処理方法は、
手書き可能な投影板に、記憶手段から電子データを読み出して投影する投影ステップと、
前記投影板に手書きされた画像である手書きオブジェクトを、前記電子データを投影した投影画像とともに撮影して画像データを生成する撮影ステップと、
前記画像データから、前記手書きされた画像とともに撮影された投影画像を抽出して、抽出された投影画像の電子データを、前記記憶手段内で特定する電子データ特定ステップと、
前記画像データから前記投影ステップにおいて、前記投影板に投影された投影領域の枠を抽出する枠抽出ステップと、
前記画像データから前記手書きオブジェクトを抽出し、当該抽出された手書きオブジェクトを、前記投影領域の内部のオブジェクトと、前記投影領域の外部のオブジェクトとに分けて前記記憶手段に保持する抽出ステップと、
前記抽出された投影領域の内部のオブジェクトと、投影領域の外部のオブジェクトとを、前記電子データ特定ステップにおいて特定された電子データとともに出力する出力ステップと
を備えたことを特徴とするプログラム。
A program for causing an image processing apparatus to execute an image processing method, the image processing method comprising:
A projection step of reading out and projecting electronic data from the storage means on a handwritten projection plate,
A photographing step of photographing a handwritten object, which is an image handwritten on the projection plate, together with a projection image obtained by projecting the electronic data to generate image data;
An electronic data specifying step of extracting a projection image taken together with the handwritten image from the image data, and specifying electronic data of the extracted projection image in the storage means;
A frame extraction step for extracting a frame of a projection area projected on the projection plate in the projection step from the image data;
An extraction step of extracting the handwritten object from the image data and dividing the extracted handwritten object into an object inside the projection area and an object outside the projection area and holding the storage means in the storage unit;
A program comprising: an output step of outputting an object inside the extracted projection region and an object outside the projection region together with the electronic data specified in the electronic data specifying step.
JP2010202117A 2010-09-09 2010-09-09 Image processing apparatus, method and program thereof Active JP5618719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010202117A JP5618719B2 (en) 2010-09-09 2010-09-09 Image processing apparatus, method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010202117A JP5618719B2 (en) 2010-09-09 2010-09-09 Image processing apparatus, method and program thereof

Publications (2)

Publication Number Publication Date
JP2012060452A true JP2012060452A (en) 2012-03-22
JP5618719B2 JP5618719B2 (en) 2014-11-05

Family

ID=46056996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010202117A Active JP5618719B2 (en) 2010-09-09 2010-09-09 Image processing apparatus, method and program thereof

Country Status (1)

Country Link
JP (1) JP5618719B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136427A1 (en) * 2012-03-13 2013-09-19 Necディスプレイソリューションズ株式会社 Projection type display device and method for producing recorded images
JP2014116833A (en) * 2012-12-11 2014-06-26 Ricoh Co Ltd Information processing device and information processing system
JP2014178900A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Information process system, server device, information process method and program
JP2015091008A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Lighting system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation
JP2011033936A (en) * 2009-08-04 2011-02-17 Konica Minolta Business Technologies Inc Information processing system
JP2011141600A (en) * 2010-01-05 2011-07-21 Canon Inc Image processing apparatus, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017543A (en) * 2005-07-05 2007-01-25 Ricoh Elemex Corp Device, system, method and program for presentation
JP2011033936A (en) * 2009-08-04 2011-02-17 Konica Minolta Business Technologies Inc Information processing system
JP2011141600A (en) * 2010-01-05 2011-07-21 Canon Inc Image processing apparatus, method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013136427A1 (en) * 2012-03-13 2013-09-19 Necディスプレイソリューションズ株式会社 Projection type display device and method for producing recorded images
JPWO2013136427A1 (en) * 2012-03-13 2015-08-03 Necディスプレイソリューションズ株式会社 Projection display apparatus and recorded image generation method
US9398277B2 (en) 2012-03-13 2016-07-19 Nec Display Solutions, Ltd. Projection type display device and method for producing recorded images
JP2014116833A (en) * 2012-12-11 2014-06-26 Ricoh Co Ltd Information processing device and information processing system
JP2014178900A (en) * 2013-03-14 2014-09-25 Ricoh Co Ltd Information process system, server device, information process method and program
JP2015091008A (en) * 2013-11-05 2015-05-11 パナソニックIpマネジメント株式会社 Lighting system

Also Published As

Publication number Publication date
JP5618719B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
KR101711233B1 (en) Camera-based scanning
US7894689B2 (en) Image stitching
JP5361574B2 (en) Image processing apparatus, image processing method, and program
JP2012203458A (en) Image processor and program
JP5541679B2 (en) Image processing apparatus and method, and program
CN109803172B (en) Live video processing method and device and electronic equipment
CN101151639A (en) Image processing apparatus and image processing method
CN107133615B (en) Information processing apparatus, information processing method, and computer program
Brown et al. Restoring 2D content from distorted documents
JP2007241356A (en) Image processor and image processing program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP5618719B2 (en) Image processing apparatus, method and program thereof
JP2005275447A (en) Image processing device, image processing method and program
JP2003058877A (en) Method, device and program for correcting distortion
WO2022056875A1 (en) Method and apparatus for segmenting nameplate image, and computer-readable storage medium
US8295602B2 (en) Image processing apparatus and image processing method
JP2003046746A (en) Method and apparatus for processing image
JP5563390B2 (en) Image processing apparatus, control method therefor, and program
JP4363153B2 (en) Imaging apparatus, image processing method thereof, and program
JP5208043B2 (en) Image processing apparatus, image processing method, and program
JP2009042989A (en) Image processing apparatus
JP2000187705A (en) Document reader, document reading method and storage medium
JPH0355867B2 (en)
JP2005352582A (en) Slide identification device, method, and program for identifying slide

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R151 Written notification of patent or utility model registration

Ref document number: 5618719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151