JP2011141599A - Image processing method, image processor and program - Google Patents

Image processing method, image processor and program Download PDF

Info

Publication number
JP2011141599A
JP2011141599A JP2010000490A JP2010000490A JP2011141599A JP 2011141599 A JP2011141599 A JP 2011141599A JP 2010000490 A JP2010000490 A JP 2010000490A JP 2010000490 A JP2010000490 A JP 2010000490A JP 2011141599 A JP2011141599 A JP 2011141599A
Authority
JP
Japan
Prior art keywords
image data
data group
additional object
additional
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010000490A
Other languages
Japanese (ja)
Other versions
JP5409400B2 (en
Inventor
Koji Maekawa
浩司 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010000490A priority Critical patent/JP5409400B2/en
Publication of JP2011141599A publication Critical patent/JP2011141599A/en
Application granted granted Critical
Publication of JP5409400B2 publication Critical patent/JP5409400B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Facsimiles In General (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display writing information related to image data when displaying the image data included in an image data group. <P>SOLUTION: A first image data group and a second image data group are compared, and a first additional object is extracted. A second additional object of the image data projected before projection of target image data that are image data from which the first additional object is extracted. The first additional object and the second additional object are compared, and it is decided whether or not an object included in the first additional object is a new object. When it is the new object, the first additional object is added such that the first additional object is displayed in the target image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は画像処理方法、画像処理装置およびプログラムに関するものである。   The present invention relates to an image processing method, an image processing apparatus, and a program.

近年、デジタルカメラは、その高性能化によって、用途が広がり、オフィスユースとしては会議記録の取り込みなどに利用されるようになった。特許文献1には、ホワイトボードに書かれた会議記録をビデオカメラで取り込み、撮影画像からホワイトボードに書き込まれた内容を分離して電子データとして記憶する技術が開示されている。   In recent years, the use of digital cameras has expanded due to their high performance, and office cameras have come to be used for capturing conference records. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for capturing a conference record written on a whiteboard with a video camera, separating the content written on the whiteboard from a photographed image, and storing it as electronic data.

また、特許文献2に開示されている技術は、プロジェクター投影された文書画像に対して書き込みを行ったスクリーンを撮影した画像と、プロジェクター投影画像を白画像にしてスクリーンを撮影することにより得た手書き画像とをリンクさせて記憶する。これによって、スクリーンに書き込まれた情報と文書画像とをリンクして記憶することができる。   In addition, the technique disclosed in Patent Document 2 is an image obtained by photographing a screen in which writing is performed on a document image projected by a projector, and handwriting obtained by photographing the screen using a projector projected image as a white image. The image is linked and stored. As a result, the information written on the screen and the document image can be linked and stored.

特開2005−253067号公報JP 2005-253067 A 特開2008−152766号公報JP 2008-152766 A

従来の技術では、プロジェクターでスクリーン上に投影した画像に対して書き込みが行われた画像を撮影した場合、撮影画像のすべての記入物が撮影画像の元画像に対する記入情報であると認識され処理していた。   In the conventional technique, when an image written on an image projected on a screen is photographed by a projector, all entries of the photographed image are recognized and processed as entry information for the original image of the photographed image. It was.

しかしながら、プロジェクターで投影している画像と、スクリーン上の記入情報は媒体が異なる。そのため、投影画像が切り替わったにも関わらず、スクリーン上の記入情報は切り替わる前の投影画像に対する記入情報が残っているなどの、投影画像とスクリーン上の記入物の不一致と言う現象が少なからず発生していた。   However, the image projected by the projector and the entry information on the screen are different. For this reason, there is a considerable phenomenon of mismatch between the projected image and the entry on the screen, such as the entry information for the projected image before switching, even though the projected image has been switched. Was.

本発明に係る画像処理装置は、第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較する手段と、前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出する手段と、前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得する手段と、前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトか同一オブジェクトかを判断する手段と、前記判断された新規オブジェクト及び同一オブジェクトのそれぞれの格納先を決定する手段と、前記決定した格納先に前記取得した新規オブジェクト及び同一オブジェクトをそれぞれ格納する手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes a first image data group and an image data group obtained by capturing an image written on an image obtained by sequentially projecting each of the image data constituting the first image data group on a screen. Means for comparing the second image data group, a means for extracting the writing information as a first additional object based on the comparison result, and the first additional object of the second image data group. Means for obtaining a second additional object extracted from an image projected before the image extracted is compared with the first additional object and the second additional object; Means for determining whether an object included in the object is a new object or the same object; and the determined new object and the same object. Means for determining a respective storage location of the-objects, characterized in that it comprises a means for storing the new object and the same object each having the acquired storage destination described above decision.

本発明によれば、画像データ群に含まれる画像データを表示する際に、当該画像データに関係する書き込み情報を表示することが可能な画像処理装置、画像処理方法、およびプログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a program capable of displaying writing information related to image data when displaying image data included in the image data group. it can.

実施例1のシステム構成を示す図である。1 is a diagram illustrating a system configuration of Embodiment 1. FIG. 実施例1の画像データの状態遷移を示す図である。FIG. 6 is a diagram illustrating state transition of image data according to the first exemplary embodiment. 実施例1の処理を示すフローチャートである。3 is a flowchart showing processing of Example 1; 実施例1の画像比較処理を示す図である。FIG. 6 is a diagram illustrating image comparison processing according to the first exemplary embodiment. 前画像データにおける追加オブジェクトを示す図である。It is a figure which shows the additional object in the previous image data. 追加オブジェクト比較処理を示すフローチャートである。It is a flowchart which shows an additional object comparison process. 追加オブジェクトの位置、サイズの比較処理を示す図である。It is a figure which shows the comparison process of the position and size of an additional object. 追加オブジェクトの密度の比較処理を示す図である。It is a figure which shows the comparison process of the density of an additional object. 追加オブジェクトの密度分布の比較処理を示す図である。It is a figure which shows the comparison process of the density distribution of an additional object. 追加オブジェクトの格納処理を示す図である。It is a figure which shows the storing process of an additional object. 追加オブジェクトの表示切り替え処理を示す図である。It is a figure which shows the display switching process of an additional object. 実施例2の同一オブジェクト追加先判定の処理を示すフローチャートである。12 is a flowchart illustrating processing for determining the same object addition destination according to the second embodiment. 実施例2の追加オブジェクト判定結果を示す図である。It is a figure which shows the additional object determination result of Example 2. FIG. 実施例2のオブジェクト影響度の説明図である。It is explanatory drawing of the object influence degree of Example 2. FIG. 実施例2での出力結果を示す図である。It is a figure which shows the output result in Example 2. FIG. 実施例3の新規オブジェクト追加先判定の処理を示すフローチャートである。14 is a flowchart illustrating processing for determining a new object addition destination according to the third embodiment.

[実施例1]
図1は本発明の実施例1を実施するための画像処理装置に係るシステム構成例である。符号101はプログラムを実行し、システムの各構成を制御するCPUを示す。符号102は本実施形態において処理対象となる画像データやプログラム等を記憶する記憶装置を示す。符号103は本実施形態において処理対象となる画像データを入力する入力装置を示す。入力装置103としては、デジタルカメラやデータの入力端子などが含まれる。符号104は本実施形態において処理された画像を外部に出力するための出力装置を示す。出力装置としては、プロジェクタやデータの出力端子などが含まれる。符号105はROM(Read Only Memory)を示す。符号106はRAM(Random Access Memory)を示す。記憶装置102やROM105等に記憶されたプログラムなどはRAM106に展開されて、CPU101で実行される。
[Example 1]
FIG. 1 is a system configuration example according to an image processing apparatus for carrying out a first embodiment of the present invention. Reference numeral 101 denotes a CPU that executes a program and controls each component of the system. Reference numeral 102 denotes a storage device that stores image data, programs, and the like to be processed in the present embodiment. Reference numeral 103 denotes an input device for inputting image data to be processed in the present embodiment. The input device 103 includes a digital camera, a data input terminal, and the like. Reference numeral 104 denotes an output device for outputting an image processed in the present embodiment to the outside. Examples of the output device include a projector and a data output terminal. Reference numeral 105 denotes a ROM (Read Only Memory). Reference numeral 106 denotes a RAM (Random Access Memory). Programs stored in the storage device 102, the ROM 105, and the like are expanded in the RAM 106 and executed by the CPU 101.

ハードディスクなどで実装された記憶装置102には複数の画像データからなる第1画像データ群が記憶されている。CPU101は、記憶装置102に記憶された第1画像データ群に含まれる出力対象の画像を切り替えながら、当該出力対象画像をプロジェクターなどの画像出力装置104によって順次スクリーンなどに出力する。   A storage device 102 mounted with a hard disk or the like stores a first image data group composed of a plurality of image data. The CPU 101 sequentially outputs the output target images to a screen or the like by the image output device 104 such as a projector while switching the output target images included in the first image data group stored in the storage device 102.

スクリーン上に投影された対象画像は、投影されたスクリーン上に直接書き込まれた書き込み情報とともにデジタルカメラなどの画像入力装置103で読み取られる。読み取られた画像データに、CPU101による前記プログラムの実行などにより前記書き込み情報が追加され、当該画像データを含む複数の画像データは第2画像データ群として、記憶装置に再び記憶される。   The target image projected on the screen is read by the image input device 103 such as a digital camera together with the writing information directly written on the projected screen. The writing information is added to the read image data by the execution of the program by the CPU 101, and a plurality of image data including the image data is stored again in the storage device as the second image data group.

図2は本発明の実施例1の会議における画像情報の状態遷移を表した図である。
第1画像データ群に含まれる対象画像データ1(201)は、プロジェクターなどの画像出力装置104により投影画像11(202)としてスクリーン上に投影される。
FIG. 2 is a diagram illustrating the state transition of the image information in the conference according to the first embodiment of the present invention.
Target image data 1 (201) included in the first image data group is projected on the screen as a projected image 11 (202) by an image output device 104 such as a projector.

投影画像11(202)が投影されているスクリーン上に書込み情報1の書込みが行われ、投影画像12(203)が作成される。   Writing information 1 is written on the screen on which the projection image 11 (202) is projected, and a projection image 12 (203) is created.

投影画像12(203)が投影されている画像を会議記録としてデジタルカメラなどの画像入力装置103で撮影して、画像データ1をスクリーン上に投影した画像11(202)と、書込み情報1を合わせて撮影した撮影画像データ1(204)を作成する。   An image on which the projection image 12 (203) is projected is captured as a conference record by the image input device 103 such as a digital camera, and the image data 1 projected on the screen 11 (202) and the writing information 1 are combined. The photographed image data 1 (204) photographed in this way is created.

次に、投影画像の切り替えを行う。画像出力装置104による投影画像を画像データ1(201)から画像データ2(205)に切り替えて、投影画像21(206)をスクリーン上に投影する。   Next, the projection image is switched. The projection image by the image output device 104 is switched from the image data 1 (201) to the image data 2 (205), and the projection image 21 (206) is projected on the screen.

投影画像21(206)が投影されているスクリーン上に書込み情報2の書込みが行われ、投影画像22(207)が作成される。   Writing information 2 is written on the screen on which the projection image 21 (206) is projected, and a projection image 22 (207) is created.

投影画像22(207)が投影されている画像を会議記録として画像入力装置103で撮影して、画像データ2をスクリーン上に投影した画像21(206)と、書込み情報1および書込み情報2を合わせて撮影した撮影画像データ2(208)を作成する。   An image on which the projected image 22 (207) is projected is captured by the image input device 103 as a conference record, and the image information 2 (206) projected on the screen is combined with the writing information 1 and the writing information 2. The photographed image data 2 (208) photographed in this way is created.

撮影画像データ1(204)及び撮影画像データ2(208)を含む画像データ群は、第2画像データ群として記憶装置102に記憶される。   An image data group including the captured image data 1 (204) and the captured image data 2 (208) is stored in the storage device 102 as a second image data group.

図3は本発明の実施例の処理フローチャートである。図3を参照して、本実施形態に係るシステムが図2に示した処理を行った場合の処理の詳細について説明する。   FIG. 3 is a process flowchart of the embodiment of the present invention. With reference to FIG. 3, details of processing when the system according to the present embodiment performs the processing shown in FIG. 2 will be described.

S301において、システムは、入力データとしてスクリーン上に投影した元となった対象画像データと撮影画像データを入力する。ここでは、図2における対象画像データ2(205)と現在撮影した撮影画像データ2(208)を本実施形態の入力画像データとした場合について説明する。   In step S <b> 301, the system inputs the target image data and the captured image data that have been projected on the screen as input data. Here, the case where the target image data 2 (205) and the currently captured image data 2 (208) in FIG. 2 are used as the input image data of this embodiment will be described.

S302において、CPU101は、第1画像データ群と第2画像データ群とを比較してその差を抽出する。すなわち、入力画像データである第1画像データ群に含まれる対象画像データと第2画像データ群に含まれる撮影画像データとが比較され、差分画像が抽出される。   In S302, the CPU 101 compares the first image data group and the second image data group and extracts the difference. That is, the target image data included in the first image data group that is input image data is compared with the captured image data included in the second image data group, and a difference image is extracted.

図4は、入力画像データの比較処理の概念図である。   FIG. 4 is a conceptual diagram of comparison processing of input image data.

4−Aの画像データは電子データであるのに対して、4−Bは撮影画像データである。そのため、4−Bの撮影画像データには、ユーザーに書き込まれた情報4−B3,4−B4のほかに、4−B1に示すように、スクリーン上にあるノイズや撮影時などに発生するノイズが存在する。また、元画像データは電子データであるために4−Dに示すように線などのエッジが明瞭であるのに対して、撮影画像データでは4−Eのように滲みやボケなどによりエッジがぼやけてしまう。   4-A image data is electronic data, while 4-B is captured image data. For this reason, in addition to information 4-B3 and 4-B4 written to the user, as shown in 4-B1, noise on the screen and noise generated during shooting are included in the 4-B captured image data. Exists. In addition, since the original image data is electronic data, edges such as lines are clear as shown in 4-D, whereas in the captured image data, edges are blurred due to blurring or blurring as shown in 4-E. End up.

したがって、画像の差分を抽出した場合は、4−Cの差分画像に示すように、4−C1のようなノイズによる差分や、4−C2のような線のにじみやぼけによる差分が抽出される。書き込み情報に対する差分画像抽出方法は特開2007−41832などにより、実現されている。   Therefore, when image differences are extracted, as shown in a 4-C difference image, differences due to noise such as 4-C1 and differences due to line blurring and blurring such as 4-C2 are extracted. . A differential image extraction method for write information is realized by Japanese Patent Application Laid-Open No. 2007-41832.

S303では、CPU101は、差分画像から書き込み情報を追加オブジェクト(第1追加オブジェクト)として抽出する。ここで、第1追加オブジェクトは1つ又は複数のオブジェクトからなる。画像データに書き込みがされていない場合は、追加オブジェクトは抽出されない。後述する第2追加オブジェクトについても同様である。   In S303, the CPU 101 extracts write information as an additional object (first additional object) from the difference image. Here, the first additional object includes one or more objects. If the image data is not written, no additional object is extracted. The same applies to the second additional object described later.

S302で行う画像比較ではノイズやにじみなどの小さな差分まで取得するため、追加オブジェクトの抽出処理では、本実施形態では対象画像データの周囲に発生する差分や差分データの大きさが閾値以下である場合に無視する処理(ノイズ除去処理)を行う。これによって、4−Cの差分画像から、4−Fに示すように、現在の対象画像データに対する書き込みによる差分である追加オブジェクトを取得することができる。   In the image comparison performed in S <b> 302, even small differences such as noise and blur are acquired. Therefore, in the additional object extraction processing, in this embodiment, the difference generated around the target image data or the size of the difference data is equal to or smaller than the threshold value. (Noise removal process) is ignored. As a result, as shown in 4-F, an additional object that is a difference by writing to the current target image data can be acquired from the 4-C difference image.

S304では、CPU101は、現在処理した画像の前に処理を行った画像(すなわち、処理対象の画像が投影される前に投影された画像)から抽出された追加オブジェクト(第2追加オブジェクト)を取得する。すなわち、前処理画像の対象画像データ(201)と撮影画像データ(204)との画像比較においても、S302〜S303と同様に画像の比較および追加オブジェクトの抽出処理を行って、図5に示すような差分の追加オブジェクトを抽出する。   In step S304, the CPU 101 acquires an additional object (second additional object) extracted from an image processed before the currently processed image (that is, an image projected before the image to be processed is projected). To do. That is, also in the image comparison between the target image data (201) of the preprocessed image and the captured image data (204), image comparison and additional object extraction processing are performed as in S302 to S303, as shown in FIG. Additional objects with different differences are extracted.

S305では、CPU101は、S303及びS304で取得された追加オブジェクトの比較を行う。   In S305, the CPU 101 compares the additional objects acquired in S303 and S304.

図6は追加オブジェクト比較処理のフローチャートである。本フローチャートを用いて追加オブジェクト比較処理の詳細を説明する。   FIG. 6 is a flowchart of the additional object comparison process. Details of the additional object comparison process will be described using this flowchart.

S601では追加オブジェクトが多値画像であった場合には、追加オブジェクトを黒、背景を白とする2値化処理を行う。   In S601, if the additional object is a multi-valued image, a binarization process is performed in which the additional object is black and the background is white.

S602では追加オブジェクトの外接矩形を取得する。外接矩形は位置とサイズで表現する。オブジェクトの画素が存在するX座標の最小値(Xmin)、およびY座標の最小値(Ymin)、X座標の最大値(Xmax)、Y座標の最大値(Ymax)を取得する。さらに、オブジェクトの左上の座標値(Xmin、Ymin)、オブジェクトの画素幅(Xmax−Xmin+1)、オブジェクトの画素高さ(Ymax−Ymin+1)で外接矩形を表現する。   In S602, the circumscribed rectangle of the additional object is acquired. The circumscribed rectangle is expressed by position and size. The minimum value (Xmin) of the X coordinate where the pixel of the object exists, the minimum value (Ymin) of the Y coordinate, the maximum value (Xmax) of the X coordinate, and the maximum value (Ymax) of the Y coordinate are acquired. Further, a circumscribed rectangle is expressed by the coordinate value (Xmin, Ymin) at the upper left of the object, the pixel width (Xmax−Xmin + 1) of the object, and the pixel height (Ymax−Ymin + 1) of the object.

S603では追加オブジェクトの位置を比較する。画像の左上(画像原点)から、外接矩形の左上の位置(X、Y)を比較する。   In step S603, the positions of the additional objects are compared. The upper left position (X, Y) of the circumscribed rectangle is compared from the upper left (image origin) of the image.

図7の撮影画像データ1から抽出した追加オブジェクトデータ(7−A)の追加オブジェクト(A1)と現画像の追加オブジェクトデータ(7−B)の追加オブジェクト(B1)の比較を行う。   The additional object (A1) of the additional object data (7-A) extracted from the photographed image data 1 of FIG. 7 is compared with the additional object (B1) of the additional object data (7-B) of the current image.

まず、追加オブジェクト(A1)と追加オブジェクト(B1)の位置の差分を取得する。それぞれの位置の差分 X(7−A1)−X(7−B1)、Y(7−A1)−Y(7−B1)を計算し、それぞれの閾値X(T)、Y(T)以上であるならば不一致と判定する。X(T)>|X(7−A1)−X(7−B1)|、Y(T)<|Y(7−A1)−Y(7−B1)となるため、追加オブジェクト(A1)と追加オブジェクト(B1)は異なるオブジェクトであると判定する。   First, the difference between the positions of the additional object (A1) and the additional object (B1) is acquired. The difference between each position X (7-A1) -X (7-B1), Y (7-A1) -Y (7-B1) is calculated, and the difference between the threshold values X (T) and Y (T) is greater than If there is, it is determined as a mismatch. Since X (T)> | X (7-A1) -X (7-B1) |, Y (T) <| Y (7-A1) -Y (7-B1), the additional object (A1) It is determined that the additional object (B1) is a different object.

次に追加オブジェクト(A1)と追加オブジェクト(B2)の位置の差分を取得する。X(7−A1)−X(7−B2)、Y(7−A1)−Y(7−B2)を計算し、それぞれの閾値X(T)、Y(T)以上であるならば不一致と判定する。この例では、X(T)>|X(7−A1)−X(7−B2)|、Y(T)<|Y(7−A1)−Y(7−B2)となり、位置情報は一致していると判定して、同じオブジェクトの可能性があると判定してS603を行う。   Next, the difference between the positions of the additional object (A1) and the additional object (B2) is acquired. X (7-A1) -X (7-B2), Y (7-A1) -Y (7-B2) are calculated, and if they are equal to or greater than the respective threshold values X (T) and Y (T), they are regarded as inconsistent. judge. In this example, X (T)> | X (7-A1) -X (7-B2) |, Y (T) <| Y (7-A1) -Y (7-B2). If it is determined that there is a possibility that the same object exists, S603 is performed.

S604では、S603で一致していると判定されたオブジェクトについてオブジェクトのサイズを比較する。外接矩形のサイズとして幅(W)と高さ(H)を比較してそれぞれの閾値W(T)、H(T)以下であれば同じオブジェクトの可能性があるとし、閾値以上であれば異なるオブジェクトであると判定する。追加オブジェクト(A1)と追加オブジェクト(B2)は画像サイズのサイズ差を計算し、W(T)>|W(7−A1)−W(7−B2)|、H(T)<|H(7−A1)−H(7−B2)となり同じオブジェクトの可能性があるとしてS605を行う。   In step S604, the object sizes of the objects determined to match in step S603 are compared. If the width (W) and the height (H) are compared as the size of the circumscribed rectangle and the threshold values W (T) and H (T) are less than or equal to each other, there is a possibility of the same object. Judged to be an object. The size difference between the additional object (A1) and the additional object (B2) is calculated, and W (T)> | W (7-A1) −W (7-B2) |, H (T) <| H ( 7-A1) -H (7-B2), and it is determined that there is a possibility of the same object, and S605 is performed.

S605では、画素密度を比較する。第8図のように画素密度(D)=追加オブジェクトの画素数(Obj(P))/外接矩形の画素数(R(P))で計算する。画素密度を比較して閾値D(T)以下であればで同じオブジェクトの可能性があるとし、閾値以上であれば異なるオブジェクトであると判定する。追加オブジェクトの画素密度をそれぞれ計算する。計算結果は、D(T)<|D(A1)−D(B1)となり同じオブジェクトの可能性があるとしてS605を行う。これによって、(8−A)の追加オブジェクトA1と(8−B)の追加オブジェクトB2は同一である可能性が高いが、位置、サイズが一致すると判定された(8−C)の追加オブジェクトを異なるデータであると識別することができる。   In S605, the pixel densities are compared. As shown in FIG. 8, the pixel density (D) = the number of pixels of the additional object (Obj (P)) / the number of pixels of the circumscribed rectangle (R (P)). If the pixel density is compared with the threshold value D (T) or less, it is determined that there is a possibility of the same object. The pixel density of each additional object is calculated. The calculation result is D (T) <| D (A1) −D (B1), and S605 is performed assuming that there is a possibility of the same object. Accordingly, although there is a high possibility that the additional object A1 of (8-A) and the additional object B2 of (8-B) are the same, the additional object of (8-C) determined to have the same position and size. Different data can be identified.

S606では、画素密度の分布を比較する。第9図に示すように画像を細かい領域に分割し、それぞれの領域における画素密度の差が閾値以下であるかどうかの判定を行いう。画素密度の分布を比較することによって、(9−A)と(9−B)は同一であると判定される(9−C)とは異なるオブジェクトであると判定することができる。   In S606, the pixel density distributions are compared. As shown in FIG. 9, the image is divided into fine regions, and it is determined whether the difference in pixel density in each region is equal to or less than a threshold value. By comparing pixel density distributions, (9-A) and (9-B) can be determined to be different objects from (9-C), which are determined to be the same.

以上、S601〜S606までの処理で、追加オブジェクトA1は追加オブジェクトB2と同じオブジェクト(同一オブジェクト)であると判定することができる。また、追加オブジェクトB1に対する同じオブジェクトは前の撮影画像データには存在しないことがわかり、追加オブジェクトB1は現在の撮影画像において新規に出現したオブジェクト(新規オブジェクト)であると判定することができる。すなわち、S601〜S606の処理によれば、第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトであるか同一オブジェクトであるかを判断することができる。   As described above, in the processing from S601 to S606, it is possible to determine that the additional object A1 is the same object (the same object) as the additional object B2. Further, it can be seen that the same object for the additional object B1 does not exist in the previous captured image data, and it can be determined that the additional object B1 is an object (new object) that newly appears in the current captured image. That is, according to the processing of S601 to S606, it can be determined whether the object included in the first additional object is a new object or the same object.

また、本実施例では同一判定の精度を上げるために、連結画素のストローク長やループ数などを同一オブジェクトの判定方法に用いることが可能である。   In this embodiment, in order to increase the accuracy of the same determination, the stroke length of the connected pixels, the number of loops, and the like can be used in the determination method for the same object.

S306では、追加オブジェクトの比較結果によって、現在の撮影画像データで新しく書き込まれた新規オブジェクトか、前の撮影画像データから存在する同一オブジェクトであるか判定する。   In S306, based on the comparison result of the additional object, it is determined whether it is a new object newly written with the current photographed image data or the same object existing from the previous photographed image data.

S306のオブジェクト比較処理において、同一オブジェクトと判定された追加オブジェクトに対して、S308の同一オブジェクト追加先(格納先)決定処理を行う。図7に示した例では、追加オブジェクトA1と同一オブジェクトであると判定された追加オブジェクトB2に対して、S308の同一オブジェクト追加先決定処理が行われる。   In the object comparison process of S306, the same object addition destination (storage destination) determination process of S308 is performed for the additional object determined to be the same object. In the example shown in FIG. 7, the same object addition destination determination process of S308 is performed on the additional object B2 determined to be the same object as the additional object A1.

また、新規オブジェクトと判定された追加オブジェクトに対して、S307の新規オブジェクト追加先決定処理を行う。図7に示した例では、新規オブジェクトと判定された追加オブジェクトB1に対して、S307の新規オブジェクト追加先決定処理が行われる。   Further, a new object addition destination determination process in S307 is performed on the additional object determined to be a new object. In the example illustrated in FIG. 7, the new object addition destination determination process of S307 is performed on the additional object B1 determined to be a new object.

S307では、新規オブジェクト追加先決定処理を行う。新規オブジェクトは、現在処理している対象画像データ2に対する書き込みである(すなわち、対象画像データ2が追加先画像データである)と判断され、対象画像データ2の表示レイヤーに対して追加するように決定される。   In step S307, new object addition destination determination processing is performed. It is determined that the new object is writing to the target image data 2 currently processed (that is, the target image data 2 is the addition destination image data), and is added to the display layer of the target image data 2. It is determined.

このように新規オブジェクトを表示レイヤーに追加するように決定する事によって、後述するように、対象画像データ2に表示されるように新規オブジェクトを追加することができる。また、新規オブジェクトを対象画像データ2に追加することによって、他の画像データに対して後に行われるオブジェクトの比較処理(S305)にて、当該新規オブジェクトを第2追加オブジェクトとして用いることができる。   By deciding to add a new object to the display layer in this way, the new object can be added to be displayed in the target image data 2 as will be described later. Further, by adding a new object to the target image data 2, the new object can be used as the second additional object in the object comparison process (S305) performed later on the other image data.

S308では、同一オブジェクト追加先決定処理を行う。同一オブジェクトは、前回の撮影画像でも存在したオブジェクトであり、記入情報の消し忘れである可能性が高い。したがって、同一オブジェクトは、現在処理している画像データ2に対する書き込みではないと判定され、対象画像データ2の非表示レイヤーに対して追加されると決定される。   In S308, the same object addition destination determination process is performed. The same object is an object that also existed in the previous photographed image, and there is a high possibility that entry information has been forgotten to be deleted. Therefore, it is determined that the same object is not written to the currently processed image data 2 and is determined to be added to the non-display layer of the target image data 2.

このように同一オブジェクトを非表示レイヤーに追加するように決定する事によって、後述するように、対象画像データ2に表示されないように同一オブジェクトを追加することができる。   By deciding to add the same object to the non-display layer in this way, the same object can be added so as not to be displayed in the target image data 2 as will be described later.

S309では、追加オブジェクトの格納(追加)処理を行う。
図10を参照して、追加オブジェクトの格納方法について説明する。
格納先となる対象画像データ(10−A)はオブジェクトデータを表示する層(表示レイヤー)とオブジェクトデータを表示しない層(非表示レイヤー)を持ち、最終的に層構造(レイヤー構造)を重ねることによって、表示データを生成する。
In step S309, additional object storage (addition) processing is performed.
With reference to FIG. 10, a method for storing additional objects will be described.
The target image data (10-A) as the storage destination has a layer that displays object data (display layer) and a layer that does not display object data (non-display layer), and finally overlaps the layer structure (layer structure). To generate display data.

前の処理において、オブジェクトを表示データとして追加すると決定した新規オブジェクトに関しては10−Bに示すように、表示レイヤーに追加する。オブジェクトを非表示データとして追加すると決定した同一オブジェクトに関しては10−Cに示すように、非表示レイヤーに追加する。   In the previous process, a new object determined to be added as display data is added to the display layer as shown in 10-B. The same object that is determined to be added as non-display data is added to the non-display layer as shown in 10-C.

10−Aの対象画像データに対して、表示レイヤー、非表示レイヤーを重ねた形で、10−Dの出力結果を得ることができる。   A 10-D output result can be obtained by overlapping a display layer and a non-display layer on the target image data 10-A.

出力した画像データは図11に示したように、表示するレイヤーの切り替えを行うことによって、オブジェクトの表示、非表示をレイヤー毎に切り替えることが可能である。   As shown in FIG. 11, the output image data can be switched between display and non-display of objects for each layer by switching the layers to be displayed.

画像を表示する装置に備えるユーザーインターフェイスからの指示によって、本実施形態における最適表示である11−Aと全オブジェクト表示(撮影時の追加オブジェクトをすべて表示)である11−Bとを簡単に切り替えることが可能である。   In accordance with an instruction from a user interface provided in the image display device, 11-A, which is the optimal display in the present embodiment, and 11-B, which is the display of all objects (displays all additional objects at the time of shooting), can be easily switched. Is possible.

以上のように本実施例によれば、画像データ群に含まれる画像データを表示する際に、当該画像データに関係する書き込み情報のみを表示することが可能となる。すなわち、ある画像データが投影された画像に対して書き込まれた情報のみを当該画像データとともに表示することが可能となる。   As described above, according to this embodiment, when displaying image data included in an image data group, it is possible to display only writing information related to the image data. In other words, only information written to an image on which certain image data is projected can be displayed together with the image data.

[実施例2]
実施例2では、同一オブジェクトの追加先決定処理に関して、実施例1とは異なる方法について説明する。
[Example 2]
In the second embodiment, a method different from the first embodiment will be described with respect to the same object addition destination determination process.

図3に示した処理について、本実施例ではS306の同一オブジェクトの判定処理までは実施例1と同様の処理が行われるため、説明は省略する。   With respect to the processing shown in FIG. 3, in the present embodiment, the same processing as in the first embodiment is performed until the same object determination processing in S <b> 306.

図12は実施例2の処理を表す同一オブジェクト追加先決定処理のフローチャートである。図12のフローチャートを用いて実施例2を説明する。   FIG. 12 is a flowchart of the same object addition destination determination process representing the process of the second embodiment. A second embodiment will be described with reference to the flowchart of FIG.

図13にはS306までの処理によって得られる結果が示されている。前撮影画像データ13−Aから得られた追加オブジェクトと、現撮影画像データ13−Bから得られた追加オブジェクトとを比較して、同一オブジェクト1、同一オブジェクト2、及び新規オブジェクト1をそれぞれ取得する。   FIG. 13 shows the results obtained by the processing up to S306. The additional object obtained from the previous photographed image data 13-A and the additional object obtained from the current photographed image data 13-B are compared to obtain the same object 1, the same object 2, and the new object 1, respectively. .

S1201では、前対象画像データに含まれるコンテンツに対する同一オブジェクトの影響度を計算する。ここで、前対象画像データとは、以前投影された画像データのことである。コンテンツとは対象画像データに予め含まれている図、表、文字、写真などのオブジェクトであり、背景以外の対象画像データのオブジェクトのことである。影響度とは、同一オブジェクトが対象画像データの表示に対して与える影響の度合いのことである。   In S1201, the influence degree of the same object on the content included in the previous target image data is calculated. Here, the previous target image data is previously projected image data. The content is an object such as a figure, a table, a character, or a photograph that is included in the target image data in advance, and is an object of the target image data other than the background. The degree of influence is the degree of influence that the same object has on the display of target image data.

図14はオブジェクトとコンテンツの位置関係を示した図である。同一オブジェクト1とコンテンツ14Aの影響度を計算する。影響度はコンテンツとオブジェクトの外接矩形との間の距離に比例する。すなわち、影響度は、コンテンツとオブジェクトとの間の距離に応じて計算される。所定の閾値D(T)以上の距離が離れている場合、影響度は小さいと判定される。閾値Dは、任意の値が予め設定される。   FIG. 14 is a diagram showing the positional relationship between the object and the content. The influence degree of the same object 1 and the content 14A is calculated. The degree of influence is proportional to the distance between the content and the circumscribed rectangle of the object. That is, the influence degree is calculated according to the distance between the content and the object. When the distance equal to or greater than the predetermined threshold value D (T) is separated, the influence degree is determined to be small. An arbitrary value is preset for the threshold value D.

本実施例ではD(T)=0として、コンテンツと外接矩形が接触している場合に影響度が大きいと判定し、離れている場合は影響度が小さいと判定する。影響度の判定方法については、比較するコンテンツの大きさやオブジェクトの大きさによって動的に変更しても構わない。コンテンツ14Aと同一オブジェクト1の外接矩形の距離はD1であり、D1>0となり影響度が小さいと判定する。コンテンツ14Aと同一オブジェクト2の外接矩形の距離はD2であり、D2>0となり影響度が小さいと判定する。   In this embodiment, it is determined that D (T) = 0, and the degree of influence is large when the content and the circumscribed rectangle are in contact, and the degree of influence is small when they are separated. The method for determining the degree of influence may be dynamically changed according to the size of the content to be compared and the size of the object. The distance of the circumscribed rectangle of the same object 1 as the content 14A is D1, and it is determined that D1> 0 and the influence degree is small. The distance between the circumscribed rectangle of the same object 2 and the content 14A is D2, and it is determined that D2> 0 and the degree of influence is small.

S1202では、現在の処理対象の画像データ(現対象画像データ)のコンテンツと同一オブジェクトとの影響度を計算する。コンテンツ14Bと同一オブジェクト1の外接矩形の距離はD3であり、D3>0となり影響度が小さいと判定する。コンテンツ14Aと同一オブジェクト2の外接矩形の距離はD4であり、コンテンツとオブジェクトが重なっているためD4<0となり影響度が大きいと判定する。   In step S1202, the degree of influence between the content of the current processing target image data (current target image data) and the same object is calculated. The distance between the circumscribed rectangles of the same object 1 as the content 14B is D3, and it is determined that D3> 0 and the degree of influence is small. The distance between the circumscribed rectangle of the same object 2 and the content 14A is D4, and since the content and the object overlap, it is determined that D4 <0 and the influence degree is large.

S1203では影響度により追加先を決定する。同一オブジェクト1は、前対象画像データ、現対象画像データともに影響度が小さいので、継続して追加しても影響が小さいオブジェクトであると決定する。一方、同一オブジェクト2は、現対象画像データに対する影響度が大きいために、継続して追加すると影響が大きいオブジェクトであると決定する。   In S1203, the addition destination is determined based on the degree of influence. Since the same object 1 has a small influence on both the previous target image data and the current target image data, it is determined that the same object 1 is an object having a small influence even if it is continuously added. On the other hand, since the same object 2 has a large influence on the current target image data, the same object 2 is determined to be an object that has a large influence when continuously added.

S1204では、決定結果をもとにオブジェクトを追加するか否かの判定を行い、影響度の小さい同一オブジェクト1は表示されるように現対象画像データに追加すると判定される。すなわち、所定の閾値より影響度が小さい場合、現対象画像データに表示されるように同一オブジェクト1を追加すると判定する。また、影響度の大きい同一オブジェクト2は追加できない(または、非表示として追加する)と判定する。   In S1204, it is determined whether to add an object based on the determination result, and it is determined that the same object 1 having a small influence degree is added to the current target image data so as to be displayed. That is, when the degree of influence is smaller than a predetermined threshold, it is determined that the same object 1 is added to be displayed in the current target image data. Further, it is determined that the same object 2 having a large influence degree cannot be added (or added as non-display).

図15は、実施例2における追加オブジェクトの格納結果を示している。上記判定を行った後、図3のS309の画像データ格納処理によって、15−Aの対象画像データに対して、追加可能と判定された同一オブジェクト1は現対象画像データの表示レイヤー(15−B)へ格納する。追加不可と判定された同一オブジェクト2は現対象画像データに追加されない(または、非表示レイヤー(15−C)に格納される)。出力結果として15―Dに示す出力結果を出力する。   FIG. 15 shows a storage result of the additional object in the second embodiment. After the above determination, the same object 1 determined to be able to be added to the target image data of 15-A by the image data storage process of S309 in FIG. 3 is displayed on the display layer (15-B ). The same object 2 determined not to be added is not added to the current target image data (or stored in the non-display layer (15-C)). The output result shown in 15-D is output as the output result.

なお、本実施例では、前対象画像データ及び現対象画像データのコンテンツに対する同一オブジェクトの影響度を計算し、当該影響度に応じて現対象画像データへの同一オブジェクトの追加(格納)方法を判定しているが、この方法に限定されない。現対象画像データのコンテンツに対する同一オブジェクトの影響度のみを計算し、現対象画像データへの同一オブジェクトの追加方法を判定してもよい。   In this embodiment, the degree of influence of the same object on the contents of the previous target image data and the current target image data is calculated, and a method for adding (storing) the same object to the current target image data is determined according to the degree of influence. However, it is not limited to this method. Only the influence degree of the same object on the content of the current target image data may be calculated to determine a method of adding the same object to the current target image data.

以上のように本実施例によれば、画像データ群に含まれる画像データを表示する際に、当該画像データのコンテンツに対して影響度の小さい同一オブジェクトを当該画像データに表示されるように追加することができる。また、影響度の大きい同一オブジェクトを当該画像データに非表示となるように追加することができる。   As described above, according to the present embodiment, when displaying image data included in an image data group, the same object having a small influence on the content of the image data is added to be displayed on the image data. can do. Further, the same object having a large influence degree can be added to the image data so as not to be displayed.

[実施例3]
実施例3では、新規オブジェクトオブジェクトの追加先決定処理に関して、実施例1とは異なる方法について説明する。
[Example 3]
In the third embodiment, a method different from that of the first embodiment will be described with respect to the process for determining a new object object addition destination.

図3に示した処理について、本実施例ではS306の同一オブジェクトの判定処理までは実施例1と同様の処理であるので、説明は省略する。   The processing shown in FIG. 3 is the same as that in the first embodiment up to the same object determination processing in step S306 in the present embodiment, and a description thereof will be omitted.

図16は実施例3の処理を表す新規オブジェクト追加先決定処理のフローチャートである。図16のフローチャートを用いて実施例3を説明する。   FIG. 16 is a flowchart of a new object addition destination determination process representing the process of the third embodiment. Embodiment 3 will be described with reference to the flowchart of FIG.

S1601では入力されたオブジェクト(新規オブジェクト)の種別判定の処理を行う。本実施例では入力オブジェクトが文字であるか非文字であるかを判別する。オブジェクトの種別判別は、オブジェクトの連結画素を取り出して、一つ一つの連結画素の大きさがある程度そろっていることと、画素が規則正しく並んでいるなどで判別する。また、OCRを実行してある程度の閾値で認識できたら文字オブジェクトと判別する。入力オブジェクトが文字であるか非文字であるかの判別は、この方法に限定されず、任意の方法によって行われる。   In step S1601, the type of the input object (new object) is determined. In this embodiment, it is determined whether the input object is a character or a non-character. The object type is determined by taking out the connected pixels of the object and determining that the size of each connected pixel is uniform to some extent and that the pixels are regularly arranged. Further, if the object is recognized with a certain threshold by executing OCR, it is determined as a character object. The determination whether the input object is a character or a non-character is not limited to this method, and can be performed by an arbitrary method.

S1602において、非文字オブジェクトの現対象画像データとの関連度を計算する。関連度は対象となる新規オブジェクトが初めて出現したスライドが最も高いと考えられる。しかしながら、非文字オブジェクトの特徴として、スクリーンに投影されているコンテンツを修飾する用途が多いと考えられる。そのため、非文字オブジェクトは、コンテンツとの重なりが大きいほど関連度が高く、コンテンツとの距離が離れるにしたがって関連度が低くなる傾向がある。   In S1602, the relevance of the non-character object with the current target image data is calculated. The degree of relevance is considered to be highest for a slide in which a new target object appears for the first time. However, it is considered that there are many uses for modifying the content projected on the screen as a feature of the non-character object. Therefore, the non-character object has a higher degree of association as the overlap with the content increases, and the degree of association tends to decrease as the distance from the content increases.

非文字オブジェクトの関連度は以下の数式で計算する。
オブジェクトの面積(A)
オブジェクトとコンテンツの重なり面積(A1)
オブジェクトとコンテンツの距離(D)
関連度(R)=A1/A (距離D≦0の場合(接触から重なり))
関連度(R)=−D (距離D>0の場合)
The relevance of non-character objects is calculated using the following formula.
Object area (A)
Overlap area of object and content (A1)
Distance between object and content (D)
Relevance (R) = A1 / A (when distance D ≦ 0 (overlap from contact))
Relevance (R) =-D (when distance D> 0)

S1603において、文字オブジェクトの現対象画像データとの関連度を計算する。文字オブジェクトは非文字オブジェクトとは逆に、スクリーンに投影されているコンテンツと独立して記入されることが多い。これは文字オブジェクト自体がコンテンツと重なることによって読めなくなるためである。したがって、文字オブジェクトの関連度はコンテンツとの距離が離れるにしたがって、関連度が低くなり、コンテンツとの重なりが大きくなるほど関連度が低くなる。   In S1603, the relevance of the character object with the current target image data is calculated. In contrast to non-character objects, character objects are often written independently of the content projected on the screen. This is because the character object itself cannot be read because it overlaps the content. Therefore, the relevance level of the character object decreases as the distance from the content increases, and the relevance level decreases as the overlap with the content increases.

文字オブジェクトの関連度は以下の数式で計算する。
オブジェクトの面積(A)
オブジェクトとコンテンツの重なり面積(A1)
オブジェクトとコンテンツの距離(D)
関連度(R)=1−(A1/A) (距離D≦0の場合(接触から重なり))
関連度(R)=1/D (距離D>0の場合)
The relevance of the character object is calculated using the following formula.
Object area (A)
Overlap area of object and content (A1)
Distance between object and content (D)
Relevance (R) = 1− (A1 / A) (when distance D ≦ 0 (overlap from contact))
Relevance (R) = 1 / D (when distance D> 0)

なお、S1602及びS1603の処理で用いられる上記計算式は単なる例示であり、関連度は、新規オブジェクトと現対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて定まるように計算されればよい。また、非文字オブジェクトの場合、関連度は、コンテンツとの重なりが大きいほど高く、コンテンツとの距離が離れるにしたがって低くなるように計算されればよい。さらに、文字オブジェクトの場合は、関連度は、コンテンツとの距離が離れるにしたがって低くなり、コンテンツとの重なりが大きくなるほど低くなるように計算されればよい。   Note that the above calculation formula used in the processing of S1602 and S1603 is merely an example, and the relevance is calculated so as to be determined according to the distance and overlap area between the new object and the content included in the current target image data. Just do it. In the case of a non-character object, the relevance may be calculated so as to increase as the overlap with the content increases and to decrease as the distance from the content increases. Further, in the case of a character object, the relevance may be calculated so as to decrease as the distance from the content increases and to decrease as the overlap with the content increases.

新規オブジェクトと前対象画像データとの関連度についても、同様の方法により計算される。   The degree of association between the new object and the previous target image data is also calculated by the same method.

S1604は追加先対象画像データ決定処理である。S1602あるいはS1603で計算した関連度を元に、追加先画像データを決定する。   S1604 is an addition destination target image data determination process. The addition destination image data is determined based on the relevance calculated in S1602 or S1603.

ここでは、(前対象画像データの関連度)>(現対象画像データの関連度)である場合は、文字オブジェクトを前対象画像データの表示レイヤーに追加し、現対象画像データの非表示レイヤーに追加する。(前対象画像データの関連度)≦(現対象画像データの関連度)である場合は、文字オブジェクトを現対象画像データの表示レイヤーに追加する。   Here, if (relevance of the previous target image data)> (relationship of the current target image data), the character object is added to the display layer of the previous target image data, and the non-display layer of the current target image data is added. to add. If (relationship of previous target image data) ≦ (relationship of current target image data), a character object is added to the display layer of the current target image data.

すなわち、本実施例では、現対象画像データの関連度が前対象画像データの関連度以上の場合、文字オブジェクトを現対象画像データに表示されるように追加する。しかしながら、この方法に限定されず、現対象画像データの関連度が所定の閾値より大きいか否かにより、文字オブジェクトを現対象画像データに表示されるように追加するか否かが決定されても良い。   That is, in this embodiment, when the relevance level of the current target image data is equal to or higher than the relevance level of the previous target image data, a character object is added to be displayed in the current target image data. However, the present invention is not limited to this method, and whether or not to add a character object to be displayed in the current target image data is determined depending on whether or not the relevance of the current target image data is greater than a predetermined threshold. good.

以上のように本実施例によれば、画像データ群に含まれる画像データを表示する際に、当該画像データに対して関連度の大きい新規オブジェクトは、当該画像データとともに表示され、関連度の小さい新規オブジェクトは、非表示となるようにすることができる。   As described above, according to the present embodiment, when displaying image data included in an image data group, a new object having a high degree of association with the image data is displayed together with the image data and has a low degree of association. New objects can be hidden.

(その他の実施形態)
本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、1つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other embodiments)
The present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), or can be applied to an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. Is also possible.

前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。即ちコンピュータ読み取り可能な記憶媒体も実施例の範囲に含まれる。また、前述のコンピュータプログラムが記憶された記憶媒体はもちろんそのコンピュータプログラム自体も上述の実施形態に含まれる。   The processing method for storing the program for operating the configuration of the above-described embodiment so as to realize the function of the above-described embodiment in a storage medium, reading the program stored in the storage medium as a code, and executing the program on the computer is also described above. It is included in the category of the embodiment. That is, a computer-readable storage medium is also included in the scope of the embodiments. In addition to the storage medium storing the computer program, the computer program itself is included in the above-described embodiment.

かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。   As such a storage medium, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, and a ROM can be used.

また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。   In addition, the processing is not limited to the single program stored in the above-described storage medium, but operates on the OS in cooperation with other software and expansion board functions to execute the operations of the above-described embodiments. This is also included in the category of the embodiment described above.

101 CPU
102 記憶装置
103 入力デバイス
104 出力デバイス
105 ROM
106 RAM
101 CPU
102 Storage Device 103 Input Device 104 Output Device 105 ROM
106 RAM

Claims (13)

第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較する手段と、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出する手段と、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得する手段と、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトか同一オブジェクトかを判断する手段と、
前記判断された新規オブジェクト及び同一オブジェクトのそれぞれの格納先を決定する手段と、
前記決定した格納先に前記取得した新規オブジェクト及び同一オブジェクトをそれぞれ格納する手段と
を備えることを特徴とする画像処理装置。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. Means for comparing;
Means for extracting the writing information as a first additional object based on the comparison result;
Means for obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Means for comparing the first additional object with the second additional object to determine whether the object included in the first additional object is a new object or the same object;
Means for determining a storage location of each of the determined new object and the same object;
An image processing apparatus comprising: means for storing the acquired new object and the same object in the determined storage destination.
前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトか同一オブジェクトかを判断する手段は、各追加オブジェクトの少なくとも位置及びサイズを比較して判断をすることを特徴とする請求項1に記載の画像処理装置。   2. The image processing according to claim 1, wherein the means for determining whether the object included in the first additional object is a new object or the same object is determined by comparing at least a position and a size of each additional object. apparatus. 前記新規オブジェクト及び同一オブジェクトの格納先を決定する手段は、新規オブジェクトを前記第1画像データ群に係る画像データの表示レイヤーに格納し、同一オブジェクトを前記第1画像データ群に係る画像の非表示レイヤーに格納するように決定することを特徴とする請求項1又は2に記載の画像処理装置。   The means for determining the storage destination of the new object and the same object stores the new object in the display layer of the image data related to the first image data group, and the non-display of the image related to the first image data group The image processing apparatus according to claim 1, wherein the image processing apparatus determines to store in a layer. 第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較する手段と、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出する手段と、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得する手段と、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが同一オブジェクトかを判断する手段と、
前記第1画像データ群に係る画像データに予め含まれているコンテンツに対する、前記同一オブジェクトと判断されたオブジェクトの影響度を、当該コンテンツ及び当該オブジェクトとの間の距離に応じて計算する手段と、
前記計算された影響度が所定の閾値より小さい場合、前記第1画像データ群に係る画像データに表示されるように前記同一オブジェクトを格納する手段と
を備えることを特徴とする画像処理装置。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. Means for comparing;
Means for extracting the writing information as a first additional object based on the comparison result;
Means for obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Means for comparing the first additional object with the second additional object to determine whether the objects included in the first additional object are the same object;
Means for calculating the influence of the object determined to be the same object on the content included in advance in the image data related to the first image data group according to the distance between the content and the object;
An image processing apparatus comprising: means for storing the same object so as to be displayed in the image data relating to the first image data group when the calculated influence degree is smaller than a predetermined threshold value.
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較する手段と、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出する手段と、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像データである現対象画像データが投影される前に投影された画像である前対象画像データから抽出された第2追加オブジェクトを取得する手段と、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトかを判断する手段と、
前記新規オブジェクトと判断されたオブジェクトと前記現対象画像データとの関連度を、前記新規オブジェクトと前記現対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算する手段と、
前記新規オブジェクトと判断されたオブジェクトと前記前対象画像データとの関連度を、前記新規オブジェクトと前記前対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算する手段と、
前記計算された前記現対象画像データとの関連度が前記前対象画像データとの関連度以上であるとき、前記現対象画像データに表示されるように前記新規オブジェクトを格納する手段と
を備えることを特徴とする画像処理装置。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. Means for comparing;
Means for extracting the writing information as a first additional object based on the comparison result;
The second additional object extracted from the previous target image data that is the image projected before the current target image data that is the image data from which the first additional object is extracted from the second image data group. Means for obtaining
Means for comparing the first additional object and the second additional object to determine whether the object included in the first additional object is a new object;
Means for calculating a degree of association between the object determined to be the new object and the current target image data according to a distance and an overlapping area between the new object and the content included in the current target image data;
Means for calculating a degree of association between the object determined to be the new object and the previous target image data according to a distance and an overlapping area between the new object and the content included in the previous target image data;
Means for storing the new object to be displayed in the current target image data when the calculated relevance level with the current target image data is equal to or higher than the relevance level with the previous target image data. An image processing apparatus.
前記現対象画像データとの関連度及び前記前対象画像データとの関連度を計算する手段は、前記新規オブジェクトが非文字オブジェクトの場合、コンテンツとの重なりが大きいほど高く、コンテンツとの距離が離れるにしたがって低くなるように関連度を計算することを特徴とする請求項5に記載の画像処理装置。   In the case where the new object is a non-character object, the means for calculating the degree of association with the current target image data and the degree of association with the previous target image data increases as the overlap with the content increases and the distance from the content increases. The image processing apparatus according to claim 5, wherein the degree of relevance is calculated so as to become lower according to: 前記現対象画像データとの関連度及び前記前対象画像データとの関連度を計算する手段は、前記新規オブジェクトが文字オブジェクトの場合、コンテンツとの距離が離れるにしたがって低くなり、コンテンツとの重なりが大きくなるほど低くなるように計算することを特徴とする請求項5に記載の画像処理装置。   When the new object is a character object, the means for calculating the degree of association with the current target image data and the degree of association with the previous target image data decreases as the distance from the content increases, and overlaps with the content. The image processing apparatus according to claim 5, wherein the calculation is performed such that the larger the value is, the lower the value is. 第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトか同一オブジェクトかを判断するステップと、
前記判断された新規オブジェクト及び同一オブジェクトのそれぞれの格納先を決定するステップと、
前記決定した格納先に前記取得した新規オブジェクト及び同一オブジェクトをそれぞれ格納するステップと
を備えることを特徴とする画像処理方法。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
Obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Comparing the first additional object with the second additional object to determine whether the object included in the first additional object is a new object or the same object;
Determining a storage location for each of the determined new object and the same object;
Storing the acquired new object and the same object in the determined storage location, respectively.
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが同一オブジェクトかを判断するステップと、
前記第1画像データ群に係る画像データに予め含まれているコンテンツに対する、前記同一オブジェクトと判断されたオブジェクトの影響度を、当該コンテンツ及び当該オブジェクトとの間の距離に応じて計算するステップと、
前記計算された影響度が所定の閾値より小さい場合、前記第1画像データ群に係る画像データに表示されるように前記同一オブジェクトを格納するステップと
を備えることを特徴とする画像処理方法。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
Obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Comparing the first additional object and the second additional object to determine whether the objects included in the first additional object are the same object;
Calculating the degree of influence of the object determined as the same object on the content included in advance in the image data related to the first image data group according to the distance between the content and the object;
An image processing method comprising: storing the same object so as to be displayed in image data relating to the first image data group when the calculated influence degree is smaller than a predetermined threshold value.
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像データである現対象画像データが投影される前に投影された画像である前対象画像データから抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトかを判断するステップと、
前記新規オブジェクトと判断されたオブジェクトと前記現対象画像データとの関連度を、前記新規オブジェクトと前記現対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算するステップと、
前記新規オブジェクトと判断されたオブジェクトと前記前対象画像データとの関連度を、前記新規オブジェクトと前記前対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算するステップと、
前記計算された前記現対象画像データとの関連度が前記前対象画像データとの関連度以上であるとき、前記現対象画像データに表示されるように前記新規オブジェクトを格納するステップと
を備えることを特徴とする画像処理方法。
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
The second additional object extracted from the previous target image data that is the image projected before the current target image data that is the image data from which the first additional object is extracted from the second image data group. Step to get the
Comparing the first additional object and the second additional object to determine whether the object included in the first additional object is a new object;
Calculating a degree of association between the object determined to be the new object and the current target image data according to a distance and an overlapping area between the new object and the content included in the current target image data;
Calculating the degree of association between the object determined to be the new object and the previous target image data according to a distance and an overlapping area between the new object and the content included in the previous target image data;
Storing the new object to be displayed in the current target image data when the calculated relevance level with the current target image data is equal to or higher than the relevance level with the previous target image data. An image processing method characterized by the above.
コンピュータに、
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトか同一オブジェクトかを判断するステップと、
前記判断された新規オブジェクト及び同一オブジェクトのそれぞれの格納先を決定するステップと、
前記決定した格納先に前記取得した新規オブジェクト及び同一オブジェクトをそれぞれ格納するステップと
を実行させるためのプログラム。
On the computer,
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
Obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Comparing the first additional object with the second additional object to determine whether the object included in the first additional object is a new object or the same object;
Determining a storage location for each of the determined new object and the same object;
A program for executing the step of storing the acquired new object and the same object in the determined storage location.
コンピュータに、
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像が投影される前に投影された画像から抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが同一オブジェクトかを判断するステップと、
前記第1画像データ群に係る画像データに予め含まれているコンテンツに対する、前記同一オブジェクトと判断されたオブジェクトの影響度を、当該コンテンツ及び当該オブジェクトとの間の距離に応じて計算するステップと、
前記計算された影響度が所定の閾値より小さい場合、前記第1画像データ群に係る画像データに表示されるように前記同一オブジェクトを格納するステップと
を実行させるためのプログラム。
On the computer,
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
Obtaining a second additional object extracted from an image projected before the image from which the first additional object is extracted is projected from the second image data group;
Comparing the first additional object and the second additional object to determine whether the objects included in the first additional object are the same object;
Calculating the degree of influence of the object determined as the same object on the content included in advance in the image data related to the first image data group according to the distance between the content and the object;
When the calculated influence degree is smaller than a predetermined threshold value, a program for executing the step of storing the same object to be displayed in the image data related to the first image data group.
コンピュータに、
第1画像データ群と、前記第1画像データ群を構成する画像データのそれぞれを順次スクリーンに投影した画像に対して書き込みがなされた画像を撮影した画像データ群である第2画像データ群とを比較するステップと、
前記比較結果に基づいて、前記書き込みの情報を第1追加オブジェクトとして抽出するステップと、
前記第2画像データ群のうち、前記第1追加オブジェクトが抽出された画像データである現対象画像データが投影される前に投影された画像である前対象画像データから抽出された第2追加オブジェクトを取得するステップと、
前記第1追加オブジェクトと前記第2追加オブジェクトとを比較して、前記第1追加オブジェクトに含まれるオブジェクトが新規オブジェクトかを判断するステップと、
前記新規オブジェクトと判断されたオブジェクトと前記現対象画像データとの関連度を、前記新規オブジェクトと前記現対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算するステップと、
前記新規オブジェクトと判断されたオブジェクトと前記前対象画像データとの関連度を、前記新規オブジェクトと前記前対象画像データに含まれるコンテンツとの間の距離及び重なり面積に応じて計算するステップと、
前記計算された前記現対象画像データとの関連度が前記前対象画像データとの関連度以上であるとき、前記現対象画像データに表示されるように前記新規オブジェクトを格納するステップと
を実行させるためのプログラム。
On the computer,
A first image data group, and a second image data group that is an image data group obtained by capturing images written on images obtained by sequentially projecting the image data constituting the first image data group onto a screen. A step of comparing;
Extracting the writing information as a first additional object based on the comparison result;
The second additional object extracted from the previous target image data that is the image projected before the current target image data that is the image data from which the first additional object is extracted from the second image data group. Step to get the
Comparing the first additional object and the second additional object to determine whether the object included in the first additional object is a new object;
Calculating a degree of association between the object determined to be the new object and the current target image data according to a distance and an overlapping area between the new object and the content included in the current target image data;
Calculating the degree of association between the object determined to be the new object and the previous target image data according to a distance and an overlapping area between the new object and the content included in the previous target image data;
And storing the new object to be displayed in the current target image data when the calculated degree of association with the current target image data is greater than or equal to the degree of association with the previous target image data. Program for.
JP2010000490A 2010-01-05 2010-01-05 Image processing method, image processing apparatus, and program Expired - Fee Related JP5409400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010000490A JP5409400B2 (en) 2010-01-05 2010-01-05 Image processing method, image processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010000490A JP5409400B2 (en) 2010-01-05 2010-01-05 Image processing method, image processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2011141599A true JP2011141599A (en) 2011-07-21
JP5409400B2 JP5409400B2 (en) 2014-02-05

Family

ID=44457421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010000490A Expired - Fee Related JP5409400B2 (en) 2010-01-05 2010-01-05 Image processing method, image processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP5409400B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078856A (en) * 2012-10-10 2014-05-01 Ricoh Co Ltd Image projection system, information processor and program
JP2015001809A (en) * 2013-06-14 2015-01-05 株式会社Screenホールディングス Image inspection data creation device, image inspection data program and image inspection data creation method
JP2017216009A (en) * 2017-08-16 2017-12-07 株式会社Screenホールディングス Inspection method of page data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121747A (en) * 2003-10-14 2005-05-12 Seiko Epson Corp Projector device and writing acquisition method
JP2006114996A (en) * 2004-10-12 2006-04-27 Japan Science & Technology Agency Lock detecting apparatus and optical phase-locked loop system
JP2008028481A (en) * 2006-07-18 2008-02-07 Fuji Xerox Co Ltd Image processor, remote image processing system and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121747A (en) * 2003-10-14 2005-05-12 Seiko Epson Corp Projector device and writing acquisition method
JP2006114996A (en) * 2004-10-12 2006-04-27 Japan Science & Technology Agency Lock detecting apparatus and optical phase-locked loop system
JP2008028481A (en) * 2006-07-18 2008-02-07 Fuji Xerox Co Ltd Image processor, remote image processing system and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078856A (en) * 2012-10-10 2014-05-01 Ricoh Co Ltd Image projection system, information processor and program
JP2015001809A (en) * 2013-06-14 2015-01-05 株式会社Screenホールディングス Image inspection data creation device, image inspection data program and image inspection data creation method
JP2017216009A (en) * 2017-08-16 2017-12-07 株式会社Screenホールディングス Inspection method of page data

Also Published As

Publication number Publication date
JP5409400B2 (en) 2014-02-05

Similar Documents

Publication Publication Date Title
RU2531261C2 (en) Scanning using camera
US8570346B2 (en) Image display control apparatus and image display control method
US20230362328A1 (en) Video frame insertion method and apparatus, and electronic device
JP5675194B2 (en) Image processing apparatus, image processing method, and program
JP2010079550A (en) Instruction system, instruction apparatus, and instruction program
US9781291B2 (en) Image processing apparatus, controlling method thereof, and program
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP5409400B2 (en) Image processing method, image processing apparatus, and program
JP4730775B2 (en) Image processing device
JP2006303707A (en) Image processing apparatus and image processing method
US20150116766A1 (en) Image processing apparatus, controlling method thereof, and program
CN108989704B (en) Image generation method and device and terminal equipment
JP2005275447A (en) Image processing device, image processing method and program
JP2010002991A (en) Image processor, image processing method, and computer program
JP4898655B2 (en) Imaging apparatus and image composition program
JP5618719B2 (en) Image processing apparatus, method and program thereof
JP4868139B2 (en) Image processing apparatus and image processing program
US20080170805A1 (en) Method and system for adding dynamic pictures to real-time image
JP2005236800A (en) Image region determining method, image processor, and program
JP5871293B2 (en) Mobile terminal and image classification method
JP2005055973A (en) Personal digital assistant
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
JP2005217721A (en) Apparatus and method for generating still picture
US20070098277A1 (en) Transmitting apparatus, image processing system, image processing method, program, and recording medium
JP5683819B2 (en) Mobile terminal and image classification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131105

R151 Written notification of patent or utility model registration

Ref document number: 5409400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees