JP6312488B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6312488B2
JP6312488B2 JP2014064269A JP2014064269A JP6312488B2 JP 6312488 B2 JP6312488 B2 JP 6312488B2 JP 2014064269 A JP2014064269 A JP 2014064269A JP 2014064269 A JP2014064269 A JP 2014064269A JP 6312488 B2 JP6312488 B2 JP 6312488B2
Authority
JP
Japan
Prior art keywords
image
area
paper
partial
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014064269A
Other languages
Japanese (ja)
Other versions
JP2015187755A (en
Inventor
洋介 五十嵐
洋介 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014064269A priority Critical patent/JP6312488B2/en
Publication of JP2015187755A publication Critical patent/JP2015187755A/en
Application granted granted Critical
Publication of JP6312488B2 publication Critical patent/JP6312488B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、従来の書画カメラとプロジェクタを組み合わせて、原稿台に置いた紙面を撮影して得た画像等を原稿台へ投影する画像処理装置が提案されている。このような画像処理装置は、主に紙面のスキャンと画像の閲覧に用いられ、通常、撮影画像から紙面の範囲を検知する紙面検出機能を備える。また、カメラ撮影で得た画像から指先の位置を検知することにより、原稿台上でタッチ入力を実現する入力装置が提案されており、前述の画像処理装置と組み合わせて利用される。
しかしながら、このような紙面検出機能は誤りが生じる可能性がある。例えば、紙面の内部に印刷された表の罫線を紙面範囲の境界と誤検出することや、紙面範囲外にある直線を境界と誤検出することがある。そのため紙面検出機能に加えて、ユーザが検出領域を変更する領域変更機能が必要になる。
領域変更機能を実現する公知の方法として、デジタルカメラで撮影した画像をカメラ付属のディスプレイで閲覧しながら、同ディスプレイに付随するタッチパネル機能を用いて領域の境界を選択し、移動する方法がある。特許文献1には、タッチパネルを用いて表示されたオブジェクトの大きさを変更する表示制御装置が開示されている。この表示制御装置は、ユーザがオブジェクト内部の領域をタッチし移動することで、移動方向に基づいてオブジェクトを拡大、縮小、あるいは回転表示する。
2. Description of the Related Art In recent years, there has been proposed an image processing apparatus for projecting an image obtained by photographing a paper surface placed on a document table onto the document table by combining a conventional document camera and a projector. Such an image processing apparatus is mainly used for scanning a paper surface and viewing an image, and usually includes a paper surface detection function for detecting a range of the paper surface from a captured image. In addition, an input device that realizes touch input on a document table by detecting the position of a fingertip from an image obtained by camera shooting has been proposed, and is used in combination with the above-described image processing device.
However, such a paper surface detection function may cause an error. For example, a ruled line of a table printed inside a paper surface may be erroneously detected as a boundary of the paper surface range, or a straight line outside the paper surface range may be erroneously detected as a boundary. Therefore, in addition to the paper surface detection function, an area changing function for the user to change the detection area is required.
As a known method for realizing the area changing function, there is a method of selecting and moving a boundary of an area using a touch panel function attached to the display while browsing an image taken with a digital camera on a display attached to the camera. Patent Document 1 discloses a display control device that changes the size of an object displayed using a touch panel. In this display control apparatus, when the user touches and moves an area inside the object, the object is enlarged, reduced, or rotated based on the moving direction.

特許第4908626号公報Japanese Patent No. 4908626

撮影画像を閲覧しながら領域境界を変更する方法の場合、撮影環境によっては紙面と背景が同化してしまい、画像上で紙面境界を視認することが困難となることがある。この場合、領域境界の変更を正しく行うことができない。これを解決するために、紙面に対して検出領域を示す枠等を重畳投影し、ユーザが実際の紙面と検出領域を直接視認し比較しながら領域境界を変更する方法が考えられる。しかしながらこの方法に対して特許文献1に開示された技術のように、オブジェクトとしての紙面内部をタッチした場合には、指等の操作子が紙面に接触し、意図する操作を行うことができない。   In the method of changing the region boundary while viewing a captured image, the paper surface and the background may be assimilated depending on the shooting environment, and it may be difficult to visually recognize the paper surface boundary on the image. In this case, the region boundary cannot be changed correctly. In order to solve this, a method is conceivable in which a frame or the like indicating a detection region is superimposed and projected on the paper surface, and the user changes the region boundary while directly viewing and comparing the actual paper surface and the detection region. However, when the inside of the paper surface as an object is touched as in the technique disclosed in Patent Document 1 for this method, an operator such as a finger contacts the paper surface, and an intended operation cannot be performed.

本発明はこのような問題点に鑑みなされたもので、ユーザによる自然なタッチ操作に応じて、オブジェクトの検出領域を修正することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to correct an object detection area in accordance with a natural touch operation by a user.

そこで、本発明は、画像処理装置であって、オブジェクトを含む撮影領域を撮影する撮影手段と、前記撮影手段により撮影された撮影画像からオブジェクト領域を検出する検出手段と、前記撮影画像中の前記オブジェクト領域の位置に基づいて、前記オブジェクト領域を示すオブジェクト画像を前記オブジェクト上に投影する投影手段と、前記オブジェクト画像の外周線の位置に基づいて、前記撮影領域のうち前記オブジェクト領域以外の非オブジェクト領域を、複数の部分領域に分割する分割手段と、前記複数の部分領域を、前記外周線を構成する部分外周に対応付ける対応付手段と、前記非オブジェクト領域上への操作子の入力位置を含む前記部分領域に対応付けられている前記部分外周を修正対象として特定する対象特定手段と、前記修正対象の位置を修正することにより、前記オブジェクト画像を修正する修正手段とを有する。 Therefore, the present invention provides an image processing apparatus, a photographing unit that photographs a photographing region including an object, a detection unit that detects an object region from a photographed image photographed by the photographing unit, and the above-described image in the photographed image. Projecting means for projecting an object image indicating the object area on the object based on the position of the object area, and a non-object other than the object area in the photographing area based on the position of the outer peripheral line of the object image A dividing unit that divides the region into a plurality of partial regions; an association unit that associates the plurality of partial regions with a partial outer periphery that constitutes the outer peripheral line; and an input position of an operator on the non-object region Target specifying means for specifying the partial outer periphery associated with the partial area as a correction target; By modifying the position of the positive subject, and a correction means for correcting the object image.

本発明によれば、ユーザによる自然なタッチ操作に応じて、オブジェクトの検出領域を修正することができる。   According to the present invention, the detection area of an object can be corrected according to a natural touch operation by a user.

画像処理装置を示す図である。It is a figure which shows an image processing apparatus. 画像処理装置の利用方法を説明するための図である。It is a figure for demonstrating the utilization method of an image processing apparatus. 紙面検出処理を示すフローチャートである。It is a flowchart which shows a paper surface detection process. 紙面画像修正処理を示すフローチャートである。It is a flowchart which shows a paper surface image correction process. 部分外周及び部分領域を説明するための図である。It is a figure for demonstrating a partial outer periphery and a partial area | region. 部分外周及び部分領域の他の例を説明するための図である。It is a figure for demonstrating the other example of a partial outer periphery and a partial area | region. 紙面画像修正処理を説明するための図である。It is a figure for demonstrating a paper surface image correction process. 紙面画像修正処理を説明するための図である。It is a figure for demonstrating a paper surface image correction process. 辺候補の表示例を示す図である。It is a figure which shows the example of a display of a side candidate. 第2の実施形態にかかる画像処理装置を説明するための図である。It is a figure for demonstrating the image processing apparatus concerning 2nd Embodiment. 第2の実施形態にかかる紙面検出処理を示すフローチャートである。It is a flowchart which shows the paper surface detection process concerning 2nd Embodiment. 紙面画像を選択する際の操作を説明するための図である。It is a figure for demonstrating operation at the time of selecting a paper surface image. 第2の実施形態にかかる紙面画像修正処理を説明するための図である。It is a figure for demonstrating the paper surface image correction process concerning 2nd Embodiment. 第3の実施形態にかかる画像処理装置を説明するための図である。It is a figure for demonstrating the image processing apparatus concerning 3rd Embodiment. 第3の実施形態にかかる紙面検出処理を示すフローチャートである。It is a flowchart which shows the paper surface detection process concerning 3rd Embodiment. 第3の実施形態にかかる紙面画像修正処理を説明するための図である。It is a figure for demonstrating the paper surface image correction process concerning 3rd Embodiment. 第3の実施形態にかかる画像処理装置の変更例を説明するための図である。It is a figure for demonstrating the example of a change of the image processing apparatus concerning 3rd Embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

図1は、画像処理装置を示す図である。画像処理装置は、投影部101と、撮影部102と、UI部103と、制御部104と、記憶部105と、通信部106とを有している。投影部101は、スクリーン等の投影面へ画像データを投影するプロジェクタである。撮影部102は、投影台201を含む領域を撮影し、外光を画像データへ変換するデジタルカメラ又はビデオカメラである。UI部103は、画像処理装置に対するユーザからの指示を受け取り、投影部101への投影内容や投影方法の指示を行う。UI部103は、例えば投影装置に備えられたボタン類や、ジェスチャ操作を認識するための可視光カメラや赤外カメラ又はタッチ操作を行うためのペン型デバイス等により実現される。
制御部104は、UI部103から受けた指示に基づき投影部101へ画像データを提供したり、撮影部102から得た画像データに対して処理を行ったりする。制御部104は、例えばCPUやGPU等である。記憶部105は、撮影部102から得た画像データや制御部104が行う処理結果を保持するメモリやハードディスクを有する。通信部106は、の画像処理装置と他の装置や非図示のファイルサーバ、アプリケーションサーバ等と通信を行う。なお、後述する画像処理装置の機能や処理は、制御部104が記憶部105に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
FIG. 1 is a diagram illustrating an image processing apparatus. The image processing apparatus includes a projection unit 101, a photographing unit 102, a UI unit 103, a control unit 104, a storage unit 105, and a communication unit 106. The projection unit 101 is a projector that projects image data onto a projection surface such as a screen. The imaging unit 102 is a digital camera or a video camera that captures an area including the projection table 201 and converts external light into image data. The UI unit 103 receives an instruction from the user to the image processing apparatus, and instructs the projection content and the projection method on the projection unit 101. The UI unit 103 is realized by, for example, buttons provided in the projection apparatus, a visible light camera for recognizing a gesture operation, an infrared camera, a pen-type device for performing a touch operation, or the like.
The control unit 104 provides image data to the projection unit 101 based on an instruction received from the UI unit 103, or performs processing on the image data obtained from the imaging unit 102. The control unit 104 is, for example, a CPU or a GPU. The storage unit 105 includes a memory and a hard disk that hold the image data obtained from the imaging unit 102 and the processing results performed by the control unit 104. The communication unit 106 communicates with the image processing apparatus and other apparatuses, a file server (not shown), an application server, and the like. Note that the functions and processes of the image processing apparatus to be described later are realized by the control unit 104 reading a program stored in the storage unit 105 and executing the program.

図2は、画像処理装置の利用方法を説明するための図である。図2(a)に示すように、投影台201には、紙面210が置かれている。そして、撮影部102により紙面210を含む領域が撮影される。制御部104は、得られた撮影画像において、紙面210の領域、すなわち紙面領域を検出する。そして、図2(b)に示すように、投影部101は、紙面210上に、検出された紙面領域を示す紙面画像220を投影する。図2(b)に示す紙面画像220は、紙面領域の境界位置を示す四角形状の枠画像である。ただし、紙面画像は、検出領域の境界位置を示すものであればよく、具体的な画像の内容は実施形態に限定されるものではない。
ところで、図2(b)に示すように、画像処理装置による紙面領域の誤検出に起因し、実際の紙面210の端部と、紙面画像220とが一致しない場合がある。本実施形態にかかる画像処理装置は、ユーザによるタッチ操作に応じて、紙面画像220を紙面210に一致させるように、紙面画像220を修正する。
なお、本実施形態にかかる紙面は、オブジェクトの一例であり、紙面領域及び紙面画像はそれぞれ、オブジェクト領域及びオブジェクト画像の一例である。
FIG. 2 is a diagram for explaining a method of using the image processing apparatus. As shown in FIG. 2A, a paper surface 210 is placed on the projection table 201. Then, an area including the paper surface 210 is imaged by the imaging unit 102. The control unit 104 detects a region of the paper surface 210, that is, a paper region, in the obtained captured image. Then, as illustrated in FIG. 2B, the projection unit 101 projects a paper surface image 220 indicating the detected paper surface area onto the paper surface 210. A paper surface image 220 shown in FIG. 2B is a quadrangular frame image indicating the boundary position of the paper surface region. However, the paper image only needs to indicate the boundary position of the detection area, and the specific image content is not limited to the embodiment.
By the way, as shown in FIG. 2B, due to erroneous detection of the paper surface area by the image processing apparatus, the actual edge of the paper surface 210 may not match the paper image 220. The image processing apparatus according to the present embodiment corrects the paper surface image 220 so that the paper surface image 220 matches the paper surface 210 in response to a touch operation by the user.
Note that the page according to the present embodiment is an example of an object, and the page area and the page image are examples of an object area and an object image, respectively.

図3は、画像処理装置による、紙面検出処理を示すフローチャートである。S301において、制御部104は、撮影部102に対し撮影を指示する。これに対応し、撮影部102は、撮影領域としての紙面の置かれた投影台201を撮影する(撮影処理)。次に、S302において、制御部104は、撮影部102により撮影された撮影画像から、紙面領域を検出する(検出処理)。
次に、S303において、制御部104は、撮影画像中の紙面領域の位置に基づいて、紙面画像の投影位置を特定する。そして、制御部104は、投影部101に対し、紙面領域を示す紙面画像の紙面領域上への投影を指示する。ここで、S303の処理は、紙面領域の位置に基づいて、紙面画像の紙面上への投影を指示する投影制御処理の一例である。これに対応し、投影部101は、紙面画像を紙面領域上(オブジェクト上)に投影する(投影処理)。
FIG. 3 is a flowchart illustrating a paper surface detection process performed by the image processing apparatus. In step S <b> 301, the control unit 104 instructs the photographing unit 102 to perform photographing. In response to this, the photographing unit 102 photographs the projection table 201 on which a paper surface is placed as a photographing region (photographing process). In step S <b> 302, the control unit 104 detects a paper area from the captured image captured by the capturing unit 102 (detection process).
Next, in S303, the control unit 104 specifies the projection position of the paper image based on the position of the paper region in the captured image. Then, the control unit 104 instructs the projection unit 101 to project a paper image indicating the paper region onto the paper region. Here, the process of S303 is an example of a projection control process that instructs to project a paper image onto a paper surface based on the position of the paper region. In response to this, the projection unit 101 projects a paper image onto a paper region (on an object) (projection processing).

次に、S304において、制御部104は、ユーザによる、投影台201へのタッチ入力の有無を判断する。ユーザは、投影台201に投影された紙面画像を確認する。そして、紙面画像と実際の紙面とが一致しない場合には、紙面領域の検出に誤りがあったと判断し、タッチ入力を行う。なお、ユーザがタッチすべき領域は、紙面領域以外の領域、すなわち非紙面領域に対して行われるものとする。これは、紙面上にユーザの指等の操作子をタッチすることとした場合、その後の、操作子の移動により、紙面も移動する等の不都合があるためである。ここで、非紙面領域は、オブジェクト領域以外の領域である、非オブジェクト領域の一例である。
制御部104は、不図示の複数台のカメラによる撮影画像に基づいて、タッチ入力の有無を検出する。なお、他の例としては、制御部104は、不図示の測距センサによる検出結果に基づいて、タッチ入力の有無を検出してもよい。具体的には、制御部104は、操作子の先と投影台201の間の距離を測り、距離が閾値以下となった場合に、タッチ入力があったと判断する。また、他の例としては、制御部104は、ユーザの指に装着された、接触を検知するためのスイッチや加速度センサ等からの信号に基づいて、タッチ入力の有無を判断してもよい。タッチ入力の入力位置の座標は、撮影画像から肌色検出を行い、肌色領域の形状をもとに指先検出を行うことで得られる。また、他の例としては、制御部104は、指先やペン型デバイスの先端に設けられた、画像からの検出が容易なマーカやLED等からの信号に基づいて、タッチ入力の有無を判断してもよい。
In step S <b> 304, the control unit 104 determines whether the user has made a touch input to the projection table 201. The user confirms the paper image projected on the projection table 201. If the paper image does not match the actual paper surface, it is determined that there is an error in detecting the paper region, and touch input is performed. It should be noted that the area to be touched by the user is performed on an area other than the paper area, that is, a non-paper area. This is because, when an operator such as a user's finger is touched on the paper, there is a disadvantage that the paper also moves due to the subsequent movement of the operator. Here, the non-paper area is an example of a non-object area that is an area other than the object area.
The control unit 104 detects the presence or absence of touch input based on images captured by a plurality of cameras (not shown). As another example, the control unit 104 may detect the presence / absence of a touch input based on a detection result by a distance measuring sensor (not shown). Specifically, the control unit 104 measures the distance between the tip of the operator and the projection table 201, and determines that there is a touch input when the distance is equal to or less than a threshold value. As another example, the control unit 104 may determine the presence or absence of touch input based on signals from a switch, an acceleration sensor, or the like that is attached to the user's finger and detects contact. The coordinates of the input position of the touch input can be obtained by performing skin color detection from the captured image and performing fingertip detection based on the shape of the skin color region. As another example, the control unit 104 determines the presence or absence of touch input based on a signal from a marker or LED that is provided at the tip of a fingertip or a pen-type device and that can be easily detected from an image. May be.

制御部104は、タッチ入力があったと判断した場合には(S304でYes)、処理をS305へ進める。制御部104は、タッチ入力がなかったと判断した場合には(S304でNo)、処理をS306へ進める。S305において、制御部104は、紙面画像を修正する。ここで、S305の処理は、非紙面領域上、すなわち非オブジェクト領域上への操作子の入力位置に基づいて、紙面画像、すなわちオブジェクト画像を修正する修正処理の一例である。
次に、S306において、制御部104は、紙面画像を記憶部105に保存する。制御部104は、S305において紙面画像が修正されている場合には、修正後の紙面画像を保存する。
なお、他の例としては、S306において、制御部104は、紙面画像に替えて、又は紙面画像と供に、紙面画像に対応する紙面領域の位置を示す位置情報を保存してもよい。この場合、制御部104は、紙面画像が修正されていない場合には、S302において検出された紙面領域の検出結果を位置情報として記憶部105に保存する。また、制御部104は、紙面画像が修正されている場合には、S302における検出結果を紙面画像の修正に応じて補正した値を示す位置情報を記憶部105に保存する。
If the control unit 104 determines that there is a touch input (Yes in S304), the control unit 104 advances the process to S305. When the control unit 104 determines that there is no touch input (No in S304), the control unit 104 advances the process to S306. In step S305, the control unit 104 corrects the paper image. Here, the process of S305 is an example of a correction process for correcting the paper image, that is, the object image, based on the input position of the operation element on the non-paper region, that is, the non-object region.
Next, in step S <b> 306, the control unit 104 saves the paper image in the storage unit 105. If the paper image is corrected in S305, the control unit 104 stores the corrected paper image.
As another example, in step S <b> 306, the control unit 104 may store position information indicating the position of the paper area corresponding to the paper image instead of the paper image or together with the paper image. In this case, when the paper image is not corrected, the control unit 104 stores the detection result of the paper region detected in S302 in the storage unit 105 as position information. In addition, when the paper image is corrected, the control unit 104 stores, in the storage unit 105, position information indicating a value obtained by correcting the detection result in S302 according to the correction of the paper image.

図4は、紙面画像修正処理における詳細な処理を示すフローチャートである。S401において、制御部104は、非紙面領域を複数の部分領域に分割する(分割処理)。図5は、部分領域を説明するための図である。制御部104は、四角形状の紙面領域の外周線に基づいて、非紙面領域を8つの部分領域501a〜501d,502a〜502dに分割する。そして、制御部104は、各部分領域に対し、紙面画像の外周線の一部を対応付ける(対応付処理)。
図5に示す例においては、部分領域501a〜501dは、それぞれ外周線の辺を1辺とする四角形状の領域である。部分領域502a〜502dは、それぞれ外周線の頂点を1つの頂点とし、この頂点から延びる2辺を部分領域501a〜501dと共有する四角形状の領域である。
FIG. 4 is a flowchart showing detailed processing in the paper surface image correction processing. In step S401, the control unit 104 divides the non-paper area into a plurality of partial areas (division processing). FIG. 5 is a diagram for explaining a partial region. The control unit 104 divides the non-paper area into eight partial areas 501a to 501d and 502a to 502d based on the outer peripheral line of the rectangular paper area. Then, the control unit 104 associates a part of the outer peripheral line of the paper image with each partial region (association process).
In the example shown in FIG. 5, the partial areas 501 a to 501 d are quadrangular areas each having one side of the outer peripheral line. Each of the partial areas 502a to 502d is a quadrangular area in which the vertex of the outer peripheral line is one vertex and two sides extending from the vertex are shared with the partial areas 501a to 501d.

なお、外周線の分割位置及び分割数は、実施形態に限定されるものではない。他の例としては、図6(a)に示すように、制御部104は、紙面領域の中心と縦横それぞれの辺の中心とを結ぶ2本の線601a,601bを境界線として、非紙面領域を4つの部分領域602a〜602dに分割してもよい。
また、他の例としては、図6(b)に示すように、制御部104は、紙面領域の中心と隣接する2つの頂点それぞれとを結ぶ2本の線611a,611bを境界線として、非紙面領域を4つの部分領域612a〜612dに分割してもよい。
The division position and the number of divisions of the outer peripheral line are not limited to the embodiment. As another example, as shown in FIG. 6A, the control unit 104 uses the two lines 601a and 601b that connect the center of the paper area and the centers of the vertical and horizontal sides as a boundary line. May be divided into four partial regions 602a to 602d.
As another example, as shown in FIG. 6B, the control unit 104 uses the two lines 611a and 611b connecting the center of the paper area and each of the two adjacent vertices as a boundary line. The paper area may be divided into four partial areas 612a to 612d.

図4に戻り、S401の処理の後、S402において、制御部104は、タッチ入力の入力位置を含む部分領域に対応付けられている部分外周を修正対象として特定する(対象特定処理)。次に、S403において、制御部104は、タッチ入力されたタッチ点の移動の有無を確認する。ここで、タッチ点の移動とは、ユーザの指先やペン型デバイス等の操作子が投影面に接した状態を保ったまま、タッチ点の座標が変化することである。制御部104は、タッチ点の移動を検知した場合には(S403でYes)、処理をS404へ進める。制御部104は、タッチ点の移動を検知しなかった場合には(S403でNo)、処理をS406へ進める。
S404において、制御部104は、タッチ入力が最初になされた入力位置を始点とし、移動後のタッチ入力の入力位置を終点として、始点から終点までの移動量と移動方向を特定する。ここで、S404の処理は、移動量特定処理及び移動方向特定処理の一例である。次に、S405において、制御部104は、S404において特定された移動量及び移動方向に基づいて、修正対象の修正後の位置を特定し、特定した位置に修正対象が表示されるよう、オブジェクト画像を修正する(修正処理)。なお、修正処理については、図7及び図8を参照しつつ後述する。
Returning to FIG. 4, after the process of S401, in S402, the control unit 104 specifies a partial outer periphery associated with the partial area including the input position of the touch input as a correction target (target specifying process). In step S <b> 403, the control unit 104 confirms whether the touch point input by touch input has moved. Here, the movement of the touch point means that the coordinates of the touch point change while maintaining a state where an operator such as a user's fingertip or a pen-type device is in contact with the projection plane. When the movement of the touch point is detected (Yes in S403), the control unit 104 advances the process to S404. If the movement of the touch point is not detected (No in S403), the control unit 104 advances the process to S406.
In step S <b> 404, the control unit 104 specifies a movement amount and a movement direction from the start point to the end point with the input position where the touch input is first made as the start point and the input position of the touch input after movement as the end point. Here, the process of S404 is an example of a movement amount specifying process and a moving direction specifying process. Next, in S405, the control unit 104 specifies the corrected position of the correction target based on the movement amount and movement direction specified in S404, and the object image is displayed so that the correction target is displayed at the specified position. Is corrected (correction processing). The correction process will be described later with reference to FIGS.

次に、S406において、制御部104は、操作子が投影面に接触しているタッチ状態から操作子が投影面に接触しない非接触状態(リリース)への変化の有無を確認する。制御部104は、非接触状態への変化を検出すると(S406でYes)、処理をS407へ進める。制御部104は、非接触状態への変化を検出しない場合には(S406でNo)、処理をS403へ進め、タッチ点の移動検知と、検知結果に対応する修正対象の配置位置の修正の処理を継続する。
S407において、制御部104は、ユーザから終了指示を受け付けた場合には(S407でYes)、紙面画像修正処理を終了する。制御部104は、終了指示を受け付けなかった場合には(S407でNo)、処理をS401へ進める。なお、制御部104は、ユーザが、紙面画像の保存等、次の工程に進むべく、UI部103で操作を行った場合等に終了指示を受け付けるものとする。
In step S <b> 406, the control unit 104 checks whether there is a change from a touch state in which the operation element is in contact with the projection surface to a non-contact state (release) in which the operation element is not in contact with the projection surface. When detecting the change to the non-contact state (Yes in S406), the control unit 104 advances the process to S407. If the control unit 104 does not detect a change to the non-contact state (No in S406), the control unit 104 advances the process to S403, detects the movement of the touch point, and corrects the arrangement position of the correction target corresponding to the detection result. Continue.
In S407, when the control unit 104 receives an end instruction from the user (Yes in S407), the paper surface image correction process ends. If the control unit 104 has not received an end instruction (No in S407), the control unit 104 advances the process to S401. Note that the control unit 104 accepts an end instruction when the user performs an operation on the UI unit 103 in order to proceed to the next step such as saving a paper image.

図7及び図8は、紙面画像修正処理を具体的に説明するための図である。図7を参照しつつ、S402において修正対象として、頂点Aが選択された場合の処理について説明する。図7(a)及び図7(b)は、それぞれ紙面画像修正処理前後の紙面画像220,720を示している。図7(a)に示すように、修正前の紙面画像220に対し、ユーザが、部分領域502bをタッチしたとする。これに対し、制御部104は、部分領域502bに対応付けられた頂点Aを修正対象として特定する。
そして、図7(b)に示すように、ユーザがタッチ点を位置701から位置702まで右斜め下方向に移動させたとする。この場合、制御部104は、頂点Aの表示位置を、元の位置711からから右斜め下方向の位置に修正する。これにより、修正後の紙面画像720が得られる。このように、頂点に相当する部分外周を修正対象とする場合、ユーザによるタッチ点の移動に応じて、紙面画像の縦及び横のサイズを拡大又は縮小することができる。
制御部104は、例えば始点から終点までの移動方向を頂点Aの修正方向とし、始点から終点までの距離を頂点Aの修正量としてもよい。また、他の例としては、制御部104は、ユーザの操作性を向上させるために、紙面画像220の大きさ、タッチ点の移動速度、部分領域の大きさ等に比例するように、移動量から修正量を決定してもよい。
7 and 8 are diagrams for specifically explaining the paper surface image correction processing. With reference to FIG. 7, a process when the vertex A is selected as a correction target in S <b> 402 will be described. FIG. 7A and FIG. 7B show the paper images 220 and 720 before and after the paper image correction processing, respectively. As shown in FIG. 7A, it is assumed that the user touches the partial area 502b on the paper image 220 before correction. In contrast, the control unit 104 specifies the vertex A associated with the partial area 502b as a correction target.
Then, as illustrated in FIG. 7B, it is assumed that the user moves the touch point from the position 701 to the position 702 obliquely downward to the right. In this case, the control unit 104 corrects the display position of the vertex A from the original position 711 to a position obliquely downward to the right. As a result, a corrected paper image 720 is obtained. As described above, when the partial outer periphery corresponding to the apex is to be corrected, the vertical and horizontal sizes of the paper surface image can be enlarged or reduced according to the movement of the touch point by the user.
For example, the control unit 104 may set the moving direction from the start point to the end point as the correction direction of the vertex A, and the distance from the start point to the end point as the correction amount of the vertex A. As another example, in order to improve the operability for the user, the control unit 104 moves the movement amount so as to be proportional to the size of the paper image 220, the moving speed of the touch point, the size of the partial area, and the like. From this, the correction amount may be determined.

次に、図8を参照しつつ、S402において修正対象として、辺Bが選択された場合の処理について説明する。図8(a)及び図8(b)は、それぞれ紙面画像修正処理前後の紙面画像220,820を示している。図8(a)に示すように、修正前の紙面画像220に対し、ユーザが部分領域501bをタッチしたとする。これに対応し、制御部104は、部分領域501bに対応付けられた辺Bを修正対象として特定する。
そして、図8(b)に示すように、ユーザがタッチ位置を点801から点802まで紙面画像の右方向に移動させたとする。この場合、制御部104は、辺Bの表示位置をも元の位置から右方向の位置に修正する。これにより、修正後の紙面画像820が得られる。このように、辺に相当する部分外周を修正対象とする場合、ユーザによるタッチ点の移動に応じて、紙面画像の縦及び横いずれか一方のサイズのみを拡大又は縮小することができる。
Next, the processing when the side B is selected as a correction target in S402 will be described with reference to FIG. FIG. 8A and FIG. 8B show the paper images 220 and 820 before and after the paper image correction processing, respectively. As shown in FIG. 8A, it is assumed that the user touches the partial area 501b on the paper image 220 before correction. In response to this, the control unit 104 identifies the side B associated with the partial region 501b as a correction target.
Then, as shown in FIG. 8B, it is assumed that the user moves the touch position from the point 801 to the point 802 in the right direction of the paper image. In this case, the control unit 104 corrects the display position of the side B from the original position to the rightward position. As a result, a corrected paper image 820 is obtained. As described above, when the partial outer circumference corresponding to the side is to be corrected, only the vertical or horizontal size of the paper image can be enlarged or reduced according to the movement of the touch point by the user.

なお、制御部104は、例えば始点から終点までの距離を辺Bの修正量としてもよい。また、他の例としては、制御部104は、修正対象が頂点の場合と同様に、紙面画像220の大きさ、タッチ点の移動速度、部分領域の大きさ等に比例するように、移動量から修正量を決定してもよい。   Note that the control unit 104 may use the distance from the start point to the end point as the correction amount of the side B, for example. As another example, the control unit 104 moves the movement amount so as to be proportional to the size of the paper image 220, the moving speed of the touch point, the size of the partial area, and the like, as in the case where the correction target is the vertex. From this, the correction amount may be determined.

以上のように、本実施形態にかかる画像処理装置は、ユーザによる、紙面領域以外の領域へのタッチ操作に応じて、投影台に置かれたオブジェクトの検出領域(紙面領域)を修正することができる。   As described above, the image processing apparatus according to the present embodiment can correct the detection area (paper area) of an object placed on the projection table in response to a user touch operation on an area other than the paper area. it can.

第1の実施形態にかかる画像処理装置の第1の変更例について説明する。制御部104が、図4のS402において、修正対象として頂点を特定し、S403において、タッチ点の移動を検出したとする。この場合、制御部104は、撮影画像に基づいて、移動後のタッチ点の入力位置近傍において、頂点候補が存在するか否かを確認する。そして、頂点候補が存在する場合には、制御部104は、修正対象の外周部分の表示位置を、この頂点候補の位置に修正する。なお、制御部104は、HarrisオペレータやSUSANオペレータ等公知の方法を用いることにより、頂点候補を検知することとする。   A first modification of the image processing apparatus according to the first embodiment will be described. Assume that the control unit 104 specifies a vertex as a correction target in S402 of FIG. 4 and detects the movement of the touch point in S403. In this case, the control unit 104 checks whether there is a vertex candidate in the vicinity of the input position of the touch point after movement based on the captured image. If there is a vertex candidate, the control unit 104 corrects the display position of the outer peripheral portion to be corrected to the position of this vertex candidate. Note that the control unit 104 detects vertex candidates by using a known method such as a Harris operator or a SUSAN operator.

次に、第2の変更例について説明する。制御部104が図4のS402において、修正対象として辺を特定したとする。この場合、制御部104は、修正対象の辺近傍において、辺候補が存在するか否かを確認する。そして、辺候補が存在する場合には、制御部104は、辺候補を表示してもよい。図9は、辺候補の表示例を示す図である。図9に示す例においては、図8(a)に示すように紙面画像220が表示された状態において、辺候補901a,901bが併せて表示されている。さらに、タッチ点の移動が検出された場合には、制御部104は、移動方向にある辺候補を修正後の表示位置としてもよい。なお、制御部104は、エッジ画素群に対するハフ変換やRANSAC、主成分分析等公知の方法を用いることにより、辺候補を検知することとする。   Next, a second modification example will be described. Assume that the control unit 104 specifies an edge as a correction target in S402 of FIG. In this case, the control unit 104 checks whether or not a side candidate exists near the side to be corrected. And when a side candidate exists, the control part 104 may display a side candidate. FIG. 9 is a diagram illustrating a display example of edge candidates. In the example shown in FIG. 9, the side candidates 901a and 901b are displayed together in a state where the paper image 220 is displayed as shown in FIG. Further, when the movement of the touch point is detected, the control unit 104 may use the side candidate in the movement direction as the corrected display position. Note that the control unit 104 detects edge candidates by using a known method such as Hough transform, RANSAC, or principal component analysis for the edge pixel group.

また、第3の変更例としては、画像処理装置は、各部分領域に、対応付けられている外周線の一部の移動方向及び移動量の少なくとも一方を対応付けておくことも可能である。例えば図8(a)において、制御部104は、辺Bの移動方向と移動量を辺Bと点801との距離によって定める。制御部104は、距離が閾値以上の場合には、外周部分の修正後の表示位置の方向を紙面領域の中心から外側に向かう方向とし、閾値未満の場合には、外周部分の修正後の表示位置の方向を中心に向かう方向とする。また、画像処理装置は、移動量は、定めずに第1,2の修正例において説明したように、頂点候補又は辺候補を修正後の外周部分の表示位置として定めてもよい。また、移動量と閾値の差分に基づいて、修正後の外周部分の表示位置を決定してもよい。   As a third modification, the image processing apparatus can associate each partial region with at least one of the movement direction and the movement amount of a part of the associated outer peripheral line. For example, in FIG. 8A, the control unit 104 determines the moving direction and moving amount of the side B based on the distance between the side B and the point 801. When the distance is equal to or greater than the threshold value, the control unit 104 sets the direction of the display position after the correction of the outer peripheral portion to the outside from the center of the paper area. The direction of the position is the direction toward the center. Further, the image processing apparatus may determine the vertex position or the edge candidate as the display position of the corrected outer peripheral portion as described in the first and second correction examples without determining the movement amount. Further, the display position of the corrected outer peripheral portion may be determined based on the difference between the movement amount and the threshold value.

(第2の実施形態)
図10は、第2の実施形態にかかる画像処理装置を説明するための図である。ここでは、第2の実施形態にかかる画像処理装置について、第1の実施形態にかかる画像処理装置と異なる点について説明する。図10(a)に示すように、投影台201に1枚の紙面1000が置かれた状態において、図10(b)に示すように、2枚以上の紙面画像1011,1012が誤検出されたとする。この場合に、第2の実施形態にかかる画像処理装置は、ユーザ操作に応じて、検知された複数の紙面領域を1つの紙面領域に統合する。
(Second Embodiment)
FIG. 10 is a diagram for explaining an image processing apparatus according to the second embodiment. Here, the difference between the image processing apparatus according to the second embodiment and the image processing apparatus according to the first embodiment will be described. As shown in FIG. 10 (a), when one sheet 1000 is placed on the projection table 201, as shown in FIG. 10 (b), two or more sheet images 1011 and 1012 are erroneously detected. To do. In this case, the image processing apparatus according to the second embodiment integrates a plurality of detected paper area into one paper area in response to a user operation.

図11は、第2の実施形態にかかる画像処理装置による、紙面検出処理を示すフローチャートである。なお、図11において、図3を参照しつつ説明した各処理と同じ処理には同じ番号を付している。S303において、紙面画像を投影した後、S1101において、制御部104は、S302において検出された紙面領域の数を確認する。制御部104は、検出された紙面領域の数が1よりも大きい場合には(S1101でYes)、処理をS1102へ進める。制御部104は、検出された紙面領域の数が1以下である場合には(S1101でNo)、処理をS304へ進める。
S1102において、制御部104は、ユーザからの紙面画像の選択入力を受け付けたか否かを確認する。上述のように、複数の紙面領域が検出されると、各紙面領域に対応する紙面画像が表示(投影)される。このとき、ユーザは修正処理を行いたい場合には、まず修正対象の紙面画像を選択する必要がある。
FIG. 11 is a flowchart illustrating a paper surface detection process performed by the image processing apparatus according to the second embodiment. In FIG. 11, the same processes as those described with reference to FIG. After projecting the paper image in S303, in S1101, the control unit 104 confirms the number of paper regions detected in S302. If the number of detected paper area is greater than 1 (Yes in S1101), the control unit 104 advances the process to S1102. If the number of detected paper area is 1 or less (No in S1101), the control unit 104 advances the process to S304.
In step S <b> 1102, the control unit 104 confirms whether a selection input of a paper image from the user has been received. As described above, when a plurality of paper areas are detected, a paper image corresponding to each paper area is displayed (projected). At this time, when the user wants to perform the correction process, it is necessary to first select a paper image to be corrected.

図12は、ユーザが紙面画像を選択する際に行う操作を説明するための図である。図12(a)に示すように、ユーザが任意の点1201をタッチする。画像処理装置の制御部104は、タッチした状態で一定時間が経過すると、動作モードを領域選択モードに移行する。そして、制御部104は、タッチ入力の入力位置近傍に存在する紙面画像が選択されたと判断する。図12(a)に示す点1201は、紙面画像1011よりも紙面画像1012に近い。このため、制御部104は、紙面画像1012が選択されたと判断する。制御部104はさらに、選択された紙面画像に対し、マーカ1202を表示する。これにより、ユーザは、いずれの紙面画像が選択中であるかを容易に把握することができる。
さらに、図12(b)に示すように、ユーザが、タッチした状態のまま入力位置を点1203まで移動したとする。この場合には、制御部104は、入力位置に最も近い紙面画像として紙面画像1011を選択し、紙面画像1011上にマーカ1204を表示する。なお、制御部104は、入力位置の移動に伴い、入力位置の移動量に基づいて定まる修正量だけマーカの表示位置を修正する。なお、他の例としては、制御部104は、入力位置の移動方向に存在する紙面画像内の位置を修正後のマーカの表示位置としてもよい。なお、制御部104は、選択中の紙面画像をユーザが識別できるような情報を表示すればよく、そのための具体的な表示内容は実施形態に限定されるものではない。他の例としては、制御部104は、選択された紙面画像の枠を、点滅、色変更、太さ変更等して表示してもよい。
FIG. 12 is a diagram for explaining an operation performed when the user selects a paper image. As shown in FIG. 12A, the user touches an arbitrary point 1201. The control unit 104 of the image processing apparatus shifts the operation mode to the area selection mode when a certain period of time has passed while being touched. Then, the control unit 104 determines that a paper image existing near the input position of the touch input has been selected. A point 1201 shown in FIG. 12A is closer to the paper image 1012 than the paper image 1011. Therefore, the control unit 104 determines that the paper image 1012 has been selected. The control unit 104 further displays a marker 1202 for the selected paper image. Thereby, the user can easily grasp which paper image is being selected.
Furthermore, as shown in FIG. 12B, it is assumed that the user has moved the input position to a point 1203 while being touched. In this case, the control unit 104 selects the paper image 1011 as the paper image closest to the input position, and displays the marker 1204 on the paper image 1011. The control unit 104 corrects the display position of the marker by a correction amount determined based on the movement amount of the input position as the input position moves. As another example, the control unit 104 may set the position in the paper image existing in the moving direction of the input position as the corrected marker display position. Note that the control unit 104 only needs to display information that allows the user to identify the selected paper image, and the specific display content for that purpose is not limited to the embodiment. As another example, the control unit 104 may display the frame of the selected paper image by blinking, changing the color, changing the thickness, or the like.

図11に戻り、制御部104は、紙面画像の選択入力を受け付けた場合には(S1102でYes)、処理をS304へ進める。制御部104は、紙面画像の選択を受け付けなかった場合には(S1102でNo)、処理をS1103へ進める。制御部は、S304へ進んだ場合には、タッチ入力を検出すると、選択された紙面画像に対し、S305において、紙面画像の修正処理を行い、その後処理をS1103へ進める。
図13(a)に示すように、紙面画像1011の選択状態にあるものとする。この状態においては、紙面画像1011以外の領域が、紙面画像1011の外周線の8つの部分外周それぞれに対応する部分領域に分割される。
そして、図13(b)に示すように、ユーザにより、部分領域内の位置1301にタッチ入力が行われ、入力位置が位置1302まで、紙面画像の下方に移動したとする。この場合、図13(b)に示すように、紙面画像1011は、紙面画像1303へと縦方向のサイズが修正される。
Returning to FIG. 11, the control unit 104 proceeds to S <b> 304 when the selection input of the paper image is accepted (Yes in S <b> 1102). If the control unit 104 does not accept the selection of the paper image (No in S1102), the control unit 104 advances the process to S1103. If the control unit proceeds to S304 and detects a touch input, the control unit performs a correction process on the selected paper image in S305, and then advances the process to S1103.
As shown in FIG. 13A, it is assumed that the paper surface image 1011 is in a selected state. In this state, the area other than the paper image 1011 is divided into partial areas corresponding to the eight partial outer circumferences of the outer circumference of the paper image 1011.
Then, as illustrated in FIG. 13B, it is assumed that the user performs touch input at a position 1301 in the partial area, and the input position moves to the position 1302 below the paper image. In this case, as shown in FIG. 13B, the size of the paper image 1011 is corrected to the paper image 1303 in the vertical direction.

図11に戻り、S1103において、制御部104は、複数の紙面画像が同一の紙面に対応するものか否かを判断する(判断処理)。なわち、制御部104は、修正後の紙面領域と、他の紙面領域との間の重なりを検出する(検出処理)。そして、制御部104は、重なりの検出結果に基づいて、重なり合う複数の紙面画像が同一の紙面に対応するものか否かを判断する。具体的には、制御部104は、重なりが検出された場合に、重なり面積を特定し、重なり面積が面積閾値以上である場合に、重なり合う複数の紙面画像が同一紙面に対応するものであると判断する。
例えば、図13(a)、図13(b)に示す例においては、図13(b)に示すように、修正後の紙面画像1303は、紙面画像1012を包含しており、重なり面積が面積閾値以上となったとする。この場合、制御部104は、紙面画像1303と紙面画像1012は同一の紙面に対応するものであると判断する。
Returning to FIG. 11, in step S <b> 1103, the control unit 104 determines whether or not a plurality of sheet images correspond to the same sheet (determination process). In other words, the control unit 104 detects an overlap between the corrected sheet area and another sheet area (detection process). Then, the control unit 104 determines whether or not a plurality of overlapping sheet images correspond to the same sheet based on the overlap detection result. Specifically, the control unit 104 specifies an overlap area when an overlap is detected, and when the overlap area is equal to or larger than the area threshold, the plurality of overlapped sheet images correspond to the same sheet. to decide.
For example, in the example shown in FIGS. 13A and 13B, as shown in FIG. 13B, the corrected paper image 1303 includes the paper image 1012, and the overlapping area is the area. Assume that the threshold is exceeded. In this case, the control unit 104 determines that the paper image 1303 and the paper image 1012 correspond to the same paper surface.

なお、制御部104は、重なりの検出結果に基づいて、複数の紙面画像が同一の紙面に対応するものか否かを判断すればよく、そのための具体的な処理は、実施形態に限定されるものではない。例えば、制御部104は、重なりの有無のみに基づいて複数の紙面画像が同一の紙面に対応するものか否かを判断してもよい。また、制御部104は、重なりに存在する頂点数や辺数、事前に指定した位置の頂点又は辺等に基づいて、判断してもよい。   Note that the control unit 104 only has to determine whether or not a plurality of paper surface images correspond to the same paper surface based on the overlap detection result, and specific processing for that is limited to the embodiment. It is not a thing. For example, the control unit 104 may determine whether or not a plurality of paper surface images correspond to the same paper surface based only on the presence or absence of overlap. Further, the control unit 104 may make a determination based on the number of vertices and sides existing in the overlap, the vertex or the side at a position designated in advance, or the like.

図11に戻り、S1103において、制御部104は、複数の紙面画像が同一の紙面に対応するものであると判断した場合には(S1103でYes)、処理をS1104へ進める。一方、制御部104は、複数の紙面が同一の紙面に対応するものではないと判断した場合には(S1103でNo)、処理をS1105へ進める。S1104において、制御部104は、同一の紙面に対応するものであると判断された複数の紙面画像を1つの紙面画像に統合する。ここで、統合により得られた1つの紙面画像を統合画像と称する。また、S1104の処理は、統合処理の一例である。図13(b)、図13(c)に示す例においては、紙面画像1012は、修正後の紙面画像1303に統合される。
次に、S1105において、制御部104は、得られた紙面画像を記憶部105に保存する。なお、制御部104はこのとき、修正後の紙面画像(統合画像)と、修正後の紙面画像に統合された紙面画像の親子関係を示す関係情報をさらに保存してもよい。誤検出された紙面画像1012が例えば、紙面中に挿入された写真の領域である場合に、写真を切り出して保存するといった処理を容易に行うことができる。ここで、S1105の処理は、統合前の複数のオブジェクト画像を統合画像に対応付けて記憶する関連付処理の一例である。
また、他の例としては、S1105において、制御部104は、第1の実施形態におけるS306において説明したのと同様に、紙面画像に替えて、又は紙面画像と共に、位置情報を保存してもよい。この場合、制御部104は、関係情報においても、位置情報間の親子関係を示す関係情報を保存することとする。なお、第2の実施形態にかかる画像処理装置のこれ以外の構成及び処理は、第1の実施形態にかかる画像処理装置の構成及び処理と同様である。
Returning to FIG. 11, when the control unit 104 determines in S1103 that a plurality of paper surface images correspond to the same paper surface (Yes in S1103), the process proceeds to S1104. On the other hand, if the control unit 104 determines that a plurality of paper surfaces do not correspond to the same paper surface (No in S1103), the control unit 104 advances the process to S1105. In step S1104, the control unit 104 integrates a plurality of paper surface images determined to correspond to the same paper surface into one paper image. Here, one paper image obtained by the integration is referred to as an integrated image. Moreover, the process of S1104 is an example of an integration process. In the example shown in FIGS. 13B and 13C, the page image 1012 is integrated into the corrected page image 1303.
In step S <b> 1105, the control unit 104 stores the obtained paper image in the storage unit 105. At this time, the control unit 104 may further store relationship information indicating the parent-child relationship between the corrected paper image (integrated image) and the paper image integrated with the corrected paper image. For example, when the erroneously detected paper surface image 1012 is a region of a photograph inserted into the paper surface, it is possible to easily perform processing such as cutting out and storing the photograph. Here, the process of S1105 is an example of an association process for storing a plurality of object images before integration in association with the integrated image.
As another example, in S1105, the control unit 104 may store the position information instead of the paper image or together with the paper image, as described in S306 in the first embodiment. . In this case, the control unit 104 stores the relationship information indicating the parent-child relationship between the position information also in the relationship information. The other configuration and processing of the image processing apparatus according to the second embodiment are the same as the configuration and processing of the image processing apparatus according to the first embodiment.

以上のように、第2の実施形態にかかる画像処理装置は、1枚の紙面を複数の紙面として誤検出した場合に、ユーザ操作に応じて、紙面画像の修正と誤検出された紙面領域に対応する紙面画像の削除とを同時に行うことができる。   As described above, when the image processing apparatus according to the second embodiment erroneously detects one sheet of paper as a plurality of paper surfaces, the paper image is corrected and erroneously detected according to a user operation. The corresponding paper image can be deleted at the same time.

(第3の実施形態)
図14は、第3の実施形態にかかる画像処理装置を説明するための図である。図14(a)に示すように、2枚の紙面1400,1401が置かれた状態において、図14(b)に示すように、1つの紙面領域が誤検出され、紙面画像1410が投影されたとする。この場合に、第3の実施形態にかかる画像処理装置は、ユーザ操作に応じて、検知された1つの紙面領域に対応する1つの紙面画像を複数の紙面領域に分割する。
図15は、第3の実施形態にかかる画像処理装置による、紙面検出処理を示すフローチャートである。なお、図15において、図3を参照しつつ説明した各処理と同じ処理には同じ番号を付している。S305において、紙面画像を修正した後、S1501において、制御部104は、1つの紙面画像が複数の紙面に対応しているか否かを判断する。具体的には、制御部104は、修正前後の紙面画像の差分領域を特定し、さらに差分領域の面積を特定する。
(Third embodiment)
FIG. 14 is a diagram for explaining an image processing apparatus according to the third embodiment. As shown in FIG. 14A, when two paper surfaces 1400 and 1401 are placed, as shown in FIG. 14B, one paper region is erroneously detected and a paper image 1410 is projected. To do. In this case, the image processing apparatus according to the third embodiment divides one sheet image corresponding to one detected sheet area into a plurality of sheet areas in response to a user operation.
FIG. 15 is a flowchart illustrating a paper surface detection process performed by the image processing apparatus according to the third embodiment. In FIG. 15, the same processes as those described with reference to FIG. After correcting the paper image in S305, in S1501, the control unit 104 determines whether one paper image corresponds to a plurality of papers. Specifically, the control unit 104 specifies the difference area of the paper image before and after the correction, and further specifies the area of the difference area.

そして、制御部104は、差分領域の面積が縮小量閾値以上である場合には、誤検出は2枚の紙面を1枚の紙面として判断したことに起因するものとして、1つの紙面画像が複数の紙面に対応していると判断する。例えば、紙面画像修正処理(S305)において、図14(b)に示す紙面画像1410が図16(a)に示す紙面画像1600に修正(縮小)されたとする。この場合、制御部104は、修正前後の紙面画像の差分領域1601を特定し、さらに差分領域1601の面積を特定する。ここで、差分領域の面積は、縮小量の一例であり、S1501の処理は、オブジェクト画像としての紙面画像が縮小された場合に、縮小量を特定する縮小量特定処理の一例である。
図15に戻り、制御部104は、差分領域において、再び紙面領域を検出する。これにより、図16(b)に示す新たに検出された紙面領域に対応する紙面画像1610が得られる。なお、第3の実施形態にかかる画像処理装置のこれ以外の構成及び処理は、他の実施形態にかかる画像処理装置の構成及び処理と同様である。
Then, when the area of the difference area is equal to or larger than the reduction amount threshold, the control unit 104 determines that the erroneous detection is caused by determining that two sheets of paper are one sheet of paper. It is determined that it corresponds to the paper space. For example, in the paper image correction process (S305), it is assumed that the paper image 1410 shown in FIG. 14B is corrected (reduced) to the paper image 1600 shown in FIG. In this case, the control unit 104 specifies the difference area 1601 of the paper image before and after correction, and further specifies the area of the difference area 1601. Here, the area of the difference area is an example of a reduction amount, and the process of S1501 is an example of a reduction amount specifying process for specifying a reduction amount when a paper image as an object image is reduced.
Returning to FIG. 15, the control unit 104 detects the paper area again in the difference area. Thereby, a paper image 1610 corresponding to the newly detected paper region shown in FIG. 16B is obtained. Other configurations and processes of the image processing apparatus according to the third embodiment are the same as the configurations and processes of the image processing apparatus according to the other embodiments.

以上のように、第3の実施形態にかかる画像処理装置は、紙面画像が縮小された場合に、差分領域において再び紙面を検出することにより、複数の紙面領域を精度よく検出し、かつ複数の紙面領域の境界を正しく検出することができる。   As described above, the image processing apparatus according to the third embodiment detects a plurality of paper surface areas with high accuracy by detecting the paper surface again in the difference area when the paper image is reduced. The boundary of the paper area can be detected correctly.

次に、第3の実施形態にかかる画像処理装置の変更例について説明する。本実施形態で想定する利用シーンのように撮影対象の紙面が2枚以上ある場合、検出に成功する紙面と失敗する紙面が入り混じることがある。この場合、検出に成功した紙面に対応する紙面画像を選択、保存し、検出に失敗した紙面領域に対応する紙面画像については、紙面画像の修正を行う必要がある。
しかしながら、多数の紙面が投影台201上に置かれている場合には、紙面領域を修正する際のユーザ操作や複数の紙面画像の中から紙面画像を選択する際のユーザ操作が行い難い。そこで、本変更例に係る画像処理装置は、ユーザによる紙面を取り除く操作に従い紙面画像を選択する仕組みを用いる。これにより、検出に成功した紙面に対応する紙面画像を容易に選択、保存でき、検出に失敗した紙面に対応する紙面画像を修正するための投影台201上の領域を確保できる。
Next, a modified example of the image processing apparatus according to the third embodiment will be described. When there are two or more sheets to be photographed as in the usage scene assumed in the present embodiment, a sheet that succeeds in detection and a sheet that fails can be mixed. In this case, it is necessary to select and save a paper image corresponding to the paper surface that has been successfully detected, and to correct the paper image for the paper image corresponding to the paper region that has failed to be detected.
However, when a large number of sheets are placed on the projection table 201, it is difficult to perform a user operation for correcting the sheet area or a user operation for selecting a sheet image from a plurality of sheet images. Therefore, the image processing apparatus according to this modification uses a mechanism for selecting a paper image according to an operation for removing the paper by the user. As a result, it is possible to easily select and save a paper image corresponding to the paper that has been successfully detected, and to secure an area on the projection table 201 for correcting the paper image corresponding to the paper that has failed to be detected.

図17は、複数の紙面画像から、上記の方法によって特定の紙面画像を選択する流れを表す図である。本変更例においては、検出失敗した紙面のみを再撮影するものとする。図17(a)に示すように、投影台201上に4枚の紙面1701〜1704が置かれているとする。図17(b)は、図17(a)の紙面1701〜1704に対して投影された紙面画像1711〜1714を示す図である。このように、紙面1702,1704に対しては正しい紙面画像1712,1714が得られたのに対し、紙面1701,1703に対しては、紙面内の枠に対応する、誤った紙面画像1711,1713が得られたとする。
この場合、ユーザは、図17(c)に示すように、正しく検出された紙面1702,1704を投影台201から取り除く。制御部104は、例えば、紙面領域内の動画像を撮影し、時間差分画像の画素値合計が一定以上である場合に、紙面が除去されたと判断する。そして、制御部104は、除去された紙面に対応する紙面画像を選択状態とする。制御部104は、さらに選択状態を表すマーカ1720a,1720bを表示する。なお、制御部104は、紙面が除去されたことを示す情報を表示すればよく、そのための具体的な情報は、図17(c)のマーカに限定されるものではない。他の例としては、制御部104は、他の紙面画像と色や太さが、異なる枠、紙面領域をもとに得た撮影画像、等を表示してもよい。
FIG. 17 is a diagram illustrating a flow of selecting a specific paper image from a plurality of paper images by the above method. In this modified example, only the paper on which detection has failed is re-photographed. As shown in FIG. 17A, it is assumed that four sheets of paper 1701 to 1704 are placed on the projection table 201. FIG. 17B is a diagram showing paper surface images 1711 to 1714 projected on the paper surfaces 1701 to 1704 in FIG. As described above, correct paper surface images 1712 and 1714 are obtained for the paper surfaces 1702 and 1704, whereas incorrect paper surface images 1711 and 1713 corresponding to the frames in the paper surface are obtained for the paper surfaces 1701 and 1703. Is obtained.
In this case, the user removes correctly detected paper surfaces 1702 and 1704 from the projection table 201 as shown in FIG. For example, the control unit 104 captures a moving image in the paper area, and determines that the paper has been removed when the total pixel value of the time difference image is equal to or greater than a certain value. Then, the control unit 104 selects the paper image corresponding to the removed paper surface. The control unit 104 further displays markers 1720a and 1720b indicating the selected state. Note that the control unit 104 only needs to display information indicating that the paper surface has been removed, and the specific information for that purpose is not limited to the marker in FIG. As another example, the control unit 104 may display a frame having a color and thickness different from those of other paper images, a captured image obtained based on a paper region, and the like.

そして、ユーザは、選択状態の紙面画像が記憶部105に保存された後に、図17(d)に示すように、検出に失敗した紙面1701,1703を、検出の成功確率が高い位置や領域修正が行いやすい位置に置く。その後、ユーザ操作に応じて、制御部104は、再び紙面1701,1703を撮影し、紙面画像修正処理を行う。
これにより、複数枚の紙面を1枚の紙面と誤って検出した際に、一度の処理で領域の修正と領域の追加を同時に行うことができる。また、領域の検出に成功した紙面と失敗した紙面が同時に存在する際に、成功した紙面領域を容易に選択できる。
Then, after the selected page image is stored in the storage unit 105, the user corrects the positions and areas where the detection success probability of the pages 1701 and 1703 that have failed to be detected is high, as shown in FIG. Place it in a position where it is easy to perform Thereafter, in response to a user operation, the control unit 104 captures the paper planes 1701 and 1703 again and performs a paper plane image correction process.
As a result, when a plurality of sheets of paper are erroneously detected as one sheet, correction of the area and addition of the area can be performed simultaneously by a single process. In addition, when there are simultaneously a paper surface that has been successfully detected and a paper surface that has failed, it is possible to easily select a successful paper surface area.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.

以上、上述した各実施形態によれば、ユーザによる自然なタッチ操作に応じて、オブジェクトの検出領域を修正することができる。   As described above, according to each embodiment described above, it is possible to correct the detection area of the object in accordance with a natural touch operation by the user.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

101 投影部、102 撮影部、103 UI部、104 制御部、105 記憶部、106 通信部 101 Projector, 102 Shooting Unit, 103 UI Unit, 104 Control Unit, 105 Storage Unit, 106 Communication Unit

Claims (9)

オブジェクトを含む撮影領域を撮影する撮影手段と、
前記撮影手段により撮影された撮影画像からオブジェクト領域を検出する検出手段と、
前記撮影画像中の前記オブジェクト領域の位置に基づいて、前記オブジェクト領域を示すオブジェクト画像を前記オブジェクト上に投影する投影手段と、
前記オブジェクト画像の外周線の位置に基づいて、前記撮影領域のうち前記オブジェクト領域以外の非オブジェクト領域を、複数の部分領域に分割する分割手段と、
前記複数の部分領域を、前記外周線を構成する部分外周に対応付ける対応付手段と、
前記非オブジェクト領域上への操作子の入力位置を含む前記部分領域に対応付けられている前記部分外周を修正対象として特定する対象特定手段と、
前記修正対象の位置を修正することにより、前記オブジェクト画像を修正する修正手段と
を有する画像処理装置。
Photographing means for photographing a photographing region including an object;
Detecting means for detecting an object region from a photographed image photographed by the photographing means;
Projection means for projecting an object image indicating the object area on the object based on the position of the object area in the captured image;
A dividing unit that divides a non-object area other than the object area in the shooting area into a plurality of partial areas based on a position of an outer peripheral line of the object image;
Corresponding means for associating the plurality of partial regions with partial outer peripheries constituting the outer peripheral line;
Target specifying means for specifying, as a correction target, the partial outer periphery associated with the partial area including the input position of the operator on the non-object area;
An image processing apparatus comprising: correction means for correcting the object image by correcting the position of the correction target .
前記操作子の移動に応じた前記入力位置の移動量を特定する移動量特定手段をさらに有し、
前記修正手段は、前記移動量に基づいて、前記修正対象の位置を修正する請求項に記載の画像処理装置。
A movement amount specifying means for specifying a movement amount of the input position according to the movement of the operation element;
The image processing apparatus according to claim 1 , wherein the correction unit corrects a position of the correction target based on the movement amount.
前記操作子の移動に応じた前記入力位置の移動方向を特定する移動方向特定手段をさらに有し、
前記修正手段は、前記移動方向に応じた方向に前記修正対象の位置を修正する請求項に記載の画像処理装置。
A moving direction specifying means for specifying a moving direction of the input position according to the movement of the operation element;
The image processing apparatus according to claim 1 , wherein the correction unit corrects the position of the correction target in a direction corresponding to the moving direction.
複数のオブジェクト領域が検出され、検出された一のオブジェクト領域に対応するオブジェクト画像が修正された場合に、修正後の前記オブジェクト画像と、他のオブジェクト領域に対応するオブジェクト画像との重なりを検出する重なり検出手段と、
前記重なり検出手段による検出結果に基づいて、前記複数のオブジェクト領域が1つのオブジェクトに対応するオブジェクト領域か否かを判断する判断手段と、
前記判断手段により1つのオブジェクトに対応するオブジェクト領域であると判断された場合に、前記複数のオブジェクト画像を統合し、1つの統合画像を得る統合手段と
をさらに有する請求項1乃至3の何れか1項に記載の画像処理装置。
When a plurality of object areas are detected and an object image corresponding to the detected one object area is corrected, an overlap between the corrected object image and an object image corresponding to another object area is detected. Overlap detection means;
Determination means for determining whether the plurality of object areas are object areas corresponding to one object based on a detection result by the overlap detection means;
The integration unit according to any one of claims 1 to 3, further comprising an integration unit that integrates the plurality of object images to obtain one integrated image when the determination unit determines that the object area corresponds to one object. The image processing apparatus according to item 1.
前記判断手段は、前記重なり検出手段が面積閾値以上の面積の重なりを検出した場合に、前記一のオブジェクト領域と前記他のオブジェクト領域とは、1つのオブジェクトに対応するオブジェクト領域であると判断する請求項4に記載の画像処理装置。   The determination unit determines that the one object region and the other object region are object regions corresponding to one object when the overlap detection unit detects an overlap of areas equal to or larger than an area threshold. The image processing apparatus according to claim 4. 前記統合手段により統合画像が得られた場合に、統合前の複数のオブジェクト画像を前記統合画像に対応付けて記憶する関連付手段をさらに有する請求項又はに記載の画像処理装置。 Wherein when the integrated image is obtained by the integration means, the image processing apparatus according to claim 4 or 5, further comprising an association means for storing a plurality of object images before integration in association with the integrated image. 前記修正手段により前記オブジェクト画像が縮小された場合に、縮小量を特定する縮小量特定手段をさらに有し、
前記検出手段は、前記縮小量が縮小量閾値以上である場合に、修正前後における前記オブジェクト画像の差分領域において、再び前記オブジェクト領域を検出する請求項1乃至6の何れか1項に記載の画像処理装置。
A reduction amount specifying means for specifying a reduction amount when the object image is reduced by the correction means;
The image according to any one of claims 1 to 6, wherein the detection unit detects the object region again in the difference region of the object image before and after correction when the reduction amount is equal to or greater than a reduction amount threshold value. Processing equipment.
画像処理装置が実行する画像処理方法であって、
オブジェクトを含む撮影領域を撮影する撮影ステップと、
前記撮影ステップにおいて撮影された撮影画像からオブジェクト領域を検出する検出ステップと、
前記撮影画像中の前記オブジェクト領域の位置に基づいて、前記オブジェクト領域を示すオブジェクト画像を前記オブジェクト上に投影する投影ステップと、
前記オブジェクト画像の外周線の位置に基づいて、前記撮影領域のうち前記オブジェクト領域以外の非オブジェクト領域を、複数の部分領域に分割する分割ステップと、
前記複数の部分領域を、前記外周線を構成する部分外周に対応付ける対応付ステップと、
前記非オブジェクト領域上への操作子の入力位置を含む前記部分領域に対応付けられている前記部分外周を修正対象として特定する対象特定ステップと、
前記修正対象の位置を修正することにより、前記オブジェクト画像を修正する修正手段と
前記撮影領域のうち前記オブジェクト領域以外の非オブジェクト領域上への操作子の入力位置に基づいて、前記オブジェクト画像を修正する修正ステップと
を含む画像処理方法。
An image processing method executed by an image processing apparatus,
A shooting step for shooting a shooting area including the object;
A detection step of detecting an object region from a photographed image photographed in the photographing step;
A projecting step of projecting an object image indicating the object area on the object based on the position of the object area in the captured image;
A division step of dividing a non-object region other than the object region in the photographing region into a plurality of partial regions based on a position of an outer peripheral line of the object image;
An associating step of associating the plurality of partial regions with partial peripheries constituting the perimeter line;
A target specifying step for specifying, as a correction target, the partial outer periphery associated with the partial area including the input position of the operator on the non-object area;
The object image is corrected based on a correction means for correcting the object image by correcting the position of the correction target, and an input position of an operator on a non-object area other than the object area in the photographing area. And an image processing method.
オブジェクトを含む撮影領域が撮影された撮影画像からオブジェクト領域を検出する検出手段と、
前記撮影画像中の前記オブジェクト領域の位置に基づいて、前記オブジェクト領域を示すオブジェクト画像を前記オブジェクト上に投影させる投影制御手段と、
前記オブジェクト画像の外周線の位置に基づいて、前記撮影領域のうち前記オブジェクト領域以外の非オブジェクト領域を、複数の部分領域に分割する分割手段と、
前記複数の部分領域を、前記外周線を構成する部分外周に対応付ける対応付手段と、
前記非オブジェクト領域上への操作子の入力位置を含む前記部分領域に対応付けられている前記部分外周を修正対象として特定する対象特定手段と、
前記修正対象の位置を修正することにより、前記オブジェクト画像を修正する修正手段と
して機能させるためのプログラム。
Detecting means for detecting an object region from a photographed image obtained by photographing a photographing region including an object;
Projection control means for projecting an object image indicating the object area on the object based on the position of the object area in the captured image;
A dividing unit that divides a non-object area other than the object area in the shooting area into a plurality of partial areas based on a position of an outer peripheral line of the object image;
Corresponding means for associating the plurality of partial regions with partial outer peripheries constituting the outer peripheral line;
Target specifying means for specifying, as a correction target, the partial outer periphery associated with the partial area including the input position of the operator on the non-object area;
A program for functioning as a correction means for correcting the object image by correcting the position of the correction target .
JP2014064269A 2014-03-26 2014-03-26 Image processing apparatus, image processing method, and program Active JP6312488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014064269A JP6312488B2 (en) 2014-03-26 2014-03-26 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014064269A JP6312488B2 (en) 2014-03-26 2014-03-26 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015187755A JP2015187755A (en) 2015-10-29
JP6312488B2 true JP6312488B2 (en) 2018-04-18

Family

ID=54429974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014064269A Active JP6312488B2 (en) 2014-03-26 2014-03-26 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6312488B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7439682B2 (en) * 2020-07-29 2024-02-28 セイコーエプソン株式会社 Image correction method and projector

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012194424A (en) * 2011-03-17 2012-10-11 Seiko Epson Corp Projector and control method for projector
JP5802524B2 (en) * 2011-11-21 2015-10-28 株式会社Pfu Image processing apparatus, image processing method, and image processing program
JP5666545B2 (en) * 2011-12-15 2015-02-12 株式会社東芝 Information processing apparatus and image acquisition program
JP5912065B2 (en) * 2012-06-01 2016-04-27 株式会社Pfu Image processing apparatus, image reading apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2015187755A (en) 2015-10-29

Similar Documents

Publication Publication Date Title
US10354162B2 (en) Information processing apparatus, information processing method, and storage medium
JP6135239B2 (en) Image processing apparatus, image processing program, and image processing method
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US10970845B2 (en) Image processing apparatus, image processing method, and storage medium
US20130321858A1 (en) Image processing apparatus, image reading apparatus, image processing method, and image processing program
US10552946B2 (en) Display control apparatus and method for controlling the same based on orientation
JP6206581B2 (en) Terminal device, display control method, and program
EP3185106A1 (en) Operating apparatus, control method therefor, program, and storage medium storing program
CN113206987B (en) Method, device and terminal for projection display and non-transitory storage medium
US20170026546A1 (en) Image processing apparatus, image processing method, and storage medium
US20180220077A1 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
US9619101B2 (en) Data processing system related to browsing
JP6312488B2 (en) Image processing apparatus, image processing method, and program
JP2017199288A (en) Image processing device, image processing method and program
JP2017120455A (en) Information processing device, program and control method
JP6709022B2 (en) Touch detection device
JP2016051191A (en) Image processing method
JP2016139396A (en) User interface device, method and program
JP6973524B2 (en) program
JP6779798B2 (en) Information processing equipment, information processing methods and programs
JP6319974B2 (en) Form reader and program
JP2016224888A (en) Information processing apparatus, coordinate estimation program, and coordinate estimation method
JP2019053769A (en) Touch detection apparatus, touch detection system, touch detection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180320

R151 Written notification of patent or utility model registration

Ref document number: 6312488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151