JP6203070B2 - Scanning system, control method therefor, and program - Google Patents

Scanning system, control method therefor, and program Download PDF

Info

Publication number
JP6203070B2
JP6203070B2 JP2014017741A JP2014017741A JP6203070B2 JP 6203070 B2 JP6203070 B2 JP 6203070B2 JP 2014017741 A JP2014017741 A JP 2014017741A JP 2014017741 A JP2014017741 A JP 2014017741A JP 6203070 B2 JP6203070 B2 JP 6203070B2
Authority
JP
Japan
Prior art keywords
image
unit
document
placement
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014017741A
Other languages
Japanese (ja)
Other versions
JP2015146481A (en
Inventor
澤野 靖明
靖明 澤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014017741A priority Critical patent/JP6203070B2/en
Publication of JP2015146481A publication Critical patent/JP2015146481A/en
Application granted granted Critical
Publication of JP6203070B2 publication Critical patent/JP6203070B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、スキャンシステムおよびその制御方法、並びにプログラムに関し、特にカメラスキャナを利用して原稿のデータ化を行い、保存する技術に関する。   The present invention relates to a scan system, a control method therefor, and a program, and more particularly to a technique for converting and storing a document using a camera scanner.

従来、文書をスキャンして電子データとして保存する場合、撮影にラインセンサを用いるラインスキャナと、2次元のエリアセンサを用いるカメラスキャナとがある。特に、書画台の上方にカメラを配置し、原稿を上向きに書画台に置いて撮影するカメラスキャナの場合には、1枚の原稿であれば置くだけで素早くスキャンすることができる。さらに、複数枚の原稿を重ね置きした場合も、重ね置き前後にカメラスキャナで撮影し、差分画像から各原稿の輪郭を抽出して、各原稿をスキャンするものがある(例えば、特許文献1参照)。   Conventionally, when a document is scanned and stored as electronic data, there are a line scanner using a line sensor for photographing and a camera scanner using a two-dimensional area sensor. In particular, in the case of a camera scanner in which a camera is arranged above a document table and an original is placed on the document table and is photographed, a single document can be quickly scanned just by placing it. Furthermore, even when a plurality of originals are placed on top of each other, there are some that are photographed with a camera scanner before and after the placement, extract the outline of each document from the difference image, and scan each document (see, for example, Patent Document 1). ).

特開2007−201948号公報JP 2007-201948 A

複数枚の原稿を重ね置きした場合、重ね置き前後の撮影画像の差分を取るだけでは、原稿の輪郭として複数の候補が検出されたり、原稿の輪郭を検出できなかったりする場合がある。   When a plurality of originals are placed on top of each other, there are cases where a plurality of candidates are detected as the outlines of the originals or the outlines of the originals cannot be detected simply by taking the difference between the captured images before and after the placement.

上記課題を解決するために本願発明は以下の構成を有する。すなわち、載置部に載置された物体の画像を取得するスキャンシステムであって、前記載置部およびその近傍の画像を取得する画像取得手段と、前記画像取得手段にて連続して取得された画像の変化に基づいて、前記載置部への物体の載置を検知する検知手段と、前記画像取得手段にて取得された画像から前記物体の領域を抽出する抽出手段と、前記抽出手段にて抽出した前記物体の領域を所定の座標系に変換する変換手段と、前記変換手段にて変換された前記物体の領域の輪郭を導出する導出手段とを有し、前記物体とは異なる新たな物体が更に前記載置部に載置される場合、前記抽出手段、前記変換手段、および前記導出手段は、当該新たな物体が前記載置部に載置されたと前記検知手段により検知される前後の画像それぞれから求められる当該新たな物体の領域に含まれる特徴点の対応関係を用いて当該新たな物体の載置後の輪郭を導出する。   In order to solve the above problems, the present invention has the following configuration. That is, a scanning system that acquires an image of an object placed on a placement unit, which is continuously acquired by the image acquisition unit that acquires an image of the placement unit and its vicinity and the image acquisition unit. Detection means for detecting the placement of the object on the placement unit based on the change in the image, extraction means for extracting the region of the object from the image acquired by the image acquisition means, and the extraction means A conversion unit that converts the region of the object extracted in step 1 into a predetermined coordinate system, and a derivation unit that derives an outline of the region of the object converted by the conversion unit. When the object is further placed on the placement section, the extraction means, the conversion means, and the derivation means are detected by the detection means that the new object is placed on the placement section. Sought from each of the previous and next images Deriving a after loading of the contour of the new object using the new object correspondence between feature points included in the area of that.

本発明により、撮影対象が重ね置きされる場合でも撮影画像に含まれる撮影対象の輪郭を適切に検出できる。   According to the present invention, it is possible to appropriately detect the contour of the photographing target included in the photographed image even when the photographing target is overlaid.

カメラスキャナシステムのネットワーク構成を示す図。The figure which shows the network structure of a camera scanner system. カメラスキャナの外観を示す図。The figure which shows the external appearance of a camera scanner. カメラスキャナのハードウェア構成図。The hardware block diagram of a camera scanner. カメラスキャナの制御用プログラムの構成例およびシーケンスの図。FIG. 4 is a diagram illustrating a configuration example and a sequence of a camera scanner control program. 距離画像取得部の処理のフローチャートおよび説明図。The flowchart and explanatory drawing of a process of a distance image acquisition part. ジェスチャ認識部の処理のフローチャート。The flowchart of the process of a gesture recognition part. ジェスチャ認識部が実行する処理を説明するための図。The figure for demonstrating the process which a gesture recognition part performs. 物体検知部の処理のフローチャート。The flowchart of a process of an object detection part. 平面原稿画像撮影部の処理のフローチャート。5 is a flowchart of processing of a planar document image photographing unit. 平面原稿画像撮影部の処理を説明するための図。The figure for demonstrating the process of a plane original image imaging | photography part. 物体検知部の処理を説明するための図。The figure for demonstrating the process of an object detection part. 平面原稿画像撮影部の処理を説明するための図。The figure for demonstrating the process of a plane original image imaging | photography part. 実施形態1に係るメイン制御部の処理のフローチャート。5 is a flowchart of processing of a main control unit according to the first embodiment. ユーザインターフェイス部が表示するGUI表示画面の一例を示す図。The figure which shows an example of the GUI display screen which a user interface part displays. 原稿領域と印刷用紙の定型サイズを説明するための図。The figure for demonstrating the standard size of a document area and printing paper. 実施形態2に係る平面原稿画像撮影部の処理のフローチャート。9 is a flowchart of processing of a planar document image photographing unit according to the second embodiment. 実施形態3に係る平面原稿画像撮影部の処理のフローチャート。10 is a flowchart of processing of a planar document image photographing unit according to the third embodiment. 実施形態3に係る平面原稿画像撮影部の処理の説明図。Explanatory drawing of the process of the plane original image imaging | photography part which concerns on Embodiment 3. FIG. 実施形態4に係る物体検知部の処理のフローチャート。10 is a flowchart of processing of an object detection unit according to the fourth embodiment. 実施形態4に係る物体検知部の処理を説明するための図。The figure for demonstrating the process of the object detection part which concerns on Embodiment 4. FIG.

以下、本発明を実施するための形態について図面を参照して説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<実施形態1>
図1は、本実施形態に係るカメラスキャナ101が含まれるスキャンシステムのネットワーク構成を示す図である。図1において、カメラスキャナ101は、イーサネット(登録商標)等のネットワーク104を介して、ホストコンピュータ102およびプリンタ103に接続されている。図1のネットワーク構成において、ホストコンピュータ102からの指示により、カメラスキャナ101から画像を読み取るスキャン機能や、スキャンデータをプリンタ103により出力するプリント機能の実行が可能である。また、ホストコンピュータ102を介さず、カメラスキャナ101への直接の指示により、スキャン機能、プリント機能の実行も可能である。
<Embodiment 1>
FIG. 1 is a diagram illustrating a network configuration of a scan system including a camera scanner 101 according to the present embodiment. In FIG. 1, a camera scanner 101 is connected to a host computer 102 and a printer 103 via a network 104 such as Ethernet (registered trademark). In the network configuration of FIG. 1, a scan function for reading an image from the camera scanner 101 and a print function for outputting scan data by the printer 103 can be executed by an instruction from the host computer 102. Further, it is possible to execute a scan function and a print function by direct instructions to the camera scanner 101 without using the host computer 102.

ホストコンピュータ102は、一般的な情報処理装置であり、カメラスキャナ101にて読み取った画像の保存や、読み取った画像に対する処理を行うことができる。プリンタ103は、画像形成装置であり、例えば複合機(MFP: Multi−Function Peripheral)や単機能のプリンタなどが含まれる。   The host computer 102 is a general information processing apparatus, and can store an image read by the camera scanner 101 and process the read image. The printer 103 is an image forming apparatus, and includes, for example, a multi-function peripheral (MFP) or a single-function printer.

[カメラスキャナの構成]
図2は、本実施形態に係るカメラスキャナ101の構成例を示す図である。図2(a)に示すように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、プロジェクタ207、距離画像センサ部208を含む。カメラスキャナ101の本体であるコントローラ部201、撮像を行うためのカメラ部202、プロジェクタ207、および距離画像センサ部208は、腕部203により連結されている。腕部203は、関節を用いて曲げ伸ばしが可能である。
[Camera scanner configuration]
FIG. 2 is a diagram illustrating a configuration example of the camera scanner 101 according to the present embodiment. As shown in FIG. 2A, the camera scanner 101 includes a controller unit 201, a camera unit 202, an arm unit 203, a projector 207, and a distance image sensor unit 208. A controller unit 201 which is a main body of the camera scanner 101, a camera unit 202 for performing imaging, a projector 207, and a distance image sensor unit 208 are connected by an arm unit 203. The arm portion 203 can be bent and stretched using a joint.

図2(a)には、カメラスキャナ101が設置されている書画台204も示している。書画台204は、スキャン対象の物体(ここでは原稿206)が載置される載置部である。カメラ部202および距離画像センサ部208のレンズは、書画台204方向に向けられており、破線で囲まれた読取領域205内の画像を読み取り可能である。ここでの読取領域205には書画台204およびその近傍が含まれることとなる。図2の例では、原稿206が読取領域205内に置かれているため、カメラスキャナ101によって原稿206が読み取り可能となっている。また、書画台204内にはターンテーブル209が設けられている。ターンテーブル209は、コントローラ部201からの指示によって回転することが可能であり、ターンテーブル209上に置かれた物体とカメラ部202との角度を変えることができる。   FIG. 2A also shows a document table 204 on which the camera scanner 101 is installed. The document table 204 is a placement unit on which an object to be scanned (here, a document 206) is placed. The lenses of the camera unit 202 and the distance image sensor unit 208 are directed toward the document table 204, and can read an image in the reading area 205 surrounded by a broken line. Here, the reading area 205 includes the document table 204 and its vicinity. In the example of FIG. 2, since the document 206 is placed in the reading area 205, the document 206 can be read by the camera scanner 101. A turntable 209 is provided in the document table 204. The turntable 209 can be rotated by an instruction from the controller unit 201, and the angle between an object placed on the turntable 209 and the camera unit 202 can be changed.

カメラ部202は、単一解像度で画像を撮像するものとしてもよいが、高解像度画像撮像と低解像度画像撮像など複数の解像度を切り替えて撮影が可能なものとすることが好ましい。なお、図2には示されていないが、カメラスキャナ101は、LCDタッチパネル330およびスピーカ340をさらに含んでもよい。   The camera unit 202 may capture an image with a single resolution, but it is preferable that the camera unit 202 can capture images by switching a plurality of resolutions such as high-resolution image capturing and low-resolution image capturing. Although not shown in FIG. 2, the camera scanner 101 may further include an LCD touch panel 330 and a speaker 340.

図2(b)は、カメラスキャナ101における座標系について示す。カメラスキャナ101では、各ハードウェアデバイスに対して、カメラ座標系、距離画像センサ座標系、プロジェクタ座標系という複数の座標系が定義される。これらはカメラ部202および距離画像センサ部208のRGBカメラ部503が撮像する画像平面、あるいはプロジェクタ207が投影する画像平面をXY平面とし、画像平面に直交した方向をZ方向として定義したものである。さらに、これらの独立した座標系の3次元データを統一的に扱えるようにするために、書画台204を含む平面をXY平面とし、このXY平面から上方に垂直な向きをZ軸とする直交座標系を定義する。   FIG. 2B shows a coordinate system in the camera scanner 101. In the camera scanner 101, a plurality of coordinate systems such as a camera coordinate system, a distance image sensor coordinate system, and a projector coordinate system are defined for each hardware device. In these, the image plane captured by the RGB camera unit 503 of the camera unit 202 and the distance image sensor unit 208 or the image plane projected by the projector 207 is defined as an XY plane, and a direction orthogonal to the image plane is defined as a Z direction. . Furthermore, in order to be able to handle the three-dimensional data of these independent coordinate systems in a unified manner, a rectangular coordinate having the plane including the document table 204 as the XY plane and the direction perpendicular to the XY plane as the Z axis is used. Define the system.

各座標系を変換する場合の例として、図2(c)に直交座標系と、カメラ部202を中心としたカメラ座標系を用いて表現された空間と、カメラ部202が撮像する画像平面との関係を示す。直交座標系における3次元点P[X,Y,Z]は、式(1)によって、カメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換できる。
ここで、Rcおよびtcは、直交座標系に対するカメラの姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成され、Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。
As an example of transforming each coordinate system, FIG. 2C shows a rectangular coordinate system, a space expressed using a camera coordinate system centered on the camera unit 202, an image plane captured by the camera unit 202, The relationship is shown. The three-dimensional point P [X, Y, Z] in the orthogonal coordinate system can be converted to the three-dimensional point Pc [Xc, Yc, Zc] in the camera coordinate system by the equation (1).
Here, Rc and tc are constituted by external parameters obtained by the posture (rotation) and position (translation) of the camera with respect to the orthogonal coordinate system, and Rc is called a 3 × 3 rotation matrix and tc is called a translation vector.

逆に、カメラ座標系で定義された3次元点は式(2)によって、直交座標系へ変換できる。
Conversely, a three-dimensional point defined in the camera coordinate system can be converted into an orthogonal coordinate system by equation (2).

さらに、カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。すなわち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]を、式(3)によってカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することによって変換できる。
ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される3×3の行列である。
Further, the two-dimensional camera image plane photographed by the camera unit 202 is obtained by converting the three-dimensional information in the three-dimensional space into two-dimensional information by the camera unit 202. In other words, the three-dimensional point Pc [Xc, Yc, Zc] on the camera coordinate system can be converted by perspective projection conversion to the two-dimensional coordinate pc [xp, yp] on the camera image plane according to Expression (3).
Here, A is a 3 × 3 matrix called an internal parameter of the camera and expressed by a focal length and an image center.

以上のように、式(1)と式(3)を用いることで、直交座標系で表された3次元点群を、カメラ座標系での3次元点群座標やカメラ画像平面に変換できる。なお、各ハードウェアデバイスの内部パラメータおよび直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法により予めキャリブレーションされているものとする。以後、特に断りがなく「3次元点群」と表記した場合は、直交座標系における3次元データを表しているものとする。   As described above, by using the equations (1) and (3), the three-dimensional point group represented by the orthogonal coordinate system can be converted into the three-dimensional point group coordinates or the camera image plane in the camera coordinate system. It is assumed that the internal parameters of each hardware device and the position / orientation (external parameters) with respect to the orthogonal coordinate system are calibrated in advance by a known calibration method. Hereinafter, when there is no particular notice and it is expressed as “three-dimensional point group”, it represents three-dimensional data in an orthogonal coordinate system.

[カメラスキャナのハードウェア構成]
図3は、カメラスキャナ101の本体であるコントローラ部201のハードウェア構成例を示す図である。
[Hardware configuration of camera scanner]
FIG. 3 is a diagram illustrating a hardware configuration example of the controller unit 201 which is the main body of the camera scanner 101.

図3のコントローラ部201は、CPU302、RAM303、ROM304、HDD305、ネットワークI/F306、画像処理プロセッサ307、カメラI/F308、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311、およびUSBコントローラ312を含む。これらの構成要素は、システムバス301によって互いに接続され、通信可能である。   3 includes a CPU 302, RAM 303, ROM 304, HDD 305, network I / F 306, image processing processor 307, camera I / F 308, display controller 309, serial I / F 310, audio controller 311 and USB controller 312. . These components are connected to each other via a system bus 301 and can communicate with each other.

CPU302は、コントローラ部201全体の動作を制御する中央演算装置である。RAM303は、揮発性メモリである。ROM304は不揮発性メモリであり、CPU302の起動用プログラムが格納されている。HDD305は、記憶部であり、RAM303と比較して大容量なハードディスクドライブ(HDD)である。HDD305にはコントローラ部201の実行する、本実施形態に係るカメラスキャナ101の制御用プログラムが格納されている。   The CPU 302 is a central processing unit that controls the operation of the entire controller unit 201. The RAM 303 is a volatile memory. A ROM 304 is a non-volatile memory, and stores a startup program for the CPU 302. The HDD 305 is a storage unit and is a hard disk drive (HDD) having a larger capacity than the RAM 303. The HDD 305 stores a control program for the camera scanner 101 according to the present embodiment, which is executed by the controller unit 201.

CPU302は電源ON等の起動時、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、HDD305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行し、制御を行う。また、CPU302は、制御用プログラムによる動作に用いるデータもRAM303上に格納して読み書きを行う。HDD305上には更に、制御用プログラムによる動作に必要な各種設定や、また、カメラ入力によって生成した画像データを格納することができ、CPU302によって読み書きされる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器との通信を行う。ここでの通信の方式は、有線・無線のいずれであっても構わない。   The CPU 302 executes a startup program stored in the ROM 304 when the power is turned on. This activation program is for reading a control program stored in the HDD 305 and developing it on the RAM 303. When the CPU 302 executes the startup program, the CPU 302 subsequently executes the control program developed on the RAM 303 to perform control. In addition, the CPU 302 stores data used for the operation by the control program on the RAM 303 and performs reading and writing. Further, various settings necessary for the operation by the control program and image data generated by camera input can be stored on the HDD 305 and read / written by the CPU 302. The CPU 302 communicates with other devices on the network 104 via the network I / F 306. The communication method here may be either wired or wireless.

画像処理プロセッサ307は、RAM303に格納された画像データを読み出して処理し、またRAM303へ書き戻す。なお、画像処理プロセッサ307が実行する画像処理としては、画像に対する回転、変倍、色変換等の処理が挙げられる。   The image processor 307 reads and processes the image data stored in the RAM 303 and writes it back to the RAM 303. Note that image processing executed by the image processing processor 307 includes processing such as rotation, scaling, and color conversion on an image.

カメラI/F308は、カメラ部202および距離画像センサ部208と接続され、CPU302からの指示に応じてカメラ部202から画像データを、距離画像センサ部208から距離画像データを取得してRAM303へ書き込む。また、CPU302からの制御コマンドをカメラ部202および距離画像センサ部208へ送信し、カメラ部202および距離画像センサ部208の設定を行う。   The camera I / F 308 is connected to the camera unit 202 and the distance image sensor unit 208, acquires image data from the camera unit 202 in accordance with an instruction from the CPU 302, and acquires distance image data from the distance image sensor unit 208 and writes it to the RAM 303. . In addition, a control command from the CPU 302 is transmitted to the camera unit 202 and the distance image sensor unit 208 to set the camera unit 202 and the distance image sensor unit 208.

また、コントローラ部201は、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311、およびUSBコントローラ312のうち少なくとも1つをさらに含んでもよい。   The controller unit 201 may further include at least one of a display controller 309, a serial I / F 310, an audio controller 311, and a USB controller 312.

ディスプレイコントローラ309は、CPU302の指示に応じてディスプレイへの画像データの表示を制御する。ここでは、ディスプレイコントローラ309は、プロジェクタ207およびLCDタッチパネル330に接続されている。   A display controller 309 controls display of image data on the display in accordance with an instruction from the CPU 302. Here, the display controller 309 is connected to the projector 207 and the LCD touch panel 330.

シリアルI/F310は、シリアル信号の入出力を行う。ここでは、シリアルI/F310はターンテーブル209に接続され、CPU302の回転開始・終了および回転角度の指示をターンテーブル209へ送信する。また、シリアルI/F310はLCDタッチパネル330に接続され、CPU302はLCDタッチパネル330が押下された場合に、シリアルI/F310を介して押下された座標を取得する。   The serial I / F 310 inputs and outputs serial signals. Here, the serial I / F 310 is connected to the turntable 209, and transmits an instruction of the rotation start / end and rotation angle of the CPU 302 to the turntable 209. Further, the serial I / F 310 is connected to the LCD touch panel 330, and the CPU 302 acquires the pressed coordinates via the serial I / F 310 when the LCD touch panel 330 is pressed.

オーディオコントローラ311はスピーカ340に接続され、CPU302の指示に応じて音声データをアナログ音声信号に変換し、スピーカ340を通じて音声を出力する。   The audio controller 311 is connected to the speaker 340, converts audio data into an analog audio signal in accordance with an instruction from the CPU 302, and outputs audio through the speaker 340.

USBコントローラ312は、CPU302の指示に応じて外付けのUSBデバイスの制御を行う。ここでは、USBコントローラ312はUSBメモリやSDカードなどの外部メモリ350に接続され、外部メモリ350へのデータの読み書きを行う。   The USB controller 312 controls an external USB device in accordance with an instruction from the CPU 302. Here, the USB controller 312 is connected to an external memory 350 such as a USB memory or an SD card, and reads / writes data from / to the external memory 350.

[カメラスキャナの機能構成]
図4(a)は、CPU302が実行するカメラスキャナ101の制御用プログラム401の機能構成の例を示す図である。また、図4(b)は、制御用プログラム401の各モジュールの関係をシーケンス図として示したものである。
[Functional configuration of camera scanner]
FIG. 4A is a diagram illustrating an example of a functional configuration of the control program 401 of the camera scanner 101 executed by the CPU 302. FIG. 4B is a sequence diagram showing the relationship between the modules of the control program 401.

カメラスキャナ101の制御用プログラム401はHDD305に格納され、CPU302が起動時にRAM303上に展開して実行する。メイン制御部402は、他の各モジュールを図4(b)に示すように制御する。したがって、本実施形態に係る、後述する各処理は、各モジュールに対応するプログラムをCPU302がHDD305から読み出し、実行することで実現される。   The control program 401 of the camera scanner 101 is stored in the HDD 305, and is executed on the RAM 303 when the CPU 302 starts up. The main control unit 402 controls the other modules as shown in FIG. Therefore, each process described later according to the present embodiment is realized by the CPU 302 reading out a program corresponding to each module from the HDD 305 and executing it.

画像取得部416は画像入力処理を行い、カメラ画像取得部407および距離画像取得部408から構成される。カメラ画像取得部407はカメラI/F308を介してカメラ部202が出力する画像データを取得し、RAM303へ格納する。距離画像取得部408はカメラI/F308を介して距離画像センサ部208が出力する距離画像データを取得し、RAM303へ格納する。ここでの距離画像、および距離画像取得部408の処理の詳細は図5を用いて後述する。また、カメラ部202および距離画像センサ部208は、定期的な間隔にて画像を連続して取得することができる。本明細書において、この連続した画像群のうち、1つの画像を「フレーム」とも記載する。   The image acquisition unit 416 performs image input processing and includes a camera image acquisition unit 407 and a distance image acquisition unit 408. The camera image acquisition unit 407 acquires image data output from the camera unit 202 via the camera I / F 308 and stores the image data in the RAM 303. The distance image acquisition unit 408 acquires the distance image data output from the distance image sensor unit 208 via the camera I / F 308 and stores it in the RAM 303. Details of the distance image and the processing of the distance image acquisition unit 408 will be described later with reference to FIG. Further, the camera unit 202 and the distance image sensor unit 208 can continuously acquire images at regular intervals. In the present specification, one image of the continuous image group is also referred to as a “frame”.

認識処理部417は、カメラ画像取得部407および距離画像取得部408が取得する画像データから書画台204上の物体の動きを検知して認識する。認識処理部417は、ジェスチャ認識部409、物体検知部410、原稿領域抽出部419、原稿領域変換部420、特徴点抽出部421、2次元画像原稿輪郭算出部422、距離算出部423、および原稿輪郭算出部424から構成される。   The recognition processing unit 417 detects and recognizes the movement of the object on the document table 204 from the image data acquired by the camera image acquisition unit 407 and the distance image acquisition unit 408. The recognition processing unit 417 includes a gesture recognition unit 409, an object detection unit 410, a document region extraction unit 419, a document region conversion unit 420, a feature point extraction unit 421, a two-dimensional image document contour calculation unit 422, a distance calculation unit 423, and a document. The contour calculation unit 424 is configured.

ジェスチャ認識部409は、画像取得部416から書画台204上の画像を取得し続け、タッチなどのジェスチャによる操作指示を検知すると、その内容を解析し、メイン制御部402へ通知する。物体検知部410は、メイン制御部402から物体の載置待ち処理あるいは物体の除去待ち処理の通知を受けると、画像取得部416から書画台204を撮像した画像を取得する。また、物体検知部410は、書画台204上に物体が置かれて静止するタイミングあるいは物体が取り除かれるタイミングを検知する。原稿領域抽出部419は、距離画像取得部408で取得した距離画像から原稿領域を抽出する。   The gesture recognition unit 409 continues to acquire the image on the document table 204 from the image acquisition unit 416, and when detecting an operation instruction by a gesture such as touch, the content is analyzed and notified to the main control unit 402. When the object detection unit 410 receives a notification of object placement waiting processing or object removal waiting processing from the main control unit 402, the object detection unit 410 acquires an image obtained by capturing the document table 204 from the image acquisition unit 416. In addition, the object detection unit 410 detects the timing at which an object is placed on the document table 204 and stops or the timing at which the object is removed. The document area extraction unit 419 extracts a document area from the distance image acquired by the distance image acquisition unit 408.

原稿領域変換部420は、カメラ画像取得部407で取得したカメラ画像と距離画像取得部408で取得した距離画像から原稿領域抽出部419で抽出した原稿領域を切り出し、原稿の画像に対し、書画台204と平行な平面上に位置するように画像情報を変換する。特徴点抽出部421は、原稿領域変換部420で変換したカメラ画像の原稿から特徴点を抽出する。2次元画像原稿輪郭算出部422は、原稿領域変換部420で取得したカメラ画像の原稿から輪郭を抽出する。距離算出部423は、特徴点抽出部421で抽出された特徴点と、2次元画像原稿輪郭算出部422で算出したカメラ画像の原稿の輪郭との距離、および特徴点間の距離を算出する。原稿輪郭算出部424は、物体検知部410で書画台204上に原稿が載置されたことを検知したら、距離算出部423で特徴点間の距離を再度算出し、原稿の輪郭を算出する。認識処理部417の処理の詳細は図6〜図8を用いてそれぞれ後述する。   The document area conversion unit 420 cuts out the document area extracted by the document area extraction unit 419 from the camera image acquired by the camera image acquisition unit 407 and the distance image acquired by the distance image acquisition unit 408, and performs a document table for the document image. The image information is converted so that the image information is positioned on a plane parallel to 204. The feature point extraction unit 421 extracts feature points from the document of the camera image converted by the document area conversion unit 420. The two-dimensional image document contour calculation unit 422 extracts a contour from the document of the camera image acquired by the document region conversion unit 420. The distance calculation unit 423 calculates the distance between the feature points extracted by the feature point extraction unit 421 and the document outline of the camera image calculated by the two-dimensional image document contour calculation unit 422 and the distance between the feature points. When the object detection unit 410 detects that the document is placed on the document table 204, the document contour calculation unit 424 calculates the distance between the feature points again by the distance calculation unit 423, and calculates the contour of the document. Details of the processing of the recognition processing unit 417 will be described later with reference to FIGS.

スキャン処理部418は実際に対象物のスキャンを行うモジュールであり、スキャン対象物の種類に応じて、平面原稿画像撮影部411、書籍画像撮影部412、および立体形状測定部413から構成される。平面原稿画像撮影部411は平面原稿に、書籍画像撮影部412は書籍に、立体形状測定部413は立体物に、それぞれ適した処理を実行し、それぞれの処理に応じた形式のデータを出力する。本実施形態では、スキャン対象が原稿のため、平面原稿画像撮影部411の処理の詳細のみ図9〜図10を用いて後述する。なお、他の対象物をスキャンする場合でも基本的な動作は同じである。   The scan processing unit 418 is a module that actually scans an object, and includes a flat document image photographing unit 411, a book image photographing unit 412, and a three-dimensional shape measuring unit 413 according to the type of scan object. The flat document image photographing unit 411 executes processing suitable for a flat manuscript, the book image photographing unit 412 performs for a book, and the three-dimensional shape measurement unit 413 performs three-dimensional processing, and outputs data in a format corresponding to each processing. . In the present embodiment, since the scan target is a document, only details of the processing of the planar document image photographing unit 411 will be described later with reference to FIGS. The basic operation is the same when scanning other objects.

ユーザインターフェイス部403は、GUI部品生成表示部414および投射領域検出部415から構成される。GUI部品生成表示部414は、メイン制御部402からの要求を受け、メッセージやボタン等のGUI(Graphical User Interface)部品を生成する。そして、GUI部品生成表示部414は、表示部406へ生成したGUI部品の表示を要求する。なお、書画台204上のGUI部品の表示場所は、投射領域検出部415により検出される。表示部406は、ディスプレイコントローラ309を介して、プロジェクタ207もしくはLCDタッチパネル330へ要求されたGUI部品の表示を行う。プロジェクタ207は書画台204に向けて設置されているため、書画台204上にGUI部品を投射・投影することが可能となっている。また、ユーザインターフェイス部403は、ジェスチャ認識部409が認識したタッチ等のジェスチャ操作、あるいはシリアルI/F310を介したLCDタッチパネル330からの入力操作、そして更にそれらの座標を受信する。そして、ユーザインターフェイス部403は、描画中の操作画面の内容と操作座標を対応させて操作内容(押下されたボタン等)を判定する。ユーザインターフェイス部403は、この判定した操作内容をメイン制御部402へ通知することにより、操作者の操作を受け付ける。   The user interface unit 403 includes a GUI part generation display unit 414 and a projection area detection unit 415. The GUI component generation / display unit 414 receives a request from the main control unit 402 and generates a GUI (Graphical User Interface) component such as a message or a button. Then, the GUI component generation display unit 414 requests the display unit 406 to display the generated GUI component. Note that the display area of the GUI component on the document table 204 is detected by the projection area detection unit 415. The display unit 406 displays the requested GUI component on the projector 207 or the LCD touch panel 330 via the display controller 309. Since the projector 207 is installed toward the document table 204, it is possible to project and project GUI parts on the document table 204. In addition, the user interface unit 403 receives a gesture operation such as a touch recognized by the gesture recognition unit 409, an input operation from the LCD touch panel 330 via the serial I / F 310, and coordinates thereof. Then, the user interface unit 403 determines the operation content (such as a pressed button) by associating the content of the operation screen being drawn with the operation coordinates. The user interface unit 403 receives the operator's operation by notifying the main control unit 402 of the determined operation content.

ネットワーク通信部404は、ネットワークI/F306を介して、ネットワーク104上の他の機器とTCP/IPによる通信を行う。データ管理部405は、制御用プログラム401の実行において生成した作業データなど様々なデータをHDD305上の所定の領域へ保存し、管理する。ここで保存されるデータは例えば、平面原稿画像撮影部411、書籍画像撮影部412、もしくは立体形状測定部413が生成したスキャンデータなどである。   The network communication unit 404 communicates with other devices on the network 104 by TCP / IP via the network I / F 306. The data management unit 405 stores and manages various data such as work data generated in the execution of the control program 401 in a predetermined area on the HDD 305. The data stored here is, for example, scan data generated by the flat document image photographing unit 411, the book image photographing unit 412, or the three-dimensional shape measuring unit 413.

[距離画像センサ部および距離画像取得部の説明]
図3は、距離画像センサ部208の構成を示す。距離画像センサ部208は赤外線によるパターン投射方式の距離画像センサである。赤外線パターン投射部361は、対象物に、人の目には不可視である赤外線によって3次元測定パターンを投射する。赤外線カメラ362は、対象物に投射した3次元測定パターンを読みとるカメラである。RGBカメラ363は、人の目に見える可視光をRGB信号で撮影するカメラである。
[Description of Distance Image Sensor Unit and Distance Image Acquisition Unit]
FIG. 3 shows the configuration of the distance image sensor unit 208. The distance image sensor unit 208 is a pattern image type distance image sensor using infrared rays. The infrared pattern projection unit 361 projects a three-dimensional measurement pattern onto an object using infrared rays that are invisible to human eyes. The infrared camera 362 is a camera that reads a three-dimensional measurement pattern projected onto an object. The RGB camera 363 is a camera that captures visible light visible to the human eye using RGB signals.

距離画像取得部408の処理を図5(a)のフローチャートを用いて説明する。また、図5(b)〜(d)はパターン投射方式による距離画像の計測原理を説明するための図面である。   The processing of the distance image acquisition unit 408 will be described with reference to the flowchart of FIG. FIGS. 5B to 5D are diagrams for explaining the principle of distance image measurement by the pattern projection method.

処理を開始すると、S501にて、距離画像取得部408は、図5(b)に示すように赤外線パターン投射部361を用いて赤外線による3次元形状測定パターン522を対象物521に投射する。S502にて、距離画像取得部408は、RGBカメラ363を用いて対象物を撮影したRGB画像523、および、赤外線カメラ362を用いてS501で投射した3次元形状測定パターン522を含んで撮影した赤外線カメラ画像524を取得する。   When the process is started, in S501, the distance image acquisition unit 408 projects a three-dimensional shape measurement pattern 522 using infrared rays onto the object 521 using the infrared pattern projection unit 361 as shown in FIG. In S502, the distance image acquisition unit 408 includes the RGB image 523 obtained by photographing the object using the RGB camera 363, and the infrared image photographed including the three-dimensional shape measurement pattern 522 projected in S501 using the infrared camera 362. A camera image 524 is acquired.

ここで、図2に示すように赤外線カメラ362とRGBカメラ363とでは設置位置が異なるため、図5(c)に示すようにそれぞれで撮影される2つのRGB画像523および赤外線カメラ画像524の撮影領域が異なる。そこで、S503にて、距離画像取得部408は、赤外線カメラ362の座標系からRGBカメラ363の座標系への座標系変換を用いて赤外線カメラ画像524をRGB画像523の座標系に合わせる処理を行う。なお、赤外線カメラ362とRGBカメラ363の相対位置や、それぞれの内部パラメータは事前のキャリブレーション処理により既知であるとする。   Here, since the installation positions of the infrared camera 362 and the RGB camera 363 are different as shown in FIG. 2, the two RGB images 523 and the infrared camera image 524 photographed respectively as shown in FIG. 5C are taken. The area is different. Therefore, in S503, the distance image acquisition unit 408 performs processing for matching the infrared camera image 524 with the coordinate system of the RGB image 523 using coordinate system conversion from the coordinate system of the infrared camera 362 to the coordinate system of the RGB camera 363. . It is assumed that the relative positions of the infrared camera 362 and the RGB camera 363 and the respective internal parameters are known by a prior calibration process.

S504にて、距離画像取得部408は、図5(c)に示すように、3次元形状測定パターン522とS503で座標変換を行った赤外線カメラ画像524間での対応点を抽出する。例えば、距離画像取得部408は、赤外線カメラ画像524上の1点を3次元形状測定パターン522上から探索して、同一の点が検出された場合に対応付けを行う。あるいは、距離画像取得部408は、赤外線カメラ画像524の画素の周辺のパターンを3次元形状測定パターン522上から探索し、一番類似度が高い部分と対応付けてもよい。   In S504, the distance image acquisition unit 408 extracts corresponding points between the three-dimensional shape measurement pattern 522 and the infrared camera image 524 that has undergone coordinate conversion in S503, as shown in FIG. 5C. For example, the distance image acquisition unit 408 searches for one point on the infrared camera image 524 from the three-dimensional shape measurement pattern 522, and performs association when the same point is detected. Alternatively, the distance image acquisition unit 408 may search the pattern around the pixel of the infrared camera image 524 from the three-dimensional shape measurement pattern 522 and associate it with the portion having the highest similarity.

S505にて、距離画像取得部408は、赤外線パターン投射部361と赤外線カメラ362を結ぶ直線を基線525として三角測量の原理を用いて計算を行うことにより、赤外線カメラ362からの距離を算出する。距離画像取得部408は、S504で対応付けが出来た画素については、赤外線カメラ362からの距離を算出して画素値として保存し、対応付けが出来なかった画素については、距離の計測が出来なかった部分として無効値を保存する。これをS503で座標変換を行った赤外線カメラ画像524の全画素に対して行うことで、各画素に距離値が入った距離画像を生成する。   In S505, the distance image acquisition unit 408 calculates the distance from the infrared camera 362 by performing calculation using the principle of triangulation with the straight line connecting the infrared pattern projection unit 361 and the infrared camera 362 as the base line 525. The distance image acquisition unit 408 calculates the distance from the infrared camera 362 and stores it as a pixel value for the pixels that can be associated in S504, and cannot measure the distance for the pixels that cannot be associated. Save the invalid value as a part. This is performed for all the pixels of the infrared camera image 524 that have undergone coordinate transformation in S503, thereby generating a distance image in which each pixel has a distance value.

S506にて、距離画像取得部408は、距離画像の各画素にRGB画像523のRGB値を保存することにより、1画素につきR、G、B、距離の4つの値を持つ距離画像を生成する。ここで取得した距離画像は、距離画像センサ部208のRGBカメラ363で定義された距離画像センサ座標系が基準となる。そこでS507にて、距離画像取得部408は、図2(b)を用いて上述したように、距離画像センサ座標系として得られた距離データを直交座標系における3次元点群に変換する。以後、特に指定がなく「3次元点群」と表記した場合は、直交座標系における3次元点群を示すものとする。   In S506, the distance image acquisition unit 408 generates a distance image having four values of R, G, B, and distance per pixel by storing the RGB values of the RGB image 523 in each pixel of the distance image. . The distance image acquired here is based on the distance image sensor coordinate system defined by the RGB camera 363 of the distance image sensor unit 208. In step S507, the distance image acquisition unit 408 converts the distance data obtained as the distance image sensor coordinate system into a three-dimensional point group in the orthogonal coordinate system, as described above with reference to FIG. Hereinafter, when there is no particular designation and “3D point group” is described, it indicates a 3D point group in an orthogonal coordinate system.

なお、本実施形態では、上述したように、距離画像センサ部208として赤外線パターン投射方式を採用しているが、他の方式の距離画像センサを用いてもよい。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザー光の飛行時間を検出することで距離を測定するTOF(Time of Flight)方式を用いても構わない。   In this embodiment, as described above, an infrared pattern projection method is employed as the distance image sensor unit 208, but a distance image sensor of another method may be used. For example, a stereo system that performs stereo stereoscopic viewing with two RGB cameras, or a TOF (Time of Flight) system that measures distance by detecting the flight time of laser light may be used.

[ジェスチャ認識部の説明]
ジェスチャ認識部409の処理の詳細を、図6のフローチャートを用いて説明する。処理を開始すると、S601にて、ジェスチャ認識部409は、初期化処理を行う。初期化処理で、ジェスチャ認識部409は、距離画像取得部408から距離画像を1フレーム取得する。ここで、ジェスチャ認識部409の開始時は書画台204上に対象物が置かれていない状態であるため、取得した距離画像から、初期状態として書画台204の平面の認識を行う。つまり、ジェスチャ認識部409は、取得した距離画像から最も広い平面を抽出し、その位置と法線ベクトル(以降、書画台204の平面パラメータと呼ぶ)を算出し、RAM303に保存する。
[Description of gesture recognition unit]
Details of the processing of the gesture recognition unit 409 will be described with reference to the flowchart of FIG. When the process is started, in S601, the gesture recognition unit 409 performs an initialization process. In the initialization process, the gesture recognition unit 409 acquires one frame of the distance image from the distance image acquisition unit 408. Here, since the object is not placed on the document table 204 at the start of the gesture recognition unit 409, the plane of the document table 204 is recognized as an initial state from the acquired distance image. That is, the gesture recognition unit 409 extracts the widest plane from the acquired distance image, calculates its position and normal vector (hereinafter referred to as plane parameters of the document table 204), and stores them in the RAM 303.

S602にて、ジェスチャ認識部409は、S621〜S622に示す、書画台204上に存在する物体の3次元点群を取得する。その際、S621にて、ジェスチャ認識部409は、距離画像取得部408から距離画像と3次元点群を1フレーム取得する。S622にて、ジェスチャ認識部409は、書画台204の平面パラメータを用いて、取得した3次元点群から書画台204を含む平面領域に位置する点群を除去する。   In step S602, the gesture recognition unit 409 acquires a three-dimensional point group of an object existing on the document table 204 shown in steps S621 to S622. At this time, in S621, the gesture recognition unit 409 acquires one frame of the distance image and the three-dimensional point group from the distance image acquisition unit 408. In step S <b> 622, the gesture recognition unit 409 uses the plane parameter of the document table 204 to remove the point group located in the plane area including the document table 204 from the acquired three-dimensional point group.

S603にて、ジェスチャ認識部409は、S631〜S634に示す、取得した3次元点群からユーザの手の形状および指先を検出する処理を行う。ここで、図7に示す、指先検出処理の方法を模式的に表した図を用いて説明する。S631にて、ジェスチャ認識部409は、S602で取得した3次元点群から、書画台204を含む平面領域において所定の高さの範囲内にある肌色の3次元点群を抽出することで、手の3次元点群を得る。ここでの所定の高さは、ジェスチャの認識の感度に応じて任意に設定できるものとする。図7(a)に示す3次元点群701は、抽出した手に対する3次元点群を表している。S632にて、ジェスチャ認識部409は、抽出した手に対する3次元点群を、書画台204の平面に射影した2次元画像を生成して、その手の外形を検出する。図7(a)に示す3次元点群702は、3次元点群701を書画台204の平面に投影した際の3次元点群を表している。投影は、点群の各座標を、書画台204の平面パラメータを用いて投影することができる。また、図7(b)に示すように、投影した手に対する3次元点群の値から、xy座標の値だけを取り出せば、z軸方向から見た2次元画像703として扱うことができる。この時、ジェスチャ認識部409は、手に対する3次元点群の各点が、書画台204の平面に投影した2次元画像の各座標のいずれに対応するかの情報を、HDD305等に記憶しておくものとする。   In S603, the gesture recognition unit 409 performs processing for detecting the shape and fingertip of the user's hand from the acquired three-dimensional point group shown in S631 to S634. Here, the method of the fingertip detection process shown in FIG. 7 will be described with reference to the schematic diagram. In S631, the gesture recognizing unit 409 extracts the skin-colored three-dimensional point group within a predetermined height in the plane area including the document table 204 from the three-dimensional point group acquired in S602. To obtain a three-dimensional point cloud. The predetermined height here can be arbitrarily set according to the sensitivity of gesture recognition. A three-dimensional point group 701 shown in FIG. 7A represents a three-dimensional point group for the extracted hand. In S632, the gesture recognition unit 409 generates a two-dimensional image obtained by projecting the extracted three-dimensional point cloud for the hand onto the plane of the document table 204, and detects the outer shape of the hand. A three-dimensional point group 702 shown in FIG. 7A represents a three-dimensional point group when the three-dimensional point group 701 is projected onto the plane of the document table 204. In the projection, each coordinate of the point group can be projected using the plane parameter of the document table 204. Further, as shown in FIG. 7B, if only the value of the xy coordinate is extracted from the value of the three-dimensional point group for the projected hand, it can be handled as a two-dimensional image 703 viewed from the z-axis direction. At this time, the gesture recognition unit 409 stores, in the HDD 305 or the like, information indicating which of the coordinates of the two-dimensional image projected on the plane of the document table 204 corresponds to each point of the three-dimensional point group for the hand. I shall keep it.

S633にて、ジェスチャ認識部409は、検出した手の外形上の各点について、その点での外形の曲率を算出し、算出した曲率が所定値より大きい点を指先として検出する。ここでの曲率に対する所定値は、予め定義され、HDD305等に保持されているものとする。図7(c)は、外形の曲率から指先を検出する方法を模式的に表している。点704は、書画台204の平面に投影された2次元画像703の外形を表す点の一部を表している。ここで、点704のような、外形を表す点のうち、隣り合う5個の点を含むように円を描くことを考える。円705、707が、その例である。この円を、全ての外形の点に対して順に描き、その直径(例えば直径706、および直径708)が所定の値より小さい(曲率が大きい)ことを以て、指先とする。この例では隣り合う5個の点としたが、その数は限定されるものではない。また、ここでは曲率を用いたが、その他の方法として、外形に対して楕円フィッティングを行うことで、指先を検出してもよい。   In S633, the gesture recognition unit 409 calculates the curvature of the outer shape at each point on the detected outer shape of the hand, and detects a point where the calculated curvature is larger than a predetermined value as a fingertip. Here, it is assumed that the predetermined value for the curvature is defined in advance and held in the HDD 305 or the like. FIG. 7C schematically shows a method of detecting the fingertip from the curvature of the outer shape. A point 704 represents a part of a point representing the outer shape of the two-dimensional image 703 projected onto the plane of the document table 204. Here, it is considered that a circle is drawn so as to include five adjacent points among points representing the outer shape such as the point 704. Circles 705 and 707 are examples thereof. This circle is drawn in order with respect to all points of the outer shape, and the diameter (for example, the diameter 706 and the diameter 708) is smaller than a predetermined value (the curvature is large), and is used as a fingertip. In this example, five points are adjacent to each other, but the number is not limited. In addition, the curvature is used here, but as another method, the fingertip may be detected by performing elliptic fitting on the outer shape.

S634にて、ジェスチャ認識部409は、検出した指先の個数および各指先の座標を算出する。この時、前述したように、書画台204に投影した2次元画像の各点と、手に対する3次元点群の各点の対応関係に関する情報が記憶されているため、各指先の3次元座標を得ることができる。   In S634, the gesture recognition unit 409 calculates the number of detected fingertips and the coordinates of each fingertip. At this time, as described above, since information on the correspondence between each point of the two-dimensional image projected on the document table 204 and each point of the three-dimensional point group with respect to the hand is stored, the three-dimensional coordinates of each fingertip are stored. Can be obtained.

本例では、3次元点群から2次元画像に投影した画像から指先を検出する方法を説明したが、指先検出の対象とする画像は、これに限定されるものではない。例えば、距離画像の背景差分や、RGB画像の肌色領域から手の領域を抽出し、上に述べたのと同様の方法(外形の曲率計算等)で、手領域のうちの指先を検出してもよい。この場合、検出した指先の座標はRGB画像や距離画像といった、2次元画像上の座標であるため、その座標における距離画像の距離情報を用いて、直交座標系の3次元座標に変換する必要がある。この時、指先点となる外形上の点ではなく、指先を検出するときに用いた、曲率円の中心を指先点としてもよい。   In this example, the method for detecting a fingertip from an image projected from a three-dimensional point group onto a two-dimensional image has been described, but the image to be detected by the fingertip is not limited to this. For example, the hand region is extracted from the background difference of the distance image or the skin color region of the RGB image, and the fingertip in the hand region is detected by the same method (external curvature calculation, etc.) as described above. Also good. In this case, since the coordinates of the detected fingertip are coordinates on a two-dimensional image such as an RGB image or a distance image, it is necessary to convert the coordinate information into the three-dimensional coordinates of the orthogonal coordinate system using the distance information of the distance image at that coordinate. is there. At this time, the center of the curvature circle used when detecting the fingertip may be used as the fingertip point instead of the point on the outer shape that becomes the fingertip point.

S604にて、ジェスチャ認識部409は、S641〜S646に示す、検出した手の形状および指先からのジェスチャ判定処理を行う。S641にて、ジェスチャ認識部409は、S603で検出した指先が1つか否かを判定する。検出した指先が1つでなければ(S641にてNO)S646へ進み、ジェスチャ認識部409は、「ジェスチャ無し」と判定する。検出した指先が1つであれば(S641にてYES)、S642へ進み、ジェスチャ認識部409は、検出した指先と書画台204を含む平面との距離を算出する。   In S604, the gesture recognition unit 409 performs a gesture determination process from the detected hand shape and fingertip shown in S641 to S646. In S641, the gesture recognition unit 409 determines whether or not there is one fingertip detected in S603. If the number of detected fingertips is not one (NO in S641), the process proceeds to S646, and the gesture recognition unit 409 determines that “no gesture”. If the number of detected fingertips is one (YES in S641), the process proceeds to S642, and gesture recognition unit 409 calculates the distance between the detected fingertip and the plane including document stage 204.

S643にて、ジェスチャ認識部409は、S642で算出した距離が所定値以下であるか否かを判定する。ここでの所定値は、指先による書画台204へのタッチ動作か、移動指示動作かを判定するための閾値であり、その指先の動きを踏まえた値となる。所定値以下である場合(S643にてYES)、S644へ進み、ジェスチャ認識部409は、指先が書画台204へタッチしたとして「タッチジェスチャあり」と判定する。算出した距離が所定値以下で無い場合(S643にてNO)、S645へ進み、ジェスチャ認識部409は、「指先移動ジェスチャあり」と判定する。ここでの指先移動は例えば、タッチはしていないが指先が書画台204上に存在するジェスチャである。   In S643, the gesture recognition unit 409 determines whether or not the distance calculated in S642 is equal to or less than a predetermined value. The predetermined value here is a threshold value for determining whether the fingertip touches the document table 204 or a movement instruction operation, and is a value based on the movement of the fingertip. If it is equal to or smaller than the predetermined value (YES in S643), the process proceeds to S644, and the gesture recognition unit 409 determines that “touch gesture is present”, assuming that the fingertip touches the document table 204. If the calculated distance is not less than or equal to the predetermined value (NO in S643), the process proceeds to S645, and the gesture recognition unit 409 determines that “the fingertip movement gesture is present”. The fingertip movement here is, for example, a gesture in which the fingertip is present on the document table 204 without touching.

S605にて、ジェスチャ認識部409は、判定したジェスチャをメイン制御部402へ通知し、その後、S602へ戻ってジェスチャ認識処理を繰り返す。   In S605, the gesture recognition unit 409 notifies the determined gesture to the main control unit 402, and then returns to S602 to repeat the gesture recognition process.

これにより、書画台204およびその近傍でなされたジェスチャによる操作指示を受け付ける受付手段を実現する。   As a result, an accepting unit that accepts an operation instruction by a gesture made in the vicinity of the document table 204 is realized.

[物体検知部の処理]
図8のフローチャートを用いて物体検知部410の処理の説明を行う。処理を開始すると、図8(a)のS801にて、物体検知部410は、S811〜S813に示す初期化処理を行う。S811にて、物体検知部410は、カメラ画像取得部407からカメラ画像を1フレーム取得し、距離画像取得部408から距離画像を1フレーム取得する。S812にて、物体検知部410は、取得したカメラ画像を前フレームカメラ画像として保存する。S813にて、物体検知部410は、取得したカメラ画像および距離画像を書画台背景カメラ画像および書画台背景距離画像としてそれぞれ保存する。以降、「書画台背景カメラ画像」および「書画台背景距離画像」と記載した場合は、ここで取得したカメラ画像および距離画像のことを指す。つまり、書画台204の初期状態を認識させる。
[Processing of object detection unit]
The processing of the object detection unit 410 will be described using the flowchart of FIG. When the process is started, the object detection unit 410 performs an initialization process shown in S811 to S813 in S801 of FIG. In step S811, the object detection unit 410 acquires one frame of camera image from the camera image acquisition unit 407 and acquires one frame of distance image from the distance image acquisition unit 408. In S812, object detection unit 410 saves the acquired camera image as the previous frame camera image. In step S813, the object detection unit 410 stores the acquired camera image and distance image as a document table background camera image and a document table background distance image, respectively. In the following description, “document table background camera image” and “document table background distance image” refer to the camera image and distance image acquired here. That is, the initial state of the document table 204 is recognized.

S802にて、物体検知部410は、物体が書画台204上に置かれたことの検知(物体載置検知処理)を行う。処理の詳細は図8(b)、(c)を用いて後述する。   In step S802, the object detection unit 410 performs detection (object placement detection processing) that an object has been placed on the document table 204. Details of the processing will be described later with reference to FIGS. 8B and 8C.

S803にて、物体検知部410は、S802で載置を検知した書画台204上の物体が除去されることの検知(物体除去検知処理)を行う。処理の詳細は図8(d)を用いて後述する。   In step S803, the object detection unit 410 detects that the object on the document table 204 that has been placed in step S802 is removed (object removal detection processing). Details of the processing will be described later with reference to FIG.

(物体載置検知処理)
図8(b)は、S802の物体載置検知処理の詳細を示すフローチャートであり、1枚目の原稿に対する原稿載置検知処理である。図8(a)の初期化処理の後や、図8(d)の物体除去検知処理の後は、こちらの処理が行われる。ここで、画像取得部416にて、所定の間隔にて連続して画像群が撮影されているものとする。
(Object placement detection process)
FIG. 8B is a flowchart showing details of the object placement detection process in S802, which is a document placement detection process for the first document. This processing is performed after the initialization processing in FIG. 8A and after the object removal detection processing in FIG. 8D. Here, it is assumed that the image acquisition unit 416 continuously captures image groups at a predetermined interval.

S821にて、物体検知部410は、画像取得部416が取得した連続する画像群の中からカメラ画像と距離画像を1フレーム取得する。S822にて、物体検知部410は、S821にて取得したカメラ画像と、すでに保持されている前フレームカメラ画像との差分を計算し、その絶対値の総和を差分値として算出する。S823にて、物体検知部410は、算出した差分値が予め決めておいた所定値以上か否かを判定する。ここでの所定値は、予め定義され、HDD305等に保持されているものとする。   In step S821, the object detection unit 410 acquires one frame of the camera image and the distance image from the continuous image group acquired by the image acquisition unit 416. In S822, the object detection unit 410 calculates a difference between the camera image acquired in S821 and the previous frame camera image already held, and calculates the sum of absolute values as a difference value. In S823, object detection unit 410 determines whether or not the calculated difference value is equal to or greater than a predetermined value. Here, it is assumed that the predetermined value is defined in advance and held in the HDD 305 or the like.

算出した差分値が所定値未満であれば(S823にてNO)、物体検知部410は、書画台204上には「物体が無い」と判定し、S828へ進み、物体検知部410は、現フレームのカメラ画像と距離画像を前フレームカメラ画像と距離画像として保存する。その後、S821へ戻り、処理を続ける。差分値が所定値以上であれば(S823にてYES)、S824へ進み、物体検知部410は、S821で取得したカメラ画像と前フレームカメラ画像との差分値を、S822と同様に算出する。   If the calculated difference value is less than the predetermined value (NO in S823), object detection unit 410 determines that there is no object on document table 204, proceeds to S828, and object detection unit 410 The camera image and distance image of the frame are stored as the previous frame camera image and distance image. Thereafter, the process returns to S821 to continue the processing. If the difference value is equal to or greater than the predetermined value (YES in S823), the process proceeds to S824, and the object detection unit 410 calculates the difference value between the camera image acquired in S821 and the previous frame camera image in the same manner as S822.

S825にて、物体検知部410は、算出した差分値が予め決めておいた所定値以下であるか否かを判定する。ここでの所定値は、予め定義され、HDD305等に保持されているものとする。なお、S823にて用いた所定値と同じ値を用いても良いし、異なる値を用いても構わない。算出した差分値が所定値よりも大きければ(S825にてNO)、物体検知部410は、「書画台204上の物体が動いている」と判定し、S828へ進み、現フレームのカメラ画像を前フレームカメラ画像として保存する。その後、S821へ戻り、処理を続ける。算出した差分値が所定値以下であれば(S825にてYES)、S826へ進む。このとき、物体検知部410は、算出した差分値が所定値以下であると連続して判定された回数をカウントしておくものとする。   In S825, object detection unit 410 determines whether or not the calculated difference value is equal to or smaller than a predetermined value. Here, it is assumed that the predetermined value is defined in advance and held in the HDD 305 or the like. Note that the same value as the predetermined value used in S823 may be used, or a different value may be used. If the calculated difference value is larger than the predetermined value (NO in S825), object detection unit 410 determines that “the object on document table 204 is moving”, and proceeds to S828, where the camera image of the current frame is displayed. Save as previous frame camera image. Thereafter, the process returns to S821 to continue the processing. If the calculated difference value is equal to or smaller than the predetermined value (YES in S825), the process proceeds to S826. At this time, the object detection unit 410 counts the number of times that the calculated difference value is continuously determined to be equal to or less than a predetermined value.

S826にて、物体検知部410は、S825において連続して所定値以下と判定された回数が閾値以上か否か(つまり、書画台204上の物体が静止した状態が、予め決めておいたフレーム数続いたか否か)を判定する。書画台204上の物体が静止した状態が予め決めておいたフレーム数続いていない場合(S826にてNO)、S828へ進む。S828にて、物体検知部410は、現フレームのカメラ画像と距離画像を前フレームカメラ画像と距離画像として保存する。その後、S821へ戻り、処理を続ける。   In S826, the object detection unit 410 determines whether or not the number of times continuously determined to be equal to or less than the predetermined value in S825 is equal to or greater than the threshold (that is, the predetermined frame indicates that the object on the document table 204 is stationary). It is determined whether or not the number has continued. If the state on which the object on the document table 204 is stationary does not continue for the predetermined number of frames (NO in S826), the process proceeds to S828. In S828, object detection unit 410 saves the current frame camera image and distance image as the previous frame camera image and distance image. Thereafter, the process returns to S821 to continue the processing.

書画台204上の物体が静止した状態が予め決めておいたフレーム数続いた場合(S826にてYES)、S827へ進み、物体検知部410は、物体が置かれたことをメイン制御部402へ通知する。そして、物体載置検知処理を終了する。   If the object on the document table 204 is stationary for a predetermined number of frames (YES in S826), the process proceeds to S827, and the object detection unit 410 notifies the main control unit 402 that the object has been placed. Notice. Then, the object placement detection process ends.

図8(c)は、S802の物体載置検知処理の詳細を示すフローチャートであり、2枚目以降の原稿に対する原稿載置検知処理である。図8(b)と同じ処理については同じ番号を付して、説明は省略する。   FIG. 8C is a flowchart showing details of the object placement detection process in S802, which is a document placement detection process for the second and subsequent documents. The same processes as those in FIG. 8B are denoted by the same reference numerals and description thereof is omitted.

S831にて、物体検知部410は、取得した距離画像と前フレーム距離画像との差分を計算してその絶対値を合計した差分値を算出する。2枚目の原稿に対する最初のフレームの処理では、前フレーム距離画像は図8(b)のS828で得られる画像を用いる。   In step S831, the object detection unit 410 calculates a difference between the acquired distance image and the previous frame distance image and sums the absolute values. In the process of the first frame for the second document, the image obtained in S828 of FIG. 8B is used as the previous frame distance image.

S832にて、物体検知部410は、算出した差分値が予め決めておいた所定値以上か否かを判定する。ここでの所定値は予め定義され、HDD305等に保持されているものとする。算出した差分値が所定値未満であれば(S832にてNO)、物体検知部410は、新しい原稿(未検知の原稿)が写りこんでいないと判定し、S828へ進む。差分値が所定値以上であれば(S832にてYES)、物体検知部410は、新しい原稿が写りこんでいると判定し、S833へ進み、原稿輪郭算出処理を行う。処理の詳細は図8(e)、図11を用いて後述する。   In S832, object detection unit 410 determines whether or not the calculated difference value is equal to or greater than a predetermined value. Here, it is assumed that the predetermined value is defined in advance and held in the HDD 305 or the like. If the calculated difference value is less than the predetermined value (NO in S832), object detection unit 410 determines that a new document (undetected document) is not captured, and proceeds to S828. If the difference value is equal to or greater than the predetermined value (YES in S832), object detection unit 410 determines that a new document is captured, proceeds to S833, and performs document contour calculation processing. Details of the processing will be described later with reference to FIGS.

(物体除去検知処理)
図8(d)は、S803の物体除去検知処理の詳細フローチャートである。物体除去検知処理を開始すると、S841にて、物体検知部410は、カメラ画像取得部407からカメラ画像を1フレーム取得する。S842にて、物体検知部410は、取得したカメラ画像と書画台背景カメラ画像との差分値を算出する。S843にて、物体検知部410は、算出した差分値が予め決めておいた所定値以下か否かを判定する。ここでの所定値は予め定義され、HDD305等に保持されているものとする。なお、図8(b)のS823にて用いた値と同じものを用いてもよい。
(Object removal detection process)
FIG. 8D is a detailed flowchart of the object removal detection process in S803. When the object removal detection process is started, the object detection unit 410 acquires one frame of the camera image from the camera image acquisition unit 407 in S841. In S842, object detection unit 410 calculates a difference value between the acquired camera image and the document table background camera image. In S843, object detection unit 410 determines whether or not the calculated difference value is equal to or less than a predetermined value. Here, it is assumed that the predetermined value is defined in advance and held in the HDD 305 or the like. Note that the same value as that used in S823 in FIG. 8B may be used.

算出した差分値が所定値よりも大きければ(S843にてNO)、書画台204上にまだ物体が存在するため、S841へ戻り、処理を続ける。算出した差分値が所定値以下であれば(S843にてYES)、物体検知部410は、書画台204上の物体が無くなったと判定し、物体除去をメイン制御部402へ通知する。その後、物体除去検知処理を終了する。   If the calculated difference value is larger than the predetermined value (NO in S843), there is still an object on the document table 204, so the process returns to S841 to continue the processing. If the calculated difference value is equal to or smaller than the predetermined value (YES in S843), object detection unit 410 determines that there is no object on document table 204, and notifies main control unit 402 of object removal. Thereafter, the object removal detection process is terminated.

(原稿輪郭算出処理)
図8(e)は、S833の原稿輪郭算出処理の詳細を示すフローチャートである。図11は、原稿輪郭算出処理を説明するための模式図である。本実施形態では、書画台204の平面を示す領域と距離画像から得られる原稿領域との距離が、カメラ部202の被写界深度によって決まる所定値以内となった初めてのフレームに対してのみ原稿輪郭算出処理を行う。つまり、原稿が書画台204に配置された時点での画像に対してのみ、原稿の輪郭の算出を行う。
(Document contour calculation processing)
FIG. 8E is a flowchart showing details of the document contour calculation processing in S833. FIG. 11 is a schematic diagram for explaining the document contour calculation processing. In the present embodiment, only the first frame in which the distance between the area indicating the plane of the document table 204 and the document area obtained from the distance image is within a predetermined value determined by the depth of field of the camera unit 202 is recorded. Contour calculation processing is performed. That is, the outline of the document is calculated only for the image at the time when the document is placed on the document table 204.

原稿輪郭算出処理を開始すると、S851にて、原稿輪郭算出部424は、原稿領域抽出部419を用いて距離画像から原稿領域を抽出する。図11(a)は、2枚目の原稿を書画台204に置く過程でのカメラ画像の例を示す。図11(b)は、2枚目の原稿を書画台204に置く過程での距離画像の例である。図11(b)では、距離画像センサ部208からの距離が遠くなればなるほど、距離画像においてその位置の値は暗くなる。図11(c)は、前フレーム距離画像との差分画像を示す。ここでは、前フレーム距離画像と現フレーム距離画像との差分のある領域を原稿領域として判断する。もちろん、距離画像にも原稿を持っている手が写る場合があるが、手に対応する領域は例えば前述したジェスチャ認識部409のS603の処理で検出して原稿領域とは切り離すことが可能である。   When the document contour calculation process is started, the document contour calculation unit 424 uses the document region extraction unit 419 to extract a document region from the distance image in S851. FIG. 11A shows an example of a camera image in the process of placing the second original on the document table 204. FIG. 11B is an example of a distance image in the process of placing the second original on the document table 204. In FIG. 11B, as the distance from the distance image sensor unit 208 increases, the position value in the distance image becomes darker. FIG. 11C shows a difference image from the previous frame distance image. Here, an area having a difference between the previous frame distance image and the current frame distance image is determined as the document area. Of course, there may be a hand holding the document in the distance image, but the region corresponding to the hand can be detected and separated from the document region by, for example, the processing in S603 of the gesture recognition unit 409 described above. .

S852にて、原稿輪郭算出部424は、原稿領域と書画台204の距離が所定値以下になったか否かを判定する。この所定値は、すでに原稿が書画台204に載置されている上に、2枚目以降の原稿が重ねて載置されようとして近づいたか否かを示す閾値である。この所定値は、予め定義され、HDD305等に保持されているものとする。つまり所定値以下ではない場合(S852にてNO)、原稿輪郭算出部424は、原稿が書画台204に配置されていないと判定し、原稿輪郭算出処理は行わずに処理を終了する。所定値以下の場合(S852にてYES)、S853に進み、原稿輪郭算出部424は、S852でYESとなった初めてのフレームであるか否かを判定する。すなわち、以前のフレームにおいて、対応する原稿が書画台204に所定の距離以上近づいたことをすでに検知しているか否かを判定する。初めてのフレームではない場合(S853にてNO)、原稿輪郭算出部424は、原稿輪郭算出処理は行わずに処理を終了する。   In step S852, the document contour calculation unit 424 determines whether the distance between the document area and the document table 204 has become a predetermined value or less. This predetermined value is a threshold value indicating whether or not an original is already placed on the document table 204 and the second and subsequent originals are approaching each other in an overlapping manner. This predetermined value is defined in advance and held in the HDD 305 or the like. In other words, if it is not less than the predetermined value (NO in S852), document outline calculation unit 424 determines that the document is not placed on document table 204, and ends the process without performing the document outline calculation process. If it is equal to or smaller than the predetermined value (YES in S852), the process proceeds to S853, and the document contour calculation unit 424 determines whether or not it is the first frame in which YES is determined in S852. That is, it is determined whether or not it has already been detected in the previous frame that the corresponding document has approached the document table 204 by a predetermined distance or more. If it is not the first frame (NO in S853), the document contour calculation unit 424 ends the process without performing the document contour calculation process.

初めてのフレームである場合(S853にてYES)、S854に進み、原稿輪郭算出部424は、カメラ画像と距離画像から原稿領域を切り出し、書画台204と平行な平面上に対応付けて配置する。具体的には、S851で距離画像から原稿領域は切り出せているため、原稿輪郭算出部424は、カメラ画像を距離画像座標系に変換して、カメラ画像から原稿領域を切り出す。切り出したカメラ画像と距離画像の原稿領域をそれぞれ図11(d)、図11(e)に示す。原稿輪郭算出部424は、これらの画像を書画台204と平行な平面上に配置する。つまり、原稿輪郭算出部424は、書画台204の直交座標系に変換する。   If it is the first frame (YES in S853), the process advances to S854, where the document contour calculation unit 424 extracts a document region from the camera image and the distance image and arranges the document region in association with a plane parallel to the document table 204. Specifically, since the document area can be cut out from the distance image in S851, the document outline calculation unit 424 converts the camera image into the distance image coordinate system, and cuts out the document area from the camera image. FIG. 11D and FIG. 11E show the document areas of the cut-out camera image and distance image, respectively. The document contour calculation unit 424 arranges these images on a plane parallel to the document table 204. That is, the document contour calculation unit 424 converts the document into the orthogonal coordinate system of the document table 204.

図11(d)、図11(e)の例では2次元歪みの変換となるが、一般的には手に持った原稿は3次元に歪むため、3次元歪みを変換する方法を採用する必要がある。変換の方法としては、例えば「可展面モデルを用いた非剛体変形の推定」(中島崇ほか、“可展面モデルを用いた非剛体変形の推定”、2009年7月22日、第12回画像の認識・理解シンポジウム(MIRU2009))を用いて平面展開をすることが可能である。カメラ画像と距離画像から切り出した原稿領域を書画台204の直交座標系に変換した画像をそれぞれ図11(f)、図11(g)に示す。この例では、Z軸方向は、距離画像の原稿領域の中で最も書画台204に近い位置に合わせて平面展開している(この時のZ軸方向の値をZ0とする)。   In the examples of FIGS. 11D and 11E, the conversion is a two-dimensional distortion. Generally, since a document held in a hand is distorted three-dimensionally, it is necessary to adopt a method of converting the three-dimensional distortion. There is. As a conversion method, for example, “Estimation of non-rigid body deformation using a developable surface model” (Takashi Nakajima et al., “Estimation of non-rigid body deformation using a developable surface model”, July 22, 2009, No. 12 It is possible to develop a flat image using the symposium on recognition and understanding of images (MIRU 2009). FIGS. 11 (f) and 11 (g) show images obtained by converting the document area cut out from the camera image and the distance image into the orthogonal coordinate system of the document table 204, respectively. In this example, the Z-axis direction is flattened in accordance with the position closest to the document table 204 in the document area of the distance image (the value in the Z-axis direction at this time is Z0).

S855にて、原稿輪郭算出部424は、変換したカメラ画像の原稿領域から特徴点を抽出する。特徴点抽出方法としては、照明の変化や回転、拡大縮小に比較的強い耐性をもつ特徴点算出手法であるSIFT(Scale−invariant feature transform)など、様々な方法が提案されており、ここでの詳細説明は割愛する。図11(h)は、図11(f)の画像から特徴点を抽出した例である。図11(h)において、特徴点は黒い点(●)で表わされており、特徴点1103、1104など計24個の特徴点が抽出されている。特徴点1103、1104の書画台204の直交座標系での位置はそれぞれ(X1103、Y1103、Z0)、(X1104、Y1104、Z0)である。   In step S855, the document contour calculation unit 424 extracts feature points from the document region of the converted camera image. As a feature point extraction method, various methods such as SIFT (Scale-invariant feature transform), which is a feature point calculation method having relatively strong resistance to change, rotation, and enlargement / reduction of illumination, have been proposed. Detailed explanation is omitted. FIG. 11H is an example in which feature points are extracted from the image of FIG. In FIG. 11H, the feature points are represented by black points (●), and a total of 24 feature points such as feature points 1103 and 1104 are extracted. The positions of the feature points 1103 and 1104 in the rectangular coordinate system of the document table 204 are (X1103, Y1103, Z0) and (X1104, Y1104, Z0), respectively.

S856にて、原稿輪郭算出部424は、変換したカメラ画像から原稿の輪郭を抽出する。これは、S854の処理で変換したカメラ画像の最外郭となり、図11(i)のようになる。S857にて、原稿輪郭算出部424は、S855で抽出した特徴点間の距離と、S856で抽出した輪郭との距離を算出する。図11(j)の例では、特徴点1103、1104間の距離をD1とする。特徴点1103と原稿の輪郭の左辺、右辺、上辺、下辺との距離をそれぞれD2、D3、D4、D5とする。特徴点1103と原稿の輪郭の交点の座標をそれぞれP2、P3、P4、P5とする。特徴点1104と原稿の輪郭の左辺、右辺、上辺、下辺との距離をそれぞれD6、D7、D8、D9とする。特徴点1104と原稿の輪郭の交点の座標をそれぞれP6、P7、P8、P9とする。原稿輪郭算出部424は、他の特徴点についても距離の計算を行って、特徴点間の関係を導出し、原稿輪郭算出処理を終了する。   In step S856, the document contour calculation unit 424 extracts the document contour from the converted camera image. This is the outermost contour of the camera image converted by the processing of S854, and is as shown in FIG. In step S857, the document contour calculation unit 424 calculates the distance between the feature points extracted in step S855 and the contour extracted in step S856. In the example of FIG. 11 (j), the distance between the feature points 1103 and 1104 is D1. The distances between the feature point 1103 and the left side, right side, top side, and bottom side of the outline of the document are D2, D3, D4, and D5, respectively. Assume that the coordinates of the intersection of the feature point 1103 and the document outline are P2, P3, P4, and P5, respectively. The distances between the feature point 1104 and the left side, right side, top side, and bottom side of the outline of the document are D6, D7, D8, and D9, respectively. The coordinates of the intersection of the feature point 1104 and the outline of the document are P6, P7, P8, and P9, respectively. The document contour calculation unit 424 calculates the distance for other feature points, derives the relationship between the feature points, and ends the document contour calculation process.

[平面原稿画像撮影部の説明]
図9(a)、(b)のフローチャートを用いて、平面原稿画像撮影部411が実行する処理を説明する。図9(a)は、1枚目の原稿に対して平面原稿画像撮影部411が実行する処理のフローチャートであり、図10は処理を説明するための模式図である。
[Description of flat document image capture unit]
The processing executed by the flat document image photographing unit 411 will be described with reference to the flowcharts of FIGS. FIG. 9A is a flowchart of processing executed by the flat document image photographing unit 411 for the first document, and FIG. 10 is a schematic diagram for explaining the processing.

処理を開始すると、S901にて、平面原稿画像撮影部411は、カメラ画像取得部407を介してカメラ部202からの画像を1フレーム取得する。ここで、カメラ部202の座標系は図2(b)で示したように書画台204に正対していない。そのため、このときの撮影画像は、図10(a)に示すように対象物1001、書画台204ともに歪んでいる。   When the process is started, the planar document image photographing unit 411 acquires one frame of the image from the camera unit 202 via the camera image acquisition unit 407 in S901. Here, the coordinate system of the camera unit 202 does not face the document table 204 as shown in FIG. For this reason, the photographed image at this time is distorted in both the object 1001 and the document table 204 as shown in FIG.

S902にて、平面原稿画像撮影部411は、書画台背景カメラ画像とS901で取得したカメラ画像との画素毎の差分を算出し、差分画像を生成した上で、差分のある画素を黒、差分の無い画素を白となるように二値化する。その結果、ここで生成した差分画像は、図10(b)の差分領域1002のように、対象物1001の領域が黒色である(差分がある)画像となる。   In step S902, the planar document image photographing unit 411 calculates a pixel-by-pixel difference between the document table background camera image and the camera image acquired in step S901, generates a difference image, and sets the difference pixel to black. Binarization is performed so that pixels with no white become white. As a result, the difference image generated here is an image in which the area of the object 1001 is black (there is a difference), like the difference area 1002 in FIG.

S903にて、平面原稿画像撮影部411は、差分領域1002を用いて、図10(c)のように対象物1001のみの画像を抽出する。S904にて、平面原稿画像撮影部411は、抽出した原稿領域画像に対して階調補正を行う。S905にて、平面原稿画像撮影部411は、抽出した原稿領域画像に対してカメラ座標系から書画台204への射影変換を行い、図10(d)のように書画台204の真上から見た画像1003に変換する。ここで用いる射影変換パラメータは、ジェスチャ認識部409の処理において、前述した図6のS601で算出した平面パラメータとカメラ座標系から求めることができる。   In step S903, the planar document image photographing unit 411 uses the difference area 1002 to extract an image of only the object 1001 as illustrated in FIG. In step S904, the planar document image photographing unit 411 performs gradation correction on the extracted document area image. In step S905, the planar document image photographing unit 411 performs projective transformation from the camera coordinate system to the document table 204 with respect to the extracted document region image, and the image is viewed from directly above the document table 204 as shown in FIG. Converted to the image 1003. The projective transformation parameters used here can be obtained from the plane parameters calculated in S601 of FIG. 6 and the camera coordinate system in the processing of the gesture recognition unit 409.

なお、図10(d)に示したように、書画台204上への原稿の置き方により、ここで得られる画像1003は傾いている場合がある。そこで、S906にて、平面原稿画像撮影部411は、画像1003を矩形近似してから、その矩形が水平になるように回転し、図9(e)で示した画像1004のように傾きの無い画像を得る。図10(f)に示すように、基準ラインに対しての矩形の傾きθ1およびθ2を算出し、傾きが小さい方(ここではθ1)を画像1003の回転角度として決定する。あるいは、図10(g)および図10(h)に示すように、画像1003中に含まれる文字列に対してOCR処理を行い、文字列の傾きから画像1003の回転角度の算出および天地判定処理をしてもよい。   Note that, as shown in FIG. 10D, the image 1003 obtained here may be inclined depending on how the document is placed on the document table 204. In step S906, the flat document image photographing unit 411 approximates the image 1003 to a rectangle and then rotates the rectangle so that the rectangle becomes horizontal, and there is no inclination as in the image 1004 shown in FIG. Get an image. As shown in FIG. 10F, rectangular inclinations θ1 and θ2 with respect to the reference line are calculated, and the smaller inclination (here, θ1) is determined as the rotation angle of the image 1003. Alternatively, as shown in FIG. 10G and FIG. 10H, the OCR process is performed on the character string included in the image 1003, the rotation angle of the image 1003 is calculated from the inclination of the character string, and the top / bottom determination process. You may do.

S907にて、平面原稿画像撮影部411は、抽出した画像1004に対して、予め決めておいた画像フォーマットに合わせて圧縮およびファイルフォーマット変換を行う。画像フォーマットとしては、例えば、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、PDF(Portable Document Format)等がある。そして、平面原稿画像撮影部411は、データ管理部405を介してHDD305の所定の領域へファイルとして保存し、処理を終了する。   In step S907, the planar document image photographing unit 411 performs compression and file format conversion on the extracted image 1004 in accordance with a predetermined image format. Examples of the image format include JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), and PDF (Portable Document Format). Then, the flat document image photographing unit 411 stores the file as a file in a predetermined area of the HDD 305 via the data management unit 405, and ends the process.

図9(b)は、2枚目以降の原稿に対して平面原稿画像撮影部411が実行する処理のフローチャートで、図12は処理を説明するための模式図である。図9(a)と同じ処理については同じ番号を付して、説明は省略する。   FIG. 9B is a flowchart of processing executed by the flat original image photographing unit 411 for the second and subsequent originals, and FIG. 12 is a schematic diagram for explaining the processing. The same processes as those in FIG. 9A are denoted by the same reference numerals and description thereof is omitted.

S911にて、平面原稿画像撮影部411は、取得したカメラ画像(図12(a))を書画台204の直交座標系に射影変換する。その結果、図12(b)のような画像が得られる。S912にて、平面原稿画像撮影部411は、射影変換したカメラ画像の特徴点を抽出する。特徴点の抽出方法は、図8(e)のS853で用いた方法と同じ方法を用いる。図12(c)は、図12(b)の画像から特徴点を抽出した例である。図12(c)において、特徴点は黒い点(●)で表わされており、特徴点1203、1204など計27個の特徴点が抽出されている。特徴点1203、1204の書画台204の直交座標系での位置はそれぞれ(X1203、Y1203、0)、(X1204、Y1204、0)である。   In step S <b> 911, the planar document image photographing unit 411 performs projective transformation on the acquired camera image (FIG. 12A) to the orthogonal coordinate system of the document table 204. As a result, an image as shown in FIG. 12B is obtained. In step S912, the planar document image photographing unit 411 extracts feature points of the camera image subjected to projective transformation. As the feature point extraction method, the same method as that used in S853 of FIG. FIG. 12C is an example in which feature points are extracted from the image of FIG. In FIG. 12C, the feature points are represented by black points (●), and a total of 27 feature points such as feature points 1203 and 1204 are extracted. The positions of the feature points 1203 and 1204 in the rectangular coordinate system of the document table 204 are (X1203, Y1203, 0) and (X1204, Y1204, 0), respectively.

S913にて、平面原稿画像撮影部411は、S855で得られた特徴点と、S912で得られた特徴点を比較し、一致する特徴点を残す。完全に一致しなくても、一致度が予め決められた値以上であれば一致したとみなしても良い。図12(d)では24個の特徴点が一致し、特徴点1203、1204はそれぞれ図11(h)の特徴点1103、1104と一致したとする。   In step S913, the planar document image photographing unit 411 compares the feature point obtained in step S855 with the feature point obtained in step S912, and leaves a matching feature point. Even if they do not match completely, they may be considered to be matched if the degree of matching is not less than a predetermined value. In FIG. 12D, it is assumed that 24 feature points match and the feature points 1203 and 1204 match the feature points 1103 and 1104 in FIG. 11H, respectively.

S914にて、平面原稿画像撮影部411は、特徴点間の距離を算出する。図12(e)の例では、特徴点1203、1204間の距離をD1’とする。他の特徴点についても距離の計算を行う。S915にて、平面原稿画像撮影部411は、原稿の輪郭を算出する。S857で算出した特徴点間の距離および特徴点と輪郭との距離と、S914で算出した特徴点間の距離および特徴点と輪郭との距離とは相似の関係にあるため、特徴点と原稿の輪郭との距離が導出できる。また、S857で算出した特徴点の座標と原稿の輪郭の交点の座標と、S914で算出した特徴点の座標および特徴点と原稿の輪郭の交点の座標の位置関係も相似の関係にあるため、特徴点と原稿の輪郭との交点も導出できる。以上により2枚目以降の原稿の輪郭が算出できる。算出された原稿の輪郭の例を図12(f)に示す。つまり、同じ原稿であれば、撮影状態が変動したとしても、特徴点の間の関係は変動しない。よって、2枚目以降の原稿をすでに載置されている原稿に重ね置きする前後の画像それぞれから、その重ね置きする側の原稿に対する領域を抽出し、その特徴点の対応関係から2枚目以降の原稿の載置後の輪郭を特定する。   In step S914, the planar document image photographing unit 411 calculates the distance between feature points. In the example of FIG. 12E, the distance between the feature points 1203 and 1204 is D1 '. The distance is also calculated for other feature points. In S915, planar document image photographing unit 411 calculates the contour of the document. Since the distance between the feature points calculated in S857 and the distance between the feature points and the contour and the distance between the feature points calculated in S914 and the distance between the feature points and the contour are similar to each other, The distance to the contour can be derived. Further, since the coordinates of the intersection of the feature point calculated in S857 and the outline of the document and the coordinates of the feature point calculated in S914 and the coordinates of the intersection of the feature point and the outline of the document are similar, Intersections between feature points and document outlines can also be derived. Thus, the contours of the second and subsequent documents can be calculated. An example of the calculated document outline is shown in FIG. That is, for the same original, even if the shooting state changes, the relationship between the feature points does not change. Therefore, an area for the document on the side of the document to be placed is extracted from each of the images before and after the second and subsequent documents are placed on the already placed document, and the second and subsequent pages are determined from the correspondence of the feature points. The outline after placing the original is specified.

S916にて、平面原稿画像撮影部411は、S915で算出した原稿の輪郭に沿って原稿を切り出す。S917にて、平面原稿画像撮影部411は、S906と同様の方法で切り出した原稿が水平になるように回転する。   In step S916, the flat original image photographing unit 411 cuts out the original along the outline of the original calculated in step S915. In step S917, the flat document image photographing unit 411 rotates so that the document cut out in the same manner as in step S906 is horizontal.

[メイン制御部の説明]
図13のフローチャートを用いてメイン制御部402が実行するスキャンアプリケーションの処理について説明する。
[Description of main control unit]
Processing of the scan application executed by the main control unit 402 will be described using the flowchart of FIG.

処理を開始すると、S1301にて、メイン制御部402は、書画台204にスキャンの対象物の載置を検知するために物体載置待ち処理を行う。物体載置待ち処理を開始すると、S1311にて、メイン制御部402は、ユーザインターフェイス部403のGUI部品生成表示部414を介して、書画台204にプロジェクタ207によって初期画面を投射表示する。例えば、図14(a)に示すような書画台204上に対象物を置くことをユーザに促すメッセージ1441のGUI部品を生成し表示する。   When the process is started, in step S1301, the main control unit 402 performs an object placement waiting process in order to detect placement of an object to be scanned on the document table 204. When the object placement waiting process is started, the main control unit 402 projects and displays an initial screen on the document stage 204 by the projector 207 via the GUI part generation / display unit 414 of the user interface unit 403 in S1311. For example, a GUI component of a message 1441 that prompts the user to place an object on the document table 204 as shown in FIG. 14A is generated and displayed.

S1312にて、メイン制御部402は、物体検知部410の処理を起動する。物体検知部410は図8のフローチャートで説明した処理の実行を開始する。S1313にて、メイン制御部402は、物体検知部410からの物体載置通知を待つ。物体検知部410が図8(b)(c)のS827の処理を実行して物体載置をメイン制御部402へ通知すると、S1313にて、メイン制御部402は、「物体載置通知あり」と判定する(S1313にてYES)。   In step S1312, the main control unit 402 activates the processing of the object detection unit 410. The object detection unit 410 starts executing the process described with reference to the flowchart of FIG. In step S <b> 1313, the main control unit 402 waits for an object placement notification from the object detection unit 410. When the object detection unit 410 executes the processing of S827 in FIGS. 8B and 8C and notifies the main placement to the main control unit 402, in S1313, the main control unit 402 indicates “There is an object placement notification”. (YES in S1313).

S1301の物体載置待ち処理を終了すると、メイン制御部402は、S1302にて、スキャン操作を行うためのメニュー表示であるGUI部品を表示する。例えば、メイン制御部402は、図14(b)のようなスキャン処理モードを設定するためのメニューボタン(1442〜1444)で構成されるGUI部品を生成する。そして、メイン制御部402は、GUI部品生成表示部414を介して、書画台204にプロジェクタ207によってGUI部品を初期投射する。   When the object placement waiting process in S1301 ends, the main control unit 402 displays a GUI component that is a menu display for performing a scanning operation in S1302. For example, the main control unit 402 generates a GUI component including menu buttons (1442 to 1444) for setting a scan processing mode as shown in FIG. Then, the main control unit 402 initially projects the GUI component on the document table 204 by the projector 207 via the GUI component generation / display unit 414.

GUI部品更新処理の後、S1303にて、メイン制御部402は、スキャン実行処理を行う。スキャン実行処理の開始時には、図14(b)に示したスキャン開始画面が、GUI部品生成表示部414を介して書画台204に投射されている。2Dスキャンボタン1442は、平面原稿の撮影指示を受け付けるボタンである。書籍スキャンボタン1443は、書籍原稿の撮影指示を受け付けるボタンである。3Dスキャンボタン1444は、立体形状の測定指示を受け付けるボタンである。   After the GUI component update process, in step S1303, the main control unit 402 performs a scan execution process. At the start of the scan execution process, the scan start screen shown in FIG. 14B is projected on the document stage 204 via the GUI component generation display unit 414. The 2D scan button 1442 is a button for accepting an instruction for photographing a flat original. The book scan button 1443 is a button for accepting a book document shooting instruction. The 3D scan button 1444 is a button for receiving a three-dimensional shape measurement instruction.

ユーザインターフェイス部403は、前述したようにジェスチャ認識部409から通知されるタッチジェスチャの座標とこれらのボタンを表示している座標から、いずれかのボタンがユーザによって押下されたことを検知する。以降、ユーザインターフェイス部403による検知の説明を省略して「ボタンへのタッチを検知する」と記載する。また、ユーザインターフェイス部403は、2Dスキャンボタン1442、書籍スキャンボタン1443、もしくは3Dスキャンボタン1444へのタッチを検知すると、選択したスキャン実行を行う。あるいは、選択したスキャンの実行開始指示を受け付けるスキャン開始ボタンを別途配置し、2Dスキャンボタン1442、書籍スキャンボタン1443、および3Dスキャンボタン1444のそれぞれを排他的に選択できるようにしてもよい。その際には、ユーザのいずれかのボタンへのタッチを検知すると、ユーザインターフェイス部403は、タッチされたボタンを選択状態とし、他のボタンの選択を解除する。   As described above, the user interface unit 403 detects that one of the buttons has been pressed by the user from the coordinates of the touch gesture notified from the gesture recognition unit 409 and the coordinates at which these buttons are displayed. Hereinafter, description of detection by the user interface unit 403 is omitted, and “detection of touch on a button” is described. When the user interface unit 403 detects a touch on the 2D scan button 1442, the book scan button 1443, or the 3D scan button 1444, the user interface unit 403 executes the selected scan. Alternatively, a scan start button that receives an instruction to start executing the selected scan may be separately arranged so that each of the 2D scan button 1442, the book scan button 1443, and the 3D scan button 1444 can be exclusively selected. In that case, when detecting the touch of any button of the user, the user interface unit 403 selects the touched button and cancels the selection of the other buttons.

S1331にて、メイン制御部402は、メニューボタン(1442〜1444)のタッチを検知するまで待つ。タッチされたスキャン開始ボタンが2Dスキャンボタン1442の場合、S1332へ進み、メイン制御部402は、平面原稿画像撮影部411の処理を実行する。書籍スキャンボタン1443の場合、S1333へ進み、メイン制御部402は、書籍画像撮影部412の処理を実行する。また、3Dスキャンボタン1444の場合、S1334へ進み、メイン制御部402は、立体形状測定部413の処理を実行する。そしてS1332〜S1334のいずれかによる処理が終了すると、スキャン実行処理を終了する。   In step S1331, the main control unit 402 waits until it detects a touch of the menu button (1442 to 1444). If the touched scan start button is the 2D scan button 1442, the process proceeds to S1332, and the main control unit 402 executes the process of the flat document image photographing unit 411. In the case of the book scan button 1443, the process proceeds to S1333, and the main control unit 402 executes the process of the book image photographing unit 412. In the case of the 3D scan button 1444, the process proceeds to S1334, and the main control unit 402 executes the process of the three-dimensional shape measurement unit 413. When the process according to any one of S1332 to S1334 ends, the scan execution process ends.

S1303のスキャン実行処理の後、メイン制御部402は、S1304にて物体除去待ち処理・物体載置待ち処理を行う。物体除去待ち処理・物体載置待ち処理を開始すると、S1341にて、GUI部品生成表示部414は、スキャン終了画面を表示する。例えば、図14(c)に示すようなスキャンが終了した旨をユーザに通知するメッセージ1445のGUI部品を生成し投射する。   After the scan execution processing in S1303, the main control unit 402 performs object removal waiting processing / object placement waiting processing in S1304. When the object removal waiting process / object placement waiting process is started, the GUI component generation display unit 414 displays a scan end screen in S1341. For example, a GUI component of a message 1445 for notifying the user that the scan as shown in FIG.

S1342およびS1343にて、メイン制御部402は、物体検知部410からの物体載置通知、もしくは物体除去通知を受信するのを待つ。物体除去通知は、物体検知部410が図8のS844で通知するものである。物体載置通知を受信すると(S1342にてYES)、S1302に戻り、処理を継続する。物体除去通知を受信すると(S1343にてYES)、物体除去待ち処理を終了する。   In S 1342 and S 1343, the main control unit 402 waits to receive an object placement notification or an object removal notification from the object detection unit 410. The object removal notification is notified by the object detection unit 410 in S844 in FIG. When the object placement notification is received (YES in S1342), the process returns to S1302, and the process is continued. When the object removal notification is received (YES in S1343), the object removal waiting process is terminated.

S1304の物体除去待ち処理・物体載置待ち処理の後、メイン制御部402は、S1305へ進み、スキャン終了判定処理を行う。スキャン終了判定は、ネットワークI/F306を介してホストコンピュータ102から送信されるスキャン終了命令や、LCDタッチパネル330から入力される終了命令、あるいはタイマー設定(不図示)などにより行われるものとする。スキャン終了命令を受信した場合(S1304にてYES)、メイン制御部402は、スキャン処理を終了する。スキャン処理を継続する場合(S1304にてNO)、S1301へ戻り、図14(a)の初期画面を表示して書画台204への物体載置を待つ。   After the object removal waiting process / object placement waiting process of S1304, the main control unit 402 proceeds to S1305 and performs a scan end determination process. The scan end determination is made based on a scan end command transmitted from the host computer 102 via the network I / F 306, an end command input from the LCD touch panel 330, or a timer setting (not shown). If a scan end command has been received (YES in S1304), main control unit 402 ends the scan process. When the scanning process is continued (NO in S1304), the process returns to S1301, and the initial screen of FIG. 14A is displayed to wait for the object placement on the document table 204.

なお、図14に示す画面の構成は一例であり、他の画面やメッセージを表示するようにしてもよい。以上により、ユーザが複数の原稿をスキャンしたい場合に、書画台204上の原稿を取り換えたことを検知することができ、複数の原稿のスキャンを連続して実行できる。   Note that the screen configuration shown in FIG. 14 is merely an example, and other screens and messages may be displayed. As described above, when the user wants to scan a plurality of documents, it can detect that the document on the document table 204 has been replaced, and a plurality of documents can be continuously scanned.

以上、原稿が重ね置きされようとしている状態で、重ねられる側の原稿の情報を取得することで、重ね置きされた際に原稿の輪郭を適切に算出することができる。   As described above, when the document is about to be stacked, the information of the document on the side to be stacked is acquired, so that the outline of the document can be appropriately calculated when the document is stacked.

なお、本実施形態では1枚目の原稿に対する処理と2枚目以降の原稿に対する処理を分けて記載したが、1枚目の原稿から図8(c)、図9(b)の処理を行うようにしても良い。   In the present embodiment, the process for the first original and the process for the second and subsequent originals are described separately, but the processes shown in FIGS. 8C and 9B are performed from the first original. You may do it.

また、本実施形態では原稿輪郭算出処理は1度だけ行った。しかし、別の処理方法として、図8(f)のフローチャートのS861のように、抽出した原稿領域と書画台の距離が所定の範囲内である場合に、後続の処理を行うようにしてもよい。その場合(S861にてYES)、原稿輪郭算出部424は、原稿を載置するまでの複数のフレームで特徴点の抽出、特徴点と原稿の輪郭との距離、および特徴点間の距離を算出する。その結果、各フレームから異なる特徴点間の距離、および特徴点と輪郭との距離が得られるので、例えば対応する特徴点間の距離、および特徴点と輪郭との距離それぞれにおいて平均を取る。そして原稿を書画台204に載置した後の特徴点を比較して一致した特徴点を用いて原稿の輪郭を算出できる。   In the present embodiment, the document contour calculation process is performed only once. However, as another processing method, when the distance between the extracted document area and the document table is within a predetermined range as in S861 of the flowchart of FIG. 8 (f), subsequent processing may be performed. . In that case (YES in S861), document outline calculation unit 424 extracts feature points in a plurality of frames until the document is placed, calculates the distance between feature points and the outline of the document, and calculates the distance between feature points. To do. As a result, distances between different feature points and distances between feature points and contours can be obtained from each frame. For example, the distances between corresponding feature points and distances between feature points and contours are averaged. Then, the feature points after the document is placed on the document table 204 are compared, and the contour of the document can be calculated using the matched feature points.

<実施形態2>
実施形態1では、図9(a)および図9(b)のように書画台204に載置された平面原稿の輪郭を算出して原稿領域を切り出し、原稿領域が水平になるように回転して画像圧縮、フォーマット変換して保存した。保存したデータをプリンタ103に送信して印刷する場合、例えば保存したデータの原稿領域(図15の1501)がA4サイズ(図15の1502)より少し大きいとする。プリンタ103の給紙カセット(不図示)にはA3とA4の2種類のサイズの用紙が積載されており、給紙設定が自動用紙選択となっている場合、画像サイズが少し大きいだけなのにA3用紙が選択されてしまう(図15の1503)。そこで、本実施形態では、保存するデータの原稿領域が印刷用紙の定型サイズ(A3、A4など)に近いサイズになったときは、原稿領域を定型サイズに補正する仕組みを提供する。
<Embodiment 2>
In the first embodiment, as shown in FIGS. 9A and 9B, the contour of a flat document placed on the document table 204 is calculated, the document region is cut out, and the document region is rotated so as to be horizontal. Image compression and format conversion. When the stored data is transmitted to the printer 103 and printed, for example, it is assumed that the document area (1501 in FIG. 15) of the stored data is slightly larger than the A4 size (1502 in FIG. 15). In the paper feed cassette (not shown) of the printer 103, papers of two types A3 and A4 are stacked, and when the paper feed setting is set to automatic paper selection, the A3 paper is used although the image size is a little larger. Is selected (1503 in FIG. 15). In view of this, the present embodiment provides a mechanism for correcting the document area to the standard size when the document area of the data to be stored is close to the standard size (A3, A4, etc.) of the printing paper.

図16(a)、(b)は、本実施形態に係る平面原稿画像撮影部411が実行する処理のフローチャートである。このフローチャートでは、実施形態1に係る図9(a)、(b)のフローチャートに対して、S1601の原稿領域と定型サイズの比較処理、S1602の閾値との比較処理、原稿領域の縮小処理が追加されている。そのほかの処理は図9で説明した平面原稿画像撮影部411の処理と同じであるため、説明は省略する。また、定型サイズとしてはA3とA4の2種類の用紙サイズがあるものとして説明するが、他の定型サイズがあっても問題ないことはいうまでもない。   FIGS. 16A and 16B are flowcharts of processing executed by the flat document image photographing unit 411 according to the present embodiment. In this flowchart, the original area and standard size comparison process in S1601, the comparison process with the threshold value in S1602, and the original area reduction process are added to the flowcharts of FIGS. 9A and 9B according to the first embodiment. Has been. The other processes are the same as those of the flat document image photographing unit 411 described with reference to FIG. The standard size is described as having two types of paper sizes A3 and A4. Needless to say, there is no problem even if there are other standard sizes.

S1601にて、平面原稿画像撮影部411は、原稿領域と定型サイズの大きさを比較する。図15の例では、原稿領域1501はA4よりは大きく、A3よりは小さい。A4よりは大きいため(S1601にてYES)、S1602にて、平面原稿画像撮影部411は、原稿領域と定型サイズの比を閾値と比較する。図15の例で、原稿領域1501とA4のサイズ比が103%で、閾値が105%とすると、閾値より小さいことになる。なお、閾値は予め定義され、HDD305等に保持されているものとする。また、各閾値の設定は用紙サイズの種類それぞれに対して設定できるようにしても構わない。   In step S1601, the planar document image photographing unit 411 compares the document area with the standard size. In the example of FIG. 15, the document area 1501 is larger than A4 and smaller than A3. Since it is larger than A4 (YES in S1601), in S1602, the flat document image photographing unit 411 compares the ratio of the document area and the standard size with a threshold value. In the example of FIG. 15, if the size ratio of the document area 1501 and A4 is 103% and the threshold value is 105%, it is smaller than the threshold value. Note that the threshold is defined in advance and held in the HDD 305 or the like. Each threshold value may be set for each type of paper size.

閾値より小さいため(S1602にてYES)、S1603にて、平面原稿画像撮影部411は、原稿領域を定型サイズに縮小する。   Since it is smaller than the threshold value (YES in S1602), the planar document image photographing unit 411 reduces the document area to a standard size in S1603.

以上、本実施形態により、実施形態1の効果に加え、保存するデータの原稿領域が印刷用紙の定型サイズに近いサイズになったときは、原稿領域を定型サイズに補正することが可能となる。   As described above, according to the present embodiment, in addition to the effects of the first embodiment, when the document area of the data to be stored becomes a size close to the standard size of the printing paper, the document area can be corrected to the standard size.

<実施形態3>
実施形態1及び2では、原稿領域を特定するのにカメラ画像と距離画像を用いた。本実施形態では、カメラ画像のみを用い、原稿領域が特定できない場合にはユーザに原稿を置き直してもらうように指示する方法を提供する。
<Embodiment 3>
In the first and second embodiments, the camera image and the distance image are used to specify the document area. In the present embodiment, a method is provided in which only the camera image is used and the user is instructed to reposition the document when the document area cannot be specified.

図17(a)、(b)は、本実施形態に係る平面原稿画像撮影部411が実行する処理のフローチャートである。このフローチャートにおいて、図9(a)、(b)のフローチャートと同様の処理については説明を省略する。ここでは、1枚目の原稿に対する処理は、実施形態1と同様であるため(図9(a))、図17(a)の説明は省略する。   17A and 17B are flowcharts of processing executed by the flat document image photographing unit 411 according to the present embodiment. In this flowchart, the description of the same processing as in the flowcharts of FIGS. 9A and 9B is omitted. Here, the processing for the first document is the same as that in the first embodiment (FIG. 9A), and therefore the description of FIG. 17A is omitted.

図17(b)において、S1701にて、平面原稿画像撮影部411は、取得したカメラ画像を射影変換する。図18(a)は、1枚目の原稿が置かれた時の書画台204内の画像を射影変換したものである。図18(b)は、2枚目の原稿が重ね置きされた時の書画台204内の画像を射影変換したものである。図18(c)は、3枚目の原稿が重ね置きされた時の書画台204内の画像を射影変換したものである。   In FIG. 17B, in S1701, the planar document image photographing unit 411 performs projective transformation on the acquired camera image. FIG. 18A shows a projective conversion of the image in the document table 204 when the first original is placed. FIG. 18B is a result of projective conversion of an image in the document table 204 when the second original is placed on top of each other. FIG. 18C shows a projection conversion of the image in the document table 204 when the third original is placed on top of each other.

S1702にて、平面原稿画像撮影部411は、射影変換後の前回カメラ画像と今回カメラ画像の差分画像を生成し、二値化する。図18(d)は、2枚目の原稿が重ね置きされた時の差分画像を二値化したものである。つまり、前回のカメラ画像である図18(a)と今回のカメラ画像である図18(b)の差分画像を二値化したものである。差分のある個所が黒色画像となる。図18(e)は、3枚目の原稿が重ね置きされた時の差分画像を二値化したものである。図18(b)と図18(d)の間には差分がないため、図18(e)には黒色画像領域が存在しない。したがって、1枚目と2枚目の差分は検知できるが、2枚目と3枚目の差分が検知できないこととなる。   In step S <b> 1702, the planar document image photographing unit 411 generates a difference image between the previous camera image after the projective conversion and the current camera image, and binarizes the difference image. FIG. 18D shows a binarized difference image when the second original is placed on top of each other. That is, the difference image between FIG. 18A, which is the previous camera image, and FIG. 18B, which is the current camera image, is binarized. A portion with a difference becomes a black image. FIG. 18E is a binary image of the difference image when the third original is placed on top of each other. Since there is no difference between FIG. 18B and FIG. 18D, there is no black image region in FIG. Therefore, the difference between the first sheet and the second sheet can be detected, but the difference between the second sheet and the third sheet cannot be detected.

S1703にて、平面原稿画像撮影部411は、原稿領域としての矩形を抽出する。矩形抽出の方法としては、先行技術(例えば、特開2007−201948号公報)に記載の方法などを用いることが可能である。図18(d)の差分画像から抽出された矩形を図18(f)に示す。図18(f)では1801、1802の2通りの矩形が抽出される。この中で、矩形1802は1枚目の原稿から抽出された矩形と同じであるので2枚目の原稿の輪郭候補から外す。したがって、2枚目の原稿の輪郭候補は矩形1801のみとなる。   In step S1703, the planar document image photographing unit 411 extracts a rectangle as a document region. As a rectangle extraction method, a method described in the prior art (for example, Japanese Patent Application Laid-Open No. 2007-201948) can be used. A rectangle extracted from the difference image in FIG. 18D is shown in FIG. In FIG. 18F, two types of rectangles 1801 and 1802 are extracted. Among these, the rectangle 1802 is the same as the rectangle extracted from the first document, and is therefore excluded from the contour candidates of the second document. Accordingly, the outline candidate of the second document is only the rectangle 1801.

S1704にて、平面原稿画像撮影部411は、原稿の輪郭候補は1種類か否かを判定する。図18の例では、2枚目の原稿の輪郭の候補は1種類であるため(S1704にてYES)、S904以降の処理が行われる。一方、3枚目の原稿の輪郭候補はないため(S1704にてNO)、S1705に進む。S1705にて、平面原稿画像撮影部411は、原稿の輪郭候補が1種類に特定できなかったので、GUI部品生成表示部414はその旨をユーザに通知するメッセージを表示して、処理を終了する。図18(g)は、ユーザに通知するメッセージの一例である。   In step S <b> 1704, the planar document image photographing unit 411 determines whether there is one type of document outline candidate. In the example of FIG. 18, since there is only one type of outline candidate for the second document (YES in S1704), the processing from S904 is performed. On the other hand, since there is no contour candidate for the third document (NO in S1704), the process proceeds to S1705. In step S1705, the flat document image photographing unit 411 cannot specify one type of document outline candidate, so the GUI component generation / display unit 414 displays a message notifying the user of the fact and ends the process. . FIG. 18G shows an example of a message notified to the user.

以上、本実施形態により、カメラ画像のみを用い、原稿領域が特定できない場合にはユーザに原稿を置き直してもらうように指示することが可能となる。なお、本実施形態では輪郭の候補がない場合にはユーザにメッセージを通知して処理を終了するが、他の形態での実施も可能である。例えば原稿の輪郭候補が複数存在したり、1つも存在しなかったりした場合には、それまでの原稿の輪郭候補を1つずつ表示し、ユーザに原稿の輪郭候補を選択させるようにしてもよい。   As described above, according to the present embodiment, when only the camera image is used and the document area cannot be specified, it is possible to instruct the user to place the document again. In the present embodiment, when there is no contour candidate, a message is notified to the user and the process is terminated. However, other embodiments are possible. For example, when there are a plurality of document outline candidates or none exist, the document outline candidates up to that point may be displayed one by one, and the user may select a document outline candidate. .

<実施形態4>
実施形態3では、カメラ画像のみを用い、原稿領域が特定できない場合にはユーザに原稿を置き直してもらうように指示する方法を提供したが、本実施形態では原稿領域が特定できる場所を予め算出し、ユーザに置く場所を指示する方法を提供する。
<Embodiment 4>
In the third embodiment, a method is provided in which only the camera image is used and the user is instructed to reposition the original when the original area cannot be specified. However, in this embodiment, a place where the original area can be specified is calculated in advance. And provide a way to instruct the user where to place it.

図19は、本実施形態に係る物体検知部410が実行する処理のフローチャートである。このフローチャートにおいて、図8(b)のフローチャートと同様の処理については説明を省略する。   FIG. 19 is a flowchart of processing executed by the object detection unit 410 according to this embodiment. In this flowchart, the description of the same processing as that of the flowchart of FIG.

S1901にて、物体検知部410は、原稿載置位置を算出して表示する。1枚目の原稿については、図20(a)のように、メイン制御部402が書画台204と水平になるように矩形2001を生成し、GUI部品生成表示部414は生成した矩形2001を表示する。2枚目の原稿については、図20(b)のように、メイン制御部402が1枚目の原稿の矩形2002と中心が同じで角度をαだけ傾けた矩形2003を生成する。角度αは、確実に原稿の輪郭が特定できる角度にする必要があるが、本例ではαは30°とする。GUI部品生成表示部414は、生成した矩形2003を表示する。3枚目以降の原稿も同様に、メイン制御部402が角度をαだけ傾けた矩形を生成し、GUI部品生成表示部414は生成した矩形を表示する。   In S1901, the object detection unit 410 calculates and displays the document placement position. For the first document, as shown in FIG. 20A, the main control unit 402 generates a rectangle 2001 so as to be horizontal with the document table 204, and the GUI component generation display unit 414 displays the generated rectangle 2001. To do. For the second document, as shown in FIG. 20B, the main control unit 402 generates a rectangle 2003 having the same center as the rectangle 2002 of the first document and having the angle inclined by α. The angle α needs to be an angle at which the contour of the document can be reliably specified. In this example, α is 30 °. The GUI component generation / display unit 414 displays the generated rectangle 2003. Similarly, for the third and subsequent originals, the main control unit 402 generates a rectangle whose angle is inclined by α, and the GUI component generation display unit 414 displays the generated rectangle.

S1902にて、物体検知部410は、カメラ画像取得部407を介してカメラ部202からの画像を1フレーム取得する。S1903にて、物体検知部410は、現フレームカメラ画像を前フレームカメラ画像として保存する。   In step S1902, the object detection unit 410 acquires one frame of the image from the camera unit 202 via the camera image acquisition unit 407. In S1903, object detection unit 410 saves the current frame camera image as the previous frame camera image.

以上、本実施形態により、カメラ画像のみを用い、原稿領域が特定できる場所を予め算出し、ユーザに置く場所を指示する方法を提供することが可能となる。なお、本実施形態では1枚目の原稿を置く前から矩形を表示したが、他の形態での実施も可能である。例えば1枚目の原稿は矩形表示しないでユーザに自由に原稿を置いてもらい、2枚目以降の原稿の置く位置を矩形表示で指示するようにしても構わない。   As described above, according to the present embodiment, it is possible to provide a method of calculating in advance a place where a document area can be specified using only a camera image and instructing the user where to place the document area. In the present embodiment, a rectangle is displayed before the first original is placed, but other forms are also possible. For example, the user may freely place a document without displaying the first document in a rectangular form, and the position where the second and subsequent documents are placed may be indicated by a rectangular display.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (15)

載置部に載置された物体の画像を取得するスキャンシステムであって、
前記載置部およびその近傍の画像を取得する画像取得手段と、
前記画像取得手段にて連続して取得された画像の変化に基づいて、前記載置部への物体の載置を検知する検知手段と、
前記画像取得手段にて取得された画像から前記物体の領域を抽出する抽出手段と、
前記抽出手段にて抽出した前記物体の領域を所定の座標系に変換する変換手段と、
前記変換手段にて変換された前記物体の領域の輪郭を導出する導出手段と
を有し、
前記物体とは異なる新たな物体が更に前記載置部に載置される場合、前記抽出手段、前記変換手段、および前記導出手段は、当該新たな物体が前記載置部に載置されたと前記検知手段により検知される前後の画像それぞれから求められる当該新たな物体の領域に含まれる特徴点の対応関係を用いて当該新たな物体の載置後の輪郭を導出することを特徴とするスキャンシステム。
A scanning system for acquiring an image of an object placed on a placement unit,
Image acquisition means for acquiring the image of the placement section and its vicinity;
Detection means for detecting placement of an object on the placement portion based on a change in images continuously obtained by the image obtaining means;
Extraction means for extracting the region of the object from the image acquired by the image acquisition means;
Conversion means for converting the region of the object extracted by the extraction means into a predetermined coordinate system;
Deriving means for deriving a contour of the region of the object converted by the converting means;
When a new object different from the object is further placed on the placement unit, the extraction unit, the conversion unit, and the derivation unit are configured so that the new object is placed on the placement unit. A scanning system characterized in that a contour after placement of the new object is derived using a correspondence relationship between feature points included in the area of the new object obtained from the images before and after being detected by the detection means. .
前記新たな物体は、前記載置部に載置された物体に重ねて載置されることを特徴とする請求項1に記載のスキャンシステム。   The scanning system according to claim 1, wherein the new object is placed on the object placed on the placement unit. 前記導出手段が導出した前記物体の領域の輪郭のサイズと定型の用紙サイズとを比較し、差が所定値以下である場合に、当該定型の用紙サイズに前記物体の領域の輪郭を補正する補正手段を更に有することを特徴とする請求項1または2に記載のスキャンシステム。   Comparing the contour size of the object area derived by the deriving means with a standard paper size, and correcting the contour of the object area to the standard paper size when the difference is less than or equal to a predetermined value The scanning system according to claim 1, further comprising means. 前記導出手段が物体の領域の輪郭を導出できない場合、その旨を通知する通知手段を更に有することを特徴とする請求項1乃至3のいずれか一項に記載のスキャンシステム。   The scanning system according to any one of claims 1 to 3, further comprising notification means for notifying that when the deriving means cannot derive the contour of the object region. 前記所定の座標系は、前記載置部において物体が載置される平面に平行な直交座標系であり、
前記変換手段は、射影変換により前記物体の領域を変換することを特徴とする請求項1乃至4のいずれか一項に記載のスキャンシステム。
The predetermined coordinate system is an orthogonal coordinate system parallel to a plane on which an object is placed in the placement unit,
The scan system according to claim 1, wherein the conversion unit converts the region of the object by projective conversion.
前記検知手段は、前記画像取得手段が取得した連続する画像において、物体の領域の位置が変動していない場合に、当該物体が載置されたと検知することを特徴とする請求項1乃至5のいずれか一項に記載のスキャンシステム。   6. The detection unit according to claim 1, wherein the detection unit detects that the object is placed when the position of the region of the object is not changed in the continuous images acquired by the image acquisition unit. The scanning system according to any one of the above. 前記載置部において物体を載置する位置を指示する指示手段を更に有することを特徴とする請求項1乃至6のいずれか一項に記載のスキャンシステム。   The scanning system according to claim 1, further comprising an instruction unit that instructs a position where the object is placed in the placement unit. 前記指示手段は、前記載置部において物体を重ねて載置する場合、載置する位置を切り替えて指示することを特徴とする請求項7に記載のスキャンシステム。   The scanning system according to claim 7, wherein when the object is placed on the placement unit in an overlapping manner, the instruction unit switches and instructs the placement position. 前記指示手段は、プロジェクタによる投影にて表示を行うことを特徴とする請求項7または8に記載のスキャンシステム。   The scan system according to claim 7, wherein the instruction unit performs display by projection with a projector. 前記画像取得手段は、カメラによる撮影にて画像を取得することを特徴とする請求項1乃至9のいずれか一項に記載のスキャンシステム。   The scan system according to claim 1, wherein the image acquisition unit acquires an image by photographing with a camera. 前記画像取得手段は、前記物体に対するRGB画像と距離画像とを取得し、
前記検知手段は、前記RGB画像と前記距離画像における画像の変化に基づいて、検知を行うことを特徴とする請求項1乃至10のいずれか一項に記載のスキャンシステム。
The image acquisition means acquires an RGB image and a distance image for the object,
The scanning system according to any one of claims 1 to 10, wherein the detection unit performs detection based on an image change in the RGB image and the distance image.
前記物体は、平面原稿であることを特徴とする請求項1乃至11のいずれか一項に記載のスキャンシステム。   The scan system according to claim 1, wherein the object is a flat original. 前記画像取得手段にて連続して取得された画像を解析することで、前記載置部にて行われたユーザのジェスチャによる操作指示を受け付ける受付手段を更に有することを特徴とする請求項1乃至12のいずれか一項に記載のスキャンシステム。   2. The apparatus according to claim 1, further comprising a receiving unit configured to analyze an image continuously acquired by the image acquiring unit to receive an operation instruction by a user gesture performed in the placement unit. 13. The scan system according to any one of items 12. 載置部に載置された物体の画像を取得するスキャンシステムの制御方法であって、
前記載置部およびその近傍の画像を取得する画像取得工程と、
前記画像取得工程にて連続して取得された画像の変化に基づいて、前記載置部への物体の載置を検知する検知工程と、
前記画像取得工程にて取得された画像から前記物体の領域を抽出する抽出工程と、
前記抽出工程にて抽出した前記物体の領域を所定の座標系に変換する変換工程と、
前記変換工程にて変換された前記物体の領域の輪郭を導出する導出工程と
を有し、
前記物体とは異なる新たな物体が更に前記載置部に載置される場合、前記抽出工程、前記変換工程、および前記導出工程において、当該新たな物体が前記載置部に載置されたと前記検知工程にて検知される前後の画像それぞれから求められる当該新たな物体の領域に含まれる特徴点の対応関係を用いて当該新たな物体の載置後の輪郭を導出することを特徴とするスキャンシステムの制御方法。
A control method of a scan system for acquiring an image of an object placed on a placement unit,
An image acquisition step of acquiring the image of the placement section and the vicinity thereof;
Based on the change of the image continuously acquired in the image acquisition step, a detection step of detecting the placement of the object on the mounting portion,
An extraction step of extracting the region of the object from the image acquired in the image acquisition step;
A conversion step of converting the region of the object extracted in the extraction step into a predetermined coordinate system;
A derivation step of deriving a contour of the region of the object transformed in the transformation step,
When a new object different from the object is further placed on the placement unit, the extraction object, the conversion step, and the derivation step, when the new object is placed on the placement unit, A scan characterized by deriving a contour after placement of the new object using a correspondence relationship of feature points included in the area of the new object obtained from the respective images before and after being detected in the detection step How to control the system.
コンピュータを、
載置部およびその近傍の画像を取得する画像取得手段、
前記画像取得手段にて連続して取得された画像の変化に基づいて、前記載置部への物体の載置を検知する検知手段、
前記画像取得手段にて取得された画像から前記物体の領域を抽出する抽出手段、
前記抽出手段にて抽出した前記物体の領域を所定の座標系に変換する変換手段、
前記変換手段にて変換された前記物体の領域の輪郭を導出する導出手段
として機能させ、
前記物体とは異なる新たな物体が更に前記載置部に載置される場合、前記抽出手段、前記変換手段、および前記導出手段は、当該新たな物体が前記載置部に載置されたと前記検知手段により検知される前後の画像それぞれから求められる当該新たな物体の領域に含まれる特徴点の対応関係を用いて当該新たな物体の載置後の輪郭を導出することを特徴とするプログラム。
Computer
An image acquisition means for acquiring an image of the mounting portion and its vicinity;
Detection means for detecting placement of an object on the placement section based on a change in images continuously obtained by the image obtaining means;
Extraction means for extracting a region of the object from the image acquired by the image acquisition means;
Conversion means for converting the region of the object extracted by the extraction means into a predetermined coordinate system;
Function as derivation means for deriving the contour of the region of the object converted by the conversion means;
When a new object different from the object is further placed on the placement unit, the extraction unit, the conversion unit, and the derivation unit are configured so that the new object is placed on the placement unit. A program for deriving a contour after placement of a new object by using a correspondence relationship of feature points included in the area of the new object obtained from respective images before and after being detected by the detection means.
JP2014017741A 2014-01-31 2014-01-31 Scanning system, control method therefor, and program Expired - Fee Related JP6203070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014017741A JP6203070B2 (en) 2014-01-31 2014-01-31 Scanning system, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014017741A JP6203070B2 (en) 2014-01-31 2014-01-31 Scanning system, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2015146481A JP2015146481A (en) 2015-08-13
JP6203070B2 true JP6203070B2 (en) 2017-09-27

Family

ID=53890546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014017741A Expired - Fee Related JP6203070B2 (en) 2014-01-31 2014-01-31 Scanning system, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6203070B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4524616B2 (en) * 2004-07-06 2010-08-18 カシオ計算機株式会社 Imaging apparatus, image processing method and program for captured image
JP4341629B2 (en) * 2006-01-27 2009-10-07 カシオ計算機株式会社 Imaging apparatus, image processing method, and program
JP4588771B2 (en) * 2008-02-26 2010-12-01 シャープ株式会社 Image processing method, image processing apparatus, image forming apparatus, program, and storage medium

Also Published As

Publication number Publication date
JP2015146481A (en) 2015-08-13

Similar Documents

Publication Publication Date Title
JP6327931B2 (en) Image processing apparatus, information processing method, and program
US20100296129A1 (en) Automatic sizing of images acquired by a handheld scanner
US20100296133A1 (en) Mode switching in a handheld scanner
JP2016103137A (en) User interface system, image processor and control program
JP6289254B2 (en) Image processing apparatus, information processing method, and program
JP2016038820A (en) Image processor and control program
JP6376887B2 (en) 3D scanner, 3D scanning method, computer program, recording medium
JP2017117373A (en) Operation device and control method of the same, and program
JP6399840B2 (en) Image processing apparatus, image processing method, and program
JP2015198406A (en) Image reader, method, and program
JP2015170907A (en) Scanner system, data processing method of scanner system, and program
JP2015212892A (en) Image processor, information processing method and program
JP2019016843A (en) Document reading device, control method of document reading device, and program
JP6203070B2 (en) Scanning system, control method therefor, and program
TW201301874A (en) Method and device of document scanning and portable electronic device
US10116809B2 (en) Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data
JP2018207342A (en) Image reader, method of controlling the same, and program
JP2018107642A (en) Image processing system, control method for image processing system, and program
JP6624861B2 (en) Image processing apparatus, control method, and program
JP2017199288A (en) Image processing device, image processing method and program
JP2018077673A (en) Image processing device, control method for image processing device, and program
JP2018191258A (en) Image reading device, image reading method, and program
JP2017073039A (en) Object identification device, object identification method, and program
JP2018191094A (en) Document reader, method of controlling document reader, and program
JP2017041668A (en) Image input device, image input system, control method for image input device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6203070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees