JP5991737B2 - Image reading apparatus and control method thereof - Google Patents

Image reading apparatus and control method thereof Download PDF

Info

Publication number
JP5991737B2
JP5991737B2 JP2012125151A JP2012125151A JP5991737B2 JP 5991737 B2 JP5991737 B2 JP 5991737B2 JP 2012125151 A JP2012125151 A JP 2012125151A JP 2012125151 A JP2012125151 A JP 2012125151A JP 5991737 B2 JP5991737 B2 JP 5991737B2
Authority
JP
Japan
Prior art keywords
image
reading
grouping
objects
reading table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012125151A
Other languages
Japanese (ja)
Other versions
JP2013251741A5 (en
JP2013251741A (en
Inventor
基起 仲間
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012125151A priority Critical patent/JP5991737B2/en
Publication of JP2013251741A publication Critical patent/JP2013251741A/en
Publication of JP2013251741A5 publication Critical patent/JP2013251741A5/ja
Application granted granted Critical
Publication of JP5991737B2 publication Critical patent/JP5991737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、対象物の画像を読み取る技術に関する。   The present invention relates to a technique for reading an image of an object.

画像読取技術により複数枚の原稿の画像を読み取る幾つかの方法が存在する。例えば、複数枚の原稿を原稿台に下向きに並置して、それら原稿の画像(以下、原稿画像)を一度に読み取る方法や、ADF(automatic document feeder)に複数枚の原稿をセットして、一枚ずつ原稿画像を読み取る方法などがある。   There are several methods for reading images of a plurality of originals by image reading technology. For example, multiple originals are placed side by side on a platen and images of these originals (hereinafter referred to as original images) are read at once, or multiple originals are set on an ADF (automatic document feeder). There is a method for reading original images one by one.

上記の読取方法は、読み取った原稿画像に所定の情報を付与したり、複数の原稿画像をグループ分けすることが難しい。情報の付与やグループ分けを行う場合は、原稿画像を読み取る前にプレスキャンを行い、プレスキャンした画像に間接的に情報を付与することになり、操作が煩雑になる。   In the above-described reading method, it is difficult to give predetermined information to the read document image or group a plurality of document images. When information is added or grouped, prescanning is performed before reading a document image, and information is indirectly added to the prescanned image, which complicates the operation.

特許文献1は、サイズや形状が異なる複数枚の原稿から同時に原稿画像を読み取る際、原稿画像を同一の形式に収め、かつ、原稿画像に所定の情報を付与する技術を開示する。この技術によれば、サイズや形状が異なる原稿から同一サイズの原稿画像を読み取るだけでなく、所定の情報を付与することが可能になる。   Patent Document 1 discloses a technique for storing original images in the same format and adding predetermined information to the original images when simultaneously reading original images from a plurality of originals having different sizes and shapes. According to this technique, it is possible not only to read original images of the same size from originals having different sizes and shapes, but also to add predetermined information.

しかし、特許文献1の技術は、原稿同士が重ならないようにすべての原稿を原稿台に並べる必要があり、読取台のサイズにより一度に読み取り可能な原稿の枚数が制限される。また、原稿画像を個別に電子化し、すべてに同一の情報を付与するため、結果的に、読み取った原稿画像は一つのグループとして処理される。言い換えれば、特許文献1は、複数の原稿画像を複数のグループに分けて処理し保存することまでは考慮しない。   However, the technique of Patent Document 1 requires that all originals be arranged on an original plate so that the originals do not overlap each other, and the number of originals that can be read at one time is limited by the size of the reading table. Further, since the original images are individually digitized and the same information is given to all, the read original images are processed as one group. In other words, Patent Document 1 does not consider processing and storing a plurality of document images divided into a plurality of groups.

特開2007-110339号公報JP 2007-110339 A

本発明は、効率的に、複数の対象物の画像を読み取り、読み取った複数の対象物画像をグループ化することを目的とする。 The present invention is effectively reads an image of a plurality of objects, and an object thereof is to group the images of a plurality of objects read.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明に係る画像読取装置は、対象物が載置される読取台と、前記読取台を連続して撮像する撮像手段と、該撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得手段と、該取得手段により新たな対象物画像が取得された場合、当該新たな対象物画像が、当該新たな対象物画像より前に取得した他の対象物画像のいずれかと重畳するか否かを、それぞれの位置とサイズから判定する判定手段と、該判定手段により前記新たな対象物画像が前記他の対象物画像のいずれかと重畳すると判定された場合に、前記新たな対象物画像と、重畳すると判定された他の対象物画像とをグループ化し、該判定手段により前記新たな対象物画像が前記他の対象物画像のいずれとも重畳しない場合には、前記新たな対象物画像をグループ化の対象外とするグループ化手段とを有することを特徴とする。 An image reading apparatus according to the present invention is newly added to the reading table from a reading table on which an object is placed, an imaging unit that continuously images the reading table, and a captured image obtained by the imaging unit. When detecting the position and size of the object image representing the placed object and acquiring the object image, and when a new object image is acquired by the acquisition means, the new object Judgment means for judging whether or not the object image is to be superimposed on any of the other object images acquired before the new object image from the respective positions and sizes, and the new object by the judging means When it is determined that an object image is to be superimposed on one of the other object images, the new object image and another object image determined to be superimposed are grouped, and the determination unit performs the new object image. The object image is If you do not want with any superimposition of the object image is characterized by having a grouping means to exclude grouping the new object image.

本発明によれば、効率的に、複数の対象物の画像を読み取り、読み取った複数の対象物画像をグループ化することができる。   According to the present invention, it is possible to efficiently read images of a plurality of objects and group the read object images.

実施例の画像読取装置の概観を示す図。1 is a diagram illustrating an overview of an image reading apparatus according to an embodiment. 画像読取装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image reading apparatus. 画像読取装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating a functional configuration example of an image reading apparatus. 対象物の配置と対象物画像の格納方法の関係例を示す図。The figure which shows the example of a relationship between the arrangement | positioning of a target object, and the storage method of a target object image. 実施例1の対象物画像の読取処理を説明するフローチャート。3 is a flowchart for explaining a target image reading process according to the first embodiment. 応用例を説明する図。The figure explaining an application example. 付加情報を付加する処理を説明する図。The figure explaining the process which adds additional information. 実施例2の対象物画像の読取処理を説明するフローチャート。9 is a flowchart for explaining object image reading processing according to the second embodiment. 実施例2のグループ化処理を説明する図。FIG. 6 is a diagram illustrating grouping processing according to the second embodiment. 実施例3の対象物画像の読取処理を説明するフローチャート。10 is a flowchart for explaining a target image reading process according to the third embodiment.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の概観]
実施例において、読取台に上向きに配置された画像読取対象の対象物(サイズや形状が異なっていてもよい)の画像を読み取る画像読取装置を想定する。また、実施例においては、対象物の形状が一般的な矩形形状であるとして説明する。しかし、対象物は、例えば、厚みのあるものや、立体物、布などでもよい。対象物の形状が例えば丸い形状、曲線を含む形状、立体的な形状でもよい。つまり、実施例の画像読取装置が画像を読取可能な対象物であればどのような形状でも構わない。なお、対象物には原稿などの印刷物も含まれる。
[Overview of the device]
In the embodiment, an image reading apparatus that reads an image of an object to be read (arranged in size and shape) arranged upward on a reading table is assumed. Moreover, in an Example, the shape of a target object demonstrates as a general rectangular shape. However, the object may be, for example, a thick object, a three-dimensional object, or a cloth. The shape of the object may be, for example, a round shape, a shape including a curve, or a three-dimensional shape. That is, any shape may be used as long as the image reading apparatus of the embodiment can read an image. Note that the object includes a printed material such as a document.

図1により実施例の画像読取装置100の概観を示す。画像読取装置100は、読取台100aと撮像投影部100bを有する。撮像投影部100bは、読取台100aに配置された対象物の画像を読み取るための撮像部と、読み取った対象物の画像(以下、対象物画像)や操作ボタンなどを表示するユーザインタフェイス(UI)を読取台100aに投影する投影部を有する。   FIG. 1 shows an overview of the image reading apparatus 100 of the embodiment. The image reading apparatus 100 includes a reading table 100a and an imaging projection unit 100b. The imaging projection unit 100b includes an imaging unit for reading an image of an object placed on the reading table 100a, and a user interface (UI) that displays an image of the read object (hereinafter referred to as an object image) and operation buttons. ) Is projected onto the reading table 100a.

図1において、符号103a〜103cで示す矩形は読取台100bに配置された対象物または投影された対象物画像を示す。また、図1には、UIの一例として、撮像投影部100bが保存(Save)ボタン100cを投影した例を示す。なお、符号102で示す手は、画像読取装置100に対して操作を行うユーザの手である。   In FIG. 1, rectangles denoted by reference numerals 103a to 103c indicate objects placed on the reading table 100b or projected object images. FIG. 1 shows an example in which the imaging projection unit 100b projects a Save button 100c as an example of the UI. Note that a hand indicated by reference numeral 102 is a user's hand operating the image reading apparatus 100.

[装置の構成]
図2のブロック図により画像読取装置100の構成例を示す。CPU200は、ROM202に格納されたプログラムを実行し、システムバス203を介して接続された各デバイスを統括的に制御する。オペレーティングシステム(OS)をはじめ、実施例の処理にかかるプログラムやデバイスドライバなどは、ROM202に格納されている。CPU200は、プログラムなどをROM202からワークメモリであるRAM201にロードして実行する。なお、OS、プログラム、デバイスドライバなどは、例えばストレージ207に記憶されていてもよい。その場合、電源投入後、OS、プログラム、デバイスドライバなどは、ストレージインタフェイス(I/F)206を介してRAM201にロードされ、CPU200によって実行される。
[Device configuration]
An example of the configuration of the image reading apparatus 100 is shown in the block diagram of FIG. The CPU 200 executes a program stored in the ROM 202 and comprehensively controls each device connected via the system bus 203. In addition to the operating system (OS), programs and device drivers related to the processing of the embodiment are stored in the ROM 202. The CPU 200 loads a program or the like from the ROM 202 to the RAM 201, which is a work memory, and executes it. Note that the OS, program, device driver, and the like may be stored in the storage 207, for example. In that case, after the power is turned on, the OS, program, device driver, and the like are loaded into the RAM 201 via the storage interface (I / F) 206 and executed by the CPU 200.

ディスプレイI/F204は、CPU200の制御に従い、画像やUIをプロジェクタ209(投影部)が処理可能な信号に変換する。入力I/F205は、イメージセンサ208(撮像部)が出力する画像信号を入力し、画像読取装置100が処理可能な画像データに変換する。ストレージI/F206は、画像読取装置100が処理可能なデータ形式とストレージ207に格納するためのデータ形式を互いに変換する。   The display I / F 204 converts an image or UI into a signal that can be processed by the projector 209 (projection unit) according to the control of the CPU 200. The input I / F 205 receives an image signal output from the image sensor 208 (imaging unit) and converts the image signal into image data that can be processed by the image reading apparatus 100. The storage I / F 206 mutually converts a data format that can be processed by the image reading apparatus 100 and a data format to be stored in the storage 207.

ストレージ207は、画像読取装置100が読み取りディジタル化した対象物画像を大量に格納可能な記憶容量を有する記憶装置で、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)である。なお、ストレージ207として、例えば、画像読取装置100が備えるシリアルバスI/F(不図示)に接続されたディスクドライブやUSBメモリ、ネットワークI/Fを介して接続されたサーバ装置などの記録媒体、記録装置を利用することができる。   The storage 207 is a storage device having a storage capacity capable of storing a large amount of object images read and digitized by the image reading device 100, and is, for example, a hard disk drive (HDD) or a solid state drive (SSD). As the storage 207, for example, a disk drive or USB memory connected to a serial bus I / F (not shown) provided in the image reading apparatus 100, a recording medium such as a server device connected via a network I / F, A recording device can be used.

[装置の機能構成]
図3のブロック図により画像読取装置100の機能構成例を示す。図3に示す画像取得部300、対象物検出部301、操作検出部302、対象物画像読取部303、画像処理部304、表示制御部305、グループ判定部306、蓄積制御部307などの機能は、CPU200がプログラムを実行することにより実現される。
[Functional configuration of the device]
A functional configuration example of the image reading apparatus 100 is shown in the block diagram of FIG. Functions of the image acquisition unit 300, the object detection unit 301, the operation detection unit 302, the object image reading unit 303, the image processing unit 304, the display control unit 305, the group determination unit 306, the accumulation control unit 307, and the like illustrated in FIG. This is realized by the CPU 200 executing the program.

画像取得部300は、イメージセンサ208が撮像した画像を取得し、取得した画像をRAM201の所定領域に格納する。例えば、イメージセンサ208が撮像した画像には、図1に示すように、主に読取台100a、対象物103a〜103c、手102が映っているとする。   The image acquisition unit 300 acquires an image captured by the image sensor 208 and stores the acquired image in a predetermined area of the RAM 201. For example, it is assumed that an image captured by the image sensor 208 mainly includes a reading table 100a, objects 103a to 103c, and a hand 102 as shown in FIG.

対象物検出部301は、RAM201に格納された画像を解析して、読取台100aに載置された対象物を検出し、対象物の位置やサイズを示す位置・サイズ情報を対象物画像読取部303とグループ判定部306に出力する。なお、対象物が厚みのあるものや、立体物、布、あるいは、対象物の立体的な形状の場合、対象物のサイズは読取台100aに対する投影面積に相当する。   The object detection unit 301 analyzes the image stored in the RAM 201, detects the object placed on the reading table 100a, and detects position / size information indicating the position and size of the object. The data is output to 303 and the group determination unit 306. When the object is thick, a three-dimensional object, a cloth, or a three-dimensional shape of the object, the size of the object corresponds to the projected area with respect to the reading table 100a.

操作検出部302は、RAM201に格納された画像を解析して、ユーザの手102を検出し、手102の動きからユーザ操作を検出し、検出結果を示す操作情報を蓄積制御部307に出力する。   The operation detection unit 302 analyzes the image stored in the RAM 201, detects the user's hand 102, detects a user operation from the movement of the hand 102, and outputs operation information indicating the detection result to the accumulation control unit 307. .

対象物画像読取部303は、対象物検出部301から入力される位置・サイズ情報を利用して、読取台100aに載置された対象物の画像を画像取得部300を経由して詳細に読み取り、読み取った対象物画像を画像処理部304と蓄積制御部307に出力する。   The object image reading unit 303 uses the position / size information input from the object detection unit 301 to read in detail the image of the object placed on the reading table 100a via the image acquisition unit 300. The read object image is output to the image processing unit 304 and the accumulation control unit 307.

画像処理部304は、対象物画像読取部303から入力される対象物画像を表示可能なサイズの表示画像に変換し、変換結果の画像を表示制御部305に出力する。また、対象物画像を画像解析して対象物画像からメタ情報を抽出し、抽出したメタ情報を蓄積制御部307に出力する。   The image processing unit 304 converts the object image input from the object image reading unit 303 into a display image having a displayable size, and outputs the conversion result image to the display control unit 305. Further, the object image is analyzed to extract meta information from the object image, and the extracted meta information is output to the accumulation control unit 307.

表示制御部305は、画像処理部304から入力される表示画像およびグループ判定部306から入力されるグループ情報に従い後述するグループ境界画像の画像信号を生成し、画像信号をプロジェクタ209に出力する。   The display control unit 305 generates an image signal of a group boundary image (to be described later) according to the display image input from the image processing unit 304 and the group information input from the group determination unit 306, and outputs the image signal to the projector 209.

グループ判定部306は、対象物検出部301から入力される位置・サイズの情報を利用して、対象物画像のグループ化を判定し、判定結果を示すグループ情報を表示制御部305と蓄積制御部307に出力する。なお、詳細は後述するが、グループ化は対象物の重畳状態と配置に基づき判定される。   The group determination unit 306 uses the position / size information input from the object detection unit 301 to determine grouping of object images, and displays group information indicating the determination result as a display control unit 305 and an accumulation control unit. Output to 307. Although details will be described later, the grouping is determined based on the overlapping state and arrangement of the objects.

蓄積制御部307は、対象物画像とメタ情報をストレージ207に格納する。その際、詳細は後述するが、操作検出部302から入力される操作情報とグループ判定部306から入力されるグループ情報に従い格納方法を変更する。   The accumulation control unit 307 stores the object image and meta information in the storage 207. At this time, as will be described in detail later, the storage method is changed in accordance with the operation information input from the operation detection unit 302 and the group information input from the group determination unit 306.

[対象物画像読取処理]
以下では、ユーザにより複数の対象物が、順次、読取台100aに載置され、対象物画像を読み取り、ユーザが意図するとおりのグループ分けを行って、対象物画像を保存(蓄積)する例を説明する。
[Object image reading processing]
In the following, an example in which a plurality of objects are sequentially placed on the reading table 100a by the user, the object images are read, grouped as the user intends, and the object images are stored (accumulated). explain.

図4により対象物の配置と対象物画像の格納方法の関係例を示し、図5のフローチャートにより実施例1の対象物画像の読取処理を説明する。なお、実施例1では、読取台100aのサイズに比べて対象物のサイズが充分に小さい場合を説明する。   FIG. 4 shows an example of the relationship between the arrangement of the object and the object image storage method, and the object image reading process according to the first embodiment will be described with reference to the flowchart of FIG. In the first embodiment, a case where the size of the object is sufficiently smaller than the size of the reading table 100a will be described.

画像読取装置100の電源がオンにされるか読取開始ボタン(不図示)が押されると、対象物画像の読取処理が開始される。なお、対象物画像の読取処理の開始時、表示制御部305は、保存ボタン100cなどのUIを表す画像信号をプロジェクタ208に出力する。   When the image reading apparatus 100 is turned on or a reading start button (not shown) is pressed, the object image reading process is started. At the start of the object image reading process, the display control unit 305 outputs an image signal representing a UI such as the save button 100c to the projector 208.

画像取得部300は、イメージセンサ208から逐次画像を取得し、取得した画像をRAM201に格納する(S100)。操作検出部302は、読取台101a上の手102の動きを検出し(S101)、何らかの動きが検出された場合、対象物検出部301は新たな対象物が読取台100aに載置されたか否かを判定する(S102)。   The image acquisition unit 300 sequentially acquires images from the image sensor 208, and stores the acquired images in the RAM 201 (S100). The operation detection unit 302 detects the movement of the hand 102 on the reading table 101a (S101), and if any movement is detected, the object detection unit 301 determines whether a new object is placed on the reading table 100a. Is determined (S102).

新たな対象物の検出は画像の背景差分によって行う。例えば、何も置かれていない読取台100aの画像を初期の背景画像Img0とし、手102の動きが検出された後の画像をImg1とする。背景画像Img0と画像Img1の差分を求めると、読取台100aに新たな対象物N1が載置されたか否かを検出することができる。   Detection of a new object is performed based on the background difference of the image. For example, an image of the reading table 100a on which nothing is placed is an initial background image Img0, and an image after the movement of the hand 102 is detected is Img1. When the difference between the background image Img0 and the image Img1 is obtained, it is possible to detect whether or not a new object N1 is placed on the reading table 100a.

さらに新たな対象物N2が載置された場合も同様である。その場合は対象物N1を含む画像Img1を背景画像として、背景画像Img1と画像Img2の差分を求めば対象物N2を検出することができる。なお、背景差分のみで対象物の載置を検出するだけでなく、画像処理部304により対象物のレイアウトや内容を解析し、その結果を対象物検出部301にフィードバックすれば、より高精度に対象物の載置を検出することができる。   The same applies when a new object N2 is placed. In this case, the object N2 can be detected by obtaining the difference between the background image Img1 and the image Img2 using the image Img1 including the object N1 as a background image. In addition to detecting the placement of the object only by the background difference, if the image processing unit 304 analyzes the layout and content of the object and feeds back the result to the object detection unit 301, the accuracy can be improved. The placement of the object can be detected.

新たな対象物の載置を検出すると、対象物検出部301は、背景差分により、対象物の領域を抽出し、読取台100a上の対象物の位置とサイズを検出し、検出した位置・サイズ情報を生成する(S103)。対象物画像読取部303は、対象物検出部301から入力される位置・サイズ情報に従い、対象物領域から詳細に対象物画像を読み取る(S104)。   When the placement of a new object is detected, the object detection unit 301 extracts the object region based on the background difference, detects the position and size of the object on the reading table 100a, and detects the detected position / size. Information is generated (S103). The object image reading unit 303 reads the object image in detail from the object region in accordance with the position / size information input from the object detection unit 301 (S104).

次に、グループ判定部306は、対象物検出部301から入力される位置・サイズの情報に基づき、対象物同士の重畳状態を判定する(S107)。そして、重畳がある場合はグループ化処理を行い、処理結果のグループ情報を生成して、グループ情報を表示制御部305と蓄積制御部307に出力する(S108)。実施例1では、読取台100a上で重畳配置された対象物を同じグループとしてグループ化する。なお、重畳配置された対象物が存在しない場合、グループ化処理は行われない。   Next, the group determination unit 306 determines the overlapping state of the objects based on the position / size information input from the object detection unit 301 (S107). If there is an overlap, grouping processing is performed, group information is generated as a processing result, and the group information is output to the display control unit 305 and the accumulation control unit 307 (S108). In the first embodiment, the objects superimposed on the reading table 100a are grouped as the same group. Note that the grouping process is not performed when there are no superimposed objects.

図4(A)の例では、重畳配置された対象物A1とA2、重畳配置された対象物B1、B2、B3、B4、重畳配置された対象物C1、C2、C3がそれぞれグループ化される。また、実施例1におけるグループ化は、グループが複数存在する場合のグループの入れ子(包含関係)にも対応する。グループの包含関係は、グループの位置情報が所定の位置関係を有するか否かにより判定し、例えば、次のように行う。
(1)グループの間の距離と所定の閾値を比較し、
(2)各グループでy座標が最大の対象物のy座標を比較する。
In the example of FIG. 4A, the superimposed objects A1 and A2, the superimposed objects B1, B2, B3, and B4, and the superimposed objects C1, C2, and C3 are grouped, respectively. . The grouping in the first embodiment also corresponds to group nesting (inclusion relationship) when a plurality of groups exist. The inclusion relation of the group is determined based on whether the positional information of the group has a predetermined positional relation, and is performed as follows, for example.
(1) Compare the distance between groups with a predetermined threshold,
(2) Compare the y-coordinate of the object with the largest y-coordinate in each group.

図4(B)の例では、対象物A1、A2のグループGAと対象物B1、B2、B3、B4のグループGBの間の距離は所定の閾値以下であり、対象物A1のy座標よりも対象物B1のy座標が小さいから、グループGBはグループGAの子グループになる。一方、対象物C1、C2、C3のグループGCとグループGBの間の距離は所定の閾値を超えるので、グループGCは独立したグループになる。 In the example of FIG. 4 (B), the distance between the group G B of the object A1, Group G A and the object B1 of A2, B2, B3, B4 is less than a predetermined threshold value, y-coordinate of the object A1 since y-coordinate of the object B1 than smaller, group G B is a child group of the group G a. On the other hand, since the distance between the group G C and the group G B of the objects C1, C2, and C3 exceeds a predetermined threshold, the group G C becomes an independent group.

また、図4(C)の例では、グループGCとグループGBの間の距離は所定の閾値以下であり、対象物B1のy座標よりも対象物C1のy座標が小さいから、グループGCはグループGBの子グループ、かつ、グループGAの孫グループになる。 In the example of FIG. 4C, the distance between the group G C and the group G B is equal to or less than a predetermined threshold, and the y coordinate of the object C1 is smaller than the y coordinate of the object B1. C child group of the group G B, and becomes grandchild group of the group G a.

次に、表示制御部305は、グループ判定部306から入力されるグループ情報に基づき、対象物画像のグループ化を示すグループ境界を表す画像(以下、グループ境界画像)を生成し、グループ境界画像の画像信号をプロジェクタ209に出力する(S109)。図4(A)の例では、グループGAを示すグループ境界画像400、グループGBを示すグループ境界画像401、グループGCを示すグループ境界画像402が生成され、表示される。 Next, the display control unit 305 generates an image representing a group boundary indicating grouping of the object images (hereinafter referred to as a group boundary image) based on the group information input from the group determination unit 306, and the group boundary image The image signal is output to the projector 209 (S109). In the example of FIG. 4 (A), the group boundary image 400 indicating a group G A, group boundary image 401 indicating a group G B, the group boundary image 402 indicating a group G C is generated and displayed.

同様に、図4(B)の例では、グループGAを示すグループ境界画像403、子グループGBを示すグループ境界画像405、グループGCを示すグループ境界画像402が生成され、表示される。また、図4(C)の例では、グループGAを示すグループ境界画像406、子グループGBを示すグループ境界画像407、孫グループGCを示すグループ境界画像408が生成され、表示される。 Similarly, in the example of FIG. 4 (B), the group boundary image 403 indicating a group G A, group boundary image 405 showing the child group G B, the group boundary image 402 indicating a group G C is generated and displayed. Further, in the example of FIG. 4 (C), the group boundary image 406 indicating a group G A, group boundary image 407 showing the child group G B, the group boundary image 408 showing a grandchild group G C is generated and displayed.

このようなグループ境界画像によるグループ境界の表示により、ユーザは、読取台100aに載置した対象物の画像がどのようにグループ化されて保存されるかを直感的に把握することができる。   By displaying the group boundary by such a group boundary image, the user can intuitively understand how the images of the objects placed on the reading table 100a are grouped and stored.

他方、ステップS102において新たな対象物の載置が検出されなかった場合、操作検出部302は、ユーザ指示が入力されたか否かを検出する(S105)。操作検出部302が検出するユーザ指示は、プロジェクタ209が投影する保存ボタン100cをタッチする操作である。保存ボタン100cのタッチが検出されると、蓄積制御部307は、グループ判定部306から入力されるグループ情報に基づきグループ化した対象物画像の画像データをストレージ207に格納する(S106)。   On the other hand, when the placement of a new object is not detected in step S102, the operation detection unit 302 detects whether or not a user instruction is input (S105). The user instruction detected by the operation detection unit 302 is an operation of touching the save button 100c projected by the projector 209. When the touch of the save button 100c is detected, the accumulation control unit 307 stores the image data of the object images grouped based on the group information input from the group determination unit 306 in the storage 207 (S106).

図4(A)の例では、三つのグループに対応する三つのフォルダを作成し、各フォルダに対応する対象物画像の画像データを格納する。   In the example of FIG. 4A, three folders corresponding to the three groups are created, and the image data of the object image corresponding to each folder is stored.

図4(B)の例では、グループGAとGCに対応する二つのフォルダを作成し、各フォルダに対応する対象物画像の画像データを格納する。さらに、グループGAのフォルダ内に子グループGBのフォルダを作成し、当該フィルダに子グループGBの対象物画像の画像データを格納する。 In the example of FIG. 4 (B), two folders corresponding to the groups G A and G C are created, and the image data of the object image corresponding to each folder is stored. Furthermore, create a folder child group G B in the folder of the group G A, and stores the image data of the object image of the child group G B in the Firuda.

図4(C)の例では、グループGAに対応するフォルダを作成し、当該フォルダにグループGAの対象物画像の画像データを格納する。さらに、グループGAのフォルダ内に子グループGBのフォルダを作成し、当該フィルダに子グループGBの対象物画像の画像データを格納する。さらに、子グループGBのフォルダ内に孫グループGCのフォルダを作成し、当該フィルダに孫グループGCの対象物画像の画像データを格納する。 In the example of FIG. 4 (C), the Create a folder corresponding to the group G A, and stores the image data of the object image group G A to the folder. Furthermore, create a folder child group G B in the folder of the group G A, and stores the image data of the object image of the child group G B in the Firuda. Furthermore, create a folder grandchildren group G C in a folder of the child group G B, and stores the image data of the object image grandchild group G C to the Firuda.

ステップS106またはS109の処理の後、あるいは、新たな対象物の載置およびユーザ指示の入力が検出されなかった場合、表示制御部305は、対象物画像の読取処理の継続・終了ボタンを表す画像信号をプロジェクタ208に出力する(S110)。なお、対象物画像の読取処理の継続・終了ボタンは保存ボタン100cに代わって表示される。   After the process of step S106 or S109, or when the placement of a new object and the input of a user instruction are not detected, the display control unit 305 displays an image representing a continuation / end button for the object image reading process The signal is output to the projector 208 (S110). The continuation / end button for the object image reading process is displayed instead of the save button 100c.

操作検出部302は、対象物画像の読取処理の継続・終了ボタンのタッチを検出し(S111)、継続ボタンがタッチされた場合は処理をステップS100に戻して対象物画像の読取処理を継続する。また、終了ボタンがタッチされた場合は対象物画像の読取処理を終了する。なお、読取開始ボタンのユーザ操作による対象物画像の読取処理の開始と同様に、読取終了ボタン(不図示)のユーザ操作により対象物画像の読取処理を終了してもよい。   The operation detection unit 302 detects the touch of the continuation / end button of the object image reading process (S111), and when the continuation button is touched, returns the process to step S100 to continue the object image reading process. . If the end button is touched, the object image reading process ends. Note that the object image reading process may be ended by a user operation of a reading end button (not shown), similarly to the start of the object image reading process by the user operation of the reading start button.

このように、ユーザは、読取台100a上の対象物の配置により、複数の対象物画像をグループ分けして格納する方法を指示することができる。また、グループ境界画像の重畳表示により、指示したグループ分けがフィードバックされ、ユーザは、複数の対象物画像がどのようにグループ分けされ格納されるかを確認して対象物の配置を変更することができる。従って、ユーザの負担が少ない、かつ、直感的な操作を実現することができる。   As described above, the user can instruct a method of storing a plurality of object images by grouping the objects on the reading table 100a. In addition, the grouping instructed is fed back by the superimposed display of the group boundary image, and the user can check how the plurality of object images are grouped and stored to change the arrangement of the objects. it can. Accordingly, it is possible to realize an intuitive operation with less burden on the user.

上記においては、読取台101aに載置された対象物の画像をグループ化する例を説明した。しかし、読取台101aに載置された複数の対象物に重畳がない場合、ユーザはこれら対象物群を個別に扱いたいのか、それとも従来のようにすべての対象物を一つの画像として読込みたいのかを区別するのは難しい。そこで、読取台上に複数の対象物が配置され、かつどの対象物も重なっていない場合は、グループ判定部306においてグループ判定を行わず(保留し)、グループ化の要否判定をユーザに促す表示を表示制御部305が出力するようにしても構わない。   In the above, the example in which the images of the objects placed on the reading table 101a are grouped has been described. However, if there is no overlap between multiple objects placed on the reading table 101a, does the user want to handle these objects individually or whether to read all the objects as one image as in the past? Is difficult to distinguish. Therefore, when a plurality of objects are arranged on the reading table and no objects overlap, the group determination unit 306 does not perform group determination (holds) and prompts the user to determine whether grouping is necessary. The display control unit 305 may output the display.

また、本実施例においては、対象物が置かれた順番を特に考慮しなかったが、新しい対象物が対象物検出部301で検出される際に、何番目に置かれた対象物なのかという順番情報をRAM201に保持しても構わない。保持した順番情報は、蓄積制御部307において、保存する順番を決定するのに利用してもよい。また、読み取った対象物の画像と一緒に順番情報を付与して保存しておけば、例えば、印刷を行う場合にその順番通りに印刷が行えるなどの拡張機能に利用することも可能になる。   Further, in this embodiment, the order in which the objects are placed is not particularly considered, but when the new object is detected by the object detection unit 301, what number the object is placed in? The order information may be held in the RAM 201. The stored order information may be used by the accumulation control unit 307 to determine the order of saving. Further, if order information is given and stored together with the read image of the object, for example, when printing is performed, it can be used for an extended function such that printing can be performed in the order.

[応用例]
画像処理部304の機能を拡張すると次の機能が実現可能である。例えば、画像処理部304において、レシートや帳票といった対象物画像に含まれる金銭情報を光学文字認識(OCR)技術を用いて読み取り、それら対象物画像に含まれる金銭情報の合計金額を表示する。つまり、対象物画像から情報を抽出し、グループごとに抽出した情報をまとめて表示する機能が実現可能である。抽出すべき情報は、金銭情報に限らず、物品の数量情報など、まとめることに意味がある情報であればどのようなものでもよい。
[Application example]
When the functions of the image processing unit 304 are expanded, the following functions can be realized. For example, the image processing unit 304 reads monetary information included in an object image such as a receipt or a form using an optical character recognition (OCR) technique, and displays the total amount of monetary information included in the object image. That is, it is possible to realize a function of extracting information from the object image and displaying the extracted information for each group collectively. The information to be extracted is not limited to monetary information, but may be any information as long as it is meaningful to be collected, such as quantity information of articles.

図6により応用例を説明する。図6(A)に示すように、グループ700の対象物画像に含まれる金銭情報の合計金額を表示701として表示し、グループ702の対象物画像に含まれる金銭情報の合計金額を表示703として表示する。また、表示704は、読取台100a上に載置された対象物すべてに含まれる金銭情報の合計金額である。これら金額情報は、グループ情報の一部(例えばフォルダ名の一部)として、または、グループの一部(例えばテキストデータ)として対象物画像と合わせてストレージ207に格納される。   An application example will be described with reference to FIG. As shown in FIG. 6A, the total amount of monetary information included in the group 700 object image is displayed as a display 701, and the total amount of monetary information included in the group 702 object image is displayed as a display 703. To do. The display 704 is the total amount of money information included in all the objects placed on the reading table 100a. The amount information is stored in the storage 207 together with the object image as part of the group information (for example, part of the folder name) or as part of the group (for example, text data).

また、図6(B)は画像認識技術を利用する別の応用例を示す。図6(B)に示すように、グループ705に含まれる対象物画像からキーワードを抽出して、過去から直前にストレージ207に格納されたグループのキーワードとマッチング処理を行い、関連グループを示す情報を表示する。図6(B)の例では、対象物グループ705のタッチ操作を切っ掛けとして、関連グループを示す情報706、707が表示される。   FIG. 6B shows another application example using the image recognition technology. As shown in FIG. 6 (B), keywords are extracted from the object images included in the group 705, the keyword of the group stored in the storage 207 from the past is matched, and information indicating the related group is obtained. indicate. In the example of FIG. 6B, information 706 and 707 indicating related groups are displayed with the touch operation of the object group 705 being triggered.

ユーザは、新たに読み取るグループ705の対象物画像を、過去から直前に読み取った関連グループにグループ化する場合、関連グループを示す情報706または707にタッチする。このタッチ情報はグループ判定部306に入力され、グループ705の対象物画像をグループ化する対象のグループを示す情報として表示制御部305と蓄積制御部307に出力される。   The user touches the information 706 or 707 indicating the related group when grouping the object images of the group 705 to be newly read into related groups read immediately before from the past. This touch information is input to the group determination unit 306, and is output to the display control unit 305 and the accumulation control unit 307 as information indicating a target group for grouping the object images of the group 705.

このような操作によれば、新たに読み取る対象物画像の画像データを、過去から直前に読み取った対象物画像の画像データとグループ化して、同じ場所へ簡単に保存することができる。   According to such an operation, the image data of the object image to be newly read can be grouped with the image data of the object image read immediately before from the past, and can be easily stored in the same place.

なお、上記の機能を実行する場合のUIの詳細は示さないが、表示制御部305とプロジェクタ208によってメニュー画面を読取台100aに表示し、ユーザがメニュー画面を操作することで上記機能の実行を指示する。   Although details of the UI for executing the above function are not shown, the menu screen is displayed on the reading table 100a by the display control unit 305 and the projector 208, and the user executes the above function by operating the menu screen. Instruct.

[情報の付与]
次に、グループ情報として付加情報を付与する例を説明する。グループ判定部306は、対象物の重畳配置により同じグループか否かを判定するが、その際、各グループにおける対象物の重なり具合を判定し、最上部に配置された対象物を特定する特定情報を蓄積制御部307に出力する。
[Granting information]
Next, an example of adding additional information as group information will be described. The group determination unit 306 determines whether or not they are the same group based on the overlapping arrangement of the objects. At that time, the group determination unit 306 determines the overlapping state of the objects in each group, and specifies specific information that identifies the object arranged at the top. Is output to the accumulation control unit 307.

図7により付加情報を付加する処理を説明する。図7(A)の例において、グループGX500において最上部に載置された対象物はP0である。また、グループGY501において最上部に載置された対象物はP7である。つまり、グループ判定部306は、グループGX500について対象物P0を特定する特定情報を出力し、グループGY501について対象物P7を特定する特定情報を出力する。 The process of adding additional information will be described with reference to FIG. In the example of FIG. 7 (A), the object placed at the top in the group G X 500 is P0. In addition, the object placed at the top of the group G Y 501 is P7. That is, the group determination unit 306 outputs identification information that identifies the object P0 for the group G X 500, and outputs identification information that identifies the object P7 for the group G Y 501.

蓄積制御部307は、グループGXに対応するフォルダを作成し、当該フィルダにグループGXの対象物画像P0、P1、P2、P3、P4の画像データを格納する。さらに、特定情報が示す対象物画像P0をグループGXの代表画像に設定する(対象物画像P0に代表画像を示す情報を付与する)。また、グループGYに対応するフォルダを作成し、当該フォルダにグループGYの対象物画像P5、P6、P7、P8の画像データを格納する。さらに、特定情報が示す対象物画像P7をグループGYの代表画像に設定する。 Accumulation control unit 307 creates a folder corresponding to the group G X, and stores the image data of the group G X of the object image P0, P1, P2, P3, P4 to the Firuda. Furthermore, (confer information showing a representative image in the object image P0) specific information to set the object image P0 to the representative image of the group G X shown. It also creates a folder corresponding to the group G Y, stores the image data of the group G Y of the object image P5, P6, P7, P8 in the folder. Further, to set the object image P7 indicating the specific information to the representative image of the group G Y.

図7(B)は、グループの入れ子判定と付加情報の付与を説明する図で、グループをGZ1502と、グループをGZ2503が配置され、両グループの間の距離が所定の閾値以下、かつ、対象物P0のy座標が対象物P2〜P9のy座標よりも大きい場合を示す。つまり、グループGZ2503は、グループをGZ1502の子グループと判定される。この場合、蓄積制御部307は、グループGZに対応するフォルダを作成し、当該フォルダに対象物画像P0〜P9の画像データを格納する。さらに、特定情報が示す対象物画像P1を含むグループGZ1に含まれる対象物画像P0とP1をグループGZの代表画像に設定する。 FIG. 7 (B) is a diagram for explaining group nesting determination and addition of additional information.Group G G1502 and group G Z2 503 are arranged, and the distance between both groups is equal to or smaller than a predetermined threshold value. And the case where the y coordinate of the target object P0 is larger than the y coordinate of the target objects P2-P9 is shown. That is, the group G Z2 503 is determined as a child group of G Z1 502. In this case, accumulation control section 307 creates a folder corresponding to the group G Z, and stores the image data of the object image P0~P9 to the folder. Further, the object images P0 and P1 included in the group G Z1 including the object image P1 indicated by the specific information are set as the representative images of the group G Z.

このように、対象物の重なり、さらに各グループの配置を考慮して、グループに付加情報を付与(この例では代表画像を設定)する。   In this way, additional information is given to the group (in this example, a representative image is set) in consideration of the overlap of objects and the arrangement of each group.

なお、上記では、ユーザの操作性を向上するために、画像が投影可能な読取台100aに対象物を上向きに載置して、上から対象物画像をスキャン(または撮影)し、グループ分けの判定結果を読取台100aに投影する例を説明した。しかし、グループ分けの判定結果を読取台に表示できず他の表示部を用いるなどユーザの操作性は若干悪くなるが、対象物を下向きに載置して下から対象物をスキャン(または撮影)して対象物画像を取得してもよい。その場合も、対象物の重畳状態によるグループ分けの判定は可能である。   In the above, in order to improve the operability for the user, the object is placed upward on the reading table 100a on which an image can be projected, the object image is scanned (or photographed) from above, and grouping is performed. The example in which the determination result is projected onto the reading table 100a has been described. However, the user's operability is a little worse, such as using other display units because the grouping determination result cannot be displayed on the reading table, but the object is placed downward and the object is scanned (or photographed) from below. Then, the object image may be acquired. Even in that case, it is possible to determine the grouping based on the overlapping state of the objects.

以下、本発明にかかる実施例2の画像読取処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image reading process according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例1では、読取台100aのサイズに比べて対象物のサイズが充分に小さい場合を説明した。しかし、読取台100aのサイズに比べて大きい対象物も存在する。読取台100aに複数の対象物を並置できないサイズの場合、読取台100aに載置した対象物は互いに重畳して、すべて同じグループとして処理される。例えば、読取台100aがA3サイズの場合、読取台100aにA4サイズの複数の対象物をグループ分けして並置することはできない。   In the first embodiment, the case where the size of the object is sufficiently smaller than the size of the reading table 100a has been described. However, there are also objects that are larger than the size of the reading table 100a. In the case of a size in which a plurality of objects cannot be juxtaposed on the reading table 100a, the objects placed on the reading table 100a are overlapped with each other and are all processed as the same group. For example, when the reading table 100a is A3 size, a plurality of A4 size objects cannot be grouped and juxtaposed on the reading table 100a.

実施例2では、読取台100aに、複数の対象物をグループ分けして並置することができない場合に、対象物画像のグループ分けや格納方法を指示可能にする例を説明する。   In the second embodiment, an example will be described in which it is possible to instruct grouping and storage methods of object images when a plurality of objects cannot be grouped and juxtaposed on the reading table 100a.

図8のフローチャートにより実施例2の対象物画像の読取処理を説明する。なお、ステップS100〜S106、S109〜S111の処理は実施例1と同様の処理であり、その詳細説明を省略する。   The object image reading process of the second embodiment will be described with reference to the flowchart of FIG. The processes in steps S100 to S106 and S109 to S111 are the same as those in the first embodiment, and detailed description thereof is omitted.

対象物画像の読み取り(S104)が終了すると、画像処理部304は、対象物の向きを検出する(S121)。対象物の向きは、例えば、位置・サイズ情報と、対象物画像を用いて検出することができる。つまり、画像処理により対象物のエッジを検出し、対象物の短辺と長辺を決定し、長辺に並行する方向を対象物の向きとする。あるいは、対象物のレイアウトや文字認識を行い、レイアウトの向きや文字の並びに基づき対象物の向きを検出すれば、より精度よく対象物の向きを検出することができる。   When the reading of the object image (S104) ends, the image processing unit 304 detects the direction of the object (S121). The orientation of the object can be detected using, for example, position / size information and the object image. That is, the edge of the object is detected by image processing, the short side and the long side of the object are determined, and the direction parallel to the long side is set as the direction of the object. Alternatively, the orientation of the object can be detected more accurately by performing the layout and character recognition of the object and detecting the orientation of the object based on the layout direction and the character sequence.

次に、グループ判定部306は、読取台100aに並置された対象物の向きが同じか否かを判定し(S122)、判定結果に基づき処理を分岐する。ただし、読取台100aに載置された対象物が一つの場合、判定結果は「否」になり、グループ判定部306は第二のグループ化処理(S124)を実行する。しかし、読取台100aに載置された対象物が一つであるからグループ化されることなく、次の処理(S109)に移行する。   Next, the group determination unit 306 determines whether the orientations of the objects juxtaposed on the reading table 100a are the same (S122), and branches the process based on the determination result. However, when the number of objects placed on the reading table 100a is one, the determination result is “No”, and the group determination unit 306 executes the second grouping process (S124). However, since there is only one object placed on the reading table 100a, the process proceeds to the next process (S109) without being grouped.

グループ判定部306は、読取台100aに載置された複数の対象物の向きが同じ場合は第一のグループ化処理(S123)を実行し、読取台100aに載置された複数の対象物の向きが異なる場合は第二のグループ化処理(S124)を実行する。   The group determination unit 306 performs a first grouping process (S123) when the orientations of the plurality of objects placed on the reading table 100a are the same, and performs a plurality of objects placed on the reading table 100a. If the directions are different, the second grouping process (S124) is executed.

図9により実施例2のグループ化処理を説明する。図9(A)は対象物の向きが同じ場合の第一のグループ化処理(S123)を示し、読取台100aを幾つかの領域に分割(図の例ではx方向に二分割)し、ある領域に対象物の中心座標がある対象物をグループ化する。他の領域に対象物の中心座標がある対象物は他のグループにグループ化される。その際、表示制御部305は、グループ境界を示すためにグループ表示600、601、および、境界線602を表示する。   The grouping process according to the second embodiment will be described with reference to FIG. FIG. 9A shows the first grouping process (S123) in the case where the orientations of the objects are the same, and the reading table 100a is divided into several regions (in the example shown in the figure, divided into two in the x direction). Group objects with center coordinates of objects in the region. Objects whose center coordinates are located in other areas are grouped into other groups. At that time, the display control unit 305 displays group displays 600 and 601 and a boundary line 602 to indicate the group boundaries.

図9(B)は対象物の向きが異なる場合の第二のグループ化処理(S124)を示し、対象物の向きがx軸方向の対象物をグループ化し、対象物の向きがy軸方向の対象物を別のグループにグループ化する。その際、表示制御部305は、グループ境界を示すためにグループ表示603、604を表示する。   FIG. 9 (B) shows the second grouping process (S124) when the orientations of the objects are different, grouping the objects with the orientation of the objects in the x-axis direction, and the orientation of the objects in the y-axis direction. Group objects into different groups. At that time, the display control unit 305 displays group displays 603 and 604 to indicate group boundaries.

このように、対象物の向きにより二つのグループ化処理を切り換えて、読取台100aに比べて対象物のサイズが大きく、複数の対象物をグループ分けして並置することができない場合も、対象物画像のグループ分けや格納方法を指示することができる。   As described above, even when the two grouping processes are switched depending on the direction of the object, the size of the object is larger than the reading table 100a, and a plurality of objects cannot be grouped and juxtaposed. It is possible to instruct how to group and store images.

以下、本発明にかかる実施例3の画像読取処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image reading process according to the third embodiment of the present invention will be described below. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.

実施例3では、対象物のサイズを取得し、取得した対象物のサイズに基づき実施例1の対象物画像の読取処理を行うか、実施例2の対象物画像の読取処理を行うかを切り替える例を説明する。なお、例えば対象物が立体物の場合は、前述したように、対象物のサイズは読取台100aに対する投影面積に相当する。   In the third embodiment, the size of the target object is acquired, and switching between the target image reading process of the first embodiment or the target image reading process of the second embodiment is performed based on the acquired target size. An example will be described. For example, when the object is a three-dimensional object, as described above, the size of the object corresponds to the projected area with respect to the reading table 100a.

図10のフローチャートにより実施例3の対象物画像の読取処理を説明する。なお、ステップS100〜S111、S121〜S124の処理は実施例1と同様の処理であり、その詳細説明を省略する。   The object image reading process of the third embodiment will be described with reference to the flowchart of FIG. The processes in steps S100 to S111 and S121 to S124 are the same as those in the first embodiment, and detailed description thereof is omitted.

対象物画像の読み取り(S104)が終了すると、画像処理部304は、対象物検出部301は、位置・サイズ情報を参照して、読取台100aのサイズに対する対象物のサイズを判定する(S131)。この判定は例えば次式によって行い、計算された面積比が所定の比率以下の場合、対象物のサイズは読取台100aのサイズに対して小さいと判定する。
AD/AP ≦ Th …(1)
ここで、ADは対象物の面積(投影面積)、
APは読取台100aの面積(画像読取可能な面積)、
Thは所定の比率(閾値、例えば0.4)。
When reading of the object image (S104) ends, the image processing unit 304 refers to the position / size information, and the object detection unit 301 determines the size of the object with respect to the size of the reading table 100a (S131). . This determination is performed by, for example, the following equation. When the calculated area ratio is equal to or less than a predetermined ratio, it is determined that the size of the object is smaller than the size of the reading table 100a.
A D / A P ≤ Th… (1)
Where A D is the area of the object (projected area),
A P is the area of the reading table 100a (area where the image can be read),
Th is a predetermined ratio (threshold value, for example, 0.4).

例えば、読取台100aがA3サイズの場合、B5サイズ以下の対象物は小さいと判定され、A4サイズ以上の対象物は大きいと判定される。対象物のサイズが小さい場合、処理はステップS107へ進み、実施例1と同様の処理が実行される。また、対象物のサイズが大きい場合、処理はステップS121へ進み、実施例2と同様の処理が実行される。   For example, when the reading table 100a is A3 size, it is determined that an object of B5 size or less is small, and an object of A4 size or more is determined to be large. If the size of the object is small, the process proceeds to step S107, and the same process as in the first embodiment is executed. If the size of the object is large, the process proceeds to step S121, and the same process as in the second embodiment is executed.

このように、読取台100aのサイズと対象物のサイズに応じて処理を切り替えることができる。   In this way, the processing can be switched according to the size of the reading table 100a and the size of the object.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (21)

対象物が載置される読取台と、
前記読取台を連続して撮像する撮像手段と、
該撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得手段と、
該取得手段により新たな対象物画像が取得された場合、当該新たな対象物画像が、当該新たな対象物画像より前に取得した他の対象物画像のいずれかと重畳するか否かを、それぞれの位置とサイズから判定する判定手段と、
該判定手段により前記新たな対象物画像が前記他の対象物画像のいずれかと重畳すると判定された場合に、前記新たな対象物画像と、重畳すると判定された他の対象物画像とをグループ化し、
該判定手段により前記新たな対象物画像が前記他の対象物画像のいずれとも重畳しない場合には、前記新たな対象物画像をグループ化の対象外とするグループ化手段と、
を有することを特徴とする画像読取装置。
A reading table on which the object is placed;
Imaging means for continuously imaging the reading table;
An acquisition means for detecting the position and size of an object image representing an object newly placed on the reading table and acquiring the object image from the captured image obtained by the imaging means;
When a new object image is acquired by the acquisition unit, whether or not the new object image is superimposed on any of the other object images acquired before the new object image, Judging means for judging from the position and size of
When the determination unit determines that the new object image is to be superimposed on one of the other object images, the new object image is grouped with the other object image determined to be superimposed. ,
Grouping means for excluding the new object image from the grouping object when the new object image does not overlap with any of the other object images by the determining means;
An image reading apparatus comprising:
前記読取台を投影面とする投影手段と、
前記取得手段により前記新たな対象物画像が取得されるたびに、同じグループに属する対象物の境界を表す画像を前記投影手段を用いて投影する投影制御手段と
を有することを特徴とする請求項1に記載の画像読取装置。
A projection unit having the reading table as a projection plane;
The projection control means for projecting an image representing a boundary of objects belonging to the same group using the projection means each time the new object image is obtained by the obtaining means. the image reading apparatus according to 1.
更に、ユーザからの所定の指示があった場合、当該指示より前に前記取得手段により取得した対象物画像それぞれを、グループ別に所定の記憶装置に蓄積する蓄積制御手段とを有することを特徴とする請求項1又は2に記載の画像読取装置。   Furthermore, when there is a predetermined instruction from the user, it has an accumulation control means for storing each object image acquired by the acquisition means before the instruction in a predetermined storage device for each group. The image reading apparatus according to claim 1. 前記判定手段が前記読取台に載置されていく複数の対象物が互いに重畳しないと判定した場合、当該複数の対象物それぞれの対象物画像のグループ化の要否をユーザに促す表示を行う手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像読取装置。   Means for displaying a message prompting the user to determine whether or not to group the object images of the plurality of objects when the determining means determines that the plurality of objects to be placed on the reading table do not overlap each other; The image reading apparatus according to claim 1, further comprising: 対象物が載置される読取台と、
前記読取台を連続して撮像する撮像手段と、
該撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得手段と、
該取得手段により新たな対象物画像が取得された場合、当該新たな対象物画像の中心座標が、予め設定された複数の領域のいずれの領域内にあるかを判定する判定手段と、
前記読取台に載置されている他の対象物のうち、前記判定手段により前記新たな対象物画像の中心座標があると判定された領域と同じ領域内に中心座標を持つ対象物を表す他の対象物画像と、前記新たな対象物画像とをグループ化するグループ化手段と、
を有することを特徴とする画像読取装置。
A reading table on which the object is placed;
Imaging means for continuously imaging the reading table;
An acquisition means for detecting the position and size of an object image representing an object newly placed on the reading table and acquiring the object image from the captured image obtained by the imaging means;
When a new object image is acquired by the acquisition unit, a determination unit that determines in which of a plurality of preset regions the center coordinates of the new object image are located;
Other than the other objects placed on the reading table, the object representing the center coordinates in the same area as the area determined by the determining means as having the center coordinates of the new object image. Grouping means for grouping the target image and the new target image ;
An image reading apparatus comprising:
対象物が載置される読取台と、
前記読取台を連続して撮像する撮像手段と、
該撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得手段と、
該取得手段により取得した前記新たな対象物画像の向きを判定する判定手段と、
前記読取台に載置されている他の対象物のうち、前記判定手段により前記新たな対象物画像の向きとして判定された向きと同じ向きの対象物を表す他の対象物画像と、前記新たな対象物画像とをグループ化するグループ化手段と、
を有することを特徴とする画像読取装置。
A reading table on which the object is placed;
Imaging means for continuously imaging the reading table;
An acquisition means for detecting the position and size of an object image representing an object newly placed on the reading table and acquiring the object image from the captured image obtained by the imaging means;
Determining means for determining the orientation of the new object image acquired by the acquiring means;
Among the other objects placed on the reading table, another object image representing an object in the same direction as the direction determined by the determination unit as the direction of the new object image, and the new object Grouping means for grouping various object images ;
An image reading apparatus comprising:
対象物が載置される読取台と、
前記読取台に載置された対象物を含む画像を読み取る読取手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取手段によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された複数の対象物の重畳状態に基づき、前記複数の対象物から読み取られた複数の画像のうち、グループ化する対象物の画像を判定する判定手段を有し、
前記グループ化手段は、前記判定手段の判定結果に従い前記グループ化を行い、
前記判定手段は、前記グループ化する対象物の画像のグループが複数存在する場合、前記読取手段が読み取った画像に示される前記読取台上の、前記グループの間の距離と各グループの位置に基づき、前記複数のグループの包含関係を判定することを特徴とする画像読取装置。
A reading table on which the object is placed;
Reading means for reading an image including an object placed on the reading table;
Grouping means for grouping a plurality of images read from the plurality of objects by the reading means based on the arrangement of the plurality of objects placed on the reading table indicated by the image read by the reading means. When,
The images of the objects to be grouped among the plurality of images read from the plurality of objects based on the superimposed state of the plurality of objects placed on the reading table shown in the image read by the reading means. A determination means for determining
The grouping means performs the grouping according to the determination result of the determination means,
When there are a plurality of groups of images of the objects to be grouped, the determination unit is based on the distance between the groups and the position of each group on the reading table indicated by the image read by the reading unit. An image reading apparatus that determines an inclusion relationship between the plurality of groups.
対象物が載置される読取台と、
前記読取台に載置された対象物を含む画像を読み取る読取手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取手段によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された複数の対象物の重畳状態に基づき、前記複数の対象物から読み取られた複数の画像のグループ化を判定する判定手段とを有し、
前記判定手段は、前記グループ化する対象物の画像のグループが複数存在する場合、前記読取手段が読み取った画像に示される前記読取台上の、前記グループの間の距離と各グループの位置に基づき、前記複数のグループの包含関係を判定し、
前記グループ化手段は、前記判定手段の判定結果に従い前記グループ化を行うことを特徴とする画像読取装置。
A reading table on which the object is placed;
Reading means for reading an image including an object placed on the reading table;
Grouping means for grouping a plurality of images read from the plurality of objects by the reading means based on the arrangement of the plurality of objects placed on the reading table indicated by the image read by the reading means. When,
Determining means for determining grouping of a plurality of images read from the plurality of objects based on a superimposed state of the plurality of objects placed on the reading table shown in the image read by the reading means; Have
When there are a plurality of groups of images of the objects to be grouped, the determination unit is based on the distance between the groups and the position of each group on the reading table indicated by the image read by the reading unit. , Determining the inclusion relationship of the plurality of groups,
The image reading apparatus according to claim 1, wherein the grouping unit performs the grouping according to a determination result of the determination unit.
対象物が載置される読取台と、
前記読取台に載置された対象物を含む画像を読み取る読取手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取手段によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化手段と、
前記読取手段が読み取った画像に示される前記読取台に載置された対象物の面積と前記読取台の面積の比に基づき、前記複数の対象物から読み取られた複数の画像のグループ化を判定する判定手段とを有し、
前記判定手段は、前記比が所定の比率以下の場合は前記読取台に載置された複数の対象物の重畳状態に基づきグループ化する対象物の画像を判定し、前記比が前記所定の比率を超える場合は前記読取台に載置された複数の対象物の中心座標または向きに基づきグループ化する対象物の画像を判定し、
前記グループ化手段は、前記判定手段の判定結果に従い前記グループ化を行うことを特徴とする画像読取装置。
A reading table on which the object is placed;
Reading means for reading an image including an object placed on the reading table;
Grouping means for grouping a plurality of images read from the plurality of objects by the reading means based on the arrangement of the plurality of objects placed on the reading table indicated by the image read by the reading means. When,
Grouping of a plurality of images read from the plurality of objects is determined based on a ratio of the area of the object placed on the reading table and the area of the reading table indicated in the image read by the reading unit. Determination means for
The determination means determines an image of the objects to be grouped based on a superimposed state of a plurality of objects placed on the reading table when the ratio is equal to or less than a predetermined ratio, and the ratio is the predetermined ratio. If it exceeds, determine the images of the objects to be grouped based on the center coordinates or orientation of the plurality of objects placed on the reading table,
The image reading apparatus according to claim 1, wherein the grouping unit performs the grouping according to a determination result of the determination unit.
さらに、前記判定の結果を表す情報を前記読取台に表示する表示制御手段を有することを特徴とする請求項7乃至9の何れか一項に記載された画像読取装置。   The image reading apparatus according to claim 7, further comprising display control means for displaying information representing the determination result on the reading table. さらに、前記対象物の画像から所定の情報を抽出し、前記抽出した情報を前記対象物の画像のグループごとにまとめる抽出手段を有し、
前記表示制御手段は、前記グループごとにまとめられた情報を前記グループごとに前記読取台に表示することを特徴とする請求項10に記載された画像読取装置。
Furthermore, it has extraction means for extracting predetermined information from the image of the object, and collecting the extracted information for each group of images of the object,
The image reading apparatus according to claim 10, wherein the display control unit displays information collected for each group on the reading table for each group.
さらに、前記対象物の画像からキーワードを抽出し、前記抽出したキーワードにマッチするグループを表す情報を取得する取得手段を有し、
前記表示制御手段は、前記取得された情報を前記読取台に表示することを特徴とする請求項11に記載された画像読取装置。
Furthermore, it has an acquisition means for extracting a keyword from the image of the object and acquiring information representing a group that matches the extracted keyword,
The image reading apparatus according to claim 11, wherein the display control unit displays the acquired information on the reading table.
さらに、前記読取台に表示された前記グループを表す情報を指示するユーザ指示を入力する入力手段を有し、
前記判定手段は、前記ユーザ指示が指示するグループを、前記キーワードが抽出された対象物の画像をグループ化する対象のグループとすることを特徴とする請求項12に記載された画像読取装置。
Furthermore, it has an input means for inputting a user instruction for instructing information representing the group displayed on the reading table,
The image reading apparatus according to claim 12, wherein the determination unit sets a group indicated by the user instruction as a group to which an image of an object from which the keyword is extracted is grouped.
対象物が載置される読取台と、当該読取台を連続して撮像する撮像手段とを有する画像読取装置の制御方法であって、
取得手段が、前記撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得工程と、
判定手段が、該取得工程により新たな対象物画像が取得された場合、当該新たな対象物画像が、当該新たな対象物画像より前に取得した他の対象物画像のいずれかと重畳するか否かを、それぞれの位置とサイズから判定する判定工程と、
グループ化手段が、
前記判定工程により前記新たな対象物画像が前記他の対象物画像のいずれかと重畳すると判定された場合に、前記新たな対象物画像と、重畳すると判定された他の対象物画像とをグループ化し、
前記判定工程により前記新たな対象物画像が前記他の対象物画像のいずれとも重畳しない場合には、前記新たな対象物画像をグループ化の対象外とするグループ化工程と、
を有することを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus, comprising: a reading table on which an object is placed; and an imaging unit that continuously images the reading table;
An acquisition step in which the acquisition unit detects the position and size of the target image representing the target newly placed on the reading table from the captured image obtained by the imaging unit, and acquires the target image. When,
Whether or not the new object image is superimposed on any of the other object images acquired before the new object image when the determination unit acquires a new object image in the acquisition process Or a determination step for determining from each position and size;
Grouping means
When it is determined in the determination step that the new object image is to be superimposed with any of the other object images, the new object image is grouped with the other object image determined to be superimposed. ,
A grouping step of excluding the new target image from the grouping target when the new target image is not superimposed on any of the other target images by the determination step;
An image reading apparatus control method comprising:
対象物が載置される読取台と、当該読取台を連続して撮像する撮像手段とを有する画像読取装置の制御方法であって、
取得手段が、前記撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得工程と、
判定手段が、前記取得工程により新たな対象物画像が取得された場合、当該新たな対象物画像の中心座標が、予め設定された複数の領域のいずれの領域内にあるかを判定する判定工程と、
グループ化手段が、前記読取台に載置されている他の対象物のうち、前記判定工程により前記新たな対象物画像の中心座標があると判定された領域と同じ領域内に中心座標を持つ対象物を表す他の対象物画像と、前記新たな対象物画像とをグループ化するグループ化工程と、
を有することを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus, comprising: a reading table on which an object is placed; and an imaging unit that continuously images the reading table;
An acquisition step in which the acquisition unit detects the position and size of the target image representing the target newly placed on the reading table from the captured image obtained by the imaging unit, and acquires the target image. When,
When the determination unit acquires a new object image by the acquisition step, the determination unit determines whether the center coordinates of the new object image are within a plurality of preset regions. When,
The grouping means has center coordinates in the same area as the area determined by the determination step that the center coordinates of the new object image are present among the other objects placed on the reading table. A grouping step of grouping another object image representing an object and the new object image ;
An image reading apparatus control method comprising:
対象物が載置される読取台と、当該読取台を連続して撮像する撮像手段とを有する画像読取装置の制御方法であって、
取得手段が、前記撮像手段により得られた撮像画像から、前記読取台に新たに載置された対象物を表す対象物画像の位置とサイズを検出すると共に、前記対象物画像を取得する取得工程と、
判定手段が、前記取得工程により取得した前記新たな対象物画像の向きを判定する判定工程と、
グループ化手段が、前記読取台に載置されている他の対象物のうち、前記判定工程により前記新たな対象物画像の向きとして判定された向きと同じ向きの対象物を表す他の対象物画像と、前記新たな対象物画像とをグループ化するグループ化工程と、
を有することを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus, comprising: a reading table on which an object is placed; and an imaging unit that continuously images the reading table;
An acquisition step in which the acquisition unit detects the position and size of the target image representing the target newly placed on the reading table from the captured image obtained by the imaging unit, and acquires the target image. When,
A determination step of determining a direction of the new object image acquired by the acquisition step;
Another object in which the grouping means represents an object in the same direction as the direction determined as the direction of the new object image by the determination step among the other objects placed on the reading table . A grouping step of grouping the image and the new object image ;
An image reading apparatus control method comprising:
対象物が載置される読取台を有する画像読取装置の制御方法であって、
読取手段が、前記読取台に載置された対象物を含む画像を読み取る読取工程と、
グループ化手段が、前記読取工程で読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取工程によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化工程と、
判定手段が、前記読取工程で読み取った画像に示される前記読取台に載置された複数の対象物の重畳状態に基づき、前記複数の対象物から読み取られた複数の画像のうち、グループ化する対象物の画像を判定する判定工程とを有し、
前記グループ化工程は、前記判定工程の判定結果に従い前記グループ化を行い、
前記判定工程は、前記グループ化する対象物の画像のグループが複数存在する場合、前記読取工程で読み取った画像に示される前記読取台上の、前記グループの間の距離と各グループの位置に基づき、前記複数のグループの包含関係を判定することを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus having a reading table on which an object is placed,
A reading step for reading an image including an object placed on the reading table;
A grouping unit groups a plurality of images read from the plurality of objects by the reading step based on the arrangement of the plurality of objects placed on the reading table indicated in the image read by the reading step. Grouping process to
The determination unit groups the plurality of images read from the plurality of objects based on the superimposed state of the plurality of objects placed on the reading table indicated in the image read in the reading step. A determination step of determining an image of the object,
The grouping step performs the grouping according to the determination result of the determination step,
In the determination step, when there are a plurality of groups of images of the objects to be grouped, based on the distance between the groups and the position of each group on the reading table indicated in the image read in the reading step. A method for controlling an image reading apparatus, wherein an inclusion relationship between the plurality of groups is determined.
対象物が載置される読取台を有する画像読取装置の制御方法であって、
読取手段が、前記読取台に載置された対象物を含む画像を読み取る読取工程と、
グループ化手段が、前記読取工程で読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取工程によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化工程と、
判定手段が、前記読取工程で読み取った画像に示される前記読取台に載置された複数の対象物の重畳状態に基づき、前記複数の対象物から読み取られた複数の画像のグループ化を判定する判定工程とを有し、
前記判定工程は、前記グループ化する対象物の画像のグループが複数存在する場合、前記読取工程で読み取った画像に示される前記読取台上の、前記グループの間の距離と各グループの位置に基づき、前記複数のグループの包含関係を判定し、
前記グループ化工程は、前記判定工程の判定結果に従い前記グループ化を行うことを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus having a reading table on which an object is placed,
A reading step for reading an image including an object placed on the reading table;
A grouping unit groups a plurality of images read from the plurality of objects by the reading step based on the arrangement of the plurality of objects placed on the reading table indicated in the image read by the reading step. Grouping process to
A determination unit determines grouping of a plurality of images read from the plurality of objects based on a superimposed state of the plurality of objects placed on the reading table indicated in the image read in the reading step. A determination step,
In the determination step, when there are a plurality of groups of images of the objects to be grouped, based on the distance between the groups and the position of each group on the reading table indicated in the image read in the reading step. , Determining the inclusion relationship of the plurality of groups,
In the grouping step, the grouping is performed according to the determination result of the determination step.
対象物が載置される読取台を有する画像読取装置の制御方法であって、
読取手段が、前記読取台に載置された対象物を含む画像を読み取る読取工程と、
グループ化手段が、前記読取工程で読み取った画像に示される前記読取台に載置された複数の対象物の配置に基づき、前記読取工程によって前記複数の対象物から読み取られた複数の画像をグループ化するグループ化工程と、
判定手段が、前記読取工程で読み取った画像に示される前記読取台に載置された対象物の面積と前記読取台の面積の比に基づき、前記複数の対象物から読み取られた複数の画像のグループ化を判定する判定工程とを有し、
前記判定工程は、前記比が所定の比率以下の場合は前記読取台に載置された複数の対象物の重畳状態に基づきグループ化する対象物の画像を判定し、前記比が前記所定の比率を超える場合は前記読取台に載置された複数の対象物の中心座標または向きに基づきグループ化する対象物の画像を判定し、
前記グループ化工程は、前記判定工程の判定結果に従い前記グループ化を行うことを特徴とする画像読取装置の制御方法。
A method for controlling an image reading apparatus having a reading table on which an object is placed,
A reading step for reading an image including an object placed on the reading table;
A grouping unit groups a plurality of images read from the plurality of objects by the reading step based on the arrangement of the plurality of objects placed on the reading table indicated in the image read by the reading step. Grouping process to
Based on the ratio of the area of the object placed on the reading table and the area of the reading table indicated by the image read in the reading process, the determination unit is configured to calculate a plurality of images read from the plurality of objects. A determination step for determining grouping,
In the determination step, when the ratio is equal to or less than a predetermined ratio, images of the objects to be grouped are determined based on a superimposed state of a plurality of objects mounted on the reading table, and the ratio is the predetermined ratio. If it exceeds, determine the images of the objects to be grouped based on the center coordinates or orientation of the plurality of objects placed on the reading table,
In the grouping step, the grouping is performed according to the determination result of the determination step.
コンピュータに請求項14乃至19のいずれか1項に記載の制御方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the control method of any one of Claim 14 thru | or 19. 請求項20に記載のプログラムを記録されコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 20 is recorded.
JP2012125151A 2012-05-31 2012-05-31 Image reading apparatus and control method thereof Active JP5991737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012125151A JP5991737B2 (en) 2012-05-31 2012-05-31 Image reading apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125151A JP5991737B2 (en) 2012-05-31 2012-05-31 Image reading apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013251741A JP2013251741A (en) 2013-12-12
JP2013251741A5 JP2013251741A5 (en) 2015-07-09
JP5991737B2 true JP5991737B2 (en) 2016-09-14

Family

ID=49850012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125151A Active JP5991737B2 (en) 2012-05-31 2012-05-31 Image reading apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5991737B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690278B2 (en) * 2016-02-10 2020-04-28 富士ゼロックス株式会社 Image processing apparatus and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256491A (en) * 2000-03-13 2001-09-21 Endo Shashin Kogeisho:Kk Device and method for cutting picture and recording medium for recording its program
JP2005328143A (en) * 2004-05-12 2005-11-24 Fuji Xerox Co Ltd Image reader
JP2006185242A (en) * 2004-12-28 2006-07-13 Fuji Photo Film Co Ltd Image synthesizer, image synthesizing program, image synthesizing program storage medium and image synthesizing method
JP2008278307A (en) * 2007-05-01 2008-11-13 Canon Inc Image reading system and document reading system, and their control method

Also Published As

Publication number Publication date
JP2013251741A (en) 2013-12-12

Similar Documents

Publication Publication Date Title
EP1764999B1 (en) Image display device image display method, and computer product
US8782544B2 (en) Display control apparatus, display control method, and storage medium
US20130215022A1 (en) Information processing apparatus, processing method thereof, and computer-readable storage medium
US8635527B2 (en) User interface device, function setting method, and computer program product
JP2004234661A (en) Secondary contact type menu navigation method
US9176683B2 (en) Image information processing method, image information processing apparatus and computer-readable recording medium storing image information processing program
US9623329B2 (en) Operations for selecting and changing a number of selected objects
CN102694940B (en) Information processor and control method thereof
JP6723966B2 (en) Information processing apparatus, display control method, and program
US10672105B2 (en) Display control apparatus changing size of plurality of objects displayed on display device, control method of the display control apparatus, and computer executable instructions for causing a computer to execute the control method
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP4752066B2 (en) Handwriting input processing device, handwriting input processing method, and program for handwriting input processing
JP2012230537A (en) Display control device and program
JP5589309B2 (en) Display control apparatus, image processing apparatus, and program
JP2011145881A (en) Device and method for controlling display
JP5991737B2 (en) Image reading apparatus and control method thereof
JP2008092451A (en) Scanner system
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
US20100185944A1 (en) Layout apparatus, layout method, and storage medium
US20150009534A1 (en) Operation apparatus, image forming apparatus, method for controlling operation apparatus, and storage medium
US20070234238A1 (en) Document searching apparatus
US20210208845A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6700705B2 (en) Distribution system, information processing method, and program
JP6582954B2 (en) Document camera device, clipping support method and program
JP6891439B2 (en) Image display device program, image display device, image display device control method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160516

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160812

R151 Written notification of patent or utility model registration

Ref document number: 5991737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151