JP2021117920A - Storage device - Google Patents

Storage device Download PDF

Info

Publication number
JP2021117920A
JP2021117920A JP2020012839A JP2020012839A JP2021117920A JP 2021117920 A JP2021117920 A JP 2021117920A JP 2020012839 A JP2020012839 A JP 2020012839A JP 2020012839 A JP2020012839 A JP 2020012839A JP 2021117920 A JP2021117920 A JP 2021117920A
Authority
JP
Japan
Prior art keywords
unit
warehousing
document
image
cover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020012839A
Other languages
Japanese (ja)
Inventor
和彦 駒井
Kazuhiko Komai
和彦 駒井
幸治 山内
Koji Yamauchi
幸治 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KOMAI KK
Original Assignee
KOMAI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KOMAI KK filed Critical KOMAI KK
Priority to JP2020012839A priority Critical patent/JP2021117920A/en
Publication of JP2021117920A publication Critical patent/JP2021117920A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a storage device that allows documents in a storage to be recognized easily.SOLUTION: A storage device includes: a storage that stores a document; an imaging unit disposed on an inner surface of the storage and captures an image of the cover of the document that is put in or taken out; a generation unit that generates a feature quantity of the put-in document based on the cover image captured by the imaging unit; and a registration unit that registers the feature quantity of the put-in document generated by the generation unit in association with an entry flag indicating the document is put in. Preferably, the storage device further includes a position detector for detecting an entry position of the document in the storage.SELECTED DRAWING: Figure 1

Description

本技術は、書籍、ファイル、図面及び封書などの書類を収納する収納装置に関する。 The present technology relates to a storage device for storing documents such as books, files, drawings and envelopes.

オフィス内の本棚または図書館の書庫などには、書籍、ファイル、図面及び封書などの書類が収納される。書類は共用され、様々な場所に移動する。そのため、所望の書類の所在が不明となることがある。 Documents such as books, files, drawings and envelopes are stored in bookshelves in offices or library libraries. Documents are shared and moved to various places. Therefore, the location of the desired document may be unknown.

特許文献1には、空間、例えば棚及び書類が置かれた部屋の天井にカメラを設置し、書類の棚への出し入れを認識する画像処理装置が開示されている。画像処理装置は、カメラによって撮像された書類の画像から文字情報を取り出して、書類を識別し、識別された書類の棚への出し入れを認識する。 Patent Document 1 discloses an image processing device in which a camera is installed on a space, for example, a shelf and the ceiling of a room in which a document is placed, and the image processing device recognizes the putting in and out of the document on the shelf. The image processing device extracts text information from the image of the document captured by the camera, identifies the document, and recognizes the loading and unloading of the identified document on the shelf.

特開2019−28897号公報Japanese Unexamined Patent Publication No. 2019-28897

前記画像処理装置は、部屋に設置されたカメラによって、所望の書類が収納された棚を認識する。しかし、部屋の天井などにカメラが設置されている場合、カメラと書類との間の距離は長く、撮像された画像から、書類を識別することは、カメラの解像度によっては、困難となる。 The image processing device recognizes a shelf containing desired documents by a camera installed in the room. However, when the camera is installed on the ceiling of a room or the like, the distance between the camera and the document is long, and it is difficult to identify the document from the captured image depending on the resolution of the camera.

本開示は斯かる事情に鑑みてなされたものであり、収納庫内における書類を認識し易い収納装置を提供することを目的とする。 The present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide a storage device that makes it easy to recognize documents in the storage.

本開示の一実施形態に係る収納装置は、書類を収納する収納庫と、該収納庫の内側面に配置され、入庫または出庫する前記書類の表紙を撮像する撮像部と、前記撮像部にて撮像された表紙画像に基づいて、入庫する前記書類の特徴量を生成する生成部と、該生成部にて生成され、入庫する前記書類の特徴量を、入庫を示す入庫フラグに紐づけて登録する登録部とを備える。 The storage device according to an embodiment of the present disclosure includes a storage for storing documents, an imaging unit arranged on the inner side surface of the storage and imaging the cover of the document to be stored or delivered, and the imaging unit. Based on the captured cover image, the generation unit that generates the feature amount of the document to be stored and the feature amount of the document generated and stored by the generation unit are registered in association with the receipt flag indicating the receipt. It has a registration unit to do.

本開示の一実施形態に係る収納装置にあっては、収納庫の内側に撮像部を配置し、撮像部にて撮像された表紙画像に基づいて、書類の特徴量を生成する。収納庫内に撮像部を設けているので、入庫または出庫する書類と撮像部との距離が短くなり、画像から書類を認識し易くなる。また生成した書類の特徴量に入庫フラグを紐づけて、登録するので、ユーザは登録情報を参照して、収納庫内の書類を認識することができる。 In the storage device according to the embodiment of the present disclosure, an imaging unit is arranged inside the storage, and a feature amount of a document is generated based on a cover image captured by the imaging unit. Since the image pickup unit is provided in the storage, the distance between the document to be received or delivered and the image pickup section is shortened, and the document can be easily recognized from the image. Further, since the warehousing flag is associated with the feature amount of the generated document and registered, the user can recognize the document in the storage by referring to the registration information.

実施の形態1に係る収納庫の略示斜視図である。It is a schematic perspective view of the storage which concerns on Embodiment 1. FIG. 制御装置付近の構成を示すブロック図である。It is a block diagram which shows the structure in the vicinity of a control device. 制御装置による撮像処理を説明するフローチャートである。It is a flowchart explaining the imaging process by a control device. 書類の表表紙の表紙画像の一例を示す図である。It is a figure which shows an example of the cover image of the cover of a document. 書類の裏表紙の表紙画像の一例を示す図である。It is a figure which shows an example of the cover image of the back cover of a document. 入庫または出庫の区別を説明する説明図である。It is explanatory drawing explaining the distinction of warehousing or warehousing. 制御装置による文字画像抽出処理を説明するフローチャートである。It is a flowchart explaining the character image extraction process by a control device. 輪郭追跡を説明する説明図である。It is explanatory drawing explaining the contour tracking. 矩形領域を説明する説明図である。It is explanatory drawing explaining the rectangular area. 制御装置によるデータ演算処理を説明するフローチャートである。It is a flowchart explaining the data calculation process by a control device. 抽出された文字画像の一例を示す概念図である。It is a conceptual diagram which shows an example of the extracted character image. サイズ分類の一例を示す概念図である。It is a conceptual diagram which shows an example of size classification. 図4の表表紙の表紙画像に対する行の座標分類の一例を示す概念図である。It is a conceptual diagram which shows an example of the coordinate classification of a row with respect to the cover image of the front cover of FIG. 記憶部に記憶された入出庫テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of the warehousing / delivery table stored in the storage part. 記憶部に記憶された登録テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of the registration table stored in the storage part. 制御装置による更新処理を説明するフローチャートである。It is a flowchart explaining the update process by a control device. 書類の情報を表示する表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which displays the information of a document. 実施の形態2に係る複数の図形を有する文字に対して設定された複数の矩形領域を示す模式図である。It is a schematic diagram which shows the plurality of rectangular areas set for the character which has the plurality of figures which concerns on Embodiment 2. FIG. 複数の図形を有する文字に対して設定された複数の円形領域を示す模式図である。It is a schematic diagram which shows a plurality of circular areas set for the character which has a plurality of figures. 制御装置による文字画像抽出処理を説明するフローチャートである。It is a flowchart explaining the character image extraction process by a control device. 実施の形態3に係る収納装置の構成を略示するブロック図である。It is a block diagram which shows the structure of the storage device which concerns on Embodiment 3. 表紙推定部の構成例を模式的に示す説明図である。It is explanatory drawing which shows the structural example of the cover estimation part schematically. サーバによる更新処理を説明するフローチャートである。It is a flowchart explaining the update process by a server. 実施の形態4に係る収納装置の構成を略示するブロック図である。It is a block diagram which shows the structure of the storage device which concerns on Embodiment 4. 文字推定部の構成例を模式的に示す説明図である。It is explanatory drawing which shows the structural example of the character estimation part schematically. 入出庫テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of the warehousing / delivery table. 文字テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a character table. 登録テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a registration table. 文字テーブルの一例を示す概念図である。It is a conceptual diagram which shows an example of a character table. 表紙推定部の構成例を模式的に示す説明図である。It is explanatory drawing which shows the structural example of the cover estimation part schematically. 書類の情報を表示する表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which displays the information of a document. 複数の収納庫に収納された書類の情報を表示する表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which displays the information of the document stored in a plurality of storages.

(実施の形態1)
以下本発明を、実施の形態1に係る収納装置を示す図面に基づいて説明する。図1は、収納庫の略示斜視図である。以下の説明では、図中に示す上下前後左右を使用する。収納装置は、書籍またはファイルなどの書類を収納する収納庫1を備える。収納庫1は、例えば、前面に開口が形成された直方体をなす。収納庫1は矩形の底板2を有し、該底板2の左右辺に、対向する二つの側板3がそれぞれ設けられている。側板3は、上下に延びた矩形をなす。
(Embodiment 1)
Hereinafter, the present invention will be described with reference to the drawings showing the storage device according to the first embodiment. FIG. 1 is a schematic perspective view of the storage. In the following description, the top, bottom, front, back, left, and right shown in the figure are used. The storage device includes a storage 1 for storing documents such as books or files. The storage 1 is, for example, a rectangular parallelepiped having an opening formed in the front surface. The storage 1 has a rectangular bottom plate 2, and two opposite side plates 3 are provided on the left and right sides of the bottom plate 2. The side plate 3 forms a rectangle extending vertically.

該二つの側板3の間に、開口に対向する矩形の裏板4が配置されている。裏板4は、底板2及び二つの側板3の後辺に連なる。底板2に対向する天板5が、裏板4及び二つの側板3の上辺に連なる。収納庫1の内側において、二つの側板3に、天板5及び底板2に平行な複数の棚板が支持されている。複数の棚板は、上下方向に並んでいる。棚板の前辺は、側板3、天板5及び底板2の前辺よりも、後側に位置している。底板2の下側には、一又は複数の引き出し7が設けられている。 A rectangular back plate 4 facing the opening is arranged between the two side plates 3. The back plate 4 is connected to the bottom plate 2 and the rear sides of the two side plates 3. The top plate 5 facing the bottom plate 2 is connected to the back plate 4 and the upper sides of the two side plates 3. Inside the storage 1, the two side plates 3 support a plurality of shelf plates parallel to the top plate 5 and the bottom plate 2. A plurality of shelves are arranged in the vertical direction. The front side of the shelf plate is located on the rear side of the front side of the side plate 3, the top plate 5, and the bottom plate 2. One or more drawers 7 are provided on the lower side of the bottom plate 2.

二つの側板3それぞれの内側の面には、複数のカメラ9が設けられている。複数のカメラ9は、二つの棚板の間、棚板と天板5との間、及び棚板と底板2との間に、それぞれ設けられている。右側の側板3に設けられたカメラ9は、左側の側板3に向けられ、左側の側板3に設けられたカメラ9は、右側の側板3に向けられている。カメラ9は、側板3の前辺と、棚板の前辺との間に配置されており、入出庫する書類の表表紙及び裏表紙を撮像することができる。 A plurality of cameras 9 are provided on the inner surface of each of the two side plates 3. The plurality of cameras 9 are provided between the two shelves, between the shelves and the top plate 5, and between the shelves and the bottom plate 2, respectively. The camera 9 provided on the right side plate 3 is directed to the left side plate 3, and the camera 9 provided on the left side plate 3 is directed to the right side plate 3. The camera 9 is arranged between the front side of the side plate 3 and the front side of the shelf plate, and can take an image of the front cover and the back cover of the documents to be taken in and out.

また右側の側板3に、複数の位置検出器10が設けられている。位置検出器10は、例えば、光学センサまたは超音波センサなどの非接触の近接センサである。複数の位置検出器10は、二つの棚板の間、棚板と天板5との間、及び棚板と底板2との間に、それぞれ設けられている。位置検出器10は、側板3の前辺と、棚板の前辺との間に配置されており、入庫する書類の位置、換言すれば、どの棚板に入庫したのかを検出することができる。なお位置検出器10は、左側の側板3に設けてもよく、左右二つの側板3に設けてもよい。なおカメラ9による撮像のために、側板3に照明を設けてもよい。 Further, a plurality of position detectors 10 are provided on the right side plate 3. The position detector 10 is a non-contact proximity sensor such as an optical sensor or an ultrasonic sensor. The plurality of position detectors 10 are provided between the two shelves, between the shelves and the top plate 5, and between the shelves and the bottom plate 2, respectively. The position detector 10 is arranged between the front side of the side plate 3 and the front side of the shelf plate, and can detect the position of the document to be stored, in other words, which shelf plate the product is stored in. .. The position detector 10 may be provided on the left side plate 3 or on the two left and right side plates 3. The side plate 3 may be provided with illumination for imaging by the camera 9.

開口には、観音開きの二つの扉8が設けられている。二つの扉8は、ヒンジ11を介して二つの側板3にそれぞれ回転可能に取り付けられている。天板5の前辺には、二つの開閉検出器12が設けられている。二つの開閉検出器12は、閉じた状態の二つの扉8にそれぞれ対向するように、配置される。開閉検出器12は、例えば、光学センサ若しくは超音波センサなどの非接触の近接センサ、または接触式のスイッチである。 Two doors 8 with double doors are provided in the opening. The two doors 8 are rotatably attached to the two side plates 3 via hinges 11. Two open / close detectors 12 are provided on the front side of the top plate 5. The two open / close detectors 12 are arranged so as to face each of the two closed doors 8. The open / close detector 12 is, for example, a non-contact proximity sensor such as an optical sensor or an ultrasonic sensor, or a contact-type switch.

図2は、制御装置20付近の構成を示すブロック図である。収納装置は、制御装置20を備える。制御装置20は、制御部21、記憶部22、演算部23、タイマ24、画像処理部25及びサムネイル画像生成部26を備える。撮像した書類の画像がカメラ9からインタフェース(図示略)を介して制御装置20に入力され、入庫した書類の位置が位置検出器10から入力され、扉8が開いたことを示す信号(開信号)または閉じたことを示す信号(閉信号)が開閉検出器12から入力される。制御部21は、インタフェースを介して、カメラ9に撮像開始または撮像終了を示す信号を出力する。外部装置30、例えば、パーソナルコンピュータ、スマートフォンまたはタブレット端末は、インタフェースを介して、制御装置20に接続することができる。制御部21は、外部装置30からの要求に応じて、外部装置30にデータを出力することができる。なおインタフェースは、有線または無線のインタフェースである。なお、収納庫1に、タッチパネル、または、表示画面及びキーボードを取り付け、これらを外部装置30として使用してもよい。 FIG. 2 is a block diagram showing a configuration near the control device 20. The storage device includes a control device 20. The control device 20 includes a control unit 21, a storage unit 22, a calculation unit 23, a timer 24, an image processing unit 25, and a thumbnail image generation unit 26. An image of the captured document is input from the camera 9 to the control device 20 via an interface (not shown), the position of the stored document is input from the position detector 10, and a signal indicating that the door 8 is opened (open signal). ) Or a signal indicating that it is closed (closed signal) is input from the open / close detector 12. The control unit 21 outputs a signal indicating the start or end of imaging to the camera 9 via the interface. The external device 30, for example, a personal computer, a smartphone or a tablet terminal can be connected to the control device 20 via an interface. The control unit 21 can output data to the external device 30 in response to a request from the external device 30. The interface is a wired or wireless interface. A touch panel, a display screen, and a keyboard may be attached to the storage 1 and used as the external device 30.

制御部21、演算部23、画像処理部25及びサムネイル画像生成部26は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、またはロジック回路(例えばFPGA)などによって構成されている。記憶部22は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)若しくはEPROM(Erasable Programmable Read Only Memory)などの不揮発性メモリ、またはハードディスクなどの書き換え可能な記憶媒体である。 The control unit 21, the calculation unit 23, the image processing unit 25, and the thumbnail image generation unit 26 are, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), or a logic circuit (for example, FPGA). It is composed of such as. The storage unit 22 is, for example, a non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory) or an EPROM (Erasable Programmable Read Only Memory), or a rewritable storage medium such as a hard disk.

画像処理部25は、入力された書類の画像から文字画像を抽出する。演算部23は、抽出された文字画像、及び位置検出器10の検出結果などに基づいて、種々の情報を演算する。記憶部22は、制御プログラム、後述の入出庫テーブル、及び登録テーブルなどを記憶する。サムネイル画像生成部26は、入力された書類の画像に基づいて、サムネイル画像を生成する。制御部21は、制御プログラムに基づいて、後述の画像処理及び演算を実行する。なお制御装置20の少なくとも一部が、ネットワークを介してアクセス可能なサーバに設けられていてもよい。 The image processing unit 25 extracts a character image from the input document image. The calculation unit 23 calculates various information based on the extracted character image, the detection result of the position detector 10, and the like. The storage unit 22 stores a control program, a warehousing / delivery table described later, a registration table, and the like. The thumbnail image generation unit 26 generates a thumbnail image based on the input document image. The control unit 21 executes image processing and calculation described later based on the control program. At least a part of the control device 20 may be provided in a server accessible via a network.

制御装置20は、後述する撮像処理、文字画像抽出処理、データ演算処理、及び更新処理を実行する。まず撮像処理について説明する。図3は、制御装置20による撮像処理を説明するフローチャート、図4は、書類の表表紙の表紙画像の一例を示す図、図5は、書類の裏表紙の表紙画像の一例を示す図、図6は、入庫または出庫の区別を説明する説明図である。 The control device 20 executes an imaging process, a character image extraction process, a data calculation process, and an update process, which will be described later. First, the imaging process will be described. FIG. 3 is a flowchart illustrating an imaging process by the control device 20, FIG. 4 is a diagram showing an example of a cover image of the front cover of a document, and FIG. 5 is a diagram and a diagram showing an example of a cover image of the back cover of a document. 6 is an explanatory diagram for explaining the distinction between warehousing and warehousing.

図3に示すように、制御部21は、開閉検出器12から開信号が入力されたか否か判定する(S1)。開信号が入力されていない場合(S1:NO)、S1に処理を戻す。開信号が入力された場合(S1:YES)、制御部21はカメラ9に撮像開始信号を出力する(S2)。このとき、カメラ9は、入庫または出庫する書類の表表紙及び裏表紙の表紙画像を撮像する。位置検出器10は、入庫または出庫する書類の位置を検出する。 As shown in FIG. 3, the control unit 21 determines whether or not an open signal has been input from the open / close detector 12 (S1). If no open signal is input (S1: NO), the process returns to S1. When the open signal is input (S1: YES), the control unit 21 outputs an imaging start signal to the camera 9 (S2). At this time, the camera 9 captures the cover images of the front and back covers of the documents to be received or delivered. The position detector 10 detects the position of the document to be received or delivered.

制御部21は、カメラ9から表表紙及び裏表紙の表紙画像(図4及び図5参照)を取得し、位置検出器10から位置を取得し、タイマ24から撮像した時刻を取得する(S3)。同時刻における表表紙及び裏表紙の表紙画像が記憶部22に記憶される。表紙画像は二値画像として記憶される。 The control unit 21 acquires the front and back cover images (see FIGS. 4 and 5) from the camera 9, the position from the position detector 10, and the time captured from the timer 24 (S3). .. The front and back cover images at the same time are stored in the storage unit 22. The cover image is stored as a binary image.

制御部21は、開閉検出器12から閉信号が入力されたか否か判定する(S4)。閉信号が入力されていない場合(S4:NO)、制御部21はS3に処理を戻す。閉信号が入力されている場合(S4:YES)、制御部21はカメラ9に撮像終了信号を出力する(S5)。カメラ9は撮像を終了する。カメラ9は、扉8が開いている間、撮像を継続し、表表紙及び裏表紙それぞれについて、連続的に表紙画像を撮像する。制御部21は、記憶部22の入出庫テーブル(図14参照)に、入出庫識別子を記憶し(S6)、該入出庫識別子に紐づけて、S3にて取得した、表表紙及び裏表紙それぞれの連続的な表紙画像、時刻及び位置を記憶する(S7)。時刻は、表紙画像に紐づけられている。なお図14において、時刻の記載を省略する。 The control unit 21 determines whether or not a closing signal has been input from the open / close detector 12 (S4). When the closing signal is not input (S4: NO), the control unit 21 returns the processing to S3. When the closing signal is input (S4: YES), the control unit 21 outputs an imaging end signal to the camera 9 (S5). The camera 9 finishes imaging. The camera 9 continues imaging while the door 8 is open, and continuously captures a front cover image for each of the front and back covers. The control unit 21 stores the warehousing / delivery identifier in the warehousing / delivery table (see FIG. 14) of the storage unit 22 (S6), links the warehousing / delivery identifier to the warehousing / delivery identifier, and acquires the front cover and the back cover in S3, respectively. The continuous cover image, time, and position of the above are stored (S7). The time is associated with the cover image. In FIG. 14, the description of the time is omitted.

制御部21は、撮像された表紙画像に基づいて、書類が入庫されたか否か判定する(S8)。制御部21は、例えば、記憶部22に記憶された表表紙の複数の表紙画像について、経時的な位置の変化を確認する。図6の白抜き矢印に示すように、表紙画像の位置が前側から後側に変化した場合、入庫と判定し、図6の実線矢印にて示すように、表紙画像の位置が後側から前側に変化した場合、出庫と判定する。なお、裏表紙の表紙画像について、位置の変化を確認してもよい。 The control unit 21 determines whether or not the document has been received based on the captured cover image (S8). The control unit 21 confirms, for example, a change in the position of a plurality of cover images of the front cover stored in the storage unit 22 over time. When the position of the cover image changes from the front side to the rear side as shown by the white arrow in FIG. 6, it is determined to be warehousing, and as shown by the solid arrow in FIG. 6, the position of the cover image changes from the rear side to the front side. If it changes to, it is judged that the goods have been issued. It should be noted that the change in the position of the front cover image of the back cover may be confirmed.

書類が入庫されたと判定した場合(S8:YES)、入庫したことを示す入庫フラグを入出庫識別子に紐付けて、入出庫テーブルに記憶し(S9)、処理を終了する。書類が入庫されていない、即ち出庫されたと判定した場合(S8:NO)、出庫したことを示す出庫フラグを入出庫識別子に紐付けて、入出庫テーブルに記憶し(S10)、撮像処理を終了する。図4及び図5に示すように、撮像された表紙画像には、文字が含まれているところ、この文字は、画像(即ち図形)として認識される。 When it is determined that the document has been received (S8: YES), the warehousing flag indicating that the document has been received is associated with the warehousing / delivery identifier, stored in the warehousing / delivery table (S9), and the process is terminated. When it is determined that the document has not been received, that is, it has been issued (S8: NO), the issue flag indicating that the document has been issued is linked to the entry / exit identifier, stored in the entry / exit table (S10), and the imaging process is completed. do. As shown in FIGS. 4 and 5, where the captured cover image contains characters, the characters are recognized as an image (that is, a figure).

撮像処理の終了後、制御部21は画像処理部25に文字画像抽出処理を実行させる。図7は、制御装置20による文字画像抽出処理を説明するフローチャート、図8は、輪郭追跡を説明する説明図、図9は、矩形領域を説明する説明図である。 After the imaging process is completed, the control unit 21 causes the image processing unit 25 to execute the character image extraction process. FIG. 7 is a flowchart for explaining the character image extraction process by the control device 20, FIG. 8 is an explanatory diagram for explaining contour tracking, and FIG. 9 is an explanatory diagram for explaining a rectangular region.

図7に示すように、画像処理部25は、記憶部22に記憶された表表紙または裏表紙における複数の表紙画像から一の表紙画像を選択する(S11)。例えば、表表紙の複数の表紙画像の内、表表紙全体が明瞭に撮像された画像を一つ選択する。画像処理部25は、選択された表紙画像に対して、走査を行い、開始点を探索し、設定する(S12)。 As shown in FIG. 7, the image processing unit 25 selects one cover image from a plurality of cover images on the front cover or back cover stored in the storage unit 22 (S11). For example, from a plurality of cover images of the front cover, one image in which the entire cover is clearly captured is selected. The image processing unit 25 scans the selected cover image, searches for a start point, and sets it (S12).

前述したように、表紙画像は二値画像であり、図8に示すように、二値画像の各画素には、X方向及びY方向の座標が付与される。画素は、予め定めた所定の閾値以下の輝度を有する黒画素と、前記閾値よりも高い輝度を有する白画素を含む。白画素との境界に位置する黒画素が開始点になる。なお走査は、例えば表紙画像の左上の画素から開始され、X方向に沿って走査が行われ、黒画素が発見されない場合、Y方向に画素一つ分移動し、X方向に沿って走査が行われる。図8は、例えば、図4の表表紙の表紙画像に対して、開始点の探索が行われた場合を示している。図8では、図形「A」の頂点Kが開始点に設定される。 As described above, the cover image is a binary image, and as shown in FIG. 8, each pixel of the binary image is given coordinates in the X direction and the Y direction. The pixel includes a black pixel having a brightness equal to or less than a predetermined threshold value and a white pixel having a brightness higher than the threshold value. The black pixel located at the boundary with the white pixel becomes the starting point. Note that the scanning is started from, for example, the upper left pixel of the cover image, scanning is performed along the X direction, and if no black pixel is found, the scanning is performed by moving one pixel in the Y direction and scanning along the X direction. It is said. FIG. 8 shows, for example, a case where a search for a starting point is performed on the cover image of the front cover of FIG. In FIG. 8, the vertex K of the figure “A” is set as the starting point.

画像処理部25は、例えば、図8の矢印に示すように、設定された開始点から、反時計回りに4近傍を調査し、図形の輪郭追跡を行う(S13)。なお時計回りの調査でもよく、8近傍を調査してもよい。画像処理部25は、輪郭を構成する黒画素のX座標及びY座標を、配列として記憶部22に記憶させる(S14)。 For example, as shown by the arrow in FIG. 8, the image processing unit 25 investigates four neighborhoods counterclockwise from the set start point and traces the contour of the figure (S13). A clockwise survey may be performed, or the vicinity of 8 may be surveyed. The image processing unit 25 stores the X-coordinates and Y-coordinates of the black pixels constituting the contour in the storage unit 22 as an array (S14).

画像処理部25は、配列内のX座標における最大値及び最小値と、Y座標における最大値及び最小値と含む矩形領域を作成する(S15)。例えば、図8においては、K点は、Y座標の最大値を有し、L及びM点はY座標の最小値を有する。M点は、X座標の最大値を有し、L点は、X座標の最小値を有する。したがって、矩形領域は、図9に示すようなK、L、M点が矩形の辺上に位置する領域となる。 The image processing unit 25 creates a rectangular region including the maximum value and the minimum value at the X coordinate and the maximum value and the minimum value at the Y coordinate in the array (S15). For example, in FIG. 8, the K point has the maximum value of the Y coordinate, and the L and M points have the minimum value of the Y coordinate. The M point has the maximum value of the X coordinate, and the L point has the minimum value of the X coordinate. Therefore, the rectangular area is an area in which points K, L, and M as shown in FIG. 9 are located on the sides of the rectangle.

画像処理部25は、矩形領域内の画像を文字画像として抽出し、入出庫テーブルに記憶する(S16)。画像処理部25は、選択した表紙画像の全領域に対して、走査を行ったか否かを判定する(S17)。例えば、全てのY座標について、走査を行ったか否かを判定する。全領域に対して、走査を行っていない場合(S17:NO)、画像処理部25はS12に処理を戻し、矩形領域を除いた領域について、図形の開始点を探索する。 The image processing unit 25 extracts the image in the rectangular area as a character image and stores it in the warehousing / delivery table (S16). The image processing unit 25 determines whether or not scanning has been performed on the entire area of the selected cover image (S17). For example, it is determined whether or not scanning has been performed for all Y coordinates. When scanning is not performed on the entire area (S17: NO), the image processing unit 25 returns the processing to S12 and searches for the start point of the figure in the area excluding the rectangular area.

全領域に対して、走査を行った場合(S17:YES)、表表紙及び裏表紙の両方の表紙画像について、輪郭追跡が終了したか否か判定する(S18)。両方の表紙画像について、輪郭追跡が終了していない場合(S18:NO)、S11に処理を戻し、輪郭追跡を行っていない表紙(表表紙または裏表紙)の一の表紙画像を選択する。両方の表紙画像について、輪郭追跡が終了している場合(S18:YES)、画像処理部25は処理を終了する。 When scanning is performed on the entire area (S17: YES), it is determined whether or not the contour tracking is completed for both the front and back cover images (S18). If contour tracking has not been completed for both cover images (S18: NO), the process is returned to S11, and one cover image of the front cover (front cover or back cover) for which contour tracking has not been performed is selected. When the contour tracking is completed for both cover images (S18: YES), the image processing unit 25 ends the processing.

制御部21は、文字画像抽出処理の終了後、データ演算処理を演算部23に実行させる。図10は、制御装置20によるデータ演算処理を説明するフローチャート、図11は、抽出された文字画像の一例を示す概念図、図12は、サイズ分類の一例を示す概念図、図13は、図4の表表紙の表紙画像に対する行の座標分類の一例を示す概念図である。図10に示すように、演算部23は、抽出された文字(文字画像)をサイズ毎に分類する(S31)。例えば、演算部23は、抽出された各文字画像(図11参照)のX方向寸法及びY方向寸法を取得し、サイズの分類を行う(図12参照)。なお図11は、図4に示す表表紙の表紙画像から抽出された文字画像A〜D、E〜I、P〜Tと、図5に示す裏表紙の表紙画像から抽出された文字画像X〜Zを示す。 After the character image extraction process is completed, the control unit 21 causes the calculation unit 23 to execute the data calculation process. 10 is a flowchart illustrating data calculation processing by the control device 20, FIG. 11 is a conceptual diagram showing an example of an extracted character image, FIG. 12 is a conceptual diagram showing an example of size classification, and FIG. 13 is a diagram. It is a conceptual diagram which shows an example of the coordinate classification of a row with respect to the cover image of the front cover of 4. As shown in FIG. 10, the calculation unit 23 classifies the extracted characters (character images) by size (S31). For example, the calculation unit 23 acquires the X-direction dimension and the Y-direction dimension of each extracted character image (see FIG. 11) and classifies the sizes (see FIG. 12). 11 shows character images A to D, E to I, P to T extracted from the front cover image shown in FIG. 4, and character images X to X extracted from the back cover image shown in FIG. Indicates Z.

書類に記載されている文字は、標準化されたフォントによって、記載されていることが多い。そのため、文字画像をサイズ(X方向寸法及びY方向寸法)に基づいて、分類した場合、複数の文字を同じグループに分類することができる。例えば、図12に示すように、大サイズグループG1、中サイズグループG2、小サイズグループG3に分類することができる。図11に示された文字画像の場合、文字画像A〜Dは大サイズグループG1に分類され、文字画像E〜I、X〜Zは中サイズグループG2に分類され、文字画像P〜Tは小サイズグループG3に分類される。 The characters on the documents are often written in standardized fonts. Therefore, when the character images are classified based on the size (X-direction dimension and Y-direction dimension), a plurality of characters can be classified into the same group. For example, as shown in FIG. 12, it can be classified into a large size group G1, a medium size group G2, and a small size group G3. In the case of the character images shown in FIG. 11, the character images A to D are classified into the large size group G1, the character images E to I and X to Z are classified into the medium size group G2, and the character images P to T are small. It is classified into size group G3.

演算部23は、分類毎に文字の計数を行う(S32)。例えば、図11に示された文字画像の場合、大サイズグループG1の文字数は4であり、中サイズグループG2の文字数は8であり、小サイズグループG3の文字数は5である。各文字数は、入出庫テーブルに記憶される(図14参照)。なお各文字数を、表表紙及び裏表紙に分けて、入出庫テーブルに記憶してもよい。 The calculation unit 23 counts characters for each classification (S32). For example, in the case of the character image shown in FIG. 11, the number of characters in the large size group G1 is 4, the number of characters in the medium size group G2 is 8, and the number of characters in the small size group G3 is 5. Each number of characters is stored in the warehousing / delivery table (see FIG. 14). The number of characters may be divided into a front cover and a back cover and stored in the warehousing / delivery table.

次に演算部23は、各文字画像の座標を取得し(S33)、文字画像によって構成される行の座標を取得する(S34)。例えば、図4の表表紙の表紙画像は、文字画像A〜D、E〜I、P〜Tを含む。図13に示すように、文字画像A〜Dは大サイズグループG1に属し、且つY座標は同じy1である。文字画像E〜Iは中サイズグループG2に属し、且つY座標は同じy2である。文字画像P〜Tは小サイズグループG3に属し、且つY座標は同じy3である。同じサイズグループに属し、且つ同じY座標を含む文字画像群は、横行を構成すると考えられる。なお、同じサイズグループに属し、且つ同じX座標を含む文字画像群は、縦行を構成すると考えられる。 Next, the calculation unit 23 acquires the coordinates of each character image (S33), and acquires the coordinates of the line composed of the character images (S34). For example, the cover image of the front cover of FIG. 4 includes character images A to D, E to I, and P to T. As shown in FIG. 13, the character images A to D belong to the large size group G1 and have the same Y coordinate y1. The character images E to I belong to the medium size group G2, and the Y coordinates are the same y2. The character images P to T belong to the small size group G3, and the Y coordinates are the same y3. Character image groups that belong to the same size group and include the same Y coordinate are considered to form a traverse. It is considered that the character image group belonging to the same size group and including the same X coordinate constitutes a vertical line.

即ちS34において、演算部23は、同じサイズグループに属し、且つ同じY座標である文字画像群のY座標を、横行の座標として取得する。取得した横行の座標は、表表紙及び裏表紙に分けて、入出庫テーブルに記憶される(図14参照)。また同じサイズグループに属し、且つX座標を含む文字画像群のX座標を、縦行の座標として取得する。取得した縦行の座標は、表表紙及び裏表紙に分けて、入出庫テーブルに記憶される。 That is, in S34, the calculation unit 23 acquires the Y coordinate of the character image group that belongs to the same size group and has the same Y coordinate as the horizontal coordinate. The acquired traverse coordinates are divided into a front cover and a back cover and stored in the warehousing / delivery table (see FIG. 14). Further, the X coordinate of the character image group belonging to the same size group and including the X coordinate is acquired as the vertical coordinate. The acquired vertical coordinates are divided into a front cover and a back cover and stored in the warehousing / delivery table.

演算部23は、取得した横行の座標の数を、横行の行数として取得し、縦行の座標の数を縦行の行数として取得し(S35)、処理を終了する。例えば、図4の表表紙の横行数は3であり、縦行数は0である。図5の裏表紙の横行数は1であり、縦行数は0である。取得した横行及び縦行の行数は、表表紙及び裏表紙それぞれについて、入出庫テーブルに記憶される。 The calculation unit 23 acquires the number of acquired horizontal row coordinates as the number of horizontal rows, acquires the number of vertical row coordinates as the number of vertical rows (S35), and ends the process. For example, the number of horizontal rows of the front cover of FIG. 4 is 3, and the number of vertical rows is 0. The number of horizontal lines on the back cover of FIG. 5 is 1, and the number of vertical lines is 0. The acquired number of horizontal and vertical rows is stored in the warehousing / delivery table for each of the front and back covers.

制御部21は、データ演算処理の終了後、後述の登録テーブルの更新処理を実行する。図14は、記憶部22に記憶された入出庫テーブルの一例を示す概念図である。入出庫テーブルには、収納庫1に新たに入庫した書類及び収納庫1から新たに出庫した書類に関する情報が記憶される。 After the data calculation process is completed, the control unit 21 executes the update process of the registration table, which will be described later. FIG. 14 is a conceptual diagram showing an example of the warehousing / delivery table stored in the storage unit 22. The entry / exit table stores information regarding documents newly received in the storage 1 and documents newly issued from the storage 1.

図15は、記憶部22に記憶された登録テーブルの一例を示す概念図である。登録テーブルは、ユーザが書類の所在位置を確認する場合に、アクセスするためのテーブルである。ここで、登録テーブルには、入出庫テーブルに記憶された新たな書類の情報は、反映されていないとする。図15に示すように、登録テーブルには、入出庫テーブルの入出庫識別子及び表紙画像に代えて、登録識別子及びサムネイル画像が記憶されていることを除けば、入出庫テーブルと同じ情報が記憶されている。制御部21は、所定時間経過毎に、入出庫テーブルを参照し、入出庫テーブルに情報がある場合、以下の更新処理を実行する。 FIG. 15 is a conceptual diagram showing an example of a registration table stored in the storage unit 22. The registration table is a table for the user to access when confirming the location of the document. Here, it is assumed that the information of the new document stored in the warehousing / delivery table is not reflected in the registration table. As shown in FIG. 15, the registration table stores the same information as the warehousing / delivery table except that the registration identifier and the thumbnail image are stored in place of the warehousing / delivery identifier and the cover image of the warehousing / delivery table. ing. The control unit 21 refers to the warehousing / delivery table every predetermined time, and if there is information in the warehousing / delivery table, executes the following update process.

図16は、制御装置20による更新処理を説明するフローチャートである。制御部21は、入出庫テーブルの情報の一つを取得する(S41)。例えば、入出庫識別子順に取得する。図14の場合、まず入出庫識別子1の情報を取得し、以降更新処理を繰り返す毎に、入出庫識別子2、3・・の順に取得する。次に制御部21は、取得した入出庫テーブルの情報が、入庫フラグを備えるか否か判定する(S42)。 FIG. 16 is a flowchart illustrating an update process by the control device 20. The control unit 21 acquires one of the information in the warehousing / delivery table (S41). For example, it is acquired in the order of the entry / exit identifier. In the case of FIG. 14, the information of the warehousing / delivery identifier 1 is first acquired, and each time the update process is repeated thereafter, the warehousing / delivery identifiers 2, 3, ... Are acquired in this order. Next, the control unit 21 determines whether or not the acquired warehousing / delivery table information includes the warehousing flag (S42).

入庫フラグを備える場合(S42:YES)、制御部21は、登録テーブルにおける出庫フラグを備える情報を順に取得する(S43)。制御部21は、取得した入出庫テーブルの情報と、取得した登録テーブルとが一致するか否か判定する(S44)。 When the warehousing flag is provided (S42: YES), the control unit 21 sequentially acquires the information including the warehousing flag in the registration table (S43). The control unit 21 determines whether or not the acquired warehousing / delivery table information matches the acquired registration table (S44).

制御部21は、例えば、文字画像数、縦行数、横行数、縦行座標及び横行座標について、二乗平均誤差を求め、両者の一致性を求める。前記誤差が所定範囲内にあれば、一致していると判定し、所定範囲外にあれば、不一致であると判定する。なお、二乗平均誤差以外の誤差を求め、一致性を評価してもよい。例えば、上記全項目それぞれについて、差分を求め、該差分から絶対平均誤差を求めてもよいし、上記項目の一部について、二乗平均誤差または絶対平均誤差を求めてもよい。 For example, the control unit 21 obtains the root mean square error for the number of character images, the number of vertical lines, the number of horizontal lines, the vertical line coordinates, and the horizontal line coordinates, and obtains the consistency between the two. If the error is within the predetermined range, it is determined that they match, and if it is outside the predetermined range, it is determined that they do not match. An error other than the root mean square error may be obtained to evaluate the consistency. For example, a difference may be obtained for each of the above items, and an absolute average error may be obtained from the difference, or a root mean square error or an absolute average error may be obtained for a part of the above items.

両者の情報が一致する場合(S44:YES)、制御部21は、取得した登録テーブルの情報における出庫フラグを入庫フラグに変更し(S45)、収納庫位置を記憶する(S46)。例えば、入出庫識別子1の情報と、登録識別子2の情報とが一致する場合、登録識別子2の出庫フラグを入庫フラグに変更し、取得した入出庫テーブルの収納庫位置を記憶する。 When both information match (S44: YES), the control unit 21 changes the issue flag in the acquired registration table information to the receipt flag (S45) and stores the storage position (S46). For example, when the information of the warehousing / delivery identifier 1 and the information of the registration identifier 2 match, the warehousing flag of the registration identifier 2 is changed to the warehousing flag, and the warehousing position of the acquired warehousing / delivery table is stored.

両者の情報が一致しない場合(S44:NO)、取得した入出庫テーブルの情報を、登録テーブルに新規登録する(S47)。例えば、入出庫識別子2の情報を取得した場合、入出庫識別子2の文字画像数、縦行数、横行数、縦行座標及び横行座標を登録テーブルに新規登録する。 If the two information do not match (S44: NO), the acquired warehousing / delivery table information is newly registered in the registration table (S47). For example, when the information of the warehousing / delivery identifier 2 is acquired, the number of character images, the number of vertical rows, the number of horizontal rows, the vertical row coordinates, and the horizontal row coordinates of the warehousing / delivery identifier 2 are newly registered in the registration table.

制御部21は、取得した入出庫テーブルの情報に含まれる表紙画像に基づいて、サムネイル画像を生成し、新規登録した情報に紐づけて、登録テーブルに記憶する(S48)。例えば、サムネイル画像生成部26は、表表紙の表紙画像から抽出され、入出庫テーブルに記憶された文字画像(S16、図11参照)を取得し、一の文字画像と、一の文字画像から所定距離内に位置する二つの文字画像とを列挙して、前後に並べ、これを繰り返す。なお前後関係は、X座標またはY座標から区別できる。そして、文字画像を正しい順序に並び替えて、サムネイル画像を生成する。なお裏表紙の表紙画像に基づいて、サムネイル画像を生成してもよい。 The control unit 21 generates a thumbnail image based on the cover image included in the acquired warehousing / delivery table information, associates it with the newly registered information, and stores it in the registration table (S48). For example, the thumbnail image generation unit 26 acquires a character image (S16, see FIG. 11) extracted from the cover image of the front cover and stored in the warehousing / delivery table, and determines from one character image and one character image. Enumerate two character images located within the distance, arrange them before and after, and repeat this. The context can be distinguished from the X coordinate or the Y coordinate. Then, the character images are rearranged in the correct order to generate thumbnail images. A thumbnail image may be generated based on the front cover image of the back cover.

S42において、取得した入出庫テーブルの情報が、入庫フラグを備えない場合(S42:NO)、即ち、前記情報が出庫フラグを備える場合、制御部21は、登録テーブルにおける入庫フラグを備える情報を順に取得する(S49)。制御部21は、取得した入出庫テーブルの情報と、取得した登録テーブルとが一致するか否か判定する(S50)。両者が一致する場合(S50:YES)、制御部21は、取得した登録テーブルの情報における入庫フラグを出庫フラグに変更し(S51)、収納庫内位置を消去する。(S52)。 In S42, when the acquired warehousing / delivery table information does not have a warehousing flag (S42: NO), that is, when the information has a warehousing flag, the control unit 21 sequentially orders the information having the warehousing flag in the registration table. Acquire (S49). The control unit 21 determines whether or not the acquired warehousing / delivery table information matches the acquired registration table (S50). When both match (S50: YES), the control unit 21 changes the warehousing flag in the acquired registration table information to the warehousing flag (S51), and deletes the position in the vault. (S52).

ステップS50において、両者が一致しない場合(S50:NO)、制御部21は、取得した入出庫テーブルの情報を、登録テーブルにエラー登録する(S53)。例えば、エラーフラグを立てて、取得した入出庫テーブルの情報を登録テーブルに登録する。なお図14において、「エラー」欄の1はエラーフラグが立っていることを示し、0はエラーフラグが立っていないことを示す。制御部21は、取得した入出庫テーブルの情報に含まれる表紙画像に基づいて、サムネイル画像を生成し、エラー登録した情報に紐づけて、登録テーブルに記憶する(S54)。 In step S50, when the two do not match (S50: NO), the control unit 21 registers the acquired warehousing / delivery table information in the registration table as an error (S53). For example, an error flag is set and the acquired warehousing / delivery table information is registered in the registration table. In FIG. 14, 1 in the "error" column indicates that the error flag is set, and 0 indicates that the error flag is not set. The control unit 21 generates a thumbnail image based on the cover image included in the acquired warehousing / delivery table information, associates it with the error-registered information, and stores it in the registration table (S54).

S46、S48、S52またはS54の処理を行った後、制御部21は、入出庫テーブルの全ての入出庫識別子について、情報を確認したか否か判定する(S55)。全ての入出庫識別子について、情報を確認していない場合(S55:NO)、S41に処理も戻し、次の入出庫識別子の情報を取得する。 After performing the processing of S46, S48, S52 or S54, the control unit 21 determines whether or not the information has been confirmed for all the warehousing / delivery identifiers of the warehousing / delivery table (S55). If the information has not been confirmed for all the warehousing / delivery identifiers (S55: NO), the processing is also returned to S41 to acquire the information of the next warehousing / delivery identifier.

全ての入出庫識別子について、情報を確認している場合(S55:YES)、制御部21は、入出庫テーブルに記憶した情報をクリアし(S56)、処理を終了する。なお、入出庫テーブルに記憶した情報をクリアせずに、更新済みのフラグを立てて、未更新の情報と区別できるようにしてもよい。 When the information is confirmed for all the warehousing / delivery identifiers (S55: YES), the control unit 21 clears the information stored in the warehousing / delivery table (S56), and ends the process. In addition, instead of clearing the information stored in the warehousing / delivery table, an updated flag may be set so that the information can be distinguished from the unupdated information.

実施の形態1に係る収納装置にあっては、収納庫1の内側にカメラ9を配置し、カメラ9にて撮像された表紙画像に基づいて、自動的に識別する。また位置検出器10によって、収納庫1における入庫位置を取得する。
図17は、書類の情報を表示する表示画面の一例を示す模式図である。書類の識別情報に入庫位置及び入庫フラグを紐づけて、登録しているので、例えばユーザの操作によってパーソナルコンピュータ、スマートフォン又はタブレット端末はネットワークに接続され、サーバ40に登録テーブルの情報を要求して取得し、サムネイル画像51及び収納庫1内の位置52を表示画面50に表示することができる。またユーザはエラー登録された情報を確認し、タッチパネル、キーボードなどを操作して前記情報を訂正することができる。ユーザは、例えば画面に表示されたアイコンを操作して、予めインストールされたアプリケーションプログラムを呼び出し、上述の書類に関する情報を表示画面50に表示させ、また情報を訂正できる。ユーザは、入庫及び出庫時に更新作業を自ら行うことなく、書類の入庫または出庫、及び収納庫1内の書類の位置を認識することができる。
In the storage device according to the first embodiment, the camera 9 is arranged inside the storage 1 and automatically identified based on the cover image captured by the camera 9. Further, the position detector 10 acquires the storage position in the storage 1.
FIG. 17 is a schematic view showing an example of a display screen for displaying document information. Since the warehousing position and the warehousing flag are linked to the document identification information and registered, for example, the personal computer, smartphone or tablet terminal is connected to the network by the operation of the user, and the server 40 is requested to request the information of the registration table. The thumbnail image 51 and the position 52 in the storage 1 can be acquired and displayed on the display screen 50. In addition, the user can confirm the information registered as an error and operate the touch panel, keyboard, or the like to correct the information. The user can, for example, operate an icon displayed on the screen to call a pre-installed application program, display information on the above-mentioned documents on the display screen 50, and correct the information. The user can recognize the warehousing or warehousing of documents and the position of the documents in the warehousing 1 without performing the update work by himself / herself at the time of warehousing and warehousing.

なお引き出し7に収納された書類についても、上述の処理を行ってもよい。この場合、引き出し7の上側にカメラ9、照明及び位置検出器10を設置し、書類の表紙画像を撮像し、引き出し7の深さ方向における位置を検出する。 The documents stored in the drawer 7 may also be subjected to the above processing. In this case, the camera 9, the lighting, and the position detector 10 are installed on the upper side of the drawer 7, the cover image of the document is imaged, and the position of the drawer 7 in the depth direction is detected.

(実施の形態2)
以下本発明を実施の形態2に係る収納装置を示す図面に基づいて説明する。実施の形態2に係る構成の内、実施の形態1と同様な構成については、同じ符号を付し、その詳細な説明を省略する。図18は、複数の図形を有する文字に対して設定された複数の矩形領域を示す模式図である。なお図18において、矩形領域、X座標及びY座標を明確にするために、黒にて表示されるべき箇所の一部が白抜きにて表示されている。
(Embodiment 2)
Hereinafter, the present invention will be described with reference to the drawings showing the storage device according to the second embodiment. Among the configurations according to the second embodiment, the same configurations as those of the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted. FIG. 18 is a schematic diagram showing a plurality of rectangular areas set for a character having a plurality of figures. In FIG. 18, in order to clarify the rectangular area, the X coordinate, and the Y coordinate, a part of the portion to be displayed in black is displayed in white.

実施の形態2においては、複数の図形から構成される文字を、一つの文字画像として認識するための構成を説明する。ここでは、図18に示すように、日本語の「な」が表紙に含まれている場合について説明する。図18に示すように、「な」は、第一図形、第二図形及び第三図形を含む。 In the second embodiment, a configuration for recognizing a character composed of a plurality of figures as one character image will be described. Here, as shown in FIG. 18, a case where the Japanese "na" is included in the cover page will be described. As shown in FIG. 18, "na" includes a first figure, a second figure, and a third figure.

画像処理部25は、実施の形態1と同様に、第一図形、第二図形及び第三図形それぞれに対して、輪郭追跡を行い、矩形領域を作成する。画像処理部25は、二つの矩形領域が重なるか否か判定し、重なる場合、両者を統合する。二つの矩形領域が重なるか否かの判定は以下のようにして行われる。第一図形の矩形領域における最大のX座標Ax1及びY座標点Ay1を有する点をA1とし、第一図形の矩形領域における最小のX座標Ax2及びY座標点Ay2を有する点をA2とする。また第二図形の矩形領域における最大のX座標Bx1及びY座標点By1を有する点をB1とし、第二図形の矩形領域における最小のX座標Bx2及びY座標点By2を有する点をB2とする。 Similar to the first embodiment, the image processing unit 25 performs contour tracking on each of the first figure, the second figure, and the third figure to create a rectangular area. The image processing unit 25 determines whether or not the two rectangular regions overlap, and if they overlap, integrates the two. Whether or not the two rectangular areas overlap is determined as follows. Let A1 be the point having the largest X coordinate Ax1 and Y coordinate point Ay1 in the rectangular area of the first figure, and let A2 be the point having the smallest X coordinate Ax2 and Y coordinate point Ay2 in the rectangular area of the first figure. Further, the point having the maximum X coordinate Bx1 and the Y coordinate point By1 in the rectangular area of the second figure is referred to as B1, and the point having the minimum X coordinate Bx2 and the Y coordinate point By2 in the rectangular area of the second figure is referred to as B2.

画像処理部25は、Ax1≦Bx1またはBx2≦Ax2、且つ、Ay1≦By1またはBy2≦Ay2の関係が成り立つか否か判定し、成り立つ場合、第一図形及び第二図形を統合する。即ち、最小のX座標をAx1とし、最大のX座標をBx2とし、最小のY座標をBy2とし、最大のY座標をAy1とする矩形領域を作成する。そして、第三図形の矩形領域についても、前述の統合された矩形領域に重なるか否か判定する。第三図形の矩形領域は、統合された矩形領域に重なるので、両者は統合される。 The image processing unit 25 determines whether or not the relationship of Ax1 ≦ Bx1 or Bx2 ≦ Ax2 and Ay1 ≦ By1 or By2 ≦ Ay2 holds, and if so, integrates the first figure and the second figure. That is, a rectangular region is created in which the minimum X coordinate is Ax1, the maximum X coordinate is Bx2, the minimum Y coordinate is By2, and the maximum Y coordinate is Ay1. Then, it is determined whether or not the rectangular area of the third figure also overlaps with the above-mentioned integrated rectangular area. Since the rectangular area of the third figure overlaps the integrated rectangular area, both are integrated.

図19は、複数の図形を有する文字に対して設定された複数の円形領域を示す模式図である。日本語の「に」、または、アルファベットの「i」若しくは「j」のように、複数の図形から構成される一つの文字であって、各図形の矩形領域が重ならない文字がある。この場合に対応すべく、画像処理部25は、以下に示す方法によって、二つの矩形領域が重なるか否か判定し、重なる場合、両者を統合する。 FIG. 19 is a schematic diagram showing a plurality of circular regions set for a character having a plurality of figures. There is a character such as "ni" in Japanese or "i" or "j" in the alphabet, which is one character composed of a plurality of figures and whose rectangular areas do not overlap. In order to deal with this case, the image processing unit 25 determines whether or not the two rectangular regions overlap by the method shown below, and if they overlap, integrates the two.

以下の説明では、図19に示す「に」に関する図形の統合について、説明する。「に」は、第四図形、第五図形及び第六図形を含む。第四図形、第五図形及び第六図形それぞれの矩形領域は重ならない。それぞれの矩形領域の形に着目すると、一方向に延びたアスペクト比(長辺/短辺)の大きい長方形であることがわかる。 In the following description, the integration of the figures related to "ni" shown in FIG. 19 will be described. "Ni" includes the fourth figure, the fifth figure and the sixth figure. The rectangular areas of the fourth figure, the fifth figure, and the sixth figure do not overlap. Focusing on the shape of each rectangular area, it can be seen that the rectangle has a large aspect ratio (long side / short side) extending in one direction.

矩形領域が重ならない場合には、以下の式(1)によって半径を求め、矩形領域の中心の周りに、前記半径を有する円を作成する。
式(1):半径=アスペクト比*√矩形領域の面積*α
なお矩形領域の面積の平方根を使用するのは、図形の大きさに比例した大きさの円を作成するためである。またαは、試行実験によって求められる係数であり、例えば0.636である。
When the rectangular regions do not overlap, the radius is obtained by the following equation (1), and a circle having the radius is created around the center of the rectangular regions.
Equation (1): Radius = Aspect ratio * √ Area of rectangular area * α
The square root of the area of the rectangular area is used to create a circle whose size is proportional to the size of the figure. Further, α is a coefficient obtained by a trial experiment, and is, for example, 0.636.

次に一の矩形領域の中心の周りに作成された円の半径内に、他の矩形領域の中心が位置する場合、換言すれば、二つの矩形領域間の距離が、式(1)によって求まる半径よりも小さい場合、二つの矩形領域を統合する。そして、統合した矩形領域のアスペクト比を求め、求めたアスペクト比が1.3以下の場合、統合ができたものとみなす。 Next, when the center of another rectangular area is located within the radius of the circle created around the center of one rectangular area, in other words, the distance between the two rectangular areas can be obtained by the equation (1). If less than the radius, merge the two rectangular areas. Then, the aspect ratio of the integrated rectangular area is obtained, and when the obtained aspect ratio is 1.3 or less, it is considered that the integration has been completed.

例えば、第四図形の矩形領域の中心の周りに作成された円の内側に、第五図形の矩形領域の中心が位置する場合、第四図形及び第五図形の矩形領域を統合する。そして、統合した矩形領域と、第六図形の矩形領域が重なる場合、両矩形領域を統合する。なお、文字と文字との間には、十分な距離が空いており、第四図形、第五図形または第六図形の中心に作成された円の内側に、隣の文字を構成する図形は、位置しないものとする。 For example, when the center of the rectangular area of the fifth figure is located inside the circle created around the center of the rectangular area of the fourth figure, the rectangular areas of the fourth figure and the fifth figure are integrated. Then, when the integrated rectangular area and the rectangular area of the sixth figure overlap, both rectangular areas are integrated. In addition, there is a sufficient distance between the characters, and the figures that make up the adjacent character inside the circle created in the center of the fourth figure, fifth figure, or sixth figure are It shall not be located.

図20は、制御装置20による文字画像抽出処理を説明するフローチャートである。なお実施の形態1に係るS11〜S15及びS18の処理(図7参照)は、実施の形態2における文字画像抽出処理においても同じなので、その記載を省略し、異なる処理のみ説明する。S15の処理後、画像処理部25は、作成された矩形領域が他の矩形領域に重なるか否か判定する(S61)。 FIG. 20 is a flowchart illustrating a character image extraction process by the control device 20. Since the processes of S11 to S15 and S18 (see FIG. 7) according to the first embodiment are the same in the character image extraction process in the second embodiment, the description thereof will be omitted and only different processes will be described. After the processing of S15, the image processing unit 25 determines whether or not the created rectangular area overlaps with another rectangular area (S61).

作成された矩形領域が他の矩形領域に重なる場合(S61:YES)、画像処理部25は、両矩形領域を統合し(S62)、選択した表紙画像の全領域に対して、走査を行ったか否かを判定する(S63)。全領域に対して、走査を行っていない場合(S63:NO)、画像処理部25はS12に処理を戻し、作成または統合された矩形領域を除いた領域について、図形の開始点を探索する。全領域に対して、走査を行った場合(S63:YES)、作成または統合された矩形領域内の画像を文字画像として抽出し、入出庫テーブルに記憶し(S64)、S18へ処理を進める。 When the created rectangular area overlaps with another rectangular area (S61: YES), the image processing unit 25 integrates both rectangular areas (S62) and scans the entire area of the selected cover image. Whether or not it is determined (S63). When scanning is not performed on the entire area (S63: NO), the image processing unit 25 returns the processing to S12 and searches for the start point of the figure in the area excluding the rectangular area created or integrated. When scanning is performed on the entire area (S63: YES), the image in the created or integrated rectangular area is extracted as a character image, stored in the warehousing / delivery table (S64), and the process proceeds to S18.

作成された矩形領域が他の矩形領域に重ならない場合(S61:NO)、画像処理部25は、作成された矩形領域の中心の周りに円を作成し(S65)、作成した円の内側に、他の図形の矩形領域の中心が位置するか否か判定する(S66)。 When the created rectangular area does not overlap with another rectangular area (S61: NO), the image processing unit 25 creates a circle around the center of the created rectangular area (S65), and inside the created circle. , It is determined whether or not the center of the rectangular area of another figure is located (S66).

他の図形の矩形領域の中心が位置する場合(S66:YES)、画像処理部25は、円を作成した矩形領域と、他の図形の矩形領域を統合する(S67)。S66において、他の図形の矩形領域の中心が位置しない場合(S66:NO)、またはS67の処理後、画像処理部25はS63に処理を進める。 When the center of the rectangular area of the other figure is located (S66: YES), the image processing unit 25 integrates the rectangular area created by the circle with the rectangular area of the other figure (S67). In S66, when the center of the rectangular region of another figure is not located (S66: NO), or after the processing of S67, the image processing unit 25 proceeds to S63.

(実施の形態3)
以下本発明を実施の形態3に係る収納装置を示す図面に基づいて説明する。実施の形態3に係る構成の内、実施の形態1または2と同様な構成については同じ符号を付し、その詳細な説明を省略する。図21は、収納装置の構成を略示するブロック図である。
(Embodiment 3)
Hereinafter, the present invention will be described with reference to the drawings showing the storage device according to the third embodiment. Of the configurations according to the third embodiment, the same configurations as those of the first or second embodiment are designated by the same reference numerals, and detailed description thereof will be omitted. FIG. 21 is a block diagram illustrating the configuration of the storage device.

収納装置の制御装置20は、制御部21、記憶部22及びタイマ24を備え、ネットワークを介してサーバに接続されている。サーバは、制御部41、演算部23、画像処理部25、サムネイル画像生成部26、記憶部42及び表紙推定部43を備える。制御装置20は、前述の撮像処理を実行し、処理結果をサーバに送信する。サーバは、受信した処理結果を記憶部42に記憶し、前述の文字画像抽出処理及びデータ演算処理を実行する。サーバの記憶部42には、入出庫テーブル及び登録テーブルが記憶される。なお、制御部41、演算部23、画像処理部25、サムネイル画像生成部26、記憶部42及び表紙推定部43は制御装置20に設けられてもよい。 The control device 20 of the storage device includes a control unit 21, a storage unit 22, and a timer 24, and is connected to the server via a network. The server includes a control unit 41, a calculation unit 23, an image processing unit 25, a thumbnail image generation unit 26, a storage unit 42, and a cover estimation unit 43. The control device 20 executes the above-mentioned imaging process and transmits the process result to the server. The server stores the received processing result in the storage unit 42, and executes the above-mentioned character image extraction processing and data calculation processing. The warehousing / delivery table and the registration table are stored in the storage unit 42 of the server. The control unit 41, the calculation unit 23, the image processing unit 25, the thumbnail image generation unit 26, the storage unit 42, and the cover estimation unit 43 may be provided in the control device 20.

表紙推定部43は、例えば、複数のCPU、複数のGPU、或いはCPU及びGPUの組み合わせ、記憶部によって構成することができる。所定のプログラミング言語によって、表紙画像を推定するための推定モデルが作成されており、推定モデルは表紙推定部43の記憶部に格納されている。 The cover estimation unit 43 can be composed of, for example, a plurality of CPUs, a plurality of GPUs, a combination of CPUs and GPUs, and a storage unit. An estimation model for estimating the cover image is created by a predetermined programming language, and the estimation model is stored in the storage unit of the cover estimation unit 43.

図22は、表紙推定部43の構成例を模式的に示す説明図である。図22は、表紙推定部43をニューラルネットワークモデルによって構成されたものであり、例えばCNN(Convolutional Neural Network)で構成されている。表紙推定部43の構成は、図22の例のような多層のニューラルネットワーク(深層学習)に限定されるものではなく、他の機械学習(例えば、サポートベクターマシン、ランダムフォレスト)のアルゴリズムを用いることもできる。 FIG. 22 is an explanatory diagram schematically showing a configuration example of the cover estimation unit 43. In FIG. 22, the cover estimation unit 43 is configured by a neural network model, and is composed of, for example, a CNN (Convolutional Neural Network). The configuration of the cover estimation unit 43 is not limited to the multi-layer neural network (deep learning) as in the example of FIG. 22, and other machine learning (for example, support vector machine, random forest) algorithm is used. You can also.

図22に示すように、表紙推定部43は、入力層、出力層及び複数の中間層によって構成される。図22では、便宜上二つの中間層を図示しているが、中間層の層数は二つに限定されず、三つ以上であってもよい。入力層のノード数は、例えばn個であり、出力層のノード数は、例えば3である。出力層のノードは、4以上または2以下であってもよい。 As shown in FIG. 22, the cover estimation unit 43 is composed of an input layer, an output layer, and a plurality of intermediate layers. In FIG. 22, two intermediate layers are shown for convenience, but the number of layers of the intermediate layer is not limited to two, and may be three or more. The number of nodes in the input layer is, for example, n, and the number of nodes in the output layer is, for example, 3. The number of nodes in the output layer may be 4 or more or 2 or less.

入力層、出力層及び中間層には複数のノード(ニューロン)が存在し、各層のノードは、前後の層に存在するノードと一方向に所望の重みで結合される。入力層のノードの数nと同数の値が表紙推定部43の入力データとして入力層に入力される。 There are a plurality of nodes (neurons) in the input layer, the output layer, and the intermediate layer, and the nodes in each layer are connected to the nodes in the previous and next layers in one direction with a desired weight. A value equal to the number n of nodes in the input layer is input to the input layer as input data of the cover estimation unit 43.

入力層の各ノードに入力されたデータ、即ち入出庫テーブルに記憶された所定の表紙画像に関する文字画像数、縦行数、横行数、縦行座標及び横行座標、並びに入庫フラグまたは出庫フラグは、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層は出力値を算出し、算出した出力値が次の中間層に入力し、以下同様にして出力層が出力値を出力するまで、次々と後の層(下層)に値が伝達される。尚、推定モデルには、文字画像数、縦行数、横行数、縦行座標及び横行座標を学習データとし、該学習データに対応するサムネイル画像を教師ラベルとして、図示しない学習処理部によって、予め学習が行われている。学習処理部の学習アルゴリズムがノードを結合する重みのすべてを計算する。なお教師ラベルのサムネイル画像は、実施の形態1に示す方法によって作成される。 The data input to each node of the input layer, that is, the number of character images, the number of vertical rows, the number of horizontal rows, the vertical row coordinates and the horizontal rows coordinates, and the warehousing flag or the warehousing flag related to the predetermined cover image stored in the warehousing / delivery table are When given as an input to the first intermediate layer, the intermediate layer calculates the output value using the weight and activation function, the calculated output value is input to the next intermediate layer, and so on. The value is transmitted to the subsequent layer (lower layer) one after another until the output is output. In the estimation model, the number of character images, the number of vertical rows, the number of horizontal rows, the vertical row coordinates, and the horizontal row coordinates are used as training data, and the thumbnail image corresponding to the training data is used as a teacher label in advance by a learning processing unit (not shown). Learning is taking place. The learning algorithm of the learning processing unit calculates all the weights that connect the nodes. The thumbnail image of the teacher label is created by the method shown in the first embodiment.

出力層は、入力データに基づいて、登録テーブルに記憶されたサムネイル画像に該当する確率の内、上位3個の確率を出力する。最も確率の高い出力が推定結果となる。例えば、登録識別子1のサムネイル画像である確率が80%、登録識別子2のサムネイル画像である確率が10%、登録識別子3のサムネイル画像である確率が5%である場合、表紙推定部43は、入力データに関する表紙は登録識別子1の表紙であると推定する。 Based on the input data, the output layer outputs the top three probabilities among the probabilities corresponding to the thumbnail images stored in the registration table. The output with the highest probability is the estimation result. For example, when the probability of being a thumbnail image of registration identifier 1 is 80%, the probability of being a thumbnail image of registration identifier 2 is 10%, and the probability of being a thumbnail image of registration identifier 3 is 5%, the cover estimation unit 43 determines. It is presumed that the cover page related to the input data is the cover page of the registration identifier 1.

なお入力データに入庫フラグが含まれている場合、表紙推定部43は、出庫フラグが立てられたサムネイル画像に該当する確率を出力するように、構成されており、入力データに出庫フラグが含まれている場合、表紙推定部43は、入庫フラグが立てられたサムネイル画像に該当する確率を出力するように、構成されている。 When the input data includes the warehousing flag, the cover estimation unit 43 is configured to output the probability corresponding to the thumbnail image in which the warehousing flag is set, and the input data includes the warehousing flag. If so, the cover estimation unit 43 is configured to output the probability corresponding to the thumbnail image for which the warehousing flag is set.

サーバの制御部41は、所定時間経過毎に、更新処理を実行する。図23は、サーバによる更新処理を説明するフローチャートである。サーバの制御部41は、入出庫テーブルにデータが有るか否か判定する(S71)。データがない場合(S71:NO)、所定時間待機し(S78)、S71に処理を戻す。サーバは、所定時間経過毎に、更新処理を開始する。 The control unit 41 of the server executes the update process every predetermined time elapses. FIG. 23 is a flowchart illustrating the update process by the server. The control unit 41 of the server determines whether or not there is data in the warehousing / delivery table (S71). If there is no data (S71: NO), the process returns to S71 after waiting for a predetermined time (S78). The server starts the update process every predetermined time elapses.

入出庫テーブルにデータが有る場合(S71:YES)、制御部41は入出庫テーブルから入力データを取得し(S72)、表紙推定部43に、いずれの登録識別子のサムネイル画像であるか、換言すれば、いずれの表紙であるか推定させる(S73)。制御部41は、表紙推定部43から推定結果を取得する(S74)。 When there is data in the warehousing / delivery table (S71: YES), the control unit 41 acquires the input data from the warehousing / delivery table (S72), and the cover estimation unit 43 tells the cover estimation unit 43 which registration identifier is the thumbnail image. For example, it is made to estimate which cover page it is (S73). The control unit 41 acquires an estimation result from the cover estimation unit 43 (S74).

制御部41は、推定結果に基づいて、登録テーブルを更新する(S75)。制御部41は、入力データに入庫フラグが含まれている場合、最上位確率の書類の出庫フラグを入庫フラグに変更する。入力データに出庫フラグが含まれている場合、最上位確率の書類の入庫フラグを出庫フラグに変更する。また、入力データに入庫フラグが含まれている場合であって、推定結果の最上位の確率が所定確率以下、例えば10%以下である場合、新規に入庫された書類であると判定し、登録テーブルに新規登録を行う。入力データに出庫フラグが含まれている場合であって、推定結果の最上位の確率が所定確率以下、例えば10%以下である場合、エラーであると判定し、登録テーブルにエラー登録を行う。 The control unit 41 updates the registration table based on the estimation result (S75). When the input data includes the warehousing flag, the control unit 41 changes the warehousing flag of the document with the highest probability to the warehousing flag. If the input data includes an issue flag, change the issue flag of the document with the highest probability to the issue flag. In addition, when the input data includes a warehousing flag and the highest probability of the estimation result is less than or equal to a predetermined probability, for example, 10% or less, it is determined that the document is newly warehousing and registered. Make a new registration in the table. When the input data includes the issue flag and the highest probability of the estimation result is less than or equal to a predetermined probability, for example, 10% or less, it is determined that an error is made and an error is registered in the registration table.

制御部41は、入出庫テーブルの全データについて、更新処理を行ったか否か判定する(S76)。全データについて更新処理を行っていない場合(S76:NO)、制御部41は、S72に処理を戻し、次の入力データを取得する。全データについて更新処理を行った場合(S76:YES)、制御部41は入出庫テーブルをクリアし(S77)、所定時間待機した後(S78)、S71に処理を戻す。 The control unit 41 determines whether or not the update process has been performed on all the data in the warehousing / delivery table (S76). When the update process is not performed for all the data (S76: NO), the control unit 41 returns the process to S72 and acquires the next input data. When the update process is performed for all the data (S76: YES), the control unit 41 clears the warehousing / delivery table (S77), waits for a predetermined time (S78), and then returns the process to S71.

なお表紙画像を学習データとし、該学習データに対応する「文書」又は「図面」を教師ラベルとして、予め学習させた分類推定モデルをサーバ40に設けてもよい。この場合、分類推定モデルの入力層に、表紙画像を入力することによって、出力層からは「文書」及び「図面」に該当する確率が出力される。サーバ40の制御部41は、高確率の出力を採用し、登録テーブルに、入力された表紙画像に対応する登録識別子に紐づけて、採用された分類(「文書」又は「図面」)を登録する。ユーザは書類を検索する場合、「文書」又は「図面」を指定して、検索することができる。 The server 40 may be provided with a pre-trained classification estimation model using the cover image as training data and the "document" or "drawing" corresponding to the learning data as teacher labels. In this case, by inputting the cover image into the input layer of the classification estimation model, the probabilities corresponding to the "document" and the "drawing" are output from the output layer. The control unit 41 of the server 40 adopts a high-probability output, and registers the adopted classification (“document” or “drawing”) in the registration table in association with the registration identifier corresponding to the input cover image. do. When searching for a document, the user can specify "document" or "drawing" to search.

例えば「文書」としての履歴書を検索する場合について説明する。ここでは、同じ書式の履歴書を検索する。予め、入庫した履歴書の表紙画像から、複数の四角(記入欄)の数、位置及び寸法が読み取られ、履歴書のサムネイル画像と共に、登録テーブルに登録されている。ユーザは外部装置30を操作して、登録テーブルにおける入庫済みの履歴書のサムネイル画像から、所望の書式を有する履歴書を選択する。外部装置30は、選択された履歴書と同様な四角の数、位置及び寸法を有する履歴書を示すサムネイル画像、即ち、選択された履歴書に類似する履歴書を、表示画面に複数表示させる。 For example, a case of searching a resume as a "document" will be described. Here, search for resumes in the same format. The number, position, and dimensions of a plurality of squares (entry fields) are read in advance from the cover image of the received resume, and are registered in the registration table together with the thumbnail image of the resume. The user operates the external device 30 to select a resume having a desired format from the thumbnail images of the received resumes in the registration table. The external device 30 causes the display screen to display a plurality of thumbnail images showing a resume having the same number, position, and dimensions as the selected resume, that is, a resume similar to the selected resume.

「図面」を検索する場合について説明する。予め、入庫した図面の表紙画像から、特徴点が読み取られ、図面のサムネイル画像と共に、登録テーブルに登録されている。特徴点は、例えば、図面に記載された図形の画像(図形画像)の数、位置及び寸法が該当する。図形画像は、上述した文字画像に対応し、文字画像と同様に矩形領域の設定によって、定められる。ユーザは外部装置30を操作して、登録テーブルにおける入庫済みの図面のサムネイル画像から、所望の図面に類似したサムネイル画像を選択する。外部装置30は、選択された図面と同様な図形画像の数、位置及び寸法を有する図面、即ち、選択された図面に類似する図面のサムネイル画像を、表示画面に複数表示させる。なおサムネイル画像に代えて、表紙画像を登録テーブルに登録し、表紙画像が選択されるようにしてもよい。類似度(一致度)の判定には、例えば、実施の形態1と同様な方法が採用される(S44、S50参照)。 The case of searching for "drawing" will be described. The feature points are read from the cover image of the received drawing in advance, and are registered in the registration table together with the thumbnail image of the drawing. The feature points correspond to, for example, the number, position, and dimensions of the image (graphic image) of the graphic described in the drawing. The graphic image corresponds to the character image described above, and is determined by setting a rectangular area in the same manner as the character image. The user operates the external device 30 to select a thumbnail image similar to the desired drawing from the thumbnail images of the stored drawings in the registration table. The external device 30 causes the display screen to display a plurality of thumbnail images of drawings having the same number, positions, and dimensions of graphic images as the selected drawing, that is, drawings similar to the selected drawing. Instead of the thumbnail image, the cover image may be registered in the registration table so that the cover image is selected. For the determination of the degree of similarity (degree of agreement), for example, the same method as in the first embodiment is adopted (see S44 and S50).

(実施の形態4)
以下本発明を実施の形態4に係る収納装置を示す図面に基づいて、説明する。実施の形態4に係る構成の内、実施の形態1〜3と同様な構成については、同じ符号を付し、その詳細な説明を省略する。図24は、収納装置の構成を略示するブロック図である。
(Embodiment 4)
Hereinafter, the present invention will be described with reference to the drawings showing the storage device according to the fourth embodiment. Of the configurations according to the fourth embodiment, the same configurations as those of the first to third embodiments are designated by the same reference numerals, and detailed description thereof will be omitted. FIG. 24 is a block diagram illustrating the configuration of the storage device.

実施の形態4に係る収納装置は、実施の形態3と同様に、制御装置20及びサーバを備える。実施の形態4に係るサーバは、実施の形態3とは異なり、文字推定部44を備える。文字推定部44は、例えば、複数のCPU、複数のGPU、或いはCPU及びGPUの組み合わせ、記憶部によって構成することができる。所定のプログラミング言語によって、文字画像から文字を推定するための推定モデルが作成されており、推定モデルは文字推定部44の記憶部に格納されている。なおサーバの構成は、制御装置20に設けられてもよい。 The storage device according to the fourth embodiment includes the control device 20 and the server as in the third embodiment. Unlike the third embodiment, the server according to the fourth embodiment includes a character estimation unit 44. The character estimation unit 44 can be composed of, for example, a plurality of CPUs, a plurality of GPUs, a combination of CPUs and GPUs, and a storage unit. An estimation model for estimating characters from a character image is created by a predetermined programming language, and the estimation model is stored in a storage unit of the character estimation unit 44. The server configuration may be provided in the control device 20.

図25は、文字推定部44の構成例を模式的に示す説明図である。図25は、文字推定部44をニューラルネットワークモデル、例えばCNNによって構成されている。文字推定部44の構成は、図25の例のような多層のニューラルネットワークに限定されるものではなく、他の機械学習のアルゴリズムを用いることもできる。 FIG. 25 is an explanatory diagram schematically showing a configuration example of the character estimation unit 44. In FIG. 25, the character estimation unit 44 is configured by a neural network model, for example, CNN. The configuration of the character estimation unit 44 is not limited to the multi-layer neural network as in the example of FIG. 25, and other machine learning algorithms can also be used.

図25に示すように、文字推定部44は、入力層、出力層及び複数の中間層によって構成する。図25では、便宜上二つの中間層を図示しているが、中間層の層数は二つに限定されず、三つ以上であってもよい。入力層のノード数は、例えばn個であり、出力層のノード数は、例えばNである。 As shown in FIG. 25, the character estimation unit 44 includes an input layer, an output layer, and a plurality of intermediate layers. In FIG. 25, two intermediate layers are shown for convenience, but the number of layers of the intermediate layer is not limited to two, and may be three or more. The number of nodes in the input layer is, for example, n, and the number of nodes in the output layer is, for example, N.

入力層、出力層及び中間層には複数のノード(ニューロン)が存在し、各層のノードは、前後の層に存在するノードと一方向に所望の重みで結合する。入力層のノードの数nと同数の値が文字推定部44の入力データとして入力層に入力する。 There are a plurality of nodes (neurons) in the input layer, the output layer, and the intermediate layer, and the nodes in each layer are connected to the nodes in the previous and next layers in one direction with a desired weight. A value equal to the number n of nodes in the input layer is input to the input layer as input data of the character estimation unit 44.

サーバの制御部41は、画像処理部25によって抽出された文字画像の画素の輝度を入力層に入力させる。このとき、制御部41は画像処理部25に、大、中及び小サイズの文字画像の画素を、所定の次元に統一させて、例えば、16×16画素の画像に変換してから、各画素の輝度を入力層に入力させる。 The control unit 41 of the server causes the input layer to input the brightness of the pixels of the character image extracted by the image processing unit 25. At this time, the control unit 41 unifies the pixels of the large, medium, and small size character images into a predetermined dimension in the image processing unit 25, converts them into, for example, a 16 × 16 pixel image, and then each pixel. The brightness of is input to the input layer.

入力層の各ノードに入力したデータ、即ち文字画像を構成するn個(例えば256個)の画素の輝度は、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層は出力値を算出し、算出した出力値が次の中間層に入力し、以下同様にして出力層が出力値を出力するまで、次々と後の層(下層)に値が伝達する。尚、推定モデルには、文字画像を構成する画素の輝度を学習データとし、該学習データに対応する文字(例えば、コンピュータにて利用可能な文字コード)を教師ラベルとして、図示しない学習処理部によって、予め学習が行われている。学習処理部の学習アルゴリズムがノードを結合する重みのすべてを計算する。 The data input to each node of the input layer, that is, the brightness of the n (for example, 256) pixels constituting the character image, is given to the first intermediate layer as an input, and the intermediate layer is used with a weight and an activation function. Calculates the output value, inputs the calculated output value to the next intermediate layer, and transmits the value to the subsequent layer (lower layer) one after another until the output layer outputs the output value in the same manner. In the estimation model, the brightness of the pixels constituting the character image is used as learning data, and the character corresponding to the learning data (for example, a character code that can be used by a computer) is used as a teacher label by a learning processing unit (not shown). , Learning has been done in advance. The learning algorithm of the learning processing unit calculates all the weights that connect the nodes.

出力層は、入力データに基づいて、N個の文字それぞれについて、その文字である確率を出力する。例えば、文字Aである確率P[A]、文字Bである確率P[B]などを出力する。最も確率の高い出力が推定結果となる。例えば、「A」である確率が98%、「B」である確率が1%、「D」である確率が0.5%である場合、文字推定部44は、入力データに係る文字は「A」であると推定する。なお出力層は、アルファベットに限らず、ひらがな、カタカナまたは漢字など、他の原語の文字である確率を出力することもできる。 The output layer outputs the probability of being a character for each of the N characters based on the input data. For example, the probability P [A] of the character A, the probability P [B] of the character B, and the like are output. The output with the highest probability is the estimation result. For example, when the probability of being "A" is 98%, the probability of being "B" is 1%, and the probability of being "D" is 0.5%, the character estimation unit 44 determines that the character related to the input data is ". It is estimated to be "A". The output layer is not limited to the alphabet, but can also output the probability that it is a character of another original language such as hiragana, katakana, or kanji.

サーバの記憶部42は、入出庫テーブルを格納している。図26は、入出庫テーブルの一例を示す概念図である。入出庫テーブルには、実施の形態1と同様に、入出庫識別子、表表紙及び裏表紙の表紙画像、入庫フラグまたは出庫フラグ、及び収納庫1内の位置が格納されている。 The storage unit 42 of the server stores the warehousing / delivery table. FIG. 26 is a conceptual diagram showing an example of the warehousing / delivery table. Similar to the first embodiment, the warehousing / delivery table stores the warehousing / delivery identifier, the cover images of the front and back covers, the warehousing flag or the warehousing flag, and the position in the warehousing 1.

サーバの記憶部42は、入出庫識別子に紐づけられた文字テーブルが記憶されている。図27は、文字テーブルの一例を示す概念図である。図27においては、入出庫識別子1の文字テーブルが表されている。文字テーブルは、抽出された文字画像と、該文字画像に対応する文字と、該文字画像の座標とが格納されている。文字は、文字推定部44によって最も確率が高いとされた文字である。座標は、文字画像のいずれかの点の座標である。例えば、実施の形態1にて作成した矩形領域の中心点または頂点の座標が挙げられる。なお入出庫識別子2以降についても、同様に文字テーブルが作成される。 The storage unit 42 of the server stores the character table associated with the warehousing / delivery identifier. FIG. 27 is a conceptual diagram showing an example of a character table. In FIG. 27, the character table of the warehousing / delivery identifier 1 is shown. The character table stores the extracted character image, the characters corresponding to the character image, and the coordinates of the character image. The character is a character that has the highest probability by the character estimation unit 44. The coordinates are the coordinates of any point in the character image. For example, the coordinates of the center point or the apex of the rectangular region created in the first embodiment can be mentioned. A character table is created in the same manner for the warehousing / delivery identifier 2 and thereafter.

サーバの記憶部42は、登録テーブルを格納している。図28は、登録テーブルの一例を示す概念図である。登録テーブルには、実施の形態1と同様に、登録識別子、サムネイル画像、入庫フラグまたは出庫フラグ、及び収納庫1内の位置が格納されている。 The storage unit 42 of the server stores the registration table. FIG. 28 is a conceptual diagram showing an example of the registration table. Similar to the first embodiment, the registration table stores a registration identifier, a thumbnail image, a warehousing flag or a warehousing flag, and a position in the warehousing 1.

サーバの記憶部42は、登録識別子に紐づけられた文字テーブルが記憶されている。図29は、文字テーブルの一例を示す概念図である。図29においては、登録識別子1の文字テーブルが表されている。文字テーブルは、抽出された文字画像と、該文字画像に対応する文字(換言すれば、コンピュータにて利用可能な文字コード)と、該文字画像の座標とが格納されている。なお登録識別子2以降についても、同様に文字テーブルが作成される。 The storage unit 42 of the server stores the character table associated with the registration identifier. FIG. 29 is a conceptual diagram showing an example of a character table. In FIG. 29, the character table of the registration identifier 1 is shown. The character table stores the extracted character image, the characters corresponding to the character image (in other words, the character code that can be used by a computer), and the coordinates of the character image. A character table is created in the same manner for the registration identifier 2 and later.

図30は、表紙推定部43の構成例を模式的に示す説明図である。図30は、表紙推定部43をニューラルネットワークモデルによって構成されたものであり、例えばCNNで構成されている。表紙推定部43の構成は、他の機械学習のアルゴリズムを用いることもできる。 FIG. 30 is an explanatory diagram schematically showing a configuration example of the cover estimation unit 43. In FIG. 30, the cover estimation unit 43 is configured by a neural network model, and is composed of, for example, CNN. Other machine learning algorithms can be used for the configuration of the cover estimation unit 43.

図30に示すように、表紙推定部43は、入力層、出力層及び複数の中間層によって構成される。図30では、便宜上二つの中間層を図示しているが、中間層の層数は二つに限定されず、三つ以上であってもよい。入力層のノード数は、例えばn個であり、出力層のノード数は、例えば3である。出力層のノードは、4以上または2以下であってもよい。入力層の各ノードに、入庫または出庫フラグ、並びに入出庫識別子に対応した文字テーブルに記憶された文字及び座標が入力される。文字及び座標は、紐づけられた組として、入力される。 As shown in FIG. 30, the cover estimation unit 43 is composed of an input layer, an output layer, and a plurality of intermediate layers. In FIG. 30, two intermediate layers are shown for convenience, but the number of layers of the intermediate layer is not limited to two, and may be three or more. The number of nodes in the input layer is, for example, n, and the number of nodes in the output layer is, for example, 3. The number of nodes in the output layer may be 4 or more or 2 or less. The warehousing or warehousing flag and the characters and coordinates stored in the character table corresponding to the warehousing / delivery identifier are input to each node of the input layer. Characters and coordinates are input as linked sets.

入力層の各ノードに入力されたデータは、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層は出力値を算出し、算出した出力値が次の中間層に入力され、以下同様にして出力層が出力値を出力するまで、次々と後の層(下層)に値が伝達される。尚、推定モデルには、文字及び座標を学習データとし、該学習データに対応するサムネイル画像を教師ラベルとして、図示しない学習処理部によって、予め学習が行われている。学習処理部の学習アルゴリズムがノードを結合する重みのすべてを計算する。なお教師ラベルのサムネイル画像は、実施の形態1に示す方法によって作成される。出力層は、入力データに基づいて、登録テーブルに記憶されたサムネイル画像に該当する確率の内、上位3個の確率を出力する。最も確率の高い出力が推定結果となる。 When the data input to each node of the input layer is given as an input to the first intermediate layer, the intermediate layer calculates the output value using the weight and activation function, and the calculated output value is transferred to the next intermediate layer. The value is transmitted to the subsequent layers (lower layers) one after another until the input is input and the output layer outputs the output value in the same manner. In the estimation model, characters and coordinates are used as learning data, and thumbnail images corresponding to the learning data are used as teacher labels, and learning is performed in advance by a learning processing unit (not shown). The learning algorithm of the learning processing unit calculates all the weights that connect the nodes. The thumbnail image of the teacher label is created by the method shown in the first embodiment. Based on the input data, the output layer outputs the top three probabilities among the probabilities corresponding to the thumbnail images stored in the registration table. The output with the highest probability is the estimation result.

なお入力データに入庫フラグが含まれている場合、表紙推定部43は、出庫フラグが立てられたサムネイル画像に該当する確率を出力するように、構成されており、入力データに出庫フラグが含まれている場合、表紙推定部43は、入庫フラグが立てられたサムネイル画像に該当する確率を出力するように、構成されている。 When the input data includes the warehousing flag, the cover estimation unit 43 is configured to output the probability corresponding to the thumbnail image in which the warehousing flag is set, and the input data includes the warehousing flag. If so, the cover estimation unit 43 is configured to output the probability corresponding to the thumbnail image for which the warehousing flag is set.

サーバの制御部41は、所定時間経過毎に、更新処理を実行する。入力データが入庫または出庫フラグ、並びに入出庫識別子に対応した文字テーブルに記憶された文字及び座標であることを除けば、更新処理は、実施の形態3の更新処理と同様であるので(図23参照)、その詳細な説明を省略する。なお入力データに、文字画像のX方向サイズ及びY方向サイズを含めてもよい。 The control unit 41 of the server executes the update process every predetermined time elapses. Since the update process is the same as the update process of the third embodiment except that the input data is the characters and coordinates stored in the character table corresponding to the warehousing or warehousing flag and the warehousing / delivery identifier (FIG. 23). (See), the detailed description thereof will be omitted. The input data may include the X-direction size and the Y-direction size of the character image.

図31は、書類の情報を表示する表示画面の一例を示す模式図である。ユーザの操作によって外部装置30(端末)はネットワークに接続され、サーバ40に登録テーブルの情報を要求して取得する。端末は文字の入力を受け付け、書類の検索を行う。端末の表示画面50には、検索結果として、例えば書類のサムネイル画像51、収納庫1内の位置52、検索文字53、及び検索文字と候補書類との一致確率54が、確率の高い順に表示される。なお確率は、検索文字53と、候補書類の表紙に記載された文字との一致する文字の数、連続して一致する文字の長さの割合(例えば検索文字がABCDEであって、ABCDが連続して一致する場合には、一致する文字の長さの割合は0.8である)などに基づいて求められる。端末にインストールされたアプリケーションプログラムが上記表示及び検索処理を実行する。なお文字推定部44は、ニューラルネットワークモデルに代えて、OCR(Optical Character Recognition)を用いて、文字画像を文字に変換してもよい。なお実施の形態3及び4において、実施の形態2のように、矩形領域を統合する処理を行い、文字画像を抽出してもよい。 FIG. 31 is a schematic diagram showing an example of a display screen for displaying document information. The external device 30 (terminal) is connected to the network by the operation of the user, and requests and acquires the information of the registration table from the server 40. The terminal accepts character input and searches for documents. On the display screen 50 of the terminal, for example, the thumbnail image 51 of the document, the position 52 in the storage 1, the search character 53, and the match probability 54 between the search character and the candidate document are displayed as search results in descending order of probability. NS. The probability is the number of matching characters between the search character 53 and the characters listed on the cover of the candidate document, and the ratio of the lengths of consecutive matching characters (for example, the search character is ABCDE and ABCD is continuous). If they match, the ratio of the lengths of the matching characters is 0.8). The application program installed on the terminal executes the above display and search process. The character estimation unit 44 may convert a character image into characters by using OCR (Optical Character Recognition) instead of the neural network model. In the third and fourth embodiments, as in the second embodiment, the processing for integrating the rectangular regions may be performed to extract the character image.

複数の収納庫1を使用する場合、それぞれの収納庫1に識別子を割り当てて、登録テーブルに記憶してもよい。図32は、複数の収納庫1に収納された書類の情報を表示する表示画面の一例を示す模式図である。図32に示すように、端末の表示画面50には、書類のサムネイル画像51、収納庫1内の位置52、検索文字53、検索文字と候補書類との一致確率54、及び候補書類が収納されている収納庫を示す情報55が、確率の高い順に表示される。所望の書類が収納された収納庫1を表示することができ、多数の収納庫1を必要とする施設(例えば図書館)において、利便性を高めることができる。ユーザは、例えば、画面に表示されたアイコンを操作して、予めインストールされたアプリケーションプログラムを呼び出し、上述の書類に関する情報(図31、図32参照)を表示画面50に表示させ、また情報を訂正することができる。 When a plurality of storages 1 are used, an identifier may be assigned to each storage 1 and stored in the registration table. FIG. 32 is a schematic view showing an example of a display screen for displaying information on documents stored in a plurality of storages 1. As shown in FIG. 32, the display screen 50 of the terminal stores the thumbnail image 51 of the document, the position 52 in the storage 1, the search character 53, the probability of matching the search character with the candidate document 54, and the candidate document. Information 55 indicating the storage is displayed in descending order of probability. A storage 1 in which desired documents are stored can be displayed, and convenience can be enhanced in a facility (for example, a library) that requires a large number of storages 1. For example, the user operates an icon displayed on the screen to call a pre-installed application program, display information on the above-mentioned documents (see FIGS. 31 and 32) on the display screen 50, and correct the information. can do.

今回開示した実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、特許請求の範囲内での全ての変更及び特許請求の範囲と均等の範囲が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary in all respects and not restrictive. The technical features described in each example can be combined with each other and the scope of the invention is intended to include all modifications within the claims and scope equivalent to the claims. Will be done.

1 収納庫 9 カメラ 10 位置検出器 20 制御装置 23 演算部 25 画像処理部 40 サーバ 43 表紙推定部 44 文字推定部 1 Storage 9 Camera 10 Position detector 20 Control device 23 Calculation unit 25 Image processing unit 40 Server 43 Cover estimation unit 44 Character estimation unit

Claims (7)

書類を収納する収納庫と、
該収納庫の内側面に配置され、入庫または出庫する前記書類の表紙を撮像する撮像部と、
前記撮像部にて撮像された表紙画像に基づいて、入庫する前記書類の特徴量を生成する生成部と、
該生成部にて生成され、入庫する前記書類の特徴量を、入庫を示す入庫フラグに紐づけて登録する登録部と
を備える収納装置。
A storage for storing documents and
An imaging unit that is arranged on the inner surface of the storage and captures the cover of the document to be stored or delivered.
A generation unit that generates a feature amount of the document to be stored based on the cover image captured by the imaging unit, and a generation unit.
A storage device including a registration unit that registers the feature amount of the document generated and stored in the generation unit in association with a warehousing flag indicating warehousing.
前記収納庫内における前記書類の入庫位置を検出する位置検出器を備え、
前記登録部は、入庫する前記書類の特徴量を、前記位置検出器にて検出された入庫位置に紐づけて登録する
請求項1に記載の収納装置。
A position detector for detecting the storage position of the document in the storage is provided.
The storage device according to claim 1, wherein the registration unit registers the feature amount of the document to be stored in association with the storage position detected by the position detector.
前記撮像部にて撮像された表紙画像に基づいて、出庫する前記書類の特徴量を生成する第二生成部と、
該第二生成部にて生成された特徴量に対応し、前記登録部に登録されている特徴量に紐付いた前記入庫位置を消去し、前記入庫フラグを、出庫を示す出庫フラグに書き換える更新部と
を備える請求項2に記載の収納装置。
A second generation unit that generates a feature amount of the document to be delivered based on the cover image captured by the imaging unit, and a second generation unit.
An update unit that corresponds to the feature amount generated by the second generation unit, erases the warehousing position associated with the feature amount registered in the registration unit, and rewrites the warehousing flag to the warehousing flag indicating the warehousing. 2. The storage device according to claim 2.
前記生成部は、前記表紙画像から文字画像を抽出する抽出部を有し、該抽出部にて抽出される前記文字画像に基づいて、前記書類の特徴量を生成する
請求項1から3のいずれか一つに記載の収納装置。
The generation unit has an extraction unit that extracts a character image from the cover image, and any of claims 1 to 3 that generates a feature amount of the document based on the character image extracted by the extraction unit. The storage device described in one.
前記抽出部は、
前記文字画像に含まれる複数の図形の輪郭を追跡する追跡部と、
該追跡部にて追跡した輪郭に基づいて、前記複数の図形それぞれを囲む領域を作成する作成部と、
該作成部にて作成した各領域が重なるか否か判定する判定部と、
該判定部にて、重なると判定された場合、重なる前記領域を統合する統合部と
を有する請求項4に記載の収納装置。
The extraction unit
A tracking unit that tracks the contours of a plurality of figures included in the character image, and
A creation unit that creates an area surrounding each of the plurality of figures based on the contour tracked by the tracking unit, and a creation unit.
A determination unit that determines whether or not the areas created by the creation unit overlap, and a determination unit.
The storage device according to claim 4, further comprising an integrated unit that integrates the overlapping regions when the determination unit determines that they overlap.
前記図形が第一図形及び第二図形を含む場合、前記判定部は、第一方向において、前記第一図形の両端の間に前記第二図形の一端が配置され、且つ、前記第一方向に交差する第二方向において、前記第一図形の両端の間に、前記第二図形の一端が配置される場合、前記第一図形及び第二図形が重なると判定する
請求項5に記載の収納装置。
When the figure includes the first figure and the second figure, in the first direction, one end of the second figure is arranged between both ends of the first figure, and the determination unit is in the first direction. The storage device according to claim 5, wherein when one end of the second figure is arranged between both ends of the first figure in the intersecting second direction, it is determined that the first figure and the second figure overlap. ..
前記作成部は、
矩形領域を作成する矩形作成部と、
該矩形作成部にて作成された前記矩形領域のアスペクト比を導出する導出部と、
該導出部にて導出された前記アスペクト比に基づいて定まる距離を半径にした円を前記矩形領域の中心の周りに作成する円作成部と
を有し、
前記判定部は、前記矩形作成部にて作成された各矩形領域が重ならない場合、前記円作成部にて作成された各円が重なるか否かを判定する
請求項5に記載の収納装置。
The creation part
A rectangle creation part that creates a rectangle area, and
A derivation unit for deriving the aspect ratio of the rectangular region created by the rectangle creation unit, and a derivation unit.
It has a circle creating unit that creates a circle with a radius determined based on the aspect ratio derived by the deriving unit around the center of the rectangular region.
The storage device according to claim 5, wherein the determination unit determines whether or not the circles created by the circle creation unit overlap when the rectangle regions created by the rectangle creation unit do not overlap.
JP2020012839A 2020-01-29 2020-01-29 Storage device Pending JP2021117920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012839A JP2021117920A (en) 2020-01-29 2020-01-29 Storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012839A JP2021117920A (en) 2020-01-29 2020-01-29 Storage device

Publications (1)

Publication Number Publication Date
JP2021117920A true JP2021117920A (en) 2021-08-10

Family

ID=77175078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012839A Pending JP2021117920A (en) 2020-01-29 2020-01-29 Storage device

Country Status (1)

Country Link
JP (1) JP2021117920A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063350A (en) * 2000-06-08 2002-02-28 Bank Of Tokyo-Mitsubishi Ltd System and method for actual thing centralized management, and system and method for document management
JP2015081762A (en) * 2013-10-24 2015-04-27 三菱電機株式会社 Refrigerator
US20190186817A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Content and context aware microscopic cooling optimization for refrigerators

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063350A (en) * 2000-06-08 2002-02-28 Bank Of Tokyo-Mitsubishi Ltd System and method for actual thing centralized management, and system and method for document management
JP2015081762A (en) * 2013-10-24 2015-04-27 三菱電機株式会社 Refrigerator
US20190186817A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Content and context aware microscopic cooling optimization for refrigerators

Similar Documents

Publication Publication Date Title
Bluche et al. Feature extraction with convolutional neural networks for handwritten word recognition
US7958070B2 (en) Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus
Forsyth et al. Object recognition with gradient-based learning
Juang et al. A TS fuzzy system learned through a support vector machine in principal component space for real-time object detection
Davis et al. Deep visual template-free form parsing
US20200167993A1 (en) Map constructing apparatus and map constructing method
CN108027876A (en) For identifying the system and method and product of multiple object inputs
Haghighi et al. Stacking ensemble model of deep learning and its application to Persian/Arabic handwritten digits recognition
CN109886223B (en) Face recognition method, bottom library input method and device and electronic equipment
Peng et al. A fast and accurate fully convolutional network for end-to-end handwritten Chinese text segmentation and recognition
US20210256707A1 (en) Learning to Segment via Cut-and-Paste
JP2001126081A (en) Device and method for identifying picture
CN111414913B (en) Character recognition method, recognition device and electronic equipment
JP7006782B2 (en) Information processing equipment, control methods, and programs
Manandhar et al. Magic layouts: Structural prior for component detection in user interface designs
KR20230036327A (en) Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof
JP2021117920A (en) Storage device
Bolohova et al. Image processing models and methods research and ways of improving marker recognition technologies in added reality systems
CN107368830A (en) Method for text detection and device and text recognition system
US20230169784A1 (en) Text processing method and apparatus, and electronic device and storage medium
CN113221523A (en) Method of processing table, computing device, and computer-readable storage medium
Zhou et al. Library on-shelf book segmentation and recognition based on deep visual features
Wu et al. Optimized visual recognition algorithm in service robots
Bianchini et al. Recursive neural networks learn to localize faces
Macias-Garcia et al. Cnn based perception system for collision avoidance in mobile robots using stereo vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220906