JP2022027060A - Image analysis system, image analysis method and image analysis program - Google Patents

Image analysis system, image analysis method and image analysis program Download PDF

Info

Publication number
JP2022027060A
JP2022027060A JP2020130845A JP2020130845A JP2022027060A JP 2022027060 A JP2022027060 A JP 2022027060A JP 2020130845 A JP2020130845 A JP 2020130845A JP 2020130845 A JP2020130845 A JP 2020130845A JP 2022027060 A JP2022027060 A JP 2022027060A
Authority
JP
Japan
Prior art keywords
image
frame
image analysis
frames
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020130845A
Other languages
Japanese (ja)
Inventor
雄基 田澤
Yuki TAZAWA
渉太 古川
Shota Furukawa
隼也 中井川
Junya Nakaigawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Life Investors
Life Investors Co Ltd
Original Assignee
Life Investors
Life Investors Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Life Investors, Life Investors Co Ltd filed Critical Life Investors
Priority to JP2020130845A priority Critical patent/JP2022027060A/en
Publication of JP2022027060A publication Critical patent/JP2022027060A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

To perform an image analysis more accurately.SOLUTION: An image analysis system S comprises: a table detection unit 212; a frame detection unit 213; and an information acquisition unit 215. The table detection unit 212 is configured to detect an area corresponding to a table from an image including the table as a subject. The frame detection unit 213 is configured to detect a plurality of frames from the area corresponding to the table, and give each of the plurality of detected frames position information in the image. The information acquisition unit 215 is configured to acquire acquisition object information on the basis of a character recognition result about each of the plurality of frames, and the position information given to each of the plurality of frames.SELECTED DRAWING: Figure 3

Description

特許法第30条第2項適用申請有り 令和1年10月14日にIECON 2019 - 45th Annual Conference of the IEEE Industrial Electronics Societyにて発表Application for application of Article 30, Paragraph 2 of the Patent Act was announced on October 14, 1991 at IECON 2019-45th Annual Conference of the IEEE Electrical Electricals Society.

本発明は、画像解析システム、画像解析方法、及び画像解析プログラムに関する。 The present invention relates to an image analysis system, an image analysis method, and an image analysis program.

従来、文字や表が記載された紙媒体等を対象として、文字認識等の画像解析を行う技術が存在する。
このような画像解析に関する技術の一例が、特許文献1に開示されている。特許文献1に開示に技術では、読み取り対象となる原稿のフォーマット(すなわち、体裁)に対応して、何れの位置に何れの情報が記載されているのかを予め設定しておく。そして、この設定に基づくことにより、画像における、フォーマットに適合した位置から文字列を検出する等の画像解析を行うことができる。
Conventionally, there is a technique for performing image analysis such as character recognition on a paper medium or the like on which characters and tables are written.
An example of a technique related to such image analysis is disclosed in Patent Document 1. In the technique disclosed in Patent Document 1, it is set in advance which information is described in which position corresponding to the format (that is, appearance) of the manuscript to be read. Then, based on this setting, it is possible to perform image analysis such as detecting a character string from a position suitable for the format in the image.

特開2019-57311号公報Japanese Unexamined Patent Publication No. 2019-57311

しかしながら、読み取り対象となる原稿のフォーマットは、必ずしも同一ではなく、原稿毎に様々なフォーマットが混在している場合がある。この場合、特許文献1に開示の技術のように、予めフォーマットを設定したり、読み取りの都度フォーマットを修正したりすることは現実的には困難である。 However, the formats of the documents to be read are not necessarily the same, and various formats may be mixed for each document. In this case, it is practically difficult to set the format in advance or modify the format each time it is read, as in the technique disclosed in Patent Document 1.

また、特許文献1等に開示の一般的な技術では、複合機等の原稿台やADF(Auto Document Feeder)といった機構に原稿を載置し、スキャナと原稿が所定の距離を保った適切な状態で読み取られて、画像が生成されることを想定してる。しかしながら、必ずしも適切な状態で読み取られて、画像が生成されるわけではない。例えば、ユーザが携帯型のカメラで原稿を撮影して画像を生成する場合、撮影時に原稿が湾曲していたり、撮影時のカメラと原稿位置関係が適切でなかったりして、画像において歪み等が発生する場合もあり得る。
このように、様々なフォーマットが混在する場合や、画像に歪み等が発生する場合であっても、精度高く画像解析を行うことが望まれる。
Further, in the general technique disclosed in Patent Document 1 and the like, the manuscript is placed on a manuscript stand such as a multifunction device or a mechanism such as an ADF (Auto Document Feeder), and the scanner and the manuscript are kept in an appropriate state at a predetermined distance. It is assumed that the image is generated by being read by. However, it is not always read in an appropriate state to generate an image. For example, when a user shoots a document with a portable camera and generates an image, the document is curved at the time of shooting, or the positional relationship between the camera and the document at the time of shooting is not appropriate, and the image is distorted. It can happen.
As described above, it is desired to perform image analysis with high accuracy even when various formats are mixed or distortion occurs in the image.

本発明は、このような状況に鑑みてなされたものである。そして、本発明の課題は、より精度高く画像解析を行うことである。 The present invention has been made in view of such a situation. An object of the present invention is to perform image analysis with higher accuracy.

上記課題を解決するため、本発明の一実施形態に係る画像解析システムは、
表を被写体として含む画像から、前記表に対応する領域を検出する表検出手段と、
前記表に対応する領域から前記表を構成する複数の枠を検出すると共に、該検出した複数の枠それぞれに前記画像における位置情報を付与する枠検出手段と、
前記複数の枠それぞれについての文字認識結果と、前記複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報を取得する情報取得手段と、
を備えることを特徴とする。
In order to solve the above problems, the image analysis system according to the embodiment of the present invention is
A table detecting means for detecting an area corresponding to the table from an image including the table as a subject,
A frame detecting means for detecting a plurality of frames constituting the table from a region corresponding to the table and assigning position information in the image to each of the detected frames.
An information acquisition means for acquiring acquisition target information based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames.
It is characterized by having.

本発明によれば、より精度高く画像解析を行うことが可能となる。 According to the present invention, it is possible to perform image analysis with higher accuracy.

本発明の一実施形態に係る画像解析システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the image analysis system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the terminal which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像解析装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the image analysis apparatus which concerns on one Embodiment of this invention. 撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a shooting process. 画像解析処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of image analysis processing. 第1の方向の枠線と第2の方向の枠線を分離して検出することを示す模式図である。It is a schematic diagram which shows that the frame line of a 1st direction and the frame line of a 2nd direction are separated and detected. 対象画像に含まれる表構造と、取得対象情報の取得方法について示す模式図である。It is a schematic diagram which shows the table structure included in the target image, and the acquisition method of the acquisition target information. 文字検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a character detection process. 二値化した画像から、枠外領域の削除を行い、その後に射影変換を行うことを示す模式図である。It is a schematic diagram which shows that the out-of-frame area is deleted from the binarized image, and then the projective transformation is performed.

以下、添付の図面を参照して本発明の実施形態の一例について説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the accompanying drawings.

[システム構成]
図1は、本実施形態に係る画像解析システムSの全体構成を示すブロック図である。図1に示すように、画像解析システムSは、端末1と、画像解析装置2とを含む。また、図1には、本実施形態において画像解析処理を行う対象とする原稿3も図示する。ここで、原稿3は、何らかの表を含む原稿であるとする。
[System configuration]
FIG. 1 is a block diagram showing an overall configuration of an image analysis system S according to the present embodiment. As shown in FIG. 1, the image analysis system S includes a terminal 1 and an image analysis device 2. Further, FIG. 1 also shows a manuscript 3 to be subjected to image analysis processing in the present embodiment. Here, it is assumed that the manuscript 3 is a manuscript including some kind of table.

これら、端末1と、画像解析装置2とは、直接又は図示を省略したネットワークを介して、相互に通信可能に接続される。この場合、ネットワークは、例えば、インターネットや、LAN(Local Area Network)や、携帯電話網といったネットワーク、あるいはこれらを組み合わせたネットワークにより実現される。また、この通信は、任意の通信方式に準拠して行われてよく、その通信方式は特に限定されない。また、通信の接続形式は、有線接続であっても、無線接続であってもよい。 These terminals 1 and the image analysis device 2 are connected to each other so as to be able to communicate with each other directly or via a network (not shown). In this case, the network is realized by, for example, a network such as the Internet, a LAN (Local Area Network), a mobile phone network, or a network in which these are combined. Further, this communication may be performed in accordance with any communication method, and the communication method is not particularly limited. Further, the connection format of communication may be a wired connection or a wireless connection.

端末1は、撮影機能を備えた端末である。端末1は、例えば、スマートフォンやタブレット型の端末、あるいはデジタルカメラ等により実現される。端末1は、撮影処理を行う。ここで、撮影処理とは、原稿3を撮影することにより、原稿3が被写体として含まれる画像(以下、「対象画像」と称する。)を生成する一連の処理である。撮影処理において、端末1は、ユーザの操作に基づいて撮影を行うことにより、原稿3が被写体として含まれる対象画像を生成する。そして、端末1は、生成した対象画像を、画像解析装置2に対して送信する。 The terminal 1 is a terminal having a shooting function. The terminal 1 is realized by, for example, a smartphone, a tablet-type terminal, a digital camera, or the like. The terminal 1 performs a shooting process. Here, the photographing process is a series of processes for generating an image (hereinafter, referred to as "target image") in which the document 3 is included as a subject by photographing the document 3. In the shooting process, the terminal 1 shoots based on the user's operation to generate a target image in which the document 3 is included as a subject. Then, the terminal 1 transmits the generated target image to the image analysis device 2.

画像解析装置2は、画像解析処理を行う装置である。画像解析装置2は、例えば、パーソナルコンピュータやサーバ装置等により実現される。画像解析装置2は、端末1から送信された対象画像を、受信することにより取得する。そして、画像解析装置2は、この対象画像に対して、画像解析処理を行う。ここで、画像解析処理とは、対象画像に記載されている文字を検出する文字認識等の画像解析を行う一連の処理である。 The image analysis device 2 is a device that performs image analysis processing. The image analysis device 2 is realized by, for example, a personal computer, a server device, or the like. The image analysis device 2 acquires the target image transmitted from the terminal 1 by receiving it. Then, the image analysis device 2 performs an image analysis process on the target image. Here, the image analysis process is a series of processes for performing image analysis such as character recognition for detecting characters described in a target image.

この画像解析処理において、画像解析装置2は、表(例えば、テーブル)を被写体として含む画像から、表に対応する領域を検出する。また、画像解析装置2は、表に対応する領域から表を構成する複数の枠(例えば、セル)を検出すると共に、該検出した複数の枠それぞれに画像における位置情報を付与する。さらに、画像解析装置2は、複数の枠それぞれについての文字認識結果と、複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報(例えば、健康診断表における検査項目と検査値の組)を取得する。 In this image analysis process, the image analysis device 2 detects a region corresponding to the table from the image including the table (for example, the table) as a subject. Further, the image analysis device 2 detects a plurality of frames (for example, cells) constituting the table from the area corresponding to the table, and imparts position information in the image to each of the detected frames. Further, the image analysis device 2 has the acquisition target information (for example, the inspection item and the inspection value in the health diagnosis table) based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames. Pair) is acquired.

このように、端末1及び画像解析装置2を含む画像解析システムSは、表と枠をそれぞれ段階的に検出した上で、位置情報を利用して、所望の取得対象情報を取得する。したがって、表と枠を検出せず、位置情報を用いずに、単純に画像解析処理を行うような画像解析方法に比べて、より精度高く画像解析を行うことが可能となる。そのため、例えば、様々なフォーマットが混在しており、表や枠の配置等が原稿によってそれぞれ異なるような場合や、画像に歪み等が発生しており通常であれば画像解析を行うことが困難な場合であったとしても、適切に画像解析を行うことができる。 As described above, the image analysis system S including the terminal 1 and the image analysis device 2 sequentially detects the table and the frame, and then uses the position information to acquire the desired acquisition target information. Therefore, it is possible to perform image analysis with higher accuracy than an image analysis method in which the image analysis process is simply performed without detecting the table and the frame and without using the position information. Therefore, for example, when various formats are mixed and the arrangement of tables and frames differs depending on the original, or the image is distorted, it is usually difficult to perform image analysis. Even in some cases, image analysis can be performed appropriately.

次に、このような画像解析処理を実現するための、画像解析システムSに含まれる各装置について、より詳細に説明をする。 Next, each device included in the image analysis system S for realizing such an image analysis process will be described in more detail.

以下では、説明のための一例として、原稿3が画像解析システムSを利用するユーザについての「健康診断表」である場合を想定する。その理由について説明する。
まず前提として、健康診断は、病気の早期発見及び早期治療のために非常に有益である。また、定期的に健康診断を受診することにより、ユーザは、自身の健康状態の変化等を把握することができる。
In the following, as an example for explanation, it is assumed that the manuscript 3 is a “health diagnosis table” for a user who uses the image analysis system S. The reason will be explained.
First of all, health examinations are very useful for early detection and treatment of illness. In addition, by regularly undergoing a health examination, the user can grasp changes in his / her health condition and the like.

しかしながら、健康診断表は、それを作成する事業者や検査実施機関によってフォーマット(すなわち、体裁)が異なる。例えば、表や枠の配置等が健康診断表によってそれぞれ異なる。また、検査項目の記載位置と、これに対応する検査値の記載位置や、基準値や前回検査値の記載位置が健康診断表によってそれぞれ異なる。したがって、一般的な技術では、健康診断表の画像解析を行うことは困難である。
また、健康診断表は、各検査実施機関の間で電子データの共有もされていない。また、受診者であるユーザは、各検査実施機関から、紙媒体に印刷された健康診断表を受け取るのみであり、そもそも電子データを受け取っていない。このような状況であることから、ユーザは、自身の健康状態の変化等を把握することが困難である。また、各検査実施機関や病院等においても、ユーザの健康状態の変化等を把握することが困難である。
However, the format (that is, the appearance) of the health examination table differs depending on the business operator that creates it and the inspection executing agency. For example, the arrangement of tables and frames differs depending on the health examination table. In addition, the description position of the test item, the description position of the corresponding test value, and the description position of the reference value and the previous test value differ depending on the health diagnosis table. Therefore, it is difficult to perform image analysis of the health diagnosis table with general techniques.
In addition, electronic data of the health checkup table is not shared among the inspection executing agencies. Further, the user who is the examinee only receives the health examination table printed on the paper medium from each examination executing agency, and does not receive the electronic data in the first place. Under such circumstances, it is difficult for the user to grasp changes in his / her health condition. In addition, it is difficult for each inspection executing agency, hospital, etc. to grasp changes in the user's health condition.

そこで、本実施形態では、このような健康診断表を被写体として撮影した対象画像に対して、上述した画像解析処理を行う。これにより、本実施形態では、健康診断表から、より精度高く画像解析を行うことができる。また、これにより、ユーザは、自身の保有する健康診断表を、端末1で撮影する等の簡便な操作で、電子データ化することができる。さらに、このような電子データを利用することにより、例えば、ユーザが、自身の時系列に沿った健康状態の変化等を把握することを容易とすることができる。加えて、このような電子データを、各検査実施機関や病院等で活用することもできる。
このように、健康診断表は、本実施形態における画像解析処理の対象として好適である。そのため、以下では原稿3が健康診断表である場合を想定して説明する。
Therefore, in the present embodiment, the above-mentioned image analysis processing is performed on the target image taken with such a health diagnosis table as a subject. Thereby, in the present embodiment, the image analysis can be performed with higher accuracy from the health diagnosis table. Further, as a result, the user can convert the health diagnosis table owned by the user into electronic data by a simple operation such as taking a picture with the terminal 1. Further, by using such electronic data, for example, it is possible for the user to easily grasp the change in the health state along with his / her own time series. In addition, such electronic data can be utilized in each inspection executing agency, hospital, or the like.
As described above, the health diagnosis table is suitable as a target for image analysis processing in the present embodiment. Therefore, in the following description, it is assumed that the manuscript 3 is a health diagnosis table.

ただし、これは説明のための一例に過ぎず、本実施形態の用途を限定するものではない。すなわち、本実施形態は、対象画像の被写体となる原稿3が健康診断表である場合以外にも、原稿3に何らかの表が含まれるような、様々な場合に適用することが可能である。 However, this is merely an example for explanation, and does not limit the use of this embodiment. That is, the present embodiment can be applied to various cases such that the manuscript 3 includes some kind of table other than the case where the manuscript 3 which is the subject of the target image is a health diagnosis table.

[端末の構成]
端末1の構成について、図2を参照して説明をする。図2は、端末1の構成の一例を示すブロック図である。端末1は、上述したように、例えば、スマートフォンやタブレット型の端末、あるいはデジタルカメラ等により実現される。
[Terminal configuration]
The configuration of the terminal 1 will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the configuration of the terminal 1. As described above, the terminal 1 is realized by, for example, a smartphone, a tablet-type terminal, a digital camera, or the like.

図2に示すように、端末1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、通信部14と、ドライブ15と、記憶部16と、入力部17と、出力部18と、撮像部19と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。 As shown in FIG. 2, the terminal 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a communication unit 14, a drive 15, and a storage unit 16. , An input unit 17, an output unit 18, and an image pickup unit 19. Each of these parts is connected by a signal line and sends and receives signals to and from each other.

CPU11は、ROM12に記録されているプログラム、又は、記憶部16からRAM13にロードされたプログラムに従って各種の処理(例えば、原稿3を被写体として撮影することにより対象画像を取得する処理)を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes (for example, a process of acquiring a target image by photographing a document 3 as a subject) according to a program recorded in the ROM 12 or a program loaded from the storage unit 16 into the RAM 13.
Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.

通信部14は、CPU11が、他の装置(例えば、画像解析装置2)との間で通信を行うための通信制御を行う。 The communication unit 14 controls communication for the CPU 11 to communicate with another device (for example, the image analysis device 2).

ドライブ15には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア(図示を省略する。)が適宜装着される。ドライブ15よってリムーバブルメディアから読み出されたプログラムは、必要に応じて記憶部16にインストールされる。また、ドライブ15よってリムーバブルメディアから読み出された各種データは、必要に応じてCPU11での演算処理に利用される。 A removable medium (not shown) made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 15. The program read from the removable media by the drive 15 is installed in the storage unit 16 as needed. Further, various data read from the removable media by the drive 15 are used for arithmetic processing in the CPU 11 as needed.

記憶部16は、HDD(hard disk drive)やSSD(Solid State Drive)等の記憶装置で構成され、各種データを記憶する。
入力部17は、各種ボタン及びタッチパネル、又はマウス及びキーボード等の外部入力装置で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
The storage unit 16 is composed of a storage device such as an HDD (hard disk drive) or SSD (Solid State Drive), and stores various data.
The input unit 17 is composed of various buttons and a touch panel, or an external input device such as a mouse and a keyboard, and inputs various information according to a user's instruction operation.
The output unit 18 is composed of a display, a speaker, or the like, and outputs images and sounds.

撮像部19は、レンズ及び撮像素子等によって構成され、被写体(例えば、原稿3)を撮影する。この撮影により、撮像部19は、画像(例えば、対象画像)を生成する。 The image pickup unit 19 is composed of a lens, an image pickup element, and the like, and photographs a subject (for example, a document 3). By this shooting, the image pickup unit 19 generates an image (for example, a target image).

端末1では、これら各部が協働することにより、本実施形態における各種の処理が実行される。この本実施形態における各種の処理が実行される場合、図3に示すように、CPU11において、撮影制御部111と、端末側通知部112と、が機能する。
また、記憶部16の一領域には、画像記憶部161と、解析結果記憶部162と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In the terminal 1, various processes in the present embodiment are executed by the cooperation of each of these parts. When various processes in this embodiment are executed, as shown in FIG. 3, the photographing control unit 111 and the terminal side notification unit 112 function in the CPU 11.
Further, an image storage unit 161 and an analysis result storage unit 162 are set in one area of the storage unit 16.
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.

撮影制御部111は、端末1における撮影を制御する。そのために、撮影制御部111は、ユーザが原稿3を被写体とした撮影を行うためのユーザインタフェースや、撮像部19が取得するライブビュー画像等を、出力部18に含まれるディスプレイに表示する。また、撮影制御部111は、ユーザからの撮影指示操作に基づいて、撮像部19を制御することにより画像を生成して取得する。この取得される画像としては、上述したように、原稿3(ここでは、健康診断表)が被写体として含まれる対象画像を想定する。 The shooting control unit 111 controls shooting at the terminal 1. Therefore, the shooting control unit 111 displays a user interface for the user to shoot the document 3 as a subject, a live view image acquired by the imaging unit 19, and the like on the display included in the output unit 18. Further, the shooting control unit 111 generates and acquires an image by controlling the imaging unit 19 based on a shooting instruction operation from the user. As the image to be acquired, as described above, it is assumed that the target image includes the manuscript 3 (here, the health diagnosis table) as the subject.

撮影制御部111は、この取得した対象画像を、画像記憶部161に記憶させる。すなわち、画像記憶部161は、対象画像を記憶する記憶部として機能する。
また、撮影制御部111は、この取得した対象画像を、画像解析装置2に対して送信する。
The photographing control unit 111 stores the acquired target image in the image storage unit 161. That is, the image storage unit 161 functions as a storage unit for storing the target image.
Further, the photographing control unit 111 transmits the acquired target image to the image analysis device 2.

端末側通知部112は、画像解析装置2から送信された、対象画像に対する画像解析処理における、画像解析結果を受信することにより取得する。また、端末側通知部112は、この取得した画像解析結果を、解析結果記憶部162に記憶させる。すなわち、解析結果記憶部162は、画像解析結果を記憶する記憶部として機能する。 The terminal-side notification unit 112 acquires the image analysis result in the image analysis process for the target image transmitted from the image analysis device 2. Further, the terminal-side notification unit 112 stores the acquired image analysis result in the analysis result storage unit 162. That is, the analysis result storage unit 162 functions as a storage unit for storing the image analysis result.

また、端末側通知部112は、この取得した画像解析結果を、ユーザに対して通知する。ユーザは、この通知された画像解析結果を参照することにより、画像解析結果の内容(例えば、自身の健康診断表における検査値)を把握することができる。このユーザに対する通知は、例えば、出力部18に含まれるディスプレイへの表示や、図示を省略したプリンタからの紙媒体への印刷等により実現することができる。 Further, the terminal-side notification unit 112 notifies the user of the acquired image analysis result. By referring to the notified image analysis result, the user can grasp the content of the image analysis result (for example, the test value in his / her health diagnosis table). This notification to the user can be realized, for example, by displaying on a display included in the output unit 18, printing on a paper medium from a printer (not shown), or the like.

なお、画像解析結果として、具体的にどのような内容が通知されるかについては、図5のフローチャートを参照した動作の説明と共に後述する。 The specific content to be notified as the image analysis result will be described later together with the explanation of the operation with reference to the flowchart of FIG.

[画像解析装置の構成]
次に、画像解析装置2の構成について、図3を参照して説明をする。図3は、画像解析装置2の構成の一例を示すブロック図である。画像解析装置2は、上述したように、例えば、パーソナルコンピュータやサーバ装置等により実現される。
[Configuration of image analysis device]
Next, the configuration of the image analysis device 2 will be described with reference to FIG. FIG. 3 is a block diagram showing an example of the configuration of the image analysis device 2. As described above, the image analysis device 2 is realized by, for example, a personal computer, a server device, or the like.

図3に示すように、画像解析装置2は、CPU21と、ROM22と、RAM23と、通信部24と、ドライブ25と、記憶部26と、入力部27と、出力部28と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これら各部のハードウェアとしての機能は、図2を参照して上述した端末1が備える同名の各部と同様である。そのため、ハードウェアとしての機能については、重複する再度の説明を省略する。 As shown in FIG. 3, the image analysis device 2 includes a CPU 21, a ROM 22, a RAM 23, a communication unit 24, a drive 25, a storage unit 26, an input unit 27, and an output unit 28. .. Each of these parts is connected by a signal line and sends and receives signals to and from each other. The functions of these parts as hardware are the same as those of the same name provided in the terminal 1 described above with reference to FIG. Therefore, the duplicated description of the function as hardware will be omitted.

画像解析装置2では、これら各部が協働することにより、本実施形態における各種の処理が実行される。この本実施形態における各種の処理が実行される場合、図3に示すように、CPU21において、画像取得部211と、表検出部212と、枠検出部213と、文字認識部214と、情報取得部215と、装置側通知部216と、が機能する。
また、記憶部26の一領域には、画像記憶部261と、解析結果記憶部263と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
In the image analysis device 2, various processes in the present embodiment are executed by the cooperation of these parts. When various processes in this embodiment are executed, as shown in FIG. 3, in the CPU 21, the image acquisition unit 211, the table detection unit 212, the frame detection unit 213, the character recognition unit 214, and information acquisition are performed. The unit 215 and the device-side notification unit 216 function.
Further, an image storage unit 261 and an analysis result storage unit 263 are set in one area of the storage unit 26.
Data necessary for realizing processing is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below.

画像取得部211は、端末1が備える撮影制御部111から送信された、対象画像を、受信することにより取得する。また、画像取得部211は、この取得した対象画像を、画像記憶部261に記憶させる。すなわち、画像記憶部261は、対象画像を記憶する記憶部として機能する。 The image acquisition unit 211 acquires the target image transmitted from the photographing control unit 111 included in the terminal 1 by receiving the target image. Further, the image acquisition unit 211 stores the acquired target image in the image storage unit 261. That is, the image storage unit 261 functions as a storage unit for storing the target image.

なお、端末1が備える撮影制御部111が、対象画像を、ドライブ15を介してリムーバブルメディアに記憶するようにしてもよい。そして、画像取得部211が、この対象画像が記憶されたリムーバブルメディアを、ドライブ25を介して読み取ることにより、対象画像を取得するようにしてもよい。 The photographing control unit 111 included in the terminal 1 may store the target image in the removable media via the drive 15. Then, the image acquisition unit 211 may acquire the target image by reading the removable media in which the target image is stored via the drive 25.

表検出部212は、画像記憶部261に記憶されている対象画像から、対象画像中に含まれる複数(単数の場合もある)の表それぞれに対応する領域(以下、「表領域」と称する。)を検出する。例えば、枠検出部213は、対象画像において被写体となっている健康診断表を構成する複数の表それぞれに対応する表領域を検出する。 The table detection unit 212 is referred to as an area (hereinafter, referred to as “table area”) corresponding to each of a plurality of (may be singular) tables included in the target image from the target image stored in the image storage unit 261. ) Is detected. For example, the frame detection unit 213 detects a table area corresponding to each of a plurality of tables constituting the health diagnosis table that is the subject in the target image.

枠検出部213は、表検出部212が検出した表領域それぞれから、表を構成する複数の枠を検出する。例えば、枠検出部213は、対象画像において被写体となっている健康診断表を構成する複数の枠を検出する。この場合、例えば、枠検出部213は、表領域それぞれから、表を構成する複数の枠の枠線である第1の方向の枠線と第2の方向の枠線を分離して検出すると共に、該検出した第1の方向の枠線及び第2の方向の枠線の交点に基づいて複数の枠を検出する。このように、枠検出部213は、第1の方向の枠線と第2の方向の枠線を分離して検出することによって、これらを分離することなく検出を行う場合よりも、枠線及び枠を正確に検出することができる。 The frame detection unit 213 detects a plurality of frames constituting the table from each of the table areas detected by the table detection unit 212. For example, the frame detection unit 213 detects a plurality of frames constituting the health diagnosis table that is the subject in the target image. In this case, for example, the frame detection unit 213 separates and detects the frame line in the first direction and the frame line in the second direction, which are the frame lines of a plurality of frames constituting the table, from each of the table areas. , A plurality of frames are detected based on the intersection of the detected borders in the first direction and the borders in the second direction. In this way, the frame detection unit 213 separates and detects the frame line in the first direction and the frame line in the second direction, so that the frame line and the frame line can be detected without separating them. The frame can be detected accurately.

また、枠検出部213は、これら検出した複数の枠それぞれを分割して切り出すと共に、この切り出された複数の枠それぞれに対象画像における位置情報を付与する。例えば、枠検出部213は、検出された表領域それぞれに割り当てた表の識別情報(例えば、表に割り当てた識別子)と、枠の識別情報(例えば、枠に割り当てた識別子)の組み合わせを位置情報とし、この位置情報を複数の枠それぞれに対して付与する。あるいは、例えば、枠検出部213は、対象画像で用いられている画像座標系での座標値(例えば、枠の中心等に対応する各座標軸での値)を位置情報とし、この位置情報を複数の枠それぞれに対して付与する。
これにより、枠検出部213は、対象画像内に含まれる複数の枠それぞれを単位とした画像であって、それぞれに位置情報が付与された画像(以下、「枠画像」と称する。)を生成する。枠画像は、例えば、健康診断表であれば特定の文字列(例えば、検査項目、検査値、基準値、前回検査値、患者の名前等の属性情報等)が記載されている1つの単位であり、位置情報を有する構造化データとして取り扱うことができる。
Further, the frame detection unit 213 divides and cuts out each of the detected plurality of frames, and imparts position information in the target image to each of the cut out plurality of frames. For example, the frame detection unit 213 uses a combination of the table identification information (for example, the identifier assigned to the table) assigned to each of the detected table areas and the frame identification information (for example, the identifier assigned to the frame) as position information. And this position information is given to each of a plurality of frames. Alternatively, for example, the frame detection unit 213 uses coordinate values in the image coordinate system used in the target image (for example, values in each coordinate axis corresponding to the center of the frame, etc.) as position information, and a plurality of the position information. It is given to each of the frames.
As a result, the frame detection unit 213 generates an image in which each of the plurality of frames included in the target image is a unit and to which position information is added (hereinafter, referred to as "frame image"). do. The frame image is, for example, a unit in which a specific character string (for example, test item, test value, reference value, previous test value, attribute information such as patient's name, etc.) is described in the case of a health diagnosis table. Yes, it can be handled as structured data with location information.

文字認識部214は、枠検出部213が生成した複数の枠画像それぞれを単位として、文字認識処理を行う。この文字認識処理は、例えば、既存の光学文字認識(OCR:Optical character recognition)技術を用いて実現することができる。このように、文字認識部214は、枠検出部213が生成した枠画像に基づいて、特定の文字列が含まれる枠を単位として画像解析処理を行うことができるので、画像全体を対象として画像解析処理を行う場合に比べて、より精度高く文字認識を行うことができる。
なお、文字認識部214は、既存の光学文字認識技術を用いるのみならず、例えば、予め対象画像に含まれ得る文字列(ここでは、健康診断表で用いられる単語等の文字列)を用いて機械学習を行うようにしてもよい。そして、この機械学習により生成された学習モデルを用いて文字認識処理を行うようにしてもよい。
The character recognition unit 214 performs character recognition processing for each of the plurality of frame images generated by the frame detection unit 213. This character recognition process can be realized, for example, by using an existing optical character recognition (OCR) technique. In this way, the character recognition unit 214 can perform image analysis processing in units of frames including a specific character string based on the frame image generated by the frame detection unit 213, so that the entire image can be imaged. Character recognition can be performed with higher accuracy than when analysis processing is performed.
The character recognition unit 214 not only uses the existing optical character recognition technology, but also uses, for example, a character string that can be included in the target image in advance (here, a character string such as a word used in a health examination table). Machine learning may be performed. Then, the character recognition process may be performed using the learning model generated by this machine learning.

情報取得部215は、文字認識部214による複数の枠画像それぞれについての文字認識結果と、この複数の枠画像それぞれに付与された位置情報とに基づいて、取得対象情報を取得する。ここで、取得対象情報とは、ユーザが取得することを所望する情報であり、例えば、健康診断表における「検査項目」と「検査値」との組である。 The information acquisition unit 215 acquires acquisition target information based on the character recognition result for each of the plurality of frame images by the character recognition unit 214 and the position information given to each of the plurality of frame images. Here, the acquisition target information is information desired to be acquired by the user, and is, for example, a set of "inspection items" and "inspection values" in the health diagnosis table.

この情報取得部215による取得対象情報の取得のために、本実施形態では取得対象情報の一部である第1の情報についての辞書データを用意しておく。例えば、この第1の情報が「検索項目」である場合、検査項目名として用いられることが想定される単語(例えば、身長、体重、血圧等)のテキストについて辞書データを用意しておく。ここで、健康診断における検査項目名には表記の揺らぎがあり、意味上は同一の検査項目を指しているが、健康診断表のフォーマットにより検査項目名が異なっている場合がある。例えば、高比重リポタンパク(HDL:High Density Lipoprotein cholesterol)という同一の検査項目であっても、健康診断表における検査項目名は、「HDLコレステロール」であったり、「HDL-C」であったり、「HDL」であったりする。そこで、辞書データには、これらの表記の揺らぎを考慮し、同じ検査項目についても、複数の検査項目名のテキストを対応付けておくようにする。 In order to acquire the acquisition target information by the information acquisition unit 215, in the present embodiment, dictionary data for the first information which is a part of the acquisition target information is prepared. For example, when this first information is a "search item", dictionary data is prepared for the text of a word (for example, height, weight, blood pressure, etc.) that is expected to be used as a test item name. Here, the inspection item names in the health examination have fluctuations in the notation and refer to the same inspection items in terms of meaning, but the inspection item names may differ depending on the format of the health examination table. For example, even if the same test item is high density lipoprotein (HDL), the test item name in the health checklist may be "HDL cholesterol" or "HDL-C". It may be "HDL". Therefore, in consideration of the fluctuation of these notations, the dictionary data should be associated with the texts of a plurality of inspection item names even for the same inspection item.

このような辞書データは、例えば、画像解析システムSの管理者により予め作成され、辞書データ記憶部262に記憶されている。すなわち、辞書データ記憶部262は、辞書データを記憶する記憶部として機能する。 Such dictionary data is, for example, created in advance by the administrator of the image analysis system S and stored in the dictionary data storage unit 262. That is, the dictionary data storage unit 262 functions as a storage unit for storing dictionary data.

そして、情報取得部215は、文字認識部214による複数の枠画像それぞれについての文字認識結果(すなわち、枠画像それぞれに含まれる文字列のテキスト)と、辞書データ記憶部262に記憶されている辞書データに含まれる検査項目名として用いられる単語のテキストそれぞれとの類似度をスコア化する。また、情報取得部215は、そのスコア化の結果、或る検査項目名について、最も類似度が高い文字列が含まれている枠画像を、その或る検査項目(すなわち、第1の情報)が記載された枠画像であるとしてマーキングする。例えば、或る枠画像に「HDL-C」という文字列が含まれていた場合、その或る枠画像を検査項目「高比重リポタンパク」が記載された枠画像であるとしてマーキングする。 Then, the information acquisition unit 215 stores the character recognition result (that is, the text of the character string included in each frame image) for each of the plurality of frame images by the character recognition unit 214 and the dictionary stored in the dictionary data storage unit 262. Score the degree of similarity with each text of the word used as the inspection item name included in the data. Further, as a result of the scoring, the information acquisition unit 215 uses the frame image containing the character string having the highest degree of similarity for the certain inspection item name as the certain inspection item (that is, the first information). Is marked as a frame image in which. For example, when a certain frame image contains the character string "HDL-C", the certain frame image is marked as a frame image in which the inspection item "high specific gravity lipoprotein" is described.

次に、情報取得部215は、このマーキングした枠画像(すなわち、第1の情報の取得元となった枠画像)に付与されている位置情報に基づいて、取得対象情報の一部である第2の情報を取得する。例えば、この第2の情報が或る検査項目についての「検索値」である場合を想定する。この場合、情報取得部215は、このある検査項目に対応してマーキングした枠画像の位置情報を取得する。また、情報取得部215は、この位置情報から任意の所定方向(例えば、右方向)に存在する各枠画像に対して、検査値が含まれているか走査的に検索する。 Next, the information acquisition unit 215 is a part of the acquisition target information based on the position information given to the marked frame image (that is, the frame image from which the first information is acquired). Get the information of 2. For example, assume that this second information is a "search value" for a certain inspection item. In this case, the information acquisition unit 215 acquires the position information of the frame image marked corresponding to this certain inspection item. Further, the information acquisition unit 215 scans the position information to check whether the inspection value is included in each frame image existing in an arbitrary predetermined direction (for example, to the right).

ここで、各検査項目についての検査値の現実的な上限値や下限値は医学的見地から予測可能である。そこで、例えば、辞書データにおいて各検査項について、現実的な上限値や下限値を対応付けておく。そして、情報取得部215は、或る検査項目について走査的な検索を行っている過程において、この或る検査項目に対応付けられている上限値以下であり、且つ、下限値以上の値が含まれる枠画像が検出された場合には、その枠画像がこの或る検査項目についての検査値が記載された枠画像であると特定する。そして、この検査値を第2情報として取得する。これにより、健康診断表のような、第1の情報が記載されている枠と、第2の情報が記載されている枠の相対的な位置関係がフォーマットによって異なるような表であっても、走査的な検索を行うことから、精度高く画像解析を行うことが可能となる。また、現実的な上限値や下限値に基づいて第2の情報を取得することから、誤った第2の情報を取得してしまうようなことを防止でき、この観点からも精度高く画像解析を行うことが可能となる。 Here, the realistic upper limit value and lower limit value of the test value for each test item can be predicted from a medical point of view. Therefore, for example, in the dictionary data, a realistic upper limit value and lower limit value are associated with each inspection item. Then, in the process of performing a scanning search for a certain inspection item, the information acquisition unit 215 includes a value equal to or less than the upper limit value associated with the certain inspection item and more than or equal to the lower limit value. When the frame image is detected, it is specified that the frame image is a frame image in which the inspection value for this certain inspection item is described. Then, this inspection value is acquired as the second information. As a result, even in a table such as a health diagnosis table in which the relative positional relationship between the frame in which the first information is described and the frame in which the second information is described differs depending on the format. Since the scanning search is performed, it is possible to perform image analysis with high accuracy. In addition, since the second information is acquired based on the realistic upper limit value and lower limit value, it is possible to prevent the acquisition of erroneous second information, and image analysis can be performed with high accuracy from this viewpoint as well. It will be possible to do.

このようにして、情報取得部215は、取得対象情報である、第1の情報(例えば、或る検査項目)と、これに対応する第2の情報(この或る検査項目の検査値)の組を取得することができる。なお、このようなマーキングと、マーキングした枠画像の位置情報に基づいた走査的な検索は、1つの第1の情報(例えば、或る検査項目)についてマーキングをする都度行ってもよい。あるいは、第1の情報が複数ある場合には、全ての第1の情報についてマーキングを行ってから、走査的な検索を行うようにしてもよい。 In this way, the information acquisition unit 215 receives the first information (for example, a certain inspection item) which is the acquisition target information and the second information corresponding to the first information (inspection value of the certain inspection item). You can get a pair. In addition, such marking and scanning search based on the position information of the marked frame image may be performed each time one first information (for example, a certain inspection item) is marked. Alternatively, when there are a plurality of first information, marking may be performed on all the first information, and then a scanning search may be performed.

情報取得部215は、このようにして取得した取得対象情報(例えば、検査項目に対応する検査項目名と、その検査値の組)を画像解析結果として、解析結果記憶部263に記憶させる。すなわち、解析結果記憶部263は、画像解析結果を記憶する記憶部として機能する。また、情報取得部215は、端末1においてもユーザに対する画像解析結果の通知を実現できるように、この画像解析結果を、端末1に対して送信する。 The information acquisition unit 215 stores the acquisition target information acquired in this way (for example, a set of the inspection item name corresponding to the inspection item and the inspection value) as an image analysis result in the analysis result storage unit 263. That is, the analysis result storage unit 263 functions as a storage unit for storing the image analysis result. Further, the information acquisition unit 215 transmits the image analysis result to the terminal 1 so that the terminal 1 can also notify the user of the image analysis result.

装置側通知部216は、情報取得部215が解析結果記憶部263に記憶させた画像解析結果を、ユーザに対して通知する。ユーザは、この通知された画像解析結果を参照することにより、画像解析結果の内容を把握することができる。このユーザに対する通知は、端末1の端末側通知部112と同様にして行われる。例えば、出力部28に含まれるディスプレイへの表示や、図示を省略したプリンタからの紙媒体への印刷等により実現することができる。 The device-side notification unit 216 notifies the user of the image analysis result stored in the analysis result storage unit 263 by the information acquisition unit 215. The user can grasp the content of the image analysis result by referring to the notified image analysis result. The notification to this user is performed in the same manner as the terminal side notification unit 112 of the terminal 1. For example, it can be realized by displaying on a display included in the output unit 28, printing on a paper medium from a printer (not shown), or the like.

なお、画像解析結果として、具体的にどのような内容が通知されるかについては、図5のフローチャートを参照した動作の説明と共に後述する。 The specific content to be notified as the image analysis result will be described later together with the explanation of the operation with reference to the flowchart of FIG.

以上、画像解析システムSに含まれる各装置の構成について詳細に説明した。次に、これら画像解析システムSに含まれる各装置により行われる各処理の処理内容について、より詳細に説明をする。 The configuration of each device included in the image analysis system S has been described in detail above. Next, the processing contents of each processing performed by each apparatus included in the image analysis system S will be described in more detail.

[画像解析処理]
図4は、端末1により行われる撮影処理の流れを説明するフローチャートである。撮影処理は、ユーザからの、端末1への電源投入等に伴い実行される。
[Image analysis processing]
FIG. 4 is a flowchart illustrating a flow of shooting processing performed by the terminal 1. The shooting process is executed when the user turns on the power to the terminal 1.

ステップS11において、撮影制御部111は、端末1における撮影の制御を開始する。例えば、撮影制御部111は、ユーザが原稿3を被写体とした撮影を行うためのユーザインタフェースや、撮像部19が取得するライブビュー画像等を、出力部18に含まれるディスプレイに表示する。 In step S11, the photographing control unit 111 starts controlling the photographing in the terminal 1. For example, the shooting control unit 111 displays a user interface for the user to shoot with the document 3 as a subject, a live view image acquired by the imaging unit 19, and the like on a display included in the output unit 18.

ステップS12において、撮影制御部111は、ユーザからの撮影指示操作を受け付けたか否かを判定する。撮影指示操作を受け付けた場合は、ステップS11においてYesと判定され、処理はステップS12に進む。一方で、撮影指示操作を受け付けていない場合は、ステップS11においてNoと判定され、処理はステップS12の判定を繰り返す。 In step S12, the shooting control unit 111 determines whether or not the shooting instruction operation from the user has been accepted. When the shooting instruction operation is accepted, it is determined as Yes in step S11, and the process proceeds to step S12. On the other hand, if the shooting instruction operation is not accepted, it is determined as No in step S11, and the process repeats the determination in step S12.

ステップS13において、撮影制御部111は、撮像部19を制御することにより対象画像を生成して取得する。 In step S13, the shooting control unit 111 generates and acquires the target image by controlling the imaging unit 19.

ステップS14において、撮影制御部111は、ステップS13において取得した対象画像を、画像解析装置2に対して送信する。これにより本処理は終了する。
以上説明した撮影処理により、画像解析装置2は、対象画像を取得することができる。
In step S14, the photographing control unit 111 transmits the target image acquired in step S13 to the image analysis device 2. This ends this process.
By the shooting process described above, the image analysis device 2 can acquire the target image.

[画像解析処理]
図5は、画像解析装置2により行われる画像解析処理の流れを説明するフローチャートである。画像解析処理は、端末1から対象画像が送信されたことや、ユーザからの、画像解析画像解析装置2への画像解析処理開始の指示操作を受け付けたことに伴い実行される。
[Image analysis processing]
FIG. 5 is a flowchart illustrating a flow of image analysis processing performed by the image analysis device 2. The image analysis process is executed when the target image is transmitted from the terminal 1 or when the user receives an instruction operation for starting the image analysis process to the image analysis image analysis device 2.

ステップS21において、画像取得部211は、対象画像を取得する。 In step S21, the image acquisition unit 211 acquires the target image.

ステップS22において、表検出部212は、ステップS21にて取得された対象画像中に含まれる複数(単数の場合もある)の表それぞれに対応する表領域を検出する。
具体的に、表検出部212は、まず前処理を行う。例えば、表検出部212は、対象画像をグレースケールに変換すると共に、そのサイズを1280×960に調整(すなわち、リサイズ)する。次に、表検出部212は、対象画像中の背景領域と枠線及び文字領域を分離し、0又は1で表現するための、二値化を行う。例えば、表検出部212は、retinexフィルタリングを用いて二値化を行う。二値化では、例えば、画像における、白が0で表現され、黒が1で表現される。また、表検出部212は、文字領域を削除するためのフィルタリングを行う。前提として、表の枠線は対象画像中の広範囲に広がっており、枠線内には文字が含まれる。そのため、画素は疎連結していると考えられる。このことから枠線におけるx方向及びy方向の分散はどちらも大きいと考えられる。
In step S22, the table detection unit 212 detects a table area corresponding to each of a plurality of (may be singular) tables included in the target image acquired in step S21.
Specifically, the table detection unit 212 first performs preprocessing. For example, the table detection unit 212 converts the target image into gray scale and adjusts (that is, resizes) the size to 1280 × 960. Next, the table detection unit 212 separates the background area, the frame line, and the character area in the target image, and performs binarization for expressing by 0 or 1. For example, the table detection unit 212 performs binarization using retinex filtering. In binarization, for example, in an image, white is represented by 0 and black is represented by 1. Further, the table detection unit 212 performs filtering for deleting the character area. As a premise, the border of the table extends over a wide area in the target image, and characters are included in the border. Therefore, it is considered that the pixels are loosely connected. From this, it is considered that the variances in the x-direction and the y-direction in the frame line are both large.

続いて、ノイズによって表の枠線が分断されてしまった線分は、x方向又はy方向のどちらかに極端に長く、もう一方向に極端に短いと考えられる。このことから線分における分散は、x方向及びy方向の一方で大きく、他方では小さいと考えられる。この性質に基づいて、例えば、表検出部212は、画像のx方向とy方向の共分散行列の固有値を用いた閾値処理によって線分及び枠線を特定し、これら線分及び枠線の何れにもあてはまらなかった領域については文字領域とみなして除去をする。また、表検出部212は、線分及び枠線の中心1画素分のみが残るように細くする細線化を行う。 Subsequently, the line segment in which the frame line of the table is divided by noise is considered to be extremely long in either the x direction or the y direction and extremely short in the other direction. From this, it is considered that the variance in the line segment is large in the x direction and the y direction and small in the other direction. Based on this property, for example, the table detection unit 212 identifies a line segment and a border by threshold processing using the eigenvalues of the covariance matrix in the x-direction and the y-direction of the image, and any of these line segments and borders. Areas that do not apply to are regarded as character areas and removed. Further, the table detection unit 212 performs thinning so that only one pixel at the center of the line segment and the frame line remains.

そして、表検出部212は、対象画像から、画像中に含まれる複数(単数の場合もある)の表それぞれに対応する領域表領域を検出する。例えば、表検出部212は、対象画像中に複数の表が存在する場合、1つの画像中に表が1つしか存在しないように画像の分割を行う。そのために、表検出部212は、シームカービングで用いられるx方向及びy方向の累積エネルギーマップを作成する。また、表検出部212は、エネルギーマップにおいて、隣接画素とのエネルギー差が閾値以上となる画素からなる谷部においてバックトラッキングを行う。そして、このバックトラッキングでたどった画素を表や文書領域の境目として各表領域を検出し、各表領域それぞれを1つの表領域に対応する画像として分割する。 Then, the table detection unit 212 detects a region table area corresponding to each of a plurality of (sometimes singular) tables included in the target image from the target image. For example, when a plurality of tables exist in the target image, the table detection unit 212 divides the image so that only one table exists in one image. Therefore, the table detection unit 212 creates a cumulative energy map in the x-direction and the y-direction used in seam carving. Further, the table detection unit 212 performs backtracking in the valley portion composed of pixels whose energy difference from the adjacent pixels is equal to or larger than the threshold value in the energy map. Then, each table area is detected by using the pixels traced by this back tracking as the boundary between the table and the document area, and each table area is divided into an image corresponding to one table area.

ステップS23において、枠検出部213は、ステップS22にて検出された表領域それぞれから、表を構成する複数の枠を検出する。
具体的に、枠検出部213は、まず枠線分離を行う。この場合に、上述したように、枠検出部213は、表を構成する複数の枠の枠線である第1の方向の枠線と第2の方向の枠線を分離して検出する。この点について、図6を参照して説明する。図6は、第1の方向の枠線と第2の方向の枠線を分離して検出することを示す模式図である。図6(a)に、画像内における分離前の枠線を示す。このように表を構成する複数の枠の枠線は、第1の方向(ここでは、縦方向)と、第2の方向(ここでは、横方向)の枠線を含む。枠検出部213は、これらの枠線を、図6(b-1)に示すように第1の方向(ここでは、縦方向)と、図6(b-2)に示すように第2の方向(ここでは、横方向)の枠線とに分離して検出する。
In step S23, the frame detection unit 213 detects a plurality of frames constituting the table from each of the table areas detected in step S22.
Specifically, the frame detection unit 213 first separates the frame lines. In this case, as described above, the frame detection unit 213 separately detects the frame line in the first direction and the frame line in the second direction, which are the frame lines of the plurality of frames constituting the table. This point will be described with reference to FIG. FIG. 6 is a schematic diagram showing that the frame line in the first direction and the frame line in the second direction are separately detected. FIG. 6A shows a frame line before separation in the image. The borders of the plurality of frames constituting the table in this way include borders in the first direction (here, the vertical direction) and the second direction (here, the horizontal direction). The frame detection unit 213 arranges these frame lines in the first direction (here, the vertical direction) as shown in FIG. 6 (b-1) and the second direction as shown in FIG. 6 (b-2). It is detected separately from the border in the direction (here, the horizontal direction).

その方法であるが、前提としてステップS22にて行った細線化により、枠線の幅が1に調整されている。そのため、画像に対して第1の方向(ここでは、縦方向)に幅が1の画素を削除することにより、第2の方向(ここでは、横方向)の枠線が削除される。これにより、図6(b-1)に示すように第1の方向(ここでは、縦方向)の枠線のみの画像が得られる。同様にして、第2の方向(ここでは、横方向)に幅が1の画素を削除することにより第1の方向(ここでは、縦方向)の枠線が削除される。これにより、図6(b-2)に示すように第2の方向(ここでは、横方向)の枠線のみの画像が得られる。これにより、第1の方向(ここでは、縦方向)と、第2の方向(ここでは、横方向)の枠線を分離することができ、正確に枠線を検出することができる。 As a premise, the width of the frame line is adjusted to 1 by the thinning performed in step S22. Therefore, by deleting the pixel having a width of 1 in the first direction (here, the vertical direction) with respect to the image, the frame line in the second direction (here, the horizontal direction) is deleted. As a result, as shown in FIG. 6 (b-1), an image of only the border in the first direction (here, the vertical direction) can be obtained. Similarly, by deleting the pixel having a width of 1 in the second direction (here, the horizontal direction), the border in the first direction (here, the vertical direction) is deleted. As a result, as shown in FIG. 6 (b-2), an image of only the border in the second direction (here, the horizontal direction) can be obtained. As a result, the border in the first direction (here, the vertical direction) and the border in the second direction (here, the horizontal direction) can be separated, and the border can be detected accurately.

仮にこのような分離を行わない場合について説明する。前提として、健康診断表等の紙媒体を撮影した場合、紙のめくれ等により縦横両方向の枠線のそれぞれに歪みが発生する。このため、仮に分離を行わない場合、枠線の検出精度が低下してしまう。これに対して、本実施形態では、枠線を縦方向と横方向に分離してから検出を行うことにより、複数の方向の枠線を分離する。そして、分離した複数の方向の枠線それぞれを、線の曲率に制限を設けた曲線として検出を行う、これにより、複数の方向の枠線を検出することを単純化し、縦横両方向の枠線の歪みそれぞれに対応して、正確に枠線を検出することができる。 A case where such separation is not performed will be described. As a premise, when a paper medium such as a health examination table is photographed, distortion occurs in each of the vertical and horizontal borders due to the turning of the paper or the like. Therefore, if the separation is not performed, the accuracy of detecting the frame line will be lowered. On the other hand, in the present embodiment, the frame lines in a plurality of directions are separated by performing detection after separating the frame lines in the vertical direction and the horizontal direction. Then, each of the separated borders in a plurality of directions is detected as a curve with a limitation on the curvature of the line, which simplifies the detection of the borders in the plurality of directions and makes it possible to detect the borders in both the vertical and horizontal directions. The border can be detected accurately according to each distortion.

次に、枠検出部213は、枠線検出を行う。上述したように複数の方向の枠線の分離を行ったため、分離後の画像は、それぞれ、第1の方向(ここでは、縦方向)の枠線、あるいは、第2の方向(ここでは、横方向)のみを含んでいる。そのため、これらの画像に対して8近傍の連結関係を見ることで得られた画素の集合は、それぞれ縦方向あるいは横方向の枠線となる。本実施形態では、この画素の集合に対して最小二乗法を用いることにより曲線近似を行う。 Next, the frame detection unit 213 detects the frame line. Since the borders in the plurality of directions are separated as described above, the separated images are the borders in the first direction (here, the vertical direction) or the second direction (here, the horizontal direction), respectively. Direction) only. Therefore, the set of pixels obtained by looking at the connection relationship of the vicinity of 8 with respect to these images becomes a frame line in the vertical direction or the horizontal direction, respectively. In this embodiment, the curve approximation is performed by using the least squares method for this set of pixels.

具体的には、分離後の画像に対し、8近傍の接続関係を見ることで、画素の集合を検出する。これにより得られた画素の集合は表の枠線の他に、フィルタリングの際に枠線と隣接していたために削除が行われなかった文字も含まれる。そのため、フィルタリングの際に用いた画素集合の画素数と共分散行列の固有値を用いた閾値処理により、文字の削除を行う。
また、曲線近似は画素数の多い画素集合から行い、多項式を利用して次数を1から4まで徐々に上げていき、次式(1)に示す閾値判定を行い、閾値以下となった場合のみ近似曲線を作成する。
Specifically, a set of pixels is detected by looking at the connection relationship in the vicinity of 8 with respect to the separated image. In addition to the border of the table, the set of pixels obtained by this includes characters that were not deleted because they were adjacent to the border during filtering. Therefore, the characters are deleted by the threshold processing using the number of pixels of the pixel set used in the filtering and the eigenvalues of the covariance matrix.
In addition, curve approximation is performed from a set of pixels with a large number of pixels, the order is gradually increased from 1 to 4 using a polynomial, the threshold value is determined as shown in the following equation (1), and only when the value is equal to or less than the threshold value. Create an approximate curve.

Figure 2022027060000002
ただし、式(1)において、x及びyは座標である。
Figure 2022027060000002
However, in the equation (1), x and y are coordinates.

ここで、閾値(例えば、式(1)において上記した1.1)は適宜設定することができる。そして、近似曲線が作成された場合、分離された枠線の合成を行う。枠線の合成には作成した近似曲線の周囲3画素に対して画素集合の探索を行い。画素集合が発見された場合、その画素集合と曲線近似に利用した画素集合の両方を用いて再度、最小二乗法による曲線近似を行う反復的な手法を用いる。 Here, the threshold value (for example, 1.1 described above in the equation (1)) can be appropriately set. Then, when the approximate curve is created, the separated borders are combined. To synthesize the frame line, search the pixel set for the three pixels around the created approximate curve. When a pixel set is found, an iterative method of performing curve approximation by the least squares method is used again using both the pixel set and the pixel set used for curve approximation.

全ての画素集合に対して曲線の近似が終了次第、枠検出部213は、交差線の削除を行う。表の枠線は平行線で構成され、縦線同士及び横線同士が交わることはない。そのため、縦横で分離した枠線画像内で線が交わっている場合、表の枠外の線が混入している可能性が高いと想定される。本実施形態では、縦及び横の枠線が交差している場合、交差している線のうち近似に使用した画素集合の画素数が少ないものを削除することにより枠外線の削除を行う。 As soon as the approximation of the curve for all the pixel sets is completed, the frame detection unit 213 deletes the intersection line. The borders of the table are composed of parallel lines, and vertical lines and horizontal lines do not intersect each other. Therefore, if the lines intersect in the frame line image separated vertically and horizontally, it is highly likely that the lines outside the frame of the table are mixed. In the present embodiment, when the vertical and horizontal frame lines intersect, the out-of-frame line is deleted by deleting the intersecting lines having a small number of pixels in the pixel set used for approximation.

そして、枠検出部213は、枠検出を行う。枠検出では線による枠構造の検出を行う。上述の枠線検出が終了すると、縦方向及び横方向の近似曲線の群が生成される。本ステップにおける枠検出では、最初に縦方向と横方向の近似曲線同士の交点の位置を特定する。これにより得られた交点の座標は、枠の角の候補位置となり、縦方向の枠線1つに対し横方向の枠線数分の交点が得られると共に、横方向の枠線1つに対し縦方向の枠線数分の交点を得られる。 Then, the frame detection unit 213 detects the frame. In frame detection, the frame structure is detected by lines. When the above-mentioned border detection is completed, a group of vertical and horizontal approximate curves is generated. In the frame detection in this step, first, the position of the intersection of the approximate curves in the vertical direction and the horizontal direction is specified. The coordinates of the intersections obtained in this way become candidate positions for the corners of the frame, and as many as the number of intersections for the number of horizontal borders can be obtained for one vertical border, and for one horizontal border. You can get the number of intersections for the number of vertical borders.

その後、縦又は横の1つの枠線を選択し、その近似曲線上に存在する隣接した交点のペアを1つ選択する。そして、枠線画像においてその交点間を探索し、一定数の画素が存在する場合に枠線と判定する、この処理をすべての近似曲線上の隣接した交点のペアに適用することで、画像中の枠線を検出することができる。その後、検出した枠線で囲まれた領域を枠とみなして検出する。 After that, one vertical or horizontal border is selected, and one pair of adjacent intersections existing on the approximate curve is selected. Then, by searching between the intersections in the border image and determining that it is a border when a certain number of pixels exist, this process is applied to all pairs of adjacent intersections on the approximate curve in the image. Borders can be detected. After that, the area surrounded by the detected frame line is regarded as a frame and detected.

また、枠検出部213は、これら検出した複数の枠それぞれを分割して切り出す。上述したように、枠検出部213は、枠を囲む枠線に基づいて、枠を検出している、そこで、枠を囲む枠線に含まれる座標中でx及びy座標それぞれにおいて、一番外側の座標を探索し、この探索により取得した座標を用いて複数の枠それぞれを分割して切り出す。さらに、枠検出部213は、この切り出された複数の枠それぞれに対象画像における位置情報を付与する。例えば、枠検出部213は、検出された表領域それぞれに割り当てた表の識別情報(例えば、表に割り当てた識別子)と、枠の識別情報(例えば、枠に割り当てた識別子)の組み合わせを位置情報とし、この位置情報を複数の枠それぞれに対して付与する。あるいは、例えば、枠検出部213は、対象画像で用いられている画像座標系での座標値(例えば、枠の中心等に対応する各座標軸での値)を位置情報とし、この位置情報を複数の枠それぞれに対して付与する。これにより、枠検出部213は、対象画像内に含まれる複数の枠それぞれを単位とした画像であって、それぞれに位置情報が付与された枠画像を生成する。 Further, the frame detection unit 213 divides and cuts out each of the plurality of detected frames. As described above, the frame detection unit 213 detects the frame based on the frame line surrounding the frame, and is therefore the outermost in the x and y coordinates among the coordinates included in the frame line surrounding the frame. The coordinates of are searched, and each of a plurality of frames is divided and cut out using the coordinates obtained by this search. Further, the frame detection unit 213 imparts position information in the target image to each of the plurality of cut out frames. For example, the frame detection unit 213 uses a combination of the table identification information (for example, the identifier assigned to the table) assigned to each of the detected table areas and the frame identification information (for example, the identifier assigned to the frame) as position information. And this position information is given to each of a plurality of frames. Alternatively, for example, the frame detection unit 213 uses coordinate values in the image coordinate system used in the target image (for example, values in each coordinate axis corresponding to the center of the frame, etc.) as position information, and a plurality of the position information. It is given to each of the frames. As a result, the frame detection unit 213 generates a frame image in which each of the plurality of frames included in the target image is a unit and a position information is added to each of the frames.

図5に戻り、ステップS24において、文字認識部214は、ステップS23にて生成された複数の枠画像それぞれに対して、枠画像を単位とした文字認識処理を行う。 Returning to FIG. 5, in step S24, the character recognition unit 214 performs character recognition processing using the frame image as a unit for each of the plurality of frame images generated in step S23.

ステップS25において、情報取得部215は、ステップS24にて文字認識された複数の枠画像それぞれについての文字認識結果と、この複数の枠画像それぞれに付与された位置情報とに基づいて、取得対象情報を取得する。この点について、図7を参照して説明する。図7は、対象画像に含まれる表構造と、情報取得部215による取得対象情報の取得方法について示す模式図である。 In step S25, the information acquisition unit 215 acquires acquisition target information based on the character recognition result for each of the plurality of frame images recognized in step S24 and the position information given to each of the plurality of frame images. To get. This point will be described with reference to FIG. 7. FIG. 7 is a schematic diagram showing a table structure included in the target image and a method of acquiring the acquisition target information by the information acquisition unit 215.

図7(a)に、対象画像に含まれる表構造を示す。図7(a)において、対象画像5は、表51と、複数の枠52(図中では、図示の都合上1つの枠のみに対して符号を付す)を含む。なお、図中では説明を簡略化するために、表51を1つのみ示しているが、対象画像5には、複数の表51が含まれていてよい。このような対象画像5に対して上述した画像解析処理を行うことにより、表検出部212により表51に対応する表領域が検出される。また、枠検出部213により、表51に含まれる複数の枠52それぞれについて枠画像が生成される。 FIG. 7A shows a table structure included in the target image. In FIG. 7A, the target image 5 includes a table 51 and a plurality of frames 52 (in the figure, only one frame is designated for convenience of illustration). Although only one table 51 is shown in the figure for the sake of brevity, the target image 5 may include a plurality of tables 51. By performing the above-mentioned image analysis processing on such a target image 5, the table detection unit 212 detects the table area corresponding to the table 51. Further, the frame detection unit 213 generates a frame image for each of the plurality of frames 52 included in the table 51.

図7(b)に、情報取得部215による取得対象情報の取得方法について示す。上述したように、情報取得部215は、文字認識部214による複数の枠画像それぞれについての文字認識結果(すなわち、枠画像それぞれに含まれる文字列のテキスト)と、辞書データ記憶部262に記憶されている辞書データに含まれる検査項目名として用いられる単語のテキストそれぞれとの類似度をスコア化する。また、情報取得部215は、そのスコア化の結果、或る検査項目名について、最も類似度が高い文字列が含まれている枠画像を、その検査項目名が記載された枠画像であるとしてマーキングする。例えば、今回枠52aがマーキングされたとする。すると、情報取得部215は、このある検査項目に対応してマーキングした枠画像52aの位置情報を取得する。また、情報取得部215は、図中にて矢印で示すように、この枠画像52aの位置情報から任意の所定方向(例えば、右方向)に存在する各枠画像に対して、検査値が含まれているか走査的に検索する。 FIG. 7B shows a method of acquiring information to be acquired by the information acquisition unit 215. As described above, the information acquisition unit 215 stores the character recognition result (that is, the text of the character string included in each frame image) for each of the plurality of frame images by the character recognition unit 214 and the dictionary data storage unit 262. The degree of similarity with each text of the word used as the inspection item name included in the dictionary data is scored. Further, the information acquisition unit 215 assumes that, as a result of the scoring, a frame image containing the character string having the highest degree of similarity for a certain inspection item name is a frame image in which the inspection item name is described. Mark. For example, assume that the frame 52a is marked this time. Then, the information acquisition unit 215 acquires the position information of the frame image 52a marked corresponding to this certain inspection item. Further, as shown by an arrow in the figure, the information acquisition unit 215 includes inspection values for each frame image existing in an arbitrary predetermined direction (for example, to the right) from the position information of the frame image 52a. Search by scanning to see if it is.

このようにして、情報取得部215は、取得対象情報である、第1の情報(例えば、或る検査項目)と、これに対応する第2の情報(この或る検査項目の検査値)の組を取得することができる。このようにして取得した取得対象情報(例えば、検査項目に対応する検査項目名と、その検査値の組)を画像解析結果とする。 In this way, the information acquisition unit 215 receives the first information (for example, a certain inspection item) which is the acquisition target information and the second information corresponding to the first information (inspection value of the certain inspection item). You can get a pair. The acquisition target information acquired in this way (for example, the inspection item name corresponding to the inspection item and the set of the inspection values) is used as the image analysis result.

ステップS26において、端末側通知部112又は装置側通知部216は、ステップS25における画像解析結果を、ユーザに対して通知する。ユーザは、この通知された画像解析結果を参照することにより、画像解析結果の内容を把握することができる。なお、通知は、端末側通知部112又は装置側通知部216の何れかのみで行われてもよいし、双方で行われてもよい。これにより、本処理は終了する。 In step S26, the terminal-side notification unit 112 or the device-side notification unit 216 notifies the user of the image analysis result in step S25. The user can grasp the content of the image analysis result by referring to the notified image analysis result. Note that the notification may be performed only by either the terminal-side notification unit 112 or the device-side notification unit 216, or may be performed by both. This ends this process.

ここで、ステップS26における通知は、画像解析結果を単に表示等することにより、通知するのみであってもよいが、これに限らない。例えば、1人のユーザに対応する複数の健康診断表(例えば、1年毎に健康診断が実施される場合の、各年の健康診断表のそれぞれ)に対して画像解析処理を行った場合に、画像解析結果に基づいて、所定の検査項目に対応する検査値の時系列に沿った変化を検出し、該検出した変化を通知するようにしてもよい。 Here, the notification in step S26 may be merely notified by simply displaying the image analysis result or the like, but the notification is not limited to this. For example, when image analysis processing is performed on a plurality of health examination tables corresponding to one user (for example, each of the health examination tables for each year when the health examination is performed every year). , The change in the time series of the inspection value corresponding to the predetermined inspection item may be detected based on the image analysis result, and the detected change may be notified.

この場合、例えば、各健康診断表に記載の実施日を文字認識により検出したり、ユーザの操作等に基づいたりして、各健康診断が行われた順番を特定する。そして、各健康診断表から文字認識した健康診断の結果(例えば、検査値)を、この健康診断が行われた順番と対応して通知する。例えば、同じ検査項目の検査値を、健康診断が行われた順番と対応付けて、表の形式で表示等することにより、通知をする。あるいは、例えば、横軸を時間(例えば、健康診断を実施した日付)、縦軸を同じ検査項目の検査値としたグラフの形式等で表示等することにより、通知をする。 In this case, for example, the implementation date described in each health diagnosis table is detected by character recognition, or the order in which each health diagnosis is performed is specified based on the user's operation or the like. Then, the result of the health diagnosis (for example, the test value) recognized by characters from each health diagnosis table is notified in correspondence with the order in which the health diagnosis is performed. For example, notification is given by displaying the test values of the same test items in the form of a table in association with the order in which the health examinations are performed. Alternatively, for example, the notification is given by displaying in the form of a graph in which the horizontal axis is the time (for example, the date when the health examination was performed) and the vertical axis is the test value of the same test item.

この場合、さらに、例えば、検査値の適正範囲を示す閾値(例えば、上限値や下限値)を設定しておき、検査値がこの適性範囲外となった場合に(例えば、上限値以上であったり、下限値以下であったりした場合)、その検査値の色等を異ならせて表示等したり警告文と共に表示等したりして、通知するようにしてもよい。他にも、例えば、前回の健康診断からの検査値の変化量に対する閾値を設定しておき、検査値の変化量が閾値を超えた場合に(例えば、検査値が大きく変化した場合に)、その検査値の色等を異ならせて表示等したり警告文と共に表示等したりして、通知するようにしてもよい。これによりユーザは、同じ検査項目の検査値の時系列に沿った変化を把握できるのみでなく、その検査値が適正範囲外である、あるいは大きく変化している、等の変化を把握することができる。
従って、ユーザは、より適切に健康診断の結果を把握することが可能となる。
In this case, for example, a threshold value indicating an appropriate range of the inspection value (for example, an upper limit value or a lower limit value) is set, and when the inspection value is outside the appropriate range (for example, the upper limit value or more). Or, if it is below the lower limit value), the inspection value may be displayed in a different color or displayed together with a warning message to notify the user. In addition, for example, when a threshold value is set for the amount of change in the test value from the previous medical examination and the amount of change in the test value exceeds the threshold value (for example, when the test value changes significantly), The inspection value may be displayed in a different color or the like, or may be displayed together with a warning text to notify the user. As a result, the user can not only grasp the change of the inspection value of the same inspection item along the time series, but also grasp the change such that the inspection value is out of the appropriate range or has changed significantly. can.
Therefore, the user can more appropriately grasp the result of the health diagnosis.

以上説明した、撮影処理、及び画像解析処理によれば、表と枠をそれぞれ段階的に検出した上で、位置情報を利用して、所望の取得対象情報を取得する。したがって、表と枠を検出せず、位置情報を用いずに、単純に画像解析処理を行うような画像解析方法に比べて、より精度高く画像解析を行うことが可能となる。そのため、例えば、様々なフォーマットが混在しており、表や枠の配置等が原稿によってそれぞれ異なるような場合や、画像に歪み等が発生しており通常であれば画像解析を行うことが困難な場合であったとしても、適切に画像解析を行うことができる。 According to the shooting process and the image analysis process described above, the table and the frame are detected step by step, and then the desired acquisition target information is acquired by using the position information. Therefore, it is possible to perform image analysis with higher accuracy than an image analysis method in which the image analysis process is simply performed without detecting the table and the frame and without using the position information. Therefore, for example, when various formats are mixed and the arrangement of tables and frames differs depending on the original, or the image is distorted, it is usually difficult to perform image analysis. Even in some cases, image analysis can be performed appropriately.

[変形例]
以上、本発明の実施形態について説明したが、この実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明は、本発明の要旨を逸脱しない範囲で、その他の様々な実施形態を取ることが可能である共に、省略及び置換等種々の変形を行うことができる。この場合に、これら実施形態及びその変形は、本明細書等に記載された発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
一例として、以上説明した本発明の実施形態を、以下のようにして変形してもよい。
[Modification example]
Although the embodiment of the present invention has been described above, this embodiment is merely an example and does not limit the technical scope of the present invention. The present invention can take various other embodiments without departing from the gist of the present invention, and can be modified in various ways such as omission and substitution. In this case, these embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
As an example, the embodiment of the present invention described above may be modified as follows.

上述した実施形態では、画像解析システムSを、端末1と画像解析装置2の組み合わせのような、クライアント-サーバ型のシステムとして実現していた。これに限らず、上述の実施形態に示した例とは異なる構成により、画像解析システムSを構成するようにしてもよい。 In the above-described embodiment, the image analysis system S is realized as a client-server type system such as a combination of the terminal 1 and the image analysis device 2. Not limited to this, the image analysis system S may be configured with a configuration different from the example shown in the above-described embodiment.

例えば、画像解析装置2を1つのコンピュータで実現するのではなく、複数のコンピュータで実現するようにしてもよい。この場合、例えば、画像解析装置2の機能ブロックの一部(例えば、文字認識部214や、情報取得部215を或るコンピュータで実現し、他の機能ブロックを他のコンピュータで実現するようにしてもよい。また、例えば、画像解析装置2の機能ブロックの一部又は全部を複数のコンピュータ(例えば、クラウドシステム)により分散処理することにより実現するようにしてもよい。 For example, the image analysis device 2 may be realized not by one computer but by a plurality of computers. In this case, for example, a part of the functional blocks of the image analysis device 2 (for example, the character recognition unit 214 and the information acquisition unit 215 are realized by a certain computer, and the other functional blocks are realized by another computer. Further, for example, a part or all of the functional blocks of the image analysis device 2 may be realized by distributed processing by a plurality of computers (for example, a cloud system).

また他にも、例えば、画像解析装置2に撮像部を設けることによって、端末1と画像解析装置2の機能を1つのコンピュータで実現してもよい。この場合、このコンピュータから通信機能を省略してスタンドアローンの装置としてもよい。 In addition, for example, by providing an image pickup unit in the image analysis device 2, the functions of the terminal 1 and the image analysis device 2 may be realized by one computer. In this case, the communication function may be omitted from this computer and the device may be used as a stand-alone device.

さらに他にも、端末1を利用するのは、健康診断を受けたユーザ自身であってもよいが、健康診断を受けたユーザを雇用している事業者等の他の主体であってもよい。 Furthermore, the terminal 1 may be used by the user who has undergone the health examination, or may be another entity such as a business operator who employs the user who has undergone the health examination. ..

さらに他にも、例えば、ステップS24における文字認識処理の精度をより高めるため、ステップS23において生成された複数の枠画像それぞれに対して、文字検出処理を行うようにしてもよい。この処理は、例えば、複数の枠画像を生成した枠検出部213により、枠画像の生成に続いて行われる。この場合、枠検出部213は、自身が検出した複数の枠画像を単位として、該領域毎に対象画像から文字を検出する。これにより、枠検出部213は、自身による正確な枠の検出結果に基づいて、所定の領域(例えば、文字が記載されている枠内)から、ひとかたまりの文字列(例えば、1つの単語)を正確に検出できる。 Further, for example, in order to further improve the accuracy of the character recognition processing in step S24, the character detection processing may be performed on each of the plurality of frame images generated in step S23. This process is performed, for example, by the frame detection unit 213 that has generated a plurality of frame images, following the generation of the frame images. In this case, the frame detection unit 213 detects characters from the target image for each region, using a plurality of frame images detected by itself as a unit. As a result, the frame detection unit 213 selects a set of character strings (for example, one word) from a predetermined area (for example, in the frame in which characters are described) based on the accurate detection result of the frame by itself. It can be detected accurately.

図8は、文字検出処理の流れを説明するフローチャートである。
ステップS31において、枠検出部213は、自身が生成した複数の枠画像から、今回処理対象とする枠画像を取得する。
FIG. 8 is a flowchart illustrating the flow of the character detection process.
In step S31, the frame detection unit 213 acquires the frame image to be processed this time from the plurality of frame images generated by itself.

ステップS32において、枠検出部213は、二値化を行う。本変形例では、後述のステップS35において投影法を用いて文字の検出を行う。投影法を用いる場合、文字領域における黒の画素をカウントして文字領域と背景領域を分離するため、2値化を行う必要がある。二値化は、任意の手法で行うことができるが、例えば、大津の2値化を用いる。大津の2値化は判別分析法とも呼ばれ、画像に対し輝度値のヒストグラムを作成し、そのヒストグラムを二分した際にクラス間分散が最大となる閾値を使用して2値化を行うものである。健康診断表は様々な色が使われているものが多いが、枠内に注目してみると文字と背景の2値画像であるため大津の2値化を用いることにより、最適な閾値を自動的に算出し、文字を抽出することが可能となる。 In step S32, the frame detection unit 213 binarizes. In this modification, characters are detected by using the projection method in step S35 described later. When the projection method is used, it is necessary to perform binarization in order to count the black pixels in the character area and separate the character area and the background area. The binarization can be performed by any method, and for example, the binarization of Otsu is used. Otsu's binarization is also called a discriminant analysis method, in which a histogram of the brightness value is created for the image, and when the histogram is divided into two, the binarization is performed using the threshold value that maximizes the interclass variance. be. Many health checklists use various colors, but if you look inside the frame, it is a binary image of characters and background, so by using Otsu's binarization, the optimum threshold is automatically set. It is possible to calculate and extract characters.

ステップS33において、枠検出部213は、枠外領域の削除を行う。この点について、図9を参照して説明する。図9は、二値化した画像から、枠外領域の削除を行い、その後に射影変換を行うことを示す模式図である。ステップS32では、枠画像は枠を検出するのに使用した4つの枠線の座標から一番外側のものを用いて切り出した。そのため、枠線に傾きや歪みが存在する場合、図9(a)に二値化した画像として示すように、枠外の文字及び枠線が含まれて検出される。これらの文字や枠線は後の文字検出の際に障害となる。そこで、枠検出の際に使用した枠線外の画素を削除することにより、図9(b)に示すように、これらを削除することができる。 In step S33, the frame detection unit 213 deletes the out-of-frame area. This point will be described with reference to FIG. FIG. 9 is a schematic diagram showing that the out-of-frame area is deleted from the binarized image, and then the projective transformation is performed. In step S32, the frame image was cut out using the outermost one from the coordinates of the four frame lines used to detect the frame. Therefore, when the frame line is inclined or distorted, characters outside the frame and the frame line are included and detected as shown as a binarized image in FIG. 9 (a). These characters and borders become obstacles in later character detection. Therefore, by deleting the pixels outside the frame line used in the frame detection, these can be deleted as shown in FIG. 9B.

ステップS34において、枠検出部213は、射影変換を行う。カメラ撮影によって取得した対象画像の画像には、紙の湾曲やカメラと撮影対象の位置関係に基づいた歪みが生じる。この歪みに対応するために、射影変換を用いる。射影変換の変換式は次式(2)で表され、Hが正則の時実行できる。 In step S34, the frame detection unit 213 performs a projective transformation. The image of the target image acquired by the camera shooting causes distortion of the paper and distortion based on the positional relationship between the camera and the shooting target. A projective transformation is used to deal with this distortion. The conversion formula of the projective transformation is expressed by the following formula (2), and can be executed when H is regular.

Figure 2022027060000003
ただし、式(2)において、x’及びy’は変換後の座標であり、x及びyは変換前の座標であり、H11~H33は変換係数である。また、式(2)において、fはスケールを表す定数であり、x/f及びy/fが0になるように調整される。
Figure 2022027060000003
However, in the equation (2), x'and y'are the coordinates after the conversion, x and y are the coordinates before the conversion, and H 11 to H 33 are the conversion coefficients. Further, in the equation (2), f 0 is a constant representing a scale, and is adjusted so that x / f 0 and y / f 0 become 0.

この射影変換の変換行列は8つの変換係数を含んでおり、1つの変換前及び変換後の座標から2つの方程式が得られることから、4つの変換前後の座標のペアを用意することで変換係数を求めることができる。本変形例では、この4つの座標に枠線の交点を用いる。変換後の座標は枠の左上の座標を固定し、左上と右上、及び、左下と右下の交点間x軸方向の距離を算出し、距離の長いものを変換後の横方向の枠の長さとする。同様に、左上と左下、及び、右上と右下の交点間のy軸方向の距離を算出し、距離の長いものを変換後の縦方向の枠の長さとして変換後の枠が長方形となるように座標を定義する。変換前の座標には交点の座標をそのまま使用し、これら4つの座標を用いて変換係数を定め、図9(c)に示すように射影変換を行う。 Since the transformation matrix of this projective transformation contains eight transformation coefficients and two equations can be obtained from the coordinates before and after the transformation, the transformation coefficients are prepared by preparing four pairs of coordinates before and after the transformation. Can be asked. In this modification, the intersection of the frame lines is used for these four coordinates. For the coordinates after conversion, the coordinates of the upper left of the frame are fixed, the distance between the intersections of the upper left and upper right, and the lower left and lower right is calculated in the x-axis direction, and the longer distance is the length of the horizontal frame after conversion. Let's say. Similarly, the distance in the y-axis direction between the intersections of the upper left and lower left, and the intersections of upper right and lower right is calculated, and the longer distance is used as the length of the converted vertical frame, and the converted frame becomes a rectangle. Define the coordinates as follows. The coordinates of the intersection are used as they are for the coordinates before the conversion, the conversion coefficient is determined using these four coordinates, and the projective transformation is performed as shown in FIG. 9 (c).

ステップS35において、枠検出部213は、文字検出を行う。文字検出には、投影法を用いる。投影法では画像のy及びxそれぞれの方向に対して、各座標で二値化後に黒に対応する画素の画素数をカウントし、画素数が0でない範囲を行及び文字として検出する。しかし、この手法では“リ”や“ル”等のカタカナの構成要素や、“検”や“接”やといった漢字の偏(へん)と旁(つくり)が左右に分離して検出されるといった問題が生じる。そこで、本変形例では、分離して検出したのちに文字の合成を行う。 In step S35, the frame detection unit 213 detects characters. A projection method is used for character detection. In the projection method, the number of pixels of the pixel corresponding to black is counted after binarization at each coordinate in each of the y and x directions of the image, and the range where the number of pixels is not 0 is detected as a line and a character. However, with this method, katakana components such as "ri" and "ru", and the bias and sword of kanji such as "ken" and "contact" are detected separately on the left and right. Problems arise. Therefore, in this modification, characters are combined after being separated and detected.

この場合、まず投影法で検出した文字に対し、次式(3)で表すように、それぞれの文字の横方向の長さを縦方向の長さで除算し、検出したそれぞれの文字に対して縦横比を算出する。 In this case, first, for the characters detected by the projection method, the horizontal length of each character is divided by the vertical length, as expressed by the following equation (3), and for each detected character. Calculate the aspect ratio.

Figure 2022027060000004
ただし、式(3)において、rは各文字の縦横比であり、wは各文字の幅であり、hは行の高さである。
Figure 2022027060000004
However, in the equation (3), r i is the aspect ratio of each character, wi is the width of each character, and h is the height of the line.

この縦横比rは全角文字の場合は相対的に大きくなり、半角文字の場合は相対的に小さくなる。画像解析処理の対象としている健康診断表には検査項目等の文字領域と検査結果の数値領域が存在し、数値領域は半角文字で記載されている。そのため、枠内に存在する文字が半角文字のみの場合、文字の合成は必要ないと考えられる。そこで、この縦横比rを用いて表の文字領域と数値領域の判別を行う。そのために、判別用の閾値を設定し、閾値を以上のものが存在した場合、文字領域とみなして、その文字領域の枠内文字を文字の合成を行う候補とする。 This aspect ratio ri is relatively large in the case of full-width characters and relatively small in the case of half-width characters. The health diagnosis table, which is the target of image analysis processing, has a character area such as an inspection item and a numerical area of the inspection result, and the numerical area is described in half-width characters. Therefore, if the characters existing in the frame are only half-width characters, it is considered that character composition is not necessary. Therefore, the character area and the numerical area of the table are discriminated by using this aspect ratio ri . Therefore, a threshold value for discrimination is set, and if a threshold value or more exists, it is regarded as a character area, and the characters in the frame of the character area are used as candidates for character composition.

これらの文字の合成を行う候補に対して、実際に文字の合成を行うか否かは、以下の次式(4)で表す条件を満たす隣接した文字を対象として検討する。 Whether or not to actually synthesize characters for the candidates for synthesizing these characters is examined for adjacent characters that satisfy the conditions represented by the following equation (4).

Figure 2022027060000005
ただし、式(4)において、xi+1,1及びxi,2は文字の横方向の始点及び終点であり、sは検出文字間の距離である。
Figure 2022027060000005
However, in the equation (4), x i + 1 , 1 and x i , 2 are the start and end points in the horizontal direction of the character, and si is the distance between the detected characters.

そして、この距離が小さい順に文字の合成を行うか否かを検討し、仮に文字合成後したとした場合の縦横比を上記の式(3)を用いて算出する。そして、算出した縦横比が閾値以上のものに対しては、文字領域において分離して検出された単一文字であるとして実際に合成を行う。しかしながら、算出した縦横比が閾値未満のものに対しては、文字領域において分離することなく検出された単一文字であるとして実際には合成は行わない。これにより、例えば、半角等で記載されている数値を誤って合成するようなことなく、一方で、漢字の偏(へん)と旁(つくり)が分離して検出されたような場合に、これらを単一文字として合成することができる。これにより本処理は終了する。そして、文字認識部214は、本処理により正確に検出された、ひとかたまりの文字列(例えば、1つの単語)を対象として、ステップS24における文字認識処理を精度高く行うことができる。 Then, it is examined whether or not the characters are combined in ascending order of the distance, and the aspect ratio when the characters are combined is calculated by using the above equation (3). Then, if the calculated aspect ratio is equal to or greater than the threshold value, the characters are actually combined as if they were single characters detected separately in the character area. However, if the calculated aspect ratio is less than the threshold value, it is not actually synthesized as a single character detected without separation in the character area. As a result, for example, when the numerical values described in half-width characters are not mistakenly combined, and on the other hand, the bias (hen) and the 旁 (making) of the Chinese characters are detected separately. Can be combined as a single character. This ends this process. Then, the character recognition unit 214 can perform the character recognition process in step S24 with high accuracy on a group of character strings (for example, one word) accurately detected by this process.

[構成例]
以上のように、本実施形態に係る画像解析システムSは、表検出部212と、枠検出部213と、情報取得部215と、を備える。
表検出部212は、表を被写体として含む画像から、表に対応する領域を検出する。
枠検出部213は、表に対応する領域から表を構成する複数の枠を検出すると共に、該検出した複数の枠それぞれに画像における位置情報を付与する。
情報取得部215は、複数の枠それぞれについての文字認識結果と、複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報を取得する。
[Configuration example]
As described above, the image analysis system S according to the present embodiment includes a table detection unit 212, a frame detection unit 213, and an information acquisition unit 215.
The table detection unit 212 detects an area corresponding to the table from an image including the table as a subject.
The frame detection unit 213 detects a plurality of frames constituting the table from the area corresponding to the table, and imparts position information in the image to each of the detected plurality of frames.
The information acquisition unit 215 acquires the acquisition target information based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames.

このように、画像解析システムSは、表と枠をそれぞれ段階的に検出した上で、位置情報を利用して、所望の取得対象情報を取得する。したがって、表と枠を検出せず、位置情報を用いずに、単純に画像解析処理を行うような画像解析方法に比べて、より精度高く画像解析を行うことが可能となる。そのため、例えば、様々なフォーマットが混在しており、表や枠の配置等が原稿によってそれぞれ異なるような場合や、画像に歪み等が発生しており通常であれば画像解析を行うことが困難な場合であったとしても、適切に画像解析を行うことができる。 In this way, the image analysis system S acquires the desired acquisition target information by using the position information after detecting the table and the frame in stages. Therefore, it is possible to perform image analysis with higher accuracy than an image analysis method in which the image analysis process is simply performed without detecting the table and the frame and without using the position information. Therefore, for example, when various formats are mixed and the arrangement of tables and frames differs depending on the original, or the image is distorted, it is usually difficult to perform image analysis. Even in some cases, image analysis can be performed appropriately.

情報取得部215は、取得対象情報の一部である第1の情報についての辞書データと、複数の枠それぞれの文字認識結果とに基づいて、第1の情報を取得する。
情報取得部215は、第1の情報の取得元となった枠に対応する位置情報に基づいて、取得対象情報の一部である第2の情報を取得する。
これにより、取得対象情報に対応した辞書データを用いて、より精度高く画像解析を行うことができる。
The information acquisition unit 215 acquires the first information based on the dictionary data about the first information which is a part of the acquisition target information and the character recognition result of each of the plurality of frames.
The information acquisition unit 215 acquires the second information which is a part of the acquisition target information based on the position information corresponding to the frame from which the first information is acquired.
As a result, image analysis can be performed with higher accuracy by using the dictionary data corresponding to the acquisition target information.

情報取得部215は、第1の情報の取得元となった枠に対応する位置情報を基準とすると共に、他の枠の位置情報に基づいて前記基準から所定方向に他の枠を走査的に検索することにより、第2の情報を取得する。
これにより、例えば、縦方向又は横方向に関連する情報が配置されている表において、より精度高く画像解析を行うことができる。
The information acquisition unit 215 uses the position information corresponding to the frame from which the first information is acquired as a reference, and scans the other frame in a predetermined direction from the reference based on the position information of the other frame. The second information is acquired by searching.
This makes it possible to perform image analysis with higher accuracy, for example, in a table in which information related to the vertical direction or the horizontal direction is arranged.

枠検出部213は、表に対応する領域から複数の枠の枠線である第1の方向の枠線と第2の方向の枠線を分離して検出すると共に、該検出した第1の方向の枠線及び第2の方向の枠線の交点に基づいて複数の枠を検出する。
このように、第1の方向の枠線と第2の方向の枠線を分離して検出することによって、これらを分離することなく検出を行う場合よりも、枠線及び枠を正確に検出することができる。
The frame detection unit 213 separates and detects the frame line in the first direction and the frame line in the second direction, which are the frame lines of a plurality of frames, from the area corresponding to the table, and detects the detected first direction. A plurality of frames are detected based on the intersection of the borders of the above and the borders of the second direction.
In this way, by detecting the frame line in the first direction and the frame line in the second direction separately, the frame line and the frame are detected more accurately than in the case where the detection is performed without separating them. be able to.

枠検出部213は、検出した複数の枠それぞれを切り出し、
文字認識結果は、切り出された複数の枠それぞれを単位とした画像解析処理により生成される。
これにより、文字列が含まれる枠を単位として画像解析処理を行うことができるので、より精度高く文字認識を行うことができる。
The frame detection unit 213 cuts out each of the detected plurality of frames.
The character recognition result is generated by an image analysis process in which each of the plurality of cut out frames is used as a unit.
As a result, the image analysis process can be performed in units of the frame including the character string, so that the character recognition can be performed with higher accuracy.

画像は、健康診断結果が記載された異なる体裁の複数の表の内の、何れかの表を撮影することにより生成された画像であり、
取得対象情報は、少なくとも健康診断結果を含む。
これにより、様々なフォーマットで記載される健康診断結果を、精度高く取得することができる。
The image is an image generated by taking one of a plurality of tables having different appearances in which the results of the medical examination are described.
The information to be acquired includes at least the results of health examinations.
As a result, the health diagnosis results described in various formats can be obtained with high accuracy.

[ハードウェアやソフトウェアによる機能の実現]
上述した実施形態による一連の処理を実行させる機能は、ハードウェアにより実現することもできるし、ソフトウェアにより実現することもできるし、これらの組み合わせにより実現することもできる。換言すると、上述した一連の処理を実行する機能が、画像解析システムSの何れかにおいて実現されていれば足り、この機能をどのような態様で実現するのかについては、特に限定されない。
[Realization of functions by hardware and software]
The function of executing a series of processes according to the above-described embodiment can be realized by hardware, software, or a combination thereof. In other words, it suffices if the function of executing the above-mentioned series of processes is realized in any one of the image analysis systems S, and the mode in which this function is realized is not particularly limited.

例えば、上述した一連の処理を実行する機能を、演算処理を実行するプロセッサによって実現する場合、この演算処理を実行するプロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。 For example, when the function of executing the above-mentioned series of processes is realized by a processor that executes the arithmetic processing, the processor that executes the arithmetic processing is composed of various processing units such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, the present invention includes a combination of these various processing units and a processing circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

また、例えば、上述した一連の処理を実行する機能を、ソフトウェアにより実現する場合、そのソフトウェアを構成するプログラムは、ネットワーク又は記録媒体を介してコンピュータにインストールされる。この場合、コンピュータは、専用のハードウェアが組み込まれているコンピュータであってもよいし、プログラムをインストールすることで所定の機能を実行することが可能な汎用のコンピュータ(例えば、汎用のパーソナルコンピュータ等の電子機器一般)であってもよい。また、プログラムを記述するステップは、その順序に沿って時系列的に行われる処理のみを含んでいてもよいが、並列的あるいは個別に実行される処理を含んでいてもよい。また、プログラムを記述するステップは、本発明の要旨を逸脱しない範囲内において、任意の順番に実行されてよい。 Further, for example, when the function of executing the above-mentioned series of processes is realized by software, the programs constituting the software are installed in the computer via a network or a recording medium. In this case, the computer may be a computer having dedicated hardware built-in, or a general-purpose computer capable of performing a predetermined function by installing a program (for example, a general-purpose personal computer or the like). It may be an electronic device in general). Further, the step for describing the program may include only the processes performed in time series in the order thereof, but may include the processes executed in parallel or individually. Further, the steps for describing the program may be executed in any order within a range that does not deviate from the gist of the present invention.

このようなプログラムを記録した記録媒体は、コンピュータ本体とは別に配布されることによりユーザに提供されてもよく、コンピュータ本体に予め組み込まれた状態でユーザに提供されてもよい。この場合、コンピュータ本体とは別に配布される記憶媒体は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)、あるいはBlu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、例えば、MD(Mini Disc)等により構成される。これら記憶媒体は、例えば、図2のドライブ15及び図3のドライブ25に装着されて、コンピュータ本体に組み込まれる。また、コンピュータ本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12及び図3のROM22、並びに、図2の記憶部16及び図3の記憶部26に含まれるHDDやSSD等により構成される。 The recording medium on which such a program is recorded may be provided to the user by being distributed separately from the computer main body, or may be provided to the user in a state of being incorporated in the computer main body in advance. In this case, the storage medium distributed separately from the computer itself is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versaille Disc), a Blu-ray (registered trademark) Disc (Blu-ray disc), or the like. The magneto-optical disk is composed of, for example, MD (MiniDisc) or the like. These storage media are attached to, for example, the drive 15 of FIG. 2 and the drive 25 of FIG. 3 and incorporated into the computer body. The recording media provided to the user in a state of being incorporated in the computer body in advance include, for example, the ROM 12 of FIG. 2 and the ROM 22 of FIG. 3 in which the program is recorded, and the storage unit 16 and FIG. 3 of FIG. It is composed of an HDD, an SSD, or the like included in the storage unit 26.

1 端末、2 画像解析装置、3 原稿(健康診断表)、11,21 CPU、12,22 ROM、13,23 RAM、14,24 通信部、15,25 ドライブ、16,26 記憶部、17,27 入力部、18,28 出力部、111 撮影制御部、112 端末側通知部、161、261 画像記憶部、162、263 解析結果記憶部、211 画像取得部、212 表検出部、213 枠検出部、214 文字認識部、215 情報取得部、216 装置側通知部、262 辞書データ記憶部、S 画像解析システム 1 terminal, 2 image analyzer, 3 manuscript (health diagnosis table), 11,21 CPU, 12,22 ROM, 13,23 RAM, 14,24 communication unit, 15,25 drive, 16,26 storage unit, 17, 27 Input unit, 18,28 output unit, 111 shooting control unit, 112 terminal side notification unit, 161 and 261 image storage unit, 162, 263 analysis result storage unit, 211 image acquisition unit, 212 table detection unit, 213 frame detection unit , 214 character recognition unit, 215 information acquisition unit, 216 device side notification unit, 262 dictionary data storage unit, S image analysis system

Claims (8)

表を被写体として含む画像から、前記表に対応する領域を検出する表検出手段と、
前記表に対応する領域から前記表を構成する複数の枠を検出すると共に、該検出した複数の枠それぞれに前記画像における位置情報を付与する枠検出手段と、
前記複数の枠それぞれについての文字認識結果と、前記複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報を取得する情報取得手段と、
を備えることを特徴とする画像解析システム。
A table detecting means for detecting an area corresponding to the table from an image including the table as a subject,
A frame detecting means for detecting a plurality of frames constituting the table from a region corresponding to the table and assigning position information in the image to each of the detected frames.
An information acquisition means for acquiring acquisition target information based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames.
An image analysis system characterized by being equipped with.
前記情報取得手段は、
前記取得対象情報の一部である第1の情報についての辞書データと、前記複数の枠それぞれの文字認識結果とに基づいて、前記第1の情報を取得し、
前記第1の情報の取得元となった枠に対応する位置情報に基づいて、前記取得対象情報の一部である第2の情報を取得する、
ことを特徴とする請求項1に記載の画像解析システム。
The information acquisition means is
The first information is acquired based on the dictionary data about the first information which is a part of the acquisition target information and the character recognition result of each of the plurality of frames.
The second information, which is a part of the acquisition target information, is acquired based on the position information corresponding to the frame from which the first information is acquired.
The image analysis system according to claim 1.
前記情報取得手段は、前記第1の情報の取得元となった枠に対応する位置情報を基準とすると共に、他の枠の位置情報に基づいて前記基準から所定方向に他の枠を走査的に検索することにより、前記第2の情報を取得する、
ことを特徴とする請求項2に記載の画像解析システム。
The information acquisition means uses the position information corresponding to the frame from which the first information is acquired as a reference, and scans another frame in a predetermined direction from the reference based on the position information of the other frame. The second information is acquired by searching for.
The image analysis system according to claim 2.
前記枠検出手段は、前記表に対応する領域から前記複数の枠の枠線である第1の方向の枠線と第2の方向の枠線を分離して検出すると共に、該検出した第1の方向の枠線及び前記第2の方向の枠線の交点に基づいて前記複数の枠を検出する、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像解析システム。
The frame detecting means separates and detects the frame line in the first direction and the frame line in the second direction, which are the frame lines of the plurality of frames, from the region corresponding to the table, and detects the first frame line. The plurality of frames are detected based on the intersection of the borders in the direction of 1 and the borders in the second direction.
The image analysis system according to any one of claims 1 to 3, wherein the image analysis system is characterized by the above.
前記枠検出手段は、前記検出した複数の枠それぞれを切り出し、
前記文字認識結果は、前記切り出された複数の枠それぞれを単位とした画像解析処理により生成される、
ことを特徴とする請求項1乃至4の何れか1項に記載の画像解析システム。
The frame detecting means cuts out each of the plurality of detected frames,
The character recognition result is generated by an image analysis process in which each of the plurality of cut out frames is a unit.
The image analysis system according to any one of claims 1 to 4, wherein the image analysis system is characterized by the above.
前記画像は、健康診断結果が記載された異なる体裁の複数の表の内の、何れかの表を撮影することにより生成された画像であり、
前記取得対象情報は、少なくとも健康診断結果を含む、
ことを特徴とする請求項1乃至5の何れか1項に記載の画像解析システム。
The image is an image generated by taking one of a plurality of tables having different appearances in which the results of the medical examination are described.
The acquisition target information includes at least the result of a health diagnosis.
The image analysis system according to any one of claims 1 to 5, wherein the image analysis system is characterized by the above.
表を被写体として含む画像から、前記表に対応する領域を検出する表検出ステップと、
前記表に対応する領域から前記表を構成する複数の枠を検出すると共に、該検出した複数の枠それぞれに前記画像における位置情報を付与する枠検出ステップと、
前記複数の枠それぞれについての文字認識結果と、前記複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報を取得する情報取得ステップと、
を含むことを特徴とする画像解析方法。
A table detection step for detecting an area corresponding to the table from an image including the table as a subject,
A frame detection step of detecting a plurality of frames constituting the table from the area corresponding to the table and assigning position information in the image to each of the detected frames.
An information acquisition step for acquiring acquisition target information based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames.
An image analysis method characterized by including.
表を被写体として含む画像から、前記表に対応する領域を検出する表検出機能と、
前記表に対応する領域から前記表を構成する複数の枠を検出すると共に、該検出した複数の枠それぞれに前記画像における位置情報を付与する枠検出機能と、
前記複数の枠それぞれについての文字認識結果と、前記複数の枠それぞれに付与された位置情報とに基づいて、取得対象情報を取得する情報取得機能と、
をコンピュータに実現させることを特徴とする画像解析プログラム。
A table detection function that detects the area corresponding to the table from an image that includes the table as a subject,
A frame detection function that detects a plurality of frames constituting the table from the area corresponding to the table and assigns position information in the image to each of the detected frames.
An information acquisition function for acquiring acquisition target information based on the character recognition result for each of the plurality of frames and the position information given to each of the plurality of frames.
An image analysis program characterized by realizing the above on a computer.
JP2020130845A 2020-07-31 2020-07-31 Image analysis system, image analysis method and image analysis program Pending JP2022027060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020130845A JP2022027060A (en) 2020-07-31 2020-07-31 Image analysis system, image analysis method and image analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020130845A JP2022027060A (en) 2020-07-31 2020-07-31 Image analysis system, image analysis method and image analysis program

Publications (1)

Publication Number Publication Date
JP2022027060A true JP2022027060A (en) 2022-02-10

Family

ID=80264448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020130845A Pending JP2022027060A (en) 2020-07-31 2020-07-31 Image analysis system, image analysis method and image analysis program

Country Status (1)

Country Link
JP (1) JP2022027060A (en)

Similar Documents

Publication Publication Date Title
US20090040215A1 (en) Interpreting Sign Language Gestures
CN109464148B (en) Device and system for measuring spinal curvature
JP3594228B2 (en) Frame erasing device, frame erasing method, and authoring device
CN108830267A (en) A kind of method and system goed over examination papers based on image recognition
JP2020046819A (en) Information processing apparatus and program
US20210075919A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP2005537101A (en) Patient identification method for X-ray film user interface
JP5583103B2 (en) Document file output device, document file output method, and computer program
JP2008234291A (en) Character recognition device and character recognition method
JP2008204184A (en) Image processor, image processing method, program and recording medium
US11436733B2 (en) Image processing apparatus, image processing method and storage medium
US20180343354A1 (en) Document size detecting apparatus, non-transitory computer readable storage medium, and image processing system
JP2017068562A (en) Information processing device and program
JP2017058732A (en) Information processing device and program
JP2022027060A (en) Image analysis system, image analysis method and image analysis program
KR20210077251A (en) Database building device that can build a knowledge database from a table-inserted image and operating method thereof
JP4591142B2 (en) Medical imaging system
JP4474231B2 (en) Document link information acquisition system
JP6917688B2 (en) Form reader, form reading method, program, and form reading system
JP2002207963A (en) Image processor
JP4552757B2 (en) Image processing apparatus, image processing method, and image processing program
JP5298830B2 (en) Image processing program, image processing apparatus, and image processing system
US8340434B2 (en) Image processing apparatus, image processing system and computer readable medium
JP7480997B2 (en) Image processing device, image processing method, and program
KR102300475B1 (en) Electronic device that can convert a table-inserted image into an electronic document and operating method thereof

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220915

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230718

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240520