JP2012183269A - Processing method for image data, program, and terminal unit - Google Patents

Processing method for image data, program, and terminal unit Download PDF

Info

Publication number
JP2012183269A
JP2012183269A JP2011050275A JP2011050275A JP2012183269A JP 2012183269 A JP2012183269 A JP 2012183269A JP 2011050275 A JP2011050275 A JP 2011050275A JP 2011050275 A JP2011050275 A JP 2011050275A JP 2012183269 A JP2012183269 A JP 2012183269A
Authority
JP
Japan
Prior art keywords
determined
data
processor
measurement
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011050275A
Other languages
Japanese (ja)
Other versions
JP5601250B2 (en
Inventor
Hiroaki Miyake
博昭 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011050275A priority Critical patent/JP5601250B2/en
Publication of JP2012183269A publication Critical patent/JP2012183269A/en
Application granted granted Critical
Publication of JP5601250B2 publication Critical patent/JP5601250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a processing method which distinguishes numerical information obtained from images to correspond to the kind of measuring instruments or physical data.SOLUTION: The image data processing method includes: (500) storing a caught image data in a memory (114); (518) extracting numerical information from the image data; (520) extracting a shape feature from the image data; selecting a shape feature similar to the extracted shape feature from among a plurality of shape features which are stored in the memory and relate to the displays of a plurality of physical data measuring instruments; deciding the kind of a physical data measuring instrument to correspond to the selected shape feature; deciding a measurement data represented by the numerical information based on the decided kind; and (522, 524) storing the measurement data in the memory so as to correspond to the decided kind.

Description

本発明は、画像データから数値情報を抽出する処理に関する。   The present invention relates to processing for extracting numerical information from image data.

例えば個人の食事画像のような生活(ライフ)上の個人的な記録またはログを、ネットワークを介してサーバに蓄積してサーバに管理させることが知られている。また、例えば健康管理のために、測定機器を用いて測定された個人の身体データ(例えば、体重、体温、血圧、等)を、ネットワークを介してサーバに蓄積してサーバに管理させことが知られている。   For example, it is known that personal records or logs on a daily life such as personal meal images are stored in a server via a network and managed by the server. Also, for example, for health management, it is known that personal body data (for example, body weight, body temperature, blood pressure, etc.) measured using a measuring device is stored in a server via a network and managed by the server. It has been.

既知のデータ測定および記録システムは、ディジタル測定器と、測定されたディジタル情報をパソコン・キーボード・インタフェースの情報に変換して出力するデータ読取装置と、パソコンとを含んでいる。パソコンは、その変換して出力されたパソコン・キーボード・インタフェースの情報を、テキスト・エディタで記録する。データ読取装置は、表示された測定値を撮影するビデオカメラと、ビデオ信号−RGB変換部と、水平位置設定発信回路と、垂直・水平位置設定同期部とを含んでいる。データ読取装置は、さらに、明暗判断値設定スイッチと、設定位置明暗信号抽出部と、設定確認モニタと、明暗判断部と、明暗信号バッファと、明暗信号−数値変換部と、パソコン・キーボード・インタフェース変換部とを含んでいる。データ読取装置は、測定器に表示された測定値の画像を解析して、画像中の測定値を取得する。   A known data measurement and recording system includes a digital measuring instrument, a data reader for converting the measured digital information into information of a personal computer / keyboard interface, and a personal computer. The personal computer records the information of the personal computer / keyboard / interface output by the conversion with a text editor. The data reader includes a video camera that captures the displayed measurement value, a video signal-RGB conversion unit, a horizontal position setting transmission circuit, and a vertical / horizontal position setting synchronization unit. The data reading device further includes a light / dark judgment value setting switch, a setting position light / dark signal extraction unit, a setting confirmation monitor, a light / dark judgment unit, a light / dark signal buffer, a light / dark signal-value conversion unit, a personal computer keyboard interface And a conversion unit. The data reader analyzes the image of the measurement value displayed on the measuring instrument, and acquires the measurement value in the image.

測定器に無線機能を組み込み、例えば体重、血圧、等の身体データをその測定器で測定してその測定値をパーソナル・コンピュータに無線で転送して格納し、さらに、その測定値をネットワークを介してサーバに送信して蓄積してサーバに管理させるサービスが知られている。   Built-in wireless function in the measuring instrument, for example, body data such as weight, blood pressure, etc. is measured by the measuring instrument, and the measured value is wirelessly transferred to a personal computer and stored, and further, the measured value is transmitted via a network. There are known services that are transmitted to a server, stored, and managed by the server.

既知の或るネットワーク・システムにおいて、機器が、その機器を特定するための第1の情報を含む第1の通知を管理サーバへ送信し、管理サーバが、画像パターンの種別を含む第2の通知を機器へ送信し、機器が第2の通知内の画像パターンを自身の有する表示画面に表示する。管理サーバは、機器が表示した画像パターンの探索を指示するための第3の通知をカメラ・サーバへ送信し、カメラ・サーバは撮影を指示するための第4の通知をカメラへ送信する。カメラは、第4の通知に応じて機器が表示した画像パターンを撮影すると、その撮影画像をカメラ・サーバへ送信する。カメラ・サーバは、撮影画像を評価して、カメラを特定するための第2の情報、及び、その評価の結果を含む第5の通知を、管理サーバに送信する。管理サーバは、第5の通知を受信すると、評価の結果に基づいて、第1の情報と第2の情報を対応付けて格納する。   In a known network system, a device transmits a first notification including first information for specifying the device to the management server, and the management server performs a second notification including the type of image pattern. Is transmitted to the device, and the device displays the image pattern in the second notification on its own display screen. The management server transmits a third notification for instructing the search of the image pattern displayed by the device to the camera server, and the camera server transmits a fourth notification for instructing the photographing to the camera. When the camera captures the image pattern displayed by the device in response to the fourth notification, the camera transmits the captured image to the camera server. The camera server evaluates the captured image and transmits second information for specifying the camera and a fifth notification including a result of the evaluation to the management server. When the management server receives the fifth notification, the management server stores the first information and the second information in association with each other based on the evaluation result.

特開2001−12976号公報JP 2001-12976 A 特開2008−211412号公報JP 2008-211412 A

正藤慶一、“インテル、体重や血圧をパソコン上で管理する新サービスを公開〜「コンティニュア」の統一規格で異なるメーカーも通信可”、[online]、平成21年4月15日、Impress Watch 、[平成23年3月4日検索]、インターネット<http://kaden.watch.impress.co.jp/docs/news/20090415_125414.html>Keiichi Masato, “Intel, reveals a new service for managing weight and blood pressure on a PC-“ Continue ”can be communicated by different manufacturers” [online], April 15, 2009, Impress Watch [Search March 4, 2011], Internet <http://kaden.watch.impress.co.jp/docs/news/20090415_125414.html>

通常の身体に関する測定データをサーバが管理するサービスでは、ユーザがパーソナル・コンピュータでまたはそのキーボードで測定データを入力する。さらに、上述の既知のデータ測定および記録システムでは、測定器に表示された測定値の画像を解析して画像中の測定値を取得することができる。しかし、上述の既知のデータ測定および記録システムでは、画像から抽出された測定データが、例えば体温、血圧、等の身体データのいずれの測定データかを区別することができず、従って異なる複数の種別の測定データを管理することができない。   In a service in which measurement data related to a normal body is managed by a server, a user inputs measurement data using a personal computer or its keyboard. Furthermore, in the known data measurement and recording system described above, the measurement value displayed on the measuring instrument can be analyzed to obtain the measurement value in the image. However, in the known data measurement and recording system described above, the measurement data extracted from the image cannot be distinguished from any measurement data of body data such as body temperature, blood pressure, and the like, and thus different types I cannot manage the measurement data.

また、上述の既知のサービスでは、特定の測定器で測定したデータをユーザの入力操作なしで、サーバに無線で転送してサーバで管理することはできる。しかし、異なる測定器で測定した異なる複数の種別の身体データを、ユーザの入力操作なしで区別して、サーバが一元的に管理することはできない。   Further, in the above-described known service, data measured by a specific measuring instrument can be wirelessly transferred to a server and managed by the server without a user input operation. However, the server cannot centrally manage a plurality of different types of body data measured by different measuring devices without distinguishing them from the user's input operation.

発明者は、ユーザによるデータの入力操作なしで、様々な身体データを区別して管理するために、画像から取得した測定値を測定器または身体データの種別ごとに区別できるようにすると有利である、と認識した。   It is advantageous that the inventor can distinguish measurement values acquired from images for each type of measuring device or body data in order to distinguish and manage various body data without a user input operation of data. I recognized.

実施形態の目的は、画像から取得した数値情報を測定器または身体データの種別ごとに区別できるようにすることである。
実施形態の別の目的は、ユーザによってデータの入力操作を行うことなく、異なる身体データを区別して管理することができるようにすることである。
An object of the embodiment is to make it possible to distinguish numerical information acquired from an image for each type of measuring instrument or body data.
Another object of the embodiment is to be able to distinguish and manage different body data without performing data input operation by the user.

実施形態の一観点によれば、情報処理装置が、捕捉された画像データを記憶装置に格納させ、その画像データから数値情報を抽出し、その画像データから形状的特徴を抽出し、その記憶装置に格納された、複数の身体データ測定器各々の表示部に関する複数の形状的特徴の中から、抽出されたその形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定されたその種別に基づいてその数値情報によって表される測定データを決定し、決定された種別に対応付けて測定データを記憶装置に格納する処理を実行する、画像データの処理方法が提供される。   According to one embodiment of the present invention, an information processing device stores captured image data in a storage device, extracts numerical information from the image data, extracts geometric features from the image data, and the storage device Select a shape feature similar to the extracted shape feature from the plurality of shape features related to the display unit of each of the plurality of body data measuring devices stored in the corresponding to the selected shape feature Determining the type of the physical data measuring device to be determined, determining the measurement data represented by the numerical information based on the determined type, and storing the measurement data in the storage device in association with the determined type An image data processing method is provided for execution.

実施形態の一観点によれば、画像から取得した数値情報を測定器または身体データの種別ごとに区別することができ、ユーザによってデータの入力操作を行うことなく、異なる身体データを区別して管理することができる。   According to one aspect of the embodiment, numerical information acquired from an image can be distinguished for each type of measuring instrument or body data, and different body data is distinguished and managed without performing data input operation by the user. be able to.

図1は、実施形態による、ネットワークを介して接続されるサーバ装置、情報処理端末および携帯端末を含むシステムの例を示している。FIG. 1 shows an example of a system including a server device, an information processing terminal, and a mobile terminal connected via a network according to the embodiment. 図2は、図1の情報処理端末の概略的な構成(configuration)の例を示している。FIG. 2 shows an example of a schematic configuration of the information processing terminal of FIG. 図3は、図1の携帯端末の概略的な構成(configuration)の例を示している。FIG. 3 shows an example of a schematic configuration of the mobile terminal of FIG. 図4は、情報処理端末または携帯端末のプロセッサの概略的な構成(configuration)の例を示している。FIG. 4 shows an example of a schematic configuration of the processor of the information processing terminal or the portable terminal. 図5は、情報処理端末または携帯端末のメモリまたはハードディスク・ドライブに格納される測定器のリストの例を示している。FIG. 5 shows an example of a list of measuring instruments stored in the memory or hard disk drive of the information processing terminal or portable terminal. 図6は、情報処理端末または携帯端末のメモリまたはハードディスク・ドライブに格納される、図5における測定項目のリストの例を示している。FIG. 6 shows an example of a list of measurement items in FIG. 5 stored in the memory or hard disk drive of the information processing terminal or portable terminal. 図7Aは、表示領域を含む体温計の例を示している。図7Bは、カメラまたは撮像部によって撮影された図7Aの体温計の表示領域の画像の例を示している。図7Cは、プロセッサによって抽出された図7Bの画像における数字の列とそれぞれの数字の外接矩形(破線)の例を示している。図7Dは、セグメントに対応する各画素グループの外接矩形(破線)の例を示している。FIG. 7A shows an example of a thermometer including a display area. FIG. 7B shows an example of an image of the display area of the thermometer of FIG. 7A taken by a camera or an imaging unit. FIG. 7C shows an example of a sequence of numbers and a circumscribed rectangle (broken line) of each number in the image of FIG. 7B extracted by the processor. FIG. 7D shows an example of a circumscribed rectangle (broken line) of each pixel group corresponding to the segment. 図8Aは、表示領域を含む体重計の例を示している。図8Bは、カメラまたは撮像部によって撮影された図8Aの体重計の表示領域の画像の例を示している。図8Cは、プロセッサによって抽出された図8Bの画像における数字の列とそれぞれの数字の外接矩形の例を示している。FIG. 8A shows an example of a weight scale including a display area. FIG. 8B shows an example of an image of the display area of the weight scale of FIG. 8A taken by a camera or an imaging unit. FIG. 8C shows an example of a sequence of numbers and a circumscribed rectangle of each number in the image of FIG. 8B extracted by the processor. 図9Aは、表示領域を含む血圧計の例を示している。図9Bは、カメラまたは撮像部によって撮影された図9Aの血圧計の表示領域の画像の例を示している。FIG. 9A shows an example of a sphygmomanometer including a display area. FIG. 9B shows an example of an image of the display area of the sphygmomanometer of FIG. 9A taken by a camera or an imaging unit. 図10Aは、表示領域を含む別の血圧計の例を示している。図10Bは、カメラまたは撮像部によって撮影された図10Aの血圧計の表示領域の画像の例を示している。FIG. 10A shows an example of another sphygmomanometer including a display area. FIG. 10B shows an example of an image of the display area of the sphygmomanometer of FIG. 10A taken by a camera or an imaging unit. 図11は、情報処理端末または携帯端末のプロセッサによって実行される、測定値の表示画像の撮影からサーバ装置への測定データの送信までの処理のためのフローチャートの例を示している。FIG. 11 shows an example of a flowchart for processing from photographing of a display image of measurement values to transmission of measurement data to the server device, which is executed by the processor of the information processing terminal or portable terminal. 図12Aおよび12Bは、図11のステップ502における測定器の表示部の画像を含む画像のノイズを除去する処理のためのフローチャートの例を示している。12A and 12B show an example of a flowchart for processing for removing noise in an image including an image on the display unit of the measuring instrument in step 502 of FIG. (図12Aで説明)(Explained in Fig. 12A) 図13は、図11のステップ504における画像のフレームの画素をグループ化する処理のためのフローチャートの例を示している。FIG. 13 shows an example of a flowchart for the process of grouping the pixels of the frame of the image in step 504 of FIG. 図14は、画像のフレームにおいて、表示領域の画素のグループ化の例を示している。FIG. 14 shows an example of grouping pixels in the display area in an image frame. 図15は、図14の表示領域の画素に関するラベル番号、統計的情報、認識された数字を含むラベル・テーブルの例を示している。FIG. 15 shows an example of a label table including label numbers, statistical information, and recognized numbers regarding the pixels in the display area of FIG. 図16A〜16Dは、図13のステップ670のラベル付けの処理のためのフローチャートの例を示している。16A to 16D show examples of flowcharts for the labeling process in step 670 of FIG. (図16Aで説明)(Explained in Figure 16A) (図16Aで説明)(Explained in Figure 16A) (図16Aで説明)(Explained in Figure 16A) 図17は、図16A〜16Cのステップ780におけるラベル・テーブルの登録の処理のためのフローチャートの例を示している。FIG. 17 shows an example of a flowchart for the label table registration process in step 780 of FIGS. 図18は、図11のステップ508における環状を表す画素グループを判定する処理のためのフローチャートの例を示している。FIG. 18 shows an example of a flowchart for the process of determining a pixel group representing an annular shape in step 508 of FIG. 図19は、図11のステップ510における表示領域の表示枠を表す画素グループを抽出する処理のためのフローチャートの例を示している。FIG. 19 shows an example of a flowchart for the process of extracting the pixel group representing the display frame of the display area in step 510 of FIG. 図20は、図11のステップ512における表示枠を表す画素グループの内側の画素グループを抽出する処理のためのフローチャートの例を示している。FIG. 20 shows an example of a flowchart for the process of extracting the pixel group inside the pixel group representing the display frame in step 512 of FIG. 図21Aおよび21Bは、図11のステップ514における隣接関係にある画素グループを結合する処理のためのフローチャートの例を示している。21A and 21B show an example of a flowchart for the process of combining pixel groups that are adjacent to each other in Step 514 of FIG. (図21Aで説明)(Explained in Figure 21A) 図22Aは、2つの画素グループの外接矩形が位置的に部分的に重なる例を示している。図22Bは、2つの画素グループの各々を3つの領域のブロックに分割する例を示している。FIG. 22A shows an example in which circumscribed rectangles of two pixel groups partially overlap each other. FIG. 22B shows an example in which each of the two pixel groups is divided into blocks of three regions. 図23は、図11のステップ516における画像の傾きを補正する処理のためのフローチャートの例を示している。FIG. 23 shows an example of a flowchart for the process of correcting the inclination of the image in step 516 of FIG. 図24Aおよび24Bは、画像の傾きの補正の例を示している。24A and 24B show examples of correction of image tilt. 図25は、図11のステップ518における認識された数字の列を抽出する処理のためのフローチャートの例を示している。FIG. 25 shows an example of a flowchart for the process of extracting a recognized number string in step 518 of FIG. 図26は、図11のステップ520における使用測定器の表示部に固有の特徴またはパラメータを抽出する処理のためのフローチャートの例を示している。FIG. 26 shows an example of a flowchart for the process of extracting features or parameters specific to the display unit of the measuring instrument in use in step 520 of FIG. 図27は、図11のステップ522における、抽出された表示部の特徴に対応する測定項目と、抽出された数字列によって表される測定値とを決定する処理のためのフローチャートの例を示している。FIG. 27 shows an example of a flowchart for the process of determining the measurement item corresponding to the extracted feature of the display unit and the measurement value represented by the extracted number string in step 522 of FIG. Yes. 図28Aは、表示部上の測定項目と測定値の表示の例を示している。図28Bは、表示部上の測定項目と測定値の表示の別の例を示している。FIG. 28A shows an example of display of measurement items and measurement values on the display unit. FIG. 28B shows another example of display of measurement items and measurement values on the display unit. 図29は、情報処理端末または携帯端末の表示部に表示される測定データの履歴データの表示画面の例を示している。FIG. 29 shows an example of a display screen of history data of measurement data displayed on the display unit of the information processing terminal or portable terminal.

発明の目的および利点は、請求の範囲に具体的に記載された構成要素および組み合わせによって実現され達成される。
前述の一般的な説明および以下の詳細な説明は、典型例および説明のためのものであって、本発明を限定するためのものではない、と理解される。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It is understood that the foregoing general description and the following detailed description are exemplary and explanatory only and are not intended to limit the invention.

本発明の非限定的な実施形態を、図面を参照して説明する。図面において、同様のコンポーネントおよび要素には同じ参照番号が付されている。   Non-limiting embodiments of the present invention will be described with reference to the drawings. In the drawings, similar components and elements have the same reference numerals.

既知のデータ測定および記録システムによって画像から抽出された測定値を、ネットワークを介してサーバに送信してサーバで管理することが考えられる。しかし、既知のデータ測定および記録システムでは、画像から抽出された測定データが、例えば体温または血圧、等の身体データのいずれの測定データかを区別することができず、従って異なる複数の種別の測定データを管理することができない。また、既知のサービスでは、異なる測定器で測定した様々な種別の身体データを、ユーザの入力操作なしで区別して、サーバにおいて一元的に管理することはできない。   A measurement value extracted from an image by a known data measurement and recording system may be transmitted to a server via a network and managed by the server. However, with known data measurement and recording systems, it is not possible to distinguish between measurement data extracted from an image, for example body data such as body temperature or blood pressure, and therefore different types of measurements. The data cannot be managed. In addition, in the known service, various types of body data measured by different measuring devices cannot be distinguished and managed in a centralized manner without a user input operation.

発明者は、ユーザによるデータの入力操作なしで、様々な身体データを区別して管理するために、画像から取得した測定値を身体データの種別ごとに区別できるようにすると有利である、と認識した。また、発明者は、一般的なユーザが使用する測定器の種類は限られており、測定器ごとの測定値の表示画像の寸法形状的な特徴および測定項目のデータ形式に関する情報を予め取得することは容易である、と認識した。また、発明者は、測定値の表示画像における数字の列(数値情報)を正しく認識できれば、各測定器の測定値の表示の寸法形状的な特徴に関する既知の情報に基づいてその数字の列によって表される測定項目および測定値を決定することができる、と認識した。発明者は、それによって、その表示画像における測定項目、測定値および単位の画像を文字認識するための機能および精度は低くてよく、文字認識のための処理負荷が軽減できると認識した。   The inventor has recognized that it is advantageous to be able to distinguish measurement values acquired from images for each type of physical data in order to distinguish and manage various physical data without a user input operation. . Further, the inventor has limited types of measuring instruments used by general users, and acquires in advance information relating to the dimensional characteristics of display images of measured values for each measuring instrument and the data format of measurement items. I realized that it was easy. In addition, if the inventor can correctly recognize a string of numbers (numerical information) in the display image of the measured value, the inventor uses the string of numbers based on the known information regarding the dimension and shape characteristics of the measured value display of each measuring instrument. Recognized that the measurement items and measurements represented can be determined. The inventor has recognized that the function and accuracy for character recognition of the measurement item, measurement value, and unit image in the display image may be low, thereby reducing the processing load for character recognition.

図1は、実施形態による、ネットワーク5を介して接続される、サーバ装置30、情報処理端末100、および携帯端末102を含むシステムの例を示している。
図1において、ネットワーク5は、インターネット、公衆交換電話網(PSTN)、パケット交換網(PSN)、ISDN、および/または移動体通信網を含んでいてもよい。情報処理端末100は、情報処理装置であり、ディジタル・カメラ202に接続されて、ディジタル・カメラ202からユーザによって撮影された測定器の表示部の画像のデータを捕捉しまたは取り込んで格納する。情報処理端末100および携帯端末102は、格納された画像データから、測定器の測定値表示および測定項目に関する既知の情報を参照して、文字認識技術によって測定データを抽出し、画像データに含まれる撮影日時を取得してそれを測定日時として決定する。情報処理端末100および携帯端末102は、その測定データをその測定日時の情報とともにネットワーク5を介してサーバ装置30に送信する。サーバ装置30は、測定データを測定日時情報とともに受信して格納し、そのような多数のデータを長い期間にわたって記録データとして管理する。
FIG. 1 shows an example of a system including a server device 30, an information processing terminal 100, and a mobile terminal 102 connected via a network 5 according to the embodiment.
In FIG. 1, network 5 may include the Internet, a public switched telephone network (PSTN), a packet switched network (PSN), ISDN, and / or a mobile communication network. The information processing terminal 100 is an information processing apparatus, is connected to the digital camera 202, and captures or captures and stores data of an image on the display unit of the measuring instrument taken by the user from the digital camera 202. The information processing terminal 100 and the portable terminal 102 extract the measurement data from the stored image data by using the character recognition technique with reference to the known information regarding the measurement value display and measurement item of the measuring instrument, and are included in the image data. The shooting date / time is acquired and determined as the measurement date / time. The information processing terminal 100 and the portable terminal 102 transmit the measurement data to the server device 30 via the network 5 together with the measurement date and time information. The server device 30 receives and stores the measurement data together with the measurement date information, and manages such a large number of data as recording data over a long period.

情報処理端末100は、例えばCPU(Central Processing Unit)、主記憶装置、ハードディスク・ドライブ(HDD)、半導体メモリ、バス、入力装置、出力装置、通信インタフェース、記録媒体読取用のドライブ、等を含むコンピュータ、パーソナル・コンピュータ、PDA(Personal Digital Assistant)または装置であってもよい。携帯端末102は、例えば、CPU(Central Processing Unit)、半導体メモリ、バス、入力装置、出力装置、通信インタフェース、記録媒体用インタフェース、撮像部、スピーカ、レシーバ、マイクロホン、等を含む携帯電話機であってもよい。   The information processing terminal 100 is a computer including, for example, a CPU (Central Processing Unit), a main storage device, a hard disk drive (HDD), a semiconductor memory, a bus, an input device, an output device, a communication interface, a drive for reading a recording medium, and the like. A personal computer, a PDA (Personal Digital Assistant), or a device. The mobile terminal 102 is a mobile phone including a CPU (Central Processing Unit), a semiconductor memory, a bus, an input device, an output device, a communication interface, a recording medium interface, an imaging unit, a speaker, a receiver, a microphone, and the like. Also good.

サーバ装置30は、情報処理装置であり、例えば、プロセッサ312、ネットワーク・インタフェース(NW I/F)344、データベースを含む記憶装置16、および記録媒体読み取り用のドライブ328を含んでいる。ドライブ328は、プログラムが記録された例えば光ディスクのような記録媒体129を読み取るためのものである。   The server device 30 is an information processing device, and includes, for example, a processor 312, a network interface (NW I / F) 344, a storage device 16 including a database, and a drive 328 for reading a recording medium. The drive 328 is for reading a recording medium 129 such as an optical disc on which a program is recorded.

図2は、図1の情報処理端末100の概略的な構成(configuration)の例を示している。
図2において、情報処理端末100は、プロセッサ112、メモリ114、入出力インタフェース(I/O)116、内部バス、等を含む例えばパーソナル・コンピュータのようなコンピュータまたは装置であってもよい。プロセッサ112は、コンピュータ用のCPU(Central Processing Unit)であってもよい。プロセッサ112およびメモリ114は、入出力インタフェース116に結合されている。メモリ114には、例えば、主記憶装置および半導体メモリ等が含まれる。情報処理端末100は、さらに、入出力インタフェース(I/O)116に結合された、表示装置(DSP)122、入力部または入力装置126、記録媒体読み取り用のドライブ128、およびハードディスク・ドライブ(HDD)130を含んでいる。入力部126は、例えば、キーボード、マウスまたはタッチパッドのようなポインティング・デバイス、およびタッチパネルを含んでいてもよい。ドライブ128は、プログラムが記録された例えば光ディスクのような記録媒体129を読み取るために設けられている。情報処理端末100は、さらに、入出力インタフェース(I/O)116に結合された、USBインタフェース(USB I/F)142、およびネットワーク・インタフェース(NW I/F)144を含んでいる。情報処理端末100において、USBインタフェース142は、少なくともディジタル・カメラ202からの画像信号を入力する入力部としても機能してもよい。
FIG. 2 shows an example of a schematic configuration of the information processing terminal 100 of FIG.
In FIG. 2, the information processing terminal 100 may be a computer or a device such as a personal computer including a processor 112, a memory 114, an input / output interface (I / O) 116, an internal bus, and the like. The processor 112 may be a CPU (Central Processing Unit) for a computer. The processor 112 and memory 114 are coupled to an input / output interface 116. The memory 114 includes, for example, a main storage device and a semiconductor memory. The information processing terminal 100 further includes a display device (DSP) 122, an input unit or input device 126, a recording medium reading drive 128, and a hard disk drive (HDD) coupled to an input / output interface (I / O) 116. 130). The input unit 126 may include, for example, a keyboard, a pointing device such as a mouse or a touch pad, and a touch panel. The drive 128 is provided for reading a recording medium 129 such as an optical disc on which a program is recorded. The information processing terminal 100 further includes a USB interface (USB I / F) 142 and a network interface (NW I / F) 144 coupled to an input / output interface (I / O) 116. In the information processing terminal 100, the USB interface 142 may also function as an input unit that inputs at least an image signal from the digital camera 202.

プロセッサ112は、画像処理および画像認識の機能を含む例えば集積回路として実装された専用のプロセッサであってもよい。また、プロセッサ112は、メモリ114および/またはハードディスク・ドライブ130に格納されたアプリケーション・プログラムに従って動作するものであってもよい。アプリケーション・プログラムは、記録媒体129に格納されていて、ドライブ128によって記録媒体129から読み出されて情報処理端末100にインストールされてもよい。   The processor 112 may be a dedicated processor implemented as, for example, an integrated circuit including image processing and image recognition functions. Further, the processor 112 may operate in accordance with an application program stored in the memory 114 and / or the hard disk drive 130. The application program may be stored in the recording medium 129, read from the recording medium 129 by the drive 128, and installed in the information processing terminal 100.

カメラ202は、USBケーブルによって、USBインタフェース142を介して情報処理端末100に結合される。情報処理端末100は、ネットワーク・インタフェース144を介し、さらに外部ネットワーク5を介して、サーバ装置30に接続されてもよい。   The camera 202 is coupled to the information processing terminal 100 via the USB interface 142 by a USB cable. The information processing terminal 100 may be connected to the server device 30 via the network interface 144 and further via the external network 5.

図3は、図1の携帯端末102の概略的な構成(configuration)の例を示している。
図3において、携帯端末102は、例えば、プロセッサ112、メモリ114、入出力インタフェース(I/O)116、内部バス、等を含む例えば携帯電話機または携帯情報処理端末であってもよい。携帯端末102は、さらに、入出力インタフェース(I/O)116に結合された、表示装置(DSP)122、入力部または入力装置126、取り外し可能なメモリ129、および撮像部203を含んでいる。入力部126は、例えばキーおよびタッチパネルを含んでいてもよい。取り外し可能なメモリ129は、例えばSDメモリとその書き込み読み取り部を含んでいてもよい。携帯端末102は、さらに、入出力インタフェース(I/O)116に結合された通信部146を含んでいる。携帯端末102は、さらに、入出力インタフェース(I/O)116に結合された、マイクロホン140、スピーカ142、およびレシーバ144を含んでいてもよい。
FIG. 3 shows an example of a schematic configuration of the mobile terminal 102 of FIG.
In FIG. 3, the mobile terminal 102 may be, for example, a mobile phone or a mobile information processing terminal including a processor 112, a memory 114, an input / output interface (I / O) 116, an internal bus, and the like. The portable terminal 102 further includes a display device (DSP) 122, an input unit or input device 126, a removable memory 129, and an imaging unit 203 coupled to an input / output interface (I / O) 116. The input unit 126 may include, for example, a key and a touch panel. The removable memory 129 may include, for example, an SD memory and a writing / reading unit thereof. Mobile terminal 102 further includes a communication unit 146 coupled to an input / output interface (I / O) 116. Mobile terminal 102 may further include a microphone 140, a speaker 142, and a receiver 144 coupled to an input / output interface (I / O) 116.

プロセッサ112は、画像処理および画像認識の機能を含む例えば集積回路として実装された専用のプロセッサであってもよい。また、プロセッサ112は、メモリ114に格納されたアプリケーション・プログラムに従って動作するものであってもよい。アプリケーション・プログラムは、取り外し可能なメモリ129に格納されていて、取り外し可能なメモリ129から読み出されて携帯端末102にインストールされてもよい。   The processor 112 may be a dedicated processor implemented as, for example, an integrated circuit including image processing and image recognition functions. Further, the processor 112 may operate according to an application program stored in the memory 114. The application program may be stored in the removable memory 129, read from the removable memory 129, and installed in the mobile terminal 102.

図4は、情報処理端末100または携帯端末102のプロセッサ112の概略的な構成(configuration)の例を示している。
プロセッサ112は、例えば、制御部1120、ノイズ除去部1122、二値化部1124、グループ化部1126、環状判定部1128、グループ抽出部1130、グループ結合部1132、および画像補正部1134を含んでいてもよい。プロセッサ112は、さらに、例えば、数字抽出部1136、特徴抽出部1138、測定データ決定部1140、およびその他の処理部1144を含んでいてもよい。処理部1144には例えば通信処理部が含まれていてもよい。制御部1120は、ノイズ除去部1122、二値化部1124、グループ化部1126、環状判定部1128、グループ抽出部1130、グループ結合部1132、および画像補正部1134に制御信号を供給して、これらの要素の動作を制御してもよい。制御部1120は、さらに、数字抽出部1136、特徴抽出部1138、測定データ決定部1140、およびその他の処理部1144に制御信号を供給して、これらの要素の動作を制御してもよい。代替形態として、サーバ装置30のプロセッサ112が、要素1122〜1140を含んでいてもよい。
FIG. 4 shows an example of a schematic configuration of the processor 112 of the information processing terminal 100 or the portable terminal 102.
The processor 112 includes, for example, a control unit 1120, a noise removal unit 1122, a binarization unit 1124, a grouping unit 1126, an annular determination unit 1128, a group extraction unit 1130, a group combination unit 1132, and an image correction unit 1134. Also good. The processor 112 may further include, for example, a number extraction unit 1136, a feature extraction unit 1138, a measurement data determination unit 1140, and another processing unit 1144. For example, the processing unit 1144 may include a communication processing unit. The control unit 1120 supplies control signals to the noise removal unit 1122, the binarization unit 1124, the grouping unit 1126, the annular determination unit 1128, the group extraction unit 1130, the group combination unit 1132, and the image correction unit 1134. The operation of these elements may be controlled. The control unit 1120 may further supply control signals to the number extraction unit 1136, the feature extraction unit 1138, the measurement data determination unit 1140, and the other processing unit 1144 to control the operation of these elements. As an alternative, the processor 112 of the server device 30 may include the elements 1122 to 1140.

図5は、情報処理端末100または携帯端末102のメモリ114またはハードディスク・ドライブ130に格納される測定器のリストの例を示している。測定器のリストは、例えば、測定器の順序番号、測定器の種別(種類)、表示部の表示領域の縦の長さ(高さ)(Wd)および横の長さ(幅)(Hd)、測定値を表す文字(数字)の縦の高さ(Hc)、隣接文字の間隔(Pc)、文字の太さ(Tc)、を含んでいてもよい。測定器のリストは、さらに、測定器の測定項目(身体データ種別)の項目数、測定値の表示の行数、測定項目(身体データ種別)の項目名、使用状態(使用/不使用)、行の間隔(Pl)(図示せず)、値の許容範囲(図示せず)、等を含んでいてもよい。図5のテーブルにおけるデータは、健康データ管理サービス提供業者またはユーザによって予め作成されてもよい。測定器の種別(種類)は、例えば、体重計、体組成計(体脂肪率計、皮下脂肪率計、骨格筋率計、等)、体温計、血圧計、脈拍数計、等、またはこれらの組合せ(例えば、体重体組成計)であってもよい。測定器の種別は、製造業者によって付けられた測定器の名称でなくてよい。各測定項目は、例えば、体重、体組成(体脂肪率、皮下脂肪率、骨格筋率、等)、体温、最高血圧、最低血圧、脈拍数、等であってもよい。使用状態(使用/不使用)は、それぞれの測定器が使用されるかどうかを示す情報であり、ユーザが情報処理端末100または携帯端末の入力部126を操作することによって、設定される。測定器のリストは、さらに、サーバ装置30の記憶装置16に格納されてもよい。   FIG. 5 shows an example of a list of measuring instruments stored in the memory 114 or the hard disk drive 130 of the information processing terminal 100 or the portable terminal 102. The list of measuring instruments includes, for example, measuring instrument sequence numbers, measuring instrument types (types), vertical length (height) (Wd) and horizontal length (width) (Hd) of the display area of the display unit. , The vertical height (Hc) of the character (number) representing the measurement value, the interval (Pc) between adjacent characters, and the thickness (Tc) of the character may be included. The list of measuring instruments further includes the number of items of measurement items (physical data type) of the measuring instrument, the number of measurement display lines, the item name of the measuring item (physical data type), the usage status (used / not used), Line spacing (Pl) (not shown), allowable range of values (not shown), etc. may be included. The data in the table of FIG. 5 may be created in advance by a health data management service provider or a user. The type (type) of the measuring device is, for example, a weight scale, body composition meter (body fat rate meter, subcutaneous fat rate meter, skeletal muscle rate meter, etc.), thermometer, blood pressure meter, pulse rate meter, etc. A combination (for example, a body weight / body composition meter) may be used. The type of measuring device may not be the name of the measuring device assigned by the manufacturer. Each measurement item may be, for example, body weight, body composition (body fat percentage, subcutaneous fat percentage, skeletal muscle percentage, etc.), body temperature, systolic blood pressure, diastolic blood pressure, pulse rate, and the like. The usage state (used / not used) is information indicating whether or not each measuring instrument is used, and is set by the user operating the information processing terminal 100 or the input unit 126 of the portable terminal. The list of measuring devices may be further stored in the storage device 16 of the server device 30.

図6は、情報処理端末100または携帯端末102のメモリ114またはハードディスク・ドライブ130に格納される、図5における測定項目のリストの例を示している。測定項目のリストは、測定項目名、測定項目のデータ形式(桁数、数字/文字、小数点位置)、測定項目の単位、測定項目の測定値の許容範囲、等を含んでいてもよい。メモリ114またはハードディスク・ドライブ130は、最新のおよび過去のユーザの測定データを格納する。測定項目のリストは、さらに、サーバ装置30の記憶装置16に格納されてもよい。   FIG. 6 shows an example of a list of measurement items in FIG. 5 stored in the memory 114 or the hard disk drive 130 of the information processing terminal 100 or the portable terminal 102. The list of measurement items may include the measurement item name, the data format of the measurement item (digits, numbers / characters, decimal point position), the unit of the measurement item, the allowable range of the measurement value of the measurement item, and the like. Memory 114 or hard disk drive 130 stores the latest and past user measurement data. The list of measurement items may be further stored in the storage device 16 of the server device 30.

図7Aは、表示領域404を含む体温計402の例を示している。図7Bは、カメラ202または撮像部203によって撮影された図7Aの体温計402の表示部の表示領域404の画像408の例を示している。図7Cは、プロセッサ112によって抽出された図7Bの画像408における数字の列とそれぞれの数字の外接矩形の例を破線で示している。この場合、表示領域404は、1行に1つの測定項目を含んでいる。図7Dは、各セグメントに対応する各画素グループの外接矩形の例を破線で示している。外接矩形は、表示されたものではなく、処理上の仮想的なものである。   FIG. 7A shows an example of a thermometer 402 including a display area 404. FIG. 7B shows an example of an image 408 of the display area 404 of the display unit of the thermometer 402 of FIG. 7A taken by the camera 202 or the imaging unit 203. FIG. 7C shows an example of a string of numbers in the image 408 of FIG. 7B extracted by the processor 112 and a circumscribed rectangle of each number with a broken line. In this case, the display area 404 includes one measurement item per line. FIG. 7D shows an example of a circumscribed rectangle of each pixel group corresponding to each segment by a broken line. The circumscribed rectangle is not displayed but is a virtual one in processing.

図8Aは、表示領域414を含む体重計412の例を示している。図8Bは、カメラ202または撮像部203によって撮影された図8Aの体重計412の表示領域414の画像418の例を示している。図8Cは、プロセッサ112によって抽出された図8Bの画像418における数字の列とそれぞれの数字の外接矩形の例を示している。この場合、表示領域414は、1行に1つの測定項目を含んでいる。   FIG. 8A shows an example of a scale 412 including a display area 414. FIG. 8B shows an example of an image 418 in the display area 414 of the scale 412 in FIG. 8A taken by the camera 202 or the imaging unit 203. FIG. 8C shows an example of a sequence of numbers in the image 418 of FIG. 8B extracted by the processor 112 and a circumscribed rectangle of each number. In this case, the display area 414 includes one measurement item per line.

図9Aは、表示領域424を含む血圧計の例を示している。図9Bは、カメラ202または撮像部203によって撮影された図9Aの血圧計の表示領域424の画像428の例を示している。この場合、表示領域424は、複数の行に複数の測定項目を含んでいる。   FIG. 9A shows an example of a sphygmomanometer including a display area 424. FIG. 9B shows an example of an image 428 of the display area 424 of the sphygmomanometer of FIG. 9A taken by the camera 202 or the imaging unit 203. In this case, the display area 424 includes a plurality of measurement items in a plurality of rows.

図10Aは、表示領域434を含む別の血圧計の例を示している。図10Bは、カメラ202または撮像部203によって撮影された図10Aの血圧計の表示領域434の画像438の例を示している。この場合、表示領域434は、1つの行に2つの測定項目を含んでいる。他の形態として、測定器は、ユーザの操作に従って、その表示部に複数の測定値を順に切り替えて表示するものであってもよい。例えば、測定器は、最高血圧、最低血圧、脈拍数の各測定値を順次切り替えて表示してもよい。   FIG. 10A shows an example of another sphygmomanometer including a display area 434. FIG. 10B shows an example of an image 438 of the display area 434 of the sphygmomanometer of FIG. 10A taken by the camera 202 or the imaging unit 203. In this case, the display area 434 includes two measurement items in one row. As another form, the measuring device may switch and display a plurality of measured values in order on the display unit in accordance with a user operation. For example, the measuring device may sequentially switch and display the maximum blood pressure, minimum blood pressure, and pulse rate measurement values.

ユーザは、図7A、8A、9A、10Aのような測定器で体温、体重、血圧等の身体の状態または物理的量を測った後、その表示領域404、414、424または434をカメラ202または携帯端末102の撮像部203を用いて撮像する。ユーザは、その撮影された画像408、418、128、438のデータを、情報処理端末100または携帯端末102のメモリ114またはハードディスク・ドライブ130の記憶領域に格納する。情報処理端末100または携帯端末102のプロセッサ112は、その格納された画像データを処理して、例えば図5Cまたは6Cのような測定値を表す1列以上の数字の列だけを抽出する。小数点は抽出されなくてもよい。   The user measures the physical state or physical quantity such as body temperature, weight, blood pressure, etc. with a measuring instrument as shown in FIGS. 7A, 8A, 9A, 10A, and then displays the display area 404, 414, 424 or 434 on the camera 202 or Imaging is performed using the imaging unit 203 of the mobile terminal 102. The user stores the data of the captured images 408, 418, 128, and 438 in the memory 114 of the information processing terminal 100 or the portable terminal 102 or the storage area of the hard disk drive 130. The processor 112 of the information processing terminal 100 or the portable terminal 102 processes the stored image data, and extracts only one or more numeric columns representing measurement values as shown in FIG. 5C or 6C, for example. The decimal point may not be extracted.

図11は、情報処理端末100または携帯端末102のプロセッサ112によって実行される、測定値の表示画像の撮影からサーバ装置30への測定データの送信までの処理のためのフローチャートの例を示している。   FIG. 11 shows an example of a flowchart for processing from the capture of a display image of measurement values to the transmission of measurement data to the server device 30, which is executed by the processor 112 of the information processing terminal 100 or the portable terminal 102. .

ステップ500において、プロセッサ112またはその処理部1144は、ユーザの操作に従って、カメラ202または撮像部203によって撮影された測定器の表示部の画像を含む画像のデータをメモリ114またはハードディスク・ドライブ130の画像記憶領域に格納する。その画像データは、カラー多階調画像データであってもよい。プロセッサ112またはその処理部1144は、必要に応じて、その画像データを処理して輝度成分Yの画像データを生成する。   In step 500, the processor 112 or its processing unit 1144 converts the image data including the image of the display unit of the measuring instrument taken by the camera 202 or the imaging unit 203 into the image of the memory 114 or the hard disk drive 130 according to the user's operation. Store in the storage area. The image data may be color multi-tone image data. The processor 112 or its processing unit 1144 processes the image data as necessary to generate image data of the luminance component Y.

ステップ502において、プロセッサ112またはそのノイズ除去部1122は、メモリ114またはハードディスク・ドライブ130において、測定器の表示部の画像を含む画像の輝度を調整し、フィルタを用いてその画像のノイズを除去する。ステップ504において、プロセッサ112または二値化部1124は、その画像を二値化して、二値化された輝度の画像データ(白黒、明暗)を生成する。   In step 502, the processor 112 or its noise removing unit 1122 adjusts the luminance of the image including the image on the display unit of the measuring instrument in the memory 114 or the hard disk drive 130, and removes the noise of the image using a filter. . In step 504, the processor 112 or the binarization unit 1124 binarizes the image to generate binarized luminance image data (monochrome, light and dark).

ステップ506において、プロセッサ112またはそのグループ化部1126は、二値化された画像の画素(例えば、黒または暗の画素)を、例えば1つ以上の画素グループにグループ化する。例えば、測定器の測定値の各桁の数字が7セグメント表示である場合、1つの数字を表す複数の画素が、7セグメント中の2つ以上のセグメントを表すそれぞれの画素グループにグループ化される。例えば、数字“1”を表す上下2つのセグメントを表す複数の画素が、画素の隣接関係に基づいて、2つの画素グループにグループ化される。例えば、数字“8”を表す7つのセグメントを表す複数の画素が、画素の隣接関係に基づいてそれに対応する7つの画素グループにグループ化される。   In step 506, the processor 112 or its grouping unit 1126 groups the binarized image pixels (eg, black or dark pixels) into, for example, one or more pixel groups. For example, when each digit of the measurement value of the measuring instrument is a 7-segment display, a plurality of pixels representing one number are grouped into respective pixel groups representing two or more segments in the 7 segments. . For example, a plurality of pixels representing two upper and lower segments representing the number “1” are grouped into two pixel groups based on the adjacent relationship of the pixels. For example, a plurality of pixels representing seven segments representing the number “8” are grouped into seven corresponding pixel groups based on the adjacency relationship of the pixels.

ステップ508において、プロセッサ112またはその環状判定部1128は、その画像における複数の画素グループから、環状を表す画素グループを判定して抽出する。ステップ510において、プロセッサ112または環状判定部1128は、画像におけるその環状の画素グループの中からその内側に他の画素グループを含むものを選択し、その最も内側の環状の画素グループを、測定器の表示領域または表示枠を表す画素グループとして決定する。   In step 508, the processor 112 or its ring determining unit 1128 determines and extracts a pixel group representing a ring from a plurality of pixel groups in the image. In step 510, the processor 112 or the circular determination unit 1128 selects one of the circular pixel groups in the image including the other pixel group on the inner side, and selects the innermost circular pixel group as the measuring instrument's The pixel group representing the display area or display frame is determined.

ステップ512において、プロセッサ112またはそのグループ抽出部1130は、画像における表示枠を表す画素グループの内側にある数字または数字セグメントを表す可能性のある画素グループを抽出する。ステップ514において、プロセッサ112またはそのグループ結合部1132は、画像における抽出された複数の画素グループの中で隣接関係にある画素グループを結合して、各数字を表す結合された画素グループの組をそれぞれ形成する。ステップ516において、プロセッサ112またはその補正部1134は、画像における数字セグメントを表す各画素グループの傾きを検出して、数字を表す画像の傾きを補正して傾きのない数字を形成する。   In step 512, the processor 112 or its group extraction unit 1130 extracts a pixel group that may represent a number or a number segment inside the pixel group that represents the display frame in the image. In step 514, the processor 112 or its group combining unit 1132 combines adjacent pixel groups among the plurality of extracted pixel groups in the image, and sets the combined group of pixel groups representing each number, respectively. Form. In step 516, the processor 112 or its correction unit 1134 detects the inclination of each pixel group representing the number segment in the image, corrects the inclination of the image representing the number, and forms a number without inclination.

ステップ518において、プロセッサ112またはその数字抽出部1138は、画像における結合された画素グループの各組を文字認識技術によって認識する。プロセッサ112またはその数字抽出部1138は、複数の画素グループから数字だけを認識して数字だけを抽出してもよい。プロセッサ112またはその数字抽出部1138は、他の画素グループから隔てられた1つ以上の領域における1つ以上の数字の列(数字のストリング)を数値情報として抽出する。ステップ520において、プロセッサ112または特徴抽出部1138は、使用した測定器の表示部の画像における表示領域または表示枠の寸法形状および各数字の寸法形状、等を求めて、使用した測定器の表示部に固有の特徴(情報)またはパラメータを抽出する。   In step 518, processor 112 or its number extractor 1138 recognizes each set of combined pixel groups in the image using character recognition techniques. The processor 112 or its number extraction unit 1138 may extract only numbers by recognizing only numbers from a plurality of pixel groups. The processor 112 or its numeral extraction unit 1138 extracts one or more numeric strings (numeric strings) in one or more regions separated from other pixel groups as numerical information. In step 520, the processor 112 or the feature extraction unit 1138 obtains the display area or display frame size shape and the size shape of each number in the display image of the measurement device used, and the display unit of the measurement device used. To extract features (information) or parameters specific to.

ステップ522において、プロセッサ112またはその測定データ決定部1140は、画像における抽出された測定器の表示部の特徴または形状的特徴を、メモリ114等に格納された測定器のリストのものと比較する。プロセッサ112または測定データ決定部1140は、そのリスト中から類似または近似している特徴を有する測定器の種別を、使用する測定器の種別として選択する。プロセッサ112または測定データ決定部1140は、さらに、その選択された測定器の種別に対応する1つ以上の測定項目(身体データ種別)を選択する。   In step 522, the processor 112 or its measurement data determination unit 1140 compares the extracted display feature or shape feature of the measuring device in the image with that of the list of measuring devices stored in the memory 114 or the like. The processor 112 or the measurement data determination unit 1140 selects, from the list, a type of measuring device having a similar or approximate feature as a type of measuring device to be used. The processor 112 or the measurement data determination unit 1140 further selects one or more measurement items (physical data types) corresponding to the type of the selected measuring instrument.

プロセッサ112または測定データ決定部1140は、さらに、その決定された測定項目のデータ形式に基づいて、画像における抽出された数字の列(数値情報)によって表される測定値を測定データとして決定する。その際、選択された測定器の種別に対応する2つ以上の測定項目が存在する場合、数字列(数値情報)の桁数、数値(大きさ)が、各測定項目のデータ形式(桁数)、数値の許容範囲、出現順序を参照しまたはこれらと比較されて、数字列によって表される測定項目および測定値が決定される。また、複数の数字列が抽出された場合、各数字列が、互いに比較され、各測定項目のデータ形式(桁数等)、数値の許容範囲、出現順序を参照しまたはこれらと比較されて、数字列(数値情報)によって表される測定項目および測定値が決定されてもよい。   The processor 112 or the measurement data determination unit 1140 further determines, as measurement data, a measurement value represented by a string of numbers (numerical information) extracted from the image based on the data format of the determined measurement item. In this case, if there are two or more measurement items corresponding to the type of the selected measuring instrument, the number of digits in the numeric string (numeric information) and the numeric value (size) are the data format (number of digits) of each measurement item. ), With reference to or compared with numerical tolerances, order of appearance, the measurement item and the measurement value represented by the numeric string are determined. In addition, when a plurality of numeric strings are extracted, each numeric string is compared with each other, referring to or compared with the data format (number of digits, etc.) of each measurement item, the allowable range of numerical values, the order of appearance, A measurement item and a measurement value represented by a numeric string (numerical information) may be determined.

プロセッサ112または測定データ決定部1140は、さらに、その決定された測定項目および測定値を表示部122に表示してユーザに確認させ、確認された測定項目および測定値を測定データとして決定してもよい。プロセッサ112または測定データ決定部1140は、さらに、その測定器種別および測定項目(身体データ種別)に対応付けて測定値を測定日時情報とともにメモリ114またはハードディスク130に格納する。   The processor 112 or the measurement data determination unit 1140 may further display the determined measurement item and measurement value on the display unit 122 to allow the user to confirm and determine the confirmed measurement item and measurement value as measurement data. Good. The processor 112 or the measurement data determination unit 1140 further stores the measurement value in the memory 114 or the hard disk 130 together with the measurement date / time information in association with the measurement device type and the measurement item (physical data type).

ステップ524において、プロセッサ112または処理部1144は、その決定された測定器種別、測定項目および測定値(測定データ)を、ユーザの個人情報および日時情報とともに、ネットワーク5を介してサーバ装置30に送信する。サーバ装置30またはそのプロセッサ312は、測定器種別、測定項目および測定値(測定データ)を受信し、測定日時情報に従って測定器種別および測定項目に対応付けて測定値を記憶装置16のデータベース(DB)に格納して、履歴データまたは記録データとして管理する。その後、サーバ装置30またはプロセッサ312は、情報処理端末100または携帯端末102からの要求に応答して、記憶装置16に格納された履歴データまたは記録データを送信する。情報処理端末100または携帯端末102の(プロセッサ112)は、履歴データまたは記録データを受信し、その表示部122上に、測定項目に対応付けて各測定値を測定日時情報の順に表示する。   In step 524, the processor 112 or the processing unit 1144 transmits the determined measuring instrument type, measurement item, and measurement value (measurement data) to the server device 30 via the network 5 together with the user's personal information and date / time information. To do. The server device 30 or its processor 312 receives the measurement device type, measurement item, and measurement value (measurement data), and associates the measurement value with the measurement device type and measurement item according to the measurement date and time information in the database (DB) of the storage device 16. ) And managed as history data or recorded data. Thereafter, the server device 30 or the processor 312 transmits the history data or the recording data stored in the storage device 16 in response to a request from the information processing terminal 100 or the portable terminal 102. The (processor 112) of the information processing terminal 100 or the portable terminal 102 receives the history data or the recorded data, and displays each measurement value in association with the measurement item on the display unit 122 in the order of measurement date and time information.

図12Aおよび12Bは、図11のステップ502における、測定器の表示部の画像を含む画像のノイズを除去する処理のためのフローチャートの例を示している。   12A and 12B show an example of a flowchart for the process of removing noise in an image including an image on the display unit of the measuring instrument in step 502 of FIG.

図7Bおよび8Bにおいて、撮影された画像(ピクチャ)のフレーム408、418における輝度補正用の中央の参照枠420の位置が破線で示されている。画像のフレーム408、418の横と縦のサイズは、ピクセル単位の横と縦のサイズxw×yhを有する。参照枠420は、例えばサイズ(xw/10)×(yh/10)を有する。参照枠420は、画像のフレーム408、418の中央領域における基準となる最大の輝度Ymaxを決定するために用いられる。ユーザは、ディジタル・カメラ202のモニタ画面または携帯端末102の表示部122の中央に測定器の表示領域404、414の中心が位置するように、測定器の表示領域を撮影する。それによって、測定器の表示領域404、414の中心は、撮影された測定器の表示領域404、414の概ね中心に位置する。   In FIGS. 7B and 8B, the position of the central reference frame 420 for luminance correction in frames 408 and 418 of the captured image (picture) is indicated by a broken line. The horizontal and vertical sizes of the image frames 408 and 418 have a horizontal and vertical size xw × yh in pixels. The reference frame 420 has, for example, a size (xw / 10) × (yh / 10). The reference frame 420 is used to determine the maximum luminance Ymax that serves as a reference in the central region of the frames 408 and 418 of the image. The user captures the display area of the measuring instrument so that the center of the display areas 404 and 414 of the measuring instrument is located at the center of the monitor screen of the digital camera 202 or the display unit 122 of the portable terminal 102. Thereby, the center of the display area 404, 414 of the measuring instrument is positioned approximately at the center of the display area 404, 414 of the photographed measuring instrument.

表示領域404、414の周辺またはその外側の領域の画素は、測定器への光の反射等によって不所望に明る過ぎることがあるので、画像全体の最大輝度を参照枠420内の最大輝度に制限するよう処理することが望ましい。   Since the pixels in the periphery of the display areas 404 and 414 or in the area outside the display areas 404 and 414 may be undesirably bright due to reflection of light to the measuring instrument or the like, the maximum brightness of the entire image is limited to the maximum brightness in the reference frame 420. It is desirable to process.

図12Aを参照すると、プロセッサ112は、ステップ600においてその処理を開始する。ステップ602において、プロセッサ112は、最大輝度Ymaxを初期値0(ゼロ)(Ymax=0)に、参照枠420の中心座標(xc,yc)を画像の中心座標(xw/2,yh/2)に設定する((xc,yc)=(xw/2,yh/2))。また、プロセッサ112は、参照枠420の左上の座標(xt,yt)を座標(xc−xw/20,yc−yh/20)に設定する((xt,yt)=(xc−xw/20,yc−yh/20))。また、プロセッサ112は、参照枠420の右下の座標(xb,yb)を座標(xt+xw/10,yt+yh/10)に設定する((xb,yb)=(xt+xw/10,yt+yh/10))。さらに、プロセッサ112は、参照枠420における最大の輝度Ymaxを決定する処理を実行するために、注目画素の座標(x,y)を、参照枠420の左上の初期値(xt,yt)に設定する((x,y)=(xt,yt))。   Referring to FIG. 12A, processor 112 begins its processing at step 600. In step 602, the processor 112 sets the maximum luminance Ymax to an initial value 0 (zero) (Ymax = 0) and the center coordinates (xc, yc) of the reference frame 420 to the center coordinates (xw / 2, yh / 2) of the image. ((Xc, yc) = (xw / 2, yh / 2)). Further, the processor 112 sets the upper left coordinate (xt, yt) of the reference frame 420 to the coordinate (xc−xw / 20, yc−yh / 20) ((xt, yt) = (xc−xw / 20, yc-yh / 20)). Further, the processor 112 sets the lower right coordinate (xb, yb) of the reference frame 420 to the coordinate (xt + xw / 10, yt + yh / 10) ((xb, yb) = (xt + xw / 10, yt + yh / 10)). . Further, the processor 112 sets the coordinates (x, y) of the pixel of interest to the upper left initial value (xt, yt) of the reference frame 420 in order to execute processing for determining the maximum luminance Ymax in the reference frame 420. ((X, y) = (xt, yt)).

ステップ604において、プロセッサ112は、座標(x,y)の注目画素の輝度Y(x,y)が現在の最大輝度Ymaxより大きいかどうかを判定する(Y(x,y)>Ymax?)。輝度Y(x,y)が最大輝度Ymaxより大きいと判定された場合は、ステップ606において、最大輝度Ymax=Y(x,y)と設定する。輝度Y(x,y)が最大輝度Ymaxより大きくないと判定された場合は、手順はステップ608に進む。   In step 604, the processor 112 determines whether or not the luminance Y (x, y) of the pixel of interest at the coordinates (x, y) is larger than the current maximum luminance Ymax (Y (x, y)> Ymax?). If it is determined that the luminance Y (x, y) is greater than the maximum luminance Ymax, in step 606, the maximum luminance Ymax = Y (x, y) is set. If it is determined that the luminance Y (x, y) is not greater than the maximum luminance Ymax, the procedure proceeds to step 608.

ステップ608において、プロセッサ112は、注目画素の座標xを1画素分だけ増分する(x=x+1)。ステップ610において、プロセッサ112は、座標xが参照枠420の右下の座標xbより大きいかどうかを判定する(x>xb?)。座標xが参照枠420の座標xbより大きくないと判定された場合は、手順はステップ604に戻る。座標xが参照枠420の座標xbより大きいと判定された場合は、ステップ612において、プロセッサ112は、注目画素の座標xを初期値x=xtと設定し、注目画素の座標yを1画素分だけ増分する(x=xt,y=y+1)。   In step 608, the processor 112 increments the coordinate x of the target pixel by one pixel (x = x + 1). In step 610, the processor 112 determines whether or not the coordinate x is larger than the lower right coordinate xb of the reference frame 420 (x> xb?). If it is determined that the coordinate x is not larger than the coordinate xb of the reference frame 420, the procedure returns to step 604. If it is determined that the coordinate x is larger than the coordinate xb of the reference frame 420, in step 612, the processor 112 sets the coordinate x of the target pixel to an initial value x = xt, and sets the coordinate y of the target pixel to one pixel. Increment by (x = xt, y = y + 1).

ステップ614において、プロセッサ112は、注目画素の座標yが参照枠420の座標ybより大きいかどうかを判定する(y>yb?)。座標yが参照枠420の右下の座標ybより大きくないと判定された場合は、手順はステップ604に戻る。座標yが参照枠420の右下の座標ybより大きいと判定された場合は、手順は図12Bのステップ616に進む。ステップ602〜614によって、参照枠420内の画素の最大輝度が、基準となる最大輝度Ymaxとして決定される。   In step 614, the processor 112 determines whether or not the coordinate y of the target pixel is larger than the coordinate yb of the reference frame 420 (y> yb?). If it is determined that the coordinate y is not greater than the lower right coordinate yb of the reference frame 420, the procedure returns to step 604. If it is determined that the coordinate y is greater than the lower right coordinate yb of the reference frame 420, the procedure proceeds to step 616 in FIG. 12B. By steps 602 to 614, the maximum luminance of the pixels in the reference frame 420 is determined as the standard maximum luminance Ymax.

図12Bを参照すると、ステップ616において、プロセッサ112は、注目画素の座標(x,y)を、画像のフレーム408または418の左上の座標の初期値(1,1)に設定する((x,y)=(1,1))。   Referring to FIG. 12B, in step 616, the processor 112 sets the coordinate (x, y) of the pixel of interest to the initial value (1, 1) of the upper left coordinate of the image frame 408 or 418 ((x, y). y) = (1, 1)).

ステップ618において、プロセッサ112は、座標(x,y)の注目画素の輝度Y(x,y)が最大輝度Ymaxより大きいかどうかを判定する(Y(x,y)>Ymax?)。輝度Y(x,y)が最大輝度Ymaxより大きいと判定された場合は、ステップ620において、最大輝度Y(x,y)=Ymaxと設定する。輝度Y(x,y)が最大輝度Ymaxより大きくないと判定された場合は、手順はステップ622に進む。   In step 618, the processor 112 determines whether or not the luminance Y (x, y) of the pixel of interest at the coordinates (x, y) is larger than the maximum luminance Ymax (Y (x, y)> Ymax?). If it is determined that the luminance Y (x, y) is greater than the maximum luminance Ymax, in step 620, the maximum luminance Y (x, y) = Ymax is set. If it is determined that the luminance Y (x, y) is not greater than the maximum luminance Ymax, the procedure proceeds to step 622.

ステップ622において、プロセッサ112は、注目画素の座標xを1画素分だけ増分する(x=x+1)。ステップ624において、プロセッサ112は、座標xが画像のフレーム408、418の右下の座標xwより大きいかどうかを判定する(x>xw?)。座標xが座標xwより大きくないと判定された場合は、手順はステップ618に戻る。座標xが座標xwより大きいと判定された場合は、ステップ626において、プロセッサ112は、注目画素の座標xを初期値x=1と設定し、注目画素の座標yを1画素分だけ増分する(x=1,y=y+1)。   In step 622, the processor 112 increments the coordinate x of the target pixel by one pixel (x = x + 1). In step 624, the processor 112 determines whether the coordinate x is greater than the lower right coordinate xw of the frame 408, 418 of the image (x> xw?). If it is determined that the coordinate x is not greater than the coordinate xw, the procedure returns to step 618. If it is determined that the coordinate x is larger than the coordinate xw, in step 626, the processor 112 sets the coordinate x of the target pixel to an initial value x = 1, and increments the coordinate y of the target pixel by one pixel ( x = 1, y = y + 1).

ステップ628において、プロセッサ112は、注目画素の座標yが画像のフレーム408、418の右下の座標yhより大きいかどうかを判定する(y>yh?)。座標yが座標yhより大きくないと判定された場合は、手順はステップ618に戻る。座標yが座標yhより大きいと判定された場合は、手順はステップ630に進む。ステップ616〜628によって、画像のフレーム408、418において最大輝度Y(x,y)を超える輝度Y(x,y)が、最大輝度Ymaxに制限されるように補正される。   In step 628, the processor 112 determines whether or not the coordinate y of the pixel of interest is greater than the lower right coordinate yh of the frames 408 and 418 of the image (y> yh?). If it is determined that the coordinate y is not greater than the coordinate yh, the procedure returns to step 618. If it is determined that the coordinate y is greater than the coordinate yh, the procedure proceeds to step 630. Steps 616 to 628 correct the luminance Y (x, y) exceeding the maximum luminance Y (x, y) in the image frames 408 and 418 so as to be limited to the maximum luminance Ymax.

ステップ630において、プロセッサ112は、既知の形態で、例えば3×3のサイズの重み付け係数を有するフィルタで、画像のフレーム408、418を空間的に濾波してノイズを除去または低減する。その空間的濾波において、例えば3×3のマトリックスの注目画素および近隣画素の値と、そのフィルタにおける対応する行列位置の係数とが乗算され、その積の和によって、注目画素の値が補正される。   In step 630, the processor 112 spatially filters the image frames 408, 418 with a filter having a known weighting factor, eg, a 3 × 3 size, to remove or reduce noise. In the spatial filtering, for example, the value of the pixel of interest and neighboring pixels of the 3 × 3 matrix is multiplied by the coefficient of the corresponding matrix position in the filter, and the value of the pixel of interest is corrected by the sum of the products. .

図11を再び参照すると、ステップ504において、プロセッサ112は、画像のフレームにおける全ての座標(x,y)の画素の輝度Y(x,y)を閾値Ythで処理して、輝度Y(x,y)を値“0”か“1”に二値化し、座標(x,y)の画素Px(x,y)にその値(0、1)を設定する。この場合、値“0”は白または明の輝度を表し、値“1”は黒または暗の輝度を表す。閾値Ythは、例えば、最大輝度Ymaxの1/2、即ちYth=Ymax/2と設定してもよい。プロセッサ112は、例えば、輝度Y(x,y)が閾値Ythかまたはそれより暗い場合には画素Px(x,y)=1(暗)と設定し、輝度Y(x,y)が閾値Ythより明るい場合には画素Px(x,y)=0(明)と設定してもよい。代替形態として、プロセッサ112は、例えば、輝度Y(x,y)が閾値Ythかまたはそれより明るい場合に画素Px(x,y)=1(明)と設定し、輝度Y(x,y)が閾値Ythより暗い場合に画素Px(x,y)=0(暗)と設定してもよい。画像の二値化によって、画像中の数字の認識が容易になる。   Referring back to FIG. 11, in step 504, the processor 112 processes the luminance Y (x, y) of all the coordinates (x, y) in the frame of the image with the threshold Yth to obtain the luminance Y (x, y y) is binarized to the value “0” or “1”, and the value (0, 1) is set to the pixel Px (x, y) at the coordinate (x, y). In this case, the value “0” represents white or bright luminance, and the value “1” represents black or dark luminance. The threshold value Yth may be set to, for example, 1/2 of the maximum luminance Ymax, that is, Yth = Ymax / 2. For example, when the luminance Y (x, y) is the threshold value Yth or darker than that, the processor 112 sets the pixel Px (x, y) = 1 (dark), and the luminance Y (x, y) is the threshold value Yth. If it is brighter, the pixel Px (x, y) = 0 (bright) may be set. As an alternative, the processor 112 sets the pixel Px (x, y) = 1 (bright), for example, when the luminance Y (x, y) is the threshold Yth or brighter, and the luminance Y (x, y). May be set as pixel Px (x, y) = 0 (dark). The binarization of the image facilitates the recognition of numbers in the image.

図13は、図11のステップ506における、画像のフレーム408、418、428、438の画素をグループ化する処理のためのフローチャートの例を示している。   FIG. 13 shows an example of a flowchart for the process of grouping the pixels of the image frames 408, 418, 428, and 438 in step 506 of FIG.

図14は、画像のフレーム(408、418、428、438)において、表示領域(404、414、424、434)の画素のグループ化の例を示している。
図14において、隣接関係にある輝度1(暗)を表す複数の画素または1つのセグメントの複数の画素に、同じラベル番号またはグループ番号11〜45のいずれかが付けられている。この場合、一例として、測定器の表示部の二値画像において、上下2つの行に数値“51.8”および“32.4”の画像を含む画像の各画素に、ラベル番号が付与されている。
FIG. 14 shows an example of grouping pixels in the display area (404, 414, 424, 434) in the image frame (408, 418, 428, 438).
In FIG. 14, the same label number or group number 11 to 45 is assigned to a plurality of pixels representing luminance 1 (dark) in an adjacent relationship or a plurality of pixels in one segment. In this case, as an example, in the binary image on the display unit of the measuring instrument, a label number is assigned to each pixel of an image including numerical values “51.8” and “32.4” in the upper and lower two rows. Yes.

図15は、図14の画像における測定器の表示領域(404、414、424、434)の画素に関するラベル番号、統計的情報、認識された数字を含むラベル・テーブルの例を示している。   FIG. 15 shows an example of a label table including label numbers, statistical information, and recognized numbers regarding pixels in the display area (404, 414, 424, 434) of the measuring instrument in the image of FIG.

図15において、左側の項目番号または行番号1〜35は異なるラベル番号(列2)に対応し、上側の列番号1〜13の項目は各ラベル番号の画素グループに関する統計的情報、寸法形状、形状的特徴、認識対象かどうか、認識結果(数字)、等の項目に対応する。列2〜8は、列1の各ラベル番号の画素グループに対する、画素の個数、画素の座標xの最小値(xmin)、座標yの最小値(ymin)、座標xの最大値(xmax)、座標yの最大値(ymax)、中心画素の座標x(xc)、中心画素の座標y(yc)を含んでいる。列9〜12は、列1の各ラベル番号の画素グループに対して、環状かどうか、包囲(包囲線または輪郭線)かどうか、認識対象かどうか、ラベル結合番号、認識結果の数字を含んでいる。1つのラベル結合番号は、隣接関係にある複数の画素グループを、1つの数字を表す可能性がある組として結合するための識別番号である。   In FIG. 15, the left item numbers or row numbers 1 to 35 correspond to different label numbers (column 2), and the upper column numbers 1 to 13 are statistical information, dimension shapes, Corresponds to items such as shape features, recognition target, recognition results (numbers), and the like. Columns 2 to 8 show the number of pixels, the minimum value (xmin) of the coordinate x of the pixel, the minimum value (ymin) of the coordinate y, the maximum value (xmax) of the coordinate x for the pixel group of each label number in column 1. The maximum value (ymax) of the coordinate y, the coordinate x (xc) of the central pixel, and the coordinate y (yc) of the central pixel are included. Columns 9 to 12 include, for the pixel group of each label number in column 1, whether it is circular, whether it is an enclosure (envelopment line or outline), whether it is a recognition target, a label combination number, and a number of recognition results. Yes. One label combination number is an identification number for combining a plurality of adjacent pixel groups as a set that may represent one number.

図13を参照すると、プロセッサ112は、ステップ660においてその処理を開始する。ステップ662において、プロセッサ112は、ラベル番号i_LBLを初期値i_LBL=11、注目画素の座標(x,y)を初期値x=2、y=2と設定する。ここで、ラベル番号i_LBLは、輝度値“0”(明)、“1”(暗)と区別するために、11以上の整数(i_LBL≧11)とする。   Referring to FIG. 13, processor 112 starts its processing at step 660. In step 662, the processor 112 sets the label number i_LBL as an initial value i_LBL = 11, and the coordinates (x, y) of the target pixel as initial values x = 2 and y = 2. Here, the label number i_LBL is set to an integer of 11 or more (i_LBL ≧ 11) in order to distinguish it from the luminance values “0” (bright) and “1” (dark).

ステップ664において、プロセッサ112は、ラベル番号i_LBLがラベル番号の上限の閾値i_LBL_maxより大きいかどうかを判定する。ラベル番号i_LBLが閾値i_LBL_maxより大きいと判定された場合は、手順はステップ680に進む。ラベル番号i_LBLが閾値i_LBL_maxより大きくないと判定された場合は、ステップ666において、プロセッサ112は、座標(x,y)の注目画素Px(x,y)の値が二値化された“1”(暗)かどうかを判定する。この場合、輝度“1”は黒または暗いレベルを表し、輝度“0”は白または明るいレベルを表すものとする。注目画素Px(x,y)に既にラベルが付与されている場合は、注目画素はPx(x,y)≧11の値を有する。注目画素Px(x,y)が輝度1(暗)であると判定された場合は、プロセッサ112は、ステップ670において注目画素とその隣接画素に対してラベル付けを行う。その後、手順はステップ671に進む。ステップ666において画素Px(x,y)が輝度1(暗)でない、即ち輝度0(ゼロ)(明)またはラベル番号(≧11)と判定された場合は、手順はステップ672に進む。   In step 664, the processor 112 determines whether or not the label number i_LBL is greater than an upper threshold value i_LBL_max for the label number. If it is determined that the label number i_LBL is greater than the threshold value i_LBL_max, the procedure proceeds to step 680. If it is determined that the label number i_LBL is not greater than the threshold value i_LBL_max, in step 666, the processor 112 binarizes the value of the pixel of interest Px (x, y) at the coordinates (x, y) to “1”. Determine whether it is (dark). In this case, the luminance “1” represents a black or dark level, and the luminance “0” represents a white or bright level. When the target pixel Px (x, y) has already been labeled, the target pixel has a value of Px (x, y) ≧ 11. If it is determined that the pixel of interest Px (x, y) has a luminance of 1 (dark), the processor 112 labels the pixel of interest and its neighboring pixels in step 670. Thereafter, the procedure proceeds to Step 671. If it is determined in step 666 that the pixel Px (x, y) is not luminance 1 (dark), that is, luminance 0 (zero) (bright) or label number (≧ 11), the procedure proceeds to step 672.

ステップ670において、画像において互いに隣接関係にある輝度1(暗)の画素Px(x,y)のグループに同じ1つのラベル番号i_LBL(≧11)が付与される。ステップ670は、輝度1(暗)の画素グループのグループ数、即ちラベル番号i_LBLの数の回数だけ実行される。   In step 670, the same label number i_LBL (≧ 11) is assigned to the group of pixels Px (x, y) having luminance 1 (dark) adjacent to each other in the image. Step 670 is executed as many times as the number of pixel groups of luminance 1 (dark), that is, the number of label numbers i_LBL.

ステップ671において、プロセッサ112は、ラベル番号i_LBLを1だけ増分する(i_LBL=i_LBL+1)。   In step 671, the processor 112 increments the label number i_LBL by 1 (i_LBL = i_LBL + 1).

ステップ672において、プロセッサ112は、注目画素の座標xを1画素分だけ増分する(x=x+1)。ステップ674において、プロセッサ112は、座標xが画像のフレーム408、418の右下の座標xw以上かどうかを判定する(x≧xw?)。座標xが座標xw以上でないと判定された場合は、手順はステップ664に戻る。座標xが座標xw以上であると判定された場合は、ステップ676において、プロセッサ112は、注目画素の座標xを初期値x=2に設定し、注目画素のy座標を1画素分だけ増分する(x=2,y=y+1)。   In step 672, the processor 112 increments the coordinate x of the target pixel by one pixel (x = x + 1). In step 674, the processor 112 determines whether the coordinate x is greater than or equal to the lower right coordinate xw of the image frames 408, 418 (x ≧ xw?). If it is determined that the coordinate x is not greater than or equal to the coordinate xw, the procedure returns to step 664. If it is determined that the coordinate x is greater than or equal to the coordinate xw, in step 676, the processor 112 sets the coordinate x of the target pixel to the initial value x = 2, and increments the y coordinate of the target pixel by one pixel. (X = 2, y = y + 1).

ステップ678において、プロセッサ112は、注目画素の座標yが画像のフレーム408、418の右下の座標yh以上かどうかを判定する(y≧yh?)。座標yが座標yh以上でないと判定された場合は、手順はステップ664に戻る。座標yが座標yh以上であると判定された場合は、手順はステップ680に進む。   In step 678, the processor 112 determines whether or not the coordinate y of the pixel of interest is greater than or equal to the lower right coordinate yh of the image frames 408 and 418 (y ≧ yh?). If it is determined that the coordinate y is not greater than or equal to the coordinate yh, the procedure returns to step 664. If it is determined that the coordinate y is greater than or equal to the coordinate yh, the procedure proceeds to step 680.

ステップ662〜678によって、画像のフレーム408、418の輝度1(暗)の全ての画素Px(x,y)=1がラベル番号(Px(x,y)≧11)に置換される。ステップ680において、プロセッサ112は、ラベル番号i_LBLの総数または最大のラベル順序番号Itを、最後の最大の値のラベル番号It=i_LBL−10と設定する。これは、ラベル番号i_LBLの初期値をi_LBL=11と設定したからである。   Steps 662 to 678 replace all pixels Px (x, y) = 1 with luminance 1 (dark) in the frames 408 and 418 of the image with the label number (Px (x, y) ≧ 11). In step 680, the processor 112 sets the total number of label numbers i_LBL or the maximum label order number It to be the last maximum value label number It = i_LBL-10. This is because the initial value of the label number i_LBL is set to i_LBL = 11.

図16A〜16Dは、図13のステップ670のラベル付けの処理のためのフローチャートの例を示している。   16A to 16D show examples of flowcharts for the labeling process in step 670 of FIG.

図16Aを参照すると、プロセッサ112は、ステップ700においてその処理を開始する。ステップ702において、プロセッサ112は、座標(x,y)の注目画素Px(x,y)にラベル番号i_LBLを設定する(Px(x,y)=i_LBL)。最初の画素Px(x,y)は、例えばPx(x,y)=i_LBL=11(ラベル番号)である。プロセッサ112は、図15のラベルのテーブルにおいて、ラベル順序番号I(=i_LBL−10)のラベル・テーブルの項目1(列1)として、ラベル番号L_TBL(I,1)=L_TBL(i_LBL−10,1)を現在の注目画素のラベル番号i_LBLと設定する。プロセッサ112は、ラベル順序番号I=i_LBL−10のラベル・テーブルの項目2(列2)として、そのラベル番号i_LBLを有する画素の総数(画素数)L_TBL(I,2)を初期値L_TBL(I,2)=1と設定する。プロセッサ112は、ラベル順序番号I=i_LBL−10のラベル・テーブルの項目3、4(列3、4)として、ラベル番号i_LBLを有する画素の左側の最小x座標L_TBL(I,3)およびラベルの上側の最小y座標L_TBL(I,4)をそれぞれ座標xおよびyと設定する。プロセッサ112は、ラベル順序番号I=i_LBL−10のラベル・テーブルの項目5、6(列5、6)として、ラベル番号i_LBLを有する画素の右側の最大x座標L_TBL(I,5)および下側の最大y座標L_TBL(I,6)をそれぞれ座標xおよびyと設定する。   Referring to FIG. 16A, processor 112 begins its processing at step 700. In step 702, the processor 112 sets the label number i_LBL to the target pixel Px (x, y) at the coordinates (x, y) (Px (x, y) = i_LBL). The first pixel Px (x, y) is, for example, Px (x, y) = i_LBL = 11 (label number). The processor 112 uses the label number L_TBL (I, 1) = L_TBL (i_LBL-10, as item 1 (column 1) of the label table of the label order number I (= i_LBL-10) in the table of labels in FIG. 1) is set as the label number i_LBL of the current pixel of interest. The processor 112 sets the total number of pixels having the label number i_LBL (number of pixels) L_TBL (I, 2) as the initial value L_TBL (I) as the item 2 (column 2) of the label table with the label order number I = i_LBL-10. , 2) = 1. The processor 112 uses the minimum x-coordinate L_TBL (I, 3) on the left side of the pixel having the label number i_LBL as the label table item 3 and 4 (columns 3 and 4) of the label order number I = i_LBL-10 and the label The upper minimum y-coordinate L_TBL (I, 4) is set as coordinates x and y, respectively. The processor 112 uses the maximum x coordinate L_TBL (I, 5) on the right side of the pixel having the label number i_LBL and the lower side as items 5 and 6 (columns 5 and 6) of the label table with the label order number I = i_LBL-10. Are set to coordinates x and y, respectively.

ステップ704において、プロセッサ112は、処理のカウント(計数値)i_CNTを初期値i_CNT=0と設定し、座標パラメータ(xs,ys)を(xs,ys)=(2,2)と設定する。ステップ705において、プロセッサ112は、座標(xs,ys)の注目画素P(xs,ys)が現在のラベル番号i_LBLかどうかを判定する(P(xs,ys)=i_LBL?)。画素P(xs,ys)=i_LBLでないと判定された場合は、手順は図16Dのステップ762に進む。画素P(xs,ys)=i_LBLであると判定された場合は、手順は、ステップ706に進む。   In step 704, the processor 112 sets the processing count (count value) i_CNT as an initial value i_CNT = 0, and sets the coordinate parameter (xs, ys) as (xs, ys) = (2, 2). In step 705, the processor 112 determines whether or not the pixel of interest P (xs, ys) at the coordinates (xs, ys) is the current label number i_LBL (P (xs, ys) = i_LBL?). When it is determined that the pixel P (xs, ys) = i_LBL is not satisfied, the procedure proceeds to Step 762 in FIG. 16D. If it is determined that the pixel P (xs, ys) = i_LBL, the procedure proceeds to step 706.

ステップ706において、プロセッサ112は、座標(xs,ys)の注目画素に対する隣接の画素を選択するための座標パラメータxm=xs−1、xp=xs+1、ym=ys−1、yp=ys+1を設定する。画素位置xm=xs−1は注目画素の座標xsの左側の位置を表す。画素位置xp=xs+1は注目画素の座標xsの右側の位置を表す。画素位置ym=ys−1は注目画素の座標ysの上側の位置を表す。画素位置yp=ys+1は注目画素の座標ysの下側の位置を表す。これらの4つの座標パラメータと注目画素の座標(xs,ys)とによって、3×3の座標位置のうちの8つの隣接画素の位置が選択される。   In step 706, the processor 112 sets coordinate parameters xm = xs−1, xp = xs + 1, ym = ys−1, and yp = ys + 1 for selecting a pixel adjacent to the pixel of interest at coordinates (xs, ys). . A pixel position xm = xs−1 represents a position on the left side of the coordinate xs of the target pixel. The pixel position xp = xs + 1 represents the position on the right side of the coordinate xs of the target pixel. A pixel position ym = ys−1 represents a position above the coordinate ys of the target pixel. A pixel position yp = ys + 1 represents a position below the coordinate ys of the target pixel. Based on these four coordinate parameters and the coordinates (xs, ys) of the pixel of interest, the positions of eight adjacent pixels out of the 3 × 3 coordinate positions are selected.

ステップ708において、プロセッサ112は、注目画素Px(x,y)の左上の座標(xm,ym)の画素Px(xm,ym)がPx(xm,ym)=1(暗)かどうかを判定する。隣接の画素Px(xm,ym)が輝度1(暗)でない、即ち輝度0(ゼロ)(明)またはラベル番号(≧11)と判定された場合は、手順は図16Bのステップ722に進む。画素Px(xm,ym)が輝度1(暗)と判定された場合は、ステップ710において、プロセッサ112は、画素Px(xm,ym)の現在の値1を現在のラベル番号i_LBL(≧11)で置換して、画素Px(xm,ym)を現在のラベル番号i_LBL(≧11)と設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順は図16Bのステップ722に進む。   In step 708, the processor 112 determines whether or not the pixel Px (xm, ym) at the upper left coordinate (xm, ym) of the target pixel Px (x, y) is Px (xm, ym) = 1 (dark). . If it is determined that the adjacent pixel Px (xm, ym) is not luminance 1 (dark), that is, luminance 0 (zero) (bright) or label number (≧ 11), the procedure proceeds to step 722 in FIG. 16B. If it is determined that the pixel Px (xm, ym) has luminance 1 (dark), in step 710, the processor 112 sets the current value 1 of the pixel Px (xm, ym) to the current label number i_LBL (≧ 11). And the pixel Px (xm, ym) is set to the current label number i_LBL (≧ 11). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 722 of FIG. 16B.

図16Bのステップ722において、プロセッサ112は、注目画素P(x,y)の上の座標(x,ym)の画素Px(x,ym)がPx(x,ym)=1(暗)かどうかを判定する。隣接の画素Px(x,ym)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ732に進む。画素Px(x,ym)が輝度1(暗)と判定された場合は、ステップ724において、プロセッサ112は、画素Px(x,ym)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順はステップ732に進む。   In step 722 of FIG. 16B, the processor 112 determines whether or not the pixel Px (x, ym) of the coordinate (x, ym) on the target pixel P (x, y) is Px (x, ym) = 1 (dark). Determine. If it is determined that the adjacent pixel Px (x, ym) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 732. If it is determined that the pixel Px (x, ym) has a luminance of 1 (dark), in step 724, the processor 112 sets the current label number i_LBL to the pixel Px (x, ym). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 732.

ステップ732において、プロセッサ112は、注目画素P(x,y)の右上の座標(xp,ym)の画素Px(xp,ym)が輝度1(暗)かどうかを判定する。隣接画素Px(xp,ym)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ738に進む。画素Px(xp,ym)が輝度1(暗)と判定された場合は、ステップ734において、プロセッサ112は、画素Px(xp,ym)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順はステップ738に進む。   In step 732, the processor 112 determines whether or not the pixel Px (xp, ym) at the upper right coordinate (xp, ym) of the pixel of interest P (x, y) has a luminance of 1 (dark). If it is determined that the adjacent pixel Px (xp, ym) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 738. If it is determined that the pixel Px (xp, ym) has luminance 1 (dark), in step 734, the processor 112 sets the current label number i_LBL to the pixel Px (xp, ym). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 738.

ステップ738において、プロセッサ112は、注目画素P(x,y)の左の座標(xm,y)の画素Px(xm,y)が輝度1(暗)かどうかを判定する。隣接の画素Px(xm,y)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ738に進む。画素Px(xm,y)が輝度1(暗)と判定された場合は、ステップ740において、プロセッサ112は、画素Px(xm,y)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順は図16Cのステップ742に進む。   In step 738, the processor 112 determines whether or not the pixel Px (xm, y) at the left coordinate (xm, y) of the target pixel P (x, y) has a luminance of 1 (dark). If it is determined that the adjacent pixel Px (xm, y) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 738. If it is determined that the pixel Px (xm, y) has a luminance of 1 (dark), in step 740, the processor 112 sets the current label number i_LBL to the pixel Px (xm, y). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 742 in FIG. 16C.

図16Cのステップ742において、プロセッサ112は、注目画素P(x,y)の右の座標(x,yp)の画素Px(x,yp)が輝度1(暗)かどうかを判定する。画素Px(x,yp)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ748に進む。画素Px(x,yp)が輝度1(暗)と判定された場合は、ステップ744において、プロセッサ112は、画素Px(x,yp)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順はステップ748に進む。   In Step 742 of FIG. 16C, the processor 112 determines whether or not the pixel Px (x, yp) at the right coordinate (x, yp) of the pixel of interest P (x, y) has luminance 1 (dark). If it is determined that the pixel Px (x, yp) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 748. If it is determined that the pixel Px (x, yp) is luminance 1 (dark), in step 744, the processor 112 sets the current label number i_LBL to the pixel Px (x, yp). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to step 748.

ステップ748において、プロセッサ112は、注目画素P(x,y)の左下の座標(xm,yp)の画素Px(xm,yp)が輝度1(暗)かどうかを判定する。隣接の画素Px(xm,yp)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ752に進む。画素Px(xm,yp)が輝度1(暗)と判定された場合は、ステップ750において、プロセッサ112は、画素Px(xm,yp)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順はステップ752に進む。   In step 748, the processor 112 determines whether or not the pixel Px (xm, yp) at the lower left coordinate (xm, yp) of the target pixel P (x, y) has a luminance of 1 (dark). If it is determined that the adjacent pixel Px (xm, yp) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 752. If it is determined that the pixel Px (xm, yp) has luminance 1 (dark), in step 750, the processor 112 sets the current label number i_LBL to the pixel Px (xm, yp). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to step 752.

ステップ752において、プロセッサ112は、注目画素P(x,y)の下の座標(x,yp)の画素Px(x,yp)が輝度1(暗)かどうかを判定する。画素Px(x,yp)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順は図16Dのステップ758に進む。画素Px(x,yp)が輝度1(暗)と判定された場合は、ステップ754において、プロセッサ112は、画素Px(x,yp)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順は図16Dのステップ758に進む。   In step 752, the processor 112 determines whether or not the pixel Px (x, yp) at the coordinates (x, yp) under the target pixel P (x, y) has a luminance of 1 (dark). If it is determined that the pixel Px (x, yp) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 758 in FIG. 16D. If it is determined that the pixel Px (x, yp) is luminance 1 (dark), in step 754, the processor 112 sets the current label number i_LBL to the pixel Px (x, yp). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 758 of FIG. 16D.

図16Dのステップ758において、プロセッサ112は、注目画素P(x,y)の右下の座標(xp,yp)の画素Px(xp,yp)が輝度1(暗)かどうかを判定する。画素Px(xp,yp)が輝度1(暗)でない、即ち輝度0(明)またはラベル番号(≧11)と判定された場合は、手順はステップ762に進む。画素Px(xp,yp)が輝度1(暗)と判定された場合は、ステップ760において、プロセッサ112は、画素Px(xp,yp)に現在のラベル番号i_LBLを設定する。ステップ780において、プロセッサ112は、後で説明するようにラベル・テーブルの登録を実行する。その後、手順はステップ762に進む。   In Step 758 of FIG. 16D, the processor 112 determines whether or not the pixel Px (xp, yp) at the lower right coordinate (xp, yp) of the pixel of interest P (x, y) has luminance 1 (dark). If it is determined that the pixel Px (xp, yp) is not luminance 1 (dark), that is, luminance 0 (bright) or label number (≧ 11), the procedure proceeds to step 762. If it is determined that the pixel Px (xp, yp) has luminance 1 (dark), in step 760, the processor 112 sets the current label number i_LBL to the pixel Px (xp, yp). In step 780, the processor 112 performs label table registration as described below. Thereafter, the procedure proceeds to Step 762.

ステップ762において、プロセッサ112は、注目画素の座標xsを1画素分だけ増分する(xs=xs+1)。ステップ764において、プロセッサ112は、座標xsが画像のフレーム408、418の右下の座標xwより小さいかどうかを判定する(xs<xw?)。座標xsが座標xwより小さいと判定された場合は、手順は図16Aのステップ705に戻る。座標xsが標xwより小さくないと判定された場合は、ステップ766において、プロセッサ112は、注目画素の座標xsを初期値xs=2と設定し、注目画素の座標yを1画素分だけ増分する(xs=2,ys=ys+1)。   In step 762, the processor 112 increments the coordinate xs of the target pixel by one pixel (xs = xs + 1). In step 764, the processor 112 determines whether the coordinate xs is less than the lower right coordinate xw of the frame 408, 418 of the image (xs <xw?). If it is determined that the coordinate xs is smaller than the coordinate xw, the procedure returns to step 705 in FIG. 16A. If it is determined that the coordinate xs is not smaller than the target xw, in step 766, the processor 112 sets the coordinate xs of the target pixel to an initial value xs = 2 and increments the coordinate y of the target pixel by one pixel. (Xs = 2, ys = ys + 1).

ステップ768において、プロセッサ112は、注目画素の座標yが画像のフレーム408、418の右下のy座標yhより小さいかどうかを判定する(y<yh?)。座標yが座標yhより小さいと判定された場合は、手順は図16Aのステップ705に戻る。座標yが座標yhより小さくないと判定された場合は、ステップ770において、プロセッサ112は、カウントi_CNTが0より大きいかどうかを判定する。カウントi_CNTが0より大きいと判定された場合は、手順は図16Aのステップ704に戻る。カウントi_CNTが0より大きくないと判定された場合は、新しくラベル付けされた画素および新しくラベル付けされる画素が他に存在しないので、手順は図16A〜16Dのルーチンを出る。   In step 768, the processor 112 determines whether or not the coordinate y of the pixel of interest is smaller than the lower right y coordinate yh of the frames 408 and 418 of the image (y <yh?). If it is determined that the coordinate y is smaller than the coordinate yh, the procedure returns to step 705 in FIG. 16A. If it is determined that the coordinate y is not smaller than the coordinate yh, in step 770, the processor 112 determines whether the count i_CNT is larger than zero. If it is determined that the count i_CNT is greater than 0, the procedure returns to step 704 in FIG. 16A. If it is determined that the count i_CNT is not greater than 0, the procedure exits the routines of FIGS. 16A-16D because there are no other newly labeled pixels and no newly labeled pixels.

図16A〜16Dの処理によって、画像における輝度1(暗)の全ての画素に、いずれかの画素グループのラベル番号が付けられる。ラベル番号の付与の処理は、これに限定されるものではない。   16A to 16D, a label number of any pixel group is assigned to all pixels having luminance 1 (dark) in the image. The label number assignment process is not limited to this.

図17は、図16A〜16Cのステップ780における、ラベル・テーブルの登録の処理のためのフローチャートの例を示している。   FIG. 17 shows an example of a flowchart for the label table registration process in step 780 of FIGS.

図17を参照すると、プロセッサ112は、ステップ780においてその処理を開始する。ステップ782において、プロセッサ112は、処理のカウントi_CNTを1だけ増分し(i_CNT=i_CNT+1)、現在のラベル番号i_LBLの画素の画素数L_TBL(I,2)を1だけ増分する(L_TBL(I,2)=L_TBL(I,2)+1)に設定する。   Referring to FIG. 17, processor 112 starts its processing at step 780. In step 782, the processor 112 increments the processing count i_CNT by 1 (i_CNT = i_CNT + 1), and increments the pixel number L_TBL (I, 2) of the pixel of the current label number i_LBL by 1 (L_TBL (I, 2). ) = L_TBL (I, 2) +1).

ステップ784において、プロセッサ112は、ラベル番号i_LBLが付与された隣接画素Px(x,y)の座標x(即ちxm、xs、xpのいずれか)が、ラベル番号i_LBLを有する現在の左側の最小x座標L_TBL(i_LBL−1,3)より小さいかどうかを判定する。隣接画素Px(x,y)は、前の図16A〜16Dのステップ710、724、734、740744、750、754、760においてラベル番号i_LBLが付与されたものである。座標xが最小x座標L_TBL(i_LBL−1,3)より小さくないと判定された場合は、手順はステップ788に進む。座標xが最小x座標L_TBL(i_LBL−1,3)より小さいと判定された場合は、ステップ786において、プロセッサ112は、最小x座標L_TBL(i_LBL−1,3)を現在の隣接画素の座標xと設定する(L_TBL(i_LBL−1,3)=x)。その後、手順はステップ788に進む。   In step 784, the processor 112 determines that the coordinate x (ie, any of xm, xs, xp) of the adjacent pixel Px (x, y) given the label number i_LBL has the label number i_LBL at the current left minimum x. It is determined whether or not the coordinate L_TBL (i_LBL-1, 3) is smaller. The adjacent pixel Px (x, y) is assigned with the label number i_LBL in the previous steps 710, 724, 734, 740744, 750, 754, 760 of FIGS. If it is determined that the coordinate x is not smaller than the minimum x coordinate L_TBL (i_LBL-1, 3), the procedure proceeds to step 788. If it is determined that the coordinate x is smaller than the minimum x coordinate L_TBL (i_LBL-1,3), in step 786, the processor 112 changes the minimum x coordinate L_TBL (i_LBL-1,3) to the coordinate x of the current adjacent pixel. (L_TBL (i_LBL-1, 3) = x). The procedure then proceeds to step 788.

ステップ788において、プロセッサ112は、ラベル番号i_LBLが付与された隣接画素Px(x,y)の座標y(即ちym、ys、ypのいずれか)が、ラベル番号i_LBLを有する現在の上側の最小y座標L_TBL(i_LBL−1,4)より小さいかどうかを判定する。座標yが最小y座標L_TBL(i_LBL−1,4)より小さくないと判定された場合は、手順はステップ792に進む。座標yが最小y座標L_TBL(i_LBL−1,4)より小さいと判定された場合は、ステップ790において、プロセッサ112は、最小y座標L_TBL(i_LBL−1,4)を座標yと設定する(L_TBL(i_LBL−1,4)=y)。その後、手順はステップ792に進む。   In step 788, the processor 112 determines that the coordinate y (ie, any of ym, ys, yp) of the adjacent pixel Px (x, y) given the label number i_LBL is the current upper minimum y having the label number i_LBL. It is determined whether or not the coordinate L_TBL (i_LBL-1, 4) is smaller. If it is determined that the coordinate y is not smaller than the minimum y coordinate L_TBL (i_LBL-1, 4), the procedure proceeds to step 792. If it is determined that the coordinate y is smaller than the minimum y coordinate L_TBL (i_LBL-1, 4), in step 790, the processor 112 sets the minimum y coordinate L_TBL (i_LBL-1, 4) as the coordinate y (L_TBL). (I_LBL-1, 4) = y). Thereafter, the procedure proceeds to Step 792.

ステップ792において、プロセッサ112は、ラベル番号i_LBLが付与された隣接画素Px(x,y)の座標x(即ちxm、xsまたはxp)が、ラベル番号i_LBLを有する現在の右側の最大x座標L_TBL(i_LBL−1,5)より大きいかどうかを判定する。座標xが最大x座標L_TBL(i_LBL−1,5)より大きくないと判定された場合は、手順はステップ796に進む。座標xが最大x座標L_TBL(i_LBL−1,5)より大きいと判定された場合は、ステップ794において、プロセッサ112は、最大x座標L_TBL(i_LBL−1,5)を座標xと設定する(L_TBL(i_LBL−1,5)=x)。その後、手順はステップ796に進む。   In step 792, the processor 112 determines that the coordinate x (ie, xm, xs, or xp) of the adjacent pixel Px (x, y) given the label number i_LBL has the current right maximum x-coordinate L_TBL () with the label number i_LBL. It is determined whether i_LBL-1, 5) is greater. If it is determined that the coordinate x is not greater than the maximum x coordinate L_TBL (i_LBL-1, 5), the procedure proceeds to step 796. If it is determined that the coordinate x is larger than the maximum x coordinate L_TBL (i_LBL-1, 5), in step 794, the processor 112 sets the maximum x coordinate L_TBL (i_LBL-1, 5) as the coordinate x (L_TBL). (I_LBL-1,5) = x). Thereafter, the procedure proceeds to Step 796.

ステップ796において、プロセッサ112は、ラベル番号i_LBLが付与された隣接画素Px(x,y)の座標y(即ちym、ysまたはyp)が、ラベル番号i_LBLを有する現在の下側の最大y座標L_TBL(i_LBL−1,6)より大きいかどうかを判定する。座標yが最大y座標L_TBL(i_LBL−1,6)より大きくないと判定された場合は、手順は図17のルーチンを出る。座標yが最大y座標L_TBL(i_LBL−1,6)より大きいと判定された場合は、ステップ798において、プロセッサ112は、最大y座標L_TBL(i_LBL−1,6)を座標yと設定する(L_TBL(i_LBL−1,6)=y)。その後、手順は図17のルーチンを出る。   In step 796, the processor 112 determines that the coordinate y (ie, ym, ys or yp) of the adjacent pixel Px (x, y) given the label number i_LBL is the current lower maximum y coordinate L_TBL having the label number i_LBL. It is determined whether it is larger than (i_LBL-1, 6). If it is determined that the coordinate y is not greater than the maximum y coordinate L_TBL (i_LBL-1, 6), the procedure exits the routine of FIG. If it is determined that the coordinate y is greater than the maximum y coordinate L_TBL (i_LBL-1, 6), in step 798, the processor 112 sets the maximum y coordinate L_TBL (i_LBL-1, 6) as the coordinate y (L_TBL). (I_LBL-1, 6) = y). Thereafter, the procedure exits the routine of FIG.

このようにして、或るラベル番号i_LBLを有する画素グループのうちで、最も左にある画素の座標x、最も右にある画素の座標x、最も上にある画素の座標y、最も下にある画素の座標yが決定される。   Thus, in the pixel group having a certain label number i_LBL, the coordinate x of the leftmost pixel, the coordinate x of the rightmost pixel, the coordinate y of the uppermost pixel, and the lowermost pixel The coordinate y is determined.

図18は、図11のステップ508における、環状を表す画素グループを判定する処理のためのフローチャートの例を示している。   FIG. 18 shows an example of a flowchart for the process of determining a pixel group representing a ring in step 508 of FIG.

図18を参照すると、プロセッサ112は、ステップ800においてその処理を開始する。ステップ802において、プロセッサ112は、画素グループのラベル順序番号I=i_LBL−10を初期値I=1と設定する。ステップ804において、プロセッサ112は、ラベル番号i_LBLをラベル・テーブル(図15)のラベル番号i_TBL(I,1)=i_TBL(i_LBL−10,1)と設定する。また、プロセッサ112は、そのラベル番号i_LBLの画素グループの中心x座標を、その最大および最小のx座標L_TBL(I,3)とL_TBL(I,5)の中心として、xc=(L_TBL(I,3)+L_TBL(I,5))/2と設定する。さらに、プロセッサ112は、そのラベル番号i_LBLの画素グループの中心y座標を、その最大および最小のy座標L_TBL(I,4)とL_TBL(I,6)の中心として、yc=(L_TBL(I,4)+L_TBL(I,6))/2と設定する。   Referring to FIG. 18, processor 112 starts its processing at step 800. In step 802, the processor 112 sets the label order number I = i_LBL-10 of the pixel group to an initial value I = 1. In step 804, the processor 112 sets the label number i_LBL as label number i_TBL (I, 1) = i_TBL (i_LBL-10,1) in the label table (FIG. 15). Further, the processor 112 sets the center x coordinate of the pixel group with the label number i_LBL as the center of the maximum and minimum x coordinates L_TBL (I, 3) and L_TBL (I, 5), and xc = (L_TBL (I, 3) Set as + L_TBL (I, 5)) / 2. Further, the processor 112 sets the center y coordinate of the pixel group with the label number i_LBL as the center of the maximum and minimum y coordinates L_TBL (I, 4) and L_TBL (I, 6), and yc = (L_TBL (I, 4) Set as + L_TBL (I, 6)) / 2.

ステップ806において、プロセッサ112は、ラベル番号i_LBLの画素グループの中心座標(xc,yc)の画素のラベル番号がラベル番号i_LBLと同じかどうかを判定する(Px(xc,yc)=i_LBL?)。中心座標の画素のラベル番号Px(xc,yc)が画素グループのラベル番号i_LBLと同じでない場合、その画素グループは環状の形状を有する可能性があり、手順はステップ808に進む。中心座標の画素のラベル番号Px(xc,yc)が画素グループのラベル番号i_LBLと同じであると判定された場合、その画素グループは環状でなく、手順はステップ816に進む。   In step 806, the processor 112 determines whether or not the label number of the pixel at the center coordinate (xc, yc) of the pixel group with the label number i_LBL is the same as the label number i_LBL (Px (xc, yc) = i_LBL?). If the label number Px (xc, yc) of the pixel at the center coordinate is not the same as the label number i_LBL of the pixel group, the pixel group may have an annular shape and the procedure proceeds to step 808. If it is determined that the label number Px (xc, yc) of the pixel at the center coordinate is the same as the label number i_LBL of the pixel group, the pixel group is not circular and the procedure proceeds to step 816.

ステップ808において、プロセッサ112は、画素グループが環状であるかどうかを確認するために、中心座標(xc,yc)を始点として、画像の上方向に画素グループのラベル番号i_LBLを有する輪郭線画素までトレース位置を移動する。ステップ810において、プロセッサ112は、その輪郭線画素を始点として、中心座標(xc,yc)を回転中心として、例えば正方向または負方向(時計回り)の回転または周方向に、ラベル番号i_LBLの画素グループの輪郭線に沿ってその画素グループをトレースする。トレース位置が始点に戻った場合には、プロセッサ112は、その画素グループが環状であると判定する。一方、位置が画素グループの外接矩形に達したり、またはトレース方向と逆方向に移動した場合には、プロセッサ112は、その画素グループは環状でないと判定する。   In step 808, the processor 112 checks to see if the pixel group is circular until the contour pixel having the pixel group label number i_LBL in the upward direction of the image, starting from the center coordinate (xc, yc). Move the trace position. In step 810, the processor 112 starts from the contour line pixel, starts at the center coordinate (xc, yc), and rotates in the positive or negative direction (clockwise) or the circumferential direction, for example, the pixel with the label number i_LBL. Trace the pixel group along the outline of the group. When the trace position returns to the start point, the processor 112 determines that the pixel group is annular. On the other hand, when the position reaches the circumscribed rectangle of the pixel group or moves in the direction opposite to the trace direction, the processor 112 determines that the pixel group is not circular.

ステップ812において、プロセッサ112は、ラベル順序番号Iの画素グループが環状かどうかを判定する。画素グループが環状でないと判定された場合は、手順はステップ816に進む。画素グループが環状であると判定された場合は、ステップ814において、ラベルのテーブル(図15)において、ラベル番号i_LBLを有する画素グループの環状パラメータL_TBL(I,9)をL_TBL(I,9)=“環状”と設定する。   In step 812, the processor 112 determines whether or not the pixel group with label order number I is annular. If it is determined that the pixel group is not annular, the procedure proceeds to step 816. If it is determined that the pixel group is annular, in step 814, the annular parameter L_TBL (I, 9) of the pixel group having the label number i_LBL is set to L_TBL (I, 9) = in the label table (FIG. 15). Set to “annular”.

ステップ816において、プロセッサ112は、画素グループのラベル順序番号Iを1だけ増分する(I=I+1)。ステップ818において、プロセッサ112は、ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいかどうかを判定する。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きくないと判定された場合は、手順はステップ804に戻る。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいと判定された場合は、手順は図18のルーチンを出る。   In step 816, the processor 112 increments the label order number I of the pixel group by 1 (I = I + 1). In step 818, the processor 112 determines whether or not the label sequence number I is greater than the label number It (maximum label number i_LBL-10). If it is determined that the label order number I is not greater than the label number It (maximum label number i_LBL-10), the procedure returns to step 804. If it is determined that the label sequence number I is greater than the label number It (maximum label number i_LBL-10), the procedure exits the routine of FIG.

このようにして、全てのラベル番号i_LBLの画素グループについて、環状かどうかを判定して、環状である画素グループが特定される。   In this way, it is determined whether or not all pixel groups having the label number i_LBL are circular, and a pixel group that is circular is specified.

図19は、図11のステップ510における、表示領域(404、414、424、434)の表示枠を表す画素グループを抽出する処理のためのフローチャートの例を示している。   FIG. 19 shows an example of a flowchart for the process of extracting the pixel group representing the display frame of the display area (404, 414, 424, 434) in step 510 of FIG.

図19を参照すると、プロセッサ112は、ステップ850においてその処理を開始する。ステップ852において、プロセッサ112は、画素グループのラベル順序番号Iを初期値I=1と設定する。ステップ854において、プロセッサ112は、ラベル番号i_LBLをラベル・テーブル(図15)上のラベル番号L_TBL(I,1)と設定する(i_LBL=L_TBL(I,1))。   Referring to FIG. 19, processor 112 starts its processing at step 850. In step 852, the processor 112 sets the label order number I of the pixel group to an initial value I = 1. In step 854, the processor 112 sets the label number i_LBL as the label number L_TBL (I, 1) on the label table (FIG. 15) (i_LBL = L_TBL (I, 1)).

ステップ856において、プロセッサ112は、ラベル・テーブル(図15)においてラベル順序番号Iの環状パラメータL_TBL(I,9)が“環状”かどうかを判定する。それが“環状”でないと判定された場合は、手順はステップ866に進む。それが“環状”であると判定された場合は、ステップ858において、プロセッサ112は、画像においてそのラベル番号L_TBL(I,1)を有する画素グループの内側における別の画素グループの有無を検索する。ステップ862において、プロセッサ112は、そのラベル番号L_TBL(I,1)の画素グループの内側に別の画素グループが存在するかどうかを判定する。その画素グループの内側に別の画素グループが存在しないと判定された場合は、手順はステップ866に進む。その画素グループの内側に別の画素グループが存在すると判定された場合は、その画素グループが他の画素グループを包囲しているので、ステップ864において、プロセッサ112は、ラベル順序番号I即ちラベル番号L_TBL(I,1)の画素グループの包囲パラメータL_TBL(I,10)=“包囲”(または“輪郭”)と設定する。   In step 856, the processor 112 determines whether or not the circular parameter L_TBL (I, 9) of the label sequence number I is “circular” in the label table (FIG. 15). If it is determined that it is not “annular”, the procedure proceeds to step 866. If it is determined that it is “annular”, then at step 858, processor 112 searches the image for the presence of another pixel group inside the pixel group having that label number L_TBL (I, 1). In step 862, the processor 112 determines whether another pixel group exists inside the pixel group of the label number L_TBL (I, 1). If it is determined that there is no other pixel group inside the pixel group, the procedure proceeds to step 866. If it is determined that another pixel group exists inside the pixel group, the processor 112, in step 864, causes the label sequence number I, that is, the label number L_TBL, because the pixel group surrounds the other pixel group. The surrounding parameter L_TBL (I, 10) = “envelopment” (or “outline”) of the pixel group of (I, 1) is set.

ステップ866において、プロセッサ112はラベル順序番号Iを1だけ増分する(I=I+1)。ステップ868において、プロセッサ112は、ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいかどうかを判定する。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きくないと判定された場合は、手順はステップ854に戻る。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きい、即ち全てのラベル番号i_LBLについて“環状”かどうかを判定したと判定された場合は、ステップ870において、プロセッサ112は、最も内側の“包囲”を表す画素グループを“表示枠”と決定する。プロセッサ112は、さらに、“表示枠”と決定された画素グループの横幅Wdと縦の高さHdを求める。その後、手順は図19のルーチンを出る。   In step 866, the processor 112 increments the label sequence number I by 1 (I = I + 1). In step 868, the processor 112 determines whether or not the label sequence number I is greater than the label number It (maximum label number i_LBL-10). If it is determined that the label order number I is not greater than the label number It (maximum label number i_LBL-10), the procedure returns to step 854. If it is determined that the label sequence number I is greater than the label number It (maximum label number i_LBL-10), that is, if it is determined to be “circular” for all label numbers i_LBL, then at step 870 the processor 112 A pixel group representing the inner “enclosure” is determined as a “display frame”. The processor 112 further obtains the horizontal width Wd and the vertical height Hd of the pixel group determined as the “display frame”. Thereafter, the procedure exits the routine of FIG.

このようにして、測定器の表示部または表示領域の画像において、数字を表す画素グループを含んでいる最も内側にある環状の表示枠(404、414、424、434)の画素グループが抽出される。   In this manner, the pixel group of the innermost annular display frame (404, 414, 424, 434) including the pixel group representing the number is extracted from the image of the display unit or display region of the measuring instrument. .

図20は、図11のステップ512における、“表示枠”を表す画素グループの内側にある画素グループを抽出する処理のためのフローチャートの例を示している。   FIG. 20 shows an example of a flowchart for the process of extracting a pixel group inside the pixel group representing the “display frame” in step 512 of FIG.

図20を参照すると、プロセッサ112は、ステップ900においてその処理を開始する。ステップ902において、プロセッサ112は、画素グループのラベル順序番号Iを初期値I=1と設定する。ステップ904において、プロセッサ112は、ラベル番号i_LBLをラベル・テーブル(図15)のラベル番号i_LBL=L_TBL(I,1)と設定する。   Referring to FIG. 20, processor 112 begins its processing at step 900. In step 902, the processor 112 sets the label order number I of the pixel group to an initial value I = 1. In step 904, the processor 112 sets the label number i_LBL as label number i_LBL = L_TBL (I, 1) in the label table (FIG. 15).

ステップ906において、プロセッサ112は、測定器の表示部の画像においてラベル番号L_TBL(I,1)の画素グループが表示枠(の画素グループ)の内側にあるかどうかを判定する。画素グループが表示枠の内側にないと判定された場合は、手順はステップ910に進む。画素グループが表示枠の内側にあると判定された場合は、ステップ908において、プロセッサ112は、そのラベル番号の対象パラメータL_TBL(I,11)をL_TBL(I,11)=“対象”と設定する。それによって、表示枠の内側にある認識対象または抽出対象となる数字を表す可能性のある画素グループが抽出される。   In step 906, the processor 112 determines whether or not the pixel group having the label number L_TBL (I, 1) is inside the display frame (its pixel group) in the image on the display unit of the measuring instrument. If it is determined that the pixel group is not inside the display frame, the procedure proceeds to step 910. If it is determined that the pixel group is inside the display frame, in step 908, the processor 112 sets the target parameter L_TBL (I, 11) of the label number as L_TBL (I, 11) = “target”. . Thereby, a pixel group that may represent a number to be recognized or extracted within the display frame is extracted.

ステップ910において、プロセッサ112は、画素グループのラベル順序番号Iを1だけ増分する(I=I+1)。ステップ912において、プロセッサ112は、ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいかどうかを判定する。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きくないと判定された場合は、手順はステップ904に戻る。ラベル順序番号Iがラベル数It(最大i_LBL−10)より大きいと判定された場合は、手順は図20のルーチンを出る。それによって、全ての画素グループについて、認識対象または抽出対象となる数字を表す可能性のある画素グループであるかどうかが決定される。   In step 910, the processor 112 increments the label order number I of the pixel group by 1 (I = I + 1). In step 912, the processor 112 determines whether or not the label sequence number I is greater than the label number It (maximum label number i_LBL-10). If it is determined that the label order number I is not greater than the label number It (maximum label number i_LBL-10), the procedure returns to step 904. If it is determined that the label sequence number I is greater than the label number It (maximum i_LBL-10), the procedure exits the routine of FIG. Thereby, it is determined whether all the pixel groups are pixel groups that may represent numbers to be recognized or extracted.

図21Aおよび21Bは、図11のステップ514における、隣接関係にある画素グループを結合する処理のためのフローチャートの例を示している。   21A and 21B show an example of a flowchart for the process of combining adjacent pixel groups in step 514 of FIG.

図21Aを参照すると、プロセッサ112は、ステップ950においてその処理を開始する。ステップ952において、プロセッサ112は、画素グループのラベル順序番号Iを初期値I=1と設定する。ステップ954において、プロセッサ112は、ラベル・テーブル(図15)においてラベル順序番号Iのラベル番号i_LBLの画素グループの対象パラメータL_TBL(I,11)が“対象”であるかどうかを判定する。その画素グループが“対象”でないと判定された場合は、手順はステップ974に進む。その画素グループが“対象”であると判定された場合は、ステップ958において、プロセッサ112は、別のラベル順序番号J=I+1を設定する。   Referring to FIG. 21A, processor 112 begins its processing at step 950. In step 952, the processor 112 sets the label order number I of the pixel group to an initial value I = 1. In step 954, the processor 112 determines whether or not the target parameter L_TBL (I, 11) of the pixel group of the label number i_LBL of the label sequence number I is “target” in the label table (FIG. 15). If it is determined that the pixel group is not “target”, the procedure proceeds to step 974. If it is determined that the pixel group is “target”, in step 958, the processor 112 sets another label order number J = I + 1.

ステップ958において、プロセッサ112は、ラベル順序番号Iのラベル番号i_LBLの画素グループの対象パラメータL_TBL(J,11)が“対象”であるかどうかを判定する。その画素グループが“対象”でないと判定された場合は、手順はステップ970に進む。その画素グループが“対象”であると判定された場合は、ステップ960において、プロセッサ112は、2つのラベル順序番号I、Jのラベル番号i_LBLの対象パラメータL_TBL(I,11)とL_TBL(J,11)の画素グループの外接矩形(例えば図7Dの破線)が位置的に部分的に重なるかどうかを判定する。   In step 958, the processor 112 determines whether or not the target parameter L_TBL (J, 11) of the pixel group of the label number i_LBL of the label order number I is “target”. If it is determined that the pixel group is not “target”, the procedure proceeds to step 970. If it is determined that the pixel group is “target”, in step 960, the processor 112 determines the target parameters L_TBL (I, 11) and L_TBL (J, J) of the label numbers i_LBL of the two label order numbers I and J. It is determined whether or not a circumscribed rectangle (for example, a broken line in FIG. 7D) of the pixel group 11) partially overlaps.

図22Aは、2つの画素グループの外接矩形が位置的に部分的に重なる例を示している。   FIG. 22A shows an example in which circumscribed rectangles of two pixel groups partially overlap each other.

それらが重なると判定された場合は、手順はステップ966に進む。それらが重ならないと判定された場合は、ステップ962において、プロセッサ112は、2つの画素グループの各々を複数の領域のブロックに分割し、2つのグループの各ブロックのうち互いに最も近いブロックの組合せを選択する。   If it is determined that they overlap, the procedure proceeds to step 966. If it is determined that they do not overlap, in step 962, the processor 112 divides each of the two pixel groups into blocks of a plurality of regions, and selects the combination of the blocks closest to each other in each of the blocks of the two groups. select.

図22Bは、隣接する2つの画素グループの各々を3つの領域のブロックに分割する例を示している。   FIG. 22B shows an example in which each of two adjacent pixel groups is divided into blocks of three regions.

ステップ964において、プロセッサ112は、その組合せの2つの画素ブロックの間の距離が閾値より小さいかどうかを判定する。その距離が閾値より小さいと判定された場合は、手順はステップ970へ進む。その距離が閾値より小さくないと判定された場合は、手順はステップ966に進む。2つの画素グループの各々を複数の領域のブロックに分割してそれぞれの距離を比較することによって、一方の画素グループの全ての画素と他方の画素グループの全ての画素との間の各距離を閾値と比較する必要がなくなり、処理負荷が小さくなり、処理が高速化できる。   In step 964, the processor 112 determines whether the distance between the two pixel blocks of the combination is less than a threshold. If it is determined that the distance is smaller than the threshold, the procedure proceeds to step 970. If it is determined that the distance is not less than the threshold, the procedure proceeds to step 966. By dividing each of the two pixel groups into blocks of a plurality of regions and comparing the respective distances, each distance between all the pixels of one pixel group and all the pixels of the other pixel group is a threshold value. And the processing load is reduced, and the processing can be speeded up.

ステップ966において、プロセッサ112は、その組合せの2つの画素グループを、1つの数字を表す可能性のある同じ結合関係にある画素グループとして結合する。そのために、2つの画素グループのラベル番号i_LBLのラベル結合パラメータi_LBL(I,12)に、1つの画素グループのラベル番号または同じ結合関係にある他の画素グループの最も小さいラベル番号i_LBLを付与する。その後、手順は図21Bのステップ970へ進む。   At step 966, processor 112 combines the two pixel groups of the combination as pixel groups in the same combined relationship that may represent a single number. For this purpose, the label combination parameter i_LBL (I, 12) of the label number i_LBL of two pixel groups is assigned the label number of one pixel group or the smallest label number i_LBL of another pixel group having the same connection relationship. Thereafter, the procedure proceeds to Step 970 in FIG. 21B.

図21Bのステップ970において、プロセッサ112は、他方の画素グループのラベル順序番号Jを1だけ増分する(J=J+1)。ステップ972において、プロセッサ112は、ラベル順序番号Jがラベル数It(最大ラベル番号i_LBL−10)より大きいかどうかを判定する。ラベル順序番号Jがラベル数It(最大ラベル番号i_LBL−10)より大きくないと判定された場合、手順はステップ958に戻る。ラベル順序番号Jがラベル数It(最大ラベル番号i_LBL−10)より大きいと判定された場合は、ステップ974において、プロセッサ112は、一方の画素グループのラベル順序番号Iを1だけ増分する(I=I+1)。ステップ976において、プロセッサ112は、ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいかどうかを判定する。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きくないと判定された場合、手順はステップ954に戻る。ラベル順序番号Iがラベル数It(最大ラベル番号i_LBL−10)より大きいと判定された場合は、手順は図22Aおよび22Bのルーチンを出る。   In step 970 of FIG. 21B, the processor 112 increments the label order number J of the other pixel group by 1 (J = J + 1). In step 972, the processor 112 determines whether or not the label sequence number J is larger than the label number It (maximum label number i_LBL-10). If it is determined that the label sequence number J is not greater than the label number It (maximum label number i_LBL-10), the procedure returns to step 958. If it is determined that the label sequence number J is larger than the label number It (maximum label number i_LBL-10), in step 974, the processor 112 increments the label sequence number I of one pixel group by 1 (I = I + 1). In step 976, the processor 112 determines whether or not the label sequence number I is larger than the label number It (maximum label number i_LBL-10). If it is determined that the label order number I is not greater than the label number It (maximum label number i_LBL-10), the procedure returns to step 954. If it is determined that the label sequence number I is greater than the label number It (maximum label number i_LBL-10), the procedure exits the routine of FIGS. 22A and 22B.

図23は、図11のステップ516における、画像の傾きを補正する処理のためのフローチャートの例を示している。
図24Aおよび24Bは、画像の傾きの補正の例を示している。
FIG. 23 shows an example of a flowchart for the process of correcting the tilt of the image in step 516 of FIG.
24A and 24B show examples of correction of image tilt.

図23を参照すると、プロセッサ112は、ステップ1100においてその処理を開始する。ステップ1102において、プロセッサ112は、画素グループの外接矩形の右辺(図24)または左辺から水平方向の最も近い画素グループの画素までの距離から、画像の傾きθ(tanθまたはcotθ)を求める。   Referring to FIG. 23, processor 112 starts its processing at step 1100. In step 1102, the processor 112 calculates an image inclination θ (tan θ or cot θ) from the distance from the right side (FIG. 24) or the left side of the circumscribed rectangle of the pixel group to the pixel of the pixel group closest in the horizontal direction.

ステップ1104において、プロセッサ112は、傾きθがあるかどうか(=0°)かどうかを判定する。傾きがない(θ=0°)と判定された場合は、手順は図23Aのルーチンを出る。傾きがある(θ≠0°)と判定された場合は、ステップ1106において、プロセッサ112は、画像における各画素グループの画素を傾き分(−θ)だけ水平方向に移動させて、傾きθを補正する。その後、手順は図23のルーチンを出る。
それによって、図24Aおよび24Bに示されているように、傾きθを有する図24Aの画像が、図24Bの傾きのない画像に補正される。
In step 1104, the processor 112 determines whether or not there is an inclination θ (= 0 °). If it is determined that there is no inclination (θ = 0 °), the procedure exits the routine of FIG. 23A. If it is determined that there is an inclination (θ ≠ 0 °), in step 1106, the processor 112 corrects the inclination θ by moving the pixels of each pixel group in the image in the horizontal direction by the inclination (−θ). To do. Thereafter, the procedure exits the routine of FIG.
Accordingly, as shown in FIGS. 24A and 24B, the image of FIG. 24A having the inclination θ is corrected to the image having no inclination of FIG. 24B.

図25は、図11のステップ518における、認識された数字の列または数値情報を抽出する処理のためのフローチャートの例を示している。   FIG. 25 shows an example of a flowchart for the process of extracting the recognized number sequence or numerical information in step 518 of FIG.

図25を参照すると、プロセッサ112は、ステップ1150においてその処理を開始する。ステップ1152において、プロセッサ112は、ラベル・テーブル(図15)において、数字を表す可能性のある結合された画素グループの組の外接矩形(図7C、8Cの破線)の縦と横の長さの比を求め、縦と横の比が閾値(例えば、7:1または7/1)より大きいかどうかを判定する。縦と横の比が閾値より大きいと判定された場合は、ステップ1154において、プロセッサ112は、ラベル・テーブルにおいてその画素グループの組を数字“1”と判定する。その後、手順は図25のルーチンを出る。   Referring to FIG. 25, processor 112 starts its processing at step 1150. In step 1152, processor 112 determines the length and width of the bounding rectangle (dashed lines in FIGS. 7C and 8C) of the combined pixel group set that may represent a number in the label table (FIG. 15). A ratio is determined and it is determined whether the vertical to horizontal ratio is greater than a threshold (eg, 7: 1 or 7/1). If it is determined that the ratio of length to width is greater than the threshold value, in step 1154, the processor 112 determines that the set of pixel groups is the number “1” in the label table. Thereafter, the procedure exits the routine of FIG.

ステップ1152において縦と横の比が閾値より大きくないと判定された場合は、ステップ1156において、プロセッサ112は、結合された画素グループの組をその外接矩形(図7C、8Cの破線)に基づいて縦と横方向に複数の領域の画素ブロック(例えば、7×4個のブロック)に分割し、各画素ブロックにおいてラベル番号を有する画素数を求める。   If it is determined in step 1152 that the aspect ratio is not greater than the threshold value, in step 1156, the processor 112 determines the combined pixel group set based on its circumscribed rectangle (dashed lines in FIGS. 7C and 8C). The pixel block is divided into a plurality of pixel blocks (for example, 7 × 4 blocks) in the vertical and horizontal directions, and the number of pixels having a label number in each pixel block is obtained.

ステップ1162において、プロセッサ112は、画像における各位置の画素ブロックにおける画素(暗)数の割合または占有率(%)を、数字“0” 、“2”〜“9”を表すパターンの各位置のブロックにおける値1(暗)の割合または占有率(%)と比較する。数字“0” 、“2”〜“9”を表すパターンの各位置のブロックにおける値1(暗)の割合または占有率(%)は、メモリ114またはハードディスク・ドライブ130に予め格納されている。プロセッサ112は、画像の画素ブロックのパターンが、予め格納された各数字のブロックのパターンと許容誤差の範囲内で一致するかどうかを判定する。画像の画素ブロックのパターンが数字“0” 、“2”〜“9”のいずれかのブロックのパターンと許容誤差の範囲内で一致すると判定された場合は、ステップ1166において、プロセッサ112は、その画素グループの組を数字“0” 、“2”〜“9”のいずれかと判定する。ステップ1162において画像の画素ブロックのパターンが各数字のブロックのパターンと一致しないと判定された場合は、ステップ1164において、プロセッサ112は、認識結果を、測定値を表す数字ではないと判定する。プロセッサ112は、ラベル・テーブル(図15)において、画素グループの組に対して、認識された結果の数字を格納する。例えば、小数点“.”、単位“℃”、“mmHg”、数字以外の文字および記号、小さい数字、等、を表す画素グループは、測定値を表す数字ではないと判定されてもよい。その後、手順は図25のルーチンを出る。   In step 1162, the processor 112 calculates the ratio (%) of the number of pixels (dark) in the pixel block at each position in the image or the occupancy ratio (%) at each position of the pattern representing the numbers “0” and “2” to “9”. Compare with the percentage or occupancy (%) of the value 1 (dark) in the block. The ratio or occupancy (%) of the value 1 (dark) in the block at each position of the pattern representing the numbers “0”, “2” to “9” is stored in the memory 114 or the hard disk drive 130 in advance. The processor 112 determines whether or not the pattern of the pixel block of the image matches the pattern of each numerical block stored in advance within the allowable error range. If it is determined that the pixel block pattern of the image matches the pattern of any of the numbers “0” and “2” to “9” within the allowable error range, the processor 112 determines in step 1166 that The group of pixel groups is determined as one of the numbers “0” and “2” to “9”. If it is determined in step 1162 that the pattern of the pixel block of the image does not match the pattern of each numerical block, in step 1164, the processor 112 determines that the recognition result is not a number representing the measurement value. The processor 112 stores the recognized number of results for the set of pixel groups in the label table (FIG. 15). For example, a pixel group representing a decimal point “.”, Units “° C.”, “mmHg”, characters and symbols other than numbers, small numbers, etc. may be determined not to be a number representing a measurement value. Thereafter, the procedure exits the routine of FIG.

このようにして、簡易な数字認識のための処理形態で、測定器の表示部の画像から、測定値を表す個々の数字が抽出される。   In this way, individual numbers representing the measured values are extracted from the image on the display unit of the measuring instrument in a processing form for simple number recognition.

図25のフローチャートは、同じラベル結合番号が付与された画素グループの組(各数字)について実行され、それによって、各数字を表す文字が認識されて抽出される。   The flowchart of FIG. 25 is executed for a set of pixel groups (each number) to which the same label combination number is assigned, whereby characters representing each number are recognized and extracted.

図26は、図11のステップ520における、使用した測定器の表示部に固有の特徴またはパラメータを抽出する処理のためのフローチャートの例を示している。   FIG. 26 shows an example of a flowchart for the process of extracting features or parameters specific to the display unit of the used measuring instrument in step 520 of FIG.

図26を参照すると、プロセッサ112は、ステップ1200においてその処理を開始する。ステップ1202において、プロセッサ112は、各数字を表すものとして認識された結合関係にある画素グループの組(各数字)の外接矩形(図7C、8Cの破線)の縦と横の長さの最大値を求め、その平均値を数字の横幅Wcと縦の高さHcとして求める。プロセッサ112は、数字の横幅Wcと縦の高さHcをメモリ114またはハードディスク・ドライブ130に格納する。   Referring to FIG. 26, processor 112 starts its processing at step 1200. In step 1202, the processor 112 determines the maximum vertical and horizontal lengths of the circumscribed rectangles (broken lines in FIGS. 7C and 8C) of the pixel group set (each number) in the connected relationship recognized as representing each number. And the average value is obtained as the horizontal width Wc and the vertical height Hc. The processor 112 stores the numeric width Wc and the vertical height Hc in the memory 114 or the hard disk drive 130.

ステップ1204において、プロセッサ112は、数字の画素グループの数字(文字)の太さTcを求める。そのために、プロセッサ112は、各画素グループをxおよび/またはy方向に走査し、黒の画像の連続画素の数が閾値の以下でかつ最も長い距離を数字(文字)の太さとして求め、その平均値を数字の太さTcとして決定してもよい。その閾値は、例えば、数字の横幅Wcに1/3を乗じた値Wc/3であってもよい。プロセッサ112は、数字の太さTcをメモリ114またはハードディスク・ドライブ130に格納する。   In step 1204, the processor 112 obtains the thickness Tc of the number (character) of the number pixel group. For this purpose, the processor 112 scans each pixel group in the x and / or y direction, obtains the longest distance in which the number of consecutive pixels of the black image is equal to or less than the threshold value, and the thickness of the number (character). You may determine an average value as thickness Tc of a number. The threshold value may be, for example, a value Wc / 3 obtained by multiplying a horizontal width Wc of a number by 1/3. The processor 112 stores the thickness Tc of the number in the memory 114 or the hard disk drive 130.

ステップ1206において、プロセッサ112は、数字として認識された組(即ち数字)の画素グループから文字の間隔Pcと文字の行間隔Plを求める。そのために、プロセッサ112は、隣接の数字の画素グループの組の外接矩形(例えば、右辺)の間のx方向の間隔(ピッチ)を文字間隔として求め、その平均値を隣接の数字間の文字間隔Pcとして決定してもよい。プロセッサ112は、隣接する2つの数字の間の間隔が、他の隣接の数字の間隔の平均より閾値(例えば、2倍、2Pc)以上離れている場合は、それらを互いに異なる測定項目の数字と判定し、文字間隔の平均値Pcを求めるのに使用しないようにしてもよい。また、プロセッサ112は、隣接する数字の高さの中心座標yの平均値をy方向の行位置として求め、垂直方向の隣接する2つの行位置の間の距離の平均値をその2つの行の間の行間隔Plとして決定してもよい。プロセッサ112は、さらに、隣接の数字の平均の文字間隔Pcを基準(=1.0)として、他のパラメータ、例えば、数字の文字の横と縦の長さ、行の間隔、数字の太さ、等の寸法を正規化してもよい。プロセッサ112は、文字間隔Pcおよび行間隔Plをメモリ114またはハードディスク・ドライブ130に格納する。   In step 1206, the processor 112 obtains the character interval Pc and the character line interval Pl from the pixel group of the set recognized as a number (ie, a number). For this purpose, the processor 112 obtains the interval (pitch) in the x direction between the circumscribed rectangles (for example, the right side) of a set of pixel groups of adjacent numbers as the character interval, and calculates the average value as the character interval between adjacent numbers. It may be determined as Pc. When the interval between two adjacent numbers is more than a threshold (for example, 2 times, 2Pc) more than the average of the intervals between other adjacent numbers, the processor 112 determines that the numbers are different from each other. It may be determined so that it is not used for obtaining the average value Pc of the character spacing. In addition, the processor 112 obtains the average value of the center coordinates y of the heights of adjacent numbers as the row position in the y direction, and calculates the average value of the distances between the two adjacent row positions in the vertical direction of the two rows. You may determine as the space | interval P1 between. The processor 112 further uses the average character spacing Pc of adjacent numbers as a reference (= 1.0) to set other parameters such as the horizontal and vertical lengths of the numerical characters, the line spacing, and the thickness of the numbers. , Etc. may be normalized. The processor 112 stores the character spacing Pc and the line spacing Pl in the memory 114 or the hard disk drive 130.

ステップ1208において、プロセッサ112は、数字の文字間隔Pcと、数字の垂直方向の行間隔Plとから、複数の数字を項目別に分けてグループ化する。1行の数字の文字間隔Pcが閾値(例えば、2倍の文字間隔2Pc)以下の場合は、プロセッサ112は、その数字を1つの測定項目にグループ化する。一方、1行における隣接する2つの数字の文字間隔Pcが閾値より大きい場合は、プロセッサ112は、その2つの数字を、その間隔によって識別される異なる測定項目に分離しグループ化する。プロセッサ112は、さらに、異なる行の数字を、行毎の異なる測定項目にグループ化する。このようにして、各測定項目の数値を表す桁数と数値を有する数字の列(数値情報)が決定される。この場合、数字以外の文字、記号、小数点、等は、無視されて処理の対象外とされてもよい。プロセッサ112は、その決定された項目別の数字の列(数値情報)をメモリ114またはハードディスク・ドライブ130に格納する。   In step 1208, the processor 112 divides a plurality of numbers into items and groups them from the character spacing Pc of the numbers and the line spacing Pl in the vertical direction of the numbers. When the character spacing Pc of the numbers in one line is less than or equal to a threshold (for example, double character spacing 2Pc), the processor 112 groups the numbers into one measurement item. On the other hand, when the character interval Pc between two adjacent numbers in one line is larger than the threshold value, the processor 112 separates and groups the two numbers into different measurement items identified by the interval. The processor 112 further groups the numbers in different rows into different measurement items for each row. In this way, the number of digits representing the numerical value of each measurement item and the numerical string (numerical value information) having the numerical value are determined. In this case, characters, symbols, decimal points, etc. other than numbers may be ignored and excluded from processing. The processor 112 stores a string of numerical values (numerical information) for each determined item in the memory 114 or the hard disk drive 130.

ステップ1210において、プロセッサ112は、平均の文字間隔Pc(=1.0)を基準にして、表示領域または表示枠(404、414、424、434)の縦と横の長さ(Hd,Wd)を正規化して(Hd/Pc,Wd/Pc)、正規化された表示領域の寸法形状(Hd,Wd)を決定する。代替形態として、文字間隔Pcの代わりに、平均の文字の高さHcを基準として、表示領域または表示枠の縦横の寸法形状(Hd,Wd)を正規化してもよい。プロセッサ112は、その決定された表示領域の寸法形状(Hd,Wd)をメモリ114またはハードディスク・ドライブ130に格納する。   In step 1210, the processor 112 determines the vertical and horizontal lengths (Hd, Wd) of the display area or display frame (404, 414, 424, 434) based on the average character spacing Pc (= 1.0). Is normalized (Hd / Pc, Wd / Pc), and the dimension and shape (Hd, Wd) of the normalized display area are determined. As an alternative, the vertical and horizontal dimension shapes (Hd, Wd) of the display area or display frame may be normalized based on the average character height Hc instead of the character spacing Pc. The processor 112 stores the determined size (Hd, Wd) of the display area in the memory 114 or the hard disk drive 130.

図27は、図11のステップ522における、抽出された表示部の特徴に対応する測定項目と、抽出された数字列によって表される測定値とを決定する処理のためのフローチャートの例を示している。   FIG. 27 shows an example of a flowchart for the process of determining the measurement item corresponding to the extracted feature of the display unit and the measurement value represented by the extracted number string in step 522 of FIG. Yes.

図27を参照すると、プロセッサ112は、ステップ1250においてその処理を開始する。ステップ1252において、プロセッサ112は、測定器のリスト(図5)を参照して、抽出された表示部の特徴に類似するリスト中の表示部の特徴を選択する。そのために、プロセッサ112は、画像の表示部の特徴として、表示領域(表示枠)の寸法形状(Hd,Wd)、文字のサイズ(高さHc)、文字間隔(Pc)および文字の太さを、測定器のリスト(図5)における使用される各測定器の順序番号(No.1、4、7)のものと比較する。プロセッサ112は、抽出された表示部の寸法形状的な特徴に類似するまたはそれに近いリスト中の表示部の特徴またはそれに対応する測定器の順序番号を選択する。   Referring to FIG. 27, processor 112 starts its processing at step 1250. In step 1252, the processor 112 refers to the list of instruments (FIG. 5) and selects a display feature in the list that is similar to the extracted display feature. For this purpose, the processor 112 sets the display area (display frame) size and shape (Hd, Wd), character size (height Hc), character spacing (Pc), and character thickness as characteristics of the image display unit. Compared with the order number (No. 1, 4, 7) of each measuring instrument used in the measuring instrument list (FIG. 5). The processor 112 selects a display feature or a corresponding instrument sequence number in the list that is similar to or close to the dimensional feature of the extracted display.

ステップ1254において、プロセッサ112は、測定器のリストにおいて選択された測定器の表示部の特徴または順序番号に対応する測定器種別をリスト中から決定または選択する。プロセッサ112は、その決定された測定器種別をメモリ114またはハードディスク・ドライブ130に格納する。   At step 1254, the processor 112 determines or selects a meter type from the list that corresponds to the display feature or sequence number of the meter selected in the meter list. The processor 112 stores the determined instrument type in the memory 114 or the hard disk drive 130.

ステップ1256において、プロセッサ112は、測定器のリストにおいてその選択された測定器種別に対応する測定項目を決定する。選択された測定器種別に対応する1つの測定項目だけが存在する場合は、測定器種別の選択によって測定項目が一意的に決定される。測定器種別に対応する2つ以上の測定項目が存在する場合は、可能性ある2つ以上の測定項目が仮に決定される。   In step 1256, the processor 112 determines a measurement item corresponding to the selected measurement device type in the measurement device list. When only one measurement item corresponding to the selected measuring instrument type exists, the measuring item is uniquely determined by selecting the measuring instrument type. If there are two or more measurement items corresponding to the measuring device type, two or more possible measurement items are temporarily determined.

ステップ1258において、プロセッサ112は、測定項目のリスト(図6)を参照して、決定された測定項目に基づいて、抽出された数字列(数値情報)によって表される測定値を決定する。そのために、プロセッサ112は、数字列によって表される測定値(データ)を、その決定された測定項目のデータ形式に基づいて決定する。例えば、数字列(数値情報)が“370”であり、測定項目が体温である場合には、両者が3桁の数字であり、下位第1桁と第2桁の間に小数点があるので、測定値は“37.0”または“37.0℃”と決定される。   In step 1258, the processor 112 refers to the list of measurement items (FIG. 6) and determines the measurement value represented by the extracted number string (numerical information) based on the determined measurement item. For this purpose, the processor 112 determines the measurement value (data) represented by the numeric string based on the data format of the determined measurement item. For example, when the numeric string (numerical information) is “370” and the measurement item is body temperature, both are three-digit numbers, and there is a decimal point between the first and second digits. The measured value is determined as “37.0” or “37.0 ° C.”.

測定器種別に対応する2つ以上の測定項目が存在する場合は、次のように処理してもよい。プロセッサ112は、画像における数字列(数値情報)の桁数、数値の大きさ、項目の出現順序を、測定項目のリスト(図6)における各測定項目のデータ形式(桁数)、出現順序、および任意に数値の許容範囲(図示せず)を参照しまたはこれらと比較してもよい。それによって、プロセッサ112は、数字列によって表される測定項目およびその測定値(データ)を決定する。その比較において、小数点は無視してもよい。プロセッサ112は、さらに、決定された測定項目に基づいて、測定項目のリスト(図6)を参照して、数字列によって表される小数点を含む数値および単位を測定値として決定する。また、プロセッサ112は、画像から抽出された2つ以上の数字列を、互いに比較し、測定項目のリスト中の各測定項目のデータ形式(桁数)、出現順序、および任意に数値の許容範囲を参照してまたはこれらと比較してもよい。それによって、プロセッサ112は、各数字列(数値情報)によって表される測定項目およびその測定値(データ)を決定しもよい。   When there are two or more measurement items corresponding to the measuring instrument type, the following processing may be performed. The processor 112 determines the number of digits of the numeric string (numerical information), the size of the numeric value, and the appearance order of the items in the image, the data format (number of digits) of each measurement item in the measurement item list (FIG. 6), the appearance order, And optionally refer to or compare numerical tolerances (not shown). Thereby, the processor 112 determines the measurement item represented by the numeric string and its measurement value (data). In the comparison, the decimal point may be ignored. Further, the processor 112 refers to the list of measurement items (FIG. 6) based on the determined measurement item, and determines a numerical value and a unit including a decimal point represented by a numeric string as a measurement value. In addition, the processor 112 compares two or more numeric strings extracted from the image with each other, and the data format (number of digits) of each measurement item in the measurement item list, the appearance order, and optionally a numerical tolerance Or may be compared with these. Thereby, the processor 112 may determine the measurement item represented by each numeric string (numerical information) and the measurement value (data).

例えば、プロセッサ112は、画像から抽出された血圧に関する2組の数字列(数値情報)を比較して、大きい値の数字の列(数値情報)を最高血圧を表すものと決定し、小さい値の数字の列(数値情報)を最低血圧を表すものと決定してもよい。例えば、プロセッサ112は、画像から抽出された血圧と脈拍数に関する3組の数字の列(数値情報)を、測定器のリスト(図5)および測定項目のリスト(図6)と比較して、画像中の順におよびリスト中の出現順に最高血圧、最低血圧、脈拍を表すものと決定してもよい。   For example, the processor 112 compares two sets of numeric sequences (numerical information) related to blood pressure extracted from the image, determines that a sequence of numeric values (numerical information) with a large value represents the systolic blood pressure, A string of numbers (numerical information) may be determined to represent the minimum blood pressure. For example, the processor 112 compares three sets of numbers (numerical information) related to blood pressure and pulse rate extracted from an image with a list of measurement devices (FIG. 5) and a list of measurement items (FIG. 6). It may be determined that the highest blood pressure, the lowest blood pressure, and the pulse are expressed in the order in the image and in the order of appearance in the list.

例えば、画像から抽出された数字列“65”について、測定項目“最高血圧”と“最低血圧”が選択され、画像中の出現順序が2番目であり、別の数字列“120”より小さいとする。一方、測定項目のリストにおいて、“最低血圧”が3桁の数字で、許容範囲が“40〜80”で、測定項目“最高血圧”の後に出現するとする。この場合、数字列“65”に対して、測定項目のリスト中の“最低血圧”が測定項目として選択され、測定値として“65”または“65mmHg”が決定される。   For example, for the numeric string “65” extracted from the image, the measurement items “maximum blood pressure” and “minimum blood pressure” are selected, the appearance order in the image is second, and smaller than another numeric string “120”. To do. On the other hand, in the list of measurement items, “minimum blood pressure” is a three-digit number, the allowable range is “40 to 80”, and it appears after the measurement item “maximum blood pressure”. In this case, for the numeric string “65”, “diastolic blood pressure” in the list of measurement items is selected as the measurement item, and “65” or “65 mmHg” is determined as the measurement value.

ステップ11258の後、手順は、ステップ1260進むか、またはステップ1262に進んでもよい。   After step 11258, the procedure may proceed to step 1260 or proceed to step 1262.

ステップ1260において、プロセッサ112は、さらに、今回の測定値(データ)の数値を、補助データとしての基準数値と比較して、今回の測定値の数値が基準数値の許容範囲内にあるかを判定して、決定した測定器種別および測定項目が妥当かどうかを判定してもよい。補助データとしての基準数値は、例えば、ユーザの個人データに近い年齢、性別等の一般的な測定項目(身体データ種別)の数値であっても、またはユーザ個人によって設定された数値であっても、またはユーザ個人の前回もしくは数回前以内の過去の測定値であってもよい。測定項目における数値の許容範囲は、例えば一般的な基準数値の±15%以内もしくは±特定の数値以内であっても、ユーザ個人の過去の測定値の±10%以内もしくは±特定の数値以内であってもよい。ユーザの過去の測定データは、メモリ114またはハードディスク・ドライブ130およびサーバ装置30に格納されている。例えば、測定項目が最高血圧の場合、その数値の許容範囲は、ユーザ個人の最高血圧120±12(割合10%)であってもよい。例えば、測定項目が体温の場合、その数値の許容範囲は、ユーザ個人の体温36.8の±2.5(特定の数値)であってもよい。   In step 1260, the processor 112 further compares the numerical value of the current measured value (data) with a reference numerical value as auxiliary data to determine whether the numerical value of the current measured value is within the allowable range of the reference numerical value. Thus, it may be determined whether the determined measuring instrument type and the measurement item are appropriate. The reference numerical value as auxiliary data may be a numerical value of a general measurement item (physical data type) such as age and gender close to the user's personal data, or a numerical value set by the user's individual Alternatively, it may be a past measurement value within the previous time or several times before the individual user. The allowable range of numerical values for measurement items is, for example, within ± 15% of general reference values or within ± specific values, but within ± 10% of user's past measured values or within ± specific values. There may be. The user's past measurement data is stored in the memory 114 or the hard disk drive 130 and the server device 30. For example, when the measurement item is systolic blood pressure, the permissible range of the numerical value may be the maximum blood pressure of the user 120 ± 12 (ratio 10%). For example, when the measurement item is body temperature, the allowable range of the numerical value may be ± 2.5 (specific numerical value) of the user's individual body temperature 36.8.

プロセッサ112は、測定値の数値が許容範囲にないと判定された場合、決定した測定器種別および項目名が妥当でないと判断してもよい。その場合、手順はステップ1256または1254に戻る。数値が許容範囲にないと判定された場合には、手順はステップ1256に戻って、プロセッサ112は、複数の測定項目の中から選択された表示部の特徴に対応する可能性のある別の測定項目を選択してもよい。それでもステップ1260において、再び、測定値の数値が基準数値の許容範囲にないと判定された場合には、手順はステップ1254に戻ってもよい。この場合、プロセッサ112は、ステップ1254において測定器のリストの中の表示部の特徴の中から、抽出された表示部の特徴に類似する別の表示部の特徴を決定し、ステップ1256においてそれに対応する測定項目を決定して、測定値を決定してもよい。このような上述の表示部の特徴の比較を繰り返して、測定器種別および測定項目がより妥当な別の測定器種別および測定項目が選択されるようにしてもよい。ステップ1260において、プロセッサ112は、1つの数字列に対してステップ1256を複数回実行することによって決定された各測定項目の測定値と各基準値との間の差に基づいて、より妥当な測定項目および測定値を決定してもよい。   When it is determined that the numerical value of the measurement value is not within the allowable range, the processor 112 may determine that the determined measurement device type and item name are not valid. In that case, the procedure returns to step 1256 or 1254. If it is determined that the numerical value is not within the allowable range, the procedure returns to step 1256, and the processor 112 determines another measurement that may correspond to the display characteristic selected from the plurality of measurement items. An item may be selected. Nevertheless, if it is determined again in step 1260 that the measured value is not within the allowable range of the reference value, the procedure may return to step 1254. In this case, the processor 112 determines another display feature similar to the extracted display feature from the display features in the list of instruments in step 1254 and corresponds to it in step 1256. The measurement value to be measured may be determined to determine the measurement value. Such comparison of the characteristics of the display unit described above may be repeated to select another measurement device type and measurement item that are more appropriate for the measurement device type and measurement item. In step 1260, processor 112 determines a more reasonable measurement based on the difference between the measured value of each measurement item and each reference value determined by performing step 1256 multiple times for a single digit string. Items and measurements may be determined.

このようにして、ユーザの入力操作なしで、かつ高機能および高精度の文字認識技術を用いることなく、画像から抽出された数字の列(数値情報)からその数字の列によって表される測定項目および測定値が決定される。   In this way, a measurement item represented by a string of numbers from a string of numbers (numerical information) extracted from an image without a user input operation and without using high-performance and high-precision character recognition technology And the measured value is determined.

ステップ1262において、プロセッサ112は、画像データに含まれる撮影日時を取得して測定日時として決定し、決定された測定器種別と測定項目に対応付けて測定値をその測定日時の情報とともに、メモリ114またはハードディスク・ドライブ130に格納する。   In step 1262, the processor 112 acquires the shooting date / time included in the image data and determines it as the measurement date / time, and associates the measured value with the information of the measurement date / time in association with the determined measuring instrument type and measurement item in the memory 114. Alternatively, it is stored in the hard disk drive 130.

ステップ1264において、プロセッサ112は、決定された測定器種別、測定日時、測定項目(身体データ種別)および測定値を、測定日時情報および撮像画像とともに、表示装置122に表示して(図28、29)、ユーザに測定項目と測定値を確認させる。   In step 1264, the processor 112 displays the determined measuring instrument type, measurement date / time, measurement item (body data type) and measurement value on the display device 122 together with the measurement date / time information and the captured image (FIGS. 28 and 29). ), Let the user check the measurement items and measurement values.

図28Aは、表示部122上の測定項目(体温)と測定値の表示1310の例を示している。図28Bは、表示部122上の測定項目(体重)と測定値の表示1320の別の例を示している。   FIG. 28A shows an example of a measurement item (body temperature) and measurement value display 1310 on the display unit 122. FIG. 28B shows another example of the measurement item (weight) on the display unit 122 and the measurement value display 1320.

ユーザは、表示された内容が正しければ、入力部126における確認用のキーを操作して、測定項目と測定値を測定データとして決定する。ユーザは、その測定項目と測定値に誤りがあれば、入力部126を操作して修正することができ、その修正された測定項目と測定値を確認して決定する。プロセッサ112は、ユーザの入力部126による操作に従って、測定器名、測定日時、測定データを決定しまたは修正する。プロセッサ112は、その決定された測定データを、メモリ114またはハードディスク・ドライブ130に今回の測定データとして格納する。   If the displayed content is correct, the user operates the confirmation key in the input unit 126 to determine the measurement item and the measurement value as measurement data. If there is an error in the measurement item and the measurement value, the user can correct the measurement item and measurement value by operating the input unit 126, and confirm and determine the corrected measurement item and measurement value. The processor 112 determines or corrects the measuring instrument name, the measurement date and time, and the measurement data according to the operation by the user input unit 126. The processor 112 stores the determined measurement data in the memory 114 or the hard disk drive 130 as current measurement data.

ユーザは、同じ身体データを測定するために異なる種別の測定器を使用することがある。そのような場合でも、プロセッサ112は、表示装置122に共通の測定項目と測定値を表示するだけでよく、それぞれの測定器名または測定器種別を区別して表示しなくてもよい。例えば、プロセッサ112は、体温計Aの測定値と体温計Bの測定値のいずれも、測定項目“体温”として表示すればよく、体温計Aと体温計Bを区別して表示しなくてよい。   A user may use different types of measuring instruments to measure the same physical data. Even in such a case, the processor 112 only needs to display the common measurement item and the measurement value on the display device 122, and does not need to distinguish and display each measurement instrument name or measurement instrument type. For example, the processor 112 may display both the measurement value of the thermometer A and the measurement value of the thermometer B as the measurement item “body temperature”, and does not need to display the thermometer A and the thermometer B separately.

図11のステップ524において、プロセッサ112は、ユーザの入力部126による操作に従って、ユーザの個人情報(識別情報、氏名、性別、年齢、等)とともに、測定器の名称、測定日時、測定項目名、測定値(測定データ)をサーバ装置30に送信する。   In step 524 of FIG. 11, the processor 112 follows the operation of the input unit 126 of the user, along with the user's personal information (identification information, name, gender, age, etc.), the name of the measuring instrument, the measurement date and time, the measurement item name, The measurement value (measurement data) is transmitted to the server device 30.

サーバ装置30のプロセッサ312は、受信したユーザの測定器の種別、測定日時、測定項目、測定値(測定データ)を記憶装置16のデータベース(DB)にして、履歴データまたは記録データとして管理する。データベースには、ユーザの個人情報、測定日時、測定項目(身体データ種別)、測定値が蓄積されて管理される。測定に使用された測定器種別は蓄積されても、蓄積されなくてもよい。   The processor 312 of the server device 30 manages the received user measurement device type, measurement date / time, measurement item, and measurement value (measurement data) as a database (DB) of the storage device 16 as history data or recorded data. The database stores and manages the user's personal information, measurement date and time, measurement items (physical data types), and measurement values. The measuring instrument type used for measurement may or may not be accumulated.

その後、サーバ装置30またはプロセッサ312は、情報処理端末100または携帯端末102からの要求に応答して、記憶装置16に格納された履歴データまたは記録データを送信する。その履歴データには、測定データの分析結果および/または助言に関する情報を付加してもよい。情報処理端末100または携帯端末102の(プロセッサ112)は、履歴データまたは記録データ等を受信する。   Thereafter, the server device 30 or the processor 312 transmits the history data or the recording data stored in the storage device 16 in response to a request from the information processing terminal 100 or the portable terminal 102. Information related to the analysis result and / or advice of the measurement data may be added to the historical data. The (processor 112) of the information processing terminal 100 or the portable terminal 102 receives history data or recorded data.

図29は、情報処理端末100または携帯端末102の表示部122に表示される測定データの履歴データの表示画面の例を示している。
情報処理端末100または携帯端末102の(プロセッサ112)は、受信した履歴データのファイルを図29に示されているようにその表示部122上に表示する。図29に示されているように、表示部122に測定項目に対応付けて各測定値が測定日時情報の順に表示される。さらに、前述したような付加情報が表示部122に表示されてもよい。
FIG. 29 shows an example of a display screen of history data of measurement data displayed on the display unit 122 of the information processing terminal 100 or the portable terminal 102.
The processor 112 of the information processing terminal 100 or the portable terminal 102 displays the received history data file on the display unit 122 as shown in FIG. As shown in FIG. 29, the measurement values are displayed in the order of the measurement date and time in association with the measurement items on the display unit 122. Further, the additional information as described above may be displayed on the display unit 122.

図11のフローチャートの少なくとも一部、例えばステップ502〜522の全てまたは一部は、サーバ装置30のプロセッサ312に実行させることもできる。この場合、メモリ114の代わりに記憶装置16が使用される。   At least a part of the flowchart of FIG. 11, for example, all or part of steps 502 to 522 may be executed by the processor 312 of the server device 30. In this case, the storage device 16 is used instead of the memory 114.

この場合、ステップ500において、プロセッサ312またはその処理部1144は、ユーザの操作に従って情報処理端末100または携帯端末102から、カメラ202または撮像部203によって撮影された測定器の表示部の画像を含む画像のデータを受信して記憶装置16のデータベース(DB)に格納する。   In this case, in step 500, the processor 312 or its processing unit 1144 includes an image of the display unit of the measuring instrument taken by the camera 202 or the imaging unit 203 from the information processing terminal 100 or the portable terminal 102 according to the user's operation. Is received and stored in the database (DB) of the storage device 16.

同様に、ステップ502は、プロセッサ312またはそのノイズ除去部1122によって実行される。ステップ504は、プロセッサ312またはその二値化部1124によって実行される。ステップ506は、プロセッサ312またはそのグループ化部1126によって実行される。ステップ508は、プロセッサ312またはその環状判定部1128によって実行される。ステップ510は、プロセッサ312または環状判定部1128によって実行される。ステップ512は、プロセッサ312またはそのグループ抽出部1130によって実行される。ステップ514は、プロセッサ312またはそのグループ結合部1132によって実行される。ステップ518は、プロセッサ312またはその数字抽出部1138によって実行される。ステップ520は、プロセッサ312または特徴抽出部1138によって実行される。   Similarly, step 502 is executed by the processor 312 or its noise removal unit 1122. Step 504 is executed by the processor 312 or its binarization unit 1124. Step 506 is executed by the processor 312 or its grouping unit 1126. Step 508 is executed by the processor 312 or its circular determination unit 1128. Step 510 is executed by the processor 312 or the annular determination unit 1128. Step 512 is executed by the processor 312 or its group extraction unit 1130. Step 514 is executed by the processor 312 or its group combiner 1132. Step 518 is executed by the processor 312 or its number extraction unit 1138. Step 520 is executed by the processor 312 or the feature extraction unit 1138.

ステップ522は、プロセッサ312またはその測定データ決定部1140によって実行される。ステップ522のステップ1264(図27)において、プロセッサ312またはその測定データ決定部1140は、測定項目および測定値を情報処理端末100または携帯端末102に送信して、その表示部122に表示させ、ユーザにそれを確認させ、誤っている場合には修正させる。ユーザは、情報処理端末100または携帯端末102上で確認された測定項目および測定値を測定データとして決定して、メモリ114またはハードディスク130に格納させ、その決定された測定データをサーバ装置30に送信する。   Step 522 is executed by the processor 312 or its measurement data determination unit 1140. In step 1264 of FIG. 522 (FIG. 27), the processor 312 or its measurement data determination unit 1140 transmits the measurement item and the measurement value to the information processing terminal 100 or the portable terminal 102 and causes the display unit 122 to display them. Let them check it and correct it if it is wrong. The user determines measurement items and measurement values confirmed on the information processing terminal 100 or the portable terminal 102 as measurement data, stores them in the memory 114 or the hard disk 130, and transmits the determined measurement data to the server device 30. To do.

ステップ524において、プロセッサ312または処理部1144は、受信したその決定された測定データとしての測定項目(身体データ種別)および測定値を、ユーザの個人情報および測定日時とともに、測定データを記憶装置16のデータベース(DB)に格納して履歴データまたは記録データとして管理する。   In step 524, the processor 312 or the processing unit 1144 sends the received measurement item (physical data type) and measurement value as the determined measurement data together with the user's personal information and measurement date and time to the measurement data in the storage device 16. It is stored in a database (DB) and managed as history data or recorded data.

上述の実施形態によれば、通信機能のないより多種類の測定器の測定データを捕捉してサーバ装置30に送信して、長い期間にわたる多種類の測定データを履歴データとしてサーバ装置30に管理させることができる。それによって、ユーザに関するより多くの測定項目の測定データに基づいて、サーバ装置30によってユーザの健康に関するより適切な分析を行い、より適した分析結果および助言を付加情報としてユーザに提示することができる。   According to the above-described embodiment, the measurement data of more types of measuring instruments having no communication function are captured and transmitted to the server device 30, and the various types of measurement data over a long period are managed by the server device 30 as history data. Can be made. Thereby, based on the measurement data of more measurement items related to the user, the server device 30 can perform a more appropriate analysis on the user's health and present more appropriate analysis results and advice to the user as additional information. .

ここで挙げた全ての例および条件的表現は、発明者が技術促進に貢献した発明および概念を読者が理解するのを助けるためのものであり、ここで具体的に挙げたそのような例および条件に限定することなく解釈され、また、明細書におけるそのような例の編成は本発明の優劣を示すこととは関係ない、と理解される。本発明の実施形態を詳細に説明したが、本発明の精神および範囲から逸脱することなく、それに対して種々の変更、置換および変形を施すことができる、と理解される。   All examples and conditional expressions given here are intended to help the reader understand the inventions and concepts that have contributed to the promotion of technology, such examples and It is understood that the present invention is not limited to the conditions, and that the organization of such examples in the specification is not related to the superiority or inferiority of the present invention. Although embodiments of the present invention have been described in detail, it will be understood that various changes, substitutions and variations can be made thereto without departing from the spirit and scope of the invention.

以上の実施例を含む実施形態に関して、さらに以下の付記を開示する。
(付記1) 情報処理装置が、
捕捉された画像データを記憶装置に格納させ
前記画像データから数値情報を抽出し
前記画像データから形状的特徴を抽出し
前記記憶装置に格納された、複数の身体データ測定器各々の表示部に関する複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する
処理を実行すること
を特徴とする画像データの処理方法。
(付記2) 前記情報処理装置が、前記記憶装置に格納された前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納する処理を実行することを特徴とする、付記1に記載の方法。
(付記3) 前記測定データを格納する際、前記測定データをさらに日時情報とともに格納することを特徴とする、付記1または2に記載の画像データの処理方法。
(付記4) 前記情報処理装置が、さらに、前記記憶装置に格納された該種別に対応付けられた該測定データを別の装置に送信する処理を実行することを特徴とする付記1乃至3のいずれかに記載の方法。
(付記5) 前記情報処理装置が、さらに、前記測定データを含む複数の測定データに関する履歴情報の要求に応答して、別の装置に送信された前記身体データ種別に対応付けられた前記測定データを前記別の装置から受信して、該複数の測定データを日時情報の順に表示装置に表示させる処理を実行すること、を特徴とする、付記2乃至4のいずれかに記載の方法。
(付記6) 決定された前記身体データ種別に基づいて前記数値情報によって表される前記測定データを決定する際に、前記数値情報が、身体データ種別によって表される値として許容範囲にあるかどうかを判定し、
前記数値情報が前記許容範囲にないと判定された場合には、選択された形状的特徴に対応する可能性のある別の身体データ種別を該身体データ種別として選択し、または、前記記憶装置に格納された前記複数の形状的特徴の中から、抽出された前記形状的特徴に類似する他の形状的特徴を決定し、該他の形状的特徴に基づいて該測定データを決定することを特徴とする、付記2または3に記載の方法。
(付記7) 捕捉された画像データを記憶装置に格納させ。
前記画像データから数値情報を抽出し。
前記画像データから形状的特徴を抽出し。
前記記憶装置に格納された、複数の身体データ測定器各々の表示部に関する複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する
処理を、情報処理装置に実行させるためのプログラム。
(付記8) 前記記憶装置に格納された前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納する処理を、前記情報処理装置に実行させるための付記7に記載のプログラム。
(付記9) さらに、前記測定データを含む複数の測定データに関する履歴情報の要求に応答して、別の装置に送信された前記身体データ種別に対応付けられた前記測定データを前記別の装置から受信して、該複数の測定データを日時情報の順に表示装置に表示させる処理を、前記情報処理装置に実行させるための、付記8に記載のプログラム。
(付記10) 複数の身体データ測定器の種別と、前記複数の測定器の種別にそれぞれ対応付けられた前記複数の身体データ測定器各々の表示部に関する複数の形状的特徴とを格納し、捕捉された画像データを格納する記憶部と、
前記画像データから数値情報を抽出する数字抽出部と、
前記画像データから形状的特徴を抽出する特徴抽出部と、
前記複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する処理部と、
を含むことを特徴とする、端末装置。
(付記11) 前記記憶部は、前記複数の形状的特徴にそれぞれ対応付けられた複数の身体データ種別を格納し、
前記処理部は、前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納すること、を特徴とする、付記10に記載の端末装置。
Regarding the embodiment including the above examples, the following additional notes are further disclosed.
(Appendix 1) Information processing device
Captured image data is stored in a storage device, numerical information is extracted from the image data, geometric features are extracted from the image data, and a plurality of display units of each of the plurality of physical data measuring instruments stored in the storage device A shape feature similar to the extracted shape feature is selected from among the shape features, and a type of body data measuring device corresponding to the selected shape feature is determined, and the determined type is A method of processing image data, comprising: determining measurement data represented by the numerical information based on the result, and storing the measurement data in the storage device in association with the determined type.
(Supplementary Note 2) The information processing apparatus selects and selects a geometric feature similar to the geometric feature extracted from the image data from the plurality of geometric features stored in the storage device. Body data type corresponding to the determined shape feature is determined, the measurement data represented by the numerical information is determined based on the determined body data type, and the measurement data is associated with the determined body data type The method according to appendix 1, wherein a process of storing data in the storage device is executed.
(Additional remark 3) When storing the said measurement data, the said measurement data are further stored with date information, The processing method of the image data of Additional remark 1 or 2 characterized by the above-mentioned.
(Additional remark 4) The said information processing apparatus further performs the process which transmits this measurement data matched with this classification stored in the said memory | storage device to another apparatus, Additional remark 1 thru | or 3 characterized by the above-mentioned The method according to any one.
(Additional remark 5) In response to the request | requirement of the historical information regarding the some measurement data in which the said information processing apparatus contains the said measurement data, the said measurement data matched with the said body data classification transmitted to another apparatus The method according to any one of appendices 2 to 4, further comprising: executing a process of receiving the plurality of measurement data on the display device in order of date and time information.
(Supplementary Note 6) When determining the measurement data represented by the numerical information based on the determined physical data type, whether the numerical information is within an allowable range as a value represented by the physical data type Determine
If it is determined that the numerical information is not within the allowable range, another physical data type that may correspond to the selected geometric feature is selected as the physical data type, or stored in the storage device Determining another geometric feature similar to the extracted geometric feature from the plurality of stored geometric features, and determining the measurement data based on the other geometric feature The method according to Supplementary Note 2 or 3.
(Supplementary note 7) The captured image data is stored in a storage device.
Numeric information is extracted from the image data.
Extract shape features from the image data.
A shape feature similar to the extracted shape feature is selected from the plurality of shape features stored in the storage device and related to the display unit of each of the plurality of physical data measuring instruments, and the selected shape feature is selected. The type of the physical data measuring device corresponding to the feature is determined, the measurement data represented by the numerical information is determined based on the determined type, and the measurement data is stored in association with the determined type Store in device
A program for causing an information processing apparatus to execute processing.
(Supplementary Note 8) A shape feature similar to the shape feature extracted from the image data is selected from the plurality of shape features stored in the storage device, and corresponds to the selected shape feature. Determining the physical data type to be determined, determining the measurement data represented by the numerical information based on the determined physical data type, and associating the measured data with the determined physical data type in the storage device The program according to appendix 7 for causing the information processing apparatus to execute a storing process.
(Additional remark 9) Furthermore, in response to the request | requirement of the historical information regarding the some measurement data containing the said measurement data, the said measurement data matched with the said body data classification transmitted to another apparatus are sent from said another apparatus. The program according to appendix 8, for causing the information processing apparatus to execute a process of receiving and displaying the plurality of measurement data on a display device in order of date and time information.
(Supplementary Note 10) Stores and captures a plurality of types of physical data measuring instruments and a plurality of geometric features related to the display units of the plurality of physical data measuring instruments respectively associated with the types of the plurality of measuring instruments A storage unit for storing the processed image data;
A number extraction unit for extracting numerical information from the image data;
A feature extraction unit for extracting shape features from the image data;
A shape feature similar to the extracted shape feature is selected from the plurality of shape features, a type of body data measuring device corresponding to the selected shape feature is determined, and the determined A processing unit that determines measurement data represented by the numerical information based on a type, and stores the measurement data in the storage device in association with the determined type;
The terminal device characterized by including.
(Supplementary Note 11) The storage unit stores a plurality of body data types respectively associated with the plurality of geometric features,
The processing unit selects a shape feature similar to the shape feature extracted from the image data from the plurality of shape features, and determines a body data type corresponding to the selected shape feature. And determining the measurement data represented by the numerical information based on the determined body data type, and storing the measurement data in the storage device in association with the determined body data type. The terminal device according to appendix 10.

5 ネットワーク
30 サーバ装置
312 データベース
312 プロセッサ
100 情報処理端末
102 携帯端末
112 プロセッサ
114 メモリ
130 ハードディスク・ドライブ
202 ディジタル・カメラ
203 撮像部
5 Network 30 Server Device 312 Database 312 Processor 100 Information Processing Terminal 102 Portable Terminal 112 Processor 114 Memory 130 Hard Disk Drive 202 Digital Camera 203 Imaging Unit

Claims (7)

情報処理装置が、
捕捉された画像データを記憶装置に格納させ、
前記画像データから数値情報を抽出し、
前記画像データから形状的特徴を抽出し、
前記記憶装置に格納された、複数の身体データ測定器各々の表示部に関する複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する
処理を実行すること
を特徴とする画像データの処理方法。
Information processing device
The captured image data is stored in a storage device,
Extracting numerical information from the image data;
Extracting shape features from the image data;
A shape feature similar to the extracted shape feature is selected from the plurality of shape features stored in the storage device and related to the display unit of each of the plurality of physical data measuring instruments, and the selected shape feature is selected. The type of the physical data measuring device corresponding to the feature is determined, the measurement data represented by the numerical information is determined based on the determined type, and the measurement data is stored in association with the determined type A method of processing image data, characterized by executing processing stored in an apparatus.
前記情報処理装置が、前記記憶装置に格納された前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納する処理を実行することを特徴とする、請求項1に記載の方法。   The information processing apparatus selects a geometric feature similar to the geometric feature extracted from the image data from the plurality of geometric features stored in the storage device, and the selected geometric feature Body data type corresponding to the physical data type is determined, the measurement data represented by the numerical information is determined based on the determined body data type, and the measurement data is stored in association with the determined body data type The method according to claim 1, wherein a process of storing in an apparatus is executed. 前記情報処理装置が、さらに、前記測定データを含む複数の測定データに関する履歴情報の要求に応答して、別の装置に送信された前記身体データ種別に対応付けられた前記測定データを前記別の装置から受信して、該複数の測定データを日時情報の順に表示装置に表示させる処理を実行すること、を特徴とする、請求項2に記載の方法。   In response to a request for history information regarding a plurality of measurement data including the measurement data, the information processing apparatus further transmits the measurement data associated with the physical data type transmitted to another device to the other measurement data. The method according to claim 2, wherein a process of receiving the plurality of measurement data on the display device in order of date and time information is received from the device. 捕捉された画像データを記憶装置に格納させ、
前記画像データから数値情報を抽出し、
前記画像データから形状的特徴を抽出し、
前記記憶装置に格納された、複数の身体データ測定器各々の表示部に関する複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する
処理を、情報処理装置に実行させるためのプログラム。
The captured image data is stored in a storage device,
Extracting numerical information from the image data;
Extracting shape features from the image data;
A shape feature similar to the extracted shape feature is selected from the plurality of shape features stored in the storage device and related to the display unit of each of the plurality of physical data measuring instruments, and the selected shape feature is selected. The type of the physical data measuring device corresponding to the feature is determined, the measurement data represented by the numerical information is determined based on the determined type, and the measurement data is stored in association with the determined type A program for causing an information processing apparatus to execute processing stored in the apparatus.
前記記憶装置に格納された前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納する処理を、前記情報処理装置に実行させるための請求項5に記載のプログラム。   A body data type corresponding to the selected shape feature is selected from among the plurality of shape features stored in the storage device, and a shape feature similar to the shape feature extracted from the image data is selected. Determining the measurement data represented by the numerical information based on the determined body data type, and storing the measurement data in the storage device in association with the determined body data type The program according to claim 5 for causing said information processing apparatus to execute. 複数の身体データ測定器の種別と、前記複数の測定器の種別にそれぞれ対応付けられた前記複数の身体データ測定器各々の表示部に関する複数の形状的特徴とを格納し、捕捉された画像データを格納する記憶部と、
前記画像データから数値情報を抽出する数字抽出部と、
前記画像データから形状的特徴を抽出する特徴抽出部と、
前記複数の形状的特徴の中から、抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ測定器の種別を決定し、決定された前記種別に基づいて前記数値情報によって表される測定データを決定し、決定された該種別に対応付けて該測定データを前記記憶装置に格納する処理部と、
を含むことを特徴とする、端末装置。
A plurality of physical data measuring device types and a plurality of geometric features related to the display units of the plurality of physical data measuring devices respectively associated with the plurality of measuring device types, and captured image data A storage unit for storing
A number extraction unit for extracting numerical information from the image data;
A feature extraction unit for extracting shape features from the image data;
A shape feature similar to the extracted shape feature is selected from the plurality of shape features, a type of body data measuring device corresponding to the selected shape feature is determined, and the determined A processing unit that determines measurement data represented by the numerical information based on a type, and stores the measurement data in the storage device in association with the determined type;
The terminal device characterized by including.
前記記憶部は、前記複数の形状的特徴にそれぞれ対応付けられた複数の身体データ種別を格納し、
前記処理部は、前記複数の形状的特徴の中から、前記画像データから抽出された前記形状的特徴に類似する形状的特徴を選択し、選択された形状的特徴に対応する身体データ種別を決定し、決定された身体データ種別に基づいて前記数値情報によって表される前記測定データを決定し、決定された該身体データ種別に対応付けて該測定データを前記記憶装置に格納すること、を特徴とする、請求項6に記載の端末装置。
The storage unit stores a plurality of body data types respectively associated with the plurality of geometric features,
The processing unit selects a shape feature similar to the shape feature extracted from the image data from the plurality of shape features, and determines a body data type corresponding to the selected shape feature. And determining the measurement data represented by the numerical information based on the determined body data type, and storing the measurement data in the storage device in association with the determined body data type. The terminal device according to claim 6.
JP2011050275A 2011-03-08 2011-03-08 Image data processing method, program, and terminal device Active JP5601250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011050275A JP5601250B2 (en) 2011-03-08 2011-03-08 Image data processing method, program, and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011050275A JP5601250B2 (en) 2011-03-08 2011-03-08 Image data processing method, program, and terminal device

Publications (2)

Publication Number Publication Date
JP2012183269A true JP2012183269A (en) 2012-09-27
JP5601250B2 JP5601250B2 (en) 2014-10-08

Family

ID=47013928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011050275A Active JP5601250B2 (en) 2011-03-08 2011-03-08 Image data processing method, program, and terminal device

Country Status (1)

Country Link
JP (1) JP5601250B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013226257A (en) * 2012-04-25 2013-11-07 Kyocera Corp Information provision system, information provision method, and electronic device
JP2015082219A (en) * 2013-10-23 2015-04-27 西日本電信電話株式会社 Data detection system
JP2017068360A (en) * 2015-09-28 2017-04-06 ブラザー工業株式会社 Information display device
US9654743B2 (en) 2012-08-29 2017-05-16 Kyocera Corporation Electronic device, information providing system, control method, and control program
JP2020166587A (en) * 2019-03-29 2020-10-08 株式会社日立システムズ Meter reading operation device and method, and meter reading operation system
JP2021005221A (en) * 2019-06-26 2021-01-14 TXP Medical株式会社 Vital sign data input assist system
WO2023189097A1 (en) * 2022-03-29 2023-10-05 テルモ株式会社 Program, information processing device, information processing system, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08215151A (en) * 1995-02-13 1996-08-27 Terumo Corp Organism information data-reading system
JP2001224557A (en) * 1999-09-09 2001-08-21 Matsushita Electric Ind Co Ltd Data input device, data input system, display data analyszer and medium
JP2003245254A (en) * 2002-02-27 2003-09-02 Matsushita Electric Ind Co Ltd Health managing support system
WO2009147837A1 (en) * 2008-06-02 2009-12-10 株式会社ジェイ・エム・エス Health management apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08215151A (en) * 1995-02-13 1996-08-27 Terumo Corp Organism information data-reading system
JP2001224557A (en) * 1999-09-09 2001-08-21 Matsushita Electric Ind Co Ltd Data input device, data input system, display data analyszer and medium
JP2003245254A (en) * 2002-02-27 2003-09-02 Matsushita Electric Ind Co Ltd Health managing support system
WO2009147837A1 (en) * 2008-06-02 2009-12-10 株式会社ジェイ・エム・エス Health management apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013226257A (en) * 2012-04-25 2013-11-07 Kyocera Corp Information provision system, information provision method, and electronic device
US9654743B2 (en) 2012-08-29 2017-05-16 Kyocera Corporation Electronic device, information providing system, control method, and control program
JP2015082219A (en) * 2013-10-23 2015-04-27 西日本電信電話株式会社 Data detection system
JP2017068360A (en) * 2015-09-28 2017-04-06 ブラザー工業株式会社 Information display device
JP2020166587A (en) * 2019-03-29 2020-10-08 株式会社日立システムズ Meter reading operation device and method, and meter reading operation system
JP7253957B2 (en) 2019-03-29 2023-04-07 株式会社日立システムズ METER READING WORK DEVICE AND METHOD, AND METER READING WORK SYSTEM
JP2021005221A (en) * 2019-06-26 2021-01-14 TXP Medical株式会社 Vital sign data input assist system
WO2023189097A1 (en) * 2022-03-29 2023-10-05 テルモ株式会社 Program, information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP5601250B2 (en) 2014-10-08

Similar Documents

Publication Publication Date Title
JP5601250B2 (en) Image data processing method, program, and terminal device
US11386717B2 (en) Fingerprint inputting method and related device
CN107124543B (en) Shooting method and mobile terminal
JP2009265827A (en) Object detection device and method, object detection system, and program
CN102402382A (en) Information processing device and information processing method
JP2007265125A (en) Content display
JP2013157984A (en) Method for providing ui and video receiving apparatus using the same
JP2013143082A (en) Finger position detection device, finger position detection method and finger position detection computer program
JP2019197318A (en) Information processor, information processing method, and computer program
KR101541384B1 (en) Device for Recognition of Object and method
CN109040729B (en) Image white balance correction method and device, storage medium and terminal
JP2008067321A (en) Data registration management apparatus
CN107145741A (en) Ear based on graphical analysis examines collecting method and device
JPWO2018167974A1 (en) Image processing apparatus, control method and control program
WO2015096824A1 (en) Analysis device and analysis method
US20110261231A1 (en) Displacement detection device and displacement detection method thereof
CN104027074A (en) Health data collection and recognition method used for health equipment
JPWO2019097690A1 (en) Image processing apparatus, control method, and control program
CN114359166A (en) Screen color detection method, device, equipment and storage medium
CN113313642A (en) Image denoising method and device, storage medium and electronic equipment
KR101551427B1 (en) Mobile terminal for supporting iris recognition function
CN113221893A (en) Instrument image processing method and device, computer equipment and storage medium
JP5901680B2 (en) Portable terminal device and display device
JP2012226085A (en) Electronic apparatus, control method and control program
JP2019197537A (en) Information processor, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140804

R150 Certificate of patent or registration of utility model

Ref document number: 5601250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150