JP2020018353A - Methods and system for sorting and identifying medication by its label and/or package - Google Patents

Methods and system for sorting and identifying medication by its label and/or package Download PDF

Info

Publication number
JP2020018353A
JP2020018353A JP2018142102A JP2018142102A JP2020018353A JP 2020018353 A JP2020018353 A JP 2020018353A JP 2018142102 A JP2018142102 A JP 2018142102A JP 2018142102 A JP2018142102 A JP 2018142102A JP 2020018353 A JP2020018353 A JP 2020018353A
Authority
JP
Japan
Prior art keywords
image
images
drug
processed
generate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018142102A
Other languages
Japanese (ja)
Other versions
JP6820886B2 (en
Inventor
シェン−ルエン チュン
Sheng-Luen Chung
シェン−ルエン チュン
チー−ファン チェン
Chih-Fang Chen
チー−ファン チェン
ジン−シュアン ワン
Jing-Syuan Wang
ジン−シュアン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Taiwan University of Science and Technology NTUST
MacKay Memorial Hospital
Original Assignee
National Taiwan University of Science and Technology NTUST
MacKay Memorial Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Taiwan University of Science and Technology NTUST, MacKay Memorial Hospital filed Critical National Taiwan University of Science and Technology NTUST
Priority to JP2018142102A priority Critical patent/JP6820886B2/en
Publication of JP2020018353A publication Critical patent/JP2020018353A/en
Application granted granted Critical
Publication of JP6820886B2 publication Critical patent/JP6820886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Preparation Storing Or Oral Administration Devices (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide methods and a system for sorting and identifying a medication by its label and/or package.SOLUTION: Disclosed herein is an improved pharmaceutical management system and methods implemented by a system for sorting and identifying a medication by its label and/or package. The method comprises the steps of: (a) receiving a plurality of raw images of a package of a medication; (b) juxtaposing two of the plurality of raw images to produce a combined image, in which the two raw images are different from each other; (c) processing the combined image to produce a reference image; and (d) establishing a medication library using the reference image. The system comprises an image capturing device, an image processor, and a machine learning processor. The image processor is programmed with instructions to execute the method for producing a combined image.SELECTED DRAWING: Figure 1

Description

本開示は、一般に調薬管理システムの分野に関する。さらに具体的には、本開示は、薬剤のラベルおよび/またはパッケージによって、当薬剤を区分けし識別するための方法およびシステムに関する。   The present disclosure relates generally to the field of pharmacy management systems. More specifically, the present disclosure relates to methods and systems for sorting and identifying medications by drug label and / or packaging.

医療用品および製剤製品の効率的な保存および管理のシステムおよび/または方法は、病院システムの円滑なオペレーションならびに高品質の患者介護を提供するための重要な必要条件である。このような場合、全ての医療機関にとって、処方調合の正確さは最重要事項である。自動払い出しキャビネット(ADC:automated dispensing cabinet)が病院に導入されてから20年を超えるが、調薬過誤はまだ存在する。ADCによる投薬管理は、臨床スタッフが標準プロトコルを正しく順守することに大きく依存しており、しかして最終的な人的エラーを完全に排除することは不可能である。例えば、薬局が間違った薬剤を所与の薬品キャビネットに置くことがあり、または臨床担当者が「よく似た」薬剤を隣の薬品引き出しから選び取ることもある。したがって、人間の目で薬剤をその外観で識別するのは信頼性がなく、これを薬剤管理システムに適用することもできない。   Systems and / or methods for efficient storage and management of medical and pharmaceutical products are important requirements for providing smooth operation of hospital systems and high quality patient care. In such cases, the accuracy of the prescription is of paramount importance for all medical institutions. Although automated dispensing cabinets (ADCs) have been introduced to hospitals for over 20 years, dispensing errors still exist. Medication control by ADCs depends heavily on the clinical staff's correct adherence to standard protocols, and it is impossible to completely eliminate eventual human error. For example, a pharmacy may place the wrong drug in a given drug cabinet, or a clinician may pick a "similar" drug from the next drug drawer. Therefore, it is unreliable for a human eye to identify a medicine by its appearance, and it cannot be applied to a medicine management system.

ディープラーニング手法は、多重レベルの学習データ表現に基づく機械学習手法の幅広いファミリの1つであり、この多重レベルは、各々が1つのレベルの表現をより高位のわずかに抽象性の高いレベルの表現に変換する、単純だが非線型のモジュールを構成することによって得られる。十分量のかかる変換の構成によって、分類タスクなどの複雑な機能を学習することができる。上記により、ディープラーニングは、長年に亘って人口知能コミュニティに存在する問題の解決に大きな進展をもたらし、多くの技術分野で応用されている。調薬管理に関して、対象体の外観を識別する上でのディープラーニングの優れたパフォーマンスは、現在の薬品払い出し技術の欠点に対する有望な解決法のように見える。しかしながら、特定の外観類似性を伴う薬剤パッケージの多大な種類を鑑みれば、単にディープラーニングを実行するだけでは、望ましい成果を生み出すことはできなかった。   Deep learning techniques are one of a broad family of machine learning techniques based on multi-level learning data representations, each of which replaces one level representation with a higher, slightly abstracter level representation. It is obtained by constructing a simple but non-linear module that converts to A complex function, such as a classification task, can be learned with a sufficiently large transformation configuration. Thus, deep learning has made great strides in solving the problems that exist in the artificial intelligence community for many years and has been applied in many technical fields. For pharmacy management, the superior performance of deep learning in identifying the appearance of a subject appears to be a promising solution to the shortcomings of current drug dispensing technology. However, given the vast variety of drug packages with specific appearance similarities, simply performing deep learning did not produce the desired results.

前述の見地から、関連技術において、薬剤管理のためのより改良された(例えば、薬剤をそのラベルおよび/またはパッケージによって区分けし識別する)方法およびシステムが必要とされている。   In view of the foregoing, there is a need in the related art for improved methods and systems for drug management (eg, distinguishing and identifying drugs by their labels and / or packaging).

読者に基本的な理解を提供するため、以下に本開示の簡単な要約を提示する。この要約は、本開示の広範な概観ではなく、本発明の主要/重要要素を識別するものでも、または本発明の範囲を叙述するものでもない。その唯一の目的は、本明細書に開示されるいくつかの概念を、後記で提示されるより詳細な説明の導入部として簡潔な形で提示することである。   The following presents a brief summary of the disclosure in order to provide the reader with a basic understanding. This summary is not an extensive overview of the disclosure and it does not identify key / critical elements of the invention or delineate the scope of the invention. Its sole purpose is to present some concepts disclosed herein in a simplified form as a prelude to the more detailed description that is presented later.

本概要で具現化され概括的に説明されるように、本開示の目的は、薬剤の払い出しの効率性および正確さが大幅に改良されるように、臨床薬品を識別するためのシステムによって実装される、改良された調薬管理システムおよび方法を提供することにある。   As embodied and generally described in this overview, the objectives of the present disclosure are implemented by a system for identifying clinical drugs so that the efficiency and accuracy of drug dispensing is significantly improved. An improved dispensing management system and method.

一態様において、本開示は、薬剤ライブラリを構築するためのコンピュータ実装方法を対象とする。いくつかの実施形態において、本方法は、(a)薬剤のパッケージの複数の生画像を受信するステップと、(b)組合せ画像を生成するために複数の生画像のうちの2つを並置するステップであって、これら2つの並置生画像は相互に異なる、ステップと、(c)基準画像を生成するために組合せ画像を処理するステップと、(d)基準画像を用いて薬剤ライブラリを確立するステップと、を含む。   In one aspect, the present disclosure is directed to a computer-implemented method for constructing a drug library. In some embodiments, the method includes: (a) receiving a plurality of raw images of the package of the drug; and (b) juxtaposing two of the plurality of raw images to generate a combined image. A step, wherein the two raw images are different from each other; (c) processing the combined image to generate a reference image; and (d) establishing a drug library using the reference image. Step.

いくつかのオプションの実施形態において、本方法は、上記ステップ(a)の前に、薬剤のパッケージの複数の生画像を同時に取り込むステップをさらに含む。   In some optional embodiments, the method further comprises, prior to step (a), simultaneously capturing a plurality of raw images of the drug package.

本開示の特定の実施形態によれば、好ましくは、薬剤は、ブリスターパッケージされた形である。   According to certain embodiments of the present disclosure, preferably the medicament is in blister packaged form.

本開示の特定の実施形態によれば、上記ステップ(b)は、(b−1)それぞれが画定された輪郭を有する複数の第一処理画像を生成するために、複数の生画像をそれぞれ処理するステップと、(b−2)第一処理画像の各画定された輪郭のコーナーの座標位置を算定するためにそれらコーナーを識別するステップと、(b−3)複数の第二処理画像を生成するために、ステップ(b−2)で算定された座標位置に基づいて、ステップ(b−1)の第一処理画像の各々を回転するステップと、(b−4)上記ステップ(b)の組合せ画像を生成するために、第二処理画像の何れか2つを組み合せるステップと、を含む。   According to a particular embodiment of the present disclosure, the step (b) comprises: (b-1) processing each of the plurality of raw images to generate a plurality of first processed images each having a defined contour. (B-2) identifying the corners of each of the defined contours of the first processed image to determine the coordinate position of the corners; and (b-3) generating a plurality of second processed images. And (b-4) rotating each of the first processed images in step (b-1) based on the coordinate position calculated in step (b-2). Combining any two of the second processed images to generate a combined image.

本開示の特定の実施形態によれば、ステップ(b−1)の複数の生画像の各々は、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される。   According to a particular embodiment of the present disclosure, each of the plurality of raw images in step (b-1) includes: (i) a grayscale conversion process, (ii) a noise reduction process, (iii) an edge identification process, (iv) And (v) contour formation processing.

本開示の実施形態によれば、(i)〜(v)の各処理は、任意の順序で別々に行ってよく、(i)〜(v)の各処理では、ステップ(b−1)の生画像、または前記処理(i)〜(v)の現在の処理以外の何れによって処理された画像でも用いられる。   According to the embodiment of the present disclosure, each processing of (i) to (v) may be separately performed in an arbitrary order, and in each processing of (i) to (v), the processing of step (b-1) A raw image or an image processed by any of the processes (i) to (v) other than the current process is also used.

本開示のいくつかの実施形態において、ステップ(b−2)は、ライン変換アルゴリズムまたはセントロイドアルゴリズムによって実行される。   In some embodiments of the present disclosure, step (b-2) is performed by a line transformation algorithm or a centroid algorithm.

好ましくは、前述の組合せ画像は、薬剤のブリスターパッケージの両面の画像を備える。   Preferably, the combination image comprises a double-sided image of a blister package of the medicament.

本開示のいくつかの実施形態によれば、上記ステップ(c)は、機械学習アルゴリズムによって実行される。   According to some embodiments of the present disclosure, step (c) is performed by a machine learning algorithm.

別の態様において、本開示は、ブリスターパッケージによって薬剤を識別するためのコンピュータ実装方法に関する。本方法は、(a)薬剤のブリスターパッケージの前面および背面の画像を同時に取得するステップと、(b)候補画像を生成するために、ステップ(a)からの前面および背面の画像を並置するステップと、(c)候補画像を、前述の方法によって確立された薬剤ライブラリの基準画像と比較するステップと、(d)上記ステップ(c)の結果を出力するステップと、を含む。   In another aspect, the present disclosure relates to a computer-implemented method for identifying a drug by a blister package. The method includes the steps of (a) simultaneously obtaining front and back images of a blister package of a drug; and (b) juxtaposing the front and back images from step (a) to generate a candidate image. And (c) comparing the candidate image with the reference image of the drug library established by the method described above, and (d) outputting the result of step (c).

本開示の特定の実施形態によれば、上記ステップ(b)は、(b−1)それぞれが画定された輪郭を有する2つの第一処理画像を生成するために、前面および背面画像をそれぞれ処理するステップと、(b−2)該2つの第一処理画像の各画定された輪郭のコーナーの座標位置を算定するためにそれらコーナーを識別するステップと、(b−3)2つの第二処理画像を生成するために、ステップ(b−2)の算定された座標位置に基づいて、ステップ(b−1)の2つの第一処理画像の各々を回転するステップと、(b−4)上記ステップ(b)の候補画像を生成するために、ステップ(b−3)の2つの第二処理画像を組み合せるステップと、を含む。   According to certain embodiments of the present disclosure, the step (b) comprises (b-1) processing the front and back images, respectively, to generate two first processed images, each having a defined contour. (B-2) identifying the corners of each of the defined contours of the two first processed images to determine the coordinate position of the corners; and (b-3) two second processes. Rotating each of the two first processed images of step (b-1) based on the calculated coordinate positions of step (b-2) to generate an image; Combining the two second processed images of step (b-3) to generate the candidate image of step (b).

本開示の特定の実施形態によれば、ステップ(b−1)の前面および背面の画像は、それぞれ、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される。   According to a particular embodiment of the present disclosure, the front and back images of step (b-1) are, respectively, (i) a grayscale conversion process, (ii) a noise reduction process, (iii) an edge identification process, iv) convex hull processing and (v) contour formation processing.

いくつかの実施形態おいて、(i)〜(v)の各処理は、任意の順序で別々に行ってよく、(i)〜(v)の各処理では、ステップ(b−1)の前面および背面の画像、または前記処理(i)〜(v)の現在の処理以外の何れによって処理された画像でも用いられる。   In some embodiments, each of the processes (i) to (v) may be performed separately in any order, and in each of the processes (i) to (v), the front of the step (b-1) is performed. And images on the back side, or images processed by any of the processes (i) to (v) other than the current process.

いくつかのオプションの実施形態において、ステップ(b−2)は、ライン変換アルゴリズムまたはセントロイドアルゴリズムによって実行される。   In some optional embodiments, step (b-2) is performed by a line transformation algorithm or a centroid algorithm.

いくつかのオプションの実施形態では、上記ステップ(d)は、機械学習アルゴリズムによって実行される。   In some optional embodiments, step (d) is performed by a machine learning algorithm.

いくつかのオプションの実施形態では、本方法は、上記ステップ(c)の前に、候補画像を薬剤ライブラリ中に移送するステップをさらに含む。   In some optional embodiments, the method further comprises, prior to step (c) above, transferring the candidate image into a drug library.

さらに別の態様において、本開示は調薬管理システムを対象とし、該システムは、上記方法を実装するように構成された、画像取込デバイスと、画像プロセッサと、機械学習プロセッサとを含む。   In yet another aspect, the present disclosure is directed to a pharmacy management system, the system including an image capture device, an image processor, and a machine learning processor configured to implement the method.

さらに具体的には、画像取込デバイスは、薬剤のパッケージの複数の画像を取り込むように構成される。画像プロセッサは、候補画像を生成するための方法を実行する命令によってプログラムされ、この方法は、(1)それぞれが画定された輪郭を有する複数の第一処理画像を生成するために、薬剤のパッケージの複数の画像をそれぞれ処理するステップと、(2)第一処理画像の各画定された輪郭のコーナーの座標位置を算定するためにそれらコーナーを識別するステップと、(3)複数の第二処理画像を生成するために、ステップ(2)で識別された座標位置に基づいて、第一処理画像の各々を回転するステップと、(4)互いに異なる2つの第二処理画像による候補画像を生成するために、ステップ(3)の第二処理画像の2つを並置するステップと、を含む。さらに、機械学習プロセッサは、候補画像と、前述の薬剤ライブラリの基準画像とを比較するための方法を実行する命令をプログラムされる。機械学習プロセッサによって生成された結果は、引き続いて、薬剤払い出し先の担当者に通知するため出力することが可能である。   More specifically, the image capture device is configured to capture a plurality of images of the medication package. The image processor is programmed with instructions for performing a method for generating a candidate image, the method comprising: (1) packaging a drug to generate a plurality of first processed images, each having a defined contour; (2) identifying the corners of each of the defined contours of the first processed image to determine the coordinate position of the corners; and (3) processing a plurality of second processes. Rotating each of the first processed images based on the coordinate position identified in step (2) to generate an image; and (4) generating a candidate image from two different second processed images. And juxtaposing two of the second processed images of step (3). Further, the machine learning processor is programmed with instructions for performing a method for comparing the candidate image with the reference image of the drug library described above. The results generated by the machine learning processor can subsequently be output to notify the person at the drug dispensing destination.

本開示のいくつかの実施形態において、画像取込デバイスは、その上に薬剤が置かれる透明ボード、および該透明ボードの各々の側の上下方に別々に配置された2つの画像取込ユニットを含む。   In some embodiments of the present disclosure, the image capture device comprises a transparent board on which the medicament is placed, and two image capture units separately positioned above and below each side of the transparent board. Including.

本開示のいくつかの実施形態において、上記ステップ(1)の複数の画像の各々は、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される。   In some embodiments of the present disclosure, each of the plurality of images in step (1) includes (i) a grayscale conversion process, (ii) a noise reduction process, (iii) an edge identification process, and (iv) a convex hull. Processing and (v) contour forming processing.

いくつかの実施形態では、(i)〜(v)の各処理は、任意の順序で別々に行ってよく、(i)〜(v)の各処理では、上記ステップ(1)の複数の画像、または前記処理(i)〜(v)の現在の処理以外の何れによって処理された画像でも用いられる。   In some embodiments, each of the processes (i) to (v) may be performed separately in any order, and in each of the processes (i) to (v), the plurality of images of the above step (1) may be used. Or an image processed by any of the processes (i) to (v) other than the current process.

加えてまたは代わりに、前記ステップ(2)は、ライン変換アルゴリズムまたはセントロイドアルゴリズムによって実行されてもよい。   Additionally or alternatively, step (2) may be performed by a line transformation algorithm or a centroid algorithm.

いくつかのオプションの実施形態において、候補画像と前述の薬剤ライブラリの基準画像とを比較するための方法は、機械学習アルゴリズムによって実行される。   In some optional embodiments, the method for comparing the candidate image with the reference image of the drug library is performed by a machine learning algorithm.

上記の構成によって、区分けおよび識別のための薬剤管理方法およびシステムは、リアルタイム方式で実行することが可能で、これにより、薬品払い出し過程で、薬剤の方位の如何にかかわらず画像分類の全体的処理時間が短縮される。   With the above arrangement, the medicine management method and system for classification and identification can be performed in a real-time manner, so that during the medicine dispensing process, the whole processing of the image classification regardless of the medicine orientation is performed. Time is reduced.

さらに、薬品の外観および/またはブリスターパッケージを用いて、その識別の正確さを向上することができ、薬剤払い出し過程での人的過誤を大きく低下することができる。これによって薬剤使用の安全性を改善することができよう。   Furthermore, the appearance of the drug and / or the blister package can be used to improve the accuracy of its identification and greatly reduce human errors during the drug dispensing process. This could improve the safety of drug use.

本開示に伴う多くの特徴および利点は、以下の詳細な説明を、添付の図面と関連付けて考慮しながら参照することにより良く理解されよう。   Many features and advantages of the present disclosure will be better understood by reference to the following detailed description when considered in conjunction with the accompanying drawings.

本明細書は、添付の図面を踏まえ、以下の詳細な説明を読むことによってより良く理解されよう。   The present specification will be better understood from the following detailed description read in light of the accompanying drawings.

本開示の一実施形態による、方法100を表すフローチャートである。4 is a flowchart illustrating a method 100 according to one embodiment of the present disclosure. 本開示の一実施形態による、方法200を表すフローチャートである。4 is a flowchart illustrating a method 200 according to one embodiment of the present disclosure. 本開示の別の実施形態による、調薬管理システム300を表す図である。FIG. 6 is a diagram illustrating a dispensing management system 300 according to another embodiment of the present disclosure. 本開示の一例による、パッケージのコーナーが、セントロイドアルゴリズムの使用によってどのように識別されるかを示す概略図である。FIG. 4 is a schematic diagram illustrating how corners of a package are identified by using a centroid algorithm, according to an example of the present disclosure.

一般的慣行によって、説明される様々な特徴/要素は縮尺通りに描かれていないが、代わりに、本発明に関連する特定の特徴/要素を最良に表すように描かれている。また、様々な図面中で、同様な要素/部分を示すために、同様な参照符号および呼称が用いられる。   In accordance with common practice, the various features / elements described are not drawn to scale, but instead are drawn to best represent certain features / elements relevant to the invention. Also, like reference numerals and designations are used in the various drawings to indicate like elements / parts.

添付の図面と関連させて以下に提供される詳細な説明は、提示の例の説明として意図されたものであり、提示例が構築または利用可能な形態だけを表すことを意図したものではない。本説明は、例の機能およびその例を構築し動作するためのステップのシーケンスを述べている。但し、これと異なる例によっても、同一のまたは等価の機能およびシーケンスを達成することが可能である。   The detailed description provided below in connection with the accompanying drawings is intended as an illustration of an example presentation, and is not intended to represent only the forms in which the examples are constructed or available. This description sets forth the functions of the example and the sequence of steps for constructing and operating the example. However, the same or equivalent functions and sequences can be achieved by different examples.

I.定義
便宜上、本明細書、諸例、および添付の特許請求の範囲中で用いられる特定の用語を本段落にまとめる。本明細書中で別途に定義されている場合を除き、本開示中で用いられる科学および技術用語は、一般的に理解され、当業者によって使われている意味を有するものとする。また、文脈上別途に要求されていなければ、単数用語はその複数形を含み、複数用語は単数形をも含むものとして理解することとする。具体的に、本明細書および特許請求の範囲中で用いられる、単数形「或る(aおよびan)」は、文脈が明瞭に別途に示している場合を除き、複数への言及も含む。また、本明細書および特許請求の範囲で用いられる、用語「少なくとも1つ」と「1つ以上」とは同じ意味を有し、1つ、2つ、3つ、またはそれ以上を含む。
I. Definitions For convenience, certain terms employed in the specification, examples, and appended claims are collected in this paragraph. Unless defined otherwise herein, scientific and technical terms used in this disclosure shall have the meanings commonly understood and used by one of ordinary skill in the art. Unless otherwise required by context, singular terms shall include the plural and plural terms shall include the singular. Specifically, as used herein and in the claims, the singular forms "a" and "an" include plural referents unless the context clearly dictates otherwise. Further, the terms “at least one” and “one or more” used in the present specification and claims have the same meaning, and include one, two, three, or more.

本発明の広義の範囲を述べる数値範囲およびパラメータは近似値であるが、具体例を述べる数値は、できるだけ精度よく記載している。但し、一切の数値は、それぞれの測定に存在する標準偏差から必然的に生じる一定の誤差を本質的に包含する。また、本明細書で使用する用語「約」は、一般に、所与の値または範囲の10%、5%、1%、または0.5%以内であることを意味する。あるいは、用語「約」は、当業者がそう見なす場合、平均値の受容可能な標準誤差以内であることを意味する。動作/作業の例でない場合または明示で別途に特定されている場合を除き、材料の量、経過時間、温度、動作条件、量の比率など、本明細書で開示される全ての数値範囲、量、数値、およびパーセントは、全ての例において用語「約」で修飾されていると理解すべきである。したがって、そうでないことが示されている場合を除き、本開示および添付の特許請求の範囲中で述べられる数値パラメータは、必要により変わり得る近似値である。最低限でも、各数値パラメータは、少なくとも、記載された有効数字の桁数を考慮し、一般的丸め技法を適用して解釈すべきである。本明細書では、範囲は、1つの終端点から別の終端点まで、または2つの終端点の間として表すことができる。本明細書で開示される全ての範囲は、別途に指定されている場合を除き、これらの終端点を含む。   The numerical ranges and parameters describing the broad range of the present invention are approximate values, but the numerical values describing specific examples are described as accurately as possible. However, all numerical values inherently include certain errors necessarily resulting from the standard deviation present in each measurement. Also, as used herein, the term "about" generally means within 10%, 5%, 1%, or 0.5% of a given value or range. Alternatively, the term "about" means within an acceptable standard error of the mean, as one of ordinary skill would appreciate. All numerical ranges, amounts, etc. disclosed herein, such as amounts of materials, elapsed times, temperatures, operating conditions, ratios of amounts, and the like, are not examples of operation / work or unless explicitly specified otherwise. , Numbers, and percentages are to be understood as being modified in all instances by the term “about”. Thus, unless otherwise indicated, numerical parameters set forth in this disclosure and the appended claims are approximations that may vary as needed. At a minimum, each numerical parameter should be interpreted applying at least the number of significant digits described and applying common rounding techniques. As used herein, a range may be expressed as from one endpoint to another, or between two endpoints. All ranges disclosed herein include these endpoints unless otherwise indicated.

本明細書で用いる用語「ブリスターパック」または「ブリスターパッケージ」は、材料のシートの間に内包された製品を含む任意の種類の層状パッケージを包含し、これらのシートは、例えば、シートが熱および/または圧力で接着活性化されることによりシールされるなど、当業者に既知の方法で併せ接着またはシールされる。シート材は、個別のシートとして(手作業包装用)、または好ましくは、ロール体の連続ウェブシートとして(機械包装用)市販品が入手可能である。ブリスターパッケージの主構成部分は、通常は熱成形プラスチックの、成形用巻材で作製されたキャビティまたはポケットである。このキャビティまたはポケットは、ブリスターパッケージ中に収納される商品を内包するのに十分な大きさである。用途に依っては、ブリスターパッケージに熱成形材料の裏打ち材を備えてもよい。調剤分野では、「ブリスターパッケージ」は、一般に医薬錠剤の単位服用量パッケージとして使われ、その背面に印刷された薬品情報を含んでいる。さらに、これらのシートは様々な厚さのものが利用可能である。   As used herein, the term "blister pack" or "blister package" includes any type of layered package that includes a product encapsulated between sheets of material, where the sheets are, for example, heat and And / or bonded together in a manner known to those skilled in the art, such as by being adhesive activated by pressure. The sheet material is commercially available as individual sheets (for manual packaging) or, preferably, as continuous web sheets in roll form (for mechanical packaging). The main component of the blister package is a cavity or pocket, usually made of thermoformed plastic, made of molding wrap. This cavity or pocket is large enough to contain the goods stored in the blister package. For some applications, the blister package may be provided with a backing of thermoformed material. In the field of dispensing, a "blister package" is commonly used as a unit dose package of a pharmaceutical tablet and contains drug information printed on its back. Further, these sheets are available in various thicknesses.

II.本発明の説明
患者介護における最大関心事は薬剤使用の安全性である。正しく処方を満たし薬剤を払い出すことは、患者介護の最重要事項である。ADCなどの従来型自動払い出しシステムは、まだ改良の余地があり、本発明は、前述の問題を取り扱うための、改良されハイライトされたディープラーニング法を提供することを目的としている。さらに、本発明は、臨床スタッフの作業量を低減するため、リアルタイムでの動作システムによる、自動薬剤検証(AMV:automatic medication verification)装置を開発することも目的としている。
II. DESCRIPTION OF THE INVENTION A primary concern in patient care is the safety of drug use. Correctly prescribing and dispensing medication is a paramount concern for patient care. Conventional automatic dispensing systems, such as ADCs, still have room for improvement, and the present invention seeks to provide an improved and highlighted deep learning method to address the aforementioned problems. It is another object of the present invention to develop an automatic medicine verification (AMV) device using a real-time operation system in order to reduce the workload of clinical staff.

さらに具体的には、「ハイライトされた」ディープラーニング法とは、特徴または画像をアルゴリズムに入力する前に、特徴の情報がより強調されて学習できるように、それらを処理し強調する方法をいう。一般に、識別されたターゲットをよりうまく分類し固有の記述的特徴を摘出するために、この特徴処理は、一定のシグネチャーテンプレート中でブリスターパッケージ外観の両方のトリミング写真の接合をもたらす、様々な画像処理ステップによって達成され、これにより学習ネットワーク中での後の分類処理を容易化する。   More specifically, a "highlighted" deep learning method refers to a method of processing and enhancing features or images so that they can be learned more intensified before they are input to the algorithm. Say. Generally, to better classify identified targets and extract unique descriptive features, this feature processing involves a variety of image processing that results in the joining of both cropped photos of the blister package appearance in certain signature templates Achieved by a step, thereby facilitating the subsequent classification process in the learning network.

1.薬剤ライブラリ構築の方法
本開示の第一態様は、コンピュータ可読ストレージ媒体中に実装された薬剤ライブラリを構築するための方法を対象とする。図1を参照することとする。
1. Method of Building Drug Library A first aspect of the present disclosure is directed to a method for building a drug library implemented in a computer-readable storage medium. Please refer to FIG.

図1を参照すると、この図は、本開示の一実施形態による、コンピュータ上に実装された方法100のフローチャートである。本方法は、少なくとも、
(S110)薬剤のパッケージの複数の生画像を受信するステップと、
(S120)組合せ画像を生成するために複数の生画像のうちの2つを並置するステップであって、これら2つの生画像は相互に異なる、ステップと、
(S130)基準画像を生成するために組合せ画像を処理するステップと、
(S140)基準画像を用いて薬剤ライブラリを確立するステップと、
を含む。
Referring to FIG. 1, this figure is a flowchart of a computer-implemented method 100 according to one embodiment of the present disclosure. The method comprises at least:
(S110) receiving a plurality of raw images of the medicine package;
(S120) juxtaposing two of the plurality of raw images to generate a combined image, wherein the two raw images are different from each other;
(S130) processing the combined image to generate a reference image;
(S140) establishing a drug library using the reference image;
including.

方法100が実施される前に、画像取込デバイス(例えばビデオカメラ)など、任意の周知の方式によって、薬剤パッケージ(例えばブリスターパッケージ)の複数の生画像が取り込まれる。次いで、本方法のステップS110で、取り込まれた画像は、本方法100を実行するために内蔵された命令を有するデバイスおよび/またはシステム(例えばコンピュータ)に自動的に転送される。次のステップS120で、上記のデバイスおよび/またはシステムによって受信された複数の生画像のうちの2つが、組み合わせ画像を生成するため相互に並置される。なお、これら2つの並置生画像が互に異なっている。一例示的な実施形態において、薬剤はブリスターパッケージの形であり、しかして、画像取込デバイスによって撮られたこれら複数の生画像は、ブリスターパッケージの両面を包含することができる。言い換えれば、組み合わせ画像を生成するため、それぞれブリスターパッケージの前面と背面とを示す2つの画像が相互に対し並置される。後で行う機械学習プロセスに対する外観認識の正確さを向上するために、生画像は、所定の特徴(例えば、所定の画素サイズなど)を有する適切な画像を得るためにハイライトされ処理され、主被写体(すなわち、ブリスターパッケージおよび/またはラベルの画像)以外の全ての背景部分は完全に除去される。   Before the method 100 is performed, a plurality of raw images of a drug package (eg, a blister package) are captured by any well-known manner, such as an image capture device (eg, a video camera). Then, in step S110 of the method, the captured image is automatically transferred to a device and / or system (eg, a computer) having embedded instructions to perform the method 100. In a next step S120, two of the plurality of raw images received by the above device and / or system are juxtaposed to each other to generate a combined image. Note that these two side-by-side raw images are different from each other. In one exemplary embodiment, the medicament is in a blister package, so that the plurality of raw images taken by the image capture device can encompass both sides of the blister package. In other words, two images, each showing the front and back of the blister package, are juxtaposed to each other to generate a combined image. In order to improve the accuracy of appearance recognition for later machine learning processes, the raw image is highlighted and processed to obtain a suitable image with certain features (eg, certain pixel size, etc.). All background parts other than the subject (ie, the blister package and / or label image) are completely removed.

ステップS130において、この組み合わせ画像は、次いで、基準画像を生成するために、コンピュータ(例えばプロセッサ)中に内蔵された機械学習アルゴリズムを訓練するために用いられる。ステップS110〜S130は、回ごとに前のものとは異なる薬剤パッケージを使って何回でも繰り返すことができる。最終的に、この基準画像を用いて薬剤ライブラリを確立することが可能である(ステップS140)。   In step S130, this combined image is then used to train a machine learning algorithm embedded in a computer (eg, a processor) to generate a reference image. Steps S110-S130 can be repeated any number of times, each time using a different drug package than the previous one. Finally, a drug library can be established using this reference image (step S140).

ステップS120に戻って、該ステップは、通常、
(S121)それぞれが画定された輪郭を有する複数の第一処理画像を生成するために、複数の生画像をそれぞれ処理するステップと、
(S122)第一処理画像の各画定された輪郭のコーナーの座標位置を算定するためにそれらコーナーを識別するステップと、
(S123)複数の第二処理画像を生成するために、ステップS122で算定された座標位置に基づいて、ステップS121の第一処理画像の各々を回転するステップと、
(S124)上記ステップS120の組合せ画像を生成するために、第二処理画像の何れか2つを組み合せるステップと、
を含む。
Returning to step S120, the step typically includes
(S121) processing each of the plurality of raw images to generate a plurality of first processed images each having a defined contour;
(S122) identifying the corners of each defined contour of the first processed image to determine the coordinate position of the corners;
(S123) rotating each of the first processed images in step S121 based on the coordinate positions calculated in step S122 to generate a plurality of second processed images;
(S124) combining any two of the second processed images to generate the combined image of step S120;
including.

ステップ121において、それぞれが良好に画定された輪郭を有する複数の第一処理画像を最終的に生成するために、複数の生画像が、画像プロセッサによってそれぞれ処理される。この画像プロセッサは、バックグラウンドノイズを除去し、画像からターゲットとなる特徴を抽出するため、いくつかのアルゴリズムを用いる。具体的には、ステップS121の複数の生画像の各々は、それぞれ、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される。なお、各処理(i)〜(v)は個別的に任意の順序で行われる。   In step 121, the plurality of raw images are each processed by an image processor to ultimately generate a plurality of first processed images, each having a well-defined contour. The image processor uses several algorithms to remove background noise and extract target features from the image. Specifically, each of the plurality of raw images in step S121 includes (i) gray scale conversion processing, (ii) noise reduction processing, (iii) edge identification processing, (iv) convex hull processing, and (v) ) It is applied to the contour forming process. The processes (i) to (v) are individually performed in an arbitrary order.

さらに具体的には、(i)グレースケール変換処理は、BGR色をグレースケールに変更するため、色変換アルゴリズムを使って実行され(S1211)、(ii)ノイズ低減処理は、バックグラウンドノイズを最小化するために、フィルタアルゴリズムを使って実行され(S1212)、(iii)エッジ識別処理は、画像中のブリスターパッケージの各エッジの座標位置を算定するために、エッジ識別アルゴリズムを使って実行され(S1213)、(iv)凸包処理は、画像中の薬剤のブリスターパッケージの実際の面積を計算するために、凸包アルゴリズムを使って実行され(S1214)、および(v)輪郭形成処理は、ブリスターパッケージの主要部分を抽出してハイライトするために、輪郭画定アルゴリズム使って実行される(S1215)。   More specifically, (i) the grayscale conversion process is performed using a color conversion algorithm to change the BGR color to grayscale (S1211), and (ii) the noise reduction process minimizes background noise. (S1212), and (iii) an edge identification process is performed using an edge identification algorithm to calculate the coordinate position of each edge of the blister package in the image. S1213), (iv) convex hull processing is performed using a convex hull algorithm to calculate the actual area of the blister package of the drug in the image (S1214), and (v) contouring processing is performed by blister Performed using a contouring algorithm to extract and highlight key parts of the package S1215).

特定の実施形態によれば、ステップS121中の生画像は、ステップS122に進む前に、処理(i)〜(v)の全てに付される。前述のように、これらの処理は、個別的に任意の順序で実行することができ、したがって、ステップS121からの生画像を除き、1つの処理から得られた画像は、次の処理における生画像とすることができる。例えば、ステップS121の生画像は、最初に処理(i)またはステップS1211に付され、このステップで、生画像のBGR色はグレースケールに変換され、これによりグレースケール画像が生成される。処理(i)から得られたグレースケール画像は、全ての処理(i)〜(v)が成功裏に適用されるまで、引き続き処理(ii)〜(v)の何れによって処理されてもよく、これにより、画定された輪郭を有する第一処理画像が生成される。   According to a particular embodiment, the raw image in step S121 is subjected to all of the processes (i) to (v) before proceeding to step S122. As described above, these processes can be performed individually and in any order, and therefore, except for the raw image from step S121, the image obtained from one process is the raw image in the next process. It can be. For example, the raw image of step S121 is first subjected to the processing (i) or step S1211. In this step, the BGR color of the raw image is converted to grayscale, thereby generating a grayscale image. The grayscale image obtained from process (i) may be subsequently processed by any of processes (ii) to (v) until all processes (i) to (v) have been successfully applied; As a result, a first processed image having the defined contour is generated.

代わりにまたはオプションとして、ステップS121の生画像は、最初に処理(iv)またはステップS1214に付され、このステップで画像に凸包アルゴリズムが適用される。この凸包アルゴリズムは、平面中の点の有限集合の凸包、または他の低次元のユークリッド空間を見出すためのものである。本開示において、凸包は、画像中の薬剤のブリスターパッケージの実際の面積を計算することによって画定される。処理(iv)またはステップS1214から得られた画像は、次いで、全ての処理(i)〜(v)が成功裏に適用されるまで、(i)、(ii)、(iii)または(v)のどの処理によって処理されてもよく、これにより、画定された輪郭を有する第一処理画像が生成される。   Alternatively or optionally, the raw image of step S121 is first subjected to processing (iv) or step S1214, in which a convex hull algorithm is applied to the image. The convex hull algorithm is for finding the convex hull of a finite set of points in a plane, or other low-dimensional Euclidean space. In the present disclosure, the convex hull is defined by calculating the actual area of the blister package of the drug in the image. The image obtained from operation (iv) or step S1214 is then processed by (i), (ii), (iii) or (v) until all operations (i) to (v) have been successfully applied. , Which produces a first processed image having a defined contour.

なお、前述の処理(i)〜(v)またはステップS1211〜1215は、順次的にも、ランダムにも、および/または繰り返しても行うことができ(例えば、処理(iii)は1回以上繰り返すことができる)が、好ましくは、(i)から(v)へ、またはS1211からS1215への順序で行われる。   The above-described processes (i) to (v) or steps S1211 to 1215 can be performed sequentially, randomly, and / or repeatedly (for example, process (iii) is repeated one or more times) Can be performed in the order from (i) to (v) or from S1211 to S1215.

前述のステップS1211〜S1215を実行することによって、複数の生画像から、各々が画定された輪郭を有する複数の第一処理画像が生成され、これら画像では、生画像中のバックグラウンドノイズが排除され、さらなる画像処理手順のため、ブリスターパッケージの主要部分が抽出されハイライトされている。   By executing the above-described steps S1211 to S1215, a plurality of first processing images each having a defined contour are generated from the plurality of raw images, and in these images, background noise in the raw images is eliminated. The main part of the blister package has been extracted and highlighted for further image processing procedures.

ステップS122に進んで、該ステップでは、第一処理画像の各々中のコーナーが識別される(図1)。このステップでは、ブリスターパッケージのプロフィール形状の如何にかかわらず、第一処理画像の各々の少なくとも1つのコーナーの座標位置が算定される。好ましくは、ステップS121から得られた第一処理画像の各々の4つのコーナーの座標位置が識別される。このステップの目標は、ブリスターパッケージのプロフィールのエッジから少なくとも3つの直線を投影し、次いで、幾何学的推定によって、最近似の四角形およびそのコーナーの座標位置を導出することである。ブリスターパッケージは、様々な形状および/またはプロファイルで入って来ると思われ、しかして、薬剤パッケージの第一処理画像のコーナー(複数可)を識別するためにいろいろなアルゴリズムを用いてよい。例えば、第一処理画像中の薬剤パッケージの輪郭形状が正四角形(例えば長方形)である場合、4つのコーナーを識別するためにライン変換アルゴリズムが適用される。他方、第一処理画像中の薬剤パッケージが、3つの直線辺と1つの湾曲辺を有する不定多角形など、不規則四角形状である場合、コーナー識別のためセントロイドアルゴリズムが適用される。上記の構成によって、薬剤パッケージの方位および形状の如何にかかわらず、各コーナーの座標位置を算定することが可能である。   Proceeding to step S122, corners in each of the first processed images are identified (FIG. 1). In this step, the coordinate position of at least one corner of each of the first processed images is calculated, regardless of the profile shape of the blister package. Preferably, the coordinate positions of each of the four corners of the first processed image obtained from step S121 are identified. The goal of this step is to project at least three straight lines from the edges of the profile of the blister package, and then derive, by geometric estimation, the closest rectangle and its coordinate positions at its corners. The blister package may come in various shapes and / or profiles, and may use various algorithms to identify the corner (s) of the first processed image of the drug package. For example, when the outline shape of the medicine package in the first processing image is a square (for example, a rectangle), a line conversion algorithm is applied to identify four corners. On the other hand, if the medicine package in the first processed image has an irregular quadrangular shape such as an irregular polygon having three straight sides and one curved side, a centroid algorithm is applied for corner identification. With the above configuration, it is possible to calculate the coordinate position of each corner regardless of the orientation and shape of the medicine package.

ステップS122において、各処理画像のコーナーを識別することは、その後の回転ステップ(S123)および組み合せステップ(S124)の実行のためのアンカー点設定の目的を果たすだけでなく、さらなる分析のため、パッケージ全体が第一処理画像中に包含されていることを確実にする目的も果たす。なお、上記で算定されたブリスターパッケージ画像の4つのコーナーは、4つのコーナーの算定された座標位置に基づいて、第一処理画像が所定の位置に回転できるように、時計回りまたは反時計回り方式で整える必要がある(S123)。この所定位置は、実施上の必要に基づいて変えてよい。いくつかの例において、この所定位置とは、ブリスターパッケージの短辺および長辺が、それぞれデカルト座標系中のXおよびY軸に平行となる位置をいう。好ましくは、ブリスターパッケージは、その短辺および長辺を、それぞれデカルト座標系中のXおよびY軸に平行にさせるために、画像の回転の必要が一回だけでよいような仕方で方向付けられる。実施において、第一処理画像を回転させるためにいくつかの透視変換アルゴリズムを使うことができ、これは所定の画素サイズ(例えば448×224画素)を有するように設定されており、これにより、所定位置を有する第二処理(回転)画像が生成される。   In step S122, identifying the corners of each processed image not only serves the purpose of anchor point setting for the subsequent rotation step (S123) and combination step (S124) execution, but also the package for further analysis. It also serves the purpose of ensuring that the whole is included in the first processed image. The four corners of the blister package image calculated above are clockwise or counterclockwise so that the first processed image can be rotated to a predetermined position based on the calculated coordinate positions of the four corners. (S123). This predetermined position may be changed based on practical needs. In some examples, this predetermined position refers to a position where the short and long sides of the blister package are parallel to the X and Y axes, respectively, in a Cartesian coordinate system. Preferably, the blister package is oriented in such a way that the image needs to be rotated only once, so that its short and long sides are parallel to the X and Y axes, respectively, in the Cartesian coordinate system. . In practice, several perspective transformation algorithms can be used to rotate the first processed image, which are set to have a predetermined pixel size (e.g., 448 x 224 pixels), whereby the predetermined A second processed (rotated) image having a position is generated.

次に、ステップS124で、薬剤の第二処理画像の何れか2つが並べて置かれ(または相互に並置され)これにより組み合せ画像が生成される。なお、このステップで得られた組み合せ画像には多様な並べ換えを含めることができ、これはできるだけ多くのライブラリデータベースを構築する上での利点がある。第二処理画像の2つは、ブリスターパッケージが表裏どちらに向いていたかどうかにかわらず、その両側面であればよい。好ましくは、同じ方位を有する薬剤パッケージの各々の面をそれぞれ示している第二処理画像の2つが選択され、相互に並置されて、そのパッケージ中の最大の特徴的情報を包含する組み合せ画像が生成される。   Next, in step S124, any two of the second processed images of the medicine are placed side by side (or placed side by side) to generate a combined image. It should be noted that various sorts can be included in the combined image obtained in this step, which is advantageous in constructing as many library databases as possible. Two of the second processed images need only be on both sides of the blister package, regardless of whether the blister package is facing front or back. Preferably, two of the second processed images, each representing a respective face of the drug package having the same orientation, are selected and juxtaposed to each other to produce a combined image containing the largest characteristic information in the package. Is done.

ステップS130およびS140において、この組み合せ画像は、薬剤ライブラリを確立するための基準画像を生成すべくコンピュータ中に内蔵された機械学習アルゴリズムを訓練するために用いられる。薬剤情報を含むこの組み合せ画像は、薬剤ライブラリ中に参照情報として格納されたその特徴によって分類され、将来、候補パッケージを識別するために読み出すことができる。いくつかの実施形態において、少なくとも1つの組み合せ画像が、機械学習アルゴリズムに入力される。例示的な実施形態において、10、100、200、300、400、500、1000、1,100、1,200、1,300、1,400、1,500、2,000、2,500、3,000、3,500、4,000、4,500、5,000、5,500、10,000、11,000、12,000、13,000、14,000、15,000、16,000、17,000、18,000、19,000、および20,000の組み合せ画像など、10〜20,000より多い組み合せ画像が、薬剤ライブラリを確立すべく機械学習アルゴリズムを訓練するため入力される。画像情報を参照情報に変換すべく機械学習システムを訓練するためあらゆる画像を使うことができ、引き続いてこの参照情報は、デバイスおよび/またはシステム中の組み込みライブラリ中に格納される。   In steps S130 and S140, this combined image is used to train a machine learning algorithm built into the computer to generate a reference image for establishing a drug library. This combined image containing the medication information is categorized by its features stored as reference information in the medication library and can be read out to identify candidate packages in the future. In some embodiments, at least one combination image is input to a machine learning algorithm. In an exemplary embodiment, 10, 100, 200, 300, 400, 500, 1000, 1,100, 1,200, 1,300, 1,400, 1,500, 2,000, 2,500, 3, 000, 3,500, 4,000, 4,500, 5,000, 5,500, 10,000, 11,000, 12,000, 13,000, 14,000, 15,000, 16,000 , 17,000, 18,000, 19,000, and 20,000 combined images are input to train machine learning algorithms to establish a drug library. Any image can be used to train a machine learning system to convert image information into reference information, which is subsequently stored in a built-in library in the device and / or system.

なお、本開示で使用するのに適した機械学習プログラミングシステムは、任意の周知の視認物体検出モデルであってよく、これには、以下に限らないが、実務上の必要性よって特定の基準で最適化されているものもいないものも含め、deformable parts model(DPM)、region convolutional neutral network(R−CNN)、高速R−CNN、超高速R−CNN、マスクR−CNN、およびYOLOが含まれる。好ましくは、本開示の学習ステップを訓練するのに適した当該視認物体検出モデルは、少なくとも、入力画像の画素、境界ボックスの数およびサイズ、ならびにアンカーボックスのようなパラメータについて最適化される。本開示によれば、前述のステップによって処理され、次いで学習システム中に入力される組み合せ画像は、「フルブリード画像」で(例えば、一定数の画素を備えた)所定のサイズでなければならない。これにより、オペレーションのためのアンカーボックスの数およびサイズは、コンピューティングの速度と効率とを向上するために、最小化(例えば、1つだけのアンカーボックスに最小化)することができる。言い換えれば、2つの画像を1つに並置するための前述のステップによって、機械学習システムは、多大な種類の薬剤パッケージの膨大な量のデータを処理するときにあっても、円滑に且つより高速で実行することが可能となる。さらに、全体的な処理時間が短縮され、これが薬剤ライブラリの生成における効用性をさらに向上させる。   It should be noted that a machine learning programming system suitable for use in the present disclosure may be any known visual object detection model, including, but not limited to, specific criteria depending on practical needs. Includes deformable parts model (DPM), region optimized neutral network (R-CNN), fast R-CNN, ultra-fast R-CNN, ultra-fast R-CNN, mask R-CNN, and YOLO, both optimized and unoptimized . Preferably, the visual object detection model suitable for training the learning step of the present disclosure is optimized at least for parameters such as pixels of the input image, number and size of bounding boxes, and anchor boxes. According to the present disclosure, the combined image processed by the foregoing steps and then input into the learning system must be a "full bleed image" and of a predetermined size (eg, with a certain number of pixels). This allows the number and size of anchor boxes for operations to be minimized (eg, to only one anchor box) in order to increase the speed and efficiency of computing. In other words, the aforementioned steps for juxtaposing two images together make the machine learning system smoother and faster, even when processing vast amounts of data for a large variety of drug packages. It is possible to execute with. Further, the overall processing time is reduced, which further enhances the utility in generating drug libraries.

前述のステップS130およびS140を実行することによって、薬剤ライブラリが実施される際の分類モデルとして、各個別の薬剤についての訓練結果を出力することができる。   By executing steps S130 and S140 described above, it is possible to output a training result for each individual drug as a classification model when the drug library is implemented.

2.薬剤を識別するための方法
本開示の第二態様は、薬剤のパッケージ(例えばブリスターパッケージ)によって当該薬剤を識別するための方法を対象とする。図2を参照することとする。
2. Method for identifying a drug A second aspect of the present disclosure is directed to a method for identifying a drug by a package of the drug (eg, a blister package). Please refer to FIG.

図2を参照すると、この図は、本開示の一実施形態による、方法200を表すフローチャートである。方法200は、
(S210)薬剤のブリスターパッケージの前面および背面の画像を同時に取得するステップと、
(S220)候補画像を生成するために、ステップS210からの前面および背面の画像を並置するステップと、
(S230)オプションとして候補画像を薬剤ライブラリ中に移送するステップと、
(S240)候補画像を、前述の方法によって確立された薬剤ライブラリの基準画像と比較するステップと、
(S250)ステップS240の結果を出力するステップと、
を含む。
Referring to FIG. 2, this figure is a flowchart illustrating a method 200 according to one embodiment of the present disclosure. Method 200 includes:
(S210) simultaneously obtaining the front and back images of the blister package of the medicine;
(S220) juxtaposing the front and back images from step S210 to generate candidate images;
(S230) optionally transferring the candidate image into the drug library;
(S240) comparing the candidate image with a reference image of a drug library established by the method described above;
(S250) outputting the result of step S240;
including.

好ましくは、方法200は、本方法のステップを実行するための命令、および薬剤ライブラリを内蔵するプロセッサ可読の非一時的ストレージ媒体によって実装することが可能である。薬剤ライブラリは、前述の方法100によって、当初に格納し組み込むことができ、または確立することができる。   Preferably, method 200 can be implemented by instructions for performing the steps of the method, and a processor-readable non-transitory storage medium that contains a drug library. The drug library can be initially stored and installed or established by the method 100 described above.

画像受信ステップ(S210)において、薬剤の2つの生画像を同時に取り込まれる。これら2つの生画像は、好ましくは、それぞれ薬剤のブリスターパッケージ各側面(すなわち、前面および背面画像)である。これら生画像は、任意の周知の手法で、好ましくは少なくとも1つの画像取込デバイス(例えばビデオカメラ)によって取得することができる。一例示的な実施形態において、これらブリスターパッケージの2つの生画像は、薬剤の両面(例えば、薬剤の前面および背面)上下方に配置された2つの画像取込デバイスによって同時に取り込まれ、これにより、これら2つの生画像はブリスターパッケージの両面上の薬剤情報を包含することになる。後時の機械学習プロセスのための外観認識の正確さを向上するために、ステップS210で得られた2つの生画像は、候補画像を生成するために、相互にきちんと隣接して並置される(ステップS220)。方法100と同様、目標は、主被写体以外の情報のない(すなわち、ブリスターパッケージおよび/またはラベルの画像だけの)、所定の特徴(例えば、並べて配置された前面および背面の所定の画素サイズの画像など)を有する適切な画像を生成することである。   In the image receiving step (S210), two raw images of the medicine are simultaneously captured. These two raw images are preferably each side of the blister package of the drug (i.e., front and back images). These raw images can be acquired in any known manner, preferably by at least one image capture device (eg a video camera). In one exemplary embodiment, the two raw images of these blister packages are simultaneously captured by two image capture devices located below and above both sides of the drug (eg, front and back of the drug), These two raw images will contain the medication information on both sides of the blister package. In order to improve the accuracy of appearance recognition for the later machine learning process, the two raw images obtained in step S210 are juxtaposed adjacent to each other to generate candidate images ( Step S220). As in method 100, the goal is to define certain features (e.g., only the blister package and / or label image) without information other than the main subject (e.g., an image of a predetermined pixel size on the front and back side by side). Etc.) to generate a suitable image.

ステップS220で生成された候補画像は、次いで、薬剤ライブラリに格納された基準画像と比較され(S240)、その結果(すなわち、特定の薬剤に対する薬品情報)がユーザに出力される(S250)。ステップS220は、ステップS210、S240、およびS250を実行するためのコンピューティングデバイスと同じでもまたは異なったデバイスで行われてもよい。本開示のオプションの実施形態によれば、ステップS220は、ステップS210、S240、およびS250を実行するためのものとは異なるコンピューティングデバイスで実行され、このため、オプションのステップS230が行われ、このステップでは、ステップ220で生成された処理画像または候補画像が、ステップS240およびS250が行われる予定のコンピューティングデバイスに転送される。   The candidate image generated in step S220 is then compared with the reference image stored in the medicine library (S240), and the result (ie, medicine information for a specific medicine) is output to the user (S250). Step S220 may be performed on the same or a different device as the computing device for performing steps S210, S240, and S250. According to an optional embodiment of the present disclosure, step S220 is performed on a different computing device than to perform steps S210, S240, and S250, so that optional step S230 is performed, In step, the processed image or candidate image generated in step 220 is transferred to a computing device where steps S240 and S250 are to be performed.

ステップS220に戻って、これは方法100のステップS120と類似であり、通常、
(S221)それぞれが画定された輪郭を有する2つの第一処理画像を生成するために、前面および背面画像を処理するステップと、
(S222)2つの第一処理画像の各画定された輪郭のコーナーの座標位置を算定するためにそれらコーナーを識別するステップと、
(S223)2つの第二処理画像を生成するために、ステップS222で算定された座標位置に基づいて、ステップS221の2つの第一処理画像の各々を回転するステップと、
(S224)候補画像を生成するために、ステップS223の2つの第二処理画像を組み合せるステップと、
を含む。
Returning to step S220, which is similar to step S120 of method 100, typically
(S221) processing the front and back images to generate two first processed images each having a defined contour;
(S222) identifying the corners of each defined contour of the two first processed images to determine a coordinate position of the corners;
(S223) rotating each of the two first processed images in step S221 based on the coordinate positions calculated in step S222 to generate two second processed images;
(S224) combining the two second processed images in step S223 to generate a candidate image;
including.

ステップS221において、複数の第一処理画像を生成するために、画像プロセッサによって前面および背面画像がそれぞれ処理され、各処理画像は良好に区画された輪郭を有する。このために、ステップS221の前面および背面画像は、それぞれ、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される。なお、(i)〜(v)の各処理は、任意の順序で個別的に行われる。実施において、2つの生画像からバックグラウンドノイズを除去し、ターゲットの特徴を抽出するためにいくつかの周知のアルゴリズムが使われてよい。   In step S221, the front and back images are each processed by an image processor to generate a plurality of first processed images, each processed image having a well-defined contour. For this purpose, the front and rear images in step S221 are (i) grayscale conversion processing, (ii) noise reduction processing, (iii) edge identification processing, (iv) convex hull processing, and (v) contour formation, respectively. It is attached to the processing. The processes (i) to (v) are individually performed in an arbitrary order. In implementation, several well-known algorithms may be used to remove background noise from two raw images and extract target features.

さらに具体的には、(i)グレースケール変換処理は、色変換アルゴリズムを使って実行され(S2211)、(ii)ノイズ低減処理は、バックグラウンドノイズを最小化するために、フィルタアルゴリズムを使って実行され(S2212)、(iii)エッジ識別処理は、画像中のブリスターパッケージの各エッジの座標位置を算定するために、エッジ識別アルゴリズムを使って実行され(S2213)、(iv)凸包処理は、画像中の薬剤のブリスターパッケージの実際の面積を計算するために、凸包アルゴリズムを使って実行され(S2214)、および(v)輪郭形成処理は、ブリスターパッケージの主要部分を抽出してハイライトするために、輪郭画定アルゴリズム使って実行される(S2215)。   More specifically, (i) the grayscale conversion process is performed using a color conversion algorithm (S2211), and (ii) the noise reduction process uses a filter algorithm to minimize background noise. (S2212), and (iii) edge identification processing is performed using an edge identification algorithm to calculate the coordinate position of each edge of the blister package in the image (S2213), and (iv) convex hull processing is performed. The convex hull algorithm is used to calculate the actual area of the blister package of the drug in the image (S2214), and (v) the contouring process extracts and highlights the major parts of the blister package. In this case, the process is executed using a contour definition algorithm (S2215).

実施において、ステップS221中の生画像は、方法がステップS222に進む前に、(i)〜(v)の全ての処理に付される。前述のように、これらの処理は、個別的に任意の順序で実行することができ、したがって、ステップS221で得られた生画像、または1つの処理から得られた画像は、次の処理に用いられる。例えば、ステップS221の生画像は、最初に処理(i)またはステップS2211に付され、このステップで、生画像のBGR色はグレースケールに変換され、これによりグレースケール画像が生成される。この処理(i)から得られたグレースケール画像は、全ての処理(i)〜(v)が成功裏に適用されるまで、引き続き処理(ii)〜(v)の何れによって処理されてもよく、これにより、画定された輪郭を有する第一処理画像が生成される。   In practice, the raw image in step S221 is subjected to all of the processes (i) to (v) before the method proceeds to step S222. As described above, these processes can be individually executed in any order, and thus the raw image obtained in step S221 or the image obtained from one process is used for the next process. Can be For example, the raw image of step S221 is first subjected to the processing (i) or step S2211, and in this step, the BGR color of the raw image is converted to grayscale, thereby generating a grayscale image. The grayscale image obtained from this process (i) may be subsequently processed by any of processes (ii) to (v) until all processes (i) to (v) have been successfully applied. Thus, a first processed image having a defined contour is generated.

代わりにまたはオプションとして、ステップS221の生画像は、最初に処理(iv)またはステップS2214に付され、これに対し凸包アルゴリズムが適用される。この凸包アルゴリズムは、平面中の点の有限集合の凸包、または他の低次元のユークリッド空間を見出すためのものである。本開示において、凸包は、画像中の薬剤のブリスターパッケージの実際の面積を計算することによって画定される。処理(iv)またはステップS2214から得られた画像は、次いで、全ての処理(i)〜(v)が成功裏に適用されるまで、(i)、(ii)、(iii)または(v)のどの処理によって処理されてもよく、これにより、画定された輪郭を有する第一処理画像が生成される。   Alternatively or optionally, the raw image of step S221 is first subjected to processing (iv) or step S2214, for which a convex hull algorithm is applied. The convex hull algorithm is for finding the convex hull of a finite set of points in a plane, or other low-dimensional Euclidean space. In the present disclosure, the convex hull is defined by calculating the actual area of the blister package of the drug in the image. The image obtained from operation (iv) or step S2214 is then applied to (i), (ii), (iii) or (v) until all operations (i) to (v) have been successfully applied. , Which produces a first processed image having a defined contour.

1つの好適な実施形態において、処理はステップS2211からステップS2215まで順次的に行われる。ステップS2211〜S2215に用いられた方策およびアルゴリズムはステップS121で説明したものと類似であり、したがって簡潔化のためここでは繰り返さない。   In one preferred embodiment, processing is performed sequentially from step S2211 to step S2215. The strategies and algorithms used in steps S2211 to S2215 are similar to those described in step S121, and therefore will not be repeated here for brevity.

当然のことながら、S2212〜S2215の各ステップは、当該アルゴリズムが前述したのと同じ結果を達成する限りにおいて、当該技術分野で周知の任意の別のアルゴリズムによって実行されてよい。   Of course, steps S2212 to S2215 may be performed by any other algorithm known in the art, as long as the algorithm achieves the same result as described above.

ステップS2211〜S2215を実行することによって、2つの生画像(すなわち、1つの薬剤のブリスターパッケージから撮られた前面および背面の画像)から、それぞれが画定された輪郭を有する2つの第一処理画像が生成され、該画像では、生画像中のバックグラウンドノイズが除去され、さらなる画像処理手順のため、ブリスターパッケージの主要部分が抽出されハイライトされている。   By performing steps S2211 to S2215, from the two raw images (i.e., the front and back images taken from one blister package of one drug), two first processed images, each having a defined contour, are obtained. In the generated image, the background noise in the raw image has been removed and the main part of the blister package has been extracted and highlighted for further image processing procedures.

ステップS222〜S224に進んで、これらのステップの目標は、ステップS122〜S124の目標と同じである。ステップS222において、ブリスターパッケージのプロフィールのエッジの少なくとも3つの直線が算定され、次いで、幾何学的推定によって、最近似の四角形およびそのコーナーの座標位置が導出される。コーナーを識別するためのステップS222が達成されたならば、一定のシグネチャーテンプレートの中で処理されハイライトされた2つの画像を生成するために、算定された座標位置に基づいて、ステップS223を実行することができよう。ステップS224において、これら2つの処理画像は並べて並置され、薬剤のパッケージの両面上の情報を包含する候補画像を生成するため1つの画像に組み合される。S220で用いられる方策は、方法100の中で説明したものと類似であり、したがって簡潔化のためここでは繰り返さない。   Proceeding to steps S222 to S224, the targets of these steps are the same as the targets of steps S122 to S124. In step S222, at least three straight lines of the edges of the profile of the blister package are calculated, and then the geometric estimation derives the closest rectangle and the coordinate positions of its corners. Once step S222 for identifying a corner has been achieved, perform step S223 based on the calculated coordinate positions to generate two images that have been processed and highlighted in a signature template. Could be. In step S224, these two processed images are juxtaposed and combined into one image to generate a candidate image that contains information on both sides of the drug package. The strategy used in S220 is similar to that described in method 100, and thus will not be repeated here for brevity.

ステップS240において、組み合せ画像または候補画像は、次いで、薬剤の識別情報を判断するために、薬剤ライブラリ中に格納された基準画像と比較される。いくつかの実施形態において、この薬剤ライブラリは、ステップS220を実行するための命令を有するのと同じコンピューティングデバイスに、またはそれと異なる他のプロセッサ可読ストレージ媒体に格納される。本開示のオプションの実施形態によれば、候補画像は、ステップS220を実行するための命令を内蔵する第一処理ユニット中で生成され、次いで、処理された画像は、第二処理ユニットに配置された薬剤ライブラリ(例えば、前述の方法100によって構築された薬剤ライブラリ)に移送される。候補画像を薬剤ライブラリの基準画像と比較するため、ストレージ媒体中に内蔵された機械学習命令の下で、ステップS240が実行され、次いでその結果(一致もしくは不一致)がユーザに出力される。この比較によって、候補画像が、薬剤ライブラリ中の或る特定の基準画像に一致するか、または最高度の類似性を有することが示された場合、その特定の基準画像に対応する薬剤の情報が出力される。この比較が、候補画像と、ライブラリ中の全ての基準画像との間で一致結果を出すことができなかった場合、「一致結果なし」を示す見解が出力される。   In step S240, the combined image or candidate image is then compared to a reference image stored in a drug library to determine drug identification information. In some embodiments, the drug library is stored on the same computing device that has the instructions to perform step S220, or on another different processor-readable storage medium. According to an optional embodiment of the present disclosure, the candidate image is generated in a first processing unit incorporating instructions for performing step S220, and then the processed image is located in a second processing unit. Transferred to a drug library (e.g., a drug library constructed by the method 100 described above). In order to compare the candidate image with the reference image of the medicine library, step S240 is executed under a machine learning command built in the storage medium, and the result (match or mismatch) is output to the user. If the comparison indicates that the candidate image matches or has the highest similarity to a particular reference image in the drug library, the information of the drug corresponding to that particular reference image is Is output. If the comparison fails to produce a match between the candidate image and all of the reference images in the library, a view indicating "no match" is output.

前述のように、この機械学習アルゴリズムの目的は、薬剤の視認を向上させることである。いくつかの実施形態において、代表的なアルゴリズムは、実務上の必要により特定の基準で最適化されているものもいないものも含め、任意の周知の視認物体検出モデルの下で実行されるディープラーニングアルゴリズムとすることができる。一例示的な実施形態において、このディープラーニングは、最適化された検出モデルの下で実行される。別の例示的な実施形態では、本方法によって処理された候補画像は、「フルブリード画像」で所定の画素サイズ(例えば、448×224画素)でなければならず、これにより、機械学習のオペレーションのためのパラメータを最少レベルに保つことが可能で、これにより、コンピューティングの速度および効率が向上する。   As mentioned above, the purpose of this machine learning algorithm is to improve drug visibility. In some embodiments, the exemplary algorithm is a deep learning performed under any well-known visual object detection model, some of which are optimized for specific criteria according to practical needs. It can be an algorithm. In one exemplary embodiment, this deep learning is performed under an optimized detection model. In another exemplary embodiment, the candidate images processed by the method must be “full bleed images” and of a predetermined pixel size (eg, 448 × 224 pixels), thereby providing a machine learning operation Can be kept to a minimum level, which increases computing speed and efficiency.

なお、2つの処理画像を、「組み合せ画像」と名付けられた1つの画像に並置することによって、本機械学習システムおよび/または方法は、多大な種類の薬剤パッケージに対する膨大な量のデータを処理するときにあっても、円滑に且つより高速で実行することが可能である。言い換えれば、処理されハイライトされた画像は、実際上コンピューティングの効率と正確さとを増大する。上記の技術特徴のおかげで、ブリスターパッケージによって薬剤を識別することを意図する本方法200は、薬剤識別の正確さを向上し、薬剤払い出し過程での人的エラーを大幅に排除し、これにより薬剤使用の安全性および患者介護の品質を向上する。   It should be noted that by juxtaposing the two processed images into one image named “combined image”, the machine learning system and / or method processes a vast amount of data for a large variety of drug packages. Even at times, it can be executed smoothly and at a higher speed. In other words, the processed and highlighted image actually increases the efficiency and accuracy of computing. Thanks to the above technical features, the present method 200, intended to identify a drug by a blister package, improves the accuracy of drug identification and greatly eliminates human error in the drug dispensing process, thereby Improve safety of use and quality of patient care.

本明細書に記載の主題は、格納されたプロセッサ可読命令を有する非一時的で有形のプロセッサ可読ストレージ媒体を使用して実装できよう。これらの命令は、プログラム可能デバイスのプロセッサによって実行されると、本開示の実施形態による方法を実行するように、当該プログラム可能デバイスを制御する。本明細書に記載の主題を実装するのに適した例示的なプロセッサ可読ストレージ媒体は、以下に限らないが、RAM、ROM、EPROM、EEPROM、フラッシュメモリまたは他のソリッドステートメモリ技術、CD−ROM、DVD、または他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたは他の磁気ストレージデバイス、および所望の情報を格納するために使用することができ、プロセッサによるアクセスが可能な任意の他の媒体を含む。さらに、本明細書に記載の主題を実装するプロセッサ可読ストレージ媒体は、単一のデバイスまたはコンピューティングプラットフォームに配置されてもよく、あるいは複数のデバイスまたはコンピューティングプラットフォームに亘って分散されてもよい。いくつかの実施形態において、このコンピューティングプラットフォームは、リアルタイムコンピューティング制約を内蔵されたシステムである。   The subject matter described herein could be implemented using a non-transitory, tangible, processor-readable storage medium having stored processor-readable instructions. These instructions, when executed by a processor of the programmable device, control the programmable device to perform a method according to embodiments of the present disclosure. Exemplary processor-readable storage media suitable for implementing the subject matter described herein include, but are not limited to, RAM, ROM, EPROM, EEPROM, flash memory or other solid state memory technology, CD-ROM , DVD, or other optical storage, magnetic cassette, magnetic tape, magnetic disk storage or other magnetic storage device, and any other that can be used to store desired information and accessible by the processor Including media. Further, a processor-readable storage medium implementing the subject matter described herein may be located on a single device or computing platform, or may be distributed across multiple devices or computing platforms. In some embodiments, the computing platform is a system with embedded real-time computing constraints.

3.調薬管理システム
本明細書に記載された主題の別の態様において、調薬管理システムが提供される。図3を参照すると、システム300が示され、これは、画像取込デバイス310と、画像プロセッサ320と、機械学習プロセッサ330とを含み、この図では、画像取込デバイス310および機械学習プロセッサ330は、それぞれ画像プロセッサ320に連結されている。画像取込デバイス310は、薬剤のパッケージの複数の画像を取り込むように構成される。いくつかの実施形態において、画像取込デバイス310は、その構造中に、透明ボード3101、および透明ボードの各々の側の上下方に別個に配置された2つの画像取込ユニット3102を含み、このボードはガラスまたはアクリレート系ポリマーで作製することができる。実施において、薬剤は、透明ボード3101の上に置かれ、薬剤パッケージの両面の画像が2つの画像取込ユニット3102によって同時に取り込まれる。典型的には、これら2つの画像取込ユニット3102は、リアルタイムデジタルカメラである。
3. Dispensing Management System In another aspect of the presently described subject matter, a dispensing management system is provided. Referring to FIG. 3, a system 300 is shown that includes an image capture device 310, an image processor 320, and a machine learning processor 330, where the image capture device 310 and the machine learning processor 330 , Each coupled to an image processor 320. Image capture device 310 is configured to capture a plurality of images of a package of medication. In some embodiments, the image capture device 310 includes, in its structure, a transparent board 3101 and two image capture units 3102 separately disposed above and below each side of the transparent board. The board can be made of glass or an acrylate-based polymer. In practice, the medication is placed on a transparent board 3101 and images on both sides of the medication package are captured simultaneously by the two image capture units 3102. Typically, these two image capture units 3102 are real-time digital cameras.

本開示によれば、別途に示されている場合を除き、画像プロセッサ320および機械学習プロセッサ330は、それぞれ、これらプロセッサに本方法を実施させるための複数の命令を格納するメモリを包含する。いくつかの実施形態において、画像プロセッサ320および機械学習プロセッサ330は、2つの別個のデバイスとして別々に配置されるが、それに換えて、これらは同一のハードウェアの中に配置されてもよい。いくつかの実施形態では、画像プロセッサ320および機械学習プロセッサ330は、相互に通信可能に接続される。さらに具体的には、画像プロセッサ320は、画像取込デバイス310によって取り込まれた画像を受信するため、画像取込デバイス310と通信可能に接続され、本方法の(ステップS120およびS220などの)画像処理ステップを実行し、これによりさらなる識別のための候補画像を生成するように構成される。機械学習プロセッサ330は、画像プロセッサ320と通信可能に接続され、薬剤識別のための本方法の(ステップS240などの)画像比較を実施するように構成される。上記のステップは、候補画像を、本方法によって確立された薬剤ライブラリ中の基準画像と比較するステップを含む。この薬剤ライブラリは、機械学習プロセッサ330と通信可能に接続される。図3に示された例示的な実施形態において、本薬剤ライブラリ3301は、機械学習プロセッサ330中に格納される。代わりにまたはオプションとして、薬剤ライブラリは、ケーブル接続またはワイヤレスネットワークによって機械学習プロセッサ330に接続されたストレージデバイス中に格納されてもよい。   According to the present disclosure, unless otherwise indicated, the image processor 320 and the machine learning processor 330 each include a memory for storing a plurality of instructions for causing the processors to perform the method. In some embodiments, image processor 320 and machine learning processor 330 are separately located as two separate devices, but alternatively they may be located in the same hardware. In some embodiments, the image processor 320 and the machine learning processor 330 are communicably connected to each other. More specifically, the image processor 320 is communicatively connected to the image capture device 310 to receive the image captured by the image capture device 310 and receives the image (eg, steps S120 and S220) of the method. It is configured to perform a processing step, thereby generating a candidate image for further identification. The machine learning processor 330 is communicatively connected to the image processor 320 and is configured to perform an image comparison (eg, step S240) of the method for drug identification. The above steps include comparing the candidate image to a reference image in a drug library established by the method. This drug library is communicably connected to the machine learning processor 330. In the exemplary embodiment shown in FIG. 3, the drug library 3301 is stored in the machine learning processor 330. Alternatively or optionally, the drug library may be stored in a storage device connected to machine learning processor 330 by a cable connection or a wireless network.

いくつかの実施形態において、システム300は、薬剤識別の結果を出力し、外部のユーザから命令を受信し、ユーザ入力を、画像プロセッサ320および機械学習プロセッサ330に返送するように構成されたユーザインターフェース(図示せず)をさらに含む。   In some embodiments, the system 300 is a user interface configured to output a drug identification result, receive instructions from an external user, and return user input to the image processor 320 and the machine learning processor 330. (Not shown).

画像取込デバイス310と、画像プロセッサ320と、機械学習プロセッサ330との間の通信は、様々な技法を使って具現化することが可能である。例えば、本システム300は、(ローカルエリアネットワーク(LAN:local area network)、広域ネットワーク(WAN:wide area network)、インターネット、またはワイヤレスネットワークなどの)ネットワークを介して、画像取込デバイス310と、画像プロセッサ320と、機械学習プロセッサ330との間の通信を可能にするためのネットワークインターフェースを含んでよい。別の例では、本システムは、画像取込デバイス310から画像プロセッサ320までを含め、様々なシステムコンポーネントを連結するシステムバスを有してよい。   Communication between the image capture device 310, the image processor 320, and the machine learning processor 330 can be embodied using various techniques. For example, the system 300 may include an image capture device 310 and an image capture device 310 via a network (such as a local area network (LAN), a wide area network (WAN), the Internet, or a wireless network). A network interface may be included to enable communication between the processor 320 and the machine learning processor 330. In another example, the system may have a system bus that links various system components, including the image capture device 310 to the image processor 320.

以下の実施例は、本発明の特定の態様を明らかにし、当業者が本発明を実践するのを援助するために提供される。これらの実施例は、いかなる形においても本発明の範囲を限定すると決して見なされるべきではない。詳述されていなくても、当業者は、本明細書の説明に基づいて、最大範囲で本発明を利用できると考えられる。本明細書で引用された全ての公表物は、参照することによりそれらの全体が組み込まれる。   The following examples are provided to illustrate certain aspects of the present invention and to assist one of ordinary skill in practicing the invention. These examples should in no way be considered as limiting the scope of the invention in any way. Even if not detailed, it is believed that one skilled in the art can, based on the description herein, utilize the present invention to its fullest extent. All publications cited herein are incorporated by reference in their entirety.

実施例1 薬剤ライブラリを構築する
修正両面画像(RTI:Rectified Two−sided Image)を作成する
現在市販されている250を超える薬剤をマッケイメモリアル病院(台湾、台北)の病院薬局から収集した。薬剤ライブラリのデータベースを構築するために、全薬剤のブリスターパッケージの、できるだけ多くの写真を撮った。画像を、バックグラウンドノイズを最小化するためにトリミングし、画像プロセッサ中にプログラムされたオープンソースコンピュータービジョンライブラリバージョン2(OpenCV2:Open Source Computer Vision2)機能を用いて、各薬剤に対する複数の組み合せ画像(「修正両面画像(RTI)」とも言う)を生成するため処理した。各RTIを、所定のテンプレート(以下、修正両面テンプレートRTT(rectified two−sided template))に合わせ、これに1つの薬剤のブリスターパッケージの両面が包含された。CNNモデルを用いるさらなるディープラーニングプロセスのため、合計18,000のRTIを取得した。
Example 1 Building a Drug Library Creating a Modified Two-sided Image (RTI) Over 250 drugs currently on the market were collected from a hospital pharmacy at McKay Memorial Hospital (Taipei, Taiwan). To build a database of drug libraries, we took as many pictures of the blister package of all drugs as possible. The images are cropped to minimize background noise, and multiple combined images for each drug (OpenCV2: Open Source Computer Vision 2) function programmed into the image processor using the Open Source Computer Vision Library 2 (OpenCV2) function. (Also referred to as "modified double-sided image (RTI)"). Each RTI was matched to a predetermined template (hereinafter a modified two-sided template RTT), which included both sides of one drug blister package. A total of 18,000 RTIs were obtained for a further deep learning process using the CNN model.

不規則四角形状の薬剤パッケージのコーナーを検出するための方策
検出対象の薬剤パッケージが、3つの直線辺と1つの湾曲辺によって構成される不規則四角形状の場合、幾何学的推測によって、湾曲辺および未画定のコーナーを算定するためにセントロイドアルゴリズム(表1)を用いた。
Strategies for Detecting Corners of Irregular Rectangular Drug Package In the case where the drug package to be detected has an irregular rectangular shape composed of three straight sides and one curved side, the curved side is determined by geometric estimation. The centroid algorithm (Table 1) was used to calculate undefined and undefined corners.

Figure 2020018353
Figure 2020018353

図4を参照すると、この図は、不規則四角形状を有する薬剤パッケージに対し、どのようにコーナー識別を行うかを例示的に示している。図4に描かれているように、3つの直線辺(L、L、L)および1つの湾曲辺(C)を有するブリスターパッケージはランダム方位であり、LとLとの交点はPと称され、LとLとの交点はPと称された。目標は、4つの点(P、P、P、およびP)と4つの辺(L、L、L、およびC)とに囲まれた面積がパッケージ全体の画像を包含するように、PおよびPの座標位置を決めることであった。辺L上の、PとPとの間の中心点Mを最初に求め、アルゴリズムcv2.モーメント(OpenCV2)によってブリスターパッケージの面積のセントロイドBが算定した。次いで、中心(mi−point)点MおよびセントロイドBの座標位置に基づいて、変位ベクトルνを計算した。最後に、PおよびPの座標位置を、それぞれ、PおよびPから距離νの2倍の位置として算定した。上記の手順によって、P、P、P、およびPの4つの点またはコーナーは、時計回りまたは反時計周りの仕方で、自動的に方位付けされることになろう。 Referring to FIG. 4, this figure exemplarily shows how corner identification is performed on a medicine package having an irregular square shape. As depicted in FIG. 4, a blister package having three straight sides (L 1 , L 2 , L 3 ) and one curved side (C 1 ) is in a random orientation and the L 1 and L 2 intersection is referred to as P 1, an intersection between L 2 and L 3 is referred to as P 4. The goal is that the area enclosed by four points (P 1 , P 2 , P 3 , and P 4 ) and four sides (L 1 , L 2 , L 3 , and C 1 ) represents an image of the entire package. so as to encompass, was to determine the coordinate position of P 2 and P 3. First calculated on the sides L 2, the center point M between P 1 and P 4, the algorithm cv2. The centroid B of the area of the blister package was calculated by the moment (OpenCV2). Next, the displacement vector ν was calculated based on the coordinate positions of the center (mi-point) point M and the centroid B. Finally, the coordinate position of P 2 and P 3, respectively, were calculated as two times the position of the P 1 and P 4 distance [nu. By the above procedure, four points or corners of P 1, P 2, P 3 , and P 4 is a way around clockwise or counterclockwise, it would be automatically oriented.

機械学習能力を最適化する
この例において、機械学習の目標は、畳み込みニューラルネットワーク(CNN)によって達成された。このために、グラフィックス処理ユニット(GPU:graphics processing unit)によって実行された最小構成バージョンYOLOv2(Tiny YOLOとしても知られる)ニューラルを、各RTIの視認を訓練するために用いた。従来型のYOLOv2の一般的な概念は、1つの画像を複数の格子セルに分割し、境界ボックスを予測するためにアンカーボックスを使用するものである。簡単に言えば、各々が416×416画素サイズを有するRTI画像がネットワークに入力され、次いで該ネットワークで、Tiny YOLOv2ニューラルが各画像中に奇数の格子セルを生成した。これにより、中央には1つだけの格子セル(すなわち、中央格子セル)があることになる。次いで、各格子セルおよびその隣接格子セルが、それらが何らかの特徴的情報を包含しているかどうかを判定するために分析した。例えば、入力画像は13×13の格子セルに分割することができ、これでは5サイズの境界ボックスを予測することができ、各格子セルから返された信頼性スコアを用いて格子セルが分析対象の被写体を包含していたかどうかを判定する。本例では、入力画像は前もってハイライトされ輪郭取りされていて、しかして、従来型Tiny YOLOは最適化されており、これにより識別の効率が向上され、作業コストの低減につながった。詳しくは、各RTIの入力画像は、「フルブリード画像」になるように且つ所定の画素サイズになるように処理していたので、作業のためのアンカーボックスの数は1つに最少化し、アンカーボックスのサイズは7×7格子セルに設定した。これらにより、当機械学習ネットワークは、入力画像のフルサイズの1つの境界ボックスを予測することが必要なだけであった。Tiny YOLOを最適化するための詳細パラメータを表2にリストする。
Optimize Machine Learning Ability In this example, the goal of machine learning was achieved by a convolutional neural network (CNN). For this, a minimal configuration version YOLOv2 (also known as Tiny YOLO) neural implemented by a graphics processing unit (GPU) was used to train the visualization of each RTI. The general concept of conventional YOLOv2 is to divide one image into multiple grid cells and use anchor boxes to predict bounding boxes. Briefly, RTI images, each having a 416 × 416 pixel size, were input to a network where the Tiny YOLOv2 neural generated an odd number of grid cells in each image. This results in only one grid cell at the center (ie, the center grid cell). Each grid cell and its neighboring grid cells were then analyzed to determine if they contained any characteristic information. For example, the input image can be divided into 13x13 grid cells, which can predict a 5-size bounding box, and use the reliability score returned from each grid cell to analyze the grid cells. It is determined whether or not the subject has been included. In this example, the input image was previously highlighted and contoured, thus optimizing the conventional Tiny YOLO, which led to increased identification efficiency and reduced work costs. Specifically, since the input image of each RTI has been processed to be a “full bleed image” and a predetermined pixel size, the number of anchor boxes for work is minimized to one, and The size of the box was set to a 7 × 7 grid cell. Thus, the machine learning network only needed to predict one full size bounding box of the input image. Detailed parameters for optimizing Tiny YOLO are listed in Table 2.

Figure 2020018353
Figure 2020018353

実施において、最適化Tiny YOLOは、高解像度グラフィックカード、GEFORCE(登録商標)GTX1080(NVIDIA、米国)を備えた機械学習プロセッサ中にプログラムした。この機械学習プロセッサは、最適化されたTiny YOLOの訓練モデルによって、ディープラーニングプロセスを実行した。この最適化Tiny YOLOに対する訓練基準を表3にリストする。   In practice, the optimized Tiny YOLO was programmed into a machine learning processor with a high resolution graphics card, GEFORCE® GTX1080 (NVIDIA, USA). This machine learning processor performed a deep learning process with the optimized Tiny YOLO training model. The training criteria for this optimized Tiny YOLO are listed in Table 3.

Figure 2020018353
Figure 2020018353

実施例2 実施例1の薬剤ライブラリに基づく機械学習を実装した調薬管理システムの薬剤区分け効率を評価する
処理され組み合された画像
本開示のRTIに対する視認効率を検証するために、(無処理で組み合わせられていない)薬剤の生画像および(処理され組み合わせられた)RTIの両方を、ディープラーニングのための訓練モデル(最適化Tiny YOLO)に入力した。訓練の結果を表4に要約する。表4中のデータによれば、本開示の「ハイライトされた」画像は、処理のなかった生画像に比べて、視認の訓練において非常に効率的であった。訓練のF1スコアが高いほど、パッケージ画像の視認におけるディープラーニングネットワークの効率が高い。また、RTTに処理されたRTIは、処理のなかった画像に比べて、その訓練効率が大幅に増大した。
Example 2 Evaluating the drug classification efficiency of a dispensing management system that implements machine learning based on the drug library of Example 1 Processed and combined images In order to verify the visual recognition efficiency for the RTI of the present disclosure, (No processing Both the raw image of the drug (uncombined in) and the RTI (processed and combined) were input into a training model for deep learning (optimized Tiny YOLO). The results of the training are summarized in Table 4. According to the data in Table 4, the "highlighted" images of the present disclosure were very efficient in visual training compared to the unprocessed raw images. The higher the training F1 score, the higher the efficiency of the deep learning network in viewing package images. Also, RTIs processed by RTT have significantly increased training efficiency compared to unprocessed images.

Figure 2020018353
Figure 2020018353

最適化学習モデル
本訓練モデルの効果性を検証するために別の比較を行った。2つの従来型ディープラーニングモデル、ResNet101およびSE−ResNet101を用いてRTIによる訓練モデルを構築した。これらの比較結果を表5に要約する。
Optimization learning model Another comparison was made to verify the effectiveness of this training model. An RTI training model was constructed using two conventional deep learning models, ResNet101 and SE-ResNet101. Table 5 summarizes the results of these comparisons.

Figure 2020018353
Figure 2020018353

表4および5中の結果の比較は、RTTに合わせる本方法によって処理されたRTIは、特に画像が最適化Tiny YOLOモデルによって処理されたときに、訓練効率を向上させるであろうことを立証しており、このモデルでは訓練時間が大幅に減少した。全18,000のRTIは、本開示の薬剤ライブラリが、最適化Tiny YOLOモデルを実行することによって構築されるようにし、この訓練モデルに入力した。この薬剤ライブラリおよびディープラーニングネットワークを、今後の応用のため内蔵のシステムの中にさらに格納した。   Comparison of the results in Tables 4 and 5 demonstrates that RTIs processed by the present method to match RTT would improve training efficiency, especially when images were processed by the optimized Tiny YOLO model. This model significantly reduced training time. A total of 18,000 RTIs were entered into this training model, with the drug library of the present disclosure being built by running an optimized Tiny YOLO model. The drug library and deep learning network were further stored in a built-in system for future applications.

リアルタイム薬剤識別のための応用
実施において、ランダムな薬剤を選び、ガラスで作製された透明ボードを備えた設計されたチャンバ中に置いた。照明のため、透明ボードの周りに光源が配置され、2つのBRIOウェブカメラ(Logitech、米国)を、それらの視野が透明ボードの全域が包含されるのが確実になるようにして該ボードの上下方に別々に配置した。他方で、構築された薬剤ライブラリが、リアルタイムの組み込みコンピューティングデバイス、JETSON(商標)TX2(NVIDIA、米国)に前もって格納しておいた。「開発者キット」と称されるJETSON(商標)TX2は、メモリ、CPU、GPU、USBポート、ウェブアンテナ、およびいくつかの他のコンピューティング要素を含み、これにより、同一のデバイス中で画像処理および機械学習ステップを行うことが可能であった。作動中、ウェブカメラは、USBケーブルによってJETSON(商標)TX2に、選択された薬剤の両側面の画像が、リアルタイムで同時にプロセッサに転送されるように接続した。選ばれた薬剤のブリスターパッケージの2つの生画像は1つのRTIに処理し、その後、RTIは、視認の速度が最高約200FPSのJETSON(商標)TX2中にプログラムされた学習モデルTiny YOLOにかけた。全体の手順(すなわち、画像取込から視認識別まで)に対する時間コストは約6.23FPSである。この識別の結果は、コンピュータ画面または携帯のユーザインターフェースなど、外部の表示デバイス上にリアルタイムで提示されることになる。これにより、外部のユーザは、薬剤がチャンバの中に投入されるのとほぼ同時に識別結果を得ることができる。
Applications for Real-Time Drug Identification In practice, random drugs were selected and placed in a designed chamber with a clear board made of glass. For illumination, a light source is placed around the transparent board and two BRIO webcams (Logitech, USA) are positioned above and below the board to ensure that their field of view covers the entire area of the transparent board. Placed separately. On the other hand, the built drug library was pre-stored on a real-time embedded computing device, JETSON ™ TX2 (NVIDIA, USA). The JETSON (TM) TX2, referred to as a "Developer Kit", includes memory, CPU, GPU, USB port, web antenna, and some other computing elements, thereby enabling image processing in the same device. And machine learning steps could be performed. In operation, the webcam was connected to the JETSON ™ TX2 via a USB cable such that images of both sides of the selected drug were simultaneously transferred in real time to the processor. The two raw images of the blister package of the selected drug were processed into one RTI, which was then subjected to a learning model Tiny YOLO programmed in JETSON ™ TX2 with a speed of up to about 200 FPS. The time cost for the entire procedure (ie, from image capture to visual identification) is about 6.23 FPS. The result of this identification will be presented in real time on an external display device, such as a computer screen or mobile user interface. Thus, an external user can obtain an identification result almost at the same time as the medicine is put into the chamber.

さらに加えて、本システムが、薬剤払い出しの過程における人的エラーの可能性を低減することを検証するために、別の比較を行なった。例えば、抗不安薬のロラゼパムは、他の薬品との高い外観類似性に起因して、払い出し時に最も識別ミスの多い薬品である。最初に、ライブラリ中の全ての薬剤と比較するために、ロラゼパムのRTIを、本システム中に入力した。コンピューティングの後、学習モデルは、該学習モデルによって分析された外観類似性に基づいて、ミス識別される可能性があり得るいくつかの候補薬剤を提起した。この候補リストは、臨床スタッフが選ばれた薬剤が正しいかどうかダブルチェックするのを助力することができる。したがって、本開示の薬剤管理システムによって、薬品払い出しの正確さを改良することが可能で、患者の安全を確実にするため人的なエラーを最小化することができる。   In addition, another comparison was made to verify that the system reduced the likelihood of human error during the drug dispensing process. For example, the anxiolytic lorazepam is the drug most frequently misidentified at the time of dispensing due to high appearance similarity to other drugs. Initially, the RTI of lorazepam was entered into the system for comparison with all drugs in the library. After computing, the learning model raised a number of candidate agents that could be mis-identified based on the appearance similarities analyzed by the learning model. This list of candidates can help clinical staff double check that the selected drug is correct. Thus, the drug management system of the present disclosure can improve the accuracy of drug dispensing and minimize human error to ensure patient safety.

要約すれば、本開示による薬剤管理のための方法およびシステムは、リアルタイム方式で、画像を1つに組み合せるための画像処理ステップおよびディープラーニングモデルを適用することによって、前述の目的を達成することができる。本開示の利点は、被写体(すなわち薬剤)の方位にかかわらず、生画像を効率的に処理できるだけでなく、薬剤の外観を介したそれらの分類に対する正確さを増大することにもある。   In summary, a method and system for drug management according to the present disclosure achieves the foregoing objectives by applying image processing steps and deep learning models to combine images in a real-time manner. Can be. An advantage of the present disclosure is that not only can the raw images be processed efficiently, regardless of the orientation of the subject (ie, the drug), but it also increases the accuracy for their classification through the appearance of the drug.

当然のことながら、前述の諸実施形態の説明は例示のためだけのものであり、当業者は様々な修改を加えることができよう。前述の明細書、諸例、およびデータは、本発明の例示的な実施形態の構造および使用の完全な説明を提供する。本発明の様々な実施形態を、ある程度の特殊性を持って、または1つ以上の個別の実施形態を参照しながら、説明してきたが、当業者は、本発明の趣意および範囲から逸脱することなく、開示された実施形態に数多くの変形を加えることが可能であろう。   Of course, the foregoing description of the embodiments is by way of example only, and those skilled in the art will be able to make various modifications. The foregoing specification, examples, and data provide a complete description of the structure and use of exemplary embodiments of the invention. While various embodiments of the invention have been described with some specificity or with reference to one or more individual embodiments, those skilled in the art will depart from the spirit and scope of the invention. Rather, many modifications may be made to the disclosed embodiments.

Claims (8)

薬剤ライブラリを構築するためのコンピュータ実装方法であって、
(a)ブリスターパッケージの形で、薬剤のパッケージの複数の生画像を受信するステップと、
(b)前記ブリスターパッケージの両面の画像を含む組合せ画像を生成するために、前記複数の生画像のうちの2つを並置するステップと、
(c)基準画像を生成するために前記組合せ画像を処理するステップと、
(d)前記基準画像を用いて、前記薬剤ライブラリを確立するステップと、
を含み、
前記ステップ(b)は、
(b−1)それぞれが画定された輪郭を有する複数の第一処理画像を生成するために、前記複数の生画像をそれぞれ処理するステップと、
(b−2)前記第一処理画像の各画定された輪郭のコーナーの座標位置を算定するために前記コーナーを識別するステップと、
(b−3)複数の第二処理画像を生成するために、前記ステップ(b−2)で前記算定された座標位置に基づいて、前記ステップ(b−1)の前記第一処理画像の各々を回転するステップと、
(b−4)前記ステップ(b)の前記組合せ画像を生成するために、前記第二処理画像の何れか2つを組み合せるステップと、
を含む、
コンピュータ実装方法。
A computer-implemented method for building a drug library, comprising:
(A) receiving a plurality of raw images of a package of a drug in the form of a blister package;
(B) juxtaposing two of the plurality of raw images to generate a combined image including images on both sides of the blister package;
(C) processing the combined image to generate a reference image;
(D) establishing the drug library using the reference image;
Including
The step (b) includes:
(B-1) processing each of the plurality of raw images to generate a plurality of first processed images each having a defined contour;
(B-2) identifying the corner to determine the coordinate position of the corner of each defined contour of the first processed image;
(B-3) each of the first processed images of the step (b-1) based on the coordinate positions calculated in the step (b-2) to generate a plurality of second processed images; Rotating the
(B-4) combining any two of the second processed images to generate the combined image of step (b);
including,
Computer implementation method.
ステップ(b−1)の前記複数の生画像の各々は、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される、請求項1に記載のコンピュータ実装方法。   Each of the plurality of raw images in step (b-1) includes (i) a gray scale conversion process, (ii) a noise reduction process, (iii) an edge identification process, (iv) a convex hull process, and (v) a contour. The computer-implemented method according to claim 1, wherein the method is applied to a forming process. 前記ステップ(b−2)は、ライン変換アルゴリズムまたはセントロイドアルゴリズムによって実行され、前記ステップ(c)は、機械学習アルゴリズムによって実行される、請求項1に記載のコンピュータ実装方法。   The computer-implemented method according to claim 1, wherein the step (b-2) is performed by a line transformation algorithm or a centroid algorithm, and the step (c) is performed by a machine learning algorithm. 薬剤のブリスターパッケージによって薬剤を識別するためのコンピュータ実装方法であって、
(a)前記薬剤の前記ブリスターパッケージの前面および背面の画像を同時に取得するステップと、
(b)候補画像を生成するために、前記ステップ(a)からの前記前面および背面の画像を並置するステップと、
(c)前記候補画像を、請求項1に記載の方法によって確立された薬剤ライブラリの基準画像と比較するステップと、
(d)前記ステップ(c)の結果を出力するステップと、
を含み、
前記ステップ(b)は、
(b−1)それぞれが画定された輪郭を有する2つの第一処理画像を生成するために、前記ステップ(a)の前記前面および背面画像をそれぞれ処理するステップと、
(b−2)前記2つの第一処理画像の各画定された輪郭のコーナーの座標位置を算定するために前記コーナーを識別するステップと、
(b−3)2つの第二処理画像を生成するために、前記ステップ(b−2)で前記算定された座標位置に基づいて、前記ステップ(b−1)で処理された前記2つの第一処理画像の各々を回転するステップと、
(b−4)前記ステップ(b)の前記候補画像を生成するために、前記ステップ(b−3)の前記2つの第二処理画像を組み合せるステップと、
を含む、
コンピュータ実装方法。
A computer-implemented method for identifying a drug by a blister package of the drug, comprising:
(A) simultaneously obtaining front and back images of the blister package of the drug;
(B) juxtaposing the front and back images from step (a) to generate a candidate image;
(C) comparing the candidate image to a reference image of a drug library established by the method of claim 1;
(D) outputting the result of the step (c);
Including
The step (b) includes:
(B-1) processing each of the front and back images of step (a) to generate two first processed images, each having a defined contour;
(B-2) identifying the corners of each of the defined contours of the two first processed images to determine a coordinate position of the corners;
(B-3) the two second processed images processed in step (b-1) based on the coordinate positions calculated in step (b-2) to generate two second processed images. Rotating each of the processed images;
(B-4) combining the two second processed images of step (b-3) to generate the candidate image of step (b);
including,
Computer implementation method.
前記ステップ(b−1)の前記前面および背面の画像は、それぞれ、(i)グレースケール変換処理、(ii)ノイズ低減処理、(iii)エッジ識別処理、(iv)凸包処理、および(v)輪郭形成処理の処理に付される、請求項4に記載のコンピュータ実装方法。   The images of the front surface and the back surface in the step (b-1) are respectively (i) a gray scale conversion process, (ii) a noise reduction process, (iii) an edge identification process, (iv) a convex hull process, and (v) The computer-implemented method according to claim 4, wherein the computer-implemented method is subjected to a contour forming process. 前記ステップ(c)の前に、前記候補画像を前記薬剤ライブラリ中に移送するステップをさらに含む、請求項4に記載のコンピュータ実装方法。   5. The computer-implemented method of claim 4, further comprising, prior to step (c), transferring the candidate image into the drug library. 薬剤のパッケージの複数の画像を取り込むように構成された画像取込デバイスと、
候補画像を生成するための方法を実行する命令をプログラムされた画像プロセッサであって、前記方法は、
(1)それぞれが画定された輪郭を有する複数の第一処理画像を生成するために、前記薬剤の前記パッケージの前記複数の画像をそれぞれ処理するステップと、
(2)前記第一処理画像の各画定された輪郭のコーナーの座標位置を算定するために前記コーナーを識別するステップと、
(3)複数の第二処理画像を生成するために、前記ステップ(2)で前記識別された座標位置に基づいて、前記第一処理画像の各々を回転するステップと、
(4)互いに異なる2つの前記第二処理画像による前記候補画像を生成するために、前記ステップ(3)の前記第二処理画像の2つを並置するステップと、
を含む、前記画像プロセッサと、
前記候補画像と、請求項1に記載の方法によって確立された薬剤ライブラリの基準画像とを比較するための方法を実行する命令をプログラムされた機械学習プロセッサと、
を含む、調薬管理システム。
An image capture device configured to capture a plurality of images of the medication package;
An image processor programmed with instructions for performing a method for generating a candidate image, the method comprising:
(1) processing each of the plurality of images of the package of the medication to generate a plurality of first processed images each having a defined contour;
(2) identifying the corner to determine the coordinate position of the corner of each defined contour of the first processed image;
(3) rotating each of the first processed images based on the coordinate positions identified in step (2) to generate a plurality of second processed images;
(4) juxtaposing two of the second processed images in the step (3) to generate the candidate image by two different second processed images;
Comprising the image processor;
A machine learning processor programmed with instructions for performing a method for comparing the candidate image with a reference image of a drug library established by the method of claim 1;
And a dispensing management system.
前記画像取込デバイスは、
前記薬剤が置かれる透明ボードと、
前記透明ボードの各々の側の上下方に別々に配置された2つの画像取込ユニットと、
を含む、請求項7に記載のシステム。
The image capture device,
A transparent board on which the drug is placed,
Two image capture units separately disposed above and below each side of the transparent board;
The system of claim 7, comprising:
JP2018142102A 2018-07-30 2018-07-30 Methods and systems for classifying and identifying drugs by drug label and / or packaging Active JP6820886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142102A JP6820886B2 (en) 2018-07-30 2018-07-30 Methods and systems for classifying and identifying drugs by drug label and / or packaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142102A JP6820886B2 (en) 2018-07-30 2018-07-30 Methods and systems for classifying and identifying drugs by drug label and / or packaging

Publications (2)

Publication Number Publication Date
JP2020018353A true JP2020018353A (en) 2020-02-06
JP6820886B2 JP6820886B2 (en) 2021-01-27

Family

ID=69589033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142102A Active JP6820886B2 (en) 2018-07-30 2018-07-30 Methods and systems for classifying and identifying drugs by drug label and / or packaging

Country Status (1)

Country Link
JP (1) JP6820886B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114871120A (en) * 2022-05-26 2022-08-09 江苏省徐州医药高等职业学校 Medicine determining and sorting method and device based on image data processing
WO2023276118A1 (en) * 2021-07-01 2023-01-05 日本電気株式会社 Ptp management system
CN116429976A (en) * 2023-04-19 2023-07-14 北京市永康药业有限公司 Injection production and packaging quality detection method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013144101A (en) * 2011-04-28 2013-07-25 Yuyama Manufacturing Co Ltd Medicine checking device and apparatus for separately packaging medicines
JP2015073572A (en) * 2013-10-04 2015-04-20 キヤノンマーケティングジャパン株式会社 Computer, tablet supplying apparatus, medicine packaging apparatus, and control method and program for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013144101A (en) * 2011-04-28 2013-07-25 Yuyama Manufacturing Co Ltd Medicine checking device and apparatus for separately packaging medicines
JP2015073572A (en) * 2013-10-04 2015-04-20 キヤノンマーケティングジャパン株式会社 Computer, tablet supplying apparatus, medicine packaging apparatus, and control method and program for the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276118A1 (en) * 2021-07-01 2023-01-05 日本電気株式会社 Ptp management system
CN114871120A (en) * 2022-05-26 2022-08-09 江苏省徐州医药高等职业学校 Medicine determining and sorting method and device based on image data processing
CN114871120B (en) * 2022-05-26 2023-11-07 江苏省徐州医药高等职业学校 Medicine determining and sorting method and device based on image data processing
CN116429976A (en) * 2023-04-19 2023-07-14 北京市永康药业有限公司 Injection production and packaging quality detection method and system

Also Published As

Publication number Publication date
JP6820886B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
EP3644276B1 (en) Methods and systems for the fast estimation of three-dimensional bounding boxes and drivable surfaces using lidar point clouds
KR102267553B1 (en) Deep Learning System for Cuboid Detection
US20110153341A1 (en) Methods and systems for use of augmented reality to improve patient registration in medical practices
CN105518744B (en) Pedestrian recognition methods and equipment again
Lim et al. Real-time image-based 6-dof localization in large-scale environments
JP6820886B2 (en) Methods and systems for classifying and identifying drugs by drug label and / or packaging
Guo et al. Support surface prediction in indoor scenes
AU2020386867B2 (en) Item identification and tracking system
JP7228670B2 (en) Real-time inventory tracking using deep learning
CN108734087B (en) Object automatic identification method and system, shopping equipment and storage medium
Lim et al. Real-time monocular image-based 6-DoF localization
US10699162B2 (en) Method and system for sorting and identifying medication via its label and/or package
CN109215131A (en) The driving method and device of conjecture face
Anisuzzaman et al. A mobile app for wound localization using deep learning
Čech et al. Multi-view facial landmark detection by using a 3D shape model
Rocca et al. Head pose estimation by perspective-n-point solution based on 2d markerless face tracking
CN110222651A (en) A kind of human face posture detection method, device, terminal device and readable storage medium storing program for executing
CN113505629A (en) Intelligent storage article recognition device based on light weight network
AU2020273672A1 (en) Automated product locker for inventory control
TWI692356B (en) Method of monitoring medication regimen complemented with portable apparatus
TWI695347B (en) Method and system for sorting and identifying medication via its label and/or package
CN110765815B (en) Display rack shielding detection method and device
TWI731484B (en) Method and system for building medication library and managing medication via the image of its blister package
Nakano Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator
CN116524584A (en) Detection method and device for detecting a fall, pick-up or put-back behaviour of a person

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210105

R150 Certificate of patent or registration of utility model

Ref document number: 6820886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350