JP7320972B2 - 画像処理装置、自動分析システム及び画像処理方法 - Google Patents

画像処理装置、自動分析システム及び画像処理方法 Download PDF

Info

Publication number
JP7320972B2
JP7320972B2 JP2019073334A JP2019073334A JP7320972B2 JP 7320972 B2 JP7320972 B2 JP 7320972B2 JP 2019073334 A JP2019073334 A JP 2019073334A JP 2019073334 A JP2019073334 A JP 2019073334A JP 7320972 B2 JP7320972 B2 JP 7320972B2
Authority
JP
Japan
Prior art keywords
container
image
area
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019073334A
Other languages
English (en)
Other versions
JP2020173101A (ja
Inventor
容弓 柿下
英春 服部
卓 坂詰
洋一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2019073334A priority Critical patent/JP7320972B2/ja
Priority to EP20788579.9A priority patent/EP3955008A4/en
Priority to PCT/JP2020/002860 priority patent/WO2020208899A1/ja
Priority to US17/599,370 priority patent/US20220172341A1/en
Priority to CN202080025465.6A priority patent/CN113646641B/zh
Publication of JP2020173101A publication Critical patent/JP2020173101A/ja
Application granted granted Critical
Publication of JP7320972B2 publication Critical patent/JP7320972B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F23/00Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm
    • G01F23/22Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water
    • G01F23/28Indicating or measuring liquid level or level of fluent solid material, e.g. indicating in terms of volume or indicating by means of an alarm by measuring physical variables, other than linear dimensions, pressure or weight, dependent on the level to be measured, e.g. by difference of heat transfer of steam or water by measuring the variations of parameters of electromagnetic or acoustic waves applied directly to the liquid or fluent solid material
    • G01F23/284Electromagnetic waves
    • G01F23/292Light, e.g. infrared or ultraviolet
    • G01F23/2921Light, e.g. infrared or ultraviolet for discrete levels
    • G01F23/2928Light, e.g. infrared or ultraviolet for discrete levels using light reflected on the material surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0096Casings for storing test samples
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/00584Control arrangements for automatic analysers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/00584Control arrangements for automatic analysers
    • G01N35/00722Communications; Identification
    • G01N35/00732Identification of carriers, materials or components in automatic analysers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computing Systems (AREA)
  • Thermal Sciences (AREA)
  • Fluid Mechanics (AREA)
  • Image Analysis (AREA)
  • Automatic Analysis And Handling Materials Therefor (AREA)

Description

本発明は免疫分析装置等を備える自動分析システムにおいて、試料、試薬、反応溶液等の採取対象が収容される容器の状態または採取対象の状態を判定する技術に関する。
免疫分析装置等を備える自動分析システムでは、血液および尿等の試料の成分等を分析するために、試料と試薬を反応させた反応溶液から生じる発色や発光の状態が測定される。分析に用いられる試料や試薬、反応溶液等は試験管等の容器に収容され、分注プローブ等の採取部によって容器から採取される。採取部の採取対象である試料、試薬、反応溶液等が収容される容器には、内径や長さの異なる複数の種別があり、複数の容器が混在している状況では容器の種別が自動的に判別されることが望まれる。
特許文献1には、容器を開口部方向と側面方向の二方向からそれぞれ撮像して得られた図形を、メモリに格納された標準図形と比較することにより、容器の種別を判別することが開示されている。
特開2004-151025号公報
しかしながら特許文献1では、容器の種別を判別するために、容器を開口部方向と側面方向の二方向からそれぞれ撮像する複数のカメラが必要であり、ハードウェアコストがかかる。また特許文献1では、容器の種別を判別することに留まっており、容器の傾きや採取対象の量といった容器または採取対象の状態の判定に対する配慮はなされていない。
そこで本発明は、単一のカメラで取得した画像により、容器または採取対象の状態を判定可能な画像処理装置、自動分析システム及び画像処理方法を提供することを目的とする。
上記目的を達成するために本発明は、試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得部と、前記上方画像から前記容器の縁領域または前記採取対象の上面領域を算出する領域算出部と、前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定部と、を備えることを特徴とする画像処理装置である。
また本発明は、前記画像処理装置を備える自動分析システムであって、前記容器から採取対象を採取する採取部と、前記状態判定部の判定結果に基づいて前記採取部を制御する制御部を備えることを特徴とする自動分析システムである。
また本発明は、試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得ステップと、前記上方画像から前記容器の縁領域または前記採取対象の上面領域を算出する領域算出ステップと、前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定ステップと、を備えることを特徴とする画像処理方法である。
また本発明は、画像を複数の領域に分割する画像処理方法であって、Convolution処理およびPooling処理に用いられるカーネルの要素間に所定数のゼロを挿入することによりダイレートカーネルを作成するステップと、前記ダイレートカーネルを用いてConvolution処理およびPooling処理を実行するステップと、を備えることを特徴とする。
本発明によれば、単一のカメラで取得した画像により、容器または採取対象の状態を判定可能な画像処理装置、自動分析システム及び画像処理方法を提供することができる。
自動分析システムのハードウェア構成の一例を示す図である。 実施例1の機能ブロック図の一例である。 実施例1の処理の流れの一例を示す図である。 領域分割処理の結果の一例を示す図である。 容器の縁領域を算出することについて説明する図である。 容器の種別の判定に用いられるテーブルの一例を示す図である。 容器の種別から容器の長さ等を求めるためのテーブルの一例を示す図である。 Convolution処理の概念を示す図である。 Pooling処理の概念を示す図である。 FCN(Fully Convolutional Networks)による領域分割処理の一例を示す図である。 FCNによる高解像度領域分割処理の一例を示す図である。 Convolution処理とDilated Convolution処理におけるカーネルの一例を示す図である。 Pooling処理とDilated Pooling処理におけるカーネルの一例を示す図である。 ダイレート処理の概念を示す図である。 ダイレートカーネルを用いた領域分割の手順の一例を示す図である。 ダイレートカーネルを用いた領域分割について説明する図である。 実施例2の処理の流れの一例を示す図である。 採取対象の上面領域の算出について説明する図である。 非テレセントリックでの上方画像の一例を示す図である。 テレセントリックでの上方画像の一例を示す図である。 テレセントリックでの斜方画像の一例を示す図である。 容器の縁から採取対象の上面までの距離を求めるためのテーブルの一例を示す図である。 実施例3の処理の流れの一例を示す図である。 非テレセントリックでの上方画像に基づく傾き判定を説明する図である。 テレセントリックでの上方画像に基づく傾き判定を説明する図である。 非テレセントリックでの上方画像に基づく傾き角度の算出について説明する図である。 テレセントリックでの上方画像に基づく傾き角度の算出について説明する図である。 実施例4の機能ブロック図の一例である。 実施例4の処理の流れの一例を示す図である。 教師信号を付与する画像のリストを表示する画面の一例を示す図である。 教師信号を付与する領域を指定するための操作画面の一例を示す図である。 教師信号を付与するための操作画面の一例を示す図である。
以下、添付図面に従って本発明に係る画像処理装置、自動分析システム及び画像処理方法の好ましい実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1を用いて本実施例の自動分析システム100のハードウェア構成の一例について説明する。自動分析システム100は、画像処理装置101と撮像部111、制御部121、採取部122、分析部123を備える。画像処理装置101は、いわゆるコンピュータであり、具体的には、入力部102、演算部103、メモリ104、出力部105を備え、撮像部111や制御部121に接続される。なお、画像処理装置101は自動分析システム100以外のシステムに備えられても良い。以下、各部について説明する。
撮像部111は、容器112と、容器112に収容される採取対象113を撮像する装置であり、例えばカメラである。容器112は試験管等であり、円筒形状またはテーパ形状の一端には底面を、他端には開口部を有する。また容器112には、内径や長さの異なる複数の種別がある。採取対象113は、血液および尿等の試料や、試料に反応させられる試薬、試料と試薬を反応させた反応溶液等であり、液体または粉末である。撮像部111は単一であり、容器112の開口部側、すなわち容器112の上方に設置され、容器112と採取対象113を容器112の上方から撮像する。撮像部111によって容器112の上方から撮像された画像を上方画像と呼ぶ。撮像部111には、テレセントリックまたは非テレセントリックのレンズが取り付けられる。
入力部102は、撮像部111や上方画像が記録された記録装置から上方画像のデータを受信したり、操作者がキーボードやマウス等を操作することによって生じる操作信号を受信したりするインターフェースである。上方画像はBMP、PNG、JPEG等の静止画像でも良いし、MPEG、H.264等の動画像から一定の間隔で抽出したフレーム画像でも良い。
演算部103は、画像処理装置101内での各種の処理を実行する装置であり、例えばCPU(Central Processing Unit)やFPGA(Field-Programmable Gate Array)等である。演算部103によって実行される機能については、図2を用いて後述する。
メモリ104は、演算部103が実行するプログラムや、パラメータ、係数、処理結果等を保存する装置であり、HDDやRAM、ROM、フラッシュメモリ等である。
出力部105は、演算部103による処理の結果を外部に送信するインターフェースであり、例えばディスプレイ、プリンタ等の表示装置や、処理の結果を記録する記録装置、その他の装置を制御する制御装置に対して、処理の結果を出力する。図1には、その他の装置を制御する制御装置の一例である制御部121に処理の結果が出力されることが例示される。
制御部121は、出力部105から出力された処理の結果に基づいて、採取部122の動作を制御する装置であり、具体的にはCPU(Central Processing Unit)等である。
採取部122は、制御部121によって、容器112から採取対象113を採取する装置であり、例えば分注プローブ等である。
分析部123は、採取対象113を用いて分析を行う装置であり、例えば免疫分析装置等である。分析部123による分析の結果は、ディスプレイ等に表示される。
図2を用いて本実施例の機能ブロック図の一例について説明する。なおこれらの機能は、専用のハードウェアで構成されても良いし、演算部103上で動作するソフトウェアで構成されても良い。本実施例は、画像取得部201と領域算出部202と状態判定部203を備える。以下、各部について説明する。
画像取得部201は、撮像部111によって撮像された上方画像212を取得する。上方画像212には、容器112の縁213と内壁214、採取対象113の上面215、混在物216、固定部217が含まれる。混在物216は採取対象113の内部や上面に存在する気泡や脂質等である。固定部217は容器112を固定するホルダ等である。上方画像212に含まれる各部については側面図211も参照されたい。
領域算出部202は、画像取得部201によって取得された上方画像212から、各部のいずれかの領域、例えば容器112の縁213の領域や採取対象113の上面215の領域を算出する。領域を算出するには、画像の輝度値を用いた閾値処理や、FCN(Fully Convolutional Networks)を用いた領域分割処理等が実行される。
状態判定部203は、領域算出部202によって算出されたいずれかの領域に基づいて、容器112や採取対象113の状態、例えば容器112の種別や、容器112の傾き、採取対象113の量を判定する。
図3を用いて、本実施例の処理の流れの一例について説明する。本実施例では、上方画像212から算出される容器112の縁213の領域に基づいて、容器112の種別が判定される。
(S301)
画像取得部201が入力部102を介して上方画像212を取得する。取得される上方画像212は、撮像部111で撮影された画像であっても、図示されない記録装置等に記録される画像であっても良い。
(S302)
領域算出部202がS301で取得された上方画像212から容器112の縁213の領域を算出する。縁213の領域を算出するには、上方画像212の輝度値を用いた閾値処理や、FCNを用いた領域分割処理等のいずれかの処理が実行される。FCNを用いた領域分割処理については図7~図15を用いて後述する。
図4を用いて上方画像212を領域分割処理して得られた領域分割像401の一例について説明する。領域分割像401は、縁領域402、内壁領域403、上面領域404、背景領域405から構成される。縁領域402は、容器112の縁213の領域である。内壁領域403は、容器112の内壁214の領域であり、容器112の縁213と採取対象113との間の領域である。上面領域404は、採取対象113の上面215の領域であり、混在物216も上面領域404に含まれる。背景領域405は、縁領域402よりも外側の領域全体であり、固定部217も背景領域405に含まれる。
(S303)
状態判定部203が、S302で算出された縁領域402に基づいて、容器112の種別を判定する。図5と図6を用いて本ステップについて説明する。
状態判定部203は、S302での算出結果に基づいて、縁の二値化画像501を作成する。縁の二値化画像501には、縁領域402と、縁領域402以外のその他領域503が含まれる。縁領域402には例えば輝度値0が、その他領域503には輝度値255が与えられる。
状態判定部203は、縁の二値化画像501にソーベルフィルタ等を適用して縁領域402の境界を抽出し、縁の境界像502を作成する。容器112の縁213は円環形状であるので、縁の境界像502には容器112の内壁側の境界である内側境界505と、外壁側の境界である外側境界506が含まれる。
状態判定部203は、内側境界505と外側境界506に対して楕円フィッティングを行い、内側境界505と外側境界506の長径を算出し、内側境界505の長径を容器112の内径とし、両者の長径から次式を用いて容器112の厚みを求める。
Figure 0007320972000001
ここでDは容器112の厚み、Loは外側境界506の長径、Lcは内側境界505の長径である。
なお短径ではなく長径を用いる理由は、容器112の傾きの影響を低減するためである。すなわち、容器112が直立状態から傾くに従い、内側境界505と外側境界506の短径は短くなるのに対し長径は変化しにくいためである。楕円フィッティングには、内側境界505または外側境界506の全点が用いられても良いし、内側境界505または外側境界506から任意に抽出される少なくとも3つの抽出点508が用いられても良い。抽出点508には、例えば縁領域402の各座標を算術平均することで求められる重心507から上下左右方向にスキャンすることにより、内側境界505または外側境界506に達した点が抽出される。
状態判定部203は、内側境界505と外側境界506の長径から求められた容器112の内径と厚みを、図6Aに例示されるテーブルと照合することにより、容器112の種別を判定する。例えば、求められた容器112の内径が60ピクセル、厚みが10ピクセルであった場合、容器の種別がαであると判定される。なお求められた内径と厚みがテーブル中のいずれの項目に該当するかは、求められた値と各項目の数値との差分の絶対値によって判定されても良い。例えば求められた内径が98ピクセル、厚みが6ピクセルであった場合、テーブルからは内径100ピクセルと厚み6ピクセルが選択され、容器112の種別はδであると判定される。
なお図6Aに例示されるテーブルは、複数の種別の容器112の内径や厚みが計測されることにより予め作成され、メモリ104等に保管される。またテーブル中の空欄は未知容器を示し、本ステップで求められた内径と厚みが空欄に該当した場合、上方画像212に含まれる容器112は未知容器であると判定される。
(S304)
出力部105が、S303で判定された容器112の種別を出力する。判定の結果は、例えば制御部121へ送信され、制御部121は判定の結果に基づいて採取部122を制御する。例えば、容器112が未知容器であると判定された場合、制御部121は採取部122を停止させても良い。容器112が未知容器であるとき、採取部122を停止させることにより、採取部122と容器112との衝突を避けることができる。
また、容器112の種別に応じて、制御部121は採取部122の高さを調整しても良い。例えば判定結果である容器112の種別が図6Bに例示されるテーブルに照合されることにより取得される容器112の長さに基づいて、採取部122の高さが調整されても良い。 なお図6Bに例示されるテーブルは、複数の種別の容器112の内径や厚み、長さ、テーパの有無が計測されることにより予め作成され、メモリ104等に保管され、必要に応じて参照される。
また、出力部105は判定の結果をディスプレイやプリンタへ出力し、容器112の種別を操作者に提示しても良いし、未知容器である場合には容器112の変更を促すメッセージが表示されても良い。さらに出力部105は、他の画像処理装置へ容器112の種別を出力しても良く、それとともに容器112の種別に応じた補正処理を行った画像を出力しても良い。容器112の種別に応じた補正処理とは、例えば容器112の内径に応じて画像サイズを正規化する処理であったり、容器112の種別に応じてコントラストを補正する処理であったりする。
以上説明した処理の流れにより、画像処理装置101は単一の撮像部111で取得された上方画像212により容器112の状態の一つである容器112の種別を判定できる。また自動分析システム100は、画像処理装置101による判定結果に応じて、採取部122を適切に制御できるので、検査効率を低下させることなく、より正確な分析を行うことができる。
ここでFCNを用いた領域分割処理について説明する。FCNはDNN(Deep Neural Network)の一つであり、全ての層をCNN(Convolutional Neural Network)で構成することで、画像を領域毎に分割する領域分割処理である。CNNはConvolution処理 、Pooling処理 、Activation処理 の3つの処理から構成される。Convolution処理は入力データから特徴量のマップを作成する処理であり、Pooling処理は入力データから代表値を抽出する処理であり、Activation処理は入力データに非線形関数を適用する処理である。
図7を用いてConvolution処理の動作の一例について説明する。図7に示すように、Convolution処理では、入力データIcの左上から右下に向かって複数のピクセルの輝度値を取得する位置をスライドさせながら、取得された複数のピクセルの輝度値への係数Wcの乗算と係数Bcの加算を行うことにより出力データOcが算出される。
数2にConvolution処理の算出式の一例を示す。
Figure 0007320972000002
ここで、入力データIcはチャンネルch、垂直方向位置y、水平方向位置xの3つの次元を持つデータであり、出力データOcは特徴量番号d、垂直方向位置y、水平方向位置xの3つの次元を持つデータである。また乗算係数Wcは特徴量番号d、チャンネルch、垂直方向位置fy、水平方向位置fxの4つの次元を持つ係数であってカーネルとも呼ばれ、加算係数Bcは特徴量番号dの次元を持つ係数である。なおカーネルの大きさはカーネル高さFyとカーネル幅Fxによって表され、カーネルが1回当たりにスライドする量は垂直方向ストライド量Syと水平方向ストライド量Sxによって表される。
また、乗算係数Wcと加算係数Bcは、各領域が正しく分割された画像である教師画像を入力データとして、確率的勾配降下法等を用いる機械学習により予め求められて、領域分割処理の係数としてメモリ104に格納される。すなわち、複数の上方画像212の各ピクセルが縁領域402、内壁領域403、上面領域404、背景領域405のいずれに属するかを正しく表す教師信号を用いて機械学習が行われる。
図8を用いてPooling処理の動作の一例について説明する。図8に示すようにPooling処理では、入力データIpの左上から右下に向かって複数のピクセルの輝度値を取得する位置を一定の刻み幅でスライドさせながら、取得された複数のピクセルの輝度値から代表値を抽出することにより出力データOpが算出される。代表値には例えば複数のピクセルの輝度値の最大値や平均値が用いられ、本実施例で抽出される代表値は最大値である。
数3にPooling処理の算出式の一例を示す。
Figure 0007320972000003
ここで入力データIpと出力データOpはチャンネルch、垂直方向位置y、水平方向位置xの3つの次元を持つデータである。またPooling処理においても、Convolution処理と同様に、取得された複数のピクセルの輝度値にカーネルと呼ばれる係数が乗じられ、カーネルの大きさはFyとFx、カーネルのストライド量はSyとSxによって表される。なおPooling処理では、Sy=Fy、Sx=Fxとする場合が多く、カーネルの全要素は1である。なおPooling処理に用いられるカーネルをPカーネル、Convolution処理に用いられるカーネルをCカーネルと呼ぶ。
Activation処理はConvolution処理の出力データOcやPooling処理の出力データOpに対して、数4や数5の非線形関数を適用し、例えばあるピクセルが縁領域402であるか否かを識別する処理である。
Figure 0007320972000004
Figure 0007320972000005
CNNは上記のConvolution処理、Pooling処理、Activation処理を組み合わせて、特徴量や識別結果を得る。FCNはCNNのみで構成された領域分割器であり、任意サイズの画像を入力することが可能である。
図9にFCNによる領域分割処理の一例を示す。入力画像901はFCNに入力される画像であり、幅と高さがいずれも8ピクセルであるとする。1番目のカーネル902は各層における最初の処理対象領域を示している。網掛け部分は処理対象箇所を表す。2番目のカーネル903は各層における2番目の処理対象領域を示している。1番目のカーネル902と2番目のカーネル903のずれ量はストライド量Sy、Sxによって決定される。
1層目出力データ904は、入力画像901にConvolution処理を適用した結果、2層目出力データ905は1層目出力データ904にPooling処理を適用した結果である。また3層目出力データ906は2層目出力データ905にConvolution処理を適用した結果、4層目出力データ907は3層目出力データ906にPooling処理を適用した結果である。さらに領域分割結果908は4層目出力データ907が入力画像中のどの位置の識別結果に相当するかを表す。なおConvolution処理およびPooling処理のカーネルサイズFy、Fxとストライド量Sy、Sxは図9に記載の通りである。
図9に示す通りストライド量が2以上の処理が実行される毎に、各層の出力データはストライド量に応じてサイズが縮小する。最終出力である4層目出力データ907は2x2ピクセルまで縮小しており、入力画像901上に当てはめられるのは領域分割結果908の黒マスに示した4箇所に過ぎない。すなわち領域分割結果908の黒マスの識別結果しか得られておらず、白マス部分は識別結果が得られていない状態であり、低解像度の領域分割処理となる。
図10を用いて高解像度の領域分割処理について説明する。図10では取得位置の異なる画像をFCNに入力し、各画像に対する領域分割結果を取得する。すなわち第1の入力画像1001、第2の入力画像1002、第3の入力画像1003、第4の入力画像1004、…が入力され、第1の領域分割結果1005、第2の領域分割結果1006、第3の領域分割結果1007、第4の領域分割結果1008、…が取得される。なお第1の入力画像1001は、図9の入力画像901と同じ画像であり、第2の入力画像1002は入力画像901を1ピクセル右に、第3の入力画像1003は2ピクセル右に、第4の入力画像1004は1ピクセル下に、それぞれスライドさせた画像である。ピクセルのスライドにより画素が存在しない部分には輝度値0や隣接画素の輝度値が埋められる。取得された複数の領域分割結果を統合することにより、統合領域分割結果1009が得られる。図10の領域分割処理によれば、高解像度の領域分割結果を取得できるものの、領域分割処理の回数が増え、例えば図10の例では16回となるので処理時間も増大する。
そこで本実施例では、FCNのConvolution処理とPooling処理に用いられるカーネルをダイレート処理により変更し、1回の領域分割処理で高解像度の領域分割結果を取得する。ダイレート処理とはカーネルの要素間に所定数のゼロを挿入し、カーネルを拡大する処理であり、ダイレート処理後のカーネルをダイレートカーネルあるいはDカーネルと呼ぶ。またDカーネルを用いるConvolution処理およびPooling処理をDilated Convolution処理、Dilated Pooling処理と呼ぶ。
図11を用いてDilated Convolution処理におけるDカーネルの一例について説明する。Cカーネル1101はConvolution処理に用いられるカーネルの一例であり、a~iの9個の要素で構成される。DCカーネル1102はDilated Convolution処理に用いられるカーネルの一例であり、Cカーネル1101の要素間のそれぞれに1つのゼロが挿入されて構成される。なお挿入されるゼロの数に1を加算した値をダイレート量Dy、Dxと呼び、図11のDCカーネル1102はDy、Dx=2、2である。
数6にDilated Convolution処理の算出式の一例を示す。
Figure 0007320972000006
数6において、Dy、Dx=1、1とすると数2になる。
図12を用いてDilated Pooling処理におけるDカーネルの一例について説明する。Pカーネル1201はPooling処理に用いられるカーネルの一例であり、9個の全要素が1で構成される。DPカーネル1202はDilated Pooling処理に用いられるカーネルの一例であり、Pカーネル1201の要素間のそれぞれに1つのゼロが挿入されて構成される。ダイレート量Dy、Dxに関しては、Dilated Convolution処理と同様であり、図12のDPカーネル1202もDy、Dx=2、2である。
数7にDilated Pooling処理の算出式の一例を示す。
Figure 0007320972000007
数7において、Dy、Dx=1、1とすると数3になる。
図13を用いてDilated Convolution処理とDilated Pooling処理について説明する。1番目のカーネル1301および2番目のカーネル1302はConvolution処理またはPooling処理に用いられるカーネルである。また1番目のDカーネル1303および2番目のDカーネル1304はDilated Convolution処理またはDilated Pooling処理に用いられるカーネルである。カーネルサイズFy、Fxはいずれも3、ストライド量Sy、Sxはいずれも2である。
Convolution処理またはPooling処理は、ダイレート量Dy、Dxをいずれも1とした場合のDilated Convolution処理またはDilated Pooling処理に相当する。また1番目のDカーネル1303および2番目のDカーネル1304のダイレート量Dy、Dxはいずれも2である。
なお各カーネルの処理範囲には、入力データ外の領域が含まれる場合がある。例えば2番目のカーネル1302の場合、1行目が入力データ外の領域にあたる。本実施例では入力データ外の領域に輝度値0が埋められる。またDilated Convolution処理とDilated Pooling処理を用いたFCNをDFCN(Dilated FCN)と呼ぶ。
図14を用いてFCNモデルをDFCNモデルに変換する処理の流れの一例について説明する。図14の処理の流れではFCNモデルを入力し、垂直方向Ky、水平方向Kxピクセル単位の領域分割結果を算出するDFCNモデルを出力する。Ky、Kxは1に近いほど高解像度であり、大きな値になるほど解像度が低下するものの処理速度が高速になる。ただし、Ky、KxはFCNモデル内の全層のストライド量の積Psy、Psxの約数の1つであるとする。また、FCNモデルはConvolution層、Pooling層、Activation層のいずれかで構成されているとする。Convolution層、Pooling層、Activation層はそれぞれConvolution処理、Pooling処理、Activation処理を行う。
S1401では変数Lが初期化される。変数Lは処理対象となる層のインデックスを表す。
S1402では層の型が判定される。層の型がConvolution層またはPooling層であればS1403に遷移し、Activation層であればS1406に遷移する。
S1403では層の型が変換される。L層目がConvolution層であればDilated Convolution層に、Pooling層であればDilated Pooling層に変換される。なお変換後のDilated Convolution層やDilated Pooling層のカーネルのサイズ、カーネルの種類数、カーネルの係数、プーリングサイズ等のパラメータは変換前のConvolution層やPooling層の設定値と同じである。
S1404ではL層目のダイレート量が決定される。垂直方向のダイレート量Dyの決定手順の一例について説明する。なお水平方向のダイレート量Dxについても添え字をyからxに読み替えることで同様に決定される。まず入力されたFCNモデルの0層目からL-1層目までの垂直方向のストライド量Syの積PSyが算出される。次にストライド量Syの積PSyと領域分割結果の垂直方向の刻み幅Kyとの最大公約数GCyが求められる。ストライド量Syの積PSyと最大公約数GCyが次式に代入され、L層目の垂直方向のダイレート量Dyが決定される。
Figure 0007320972000008
さらに次式により刻み幅Kyが更新される。
Figure 0007320972000009
S1405ではL層目のストライド量が決定される。垂直方向のストライド量Syの決定手順の一例について説明する。なお水平方向のストライド量Sxについても添え字をyからxに読み替えることで同様に決定される。1404にて算出された最大公約数GCyが次式に代入され、L層目の垂直方向のストライド量Syが決定される。
Figure 0007320972000010
S1406では変数Lがインクリメントされる。すなわち処理対象が次の層に切り替えられる。
S1407では全ての層に対する変換処理が完了したか否かが判定される。例えば変数LがFCNモデルを構成する層の数以上であれば完了、そうでなければ未完了と判定される。完了であれば処理の流れは終了し、未完了であればS1402に遷移する。
以上の処理の流れによりFCNモデルを、高解像度の領域分割結果を高速に得ることが可能なDFCNモデルに変換することができる。
図15にDFCNによる領域分割処理の一例を示す。入力画像1501はDFCNに入力される画像であり、幅と高さがいずれも8ピクセルであるとする。1番目のカーネル1502は各層における最初の処理対象領域を示している。網掛け部分は処理対象箇所を表す。2番目のカーネル1503は各層における2番目の処理対象領域を示している。
1層目出力データ1504は、入力画像1501にDilated Convolution処理を適用した結果、2層目出力データ1505は1層目出力データ1504にDilated Pooling処理を適用した結果である。また3層目出力データ1506は2層目出力データ1505にDilated Convolution処理を適用した結果、4層目出力データ1507は3層目出力データ1506にDilated Pooling処理を適用した結果である。各層の処理により解像度の低下が生じないため、4層目出力データ1507は入力画像1501と同じ解像度を有する領域分割結果となる 。
FCNで高解像度の領域分割結果を得るには、図10に示したように取得位置の異なる画像毎に領域分割処理をする必要があり、一部の処理が重複しているために処理時間が増大していた。DFCNによる領域分割処理では、高解像度のFCNでは重複していた処理を一度に済ませられるので、高解像度の領域分割結果を高速に得ることができる。
なお図14ではFCNモデルをDFCNモデルに変換することについて説明したが、最初からDFCNモデルを構築しても良い。また一定サイズの入力画像を識別対象とするDNNベースの画像識別器からFCNへ変換し、さらにDFCNへ変換しても良い。領域分割のための機械学習は、DNNベースの画像識別器、FCN、DFCNのいずれのモデルで行っても良い。
実施例1では、上方画像212から算出される容器112の縁領域402に基づいて、容器112の種別が判定されることについて説明した。画像処理装置101が出力する判定結果は、容器112の種別に限られない。本実施例では、上方画像212から算出される容器112の縁領域402と採取対象113の上面領域404に基づいて、採取対象113の量が判定されることについて説明する。なお、本実施例のハードウェア構成と機能ブロック図は実施例1と同じであるので説明を省略する。
図16を用いて、本実施例の処理の流れの一例について説明する。なおS301~S303は実施例1と同じ処理であるので説明を省略し、S303以降のS1604~S1606について説明する。
(S1604)
領域算出部202がS301で取得された上方画像212から採取対象113の上面領域404を算出する。上面領域404の算出には、S302と同様に、上方画像212の輝度値を用いた閾値処理や、FCNやDFCNを用いた領域分割処理等が実行される。
(S1605)
状態判定部203が、S302で算出された縁領域402とS1604で算出された上面領域404とに基づいて、採取対象113の量を判定する。図17と図18を用いて本ステップについて説明する。まず図17を用いて、上面領域404について説明する。
状態判定部203は、S1604での算出結果に基づいて、採取対象113の上面の二値化画像1701を作成する。上面の二値化画像1701には、上面領域404と、上面領域404以外のその他領域1704が含まれる。上面領域404には例えば輝度値0が、その他領域1704には輝度値255が与えられる。
状態判定部203は、上面の二値化画像1701にソーベルフィルタ等を適用して上面領域404の境界を抽出し、上面の境界画像1702を作成する。上面の境界画像1702には上面境界1705が含まれる。状態判定部203は、上面境界1705から任意に抽出される少なくとも3つの抽出点1706に対して楕円フィッティングを行い、上面領域404の長径と短径を算出する。なお上面領域404の短径は、容器112が傾いても長径に比べて変化しにくいので、以降の処理で用いられる。
図18を用いて採取対象113の量の判定について説明する。なお、撮像部111のレンズが非テレセントリックである場合とテレセントリックである場合とについてそれぞれ説明する。レンズが非テレセントリックである場合、撮像部111から被撮像物までの距離が長くなるに従って被撮像物の大きさは小さくなるのに対し、テレセントリックである場合、撮像部111から被撮像物までの距離にかかわらず被撮像物の大きさは同じである。
図18Aを用いて非テレセントリックの場合について説明する。図18Aには、採取対象113が多量時と少量時の側面図または上方画像、すなわち多量時の側面図1801と多量時の上方画像1802、少量時の側面図1804と少量時の上方画像1805が示される。多量時の上方画像1802と少量時の上方画像1805との比較から分かるように、多量時の上面1803は少量時の上面1806よりも面積が大きい。そこで状態判定部203は、上面領域404の短径に基づいて採取対象113の量を判定する。
具体的には、まず上面領域404の短径が図19に例示されるテーブルと照合されて、容器112の縁213から採取対象113の上面215までの距離Hが求められる。なお図19のテーブルは、複数の種別の容器112に異なる量の採取対象113が収容されたときの上面領域404の短径や距離Hが計測されることにより予め作成され、メモリ104等に保管される。次に縁領域402に基づいて判定される容器112の種別が図6Bのテーブルに照合されて、容器112の長さGと内径Dが求められる。そして距離Hと長さG、内径Dが次式に代入され、採取対象113の量Qが求められる。
Figure 0007320972000011
なお数11は容器112の内径Dが距離Hによらず一定である場合の式である。容器112がテーパ形状等を有し、距離Hによって容器112の内径Dが変わる場合には、距離Hと内径Dとの関係がメモリ104等に予め保管され、必要に応じて参照されることにより、数11を用いて採取対象113の量Qが求められる。
図18Bを用いてテレセントリックの場合について説明する。図18Bにも図18Aと同様に、多量時の側面図1801と多量時の上方画像1802、少量時の側面図1804と少量時の上方画像1805が示される。多量時の上方画像1802と少量時の上方画像1805との比較から分かるように、テレセントリックの場合は多量時の上面1803と少量時の上面1806の面積は同等であり、上面領域404の短径に基づく採取対象113の量の判定ができない。
そこでテレセントリックの場合には、図18Cに示すように撮像部111を傾けて撮像される上方画像に基づいて採取対象113の量が判定される。すなわち多量時の上方画像1802と少量時の上方画像1805との比較から分かるように、採取対象113が多量時には少量時よりも縁から上面までの距離1807が短いので、縁から上面までの距離1807に基づいて採取対象113の量が判定される。具体的には、縁から上面までの距離1807をH’、鉛直方向に対する撮像部111の傾き角度をΨとするとき、次式により容器112の縁213から採取対象113の上面215までの距離Hが求められ、さらに数11により採取対象113の量Qが求められる。
Figure 0007320972000012
なお容器112がテーパ形状等を有する場合は、非テレセントリックの場合と同様に、メモリ104等に予め保管される距離Hと内径Dとの関係が必要に応じて参照され、数11を用いて採取対象113の量Qが求められる。
(S1606)
出力部105が、S1605で判定された採取対象113の量を出力する。判定の結果は、例えば制御部121へ送信され、制御部121は判定の結果に基づいて採取部122を制御する。例えば、採取対象113の量が所定の量に達していないと判定された場合、制御部121は採取部122を停止させても良い。また、出力部105は判定の結果をディスプレイやプリンタへ出力し、採取対象113の量を操作者に提示しても良いし、採取対象113の量が所定の量に達していない場合にはその旨を示すメッセージが表示されても良い。
以上説明した処理の流れにより、画像処理装置101は単一の撮像部111で取得された上方画像212により採取対象113の状態の一つである採取対象113の量を判定できる。また自動分析システム100は、画像処理装置101による判定結果に応じて、採取部122を適切に制御できるので、検査効率を低下させることなく、より正確な分析を行うことができる。
実施例1では容器112の種別が判定されることについて、実施例2では採取対象113の量が判定されることについて説明した。本実施例では、上方画像212から算出される容器112の縁領域402と採取対象113の上面領域404に基づいて、容器112の傾きが判定されることについて説明する。なお、本実施例のハードウェア構成と機能ブロック図は実施例1と同じであるので説明を省略する。
図20を用いて、本実施例の処理の流れの一例について説明する。なおS301~S302は実施例1と同じ処理であり、S1604は実施例2と同じ処理であるので説明を省略し、S1604以降のS2005~S2006について説明する。
(S2005)
状態判定部203が、S302で算出された縁領域402とS1604で算出された上面領域404とに基づいて、容器112の傾きを判定する。容器112の傾きの判定では、傾きの有無の判定、あるいは傾き角度の判定が行われる。
図21を用いて容器112の傾きの有無の判定について説明する。本実施例においても撮像部111のレンズが非テレセントリックである場合とテレセントリックである場合とについてそれぞれ説明する。
図21Aを用いて非テレセントリックの場合について説明する。図21Aには、容器112の直立時と傾斜時の側面図または上方画像、すなわち直立時の側面図2101と直立時の上方画像2102、傾斜時の側面図2105と傾斜時の上方画像2106が示される。直立時の上方画像2102と傾斜時の上方画像2106では、S302で算出された縁領域402とS1604で算出された上面領域404に基づいて、縁領域402の中心2103と上面領域404の中心2104が求められる。
直立時の上方画像2102と傾斜時の上方画像2106との比較から分かるように、直立時には縁領域402の中心2103と上面領域404の中心2104は一致するのに対し、傾斜時には中心2103と中心2104は一致せず、傾斜が大きくなるに従って中心2103と中心2104との距離が大きくなる。そこで状態判定部203は、縁領域402の中心2103と上面領域404の中心2104との距離に基づいて、容器112の傾きの有無を判定する。すなわち、縁領域402の中心2103と上面領域404の中心2104との距離が予め定められた閾値以上であるときは容器112が傾いていると判定され、閾値未満であるときは傾いていないと判定される。
図21Bを用いてテレセントリックの場合について説明する。図21Bにも図21Aと同様に、直立時の側面図2101と直立時の上方画像2102、傾斜時の側面図2105と傾斜時の上方画像2106が示される。また非テレセントリックの場合と同様に、縁領域402の中心2103と上面領域404の中心2104が求められ、テレセントリックの場合も中心2103と中心2104との距離に基づいて、容器112の傾きの有無が判定される。中心2103と中心2104との距離に基づく容器112の傾きの有無の判定は、容器112がテーパ形状を有する場合にも可能である。
また縁領域402の中心2103と上面領域404の中心2104との距離以外にも、容器112の内壁領域403等に基づいて容器112の傾きの有無が判定されても良い。例えば、容器112の直立時に比べて傾斜時では内壁領域403の形状が変化するので、内壁領域403の幅や面積を用いて容器112の傾きの有無が判定されても良い。また内壁領域403に限らず容器112の外壁領域が容器112の傾きの有無の判定に用いられても良い。
図22を用いて容器112の傾き角度の判定について説明する。本実施例においても撮像部111のレンズが非テレセントリックである場合とテレセントリックである場合とについてそれぞれ説明する。
図22Aを用いて非テレセントリックの場合について説明する。図22Aには、容器112の傾斜時の側面図2201と傾斜時の上方画像2202が示される。傾斜時の側面図2201において容器112の傾き角度を求めるには、容器112の縁213の中心2203と採取対象113の上面215の中心2204との水平方向の距離と鉛直方向の距離が算出できれば良い。すなわち中心2203と中心2204との水平方向の距離である中心間水平距離2205と、鉛直方向の距離である中心間鉛直距離2206とから次式により、鉛直方向に対する容器112の傾き角度θが求められる。
Figure 0007320972000013
ここでShは中心間水平距離2205であり、Hは中心間鉛直距離2206である。
ただし、撮像部111により撮像される画像は傾斜時の上方画像2202であるので、数13を用いて容器112の傾き角度θを求めるには、傾斜時の上方画像2202から中心間水平距離2205と中心間鉛直距離2206を取得する必要がある。まず中心間鉛直距離2206すなわち容器112の縁213から採取対象113の上面215までの距離Hは、実施例2で説明したように、上面領域404の短径を図19に例示されるテーブルと照合することにより求められる。
次に傾斜時の上方画像2202から中心間水平距離2205を求める。非テレセントリックの場合、撮像部111から被撮像物までの距離が長くなるに従って被撮像物の大きさが小さくなるので、採取対象113の上面215での長さは容器112の縁213での長さに補正されて扱われることが好ましい。具体的には、傾斜時の上方画像2202における縁領域402の中心2207と上面領域404の中心2208との距離である領域中心間距離2209は、上面領域404の短径と縁領域402の内径との比率に基づいて補正されることが好ましい。例えば、中心間水平距離2205であるShは次式によって算出される。
Figure 0007320972000014
ここでF1はレンズ中心2210から上面領域404の中心2208までの距離である第一中心間距離2212、F0はレンズ中心2210から縁領域402の中心2207までの距離である第二中心間距離2211である。またB0は縁領域402の内径2213、B1は上面領域404の短径2214である。数14によれば、採取対象113の上面215での長さである第二中心間距離2211が容器112の縁213での長さに補正されてから第一中心間距離2212との差分が演算されて、その絶対値が中心間水平距離2205であるShとして算出される。すなわち撮像部111から被撮像物までの距離に応じて変化する被撮像物の大きさが補正されて中心間水平距離2205であるShが算出される。
算出されたShと先に求められた距離Hとが数13に代入されることにより、容器112の傾き角度θが求められる。
図22Bを用いてテレセントリックの場合について説明する。図22Bにも図22Aと同様に、容器112の傾斜時の側面図2201と傾斜時の上方画像2202が示される。テレセントリックの場合、中心間水平距離2205は、傾斜時の上方画像2202における縁領域402の中心2207と上面領域404の中心2208との距離である領域中心間距離2209として求められる。また中心間鉛直距離2206は実施例2と同様に求められるので、中心間水平距離2205と中心間鉛直距離2206が数13に代入されて容器112の傾き角度θが求められる。
また図18Cのように撮像部111を傾けながら撮像し、容器112の内壁領域403が上方画像に含まれなくなった時の撮像部111の傾斜角を容器112の傾き角度θとしても良い。
(S2006)
出力部105が、S2005で判定された容器112の傾きを出力する。判定の結果は、例えば制御部121へ送信され、制御部121は判定の結果に基づいて採取部122を制御する。例えば、容器112が傾いていると判定されたり、容器112の傾き角度が予め定められた閾値を超過すると判定されたりした場合、制御部121は採取部122を停止させても良い。もしくは容器112の傾き角度に応じて、採取部122の位置や傾きが調整されても良い。
また出力部105は判定の結果をディスプレイやプリンタへ出力し、容器112の傾きの有無や傾き角度を操作者に提示しても良いし、傾いている容器112の数の比率が予め定められた閾値を超過する場合に注意を促すメッセージ等が表示されても良い。さらに出力部105は、他の画像処理装置へ容器112の傾き角度を出力しても良く、それとともに容器112の傾き角度に応じた補正処理を行った画像を出力しても良い。容器112の傾き角度に応じた補正処理とは、例えば容器112の傾き角度に応じて画像の座標変換をすることにより、容器112の傾きによる画像の変形を補正する処理等である。
以上説明した処理の流れにより、画像処理装置101は単一の撮像部111で取得された上方画像212により容器112の状態の一つである容器112の傾きを判定できる。また自動分析システム100は、画像処理装置101による判定結果に応じて、採取部122を適切に制御できるので、検査効率を低下させることなく、より正確な分析を行うことができる。
実施例1乃至3では、上方画像212から算出される容器112の縁領域402や採取対象113の上面領域404に基づいて、容器112や採取対象の状態が判定されることについて説明した。画像処理装置101がFCNやDFCN等を用いて上方画像212を精度良く領域分割処理するには、機械学習に用いられる適切な教師信号が必要である。本実施例では、機械学習用の教師信号を効率的に作成することについて説明する。なお、本実施例のハードウェア構成は実施例1と同じであるので説明を省略する。
図23を用いて本実施例の機能ブロック図の一例について説明する。なおこれらの機能は、専用のハードウェアで構成されても良いし、演算部103上で動作するソフトウェアで構成されても良い。本実施例は、画像取得部201、領域算出部202とともに、尤度取得部2301、画像選択・表示部2302、教師信号取得部2303、学習部2304を備える。以下、実施例1で説明された画像取得部201、領域算出部202以外の各部について説明する。
尤度取得部2301は、領域算出部202によって算出された各領域中の各ピクセルが、例えば縁領域402、内壁領域403、上面領域404等のいずれの領域であるかの尤度を取得する。なお尤度はピクセル毎に総和が1.0になるように正規化され、各ピクセルの中の最大の尤度は最大尤度と呼ばれる。最大尤度が大きいピクセルは該当領域である確信度が高く、最大尤度が小さいピクセルは確信度が低いことになる。
画像選択・表示部2302は、例えば画像中の各ピクセルの最大尤度に基づいて、教師信号の付与に用いられる画像を選択し、選択された画像をディスプレイ等に表示させる。
教師信号取得部2303は、教師信号を含む画像である教師画像から教師信号を取得する。教師信号は操作者の操作や他の画像処理装置による領域分割処理によって付与される。
学習部2304は、教師画像に含まれる教師信号を用いて機械学習をし、領域算出部202が領域分割処理に用いる係数等のパラメータを算出したり、更新したりする。
図24を用いて、本実施例の処理の流れの一例について説明する。本実施例では、分割された各領域の確信度が比較的低い画像が選択・表示され、表示された画像に対して操作者が付与する教師信号を用いて機械学習が行われる。
(S2401)
画像選択・表示部2302が、画像中の各ピクセルの尤度に基づいて、教師信号を付与するための画像を記録装置等に記録される画像群の中から選択し、ディスプレイ等に表示させる。例えば、各ピクセルの最大尤度の平均値が所定の閾値未満の画像、すなわち各領域の確信度が比較的低い画像が選択される。
図25を用いて、本ステップにて表示される画面の一例について説明する。図25に示される画面は、本ステップで選択された複数の画像のうち、教師信号が付与済みの画像の枚数と、未済の画像の枚数とを、容器112の種別毎に示す画像リストである。画像リスト中の任意のセル、例えば容器βの未済である100が表示されるセルがマウスのカーソル等によって選択されると、当該セルに対応する画像である容器βを含む画像が表示されても良い。
操作者は本画面から教師信号が付与された画像と付与されていない画像の各枚数を容器112の種別毎に確認でき、どの種別の容器112を含む画像に教師信号を付与したほうが良いかを判断できるので、教師信号を付与する作業の効率化が可能となる。なお表示される画像リストは、容器112の種別毎に分類されたものに限定されない。
(S2402)
教師信号取得部2303が、操作者の操作に基づいて、S2401にて表示された画像に対する教師信号を取得する。図26と図27を用いて、本ステップにて使用される画面の一例について説明する。
図26に示される画面は、教師信号を付与する領域を指定するための操作画面の一例であり、画像表示部2601、画像選択部2602、修正ツール2603、保存ボタン2604、読込ボタン2605を有する。
画像表示部2601には、画像選択部2602での選択に応じた画像が表示される。画像選択部2602では、画像表示部2601に表示される画像の条件が選択される。図26では、画像選択部2602で原画像と領域分割結果が選択されており、領域算出部202が原画像を領域分割した結果が画像表示部2601に表示されている。
修正ツール2603では、教師信号を修正したい領域が選択される。例えば修正ツール2603で液面、すなわち採取対象113が液体であるときの上面が選択された状態で、画像表示部2601に表示される画像の任意のピクセルが選択されると、選択されたピクセルは上面領域404の教師信号が付与される。画像表示部2601に表示される画像中のピクセルの選択は、マウス等によって行われる。
保存ボタン2604は、修正後の教師信号が保存されるときに押下されるボタンである。すなわち保存ボタン2604が押下されると、教師信号取得部2303は、修正ツール2603を介して付与された教師信号を取得する。なお修正ツール2603にて修正されなかったピクセルについてはもともとの教師信号が取得される。
読込ボタン2605は、別の画像を選択するときに押下されるボタンである。読込ボタン2605が押下されることにより、例えば画像表示部2601に表示される画像が更新されても良いし、図25に例示される画面が表示されても良い。
図27に示される画面は、教師信号を付与するための操作画面の一例であり、上方画像表示部2701、容器種別表示部2702、教師信号入力部2703、保存ボタン2604、読込ボタン2605を有する。保存ボタン2604と読込ボタン2605は図26の画面と同じ機能を有するので説明を省略する。
上方画像表示部2701には、撮像部111により撮像された画像である上方画像212が表示される。図27では、採取対象113の上面215に気泡や脂質等の混在物216が浮いている状態が表示されている。
容器種別表示部2702には、領域算出部202が算出した領域に基づいて判定された容器112の種別が内径や厚みとともに表示される。なお容器112の長さや印字内容、印字位置、縁周辺のスクリューの有無、底面のリブ等が表示されても良い。また容器種別表示部2702に表示される各種情報は操作者によって修正されても良い。
教師信号入力部2703では、上方画像表示部2701に表示される画像の任意の領域に付与される教師信号が入力される。例えば、上方画像表示部2701に表示される画像中の気泡や脂質等に対し、上面領域404に対応する教師信号が入力される。なお教師信号入力部2703は、図27に例示されるようなテキストボックスに限定されず、ラジオボタンやプルダウンメニューのような選択肢が提示される形式でも良い。
図26や図27に示されるような画面の使用は、操作者による教師信号の付与の作業支援になるので教師信号を付与する作業の効率化が可能となる。
(S2403)
一定数以上の新たな教師画像が収集されたか否かが判別される。一定数以上の教師画像が収集されればS2404へ処理が進み、一定数に達していなければS2401へ処理が戻る。
(S2404)
学習部2304が、一定数以上の教師画像を用いた機械学習により係数を更新する。係数の更新には、例えば確率的勾配降下法等が用いられる。係数の初期値には、メモリ104に保存されている係数が用いられても良いし、乱数が用いられても良い。
(S2405)
学習部2304が、更新された係数の評価を実施する。例えば、係数の評価用に正解情報付きの画像群が予め準備され、これらの画像群に対してS2404にて更新された係数と更新前の係数を用いた領域分割処理をそれぞれ実施し、正解率が上昇したか否かにより更新後の係数が評価される。
(S2406)
メモリ104内の係数を上書きするか否かが判別される。上書きされるか否かの判別には、S2405の評価結果が用いられても良い。係数が上書きされるならばS2407へ処理が進み、上書きされなければ処理の流れは終了となる。
(S2407)
学習部2304が、メモリ104内の係数を上書きしたり、更新前後の係数を保存したりする。
以上説明した処理の流れにより、領域分割結果の確信度が比較的低い画像に対して、適切な教師信号が効率よく付与されるので、画像処理装置101は効率よく適切な機械学習を行うことができる。また気泡や異物等に対しても適切な教師信号を付与することができる。適切な機械学習によって領域分割処理の精度を向上できるので、画像処理装置101が容器112や採取対象113の状態をより正しく判定可能となり、自動分析システム100はより正確な分析を行うことができる。
以上、本発明の複数の実施例について説明した。本発明はこれらの実施例に限定されるものではなく、さまざまな変形例が含まれる。例えば、上記した実施例は本発明をわかりやすく説明するために詳細に説明したのであり、説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。さらに、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100:自動分析システム、101:画像処理装置、102:入力部、103:演算部、104:メモリ、105:出力部、106:バス、111:撮像部、112:容器、113:採取対象、121:制御部、122:採取部、123:分析部、201:画像取得部、202:領域算出部、203:状態判定部、211:側面図、212:上方画像、213:容器の縁、214:容器の内壁、215:採取対象の上面、216:混在物、217:固定部、401:領域分割像、402:縁領域、403:内壁領域、404:上面領域、405:背景領域、501:縁の二値化像、502:縁の境界像、503:その他領域、505:内側境界、506:外側境界、507:縁領域の重心、508:抽出点、901:入力画像、902:1番目のカーネル、903:2番目のカーネル、904:1層目出力データ、905:2層目出力データ、906:3層目出力データ、907:4層目出力データ、908:領域分割結果、1001:第1の入力画像、1002:第2の入力画像、1003:第3の入力画像、1004:第4の入力画像、1005:第1の領域分割結果、1006:第2の領域分割結果、1007:第3の領域分割結果、1008:第4の領域分割結果、1009:統合領域分割結果、1101:Cカーネル、1102:DCカーネル、1201:Pカーネル、1202:DPカーネル、1301:1番目のカーネル、1302:2番目のカーネル、1303:1番目のDカーネル、1304:2番目のDカーネル、1501:入力画像、1502:1番目のカーネル、1503:2番目のカーネル、1504:1層目出力データ、1505:2層目出力データ、1506:3層目出力データ、1507:4層目出力データ、1701:上面の二値化像、1702:上面の境界画像、1704:その他領域、1705:上面境界、1706:抽出点、1801:多量時の側面図、1802:多量時の上方画像、1803:多量時の上面、1804:少量時の側面図、1805:少量時の上方画像、1806:少量時の上面、1807:縁から上面までの距離、2101:直立時の側面図、2102:直立時の上方画像、2103:縁領域の中心、2104:上面領域の中心、2105:傾斜時の側面図、2106:傾斜時の上方画像、2201:傾斜時の側面図、2202:傾斜時の上方画像、2203:縁の中心、2204:上面の中心、2205:中心間水平距離、2206:中心間鉛直距離、2207:縁領域の中心、2208:上面領域の中心、2209:領域中心間距離、2210:レンズ中心、2211:第二中心間距離、2212:第一中心間距離、2213:縁領域の内径、2214:上面領域の短径、2301:尤度取得部、2302:画像選択・表示部、2303:教師信号取得部、2304:学習部、2601:画像表示部、2602:画像選択部、2603:修正ツール、2604:保存ボタン、2605:読込ボタン、2701:上方画像表示部、2702:容器種別表示部、2703:教師信号入力部

Claims (14)

  1. 試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得部と、
    前記上方画像から前記容器の縁領域と前記採取対象の上面領域を算出する領域算出部と、
    前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定部と、を備え、
    前記状態判定部は、前記縁領域に基づいて前記容器の種別を判定し、前記容器の種別と前記上面領域の大きさとを用いて求められる前記採取対象の高さと、前記縁領域の中心と前記上面領域の中心との距離である中心距離と、に基づいて容器の傾き角度を判定することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記領域算出部は前記縁領域を算出し、
    前記状態判定部は前記縁領域の外径と内径に基づいて前記容器の種別を判定することを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記領域算出部は、前記上面領域をさらに算出し、
    前記状態判定部は、前記容器の種別と、前記上面領域の大きさ又は前記上面領域から前記縁領域までの距離に基づいて前記採取対象の量を判定することを特徴とする画像処理装置。
  4. 試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得部と、
    前記上方画像から前記容器の縁領域と前記採取対象の上面領域を算出する領域算出部と、
    前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定部と、を備え、
    前記状態判定部は、前記縁領域の中心と前記上面領域の中心との一致度に基づいて前記容器の傾きの有無を判定することを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記上方画像が非テレセントリックのレンズを用いて撮像された場合、前記状態判定部は、前記上面領域の短径と前記縁領域の内径との比率に基づいて前記中心距離を補正することを特徴とする画像処理装置。
  6. 請求項1に記載の画像処理装置であって、
    選択された画像を表示する表示部と、
    前記表示部に表示された画像に対する教師信号を入力するための操作画面を表示する教師信号取得部をさらに備えることを特徴とする画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記表示部は、選択された画像の枚数を示す画面をさらに表示することを特徴とする画像処理装置。
  8. 請求項1に記載の画像処理装置であって、
    前記領域算出部は、カーネルの要素間に所定数のゼロを挿入することにより作成されるダイレートカーネルを用いてConvolution処理およびPooling処理を実行することにより前記上方画像を複数の領域に分割して、前記縁領域または前記上面領域を算出することを特徴とする画像処理装置。
  9. 請求項に記載の画像処理装置であって、
    前記領域算出部は、前記Convolution処理および前記Pooling処理を実行するときに前記ダイレートカーネルをずらす量であるストライド量に基づいて前記カーネルに挿入されるゼロの数を決めることを特徴とする画像処理装置。
  10. 請求項1に記載の画像処理装置を備える自動分析システムであって、
    前記容器から前記採取対象を採取する採取部と、
    前記状態判定部の判定結果に基づいて前記採取部を制御する制御部を備えることを特徴とする自動分析システム。
  11. 請求項10に記載の自動分析システムであって、
    前記状態判定部が前記容器の種別を未知の種別と判定したか、前記採取対象の量が閾値未満であると判定したか、前記容器の傾き角度が閾値以上であると判定したときに、前記制御部は前記採取部を停止させることを特徴とする自動分析システム。
  12. 請求項10に記載の自動分析システムであって、
    前記状態判定部が判定した前記容器の種別や、前記採取対象の量、前記容器の傾き角度に応じて、前記制御部は前記採取部の高さや角度を調整することを特徴とする自動分析システム。
  13. 試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得ステップと、
    前記上方画像から前記容器の縁領域と前記採取対象の上面領域を算出する領域算出ステップと、
    前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定ステップと、を備え、
    前記状態判定ステップは、前記縁領域に基づいて前記容器の種別を判定し、前記容器の種別と前記上面領域の大きさとを用いて求められる前記採取対象の高さと、前記縁領域の中心と前記上面領域の中心との距離である中心距離と、に基づいて容器の傾き角度を判定することを特徴とする画像処理方法。
  14. 試料や試薬、反応溶液を含む採取対象を収容する容器を上方から撮像して得られる画像である上方画像を取得する画像取得部と、
    前記上方画像から前記容器の縁領域または前記採取対象の上面領域を算出する領域算出部と、
    前記縁領域または前記上面領域に基づいて前記容器または前記採取対象の状態を判定する状態判定部と、を備え、
    前記状態判定部は、前記上面領域の境界を楕円フィッティングすることにより算出される前記上面領域の短径に基づいて前記容器の種別を判定することを特徴とする画像処理装置。
JP2019073334A 2019-04-08 2019-04-08 画像処理装置、自動分析システム及び画像処理方法 Active JP7320972B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019073334A JP7320972B2 (ja) 2019-04-08 2019-04-08 画像処理装置、自動分析システム及び画像処理方法
EP20788579.9A EP3955008A4 (en) 2019-04-08 2020-01-28 IMAGE PROCESSING DEVICE, AUTOMATIC ANALYSIS SYSTEM AND AND IMAGE PROCESSING METHOD
PCT/JP2020/002860 WO2020208899A1 (ja) 2019-04-08 2020-01-28 画像処理装置、自動分析システム及び画像処理方法
US17/599,370 US20220172341A1 (en) 2019-04-08 2020-01-28 Image processing apparatus, automatic analysis system, and image processing method
CN202080025465.6A CN113646641B (zh) 2019-04-08 2020-01-28 图像处理装置、自动分析系统以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073334A JP7320972B2 (ja) 2019-04-08 2019-04-08 画像処理装置、自動分析システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020173101A JP2020173101A (ja) 2020-10-22
JP7320972B2 true JP7320972B2 (ja) 2023-08-04

Family

ID=72750536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073334A Active JP7320972B2 (ja) 2019-04-08 2019-04-08 画像処理装置、自動分析システム及び画像処理方法

Country Status (5)

Country Link
US (1) US20220172341A1 (ja)
EP (1) EP3955008A4 (ja)
JP (1) JP7320972B2 (ja)
CN (1) CN113646641B (ja)
WO (1) WO2020208899A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117268498B (zh) * 2023-11-20 2024-01-23 中国航空工业集团公司金城南京机电液压工程研究中心 一种油量测量方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151025A (ja) 2002-10-31 2004-05-27 Teruaki Ito 試験管種類判別装置
JP2005304303A (ja) 2004-04-16 2005-11-04 Olympus Corp 給排ロボットおよび自動培養装置
JP2007298445A (ja) 2006-05-01 2007-11-15 Olympus Corp 液面検知装置
JP2014500955A (ja) 2010-11-16 2014-01-16 エフ.ホフマン−ラ ロシュ アーゲー 容器内の液面上の泡を検出する方法および装置
JP2015087265A (ja) 2013-10-31 2015-05-07 株式会社日立ハイテクノロジーズ 自動分析装置
JP2018146587A (ja) 2017-03-08 2018-09-20 清華大学Tsinghua University 検査機器と車両の画像を分割する方法
JP2019027927A (ja) 2017-07-31 2019-02-21 株式会社日立ハイテクノロジーズ 装置、試料の状態の判別方法、及び分析システム
JP2019028657A (ja) 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5208868B2 (ja) * 2008-10-31 2013-06-12 シスメックス株式会社 検体処理装置
JP2014202721A (ja) * 2013-04-10 2014-10-27 株式会社日立ハイテクノロジーズ 液体試料導入装置及び液体クロマトグラフ装置
JP6470691B2 (ja) * 2013-10-17 2019-02-13 株式会社日立ハイテクノロジーズ 検体検査自動化システムおよび容量チェックモジュールならびに生体試料のチェック方法
JP6510420B2 (ja) * 2013-11-12 2019-05-08 株式会社日立ハイテクノロジーズ 検体検査自動化システムおよび生体試料チェックモジュールならびに生体試料のチェック方法
WO2015191702A1 (en) * 2014-06-10 2015-12-17 Siemens Healthcare Diagnostics Inc. Drawer vision system
JP6767791B2 (ja) * 2016-06-30 2020-10-14 キヤノン株式会社 情報処理装置及びその制御方法並びにプログラム
JP2018096915A (ja) * 2016-12-15 2018-06-21 株式会社堀場製作所 自動分析装置
CN110832508B (zh) * 2017-07-11 2023-08-11 美国西门子医学诊断股份有限公司 用于样本管顶部圆形的基于学习的图像边缘增强的方法和系统
EP3428586B1 (en) * 2017-07-14 2020-09-09 CSEM Centre Suisse D'electronique Et De Microtechnique SA Liquid level detection in receptacles using a plenoptic camera
CN109064509B (zh) * 2018-06-29 2021-04-06 广州雅特智能科技有限公司 食物体积和食物热量的识别方法、装置和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004151025A (ja) 2002-10-31 2004-05-27 Teruaki Ito 試験管種類判別装置
JP2005304303A (ja) 2004-04-16 2005-11-04 Olympus Corp 給排ロボットおよび自動培養装置
JP2007298445A (ja) 2006-05-01 2007-11-15 Olympus Corp 液面検知装置
JP2014500955A (ja) 2010-11-16 2014-01-16 エフ.ホフマン−ラ ロシュ アーゲー 容器内の液面上の泡を検出する方法および装置
JP2015087265A (ja) 2013-10-31 2015-05-07 株式会社日立ハイテクノロジーズ 自動分析装置
JP2018146587A (ja) 2017-03-08 2018-09-20 清華大学Tsinghua University 検査機器と車両の画像を分割する方法
JP2019028657A (ja) 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル
JP2019027927A (ja) 2017-07-31 2019-02-21 株式会社日立ハイテクノロジーズ 装置、試料の状態の判別方法、及び分析システム

Also Published As

Publication number Publication date
US20220172341A1 (en) 2022-06-02
JP2020173101A (ja) 2020-10-22
CN113646641B (zh) 2024-08-13
EP3955008A1 (en) 2022-02-16
CN113646641A (zh) 2021-11-12
EP3955008A4 (en) 2023-03-29
WO2020208899A1 (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
CN109767419B (zh) 数据生成装置、数据生成方法及存储介质
JP3834041B2 (ja) 学習型分類装置及び学習型分類方法
CN109685055B (zh) 一种图像中文本区域的检测方法及装置
CN108876761B (zh) 图像处理装置、电脑可读取记录媒体、图像处理系统
EP3904866A1 (en) Defect inspecting device, defect inspecting method, and program for same
CN111656358A (zh) 分析捕获的图像以确定测试成果
CN110892272B (zh) 装置、试料的状态的判别方法以及分析系统
JP2019061484A (ja) 画像処理装置及びその制御方法及びプログラム
CN110569774B (zh) 基于图像处理与模式识别的折线图图像自动数字化方法
CN110633620B (zh) 指针式仪表刻度识别方法及电子设备
JP2016099668A (ja) 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム
CN113673295A (zh) 图像处理设备、图像处理方法和存储介质
JP2018535393A (ja) 画像分析システム及び方法
CN110245747A (zh) 基于全卷积神经网络的图像处理方法及装置
JP7320972B2 (ja) 画像処理装置、自動分析システム及び画像処理方法
EP3955207A1 (en) Object detection device
US9953238B2 (en) Image processing method and system for extracting distorted circular image elements
CN114092542B (zh) 一种基于二维视觉的螺栓测量方法以及系统
CN113760686B (zh) 用户界面的测试方法、装置、终端和存储介质
JP2001314374A (ja) 角膜内皮細胞測定装置
CN113850762A (zh) 基于眼前节图像的眼病识别方法、装置、设备及存储介质
CN114549499B (zh) 一种用于终端设备的高拍仪达标检测方法、系统及介质
WO2023276853A1 (ja) 画像処理装置、方法及び画像処理システム
WO2023112302A1 (ja) 教師データ作成支援装置、教師データ作成支援方法
WO2024034374A1 (ja) オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7320972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150