JP2020536301A - 画像分析方法、装置及びコンピュータプログラム - Google Patents

画像分析方法、装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2020536301A
JP2020536301A JP2020515931A JP2020515931A JP2020536301A JP 2020536301 A JP2020536301 A JP 2020536301A JP 2020515931 A JP2020515931 A JP 2020515931A JP 2020515931 A JP2020515931 A JP 2020515931A JP 2020536301 A JP2020536301 A JP 2020536301A
Authority
JP
Japan
Prior art keywords
image
interest
region
analysis
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020515931A
Other languages
English (en)
Other versions
JP6993027B2 (ja
Inventor
イ,ジェジュン
Original Assignee
クレスコム カンパニー リミティッド
クレスコム カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クレスコム カンパニー リミティッド, クレスコム カンパニー リミティッド filed Critical クレスコム カンパニー リミティッド
Publication of JP2020536301A publication Critical patent/JP2020536301A/ja
Application granted granted Critical
Publication of JP6993027B2 publication Critical patent/JP6993027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 画像分析方法、装置及びコンピュータプログラムを提供する。【解決手段】本発明は、画像分析方法において、質疑画像を受信する段階、前記質疑画像から一つ以上の関心領域を抽出する段階、前記関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出する段階、前記関心領域別第1特徴を既に学習された統合分析モデルに適用して、前記質疑画像の分析値を算出する段階を含むことをこと特徴とする。本発明によれば、全体画像の地図学習のために生成された訓練データが有し得る誤りが分析モデルに及ぼす影響を減らすことができ、深層神経網の学習正確度及び客観性を高めることができる。【選択図】 図1

Description

本発明は、画像分析方法、装置及びコンピュータプログラムに関し、より詳細には、機械学習を用いて画像を分析する方法、装置及びコンピュータプログラムに関する。
画像分析技術は、様々な分野に広範囲に用いられており、特に、機械学習(machine learning)アルゴリズムを用いて客体識別の正確度が向上するに伴ってより活発に活用されている。
画像分析において質疑画像が受信されると、コンピュータは、機械学習に基づいて学習されたモデルを用いて質疑画像の特徴(又は、質疑画像に含まれた客体の特徴)を分類する。ユーザは質疑画像に対する分析結果から、質疑画像にどのような客体が含まれているか−例えば、画像に含まれた商品がどのような商品か−、或いは各客体がどのような特性を有するか−例えば、商品がどのような色及びパターンを有するか、画像に含まれた顔が誰の顔か−などを容易に確認でき、これを活用してユーザは数多くの画像データを迅速に分類し理解することができる。
客体を識別するためには、識別しようとする客体の特性を学習する必要があるが、既に識別された多量のデータを機械学習モデルに学習させる地図学習手法が用いられる。
従来に機械学習手法を用いて分析モデルを生成し、学習された分析モデルから質疑画像を分析する方法は、2つに大別することができる。
第一には、全体画像を学習対象にして分析モデルを生成し、画像を分析する方式である。全体画像を機械学習モデルに入力して学習させると、分析モデルは画像内の特徴を自ら学習して分類に活用する。
第二は、画像内で関心領域(ROI,Region of Interest)を抽出し、関心領域を学習対象にして分析モデルを訓練し、関心領域を中心に画像を分析する方式である。この時、関心領域は当該分野の専門家が特定するのが一般的である。当該分野における専門家達の累積した経験及び知識を活用して主要関心領域を抽出し、関心領域を中心にして画像を分析すれば画像分類及び分析の精密度を向上させることができる。
しかし、上の2方式ともそれぞれ限界点を有する。全体画像を学習対象にして分析する際、画像内の複雑度が大きいか、或いは特徴的な部分が画像内に多数存在する場合、同一の質疑画像(分析対象)に対する分類結果が相違することがある。これは、地図学習データを生成する主体によって特徴と考えられる部分が異なり、識別値が変わり得るためである。全体画像ベース分類方式は、分析モデルを生成するために用いる学習データの正確性及び客観性が担保されないと、分類結果の信頼性が大きく低下する問題があり、全体画像に対する直観的な判断に依存することがあり得る。
その上、全体画像ベースの分類方式は、画像分類の際に重要な意味を持たない部分まで共に分析されるため、質疑画像識別に関係ないノイズが当該画像の自動分析結果に否定的な影響を与えることがある。
一方、関心領域別に特徴を分析する方式は、全体画像において関心領域以外の領域の特徴が反映されないか、選択した関心領域の重要度が大きくないこともあるという点で限界がある。
画像分析技術は、様々な分野に広範囲に用いられており、特に機械学習(machine learning)アルゴリズムを用いて客体識別の正確度が向上するに伴ってより活発に活用されている。
画像分析において質疑画像が受信されると、コンピュータは、機械学習に基づいて学習されたモデルを用いて質疑画像の特徴(又は、質疑画像に含まれた客体の特徴)を分類する。ユーザは質疑画像に対する分析結果から、質疑画像にどのような客体が含まれているか−例えば、画像に含まれた商品がどのような商品か−、或いは各客体がどのような特性を有するか−例えば、商品がどのような色及びパターンを有するか、画像に含まれた顔が誰の顔か−などを容易に確認でき、これを活用してユーザは数多くの画像データを迅速に分類し理解することができる。
客体を識別するためには、識別しようとする客体の特性を学習する必要があるが、既に識別された多量のデータを機械学習モデルに学習させる地図学習手法が用いられる。
従来に機械学習手法を用いて分析モデルを生成し、学習された分析モデルから質疑画像を分析する方法は、2つに大別することができる。
第一には、全体画像を学習対象にして分析モデルを生成し、画像を分析する方式である。全体画像を機械学習モデルに入力して学習させると、分析モデルは画像内の特徴を自ら学習して分類に活用する。
第二は、画像内で関心領域(ROI,Region of Interest)を抽出し、関心領域を学習対象にして分析モデルを訓練し、関心領域を中心に画像を分析する方式である。この時、関心領域は当該分野の専門家が特定するのが一般的である。当該分野における専門家達の累積した経験及び知識を活用して主要関心領域を抽出し、関心領域を中心にして画像を分析すれば画像分類及び分析の精密度を向上させることができる。
しかし、上の2方式ともそれぞれ限界点を有する。全体画像を学習対象にして分析する際、画像内の複雑度が大きいか、或いは特徴的な部分が画像内に多数存在する場合、同一の質疑画像(分析対象)に対する分類結果が相違することがある。これは、地図学習データを生成する主体によって特徴と考えられる部分が異なり、識別値が変わり得るためである。全体画像ベース分類方式は、分析モデルを生成するために用いる学習データの正確性及び客観性が担保されないと、分類結果の信頼性が大きく低下する問題があり、全体画像に対する直観的な判断に依存することがあり得る。
その上、全体画像ベースの分類方式は、画像分類の際に重要な意味を持たない部分まで共に分析されるため、質疑画像識別に関係ないノイズが当該画像の自動分析結果に否定的な影響を与えることがある。
一方、関心領域別に特徴を分析する方式は、全体画像において関心領域以外の領域の特徴が反映されないか、選択した関心領域の重要度が大きくないこともあるという点で限界がある。
このような目的を達成するための本発明は、画像分析方法において、質疑画像を受信する段階、前記質疑画像から一つ以上の関心領域を抽出する段階、前記関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出する段階、及び前記関心領域別第1特徴を既に学習された統合分析モデルに適用して、前記質疑画像の分析値を算出する段階を含むことをこと特徴とする。
また、本発明は、画像分析装置において、質疑画像を受信する入力部、前記質疑画像から一つ以上の関心領域を抽出する検出部、前記関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出する関心画像分析部、前記第1特徴を既に学習された統合分析モデルに適用して、前記質疑画像の分析値を算出する統合分析部、及び前記分析値を用いて前記質疑画像に対する分析結果を出力する出力部を含むことを他の特徴とする。
前述のような本発明によれば、従来方式に比べて画像分析の正確度を高めることができる。
また、本発明によれば、全体画像の地図学習のために生成された訓練データが有し得る誤りが分析モデルに及ぼす影響を減らすことができ、深層神経網の学習正確度及び客観性を高めることができる。
また、本発明によれば、判断誤りを誘発する可能性の高い雑音要素が画像に含まれている場合、画像内の主要関心領域から特徴を別途に検出した後、これを最終画像分類に反映することによって、画像分類の客観性及び正確性を高めることができる。
また、本発明によれば、ブラックボックスと呼ばれる深層神経網の画像分類結果に対して判断根拠及び解析を提供することができる。
本発明の一実施例に係る画像分析装置を説明するためのブロック図である。 本発明の一実施例に係る特徴抽出モデルを説明するための図である。 本発明の一実施例に係る関心領域抽出を説明するための手骨画像である。 本発明の一実施例に係る画像分析方法を説明するためのフローチャートである。 本発明の他の実施例に係る画像分析方法を説明するためのフローチャートである。
前述した目的、特徴及び長所は、添付の図面を参照して詳細に後述され、これによって本発明の属する技術の分野における通常の知識を有する者が本発明の技術的思想を容易に実施可能であろう。本発明の説明において、本発明に関連した公知技術に関する具体的な説明が本発明の要旨を余計に曖昧にさせると判断される場合には、詳細な説明を省略する。以下、添付の図面を参照して本発明に係る好ましい実施例を詳細に説明する。図面中、同一の参照符号は同一又は類似の構成要素を示し、明細書及び特許請求の範囲に記載された全ての組合せは任意の方式で組合せ可能である。そして、特に規定しない限り、単数に対する言及は一つ以上を含むことができ、単数表現に対する言及も複数表現を含むものとして理解されるべきである。
本発明は様々な分野に適用可能であるが、特に骨年齢の判断のための手骨画像分析に効果的に用いることができる。骨年齢は、児童青少年の身体的成長の進行程度及び成長の止める時期を推定するのに重要な役割を担う。したがって、成長潜在可能性の程度を把握するのに用いられる。骨年齢は、骨端板(成長板)が骨化の進行につれて骨端と骨幹端が融合して行く状態を当該骨の存在と形状の変化によって把握する。
骨年齢の分析には手骨画像を主に活用し、一般に、アトラスベースのGP方式又はTW方式で骨の成熟度を見て骨年齢を判断する。
GP方式は、骨年齢読取りに使用する手骨の全体画像を直観的に見て判別する方式であり、TW方式は、手骨画像において主要細部関節部位別に関心領域を分離した後、関心領域別にそれぞれ成熟等級を判断し、それを総合して骨年齢を算出する方式である。
GP方式を用いるとき、専門医は骨年齢別代表画像と質疑画像とを比較して、質疑画像と最も類似な代表画像の骨年齢を質疑画像の骨年齢と判断する。しかし、GP方式は、読み取る人によって偏差が大きく、同一の読取者が判断を下しても、時間によって異なる評価を下す可能性が高いという研究結果が多数報告されている。
TW方式は、GP方式に比べて読取者別又は同一読取者間の時間差分類結果の偏差が少ないという研究結果があり、より正確で誤差可能性が小さいと評価されている。しかし、TW方式も、各関心領域別に成熟等級を分類するにおいて、GP方式よりは小さいとしても誤差が発生し得る。また、評価対象として検出した関心領域以外の部分は骨年齢の分析に含まれないという限界がある。
このような問題点は、GP方式とTW方式を機械学習を用いて具現する場合にも同様に起きるが、本発明によれば上述の問題点を克服でき、手骨画像分析の正確度を大きく向上させることができる。
以下では、図1及び図2を参照して本発明の一実施例による画像分析装置について説明する。
図1を参照すると、本発明の一実施例に係る画像分析装置100は、入力部110、検出部130、関心画像分析部150、統合分析部170を含み、全体画像分析部160をさらに含むことができる。
入力部110は、ユーザから質疑画像が入力される入力モジュールでよく、他の電子装置(図示せず)から有無線通信網を介して質疑画像を受信する通信モジュールであり得る。他の実施例として、入力部110は客体の画像を取得する撮像モジュールであってもよい。質疑画像は、2次元のカラー又は白黒画像でよく、カメラ、放射線撮影装置、コンピュータ断層撮影装置などの撮像装置から取得されたものであるか、電子装置のキャプチャー機能によって取得されたものであり得る。入力部110は、受信した質疑画像を全体画像分析部160及び/又は検出部130に伝達することができる。
検出部130は質疑画像から一つ以上の関心領域を抽出する。ここで、関心領域とは、質疑画像を分析する上で重要度を持つ特定領域を意味する。機械学習分析において特定領域の重要度は、当該画像の属したドメイン知識に基づく場合が多い。すなわち、関心領域を中心にして分析することは、分析において誤りを招き得る主要関心領域以外の領域におけるノイズを除去して正確度を高めるためである。例えば、図3に示すような手骨画像を質疑画像として受信した場合、画像分析装置100は手骨画像を分析して骨年齢を測定することができる。検出部130は骨年齢の測定において主に考慮される領域R1〜R5などを関心領域として抽出することができる。
検出部130は手動検出部135及び自動検出部137を含み、関心領域は手動又は自動で抽出され得る。手動検出部135は、ユーザによって設定された位置情報に対応する領域を関心領域として抽出することができる。すなわち、図3の例示において、ユーザは手骨画像において関心領域となる一領域R1〜R5を直接設定することができ、手動検出部135は、ユーザによって指定された領域を関心領域として抽出して関心画像特徴抽出部160に伝達することができる。
自動検出部137は、質疑画像に、特定領域に対して学習された自動検出モデルを適用して、特定領域に対応する領域を関心領域として抽出することができる。ここでいう特定領域とは、前述した例示において骨年齢の測定に主に考慮される領域を意味する。自動検出部137は、全体画像から特定画像を抽出するために複数の特定領域画像を用いて学習された(訓練及び評価された)深層神経網である自動検出モデルを含むことができる。自動検出モデルには深層神経網ベースのFaster−RCNN、Yolo検出手法などを用いることができるが、これに限定されるものではない。
例えば、自動検出部137は、複数の橈骨画像を用いて自動検出モデルを訓練させることができ、この場合、任意の手骨画像(手骨の全体画像)を入力すると、自動検出部137は橈骨に該当するR1を関心領域として抽出することができる。
検出部130は質疑画像から一つ以上の関心領域(関心領域1,関心領域2,…,関心領域1N)を抽出し、抽出された関心画像を関心画像分析部150に伝達することができる。
学習部140は、関心領域学習部143、全体領域学習部145、統合学習部147を含むことができる。
関心領域学習部143は、一つ以上の関心領域特徴抽出モデルを独立して学習させて関心画像分析部150に提供することができる。それぞれの関心領域特徴抽出モデルは機械学習モデルであり、一つ以上の層で構成された深層神経網又は回帰分析モデルであり得る。
関心領域学習部143は、各関心領域に対して既に識別された、すなわち既に設定された識別値によって分類された多数の関心領域画像を訓練データとして使用して関心領域特徴抽出モデルを訓練させることができる。ここで、識別値は質疑画像の分析値と同じ種類の値であってもよく、前記質疑画像の分析値と相関関係がある別個の種類の値であってもよい。
例えば、最終的に質疑画像の骨年齢を判断しようとする場合、関心領域学習部143は、第1関心領域(橈骨)特徴抽出モデルを学習させるために、骨年齢別橈骨画像を訓練データとして使用することもでき、骨年齢と相関関係がある骨成熟等級(A〜I)別橈骨画像を訓練データとして使用することもできる。すなわち、図4に示す手骨画像において橈骨R1の骨成熟等級は全体手骨画像の骨年齢を判断することに影響を及ぼすので、骨成熟等級別にグループ化された橈骨画像を複数個用いて第1関心領域特徴抽出モデルを学習させることができる。
したがって、このように学習された関心領域特徴抽出モデルに特定関心領域を適用すれば関心領域の分析値を取得することができる。すなわち、前記例示において、第1関心領域特徴抽出モデルに橈骨画像を入力すると、入力した橈骨画像の骨年齢又は骨成熟等級を関心領域の分析値として取得することができる。
全体領域学習部145は、関心領域学習部143と同様に、全体領域特徴抽出モデルを訓練させて全体画像分析部160に提供するためのものである。全体領域特徴抽出モデルは機械学習モデルであり、一つ以上の層で構成された深層神経網又は回帰分析モデルであり得る。
全体領域学習部145は、全体画像に対して既に識別された、すなわち既に設定された識別値によって分類された多数の全体領域画像を訓練データとして使用して全体領域特徴抽出モデルを訓練させることができる。ここで、識別値は、質疑画像の分析値と同じ種類の値であり得る。例えば、前述のように、手骨画像の骨年齢を判断しようとする場合、特定の骨年齢と判断された全体手骨画像を訓練データとして使用することができる。
統合学習部147は、関心領域別学習によって抽出された特徴(又は特徴値)及び/又は全体領域学習部で抽出した全体領域特徴値を用いて統合分析モデルを訓練させることができる。統合学習部147については、統合分析部170の説明においてより詳細に説明する。
関心画像分析部150は、各関心領域の特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出することができる。そして、関心領域特徴抽出モデルによって算出された関心領域別第1特徴は、統合分析部170の入力として用いられる。
例えば、手骨画像においてR1領域(橈骨領域)を関心領域1、複数の橈骨画像で学習された関心領域特徴抽出モデルを第1関心領域特徴抽出モデル155とすれば、関心画像分析部150は、検出部130で検出された関心領域1を第1関心領域特徴抽出モデルに入力して、関心領域1の第1特徴を算出することができる。
関心領域特徴抽出モデルを用いて関心領域の特徴を算出する方法の一実施例を図2を参照してより詳細に説明すると、次の通りである。
関心領域特徴抽出モデルは一つ以上の層で構成された深層神経網であり、関心領域の特徴に対する特徴地図(feature map)を作成する多数の畳み込み層(convolution layer)と多数の畳み込み層間にサブサンプリングを行うプーリング層(pooling layer)を含む畳み込み神経網(convolutional Neural Network,CNN)であり得る。畳み込み神経網は、入力画像に対して畳み込みとサブサンプリングを交互に行うことによって入力画像から特徴を抽出することができる。特徴(feature)又は特徴値は、画像を分類又は識別する上で重要な核心特徴を示すベクトル値を意味する。本発明の一実施例によれば、統合分析部170に入力される第1特徴は、深層神経網を構成する一つ以上の層のいずれか一層から出力される値又は一層に入力される値であり得る。
畳み込み神経網は、複数の畳み込み層(convolution layer)、複数のサブサンプリング層(subsampling layer,Max−Pooling layer,Pooling layer)を含み、GAP層(Global Average Pooling layer)、完全連結層(Fully−Connected layer)、ソフトマックス層(Softmax layer)などを含むことができる。畳み込み層は入力画像に対して畳み込みを行う層であり、サブサンプリング層は入力画像に対して地域的に最大値又は平均値を抽出して2次元画像にマッピングする層であり、局所的な領域をより大きくしてサブサンプリングを行うことができる。
畳み込み層では、カーネルの大きさ、使用するカーネルの個数(生成するマップの個数)、畳み込み演算時に適用する重みテーブルなどの情報が必要である。サブサンプリング層では、サブサンプリングするカーネルの大きさ情報、カーネル領域内の値のうち最大値を選択するか最小値を選択するかなどに関する情報が必要である。
畳み込み神経網(CNN)の一例を示す図2において、畳み込み神経網は、畳み込み層(layer 1,layer 3)の間にサブサンプリングがなされるプーリング層(layer 2)を含み、末端にGAP層、完全連結層、ソフトマックス層などを含むことができる。これは説明の便宜のためのものであり、本例示に適用されたのとは異なる特性を有する層をより多様に組み合わせて畳み込み神経網を構成してもよく、本発明は深層神経網の構成及び構造によって制限されない。
前述したように、関心画像分析部150で算出する第1特徴は、深層神経網を構成する一つ以上の層のいずれか一層から出力される値又は一層に入力される値であり得るので、GAPから出力される値を第1特徴として使用する場合の一実施例は次の通りである。
図2に示すように、関心領域特徴抽出モデルのGAP層で各特徴マップの平均値を求め、これを完全連結層を介してソフトマックス層に伝達する場合、関心画像分析部150は、GAPで算出された各特徴マップの平均値ベクトルを当該関心領域の特徴として設定することができる。この場合、GAPで算出されたK個のチャネル特徴マップの平均値A,A,…,Aが関心領域nの特徴値として統合分析部170に入力される。
すなわち、関心領域nの特徴値Fn=[A1, A2,, A3, , Ak](K=チャネルの総個数)となり、統合分析部170には関心領域別特徴値F1, F2, F3, , FN(N:関心領域の総個数)が入力され得る。
さらに他の実施例において、関心画像分析部150は、深層神経網を構成する様々な層のいずれか一層に入力される値を第1特徴として使用することができる。例えば、図2の実施例で、関心画像分析部150がソフトマックス層に入力される値を第1特徴F’Nとして使用すると仮定しよう。関心画像分析部150は、最終クラス分類のための各クラスのスコア又は正規化された確率値を関心領域の特徴値として算出するために、ソフトマックスの入力である各クラススコア値を統合分析部の入力に入れることができる。勿論、ソフトマックス結果として算出された正規化された確率値を当該関心領域の特徴値として設定して統合分析部の入力に入れることもできる。
この例示において、クラスCのスコアをSCとすれば、SCは次のように表すことができる。
この場合、関心領域nの特徴値F’n=[S1, S2, S3, , SM](M=クラスの総個数)となり、統合分析部170には関心領域別特徴値F’1, F’2, F’3, , F’Nが入力され得る。
関心領域分析部150は、上述した関心領域別特徴値を算出することとは別個に、関心領域別分析値I1,I2,I3,, INを算出することができる。これは、統合分析部170に特徴値を入力することとは別個に、関心領域自体の分析結果をユーザに提供するためである。関心領域分析部150で算出された関心領域別分析値は出力部190に伝達され得る。
全体画像分析部160は、本発明の一実施例による画像分析装置100に含まれても含まれなくてもよいが、質疑画像を、複数の画像で学習された全体領域特徴抽出モデルに適用して、質疑画像の第2特徴を算出する。すなわち、全体領域特徴抽出モデルは、全体画像の特徴抽出のために全体画像に基づいて学習された機械学習フレームワークであり、手骨画像分析の実施例によれば、骨年齢別に手骨の全体画像を学習及び評価することによって、手骨の全体画像に含まれた特徴値分布によって骨年齢を判断できるように学習された深層神経網である。
全体画像分析部160で使用する全体領域特徴抽出モデルは、入力画像が質疑画像の一部ではなく全体画像であるという点、全体画像に基づいて学習された神経網であるという点で関心領域特徴抽出モデルと異なるが、その構成及び学習方法は関心領域特徴抽出モデルと同一であり得る。
全体画像分析部160には質疑画像自体が入力される。例えば、質疑画像が手骨画像である場合には手骨画像、質疑画像が顔画像である場合には顔全体の形状が含まれた画像が全体画像分析部160に入力され得る。関心画像分析部150は検出部130で抽出された関心領域だけが入力されるので、質疑画像が手骨画像である場合には、橈骨画像、中指の骨の3番目関節画像などの一部の領域だけが入力され、質疑画像が顔画像である場合には、目領域、鼻領域、口領域のように細分化された一領域の画像が関心画像分析部150に入力されるだろう。
上述したように、全体領域特徴抽出モデルも、図2に示すような一つ以上の層で構成された深層神経網であり、畳み込み神経網である場合、入力される質疑画像上にカーネルを配置した後、畳み込みを行って特徴マップを生成したり、サブサンプリングによってカーネル領域内の値をサンプリングする過程を反復して行うことができる。このような過程によって全体画像分析部160は質疑画像の特徴を抽出することができる(第2特徴)。
第2特徴も、関心画像分析部150から統合分析部170に入力される第1特徴と同様に、深層神経網を構成する一つ以上の層のうち、特定層に入力される入力値又は特定層の出力値であり得る。勿論、深層神経網全体を通過した結果値であってもよい。第2特徴の算出方法は関心画像分析部150で説明した通りであり、重複説明は省略する。
一般的には、機械学習モデルを用いて特徴値を算出すると、特徴値の確率分布を参照して画像を分類する。しかし、本発明は、画像の学習及び分類を行うだけでなく、画像分類のために特定関心領域別に学習された各深層神経網から算出した特徴値を学習する段階及び構成によって画像分析の正確度を高めるという点で従来技術と異なる技術的特徴を有する。
統合分析部170は、第1特徴を既に学習された統合分析モデルに適用して、質疑画像の分析値を算出する。仮に全体画像分析部160と関心画像分析部150が両方とも画像分析に用いられる場合、統合分析部170は第1特徴及び第2特徴を既に学習された統合分析モデルに適用して質疑画像の分析値を算出することができる。
ここで、統合分析モデルは、統合学習部147で生成されたものであり、画像から抽出した一つ以上の関心領域を一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された深層神経網又は回帰モデルなどの機械学習モデルであり得る。他の実施例として、統合分析モデルは、画像を全体画像特徴抽出モデルに適用して算出した特徴、及び画像から抽出した一つ以上の関心領域を一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された神経網、深層神経網又は回帰モデルであってもよい。
言い換えると、統合分析モデルは、特徴値で学習された機械学習モデルであり、複数の学習画像から抽出した関心領域を関心領域特徴抽出モデルに適用して算出された特徴(第1特徴)を学習データとしたり、或いは、学習画像を全体画像特徴抽出モデルに適用して算出した特徴(第2特徴)と第1特徴を学習データとして訓練されたものであり得る。したがって、統合分析部170の入力ベクトルXは、X=[F1, F2, , Fh, , FH]と表すことができ、ここで、Hは関心領域の個数(全体画像を含む)であり、Fhは関心領域hの特徴値を意味する。
例えば、手骨画像分析において橈骨領域を関心領域1とするとき、統合学習部147は、骨年齢別又は骨成熟等級別にグループ化された橈骨画像の複数個を第1関心領域特徴抽出モデルに適用して算出された橈骨画像の特徴値で統合分析モデルを学習させることができる。すなわち、統合分析モデルは地図学習によって骨年齢別橈骨画像の特徴値の特徴を学習することができる。
したがって、後で質疑画像が入力されたとき、検出部130が質疑画像から橈骨画像を抽出すると、関心画像分析部150は橈骨画像を第1関心領域特徴抽出モデルに適用してF1を質疑画像の関心領域1の特徴ベクトルとして算出し、F1を受信した統合分析部170はF1の特徴を算出してF1の特徴に対応する骨年齢を識別することができる。このような方式で、統合分析部170は各関心領域別特徴F1, F2, F3, , FN及び/又は全体画像の特徴WFを学習対象にして骨年齢別画像特徴を学習することができる。
要するに、本発明の統合分析部170が特徴分類に使用する統合分析モデルは、関心領域の特徴だけを学習してもよく、関心領域の特徴と全体画像の特徴との組合せを学習してもよい。後で質疑画像を分析する際にも、統合分析部170は画像を入力値として受けるのではなく、質疑画像の特徴値を入力値として受けて分類を行うことができる。本明細書において、統合分析部170の出力を質疑画像の分析値と命名し、これは、実際には質疑画像を分析した分類結果、すなわち質疑画像の機械学習モデル(全体領域特徴抽出モデル及び/又は関心領域特徴抽出モデル)の結果値又は出力値の特徴ベクトルであると理解され得る。
統合分析部170は、分析値を用いて質疑画像を識別する。分析値は、質疑画像の属するカテゴリーを示したり、或いはカテゴリー別確率を示すベクトル値又は回帰分析モデルの結果値であり得る。
例えば、手骨画像を分析する場合、分析値は骨年齢別確率を示すベクトル値でよく、分析値において最も高い確率値に対応する骨年齢が質疑画像の骨年齢として識別され得るか、或いは回帰分析モデルに対応する骨年齢値であり得る。したがって、仮に、質疑画像の分析結果、年齢が10歳と算出されると、図1に示すように、統合分析部から出力される分析値ITは、一種のカテゴリーに該当する“10歳”と算出されてもよく、回帰分析モデルが用いられた場合には“10.253”のように骨年齢として特定の値が算出されてもよい。
出力部190は、統合分析部170から算出された質疑画像の分析値及び関心画像分析部150から算出された関心領域別分析値をユーザに提供することができる。例えば、図1の195に示すように、ユーザに提供される分析結果は、質疑画像の分析値
だけでなく、第1関心領域の分析値I1第2関心領域の分析値I2、第3関心領域の分析値I3、第4関心領域の分析値I4を全て含むことができる。図1の195は、質疑画像の骨年齢に対する分析結果であり、第1関心領域の骨年齢は11歳、第2関心領域の骨年齢は9歳、第3関心領域の骨年齢は12歳と分析された場合の一例である。
関心領域の分析値は質疑画像の分析値に影響を及ぼすことができる、すなわち、質疑画像の分析値と相関関係がある他の種類の値であり得るので、万一学習部140で関心領域特徴抽出モデルを生成する時に骨年齢ではなく骨成熟等級を識別値として関心領域を学習させた場合、関心領域特徴抽出モデルに関心領域を適用して導出される分析値は骨成熟等級であり得る。この場合、ユーザには関心領域の分析値として関心領域別骨成熟等級が提供され得る。例えば、第1関心領域の骨成熟等級はC、第2関心領域の骨成熟等級はD、第3関心領域の骨成熟等級はCのように分析され得る。したがって、本発明の画像分析装置100は質疑画像の骨年齢と共に各関心領域の骨年齢又は骨成熟等級を提供することによって画像分析結果に対する判断根拠及び解析を共に提供できるという点で効果的である。
図4及び図5は、本発明の一実施例に係る画像分析方法を示すフローチャートである。
図4を参照すると、本発明の一実施例に係る電子装置は、質疑画像を受信し(S100)、質疑画像から一つ以上の関心領域を抽出することができる(S200)。
段階200において電子装置は、ユーザによって既に設定された位置情報に対応する領域を関心領域として抽出でき、質疑画像に、特定領域に対して学習された自動検出モデルを適用して、特定領域に対応する領域を関心領域として抽出することができる。
次に、電子装置は、関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出することができる(S300)。関心領域特徴抽出モデルは、一つ以上の層で構成された深層神経網であり、第1特徴は一つ以上の層のいずれか一層から出力される値又はいずれか一層に入力される値であり得る。
電子装置は、関心領域別第1特徴を既に学習された統合分析モデルに適用して、質疑画像を識別するための分析値を算出することができる(S400)。すなわち、質疑画像がどのようなカテゴリーに属するか、どのような確率値を有するか、どのような値に対応するかなどを示す分析値を算出することができる。ここで、統合分析モデルは、複数の学習画像から抽出した一つ以上の関心領域を一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された機械学習モデルであり、分析値は、第1特徴を統合したものの特徴ベクトルであるか、カテゴリー値を意味するものと理解され得る。
一方、段階450で電子装置は関心領域別分析値を算出することができる。段階450で算出される分析値は質疑画像の分析値と同じ種類の値であってもよく、質疑画像の分析値と相関関係がある異なる種類の値であってもよい。例えば、質疑画像の骨年齢が分析値として導出される場合、段階450で算出される関心領域の分析値は関心領域の骨年齢であってもよく、骨年齢測定と相関関係を有する骨成熟等級であってもよい。これは、各関心領域特徴抽出モデルが学習される時にどのような値が識別値として用いられたかによって変わり得る。
電子装置は段階500で関心領域別分析値及び質疑画像の分析値をユーザに提供することができる。例えば、電子装置に含まれたディスプレイから分析値が表示されてもよく、電子装置に取り付けられたスピーカーなどから分析値が出力されてもよい。
図5の実施例によれば、電子装置は、関心領域を抽出して関心領域別第1特徴を算出すると同時に、質疑画像を複数の学習画像で学習された全体領域特徴抽出モデルに適用して質疑画像の第2特徴を算出することができる(S350)。この場合、段階400で電子装置は、第1特徴及び第2特徴を統合分析モデルに適用して質疑画像の分析値を算出することができる。この時、統合分析モデルは、学習画像を全体画像特徴抽出モデルに適用して算出した特徴、及び学習画像から抽出した一つ以上の関心領域を一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された神経網又は深層神経網であり、段階400で算出される分析値は第1特徴及び第2特徴を統合したものの特徴値であると理解され得る。
本明細書で省略された一部の実施例は、その実施主体が同一であれば同一に適用可能である。また、前述した本発明は、本発明の属する技術の分野における通常の知識を有する者にとって、本発明の技術的思想を逸脱しない範囲内で様々な置換、変形及び変更が可能であり、よって、前述した実施例及び添付の図面によって限定されるものではない。

Claims (12)

  1. 質疑画像を受信する段階と、
    前記質疑画像から一つ以上の関心領域を抽出する段階と、
    前記関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出する段階と、
    前記関心領域別第1特徴を既に学習された統合分析モデルに適用して、前記質疑画像を識別するための前記質疑画像の分析値を算出する段階と、
    を含む、画像分析方法。
  2. 前記質疑画像を複数の学習画像で学習された全体領域特徴抽出モデルに適用して前記質疑画像の第2特徴を算出する段階をさらに含み、
    前記分析値を算出する段階は、
    前記第1特徴及び前記第2特徴を前記統合分析モデルに適用して前記質疑画像の分析値を算出する段階を含む、請求項1に記載の画像分析方法。
  3. 前記統合分析モデルは、
    複数の学習画像から抽出した一つ以上の関心領域を前記一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された神経網又は回帰モデルである、請求項1に記載の画像分析方法。
  4. 前記統合分析モデルは、
    前記学習画像を前記全体画像特徴抽出モデルに適用して算出した特徴、及び前記学習画像から抽出した一つ以上の関心領域を前記一つ以上の関心領域特徴抽出モデルにそれぞれ適用して算出された一つ以上の特徴で学習された神経網又は回帰モデルである、請求項2に記載の画像分析方法。
  5. 前記関心領域特徴抽出モデルは、一つ以上の層で構成された深層神経網であり、
    前記第1特徴は、前記一つ以上の層のいずれか一つの層から出力される値又は前記いずれか一つの層に入力される値である、請求項1に記載の画像分析方法。
  6. 前記関心領域特徴抽出モデル及び前記全体領域特徴抽出モデルは、一つ以上の層で構成された深層神経網であり、
    前記第1特徴及び前記第2特徴は、前記一つ以上の層のいずれか一つの層から出力される値又は前記いずれか一つの層に入力される値である、請求項2に記載の画像分析方法。
  7. 前記関心領域特徴抽出モデルは、既に設定された識別値によって分類された一つ以上の関心領域を訓練データとして使用して学習され、
    前記識別値は、前記質疑画像の分析値と同じ種類の値であるか、前記質疑画像の分析値と相関関係がある異なる種類の値であることを特徴とする、請求項1に記載の画像分析方法。
  8. 前記一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別分析値を算出する段階;
    前記質疑画像の分析値及び前記関心領域別分析値をユーザに提供する段階を含む、請求項1に記載の画像分析方法。
  9. 前記関心領域を抽出する段階は、
    前記質疑画像に特定領域に対して学習された自動検出モデルを適用して、前記特定領域に対応する領域を関心領域として抽出する段階を含む、請求項1に記載の画像分析方法。
  10. 質疑画像を受信する入力部と、
    前記質疑画像から一つ以上の関心領域を抽出する検出部と、
    前記関心領域のそれぞれの特徴を抽出するために独立して学習された一つ以上の関心領域特徴抽出モデルに前記一つ以上の関心領域をそれぞれ適用して関心領域別第1特徴を算出する関心画像分析部と、
    前記第1特徴を既に学習された統合分析モデルに適用して、前記質疑画像の分析値を算出し、前記分析値を用いて前記質疑画像を識別する統合分析部と、
    を含む画像分析装置。
  11. 前記質疑画像を複数の画像で学習された全体領域特徴抽出モデルに適用して前記質疑画像の第2特徴を算出する全体画像分析部をさらに含み、
    前記統合分析部は、前記第1特徴及び前記第2特徴を既に学習された統合分析モデルに適用して前記質疑画像の分析値を算出する、請求項10に記載の画像分析装置。
  12. 請求項1〜9のいずれか一方法を実行させるためにコンピュータ読取り可能媒体に格納された画像分析プログラム。

JP2020515931A 2017-09-13 2018-08-09 画像分析方法、装置及びコンピュータプログラム Active JP6993027B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2017-0117463 2017-09-13
KR20170117463 2017-09-13
KR10-2018-0057547 2018-05-21
KR1020180057547A KR101977174B1 (ko) 2017-09-13 2018-05-21 영상 분석 방법, 장치 및 컴퓨터 프로그램
PCT/KR2018/009064 WO2019054638A1 (ko) 2017-09-13 2018-08-09 영상 분석 방법, 장치 및 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
JP2020536301A true JP2020536301A (ja) 2020-12-10
JP6993027B2 JP6993027B2 (ja) 2022-01-13

Family

ID=66036852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515931A Active JP6993027B2 (ja) 2017-09-13 2018-08-09 画像分析方法、装置及びコンピュータプログラム

Country Status (5)

Country Link
US (2) US11017255B2 (ja)
EP (1) EP3696727A4 (ja)
JP (1) JP6993027B2 (ja)
KR (1) KR101977174B1 (ja)
WO (1) WO2019054638A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019026104A1 (ja) * 2017-07-31 2019-02-07 富士通株式会社 情報処理装置、情報処理プログラム及び情報処理方法
JP6999812B2 (ja) * 2018-08-01 2022-01-19 中國醫藥大學附設醫院 骨年齢評価と身長予測モデルの確立方法、そのシステム及びその予測方法
CN110866526A (zh) * 2018-08-28 2020-03-06 北京三星通信技术研究有限公司 图像分割方法、电子设备及计算机可读存储介质
JP6695947B2 (ja) * 2018-09-21 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、画像処理方法及びプログラム
US11367181B2 (en) 2018-12-29 2022-06-21 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for ossification center detection and bone age assessment
CN111488475A (zh) * 2019-01-29 2020-08-04 北京三星通信技术研究有限公司 图像检索方法、装置、电子设备及计算机可读存储介质
KR102100698B1 (ko) * 2019-05-29 2020-05-18 (주)제이엘케이 앙상블 학습 알고리즘을 이용한 인공지능 기반 진단 보조 시스템
KR102444274B1 (ko) * 2019-07-17 2022-09-16 주식회사 크레스콤 관절염 심각도 정밀 분석 장치 및 방법
TWI772663B (zh) * 2019-08-05 2022-08-01 長佳智能股份有限公司 以個人裝置進行手骨骨齡即時判讀之系統及方法
CN110517234B (zh) * 2019-08-16 2022-02-11 杭州依图医疗技术有限公司 特征骨异常检测方法及装置
KR102202051B1 (ko) * 2019-09-27 2021-01-12 국방과학연구소 레거시 환경 분석 기반 클라우드 시스템 추천 장치
JP7405562B2 (ja) * 2019-10-30 2023-12-26 株式会社 資生堂 評価装置、方法、およびプログラム
KR102335173B1 (ko) * 2019-11-13 2021-12-07 울산대학교 산학협력단 병리 영상 분석 시스템 및 방법
KR102575890B1 (ko) * 2020-11-16 2023-09-08 본와이즈 주식회사 인공지능 시스템을 훈련시키기 위한 이미지 데이터를 처리하도록 구성되는 전자 장치
CN113160199B (zh) * 2021-04-29 2022-06-17 武汉联影医疗科技有限公司 影像识别方法、装置、计算机设备和存储介质
WO2022265401A1 (ko) * 2021-06-15 2022-12-22 엘지전자 주식회사 범용의 변환 행렬에 기반한 피쳐 정보 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체
CN113780355B (zh) * 2021-08-12 2024-02-09 上海理工大学 一种深海潜水器推进器故障辨识的深度卷积神经网络学习方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003175023A (ja) * 2001-09-18 2003-06-24 Agfa Gevaert Nv 放射線写真査定方法
JP2009048620A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
KR20160096460A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8014576B2 (en) * 2005-11-23 2011-09-06 The Medipattern Corporation Method and system of computer-aided quantitative and qualitative analysis of medical images
US7853072B2 (en) * 2006-07-20 2010-12-14 Sarnoff Corporation System and method for detecting still objects in images
US8331641B2 (en) * 2008-11-03 2012-12-11 Siemens Medical Solutions Usa, Inc. System and method for automatically classifying regions-of-interest
EP2323069A2 (en) * 2009-11-17 2011-05-18 Samsung Electronics Co., Ltd. Method, device and system for content based image categorization field
US8582807B2 (en) * 2010-03-15 2013-11-12 Nec Laboratories America, Inc. Systems and methods for determining personal characteristics
CN103632129A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种人脸特征点定位方法及装置
US9311564B2 (en) * 2012-10-05 2016-04-12 Carnegie Mellon University Face age-estimation and methods, systems, and software therefor
KR102043130B1 (ko) 2012-11-16 2019-11-11 삼성전자주식회사 컴퓨터 보조 진단 방법 및 장치
WO2016054778A1 (en) * 2014-10-09 2016-04-14 Microsoft Technology Licensing, Llc Generic object detection in images
KR102251242B1 (ko) * 2014-11-26 2021-05-12 삼성전자주식회사 컴퓨터 보조 진단 장치 및 방법
JP2018527660A (ja) * 2015-07-29 2018-09-20 ノキア テクノロジーズ オーユー ニューラルネットワークによるオブジェクト検出
KR101801846B1 (ko) * 2015-08-26 2017-11-27 옴니어스 주식회사 상품 영상 검색 및 시스템
KR101657495B1 (ko) 2015-09-04 2016-09-30 (주)한국플랫폼서비스기술 딥러닝 분석을 위한 모듈화시스템 및 이를 이용한 영상 인식 방법
KR101997479B1 (ko) * 2015-10-20 2019-10-01 삼성전자주식회사 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10019631B2 (en) * 2015-11-05 2018-07-10 Qualcomm Incorporated Adapting to appearance variations when tracking a target object in video sequence
US9830529B2 (en) * 2016-04-26 2017-11-28 Xerox Corporation End-to-end saliency mapping via probability distribution prediction
EP3465537A2 (en) * 2016-05-25 2019-04-10 Metail Limited Method and system for predicting garment attributes using deep learning
US10929977B2 (en) * 2016-08-25 2021-02-23 Intel Corporation Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
KR102036957B1 (ko) * 2016-10-06 2019-10-25 가톨릭대학교 산학협력단 딥 러닝 기반의 데이터특징을 이용한 도시영상의 안전도 분류방법
US10366302B2 (en) * 2016-10-10 2019-07-30 Gyrfalcon Technology Inc. Hierarchical category classification scheme using multiple sets of fully-connected networks with a CNN based integrated circuit as feature extractor
US10860898B2 (en) * 2016-10-16 2020-12-08 Ebay Inc. Image analysis and prediction based visual search
WO2018089210A1 (en) * 2016-11-09 2018-05-17 Konica Minolta Laboratory U.S.A., Inc. System and method of using multi-frame image features for object detection
WO2018099473A1 (zh) * 2016-12-02 2018-06-07 北京市商汤科技开发有限公司 场景分析方法和系统、电子设备
KR101901397B1 (ko) * 2016-12-06 2018-09-21 부산대학교 산학협력단 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도(smi) 자동 분석방법
US10984289B2 (en) * 2016-12-23 2021-04-20 Shenzhen Institute Of Advanced Technology License plate recognition method, device thereof, and user equipment
CN108229488B (zh) * 2016-12-27 2021-01-01 北京市商汤科技开发有限公司 用于检测物体关键点的方法、装置及电子设备
CN107067020B (zh) * 2016-12-30 2019-11-15 腾讯科技(上海)有限公司 图片识别方法及装置
KR101857624B1 (ko) 2017-08-21 2018-05-14 동국대학교 산학협력단 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치
US10282589B2 (en) * 2017-08-29 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
CN107729948A (zh) * 2017-10-31 2018-02-23 京东方科技集团股份有限公司 图像处理方法及装置、计算机产品和存储介质
CN107818313B (zh) * 2017-11-20 2019-05-14 腾讯科技(深圳)有限公司 活体识别方法、装置和存储介质
US11544348B2 (en) * 2018-03-05 2023-01-03 Tata Consultancy Services Limited Neural network based position estimation of target object of interest in video frames
US10223611B1 (en) * 2018-03-08 2019-03-05 Capital One Services, Llc Object detection using image classification models
US10922833B2 (en) * 2018-05-15 2021-02-16 Apical Ltd. Image processing
US11615208B2 (en) * 2018-07-06 2023-03-28 Capital One Services, Llc Systems and methods for synthetic data generation
US10796206B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
US20210027098A1 (en) * 2019-07-22 2021-01-28 Shenzhen Malong Technologies Co., Ltd. Weakly Supervised Image Segmentation Via Curriculum Learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003175023A (ja) * 2001-09-18 2003-06-24 Agfa Gevaert Nv 放射線写真査定方法
JP2009048620A (ja) * 2007-07-20 2009-03-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
KR20160096460A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 聡志 他: "びまん性肺疾患識別におけるDeep Convolutional Neural Network特徴の解", 情報処理学会 研究報告 バイオ情報学(BIO) 2015−BIO−42, JPN6021010967, 16 June 2015 (2015-06-16), JP, pages 1 - 6, ISSN: 0004475487 *

Also Published As

Publication number Publication date
JP6993027B2 (ja) 2022-01-13
EP3696727A4 (en) 2021-08-18
US11551433B2 (en) 2023-01-10
KR20190030151A (ko) 2019-03-21
KR101977174B1 (ko) 2019-05-10
US20210279495A1 (en) 2021-09-09
WO2019054638A1 (ko) 2019-03-21
US11017255B2 (en) 2021-05-25
EP3696727A1 (en) 2020-08-19
US20210034905A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
JP6993027B2 (ja) 画像分析方法、装置及びコンピュータプログラム
KR102045223B1 (ko) 골 연령 분석 방법, 장치 및 컴퓨터 프로그램
US10265040B2 (en) Method and apparatus for adaptive computer-aided diagnosis
CN102436587B (zh) 使用多个实例学习来训练标志检测器的方法和系统
US10130323B2 (en) Method and apparatus for planning computer-aided diagnosis
CN112150442A (zh) 基于深度卷积神经网络及多实例学习的新冠诊断系统
CN108447055A (zh) 基于spl和ccn的sar图像变化检测方法
Davis et al. Automated bone age assessment using feature extraction
Samhitha et al. Prediction of lung cancer using convolutional neural network (CNN)
CN111414930B (zh) 深度学习模型训练方法及装置、电子设备及存储介质
KR20200021398A (ko) 영상 처리 장치 및 방법
CN115760822B (zh) 一种图像质量检测模型建立方法及系统
CN115210755A (zh) 解决训练数据中遗漏注释的类别不同损失函数
GB2604706A (en) System and method for diagnosing small bowel cleanliness
JP2005115569A (ja) 信号識別装置および信号識別方法
Sameki et al. ICORD: Intelligent Collection of Redundant Data-A Dynamic System for Crowdsourcing Cell Segmentations Accurately and Efficiently.
CN111325282A (zh) 适应多机型的乳腺x射线影像识别方法和装置
Iannello et al. A slightly supervised approach for positive/negative classification of fluorescence intensity in hep-2 images
CN116958128B (zh) 基于深度学习的医学图像自动定位方法
CN114550860B (zh) 一种基于流程数据与智能网络模型的就医满意度评估方法
TWI841402B (zh) 頭髮特徵分析方法與系統
Porto et al. Estimating sex and age for forensic applications using machine learning based on facial measurements from frontal cephalometric landmarks
JP2009207585A (ja) 医用画像解析システム、コンピュータプログラム及び医用画像解析方法
KR20230131826A (ko) 일반 콘텐츠 뇌 반응 모델을 사용한 분야별 콘텐츠 분류
de Santos et al. Study of the effect of blurriness in image acquisition for hand biometrics in mobile devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6993027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150