JP7138869B2 - 特徴量抽出装置、特徴量抽出方法、識別装置、識別方法及びプログラム - Google Patents
特徴量抽出装置、特徴量抽出方法、識別装置、識別方法及びプログラム Download PDFInfo
- Publication number
- JP7138869B2 JP7138869B2 JP2020043778A JP2020043778A JP7138869B2 JP 7138869 B2 JP7138869 B2 JP 7138869B2 JP 2020043778 A JP2020043778 A JP 2020043778A JP 2020043778 A JP2020043778 A JP 2020043778A JP 7138869 B2 JP7138869 B2 JP 7138869B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional data
- identification
- evaluation
- identifying
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/444—Evaluating skin marks, e.g. mole, nevi, tumour, scar
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/445—Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定手段と、
前記特定手段で特定された螺旋状の曲線の領域から、画素値に基づく特徴量を抽出する抽出手段と、
を備えることを特徴とする。
本発明の第1実施形態に係る識別装置100は、所定の対象を撮像した撮像画像に基づいてこの所定の対象を識別するための装置である。例えば、識別装置100は、所定の対象としての診断の対象となる診断対象部分(例えば、腫瘍、ホクロ、シミ、できもの、血管、アトピー性湿疹や薬疹、膠原病による発疹などといった皮膚の疾患部分、皮膚の疾患が疑われる部分)を含む人の皮膚を撮像した撮像画像に基づいて、この画像中の診断対象部分が良性か悪性かを識別する。このような識別装置100による識別は、医師の診断を支援するために行われる。また、識別装置100は、画像に基づく識別において、2次元の画像データをそのまま用いるのではなく、画像データから1次元データを取得し、取得した1次元データを用いて当該画像内の所定の対象を識別する。
第1実施形態に係る識別装置100は、予め定義された特徴量を用いてSVMで識別を行った。しかし、コンボリューショナルニューラルネットワーク(Convolutional Neural Network:CNN)等のDNNを上述した1次元データに適用すれば、事前に特徴量(特徴量のベクトルを構成する各要素の算出方法等)を定義しなくても識別することができるようになる。このような第2実施形態に係る識別装置101について、説明する。
上述の実施形態では、螺旋のパラメータについて、学習処理においてはランダムに決定し、識別処理においては典型的な値に設定していた。しかし、このように設定された螺旋のパラメータは、識別に有効なパラメータとあまり有効でないパラメータとが入り混じった状態になっていると考えられる。そこで、螺旋のパラメータについて、有効なパラメータを探索する第3実施形態について、説明する。
S=(1-λ)Sm+λSa …(1)
上記の実施形態では、画素値に基づく1次元データを取得する際の「互いに異なる複数の方向に延びる線」として螺旋状の曲線を採用した。螺旋は、連続した線状領域を長くとることができるので、大域的な特徴を捉えることが可能で、しかも(断点がない分だけ)多くの局所特徴を捉えることが可能だからである。しかし、「互いに異なる複数の方向に延びる線」を、螺旋状の曲線に限る必要はない。
また、上述の実施形態及び変形例において、画像入力部31が取得する画像データは、通常の可視光画像に限られない。撮影時に診断対象部分に照射する光としては、白色光(可視光の各波長の光が均等に混じった光。)、紫色付近の可視光と紫外光(非可視光)とを含む波長域の光(例えば、波長が320nm~440nm、好ましくは、405nmの光。)、近赤外光を含む赤外光(例えば、波長が750nm~1000nm、好ましくは、945nmの光。)及びこれらを混合した光のいずれを用いてもよい。また、診断対象部分からの光(上述の光を照射したときに診断対象部分で反射した光、及び、照射した光により診断対象部分で発生した蛍光光)を画像入力部31の受光デバイスで受光する際も、これらの複数の種類の光(可視光、紫外光、赤外光)のいずれか又はこれら複数の光の任意の組合せを受光して画像データを取得することができる。
所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定手段と、
前記特定手段で特定された線状の領域から、画素値に基づく特徴量を抽出する抽出手段と、
を備えることを特徴とする特徴量抽出装置。
前記線状の領域は、螺旋状の領域であることを特徴とする、
付記1に記載の特徴量抽出装置。
前記螺旋状の領域の螺旋を規定するパラメータをランダムに設定する設定手段をさらに備えることを特徴とする、
付記2に記載の特徴量抽出装置。
前記所定の対象は、人の皮膚のうちの診断の対象となる診断対象部分であることを特徴とする、
付記1から3の何れか1つに記載の特徴量抽出装置。
前記抽出手段は、前記特定された線状の領域の画素値を1次元データとして取得し、前記1次元データに対して所定の統計値を計算して前記特徴量を抽出することを特徴とする、
付記1から4の何れか1つに記載の特徴量抽出装置。
前記抽出手段は、前記特定された線状の領域の画素値を所定の色空間における第1成分、第2成分及び第3成分それぞれの1次元データとして取得し、前記第1成分と前記第2成分それぞれの前記1次元データの分散、前記第1成分と前記第2成分と前記第3成分それぞれの前記1次元データの回帰直線の傾き及び寄与率、前記1次元データ同士の差の絶対値の分散、前記1次元データ同士の比のうち前記第1成分/前記第2成分及び前記第1成分/前記第3成分の回帰直線の傾き及び寄与率、前記1次元データの最大値と最小値の差、の合計16の値のうちの少なくとも1つを特徴量として抽出することを特徴とする、
付記5に記載の特徴量抽出装置。
前記抽出手段は、前記特定された線状の領域の画素値を1次元データとして取得し、前記1次元データを1次元コンボリューショナルニューラルネットワークに入力して前記特徴量を抽出することを特徴とする、
付記1から4の何れか1つに記載の特徴量抽出装置。
さらに、前記線状の領域を特定するパラメータの適正度を評価した値である評価値を算出する評価手段を備え、
前記特定手段は、複数の前記パラメータの中から、前記評価手段で算出された評価値が最も高い前記パラメータである最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記線状の領域を特定する、
付記7に記載の特徴量抽出装置。
所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定手段と、
前記特定手段で特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得手段と、
前記1次元データ取得手段で取得された1次元データに基づいて前記所定の対象を識別する識別手段と、
を備えることを特徴とする識別装置。
前記線状の領域は、螺旋状の領域であることを特徴とする、
付記9に記載の識別装置。
前記特定手段は、前記螺旋状の領域の螺旋を規定するパラメータをランダムに設定し、前記ランダムに設定したパラメータで規定された螺旋を用いて前記螺旋状の領域を特定することを特徴とする、
付記10に記載の識別装置。
さらに、前記線状の領域を特定するパラメータの適正度を評価した値である評価値を算出する評価手段を備え、
前記特定手段は、複数の前記パラメータの中から、前記評価手段で算出された評価値が最も高い前記パラメータである最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記線状の領域を特定する、
付記9又は10に記載の識別装置。
前記評価手段は、
前記特定手段に、互いに異なる複数の前記パラメータから評価用パラメータを選択させるとともに、前記選択させた評価用パラメータを用いて、評価用の画像データにおける所定の対象を含む領域から前記線状の領域を特定させ、
前記1次元データ取得手段に、前記特定手段により前記評価用パラメータを用いて特定された前記線状の領域である評価用線状領域から前記1次元データを取得させ、
前記識別手段に、前記1次元データ取得手段により前記評価用線状領域から取得された前記1次元データに基づいて前記評価用の画像データにおける前記所定の対象を識別させ、
前記評価用線状領域から取得された前記1次元データに基づく前記識別手段の識別精度を算出し、前記識別精度に基づいて前記評価値を算出し、前記識別精度及び前記評価値の算出を、前記複数のパラメータの各々について行う、
付記12に記載の識別装置。
前記評価手段は、評価用の画像データを用いて各画素が識別に及ぼす影響の大きさを示す影響度を表した活性化マップを取得し、前記活性化マップ上で前記線状の領域から得られる各画素の前記影響度に基づいて、前記評価値を算出する、
付記12又は13に記載の識別装置。
前記所定の対象は、人の皮膚のうちの診断の対象となる診断対象部分であることを特徴とする、
付記9から14の何れか1つに記載の識別装置。
前記識別手段は、前記1次元データに基づく入力データを入力とし、かつ、前記所定の対象の識別結果を出力とするように機械学習されたモデルに従って、前記所定の対象を識別することを特徴とする、
付記9から15の何れか1つに記載の識別装置。
さらに、前記1次元データ取得手段で取得された1次元データに対して所定の統計値を計算して特徴量を抽出する抽出手段を備え、
前記識別手段は前記特徴量を前記モデルとしてのサポートベクターマシンに入力して前記所定の対象を識別することを特徴とする、
付記16に記載の識別装置。
前記識別手段は前記1次元データ取得手段で取得された1次元データを前記モデルとしての1次元コンボリューショナルニューラルネットワークに入力して前記所定の対象を識別することを特徴とする、
付記16に記載の識別装置。
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップと、
前記特定ステップで特定された線状の領域から、画素値に基づく特徴量を抽出する抽出ステップと、
を備えることを特徴とする特徴量抽出方法。
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップと、
前記特定ステップで特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップと、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップと、
を備えることを特徴とする識別方法。
コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップ、及び、
前記特定ステップで特定された線状の領域から、画素値に基づく特徴量を抽出する抽出ステップ、
を実行させるためのプログラム。
コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップ、
前記特定ステップで特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップ、及び、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップ、
を実行させるためのプログラム。
Claims (20)
- 所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定手段と、
前記特定手段で特定された螺旋状の曲線の領域から、画素値に基づく特徴量を抽出する抽出手段と、
を備えることを特徴とする特徴量抽出装置。 - 所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定手段と、
前記特定手段で特定された線状の領域の画素値を所定の色空間における第1成分、第2成分及び第3成分それぞれの1次元データとして取得し、前記第1成分と前記第2成分それぞれの前記1次元データの分散、前記第1成分と前記第2成分と前記第3成分それぞれの前記1次元データの回帰直線の傾き及び寄与率、前記1次元データ同士の差の絶対値の分散、前記1次元データ同士の比のうち前記第1成分/前記第2成分及び前記第1成分/前記第3成分の回帰直線の傾き及び寄与率、前記1次元データの最大値と最小値の差、の合計16の値のうちの少なくとも1つを特徴量として抽出する抽出手段と、
を備えることを特徴とする 特徴量抽出装置。 - 前記抽出手段は、前記特定された螺旋状の曲線の領域の画素値を1次元データとして取得し、前記1次元データを1次元コンボリューショナルニューラルネットワークに入力して前記特徴量を抽出することを特徴とする、
請求項1に記載の特徴量抽出装置。 - 前記螺旋状の曲線の領域を特定するパラメータを学習した識別部の識別精度に基づいて、前記パラメータの適正度を評価した値である評価値を算出する評価手段をさらに備え、
前記特定手段は、複数の前記パラメータの中から、前記評価手段で算出された評価値が最も高い前記パラメータである最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記螺旋状の曲線の領域を特定することを特徴とする、
請求項1又は3に記載の特徴量抽出装置。 - 前記所定の対象は、人の皮膚のうちの診断の対象となる診断対象部分であることを特徴とする、
請求項に1から4の何れか1項に記載の特徴量抽出装置。 - 所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定手段と、
前記特定手段で特定された螺旋状の曲線の領域から、画素値に基づく1次元データを取得する1次元データ取得手段と、
前記1次元データ取得手段で取得された1次元データに基づいて前記所定の対象を識別する識別手段と、
を備えることを特徴とする識別装置。 - 前記螺旋状の曲線の領域を特定するパラメータを学習した識別部の識別精度に基づいて、前記パラメータの適正度を評価した値である評価値を算出する評価手段をさらに備え、
前記特定手段は、複数の前記パラメータの中から、前記評価手段で算出された評価値が最も高い前記パラメータである最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記螺旋状の曲線の領域を特定することを特徴とする、
請求項6に記載の識別装置。 - 所定の対象を撮像した撮像画像を取得する取得手段と、
前記取得手段で取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定手段と、
前記特定手段で特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得手段と、
前記1次元データ取得手段で取得された1次元データに基づいて前記所定の対象を識別する識別手段と、
前記線状の領域を特定するパラメータの適正度を評価した値である評価値を算出する評価手段と、
を備え、
前記特定手段は、前記線状の領域を特定する複数のパラメータの中から、前記評価手段で算出された評価値が最も高い最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記線状の領域を特定し、
前記評価手段は、
前記特定手段に互いに異なる複数の前記パラメータから評価用パラメータを選択させるとともに、前記選択させた評価用パラメータを用いて評価用の画像データにおける所定の対象を含む領域から前記線状の領域を特定させ、
前記1次元データ取得手段に前記特定手段により前記評価用パラメータを用いて特定された前記線状の領域である評価用線状領域から前記1次元データを取得させ、
前記識別手段に前記1次元データ取得手段により前記評価用線状領域から取得された前記1次元データに基づいて前記評価用の画像データにおける前記所定の対象を識別させ、
前記評価用線状領域から取得された前記1次元データに基づく前記識別手段の識別精度を算出し、前記識別精度に基づいて前記評価値を算出し、前記識別精度及び前記評価値の算出を、前記複数のパラメータの各々について行うことを特徴とする識別装置。 - 前記所定の対象は、人の皮膚のうちの診断の対象となる診断対象部分であることを特徴とする、
請求項6から8の何れか1項に記載の識別装置。 - 前記識別手段は、前記1次元データに基づく入力データを入力とし、かつ、前記所定の対象の識別結果を出力とするように機械学習されたモデルに従って、前記所定の対象を識別することを特徴とする、
請求項6から9の何れか1項に記載の 識別装置。 - さらに、前記1次元データ取得手段で取得された1次元データに対して所定の統計値を計算して特徴量を抽出する抽出手段を備え、
前記識別手段は前記特徴量を前記モデルとしてのサポートベクターマシンに入力して前記所定の対象を識別することを特徴とする、
請求項10に記載の識別装置。 - 前記識別手段は前記1次元データ取得手段で取得された1次元データを前記モデルとしての1次元コンボリューショナルニューラルネットワークに入力して前記所定の対象を識別することを特徴とする、
請求項10に記載の識別装置。 - 特徴量抽出装置が実行する特徴量抽出方法であって、
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定ステップと、
前記特定ステップで特定された螺旋状の曲線の領域から、画素値に基づく特徴量を抽出する抽出ステップと、
を含むことを特徴とする特徴量抽出方法。 - 特徴量抽出装置が実行する特徴量抽出方法であって、
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップと、
前記特定ステップで特定された線状の領域の画素値を所定の色空間における第1成分、第2成分及び第3成分それぞれの1次元データとして取得し、前記第1成分と前記第2成分それぞれの前記1次元データの分散、前記第1成分と前記第2成分と前記第3成分それぞれの前記1次元データの回帰直線の傾き及び寄与率、前記1次元データ同士の差の絶対値の分散、前記1次元データ同士の比のうち前記第1成分/前記第2成分及び前記第1成分/前記第3成分の回帰直線の傾き及び寄与率、前記1次元データの最大値と最小値の差、の合計16の値のうちの少なくとも1つを特徴量として抽出する抽出ステップと、
を含むことを特徴とする特徴量抽出方法。 - 識別装置が実行する識別方法であって、
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定ステップと、
前記特定ステップで特定された螺旋状の曲線の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップと、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップと、
を含むことを特徴とする識別方法。 - 識別装置が実行する識別方法であって、
所定の対象を撮像した撮像画像を取得する取得ステップと、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップと、
前記特定ステップで特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップと、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップと、
前記線状の領域を特定するパラメータの適正度を評価した値である評価値を算出する評価ステップと、を含み、
前記特定ステップは、前記線状の領域を特定する複数のパラメータの中から、前記評価ステップで算出された評価値が最も高い最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記線状の領域を特定し、
前記評価ステップは、
前記特定ステップにて互いに異なる複数の前記パラメータから評価用パラメータを選択させるとともに、前記選択させた評価用パラメータを用いて評価用の画像データにおける所定の対象を含む領域から前記線状の領域を特定させ、
前記1次元データ取得ステップにて、前記特定ステップにて前記評価用パラメータを用いて特定された前記線状の領域である評価用線状領域から前記1次元データを取得させ、
前記識別ステップにて、前記1次元データ取得ステップにて前記評価用線状領域から取得された前記1次元データに基づいて前記評価用の画像データにおける前記所定の対象を識別させ、
前記評価用線状領域から取得された前記1次元データに基づく前記識別ステップでの識別精度を算出し、前記識別精度に基づいて前記評価値を算出し、前記識別精度及び前記評価値の算出を、前記複数のパラメータの各々について行うことを特徴とする識別方法。 - コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定ステップ、及び、
前記特定ステップで特定された螺旋状の曲線の領域から、画素値に基づく特徴量を抽出する抽出ステップ、
を実行させるためのプログラム。 - コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップ、
前記特定ステップで特定された線状の領域の画素値を所定の色空間における第1成分、第2成分及び第3成分それぞれの1次元データとして取得し、前記第1成分と前記第2成分それぞれの前記1次元データの分散、前記第1成分と前記第2成分と前記第3成分それぞれの前記1次元データの回帰直線の傾き及び寄与率、前記1次元データ同士の差の絶対値の分散、前記1次元データ同士の比のうち前記第1成分/前記第2成分及び前記第1成分/前記第3成分の回帰直線の傾き及び寄与率、前記1次元データの最大値と最小値の差、の合計16の値のうちの少なくとも1つを特徴量として抽出する抽出ステップ、
を実行させるためのプログラム。 - コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、曲線を規定するパラメータがランダムに設定された螺旋状の曲線の領域を特定する特定ステップ、
前記特定ステップで特定された螺旋状の曲線の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップ、及び、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップ、
を実行させるためのプログラム。 - コンピュータに、
所定の対象を撮像した撮像画像を取得する取得ステップ、
前記取得ステップで取得された撮像画像における前記所定の対象を含む領域から、互いに異なる複数の方向に延びる線状の領域を特定する特定ステップ、
前記特定ステップで特定された線状の領域から、画素値に基づく1次元データを取得する1次元データ取得ステップ、
前記1次元データ取得ステップで取得された1次元データに基づいて前記所定の対象を識別する識別ステップ、
前記線状の領域を特定するパラメータの適正度を評価した値である評価値を算出する評価ステップ、
を実行させ、
前記特定ステップは、前記線状の領域を特定する複数のパラメータの中から、前記評価手段で算出された評価値が最も高い最高評価パラメータを選択し、前記選択した最高評価パラメータを用いて前記線状の領域を特定し、
前記評価ステップは、
前記特定ステップにて互いに異なる複数の前記パラメータから評価用パラメータを選択させるとともに、前記選択させた評価用パラメータを用いて評価用の画像データにおける所定の対象を含む領域から前記線状の領域を特定させ、
前記1次元データ取得ステップにて、前記特定ステップにて前記評価用パラメータを用いて特定された前記線状の領域である評価用線状領域から前記1次元データを取得させ、
前記識別ステップにて、前記1次元データ取得ステップにて前記評価用線状領域から取得された前記1次元データに基づいて前記評価用の画像データにおける前記所定の対象を識別させ、
前記評価用線状領域から取得された前記1次元データに基づく前記識別ステップでの識別精度を算出し、前記識別精度に基づいて前記評価値を算出し、前記識別精度及び前記評価値の算出を、前記複数のパラメータの各々について行うためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/620,672 US20220245919A1 (en) | 2019-06-19 | 2020-03-25 | Feature quantity extracting device, feature quantity extracting method, identification device, identification method, and program |
CN202080044494.7A CN114008668A (zh) | 2019-06-19 | 2020-03-25 | 特征量提取装置、特征量提取方法、识别装置、识别方法及程序 |
DE112020002954.9T DE112020002954T5 (de) | 2019-06-19 | 2020-03-25 | Merkmalsgrößen-Extraktionsvorrichtung, Merkmalsgrößen-Extraktionsverfahren, Identifikationsvorrichtung, Identifikationsverfahren und Programm |
PCT/JP2020/013225 WO2020255517A1 (ja) | 2019-06-19 | 2020-03-25 | 特徴量抽出装置、特徴量抽出方法、識別装置、識別方法及びプログラム |
JP2022133096A JP7496561B2 (ja) | 2019-06-19 | 2022-08-24 | 特徴量抽出装置、特徴量抽出方法及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019113990 | 2019-06-19 | ||
JP2019113990 | 2019-06-19 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022133096A Division JP7496561B2 (ja) | 2019-06-19 | 2022-08-24 | 特徴量抽出装置、特徴量抽出方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021002320A JP2021002320A (ja) | 2021-01-07 |
JP7138869B2 true JP7138869B2 (ja) | 2022-09-20 |
Family
ID=73995291
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020043778A Active JP7138869B2 (ja) | 2019-06-19 | 2020-03-13 | 特徴量抽出装置、特徴量抽出方法、識別装置、識別方法及びプログラム |
JP2022133096A Active JP7496561B2 (ja) | 2019-06-19 | 2022-08-24 | 特徴量抽出装置、特徴量抽出方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022133096A Active JP7496561B2 (ja) | 2019-06-19 | 2022-08-24 | 特徴量抽出装置、特徴量抽出方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220245919A1 (ja) |
JP (2) | JP7138869B2 (ja) |
CN (1) | CN114008668A (ja) |
DE (1) | DE112020002954T5 (ja) |
WO (1) | WO2020255517A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019117487A (ja) * | 2017-12-27 | 2019-07-18 | ソニー株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7478069B2 (ja) * | 2020-08-31 | 2024-05-02 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
KR20220033713A (ko) * | 2020-09-10 | 2022-03-17 | 에스케이하이닉스 주식회사 | 데이터 처리 시스템 및 그 동작 방법 |
US11532147B2 (en) * | 2020-09-25 | 2022-12-20 | Microsoft Technology Licensing, Llc | Diagnostic tool for deep learning similarity models |
KR102321428B1 (ko) * | 2021-02-16 | 2021-11-05 | 메디컬아이피 주식회사 | 병변 파악 방법 및 그 장치 |
JP7190534B1 (ja) * | 2021-06-14 | 2022-12-15 | アサヒ飲料株式会社 | 微生物の検出方法 |
WO2023105547A1 (ja) | 2021-12-06 | 2023-06-15 | 日本電気株式会社 | 分類装置、分類方法、及びプログラム |
CN114842314B (zh) * | 2022-04-27 | 2024-06-21 | 王之纯 | 基于神经网络的舌象的识别方法、装置和计算机设备 |
WO2024048509A1 (ja) * | 2022-08-30 | 2024-03-07 | 株式会社Preferred Networks | 病態評価装置 |
CN115633939B (zh) * | 2022-10-13 | 2023-06-13 | 北京鹰之眼智能健康科技有限公司 | 一种基于红外图像获取代谢状态复合区域的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123045A (ja) | 2009-11-12 | 2011-06-23 | Nippon Medical School | 画像表示装置および画像表示プログラム並びに画像診断装置 |
JP2016115248A (ja) | 2014-12-17 | 2016-06-23 | 株式会社デンソー | 演算処理装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073769A1 (ja) * | 2010-11-29 | 2012-06-07 | 株式会社 日立メディコ | 画像処理装置及び画像処理方法 |
US9589374B1 (en) * | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
JP2019113990A (ja) | 2017-12-22 | 2019-07-11 | カシオ計算機株式会社 | 印刷装置、印刷方法、及び、プログラム |
JP7110043B2 (ja) | 2018-09-14 | 2022-08-01 | 株式会社クボタ | 脱穀装置 |
-
2020
- 2020-03-13 JP JP2020043778A patent/JP7138869B2/ja active Active
- 2020-03-25 US US17/620,672 patent/US20220245919A1/en active Pending
- 2020-03-25 CN CN202080044494.7A patent/CN114008668A/zh active Pending
- 2020-03-25 DE DE112020002954.9T patent/DE112020002954T5/de active Pending
- 2020-03-25 WO PCT/JP2020/013225 patent/WO2020255517A1/ja active Application Filing
-
2022
- 2022-08-24 JP JP2022133096A patent/JP7496561B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123045A (ja) | 2009-11-12 | 2011-06-23 | Nippon Medical School | 画像表示装置および画像表示プログラム並びに画像診断装置 |
JP2016115248A (ja) | 2014-12-17 | 2016-06-23 | 株式会社デンソー | 演算処理装置 |
Non-Patent Citations (1)
Title |
---|
LU, Tzu-Chuen et al.,Color image retrieval technique based on color features and image bitmap,Information Processing and Management [online],Elsevier,Volume 43,pp. 461-472,[retrieved on 2022.01.18], Retrieved from the Internet <URL:http://msn.iecs.fcu.edu.tw/~ccc/profile/publish/ij_paper2/IJ-427.pdf> |
Also Published As
Publication number | Publication date |
---|---|
JP2021002320A (ja) | 2021-01-07 |
CN114008668A (zh) | 2022-02-01 |
JP2022174095A (ja) | 2022-11-22 |
WO2020255517A1 (ja) | 2020-12-24 |
US20220245919A1 (en) | 2022-08-04 |
DE112020002954T5 (de) | 2022-03-31 |
JP7496561B2 (ja) | 2024-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7138869B2 (ja) | 特徴量抽出装置、特徴量抽出方法、識別装置、識別方法及びプログラム | |
Patravali et al. | 2D-3D fully convolutional neural networks for cardiac MR segmentation | |
US20200311871A1 (en) | Image reconstruction method and device | |
Belharbi et al. | Spotting L3 slice in CT scans using deep convolutional network and transfer learning | |
US20200020097A1 (en) | Systems, methods and media for automatically generating a bone age assessment from a radiograph | |
US11017210B2 (en) | Image processing apparatus and method | |
Pogorelov et al. | Bleeding detection in wireless capsule endoscopy videos—Color versus texture features | |
WO2016185617A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
Abualigah et al. | Improved reptile search algorithm by salp swarm algorithm for medical image segmentation | |
Deeba et al. | Performance assessment of a bleeding detection algorithm for endoscopic video based on classifier fusion method and exhaustive feature selection | |
Hu et al. | Classification of melanoma based on feature similarity measurement for codebook learning in the bag-of-features model | |
Casanova et al. | Texture analysis using fractal descriptors estimated by the mutual interference of color channels | |
CN111415728A (zh) | 基于cnn和gan的ct图像数据自动分类方法及设备 | |
JP2022000777A (ja) | 分類装置、分類方法、プログラム、ならびに、情報記録媒体 | |
Gonzalo-Martín et al. | Improving deep learning sorghum head detection through test time augmentation | |
Bagheri et al. | Deep neural network based polyp segmentation in colonoscopy images using a combination of color spaces | |
Raut et al. | Gastrointestinal tract disease segmentation and classification in wireless capsule endoscopy using intelligent deep learning model | |
CN116958962A (zh) | 一种基于改进YOLOv8s的疏果前石榴果实检测方法 | |
Pavoni et al. | Challenges in the deep learning-based semantic segmentation of benthic communities from Ortho-images | |
Konukoglu et al. | Neighbourhood approximation forests | |
Di Ruberto et al. | A feature learning framework for histology images classification | |
Pholberdee et al. | Study of chronic wound image segmentation: Impact of tissue type and color data augmentation | |
Nanni et al. | A standardized approach for skin detection: Analysis of the literature and case studies | |
Gobpradit et al. | Angiodysplasia segmentation on capsule endoscopy images using AlbuNet with squeeze-and-excitation blocks | |
JP6833135B2 (ja) | 電波画像識別装置、電波画像学習装置、及び、電波画像識別方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |