JP2020014712A - 医用画像処理装置及び医用画像処理方法 - Google Patents

医用画像処理装置及び医用画像処理方法 Download PDF

Info

Publication number
JP2020014712A
JP2020014712A JP2018140182A JP2018140182A JP2020014712A JP 2020014712 A JP2020014712 A JP 2020014712A JP 2018140182 A JP2018140182 A JP 2018140182A JP 2018140182 A JP2018140182 A JP 2018140182A JP 2020014712 A JP2020014712 A JP 2020014712A
Authority
JP
Japan
Prior art keywords
medical image
image processing
unit
processing apparatus
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018140182A
Other languages
English (en)
Other versions
JP6983124B2 (ja
Inventor
司 舟根
Tsukasa Funane
司 舟根
木口 雅史
Masafumi Kiguchi
雅史 木口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018140182A priority Critical patent/JP6983124B2/ja
Priority to US16/505,746 priority patent/US11593518B2/en
Publication of JP2020014712A publication Critical patent/JP2020014712A/ja
Application granted granted Critical
Publication of JP6983124B2 publication Critical patent/JP6983124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Bioethics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Security & Cryptography (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

【課題】医用画像から個人特定もしくは識別につながり得る情報を削除しながらも、診断に支障をきたさないようにすることが可能な医用画像処理装置及び医用画像処理方法を提供する。【解決手段】被検体の医用画像を取得する画像取得部と、前記医用画像に所定の画像処理を施して第二医用画像を生成する画像処理部を備える医用画像処理装置であって、前記画像処理部は、前記医用画像から前記被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する表層領域抽出部と、前記表層領域に基づいて身体方向を特定する身体方向特定部と、前記医用画像の前記表層領域を変形する表層領域変形部と、前記表層領域が変形された医用画像に前記身体方向を示すオブジェクトを付与して前記第二医用画像を生成するオブジェクト付与部を有することを特徴とする。【選択図】図2

Description

本発明は医用画像処理装置に係り、特に個人特定もしくは識別につながり得る情報を削除しながら診断に支障をきたさないように画像処理する技術に関する。
MRI(Magnetic Resonance Imaging)装置やX線CT(Computed Tomography)装置により取得される被検体の医用画像は、被検体個人の疾患の診断等に用いられるに留まらず、疾患の基礎研究にも利用される。医用画像の表層領域には個人特定もしくは識別につながり得る情報である顔や容貌等が含まれ、氏名等を含まなくても医用画像単体(画素データ)が個人特定もしくは識別につながり得る情報を含むことになる。個人情報もしくはプライバシー保護の観点から、医用画像を基礎研究等に用いる場合には、個人特定もしくは識別につながり得る情報を削除して匿名化する必要がある。
特許文献1には、三次元画像データを対象領域と背景領域に分離し、背景領域にランダム化処理を適用して三次元画像データを部分的にランダム化することにより、匿名化された画像データに変換する画像処理が開示されている。
特表2017−529110号公報
しかしながら特許文献1の画像処理により得られた画像データでは、個人特定もしくは識別につながり得る情報を含む背景領域がランダム化されて医用画像から個人特定もしくは識別につながり得る情報が削除されるものの、画素データ内の身体方向に係る情報も削除されるため診断に支障をきたす場合がある。
そこで本発明は、医用画像から個人特定もしくは識別につながり得る情報を削除しながらも、診断に支障をきたさないようにすることが可能な医用画像処理装置及び医用画像処理方法を提供することを目的とする。
上記目的を達成するために本発明は、被検体の医用画像を取得する画像取得部と、前記医用画像に所定の画像処理を施して第二医用画像を生成する画像処理部を備える医用画像処理装置であって、前記画像処理部は、前記医用画像から前記被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する表層領域抽出部と、前記表層領域に基づいて身体方向を特定する身体方向特定部と、前記医用画像の前記表層領域を変形する表層領域変形部と、前記表層領域が変形された医用画像に前記身体方向を示すオブジェクトを付与して前記第二医用画像を生成するオブジェクト付与部を有することを特徴とする。
また本発明は、被検体の医用画像を取得する取得ステップと、前記医用画像に所定の画像処理を施して第二医用画像を生成する生成ステップを備える医用画像処理方法であって、前記生成ステップは、前記医用画像から前記被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出し、前記表層領域に基づいて身体方向を特定し、前記医用画像の前記表層領域を変形し、前記表層領域が変形された医用画像に前記身体方向を示すオブジェクトを付与して前記第二医用画像を生成することを特徴とする。
本発明によれば、医用画像から個人特定もしくは識別につながり得る情報を削除しながらも、診断に支障をきたさないようにすることが可能な医用画像処理装置及び医用画像処理方法を提供することができる。
医用画像処理装置1の全体構成図である。 実施例1の機能ブロック図である。 実施例1の画像処理の流れの一例を示す図である。 実施例1の画像処理を補足説明する図である。 実施例1の表層領域の抽出処理の流れの一例を示す図である。 実施例1の表層領域の抽出処理の流れの他の例を示す図である。 実施例2の画像処理の一例を示す図である。 実施例2の身体方向の特定処理の流れの一例を示す図である。 実施例3の画像処理の一例を示す図である。 実施例4の表層領域の変形処理であるぼかし処理の流れの一例を示す図である。 実施例4のぼかし処理の一例を示す図である。 実施例5の表層領域の変形処理の流れの一例を示す図である。
以下、添付図面に従って本発明に係る医用画像処理装置及び医用画像処理方法の好ましい実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。
図1は医用画像処理装置1のハードウェア構成を示す図である。医用画像処理装置1は、CPU(Central Processing Unit)2、主メモリ3、記憶装置4、表示メモリ5、表示装置6、コントローラ7、入力装置8、ネットワークアダプタ10がシステムバス11によって信号送受可能に接続されて構成される。医用画像処理装置1は、ネットワーク12を介して医用画像撮影装置13や医用画像データベース14と信号送受可能に接続される。ここで、「信号送受可能に」とは、電気的、光学的に有線、無線を問わずに、相互にあるいは一方から他方へ信号送受可能な状態を示す。
CPU2は、各構成要素の動作を制御する装置である。CPU2は、記憶装置4に格納されるプログラムやプログラム実行に必要なデータを主メモリ3にロードして実行する。記憶装置4は、CPU2が実行するプログラムやプログラム実行に必要なデータを格納する装置であり、具体的にはハードディスク等である。各種データはLAN(Local Area Network)等のネットワーク12を介して送受信される。主メモリ3は、CPU2が実行するプログラムや演算処理の途中経過を記憶するものである。
表示メモリ5は、液晶ディスプレイ等の表示装置6に表示するための表示データを一時格納するものである。入力装置8は、操作者が医用画像処理装置1に対して操作指示を行う操作デバイスであり、具体的にはキーボードやマウス等である。マウスはトラックパッドやトラックボールなどの他のポインティングデバイスであっても良い。コントローラ7は、キーボードやマウスの状態を検出して、検出した情報等をCPU2へ出力するものである。また表示装置6がタッチパネルである場合には、タッチパネルが入力装置8としても機能する。ネットワークアダプタ10は、医用画像処理装置1をLAN、電話回線、インターネット等のネットワーク12に接続するためのものである。
医用画像撮影装置13は、被検体の断層画像等の医用画像を取得する装置であり、例えばMRI装置やX線CT装置、レントゲン装置、超音波診断装置、超音波CT装置、PET(Positron Emission Tomography)装置、光CT装置である。医用画像データベース14は、医用画像撮影装置13によって取得された医用画像を記憶するデータベースシステムである。端末15は医用画像処理装置1へのアクセスに用いられ、医用画像処理装置1と同様のハードウェア構成を有する。
図2を用いて本実施例の要部について説明する。なおこれらの要部は、専用のハードウェアで構成されても良いし、CPU2上で動作するソフトウェアで構成されても良い。以降の説明では本実施例の要部がソフトウェアで構成された場合について説明する。本実施例は、画像取得部21と条件取得部23と画像処理部24を備える。以下、各部について説明する。
画像取得部21は、画像処理の対象となる医用画像20を取得する。医用画像20は記憶装置4に記憶される画像であっても良いし、ネットワークアダプタ10を介して医用画像撮影装置13や医用画像データベース14から取得される画像であっても良い。
条件取得部23は、画像処理に用いられるオプション情報22を取得する。オプション情報22とは、医用画像20から削除される部位に係る情報であり、例えば医用画像20が頭部の画像である場合、個人特定もしくは識別につながり得る目、鼻、口、耳といった部位に係る情報である。より具体的には、目、鼻、口、耳の位置や大きさ、形状、顔の縦横比、耳の縦横比、両目と鼻の突出部とを結ぶ三角形における3つのうち2つの内角等である。条件取得部23は、操作者が入力装置8を用いて医用画像20上で指定する目、鼻、口、耳に係る情報を取得しても良い。
画像処理部24は、医用画像20に対して所定の画像処理を施して第二医用画像29を生成する。本実施例の画像処理部24は、表層領域抽出部25、身体方向特定部26、表層領域変形部27、オブジェクト付与部28を有する。各部について以降で説明する。
表層領域抽出部25は、医用画像20から被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する。例えば、医用画像20が頭部画像である場合には、目、鼻、口、耳を含む表層領域を抽出する。表層領域は、条件取得部23が取得した情報、例えば操作者が入力装置8を用いて医用画像20上で指定した目、鼻、口、耳の位置に基づいて、抽出されても良い。
身体方向特定部26は、表層領域抽出部25によって抽出された表層領域に基づいて、身体方向を特定する。例えば、医用画像20が頭部画像である場合には、抽出された表層領域には目、鼻、口、耳が含まれるので、目、鼻、口、耳の位置に基づいていずれの方向が身体の前側すなわち腹側であるかと、上側すなわち頭部側であるかを特定する。例えば、目、鼻、口を含む領域が存在する側は前側に、口、鼻、目の順に並ぶ方向が上側に向かう方向として特定される。前側と上側が特定されることにより、身体の左右方向も特定される。
表層領域変形部27は、医用画像20の表層領域を変形する。具体的には、医用画像20から表層領域が削除されたり、医用画像20の表層領域にノイズが付加されたり、医用画像20の表層領域にぼかし処理が施されたりする。なお、医用画像20の表層領域の変形は、個人の特定もしくは識別が困難になる程度になされる。これにより、医用画像20から個人特定もしくは識別につながり得る情報が削除されることになる。
オブジェクト付与部28は、表層領域が変形された医用画像に対して、身体方向を示すオブジェクトを付与して第二医用画像29を生成する。身体方向を示すオブジェクトとしては、目、鼻、口を模擬したオブジェクトである目オブジェクト、鼻オブジェクト、口オブジェクトであったり、身体の方向を示す矢印や文字であったりする。目オブジェクト、鼻オブジェクト、口オブジェクトは、元々の目、鼻、口とは異なる大きさで作成されたり、元々の目、鼻、口の位置からずらした位置に付与されたりする。ただし、元々の位置からのずれは、操作者に身体方向を誤解させない程度に留められる。すなわち、目オブジェクト、鼻オブジェクト、口オブジェクトは身体の前側に配置され、目オブジェクトは鼻オブジェクトよりも上側(額側)に、口オブジェクトは鼻オブジェクトよりも下側(顎側)に配置される。
図3を用いて、以上の各部を備える医用画像処理装置1が実行する処理の流れの一例を説明する。以下、各ステップについて説明する。
(S301)
画像取得部21が医用画像20を取得する。医用画像20は記憶装置4から取得されても良いし、医用画像撮影装置13や医用画像データベース14から取得されても良い。本実施例では、図4(a)に示す頭部の三次元ボリューム画像40が取得された場合について説明する。なお、図4(a)は頭部の三次元ボリューム画像40を側面方向から見た図である。
また本ステップにおいて、条件取得部23がオプション情報22を取得しても良い。入力装置8を介して操作者が部位を指定した場合には、指定された部位、例えば、目、鼻、口、耳といった部位に係る情報がオプション情報22として取得される。
(S302)
表層領域抽出部25が医用画像20から被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する。表層領域を抽出する処理の流れの一例を図5に示す。以下、図5の各ステップについて図4を参照しながら説明する。
(S501)
表層領域抽出部25が頭部の三次元ボリューム画像40から、パターンマッチング等により耳を抽出し、両耳の位置を特定する。操作者が耳の位置を指定した場合には、指定された耳の位置が以降の処理で用いられても良い。
(S502)
表層領域抽出部25がS501で特定された両耳の中心点41を結んだ線を設定する。
(S503)
表層領域抽出部25が、S502で設定された線を含む平面42を設定する。表層領域抽出部25はさらに、中心点41を結んだ線を回転軸として平面42を回転させ、鼻突起部43から平面42までの距離が最大となったところで平面42の回転を停止させる。
(S504)
表層領域抽出部25が、回転後の平面42を鼻突起部43の側に平行移動させ、目、鼻、口のいずれかに接したところで停止させる。
(S505)
表層領域抽出部25が、平行移動後の平面44により頭部の三次元ボリューム画像40を切断し、平面44より鼻突起部43の側の領域を表層領域として抽出する。図4(a)では表層領域が斜線領域で示されている。なお本実施例では、平面44が顔部を切断するので顔部切断面44と呼び、顔部切断面44と頭部の三次元ボリューム画像40との境界線45を顔部境界線45と呼ぶ。また図4(b)は、抽出された表層領域の例である顔領域が顔部切断面44上に示された例である。なお顔部切断面44は、操作者が入力装置8を用いることによって医用画像20上で指定されても良い。
表層領域を抽出する処理の流れの他の例を図6に示し、図6の各ステップについて以降で説明する。
(S601)
表層領域抽出部25が頭部の三次元ボリューム画像40に対して閾値処理等を実行し、空気と皮膚との境界を抽出する。
(S602)
表層領域抽出部25が、S601で抽出された空気と皮膚との境界に対して複数の方向から投影処理を実行し、二次元プロジェクション画像、つまり被検体表面を二次元で見た画像を複数枚取得する。
(S603)
表層領域抽出部25が、S602で取得された複数の二次元プロジェクション画像を、顔画像データベースと照合する。顔画像データベースとは、形状や大きさの異なる複数の二次元プロジェクション画像と表層領域とが対応付けられたデータベースである。本ステップでの照合では、S602で取得された二次元プロジェクション画像と顔画像データベースとの相関係数が算出され、最も相関係数の高い二次元プロジェクション画像に相当する表層領域が顔領域として取得される。なお、顔画像データベースとの相関係数を算出する代わりに、ヒト顔の正面画像を学習済みのニューラルネットワークやサポートベクターマシン等の分類器を用いて、正面顔方向である確率が最大となる画像に相当する表層領域を顔領域としてもよい。
図3の説明に戻る。
(S303)
身体方向特定部26が表層領域抽出部25によって抽出された表層領域に基づいて、身体方向を特定する。本実施例の表層領域には、目、鼻、口が含まれるので、目、鼻、口の位置に基づいて身体方向が特定される。例えば図4(a)の左側が身体の前側、図4(a)の上側が身体の上側、図4(a)の紙面手前側が身体の左側となる。
(S304)
表層領域変形部27が医用画像20の表層領域を変形する。本実施例では表層領域である顔領域が削除され、図4(b)の画像が図4(c)の画像になる。表層領域を削除するには、例えば、表層領域のボクセル値を0に置換したり、表層領域のボクセル値の平均値で置換したり、ランダムな値で置換したりする。顔領域が削除されることにより、個人の特定もしくは識別が困難になる。
(S305)
オブジェクト付与部28が、表層領域が変形された医用画像に対して、身体方向を示すオブジェクトを付与して第二医用画像29を生成する。生成された第二医用画像29は表示装置6に表示されたり、記憶装置4に記憶されたりする。第二医用画像29が生成されると、個人特定もしくは識別につながり得る情報を含む医用画像20は削除される。
本実施例では、図4(c)の画像に対して、目オブジェクト47、鼻オブジェクト48、口オブジェクト49が付与される。目オブジェクト47、鼻オブジェクト48、口オブジェクト49は、元々の目、鼻、口の大きさや形状のデータにランダムなノイズが付与されて作成されるので、元々の目、鼻、口とは異なる形態となり、個人の特定もしくは識別は困難なままとなる。なおランダムなノイズの発生に用いられる乱数のシードと乱数発生の方法は、複数種類の選択肢から毎回変更され、使用された乱数のシードはノイズ付与後に削除され、乱数そのものが再現されないようにする。目オブジェクト47、鼻オブジェクト48、口オブジェクト49は、目、鼻、口の位置関係を維持しながらも元々の位置からずらして配置されるので、操作者は身体方向を把握できるものの、個人を特定もしくは識別することはできない。
また顔部境界線45に対して、直径3cm程度のメディアンフィルタを用いたぼかし処理をすることでぼかし境界線46を生成して、ぼかし境界線46を第二医用画像29に追加することにより、個人の特定もしくは識別をさらに困難にしても良い。
以上説明した処理の流れにより、医用画像から個人特定もしくは識別につながり得る情報を削除しながらも身体方向を示すオブジェクトが付与されるので、個人の特定もしくは識別を困難にしつつ診断に支障をきたさないようにすることが可能となる。なお、医用画像20は削除され、医用画像処理装置1に保管されないので、端末15からは個人の特定もしくは識別が困難な第二医用画像29にしかアクセスできない。
実施例1では、頭部の三次元ボリューム画像40が取得された場合について説明した。画像取得部21が取得する医用画像は頭部の三次元ボリューム画像40に限定されず、他の医用画像であっても良い。本実施例では、頭部のアキシャル画像(体軸断面で撮影した画像)が取得された場合について説明する。なお、本実施例の全体構成は実施例1と同じであるので、説明を省略する。
図7を参照しながら図3の処理の流れに沿って本実施例について説明する。なお実施例1と同じ処理については説明を省略する。
(S301)
画像取得部21が医用画像20を取得する。本実施例では医用画像20として、図7(a)に示す頭部のアキシャル画像70が取得される。
(S302)
表層領域抽出部25が医用画像20から被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する。表層領域を抽出するために、表層領域抽出部25は頭部のアキシャル画像70の突出部71を特定し、特定された突出部71からパターンマッチング等により鼻や耳を抽出する。表層領域抽出部25はさらに、鼻や耳を含む領域を表層領域として抽出する。
なお、頭部のアキシャル画像70上で操作者が突出部71や鼻、耳を指定しても良い。
(S303)
身体方向特定部26が表層領域抽出部25によって抽出された表層領域に基づいて、身体方向を特定する。本実施例の表層領域には、目、鼻、耳が含まれるので、目、鼻、耳の位置に基づいて身体方向が特定される。例えば頭部のアキシャル画像70の目と鼻の位置に基づいて、方向72が身体の前方向であることが特定される。方向72に直交する方向である方向73については、頭部のアキシャル画像70に前後するアキシャル画像に基づいて、左右方向のいずれであるかが特定される。例えば、図7(b)の紙面手前方向で取得される、頭部のアキシャル画像70に前後するアキシャル画像が前記アキシャル画像70よりも額側である場合には、方向73は右側となる。
また頭部のアキシャル画像70が楕円で近似できることを利用して、身体方向を特定しても良い。頭部のアキシャル画像70を楕円で近似することにより頭部の方向を特定する処理の流れの例を図8に示し、図8の各ステップについて以降で説明する。
(S801)
身体方向特定部26が頭部のアキシャル画像70に対し二値化処理をして二値化画像を取得し、二値化画像から頭部の境界、つまり空気と皮膚との境界を特定する。
(S802)
身体方向特定部26が任意の大きさの楕円を生成し、生成された楕円にアフィン変換、すなわち拡大縮小・回転処理をしながら、S801で特定された頭部の境界との照合を繰り返す。具体的には、アフィン変換後の複数の楕円と頭部の境界との相関係数、例えばピアソンの相関係数やスピアマンの相関係数を計算し、相関係数が最大であるアフィン変換後の楕円が選出される。
なお、照合に先立ち、S801で特定された頭部の境界に対して、例えば、収縮・拡大処理を施す過程において前記楕円からはみ出した部分を削除することにより、突出部71の一部を削除しておいても良い。突出部71の一部が削除されることにより、本ステップでの照合を高精度で行える。
(S803)
身体方向特定部26が、S802で選出された楕円の長軸を特定する。
(S804)
身体方向特定部26が、S803で特定された楕円の長軸とS801で取得された二値化画像中の突出部71とに基づいて、身体方向を特定する。例えば、長軸の方向が身体の前後方向とされ、鼻に相当する突出部71がある側が前方向、耳に相当する突出部71がある方向が左右方向とされる。
図3の説明に戻る。
(S304)
表層領域変形部27が医用画像20の表層領域を変形する。本実施例では突出部71が表層領域であるとして削除される。
(S305)
オブジェクト付与部28が、表層領域が変形された医用画像に対して、身体方向を示すオブジェクトを付与して第二医用画像29を生成する。図7(b)に本実施例の第二医用画像29の一例を示す。図7(a)との対比でわかるように図7(b)では、突出部71が削除され、突出部71が削除された領域74に身体方向を示すオブジェクトとして目オブジェクト47と鼻オブジェクト48が付与される。
以上説明した処理の流れにより、医用画像から個人特定もしくは識別につながり得る情報を削除しながらも身体方向を示すオブジェクトが付与されるので、個人の特定もしくは識別を困難にしつつ診断に支障をきたさないようにすることが可能となる。また本実施例で削除される領域は突出部71に留まっており、診断の精度への影響が最小限に抑えられる。なお目や鼻や耳の抽出に、ディープニューラルネットワーク等の機械学習アルゴリズムによる学習が予めなされた判別器を用いても良い。
実施例1では頭部の三次元ボリューム画像40が、実施例2では頭部のアキシャル画像70が取得された場合について説明した。本実施例では、サジタル画像(矢状断面で撮影した画像)が取得された場合について説明する。なお、本実施例の全体構成は実施例1と同じであるので、説明を省略する。
図9を参照しながら図3の処理の流れに沿って本実施例について説明する。なお実施例1と同じ処理については説明を省略する。
(S301)
画像取得部21が医用画像20を取得する。本実施例では医用画像20として、図9(a)に示す頭部のサジタル画像90が取得される。
(S302)
表層領域抽出部25が医用画像20から被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する。表層領域を抽出するために、表層領域抽出部25は頭部のサジタル画像90からパターンマッチング等により目、鼻、口を抽出する。表層領域抽出部25はさらに、目や鼻、口を含む領域を表層領域として抽出する。目、鼻、口は、頭部のサジタル画像90上で操作者によって指定されても良い。
(S303)
身体方向特定部26が表層領域抽出部25によって抽出された表層領域に基づいて、身体方向を特定する。本実施例の表層領域には、目、鼻、口が含まれるので、目、鼻、口の位置に基づいて身体方向が特定される。例えば頭部のサジタル画像90の目、鼻、口の位置に基づいて、図9(a)の左側が身体の前方向であることが特定される。また目、鼻、口の位置の並びに基づいて、図9(a)の上側が身体の上方向であることが特定される。
(S304)
表層領域変形部27が医用画像20の表層領域を変形する。本実施例では目、鼻、口が含まれる領域が表層領域であるとして削除される。
(S305)
オブジェクト付与部28が、表層領域が変形された医用画像に対して、身体方向を示すオブジェクトを付与して第二医用画像29を生成する。図9(b)に本実施例の第二医用画像29の一例を示す。図9(a)との対比でわかるように図9(b)では、目、鼻、口が含まれる領域が削除され、削除された領域91に身体方向を示すオブジェクトとして目オブジェクト47と鼻オブジェクト48と口オブジェクト49が付与される。
以上説明した処理の流れにより、医用画像から個人特定もしくは識別につながり得る情報を削除しながらも身体方向を示すオブジェクトが付与されるので、個人の特定もしくは識別を困難にしつつ診断に支障をきたさないようにすることが可能となる。
実施例1では、図3のS304である表層領域の変形として、表層領域を削除することについて説明した。表層領域の変形は表層領域の削除に限定されず、表層領域に対してぼかし処理を施しても良い。本実施例では、表層領域に対してぼかし処理を施す場合について説明する。なお、本実施例の全体構成は実施例1と同じであるので、説明を省略する。
図10を用いて本実施例のぼかし処理について、図11を参照しながら説明する。なお本実施例のぼかし処理は、図3のS304である表層領域の変形として実行される。
(S1001)
条件取得部23がぼかし処理が施される部位の名称を部位情報として取得する。部位の名称は、操作者により入力装置8から指定されても良いし、画像取得部21により医用画像20の付帯情報から抽出されても良い。本実施例では、図11(a)に示す顔部切断面44上の顔領域110がぼかし処理の対象であるので、部位の名称として「頭部」が取得される。
(S1002)
表層領域変形部27が、S1001で取得された部位情報に基づいて、医用画像20に対してセグメンテーションを行う。部位が頭部の場合、医用画像20は皮膚等の軟組織、頭骨、脳脊髄液、灰白質、白質等の五層の組織に分けられる。また部位が上腕もしくは前腕部の場合、皮膚層、脂肪層、筋肉層、骨等の組織に分けられる。本実施例では、S1001で取得された部位情報が「頭部」であるので、医用画像20が前述の五層の組織に分けられる。
(S1003)
表層領域変形部27が、S1002で分けられた組織に応じてぼかしフィルタを選択する。部位が頭部の場合、個人の特定もしくは識別に関与する皮膚等の軟組織や頭骨の外側境界に対してぼかしフィルタが選択される。
(S1004)
表層領域変形部27がS1003で選択されたぼかしフィルタを用いてぼかし処理を実行する。ぼかしフィルタを適用するには、三次元ボリューム画像に対して所定の三次元画像の畳み込み処理がなされる。または三次元の移動平均フィルタやメディアンフィルタ、加重平均フィルタ、ガウシアンフィルタ等が用いられても良い。なお、ぼかし処理として、滑らかに画像を変形させる手法の一つであるモーフィング処理が実行されても良い。図11(b)は、皮膚の外側境界に対するぼかし処理後の顔領域111の例である。ぼかし処理により、顔領域110の輪郭等が不明瞭になり、個人の特定もしくは識別が困難になっている。
なお、ぼかし処理によって不明瞭になった目、鼻、口は、身体方向を示すオブジェクトとして機能するので、本実施例では図3のS305をスキップしても良いし、S305を実行して図11の不明瞭な顔領域111の上に目オブジェクト47等を付与しても良い。
以上説明した処理の流れにより、個人の特定もしくは識別を困難にしながらも身体方向が示されるので、個人の特定もしくは識別を困難にしつつ診断に支障をきたさないようにすることが可能となる。また本実施例によれば、表層領域は削除されずに、不明瞭にされるに過ぎないので、第二医用画像29の視認性を維持することができる。
実施例1では、個人特定もしくは識別につながり得る情報を削除するために表層領域を変形することについて説明した。疾患の種類によっては、表層領域の変形が好ましくない場合もある。本実施例では、疾患の種類に応じて、変形対象を選択することについて説明する。なお、本実施例の全体構成は実施例1と同じであるので、説明を省略する。
図12を用いて本実施例について説明する。なお本実施例の処理は、図3のS304において実行される。
(S1201)
条件取得部23が疾患の名称を疾患情報として取得する。疾患の名称は、操作者により入力装置8から入力されても良いし、画像取得部21により医用画像20の付帯情報から取得されても良いし、医用画像20に関連付けられる電子カルテからネットワーク12を介して取得されても良い。
(S1202)
表層領域変形部27が、S1201で取得された疾患情報に基づいて、変形対象を選択する。変形対象の選択には、疾患情報と変形対象とが対応付けられた対応表が用いられる。対応表には、例えば脳疾患に対して脳以外の部位が対応付けられ、目の疾患であれば目以外の部位が対応付けられて示される。対応表は使用目的に応じて作成され、例えば簡易スクリーニング用の対応表や精密検査用の対応表が予め作成されて、記憶装置4に保管される。表層領域変形部27は、使用目的に応じて記憶装置4から対応表を読み出し、疾患情報と対応表に基づいて変形対象を選択する。
(S1203)
表層領域変形部27が、S1202で選択された変形対象を変形する。変形対象の変形は、変形対象の削除でも良いし、変形対象に対するぼかし処理の実行でも良い。
以上説明した処理の流れにより、疾患に応じて変形対象が適切に選択されるので、診断に支障をきたすことなく個人の特定もしくは識別を困難にできる。
以上、本発明の複数の実施例について説明した。本発明は上記実施例に限定されるものではなく、発明の要旨を逸脱しない範囲で構成要素を変形しても良い。例えば、多くの実施例では頭部の医用画像を例として説明したが、頭部以外の医用画像を用いても良い。また、上記実施例に開示されている複数の構成要素を適宜組み合わせても良い。さらに、上記実施例に示される全構成要素からいくつかの構成要素を削除しても良い。
1:医用画像処理装置、2:CPU、3:主メモリ、4:記憶装置、5:表示メモリ、6:表示装置、7:コントローラ、8:入力装置、10:ネットワークアダプタ、11:システムバス、12:ネットワーク、13:医用画像撮影装置、14:医用画像データベース、15:端末、20:医用画像、21:画像取得部、22:オプション情報、23:条件取得部、24:画像処理部、25:表層領域抽出部、26:身体方向特定部、27:表層領域変形部、28:オブジェクト付与部、29:第二医用画像、40:頭部の三次元ボリューム画像、41:耳の中心点、42:平面、43:鼻突起部、44:顔部切断面、45:顔部境界線、46:ぼかし境界線、47:目オブジェクト、48:鼻オブジェクト、49:口オブジェクト、70:頭部のアキシャル画像、71:突出部、72:方向、73:方向、74:削除された領域、90:頭部のサジタル画像、91:削除された領域、110:顔領域、111:不明瞭な顔領域

Claims (8)

  1. 被検体の医用画像を取得する画像取得部と、
    前記医用画像に所定の画像処理を施して第二医用画像を生成する画像処理部を備える医用画像処理装置であって、
    前記画像処理部は、前記医用画像から前記被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出する表層領域抽出部と、
    前記表層領域に基づいて身体方向を特定する身体方向特定部と、
    前記医用画像の前記表層領域を変形する表層領域変形部と、
    前記表層領域が変形された医用画像に前記身体方向を示すオブジェクトを付与して前記第二医用画像を生成するオブジェクト付与部を有することを特徴とする医用画像処理装置。
  2. 請求項1に記載の医用画像処理装置であって、
    前記表層領域変形部は、前記表層領域を削除するか、ぼかし処理またはモーフィング処理により前記表層領域を変形するか、をすることを特徴とする医用画像処理装置。
  3. 請求項1に記載の医用画像処理装置であって、
    前記医用画像が頭部画像である場合に、前記表層領域は目、鼻、口、耳のいずれかを含むことを特徴とする医用画像処理装置。
  4. 請求項3に記載の医用画像処理装置であって、
    前記オブジェクト付与部は、前記表層領域に含まれる目、鼻、口、耳のいずれかを、目、鼻、口、耳を模擬したオブジェクトに置換することを特徴とする医用画像処理装置。
  5. 請求項3に記載の医用画像処理装置であって、
    操作者による前記個人特定もしくは識別につながり得る情報に係る目、鼻、口、耳の指定を受け付ける入力部と、
    前記医用画像で指定された目、鼻、口、耳の情報を取得する条件取得部をさらに備え、
    前記表層領域抽出部は、前記条件取得部が取得する情報に基づいて前記表層領域を抽出することを特徴とする医用画像処理装置。
  6. 請求項1に記載の医用画像処理装置であって、
    前記身体方向特定部は、前記医用画像が頭部のアキシャル画像である場合に、前記アキシャル画像の二値化画像とアフィン変換された楕円とを照合することにより前記身体方向を特定することを特徴とする医用画像処理装置。
  7. 請求項1に記載の医用画像処理装置であって、
    前記表層領域変形部は疾患に応じて変形対象を選択することを特徴とする医用画像処理装置。
  8. 被検体の医用画像を取得する取得ステップと、
    前記医用画像に所定の画像処理を施して第二医用画像を生成する生成ステップを備える医用画像処理方法であって、
    前記生成ステップは、前記医用画像から前記被検体の個人特定もしくは識別につながり得る情報を含む表層領域を抽出し、前記表層領域に基づいて身体方向を特定し、前記医用画像の前記表層領域を変形し、前記表層領域が変形された医用画像に前記身体方向を示すオブジェクトを付与して前記第二医用画像を生成することを特徴とする医用画像処理方法。
JP2018140182A 2018-07-26 2018-07-26 医用画像処理装置及び医用画像処理方法 Active JP6983124B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140182A JP6983124B2 (ja) 2018-07-26 2018-07-26 医用画像処理装置及び医用画像処理方法
US16/505,746 US11593518B2 (en) 2018-07-26 2019-07-09 Medical image processing apparatus and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140182A JP6983124B2 (ja) 2018-07-26 2018-07-26 医用画像処理装置及び医用画像処理方法

Publications (2)

Publication Number Publication Date
JP2020014712A true JP2020014712A (ja) 2020-01-30
JP6983124B2 JP6983124B2 (ja) 2021-12-17

Family

ID=69178103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140182A Active JP6983124B2 (ja) 2018-07-26 2018-07-26 医用画像処理装置及び医用画像処理方法

Country Status (2)

Country Link
US (1) US11593518B2 (ja)
JP (1) JP6983124B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511570A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線写真におけるインターバル変化を検出する方法
JP2006331261A (ja) * 2005-05-30 2006-12-07 Dainippon Printing Co Ltd 医療用画像管理システム
WO2007026598A1 (ja) * 2005-08-31 2007-03-08 Gifu University 医用画像処理装置及び画像処理方法
JP2007243256A (ja) * 2006-03-06 2007-09-20 Dainippon Printing Co Ltd 医療用画像暗号化装置
JP2008079897A (ja) * 2006-09-28 2008-04-10 Dainippon Printing Co Ltd 医用画像処理システム
US20080310742A1 (en) * 2007-06-15 2008-12-18 Physical Optics Corporation Apparatus and method employing pre-ATR-based real-time compression and video frame segmentation
JP2011019768A (ja) * 2009-07-16 2011-02-03 Kyushu Institute Of Technology 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013138800A (ja) * 2012-01-06 2013-07-18 Toshiba Corp 医用画像処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332238B2 (en) 2014-06-24 2019-06-25 Koninklijke Philips N.V. Visual anonymization of medical datasets against 3D volume rendering
US10861605B2 (en) * 2016-08-22 2020-12-08 Aic Innovations Group, Inc. Method and apparatus for determining health status
EP3438869A1 (en) * 2017-08-02 2019-02-06 Koninklijke Philips N.V. Anonymizing data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511570A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線写真におけるインターバル変化を検出する方法
JP2006331261A (ja) * 2005-05-30 2006-12-07 Dainippon Printing Co Ltd 医療用画像管理システム
WO2007026598A1 (ja) * 2005-08-31 2007-03-08 Gifu University 医用画像処理装置及び画像処理方法
JP2007243256A (ja) * 2006-03-06 2007-09-20 Dainippon Printing Co Ltd 医療用画像暗号化装置
JP2008079897A (ja) * 2006-09-28 2008-04-10 Dainippon Printing Co Ltd 医用画像処理システム
US20080310742A1 (en) * 2007-06-15 2008-12-18 Physical Optics Corporation Apparatus and method employing pre-ATR-based real-time compression and video frame segmentation
JP2011019768A (ja) * 2009-07-16 2011-02-03 Kyushu Institute Of Technology 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013138800A (ja) * 2012-01-06 2013-07-18 Toshiba Corp 医用画像処理装置

Also Published As

Publication number Publication date
US11593518B2 (en) 2023-02-28
US20200034564A1 (en) 2020-01-30
JP6983124B2 (ja) 2021-12-17

Similar Documents

Publication Publication Date Title
Powell et al. Atlas-based segmentation of temporal bone anatomy
JP5399225B2 (ja) 画像処理装置および方法並びにプログラム
EP3789965B1 (en) Method for controlling a display, computer program and mixed reality display device
US8494242B2 (en) Medical image management apparatus and method, and recording medium
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
CN106898044B (zh) 一种基于医学影像并利用vr技术的器官拆分和操作方法及系统
EP3424017B1 (en) Automatic detection of an artifact in patient image data
EP3273409A1 (en) Image processing apparatus and image processing method
JP6983573B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009515635A (ja) 三次元画像における所定の構造の描画方法
JP6643821B2 (ja) 画像処理装置
JP6383182B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
CN111462139A (zh) 医学图像显示方法、装置、计算机设备和可读存储介质
JP6995535B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10896501B2 (en) Rib developed image generation apparatus using a core line, method, and program
US20230252627A1 (en) Systems and methods for generating clinically relevant images that preserve physical attributes of humans while protecting personal identity
US20220392619A1 (en) Information processing apparatus, method, and program
CN111899273A (zh) 图像分割方法、计算机设备和存储介质
JP6983124B2 (ja) 医用画像処理装置及び医用画像処理方法
JP7083427B2 (ja) 修正指示領域表示装置、方法およびプログラム
US20220338819A1 (en) Optimal scan pattern for medical imaging device
JP7387280B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
US20170287174A1 (en) Methods and apparatuses for image processing and display
CN113344942A (zh) 人体按摩区域分割方法、装置、系统及计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150