JP6467813B2 - 画像処理装置、画像処理プログラム及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム及び画像処理方法 Download PDF

Info

Publication number
JP6467813B2
JP6467813B2 JP2014165564A JP2014165564A JP6467813B2 JP 6467813 B2 JP6467813 B2 JP 6467813B2 JP 2014165564 A JP2014165564 A JP 2014165564A JP 2014165564 A JP2014165564 A JP 2014165564A JP 6467813 B2 JP6467813 B2 JP 6467813B2
Authority
JP
Japan
Prior art keywords
analysis
axial direction
motion
image processing
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014165564A
Other languages
English (en)
Other versions
JP2016042264A (ja
Inventor
志織 大島
志織 大島
和博 中川
和博 中川
松居 恵理子
恵理子 松居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014165564A priority Critical patent/JP6467813B2/ja
Priority to PCT/JP2015/003913 priority patent/WO2016024389A1/en
Priority to US15/502,252 priority patent/US10360679B2/en
Priority to EP15756698.5A priority patent/EP3180771A1/en
Publication of JP2016042264A publication Critical patent/JP2016042264A/ja
Application granted granted Critical
Publication of JP6467813B2 publication Critical patent/JP6467813B2/ja
Priority to US16/433,998 priority patent/US10922815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Description

本技術は、分析対象物を経時的に撮像した動画像に対して画像解析を行う画像処理装置、画像処理プログラム及び画像処理方法に関する。
創薬や再生医療に向けて細胞の機能評価が課題となっており、種々の分析手法が検討されている。分析手法の一つに、分析対象の細胞を経時的に撮像した動画像を解析することによって細胞の情報を得る画像解析がある。
例えば、特許文献1には、蛍光染色と画像処理を用いて神経細胞の突起伸張を解析する方法が開示されている。また、特許文献2には、画像解析により、神経細胞による神経回路網の評価を行う方法が開示されている。
特開2005−095172号公報 特開2007−233238号公報
ここで、細胞の中には、画像において検出可能な動きを有するものがある。例えば、心筋細胞は収縮や弛緩を行い、神経細胞は軸索輸送や突起伸張等を行う。このような動きを画像解析によって検出することができれば、細胞の機能評価にとって有効である。
しかしながら、細胞の機能評価を行う上では、単に動きを抽出すればよいわけでない。
細胞の動きには、細胞自体の動き(伸縮等)もあれば、周囲の流体の流れ等よって動く場合もあるからである。また、細胞の動きであってもその方向が重要な場合がある。例えば心筋細胞であれば、心筋の伸縮方向に沿った動きが重要であり、機能評価のためにはその方向に沿った動きを抽出する必要がある。また、神経細胞であれば、細胞体の振動、軸索輸送あるいは突起伸張等の各種の動きがあり、それぞれ動きの方向や質が異なっている。
以上のような事情に鑑み、本技術の目的は、分析対象物の動きの評価が可能な画像処理装置、画像処理プログラム及び画像処理方法を提供することを目的とする。
上記目的を達成するため、本技術の一形態に係る画像処理装置は、動き解析部と、軸方向設定部と、情報抽出部とを具備する。
上記動き解析部は、分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出する。
上記軸方向設定部は、上記分析対象動画像において、軸方向を設定する。
上記情報抽出部は、上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する。
この構成によれば、動きベクトルから軸方向に対する動きの情報が抽出されるため、動きの量だけではなく動きの方向も含めた情報を提示することができ、ユーザは分析対象物の動きを、動きの方向も含めて評価することが可能となる。軸方向は、ユーザが任意で設定してもよく、画像処理装置が設定してもよい。
上記軸方向設定部は、上記動きベクトルに基づいて上記軸方向を設定してもよい。
この構成によれば、分析対象物の動きに応じて軸方向が設定され、軸方向に対する分析対象物の動きの情報が抽出される。軸方向設定部は例えば、最も大きい動きベクトルの方向と同一方向を軸方向に設定することができる。
上記軸方向設定部は、上記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて上記軸方向を設定してもよい。
この構成によれば、分析対象物に対する画像処理結果に応じて軸方向が設定され、軸方向に対する分析対象物の動きの情報が抽出される。軸方向設定部は例えば、分析対象動画像において分析対象物を検出し、その延伸方向を軸方向に設定することができる。
上記情報抽出部は、上記軸方向に対する上記動きベクトルの角度を抽出してもよい。
この構成によれば、ユーザが軸方向に対する分析対象物の動きの方向を評価することが可能となる。
上記情報抽出部は、上記動きベクトルを上記軸方向に投影し、上記軸方向に対する動き量を抽出してもよい。
この構成によれば、動きベクトルの動き量が、軸方向に対する動き量に変換され、ユーザが軸方向に対する動き量を評価することが可能となる。
上記情報抽出部は、上記軸方向から所定角度内の上記動きベクトルから動き量を抽出してもよい。
この構成によれば、軸方向から所定角度内の動きベクトルの動き量が抽出されるため、ユーザが軸方向及び軸方向に近い方向に対する動き量を評価することが可能となる。
上記画像処理装置は、上記分析対象動画像において分析範囲を指定する範囲指定部をさらに具備し、
上記動き解析部は、上記分析範囲の区画毎に動きベクトルを算出し、
上記情報抽出部は、上記区画毎に算出された動きベクトルに基づいて上記分析範囲についての動きベクトルを算出し、上記分析範囲について算出された動きベクトルと上記軸方向に基づいて、上記情報を抽出してもよい。
この構成によれば、分析範囲について動きベクトルが算出され、軸方向に他する動きの情報が抽出される。このため、ユーザは分析対象動画像において分析を所望する範囲を分析範囲に指定することにより、分析範囲についての情報を得ることができる。分析範囲の動きベクトルは、区画毎に算出された動きベクトルを加算した動きベクトル、あるいは区画毎に算出された動きベクトルのうち最大の動きベクトル等とすることができる。
上記範囲指定部は、上記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて上記分析範囲を設定してもよい。
この構成によれば範囲指定部によって、分析範囲が指定される。範囲指定部は、分析対象動画像に画像処理を施して、分析対象動画像に含まれる分析対象物を検出し、分析対象物が含まれる範囲を分析範囲に指定することができる。
上記範囲指定部は、上記分析範囲について算出された動きベクトルに基づいて上記分析範囲を移動させてもよい。
この構成によれば、分析範囲に含まれる分析対象物の動きに応じて分析範囲を分析対象物の動きに追随させることが可能となる。
上記画像処理装置は、上記分析対象動画像に上記分析範囲について算出された動きベクトルを重畳させた画像を生成する結果出力部をさらに具備してもよい。
この構成によれば、ユーザは、分析範囲について算出された動きベクトルを参照し、分析範囲に含まれる分析対象物の動きを評価することが可能となる。
上記画像処理装置は、上記分析対象動画像に対する画像処理結果に応じて、上記区画毎に算出された動きベクトルから選択した動きベクトルを重畳させた画像を生成する結果出力部をさらに具備してもよい。
この構成によれば、ユーザは、区画毎に算出された動きベクトルのうち、画像処理結果に応じて選択された動きベクトルを参照することが可能となる。結果出力部は、分析対象動画像における分析対象物の形状等に応じて動きベクトルを選択することができる。
上記画像処理装置は、上記分析対象動画像に、上記分析対象動画像の所定フレームにおいて上記区画毎に算出された動きベクトルから選択した動きベクトルと、上記分析対象動画像の上記所定フレームより前のフレームにおいて上記区画毎に算出された動きベクトルから選択した動きベクトルとを重畳させた画像を生成してもよい。
この構成によれば、ユーザは、フレーム間で選択された動きベクトルを比較することが可能となる。結果出力部は例えば、各フレームで最も大きい動きベクトルを選択することができる。
上記目的を達成するため、本技術の一形態に係る画像処理プログラムは、
分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出する動き解析部と、
上記分析対象動画像において、軸方向を設定する軸方向設定部と、
上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する情報抽出部と
として画像処理装置を機能させる。
上記目的を達成するため、本技術の一形態に係る画像処理方法は、
動き解析部が、分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出し、
軸方向設定部が、上記分析対象動画像において、軸方向を設定し、
情報抽出部が、上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する。
以上のように、本技術によれば、分析対象物の動きの評価が可能な画像処理装置、画像処理プログラム及び画像処理方法を提供することが可能である。
本技術の実施形態に係る画像処理装置の機能的構成を示す模式図である。 同画像処理装置の動画像取得部が取得する分析対象動画像の例である。 分析対象動画像における動きの例を示す模式図である。 同画像処理装置の範囲指定部部が指定する分析範囲の模式図である。 同画像処理装置の動き解析部が設定する分析範囲の模式図である。 同画像処理装置の動き解析部による動きベクトルの算出を示す模式図である。 同画像処理装置の動き解析部によって算出された動きベクトルの模式図である。 同画像処理装置の軸方向設定部によって設定される軸方向の模式図である 同画像処理装置の軸方向設定部によって設定される軸方向の模式図である 同画像処理装置の情報抽出部による、分析範囲についての動きベクトルの算出を示す模式図である。 同画像処理装置の情報抽出部によって算出された分析範囲についての動きベクトルと軸方向を示す模式図である。 分析範囲について算出された動きベクトルと軸方向の関係を示す模式図である。 同画像処理装置の情報抽出部による動きベクトルの投影のための変換式である。 同画像処理装置の情報抽出部によって抽出された軸方向と動きベクトルのなす角の時間変化を示すグラフである。 同画像処理装置の情報抽出部によって抽出された軸方向に対する動き量の時間変化を示すグラフである。 同画像処理装置の情報抽出部によって抽出された軸方向から所定角度内の動きベクトルの動き量の時間変化を示すグラフである。 同画像処理装置の結果出力部によって生成される軸方向に対する動き量の時間変化を示す画像である。 図17に示す画像が生成されるとなった元分析対象動画像である。 同画像処理装置の結果出力部によって生成される動きベクトルの時間変化を示すグラフである。 同画像処理装置の結果出力部によって生成される分析対象動画像に動きベクトルを重畳した画像の例である。 同画像処理装置の結果出力部によって生成される分析対象動画像に動きベクトルを重畳した画像の例である。 同画像処理装置の結果出力部によって生成される分析対象動画像に動きベクトルを重畳した画像の例である。 同画像処理装置の範囲指定部による分析範囲の移動を示す模式図である。 同画像処理装置の動作を示すフローチャートである。 同画像処理装置の別の動作を示すフローチャートである。 同画像処理装置の機能的構成を実現するためのハードウェア構成を示す模式図である。
本技術の実施形態に係る画像処理装置について説明する。
[画像処理装置の機能的構成]
図1は、本実施形態に係る画像処理装置10の機能的構成を示す模式図である。同図に示すように、画像処理装置10は、動画像取得部11、範囲指定部12、動き解析部13、軸方向設定部14、情報抽出部15及び結果出力部16を有する。
動画像取得部11は、「分析対象動画像」を取得する。分析対象動画像は、分析対象物を経時的に撮像した動画像であり、分析対象動画像は連続的に撮像された複数のフレームから構成される動画や、タイムラプス撮影により撮影された静止画を含む。分析対象物は、細胞や細胞群、あるいは生体組織等であり、動きを有するものであれば本実施形態を適用することができる。分析対象動画像の撮像速度は分析対象に応じて適宜決定することが可能である。
分析対象動画像は、明視野撮像、暗視野撮像、位相差撮像、蛍光撮像、共焦点撮像、多光子励起蛍光撮像、吸収光撮像、乱光撮像等の各種の光学的な撮像方法を利用して撮像された動画像であるものとすることができる。
図2は、分析対象動画像の例であり、神経細胞を含む動画像である。図3は、神経細胞の動きの例を示す模式図である。神経細胞は、図3のAに示すような細胞体の振動、Bに示すような軸索輸送(軸索における細胞内小器官の輸送)、Cに示す軸索の伸張等といった種々の動きを含んでいる。この他にも神経細胞と同様に種々の動きを含む細胞がある。また、細胞自体が動いている場合もあれば、細胞外の環境(周囲の水流等)によって動いている場合もある。本実施形態では、これらの動きの判別が可能である。
動画像取得部11は、図示しない撮像装置(顕微鏡撮像装置)から分析対象動画像を取得してもよく、ストレージに格納されている動画像やネットワークから供給された動画像を分析対象動画像として取得するものとすることも可能である。この際、動画像取得部11は、予め撮像された動画像から、分析対象の種類に応じて所定の周期でサンプリングし、分析対象動画像を取得してもよい。
範囲指定部12は、分析対象動画像において分析範囲を指定する。図4は、分析範囲の例を示す模式図である。同図に示すように、範囲指定部12は、分析対象動画像において分析範囲Rを指定する。分析範囲Rは、例えば一つの細胞や細胞群を含む範囲とすることができる。また、分析範囲Rは、分析対象動画像の全範囲であってもよい。
範囲指定部12は、ユーザによる操作入力によって指示された範囲を分析範囲Rとして指定してもよく、分析対象動画像に対する画像処理によって分析対象物を検出し、その存在する範囲を分析範囲Rに指定してもよい。
動き解析部13は、分析範囲Rから動きベクトルを算出する。動き解析部13は、分析範囲R内に複数の算出区画を設定する。図5は、算出区画の例を示す模式図である。同図に示すように動き解析部13は、分析範囲Rを複数の算出区画Dに区画する。
算出区画Dの数や大きさは任意であり、動き解析部13はユーザによる指定や分析範囲Rの大きさに応じて算出区画Dを設定するものとすることができる。なお、動き解析部13は、分析範囲Rの全体を一つの算出区画Dとしてもよい。
続いて動き解析部13は、各算出区画Dの動きベクトルを算出する。動き解析部13は、ブロックマッチングにより各算出区画Dの動きベクトルを算出するものとすることができる。図6は、動きベクトルの算出の態様を示す模式図である。
同図に示すように動き解析部13は、分析対象動画像を構成する一つのフレームにおける、特定の算出区画D(図中算出区画D1)に含まれる画素群を前のフレームにおける画素群の範囲と比較し、最も一致する画素群の範囲を特定する(図中画素範囲D2)。なお前のフレームは1フレーム前のフレームであってもよく、複数フレーム前のフレームであってもよい。
動き解析部13は、前のフレームにおいて特定した画素範囲D2から現フレームにおける算出区画D1へのベクトルを、算出区画D1の動きベクトル(以下、算出区画ベクトルB)として算出するものとすることができる。動き解析部13は、分析範囲Rに含まれる各算出区画Dについて、同様に算出区画ベクトルを算出する。
図7は、各算出区画Dにおいて算出された算出区画ベクトルBの例を示す模式図であり、矢印の方向は算出区画ベクトルBの方向を、矢印の長さは算出区画ベクトルBの大きさを表す(点は動きベクトル0を表す)。この各算出区画ベクトルBは、分析対象動画像のフレーム毎に算出され、したがって分析対象動画像の時刻毎に変動する。なお、動き解析部13は、ブロックマッチング以外の手法によって算出区画ベクトルBを算出してもよい。
軸方向設定部14は、分析範囲Rについて軸方向を設定する。図8及び図9は、分析範囲Rについて設定された軸方向Sを示す模式図である。軸方向設定部14は、ユーザによって指定された方向を軸方向とすることができる。ユーザは、分析対象動画像において、動きを抽出したい方向を軸方向として設定することができる。
例えば、図8では、神経細胞の軸索に沿って軸方向Sが設定されている。また、軸方向設定部14は、複数の軸方向を設定してもよい。図9は、細胞体の中心から放射状に設定された軸方向Sを示す。
また、軸方向設定部14は、分析対象動画像に対する画像処理によって軸方向を設定してもよい。例えば、軸方向設定部14は、分析対象動画像に含まれる分析対象物を検出してその長辺方向を軸方向に設定し、あるいは分析対象物の中心から放射状に軸方向を設定してもよい。また、軸方向設定部14は、後述する分析範囲について算出された分析範囲の動きベクトルの方向を軸方向に設定してもよい。
情報抽出部15は、算出区画ベクトル及び軸方向に基づいて、分析対象動画像における分析対象物の軸方向に対する動きの情報(以下、動き情報)を抽出する。情報抽出部15は、動き解析部13から供給された各算出区画Dの算出区画ベクトルBから、分析範囲Rについての動きベクトル(以下、分析範囲ベクトル)を算出することができる。
図10は、分析範囲ベクトルの算出の態様を示す模式図である。同図に示すように、情報抽出部15は、分析範囲Rに含まれる各算出区画Dの算出区画ベクトルBを加算し、分析範囲ベクトルCを算出するものとすることができる。
また、情報抽出部15は、算出区画ベクトルBのうち、最も動き量(長さ)が大きいものを分析範囲ベクトルとしてもよい。図11は、分析範囲Rについて算出された分析範囲ベクトルCと軸方向Sを示す模式図である。上記のように各算出区画ベクトルBは分析対象動画像の時刻毎に変動するため、分析範囲ベクトルCも時刻毎に変動する。
情報抽出部15は、分析範囲ベクトルCと軸方向Sに基づいて、動き情報を抽出する。図12は、分析範囲ベクトルCと軸方向Sの関係を示す模式図である。情報抽出部15は、分析範囲ベクトルCを軸方向Sに投影することができる。
図12に、投影された分析範囲ベクトル(以下、投影ベクトル)C'を示す。同図に示すように、情報抽出部15は、分析範囲ベクトルCの座標系(X,Y)を、軸方向Sの座標系(x'、Y')座標系に変換することができる。図13は、座標系の変換式の例を示す。図12に示すように、軸方向Sと分析範囲ベクトルCがなす角を角度θとする。
情報抽出部15は、軸方向Sに対する分析範囲ベクトルCの角度を動き情報として抽出することができる。図14は、軸方向Sに対する分析範囲ベクトルCの角度の時間変化の例を示すグラフである。同図に示すように、角度θは、分析対象動画像の撮像時刻(フレーム)に伴って変動する。
角度θの値(絶対値)が大きい場合、分析範囲Rに含まれる分析対象物の動きが、軸方向Sと一致していないことを示し、角度θの値が小さい場合、分析範囲Rに含まれる分析対象物の動きが、軸方向Sと一致していることを示す。即ち、この動き情報から、分析対象物の動きの方向が軸方向Sに対して一致しているか否かを把握することが可能となる。
また、情報抽出部15は、分析範囲ベクトルCの軸方向Sに対する動き量を動き情報として抽出することができる。情報抽出部15は、上記投影ベクトルC'の動き量((x',y')で表される投影ベクトルC'の長さ)を分析範囲ベクトルCの軸方向Sに対する動き量とすることができる。図15は、分析範囲ベクトルCの、軸方向Sに対する動き量(motion)の時間変化の例を示すグラフである。
同図に示すように、軸方向Sに対する動き量は、分析対象動画像の撮像時刻(フレーム)に伴って変動する。上記のように軸方向Sに対する動き量は、軸方向Sに投影された投影ベクトルC'の動き量である。このため、分析範囲ベクトルCの動き量が大きくても、その動き方向が軸方向Sと乖離していれば、軸方向Sに対する動き量は小さくなる。即ち、この動き情報から、分析対象物の軸方向に対する動きの程度を把握することが可能となる。
また、情報抽出部15は、軸方向Sから所定角度内を動き方向とする動き量を動き情報として抽出することができる。情報抽出部15は、軸方向Sとなす角の角度θが所定角度内の分析範囲ベクトルCの動き量((x,y)で表される分析範囲ベクトルCの長さ)を抽出することができる。所定角度(例えば±30°)は任意であり、予め定められていてもよく、ユーザが設定してもよい。
ユーザは、抽出したい動き方向の角度範囲が小さければ狭い角度とし、抽出したい動き方向の角度範囲が大きければ広い角度とすることができる。図16は、軸方向Sから所定角度内の分析範囲ベクトルCの動き量(motion)の時間変化の例を示すグラフである。所定角度から外れた、即ち、軸方向Sとは方向が乖離した分析範囲ベクトルCの動き量は抽出されないため、ユーザは所望の動き方向についての動き量を把握することが可能となる。
なお、上記説明では、情報抽出部15は、分析範囲Rについて算出された分析範囲ベクトルCについて動き情報を抽出するものとしたが、各算出区画Dについて算出された算出区画ベクトルB(図7参照)について同様に動き情報を抽出するものとしてもよい。即ち、図14乃至図16に示すような動き情報が、各算出区画D毎に抽出されてもよい。
結果出力部16は、情報抽出部15から供給された動き情報を出力し、ユーザに提示する。結果出力部16は例えば、図14乃至図16に示したように、動き情報のグラフを含む画像を生成し、ディスプレイに表示させるものとすることができる。
また、結果出力部16は、動き情報を分析対象動画像においてマッピングし、動き情報提示画像を生成してもよい。図17は、動き情報提示画像の例であり、図17(a)は時刻1における動き情報提示画像、図17(b)は時刻2における動き情報提示画像である。
図18は、図17(a)及び(b)に示す動き情報提示画像の元となった分析対象動画像であり、心筋細胞の画像である。上記のように軸方向設定部によって、分析対象動画像の一方向に軸方向Sが設定されている。
図17(a)及び(b)に示すように、結果出力部16は、算出区画D毎に算出区画ベクトルBの軸方向Sに対する動き量を濃淡又は色分け等で表すことができる。図17(a)及び(b)において、白色の区画は軸方向Sに対する動き量が大きい算出区画Dを示し、黒色の区画は軸方向Sに対する動き量が小さい算出区画Dを示す。
図17(a)に示す時刻1の動き情報提示画像は心筋細胞の収縮時のものであり、図17(b)に示す時刻2の動き情報提示画像は心筋細胞の弛緩時のものである。図17(a)と図17(b)を比較すると、白色の区画と黒色の区画の分布が異なっている。これは、軸方向に対する動き量が大きい区画が時刻によって異なっていることを示し、この画像から心筋細胞の動きの方向が把握できることがわかる。
また、結果出力部16は、分析範囲ベクトルCをユーザに提示してもよい。図19は、分析範囲ベクトルCの提示例を示す模式図である。結果出力部16は、同図に示すように、分析範囲Rについて分析対象動画像の異なる時刻に算出された分析範囲ベクトルCを一つのグラフで提示してもよい。
また、結果出力部16は、分析範囲Rについて分析対象動画像の異なる時刻に算出された分析範囲ベクトルCの先端を結ぶ線Dを提示してもよい。線Dの形状は分析範囲ベクトルCの時間変換の傾向を示す。例えば図19における線Dは、左下方向に多く伸張しているが、これは分析範囲Rにおいて同方向への動きが大きいことを示す。
分析範囲Rにおける分析対象動画像の動きが等方的であれば、線Dは円形に近い形状となる。即ち、ユーザは、線Dの形状を参照することによって、分析範囲Rにおける動きの方向を直感的に把握することが可能となる。また、結果出力部16は、算出区画D毎に算出された算出区画ベクトルBを、分析範囲ベクトルCと同様に提示してもよい。
また、結果出力部16は、分析範囲ベクトルCを分析対象動画像に重畳させた画像を生成し、ユーザに提示してもよい。図20は、分析範囲ベクトルCを分析対象動画像に重畳させた画像の例である。
同図に示すように、結果出力部16は、分析範囲ベクトルCと共に算出区画ベクトルBを提示してもよく、算出区画ベクトルBのうち動き量が大きいもののみを提示してもよい。また、結果出力部16は、算出区画ベクトルBのうち、分析範囲ベクトルCと動き方向が同一又は所定角度内のもののみを提示してもよい。
また、結果出力部16は、所定の算出区画Dの算出区画ベクトルBを分析対象動画像に重畳させ、画像を生成してもよい。図21は、算出区画ベクトルBを分析対象動画像に重畳させた画像の例である。同図に示す例では、神経細胞の軸索の先端に相当する算出区画Dの算出区画ベクトルBが分析対象動画像に重畳されている。
算出区画ベクトルBを提示する算出区画Dは、ユーザによって指定されたものであってもよく、分析対象動画像に対する画像処理によって決定されたものであってもよい。例えば分析対象動画像に対する画像処理によって伸張する物体が検出されると、結果出力部16はその先端に位置する算出区画Dの算出区画ベクトルBを提示するものとすることができる。
さらに、結果出力部16は、分析対象動画像における異なるフレームの算出区画ベクトルBを分析対象動画像に重畳させ、画像を生成してもよい。図22は、異なるフレームの算出区画ベクトルBを分析対象動画像に重畳させた画像の例である。
結果出力部16は、あるフレームにおける最も大きい算出区画ベクトルB2と、その前のフレームにおける最も大きい算出区画ベクトルB1とを分析対象動画像に重畳させることができる。結果出力部16は、より多数の異なるフレームの算出区画ベクトルBを提示してもよい。これによりユーザは、分析対象動画像における動きの遷移を把握することができる。
また、結果出力部16は、算出区画ベクトルB又は分析範囲ベクトルCを積分することで動きの距離、微分することで動きの加速度を算出し、提示することも可能である。
画像処理装置10は以上のような機能的構成を有する。上記のように画像処理装置10においては、分析対象動画像における動きが動きの方向に応じて提示される。このため、分析対象物の動きをその量だけでなく、動きの方向によって評価することが可能となる。
なお、範囲指定部12は、分析対象動画像において、分析範囲Rを指定するとしたが、分析対象動画像の時刻経過に伴って分析範囲Rを移動させてもよい。図23は、分析範囲Rの移動を示す模式図である。分析範囲R1は、分析対象動画像における所定の時間に設定された分析範囲であり、分析範囲R2はその後の所定の時間に設定された分析範囲である。
同図に示すように範囲指定部12は、分析範囲R1を分析範囲ベクトルCの方向に移動させ、分析範囲R2を新たな分析範囲とすることができる。分析範囲の移動量は、予め定められた所定量としてもよく、分析範囲ベクトルCの大きさに応じて調整してもよい。
動き解析部13は、新たに設定された分析範囲R2について上記のように動き解析を実施し、算出区画ベクトルを算出するものとすることができる。情報抽出部15は、その算出区画ベクトル又は分析範囲ベクトルと軸方向に基づいて、動き情報を抽出するものとすることができる。
これにより、分析範囲Rが所定時刻毎に分析範囲ベクトルの方向に移動するため、分析対象物の動きに追随して動きを評価することが可能となる。例えば、神経細胞の軸索輸送(図3参照)において、輸送物に合わせて分析範囲Rを移動させ、その輸送を評価することができる。
[画像処理装置の動作]
画像処理装置10の動作について説明する。図24は、画像処理装置10の動作を示すフローチャートである。
同図に示すように、動画像取得部11が分析対象動画像を取得し(St101)、範囲指定部12が分析範囲を指定する(St102)。続いて、動き解析部13が分析範囲において算出区画ベクトルを算出し(St103)、情報抽出部15が分析範囲ベクトルを算出する(St104)。
続いて軸方向設定部14が分析範囲において軸方向を設定(St105)する。この際軸方向設定部14は、分析範囲ベクトルに基づいて軸方向を設定してもよい。続いて情報抽出部15が算出区画ベクトル又は分析範囲ベクトルと軸方向に基づいて動き情報を抽出し(St106)、結果出力部16が動き情報を提示する(St107)。
なお、結果出力部16は、算出区画ベクトル又は分析範囲ベクトルを分析対象動画像に重畳させた画像を生成してもよい。また、範囲指定部12は分析対象動画像の時刻の経過に伴い、分析範囲ベクトルに応じて分析範囲を移動させてもよい。
また、画像処理装置10は次のように動作をしてもよい。図25は、画像処理装置10の別の動作を示すフローチャートである。
同図に示すように、動画像取得部11が分析対象動画像を取得し(St111)、範囲指定部12が分析範囲を指定する(St112)。続いて、軸方向設定部14が分析範囲において軸方向を設定(St113)する。軸方向設定部14は、ユーザによる指定又は分析対象動画像に対する画像処理により軸方向を設定することができる。
続いて、動き解析部13が分析範囲において算出区画ベクトルを算出し(St114)、情報抽出部15が分析範囲ベクトルを算出する(St115)。続いて情報抽出部15が算出区画ベクトル又は分析範囲ベクトルと軸方向に基づいて動き情報を抽出し(St116)、結果出力部16が動き情報を提示する(St117)。
なお、結果出力部16は、算出区画ベクトル又は分析範囲ベクトルを分析対象動画像に重畳させた画像を生成してもよい。また、範囲指定部12は分析対象動画像の時刻の経過に伴い、分析範囲ベクトルに応じて分析範囲を移動させてもよい。
[画像処理装置のハードウェア構成]
上記のような画像処理装置10の機能的構成は、以下に示すハードウェア構成によって実現することが可能である。
図26は、画像処理装置10のハードウェア構成を示す模式図である。同図に示すように画像処理装置10はハードウェア構成として、CPU101、GPU102、メモリ103、ストレージ104及び入出力部(I/O)105を有する。これらはバス106によって互いに接続されている。
CPU(Central Processing Unit)101は、メモリ103に格納されたプログラムに従って他の構成を制御すると共に、プログラムに従ってデータ処理を行い、処理結果をメモリ103に格納する。CPU101はマイクロプロセッサであるものとすることができる。
GPU(Graphic Processing Unit)」102は、CPU101による制御を受けて、画像処理を実行する。CPU101はGPU102に並列演算処理を実行させ、動きベクトルの算出や動き情報の抽出を高速に行うことが可能である。GPU102はマイクロプロセッサであるものとすることができる。
メモリ103はCPU101によって実行されるプログラム及びデータを格納する。メモリ103はRAM(Random Access Memory)であるものとすることができる。
ストレージ104は、プログラムやデータを格納する。ストレージ104はHDD(Hard disk drive)やSSD(solid state drive)であるものとすることができる。
入出力部105は画像処理装置10に対する入力を受け付け、また画像処理装置10の出力を外部に供給する。入出力部105は、キーボードやマウス等の入力機器やディスプレイ等の出力機器、ネットワーク等の接続インターフェイスを含む。
画像処理装置10のハードウェア構成はここに示すものに限られず、画像処理装置10の機能的構成を実現できるものであればよい。また、上記ハードウェア構成の一部又は全部はネットワーク上に存在していてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)
分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出する動き解析部と、
上記分析対象動画像において、軸方向を設定する軸方向設定部と、
上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する情報抽出部と
を具備する画像処理装置。
(2)
上記(1)に記載の画像処理装置であって、
上記軸方向設定部は、上記動きベクトルに基づいて上記軸方向を設定する
画像処理装置。
(3)
上記(1)又は(2)に記載の画像処理装置であって、
上記軸方向設定部は、上記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて上記軸方向を設定する
画像処理装置。
(4)
上記(1)から(3)のいずれか一つに記載の画像処理装置であって、
上記情報抽出部は、上記軸方向に対する上記動きベクトルの角度を抽出する
画像処理装置。
(5)
上記(1)から(4)のいずれか一つに記載の画像処理装置であって、
上記情報抽出部は、上記動きベクトルを上記軸方向に投影し、上記軸方向に対する動き量を抽出する
画像処理装置。
(6)
上記(1)から(5)のいずれか一つに記載の画像処理装置であって、
上記情報抽出部は、上記軸方向から所定角度内の上記動きベクトルから動き量を抽出する
画像処理装置。
(7)
上記(1)から(6)のいずれか一つに記載の画像処理装置であって、
上記分析対象動画像において分析範囲を指定する範囲指定部をさらに具備し、
上記動き解析部は、上記分析範囲の区画毎に動きベクトルを算出し、
上記情報抽出部は、上記区画毎に算出された動きベクトルに基づいて上記分析範囲についての動きベクトルを算出し、上記分析範囲についての動きベクトルと上記軸方向に基づいて、上記情報を抽出する
画像処理装置。
(8)
上記(1)から(7)のいずれか一つに記載の画像処理装置であって、
上記範囲指定部は、上記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて上記分析範囲を設定する
画像処理装置。
(9)
上記(1)から(8)のいずれか一つに記載の画像処理装置であって、
上記範囲指定部は、上記分析範囲について算出された動きベクトルに基づいて上記分析範囲を移動させる
画像処理装置。
(10)
上記(1)から(9)のいずれか一つに記載の画像処理装置であって、
上記分析対象動画像に上記分析範囲について算出された動きベクトルを重畳させた画像を生成する結果出力部
をさらに具備する画像処理装置。
(11)
上記(1)から(10)のいずれか一つに記載の画像処理装置であって、
上記分析対象動画像に対する画像処理結果に応じて、上記区画毎に算出された動きベクトルから選択した動きベクトルを重畳させた画像を生成する結果出力部
をさらに具備する画像処理装置。
(12)
上記(1)から(11)のいずれか一つに記載の画像処理装置であって、
上記分析対象動画像に、上記分析対象動画像の所定フレームにおいて上記区画毎に算出された動きベクトルから選択した動きベクトルと、上記分析対象動画像の上記所定フレームより前のフレームにおいて上記区画毎に算出された動きベクトルから選択した動きベクトルとを重畳させた画像を生成する結果出力部
をさらに具備する画像処理装置。
(13)
分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出する動き解析部と、
上記分析対象動画像において、軸方向を設定する軸方向設定部と、
上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する情報抽出部と
として画像処理装置を機能させる画像処理プログラム。
(14)
動き解析部が、分析対象物を経時的に撮像した分析対象動画像において、動きベクトルを算出し、
軸方向設定部が、上記分析対象動画像において、軸方向を設定し、
情報抽出部が、上記動きベクトルと上記軸方向に基づいて、上記分析対象動画像における分析対象物の上記軸方向に対する動きの情報を抽出する
画像処理方法。
10…画像処理装置
11…動画像取得部
12…範囲指定部
13…動き解析部
14…軸方向設定部
15…情報抽出部
16…結果出力部

Claims (13)

  1. 分析対象物を経時的に撮像した分析対象動画像において分析範囲を指定する範囲指定部と、
    前記分析対象動画像において、前記分析範囲の区画毎に動きベクトルを算出する動き解析部と、
    前記分析対象動画像において、軸方向を設定する軸方向設定部と
    記分析対象動画像における分析対象物の前記軸方向に対する動きの情報として、前記軸方向から所定角度内の前記動きベクトルから動き量を抽出する、又は、前記動きベクトルに基づいて前記分析範囲についての動きベクトルである分析範囲ベクトルを算出して前記軸方向から所定角度内の前記分析範囲ベクトルから動き量を抽出する情報抽出部と、
    異なる時刻に抽出された前記軸方向に対する動きの情報の時間変化を出力する結果出力部と
    を具備する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記軸方向設定部は、前記動きベクトルに基づいて前記軸方向を設定する
    画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記軸方向設定部は、前記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて前記軸方向を設定する
    画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記情報抽出部は、前記軸方向に対する前記動きベクトルの角度を抽出する
    画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記情報抽出部は、前記動きベクトルを前記軸方向に投影し、前記軸方向に対する動き量を抽出する
    画像処理装置。
  6. 請求項に記載の画像処理装置であって、
    前記範囲指定部は、前記分析対象動画像に対して画像処理を実行し、その処理結果に基づいて前記分析範囲を設定する
    画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記範囲指定部は、前記分析範囲について算出された動きベクトルの方向に前記分析範囲を移動させる
    画像処理装置。
  8. 請求項に記載の画像処理装置であって、
    前記分析対象動画像に前記分析範囲について算出された動きベクトルを重畳させた画像を生成する結果出力部
    をさらに具備する画像処理装置。
  9. 請求項に記載の画像処理装置であって、
    前記分析対象動画像に対する画像処理結果に応じて、前記区画毎に算出された動きベクトルから選択した動きベクトルを重畳させた画像を生成する結果出力部
    をさらに具備する画像処理装置。
  10. 請求項に記載の画像処理装置であって、
    前記結果出力部は、前記分析対象動画像に、前記分析対象動画像の所定フレームにおいて前記区画毎に算出された動きベクトルから選択した動きベクトルと、前記分析対象動画像の前記所定フレームより前のフレームにおいて前記区画毎に算出された動きベクトルから選択した動きベクトルとを重畳させた画像を生成す
    像処理装置。
  11. 請求項1に記載の画像処理装置であって、
    前記分析対象物は、心筋細胞又は神経細胞である
    画像処理装置。
  12. 分析対象物を経時的に撮像した分析対象動画像において、分析範囲を指定する範囲指定部と、
    前記分析対象動画像において、前記分析範囲の区画毎に動きベクトルを算出する動き解析部と、
    前記分析対象動画像において、軸方向を設定する軸方向設定部と
    記分析対象動画像における分析対象物の前記軸方向に対する動きの情報として、前記軸方向から所定角度内の前記動きベクトルから動き量を抽出する、又は、前記動きベクトルに基づいて前記分析範囲についての動きベクトルである分析範囲ベクトルを算出して前記軸方向から所定角度内の前記分析範囲ベクトルから動き量を抽出する情報抽出部と、
    異なる時刻に抽出された前記軸方向に対する動きの情報の時間変化を出力する結果出力部と
    として画像処理装置を機能させる画像処理プログラム。
  13. 範囲指定部が、分析対象物を経時的に撮像した分析対象動画像において、分析範囲を指定し、
    動き解析部が、前記分析対象動画像において、前記分析範囲の区画毎に動きベクトルを算出し、
    軸方向設定部が、前記分析対象動画像において、軸方向を設定し、
    情報抽出部が、前記分析対象動画像における分析対象物の前記軸方向に対する動きの情報として、前記軸方向から所定角度内の前記動きベクトルから動き量を抽出する、又は、前記動きベクトルに基づいて前記分析範囲についての動きベクトルである分析範囲ベクトルを算出して前記軸方向から所定角度内の前記分析範囲ベクトルから動き量を抽出し、
    結果出力部が、異なる時刻に抽出された前記軸方向に対する動きの情報の時間変化を出力する
    画像処理方法。
JP2014165564A 2014-08-15 2014-08-15 画像処理装置、画像処理プログラム及び画像処理方法 Active JP6467813B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014165564A JP6467813B2 (ja) 2014-08-15 2014-08-15 画像処理装置、画像処理プログラム及び画像処理方法
PCT/JP2015/003913 WO2016024389A1 (en) 2014-08-15 2015-08-04 Image processing apparatus, image processing program, and image processing method
US15/502,252 US10360679B2 (en) 2014-08-15 2015-08-04 Image processing apparatus, image processing program, and image processing method
EP15756698.5A EP3180771A1 (en) 2014-08-15 2015-08-04 Image processing apparatus, image processing program, and image processing method
US16/433,998 US10922815B2 (en) 2014-08-15 2019-06-06 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014165564A JP6467813B2 (ja) 2014-08-15 2014-08-15 画像処理装置、画像処理プログラム及び画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019004421A Division JP6658926B2 (ja) 2019-01-15 2019-01-15 画像処理装置、画像処理プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2016042264A JP2016042264A (ja) 2016-03-31
JP6467813B2 true JP6467813B2 (ja) 2019-02-13

Family

ID=54012250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014165564A Active JP6467813B2 (ja) 2014-08-15 2014-08-15 画像処理装置、画像処理プログラム及び画像処理方法

Country Status (4)

Country Link
US (2) US10360679B2 (ja)
EP (1) EP3180771A1 (ja)
JP (1) JP6467813B2 (ja)
WO (1) WO2016024389A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467813B2 (ja) 2014-08-15 2019-02-13 ソニー株式会社 画像処理装置、画像処理プログラム及び画像処理方法
KR101737632B1 (ko) * 2015-08-13 2017-05-19 주식회사 뷰웍스 시간열 이미지 분석을 위한 그래픽 유저 인터페이스 제공 방법
WO2018179420A1 (ja) * 2017-03-31 2018-10-04 株式会社オプティム コンピュータシステム、植物診断方法及びプログラム
WO2018179419A1 (ja) * 2017-03-31 2018-10-04 株式会社オプティム コンピュータシステム、動物診断方法及びプログラム
WO2019102750A1 (ja) * 2017-11-24 2019-05-31 ソニー株式会社 画像処理装置、画像処理方法、画像処理用プログラム
CN112469991A (zh) 2018-07-24 2021-03-09 索尼公司 信息处理装置、信息处理方法、信息处理系统以及程序
US10803580B2 (en) * 2018-10-24 2020-10-13 Wearless Tech Inc. Video image processing and motion detection
WO2022193077A1 (en) * 2021-03-15 2022-09-22 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for image segmentation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1203214B1 (en) 1999-08-05 2005-11-09 Cellomics, Inc. Optical system analysis of cells
US7828711B2 (en) * 2004-08-16 2010-11-09 Cardiac Pacemakers, Inc. Method and apparatus for modulating cellular growth and regeneration using ventricular assist device
JP4982381B2 (ja) * 2005-12-07 2012-07-25 M&Tプロジェクトパートナーズ株式会社 病理検査方法
JP4771833B2 (ja) 2006-03-03 2011-09-14 富士通株式会社 光パラメトリック増幅器
JP4757246B2 (ja) 2007-09-07 2011-08-24 オリンパス株式会社 神経細胞画像解析装置及び神経細胞画像解析ソフトウェア
CA2758208A1 (en) * 2009-04-09 2010-10-14 Jordan Lancaster Cellular seeding and co-culture of a three dimensional fibroblast construct
US9582894B2 (en) * 2012-12-27 2017-02-28 Tampereen Ylipoisto Visual cardiomyocyte analysis
JP6494903B2 (ja) * 2013-02-14 2019-04-03 ソニー株式会社 分析システム、分析プログラム及び分析方法
JP6467813B2 (ja) 2014-08-15 2019-02-13 ソニー株式会社 画像処理装置、画像処理プログラム及び画像処理方法

Also Published As

Publication number Publication date
US10922815B2 (en) 2021-02-16
US20170236277A1 (en) 2017-08-17
US10360679B2 (en) 2019-07-23
WO2016024389A1 (en) 2016-02-18
EP3180771A1 (en) 2017-06-21
JP2016042264A (ja) 2016-03-31
US20190362493A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6467813B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
CN105284108B (zh) 影像监视系统、监视装置
JP4939968B2 (ja) 監視画像処理方法、監視システム及び監視画像処理プログラム
KR102033262B1 (ko) 정경 재구성 방법, 장치, 단말기 장치 및 저장 매체
US9678325B2 (en) Analysis apparatus, analysis program, and analysis system
US10891779B2 (en) Efficient volumetric reconstruction with depth sensors
CN108256567B (zh) 一种基于深度学习的目标识别方法及系统
CN102881002A (zh) 基于运动信息和矩阵填充的视频背景恢复方法
DE102015110955A1 (de) Informationsverarbeitungsvorrichtung zum Erfassen eines Objekts von einem Bild, Verfahren zum Steuern der Vorrichtung und Speichermedien
JP6578950B2 (ja) 分析システム、分析プログラム及び分析方法
JP2015204030A5 (ja)
JP6658926B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
CN105373769B (zh) 在图像中确定可能代表个体的至少一个手指的区域的方法
JP2020060822A (ja) 画像処理方法および画像処理装置
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
KR102067423B1 (ko) 지피유 가속 컴퓨팅을 이용한 3차원 복원 클라우드 포인트 생성 방법
Mallat et al. Robust face authentication based on dynamic quality-weighted comparison of visible and thermal-to-visible images to visible enrollments
Gutfeter et al. Face 3D biometrics goes mobile: Searching for applications of portable depth sensor in face recognition
JP7195782B2 (ja) 情報処理装置、制御方法及びプログラム
JPWO2010098211A1 (ja) 輪郭抽出装置および輪郭抽出方法、並びにプログラム
US20230119032A1 (en) Display system and display method
KR20180069272A (ko) 집적영상 디스플레이 장치 및 방법
JP4660736B2 (ja) 動画像時間分割処理方法および装置
JP2019098168A (ja) 肌解析方法及び肌解析システム
Schöning et al. Semi-automatic ground truth annotation in videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R151 Written notification of patent or utility model registration

Ref document number: 6467813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250