JP6979664B2 - 仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法 - Google Patents

仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法 Download PDF

Info

Publication number
JP6979664B2
JP6979664B2 JP2019552542A JP2019552542A JP6979664B2 JP 6979664 B2 JP6979664 B2 JP 6979664B2 JP 2019552542 A JP2019552542 A JP 2019552542A JP 2019552542 A JP2019552542 A JP 2019552542A JP 6979664 B2 JP6979664 B2 JP 6979664B2
Authority
JP
Japan
Prior art keywords
dimensional
neural network
image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019552542A
Other languages
English (en)
Other versions
JP2020513124A (ja
Inventor
キム,ドンミン
ベク,ジョンファン
ジェ リ,ミョン
ソン,ジス
ウク カン,シン
テ キム,ウォン
キム,ドン−オグ
Original Assignee
ジェイエルケイ インスペクション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェイエルケイ インスペクション filed Critical ジェイエルケイ インスペクション
Publication of JP2020513124A publication Critical patent/JP2020513124A/ja
Application granted granted Critical
Publication of JP6979664B2 publication Critical patent/JP6979664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Description

本発明は、画像再構成を用いた画像解析技術に関し、より詳細には、仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法に関する。
人工ニューラルネットワーク(artificial neural network、ANN)は、機械学習(machine learning)を実現する技法の一つである。
一般に、人工ニューラルネットワークは、入力層(input layer)、隠れ層(hidden layer)及び出力層(output layer)で構成されている。各層は、ニューロン(neuron)で構成されており、各層のニューロンは、以前層のニューロンの出力に接続されている。以前層のニューロンの各出力値とそれに相応する接続重み(weight)を内積(inner product)した値にバイアス(bias)を加えた値を、一般的に非線形(non−linear)である活性化関数(activation function)に入れ、その出力値を次の段階層のニューロンへ伝達する。
従来の機械学習手法は、入力データからヒトにより設計された特徴抽出(feature extraction)過程を介して得た情報から分類器(classifier)を学習するのに対し、人工ニューラルネットワークは、特徴抽出と分類器を最初から最後まで学習(エンドツーエンド学習(end−to−end learning))することが特徴である。
畳み込みニューラルネットワーク(convolutional neural network、CNN)は、画像認識分野で従来の機械学習手法の性能を圧倒し、大きく注目されている。畳み込みニューラルネットワークの構造は、一般的な人工ニューラルネットワークの構造とほぼ同一であるが、追加の構成要素としては、畳み込み層(convolutional layer)とプーリング層(pooling layer)がある。
一般的な畳み込みニューラルネットワークの構造は、畳み込み層とプーリング層が交互に配置され、二・三個程度の完全接続層(fully−connected layer)を経て最終的に出力層がくる。畳み込み層のニューロンは、以前層のすべてのニューロンに完全接続(fully−connected)される人工ニューラルネットワークとは異なり、以前層の小さな地域にのみ接続(local connectivity)されている。
また、特徴マップ(feature map)と同じスライス(slice)に属するニューロンは、同一の値(パラメータ共有(parameter sharing))の重みとバイアスを有する。このように行われる演算が畳み込みであり、適用される重みの集合をフィルタ(filter)またはカーネル(kernel)と呼ぶ。畳み込みニューラルネットワークは、画像での特徴を効果的に抽出することができ、パラメータの数を減らして過適合(overfitting)を防止し、一般化(generalization)性能を向上させることができる。
プーリング層は、畳み込み層同士の間に位置し、特徴マップ(feature map)の空間的(spatial)サイズを低減する役割を果たす。このような過程も、パラメータの数を減らして過適合を防止する役割を果たす。最もよく使われる形式は、2×2のフィルタを2の間隔で適用させる最大プーリング(max−pooling)方法である。この過程は、特徴マップのサイズを幅、高さ方向に対してそれぞれ半分ずつ減少させる。
一方、従来技術としては、ビジュアルコンテンツベースの画像認識のためのディープラーニングフレームワーク及び画像認識方法に関する韓国公開特許第10−2016−0122452号公報(2016年10月24日公開)がある。しかし、上記の技術は、基本的なディープラーニングモデルを適用するフレームワークを提供するもので、特定の構造のモデルを構成するのとは多少距離がある。
韓国公開特許第10−2016−0122452号公報
上述した従来技術の問題点を解決するための本発明の目的は、2次元画像を3次元空間で3次元データに再構成し、再構成した3次元データを回転させて他の3次元データを生成し、生成された複数の3次元データのそれぞれに2次元畳み込みニューラルネットワークを適用して合わせることにより、深層ニューラルネットワークで容易に3次元画像データを解析することができる画像解析装置及び方法を提供することにある。
上記の技術的課題を解決するための本発明のある観点による仮想3次元深層ニューラルネットワークを利用する画像解析装置は、複数の2次元画像データを所定の順に積む画像取得部と、前記画像取得部からの積んだ形態の複数の2次元画像データに対する互いに異なる形態の複数の情報に基づいて複数の3次元データを生成する3次元画像生成部と、前記3次元画像生成部からの複数の3次元データに対して2次元畳み込みニューラルネットワークを適用し、前記複数の3次元データに対する2次元畳み込みニューラルネットワークの適用結果を合わせるディープラーニングアルゴリズム解析部と、を含む。
一実施形態において、前記3次元画像生成部は、前記複数の3次元データを生成する前に、前記複数の2次元画像データのそれぞれに対してゼロ平均(zero−mean)または単位分散(unit−variance)演算を行うことができる。
一実施形態において、前記互いに異なる形態の複数の情報は、前記積んだ2次元画像データの時間または位置による動きまたは模様の変化に対応するパターンを認識したことを含むことができる。
一実施形態において、前記ディープラーニングアルゴリズム解析部は、前記複数の3次元データに対する前記2次元畳み込みニューラルネットワークの適用結果を畳み込み層(convolutional layer)、完全接続層(fully−connected layer)、出力層(output layer)、及び最終結果の平均を出す判定レベル融合(decision level fusion)のうちのいずれかで合わせることができる。
上記の技術的課題を解決するための本発明の他の観点による仮想3次元深層ニューラルネットワークを利用する画像解析方法は、画像取得部で、複数の2次元画像データを所定の順に積むステップと、3次元画像生成部で、積んだ形態の前記複数の2次元画像データに対する互いに異なる形態の複数の情報に基づいて複数の3次元データを生成するステップと、ディープラーニングアルゴリズム解析部で、前記複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、前記複数の3次元データに対する2次元畳み込みニューラルネットワークの適用結果を合わせるステップと、を含む。
一実施形態において、前記生成するステップは、前記複数の3次元データを生成する前に、前記複数の2次元画像データのそれぞれに対してゼロ平均(zero−mean)または単位分散(unit−variance)演算を行うことができる。
一実施形態において、前記合わせるステップは、前記複数の3次元データに対する前記2次元畳み込みニューラルネットワークの適用結果を畳み込み層(convolutional layer)、完全接続層(fully−connected layer)、出力層(output layer)、及び最終結果の平均を出す判定レベル融合(decision level fusion)のうちのいずれかで合わせることができる。
上記の技術的課題を解決するための本発明の別の観点による仮想3次元深層ニューラルネットワークを利用する画像解析装置は、2次元画像を撮影位置または時間順に積む画像取得部と、前記画像取得部から伝達された2次元画像で第1の3次元画像データを生成し、前記第1の3次元画像データから、前記撮影位置または時間を示す軸が残りの2つの軸のいずれかに一致するように回転させた第2の3次元画像データを生成する3次元画像生成部と、前記3次元画像生成部から伝達された複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、各3次元データに対する適用結果を合わせるディープラーニングアルゴリズム解析部と、を含む。
一実施形態において、前記3次元画像生成部は、前記2次元画像のフレーム間の差異またはオプティカルフローを介して得られた前記2次元画像を回転させて得た他の2次元画像に基づいて、追加の3次元データを生成することができる。
上記の技術的課題を解決するための本発明の別の観点による仮想3次元深層ニューラルネットワークを利用する画像解析方法、画像取得部から2次元画像を撮影位置または時間順に積むステップと、3次元画像生成部で前記画像取得部からの2次元画像で第1の3次元画像データを生成し、前記第1の3次元画像データから、前記撮影位置または時間を示す軸が残りの2つの軸のいずれかに一致するように回転させた第2の3次元画像データを生成するステップと、ディープラーニングアルゴリズム解析部で、前記3次元画像生成部からの複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、各3次元データに対する適用結果を合わせるステップと、を含む。
一実施形態において、前記生成するステップは、前記2次元画像のフレーム間の差異またはオプティカルフローを介して得られた前記2次元画像を回転させて得た他の2次元画像に基づいて、追加の3次元データを生成することができる。
本発明によれば、一般的な3次元畳み込みニューラルネットワーク方法に比べてさらに少ないパラメータを持つ2次元畳み込みニューラルネットワークを利用して3次元データをさらに効率よく学習し、画像解析することができるという利点がある。
また、本発明によれば、パラメータの数が非常に多いためメモリを多く占め、学習するときに長い時間がかかり、学習されたモデルを使用するときに計算時間が長い3次元畳み込みニューラルネットワークモデルの問題点を解決することができるとともに、3次元画像データに対して効率の良い学習と画像解析を行うことができる新しい画像解析モデルを提供することができる。
本発明の実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析装置のブロック図である。 図1の画像解析装置の作動原理を図式的に示す例示図である。 図1の画像解析装置に採用することができる2次元畳み込みニューラルネットワークの既存の作動原理を説明するための例示図である。 比較例に係る3次元畳み込みニューラルネットワークの作動原理を説明するための例示図である。 本発明の他の実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析方法のフローチャートである。 本発明の別の実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析装置のブロック図である。
以下、添付図面を参照して、本発明の好適な実施形態をより詳細に説明する。本発明を説明するにあたり、全体的な理解を容易にするために、図面上の同一の構成要素については同一の参照符号を使用し、同一の構成要素について重複した説明は省略する。
図1は本発明の一実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析装置のブロック図である。
図1を参照すると、本実施形態に係る画像解析装置100は、画像取得部110、3次元画像生成部120及びディープラーニングアルゴリズム解析部130を含む。
画像取得部110は、2次元画像の撮影角度または時間に応じて順次積んだ2次元画像を準備する。画像取得部110は、カメラ、制御部、通信部などに接続できる。
3次元画像生成部120は、画像取得部110から受信した2次元画像で複数の3次元データを生成する。簡単な例として、3次元画像生成部120は、2次元画像を積層して第1の3次元データに変換し、変換された第1の3次元データを3次元空間で任意の角度で、好ましくは3次元空間上における3軸(x、y、z)のいずれかの軸がもう一つの軸の位置に回転して第2の3次元データを生成するように3次元データを複数個に再構成することができる。
これは、所定の基準に基づいて、例えば、時間軸に沿って積層される複数の2次元画像データを前記複数の2次元画像データに対する相対的な時間または位置変化に応じて互いに異なる形態の複数の3次元データを得ることができることを示す。すなわち、本実施形態では、2次元画像データを積み、積んだ2次元画像データに対する時間または位置変化に基づいて複数の演算をそれぞれ行って複数の3次元データを取得することができる。3次元データは3次元画像データを含むことができる。
また、一例として、細胞画像のように動く動画像についての情報を含む2次元画像データは、2次元画像データのそれぞれでモフォロジーが変わることができ、位置が変わりうる形態、すなわち、トラッキングを行うことができる状態を持つ。ここで、画像認識装置は、外郭線を考慮する場合、位置または時間による2次元画像データから、輪郭線が変わっているか位置が少し変わっているなどの差異を抽出し、2次元画像データを3次元データ化する場合において、抽出された情報に基づいて動きの変化または模様の変化に対応するパターンを認識することができる。画像認識装置は、ボリュームメトリーなどを用いてパターン認識を行うことができる。
つまり、2次元画像データをX−Y平面上に時間軸(Z)方向に積むとするとき、積んだ2次元画像データは、3次元データ形態を有し、ここで積んだ2次元画像データを上方から見たときと側方から見たときの差異が発生し、例えば、2次元画像データを上方からみた場合、その差異はモフォロジーの差異が主な差異として認識でき、2次元画像データを側方から見た場合、その差異は時間的な差に応じてその位置に対する変化として認識できる。このように、本実施形態では、積んだ2次元画像データに対する他の形態として認識される複数のデータ、すなわち複数の仮想3次元データを取得して利用する。
ディープラーニングアルゴリズム解析部130は、再構成された複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワーク(2D Convolutional Neural Network、CNN)を適用し、各3次元データに対する適用結果を合わせて3次元画像を解析する。
このように、本実施形態では、2次元画像データを積んだ後、積んだ2次元画像データに対する異なる形態の情報を2次元畳み込みニューラルネットワークで学習して3次元画像解析を行うことを主な技術的特徴とする。
前述した構成要素110乃至130は、ハードウェア的に構成できるが、これに限定されない。画像解析装置100の構成要素は、ソフトウェアモジュール形態でメモリなどの記憶装置に格納され、記憶装置に接続されるプロセッサがソフトウェアモジュールを実行して仮想3次元深層ニューラルネットワークをベースに、3次元画像データを効率よく学習し解析するように実現できる。
以下、仮想3次元深層ニューラルネットワークを利用する画像解析装置について詳細に説明する。
図2は図1の画像解析装置の作動原理を図式的に示す例示図である。
図2を参照すると、画像取得部は、外部から受信または取得した2次元画像、或いは画像解析装置の外部または内部のメモリなどに格納されていることを読み出した2次元画像を撮影位置または撮影時間に基づいて積むことができる。
3次元画像生成部は、画像取得部から伝達された2次元画像を用いて複数の3次元データを生成する。3次元データは3次元画像データを含むことができる。
3次元画像生成部は、複数の2次元画像を撮影位置または時間順に積層させて3次元画像データを生成することができる。3次元画像生成部は、生成された3次元画像データを所定の角度で回転させて追加の3次元画像データを生成することができる。
例えば、3次元画像データに対して互いに直交する3つの方向について解析を行う場合には、次の過程によって複数の3次元画像データを生成することができる。すなわち、2次元画像の二軸をx、yとし、2次元画像の撮影位置または時間を示す軸をzとすれば、z軸の順序そのまま2次元画像を積層させて作った3次元データDxyz(第1の3次元データ)と、Dxyzを他の2つの軸方向にそれぞれ回転させて作った3次元データDyzxと3次元データDzxyを使用することができる。
もちろん、最終モデルのメモリサイズ、計算速度または目標性能に応じて3方向のうちの2方向に対してのみ進行することができる。
また、3次元画像生成部は、上述した複数の3次元データに加えて、別の3次元データをさらに生成して使用することができる。すなわち、3次元画像生成部は、本来の2次元画像から、予め準備された計算によって得た別の画像に対して上述の方法を適用して複数の3次元画像を生成することができる。例えば、各2次元画像に対してゼロ平均(zero−mean)と単位分散(unit−variance)を持つように正規化(normalization)を経た後、上述の方法によって複数の3次元データを生成することができる。
別の実現において、3次元画像生成部は、ビデオの場合には、フレーム間の差異またはオプティカルフロー(optical flow)などの計算を介して得た画像と、それらの画像を回転させて追加の3次元画像を生成することができる。
ディープラーニングアルゴリズム解析部は、必要に応じて、3次元画像生成部から受信した複数の3次元データに対してそれぞれ任意の間隔で分割し投影することにより、複数の2次元データセットを生成することができる。複数の2次元データセットを3次元データに含むことができる。
ディープラーニングアルゴリズム解析部は、3次元画像生成部から受信した複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、これらを合わせる過程を経て画像解析結果を得ることができる。
ディープラーニングアルゴリズム解析部において、各2次元畳み込みニューラルネットワークが合わさるところは、畳み込み層(convolutional layer)、完全接続層(fully−connected layer)または出力層(output layer)、または最終結果の平均を出す判定レベル融合(decision level fusion)であり得る。
図3は図1の画像解析装置に採用することができる2次元畳み込みニューラルネットワークの作動原理を説明するための例示図である。図4は比較例に係る3次元畳み込みニューラルネットワークの作動原理を説明するための例示図である。
まず、図3を参照すると、2次元畳み込みニューラルネットワークの畳み込み(convolution)計算構造が示されている。2次元畳み込みニューラルネットワークの畳み込み計算構造は、下記数式1で表される。
Figure 0006979664
前述した2次元畳み込みニューラルネットワークは、画像認識において優れた性能を示している。しかし、行われる畳み込み(convolution)が2次元空間(spatial)特徴のみを計算するから、2次元畳み込みニューラルネットワークのみを利用する場合には、複数の2次元画像が集まった3次元画像における深さまたは時間方向への情報を学習することができない。
上述した問題を克服するために、3次元畳み込みニューラルネットワークモデルを代替して使用しても、一般的な3次元畳み込みニューラルネットワークは、3次元画像を解析するために3次元フィルタを学習するので、パラメータの数が多いためメモリを多く占め、学習に長い時間がかかる(数式2参照)。このため、本実施形態では、2次元畳み込みニューラルネットワークを利用する畳み込み計算構造と3次元畳み込みニューラルネットワークを利用する畳み込み計算構造を新しい方法で組み合わせて使用する。
2次元畳み込みニューラルネットワークの畳み込み計算構造に結合する3次元畳み込みニューラルネットワークの畳み込み計算構造は、図4のように図示でき、下記数式2で表される。
Figure 0006979664
このように、前述した3次元畳み込みニューラルネットワークモデルのみを用いる従来の技術は、基本的にパラメータの数が非常に多いためメモリを多く占め、学習させるときに長い時間がかかり、さらには学習されたモデルを使用するときにも計算時間が長い。従って、本実施形態では、3次元畳み込みニューラルネットワークよりもさらに少ない数のパラメータを持つ2次元畳み込みニューラルネットワークを利用して3次元画像データに対して効率の良い学習を行い、画像を解析することができる。
つまり、ディープラーニングアルゴリズム解析部は、3次元画像生成部から受信した複数の2次元データセット(複数の3次元データ)それぞれに対して2次元畳み込みニューラルネットワークを適用し、その適用結果を合わせる過程を含む「仮想3次元深層ニューラルネットワーク」による画像解析結果を導出することができる。
図5は本発明の他の実施形態による仮想3次元深層ニューラルネットワークを利用する画像解析方法のフローチャートである。
図5を参照すると、本実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析方法は、まず、画像解析装置内の画像取得部で特定のグループの2次元画像を撮影位置または時間に基づいて積むステップ(S51)、2次元画像を用いて3次元画像(第1の3次元データ)を生成し、第1の3次元データを回転させた第2の3次元データを生成するステップ(S52)と、複数の3次元画像(第1および第2の3次元データ)それぞれに対して、2次元畳み込みニューラルネットワークを適用し、各3次元画像に対する適用結果を合わせるステップ(S53)と、を含む。
本実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析方法は、一般的な3次元畳み込みニューラルネットワーク方法に比べてさらに少ないパラメータを持つ2次元畳み込みニューラルネットワークを利用して3次元データをさらに効率よく学習し、画像解析に適用することができる。このような方法は、「仮想3次元深層ニューラルネットワーク」による方法と命名できる。
図6は本発明の別の実施形態に係る仮想3次元深層ニューラルネットワークを利用する画像解析装置のブロック図である。
図6を参照すると、本実施形態に係る画像解析装置100は、通信部160、制御部170及びメモリ180を含むことができる。画像解析装置100は、コントローラまたはコンピューティング装置を含んで実現できる。画像解析装置100は、ユーザー、管理者、制御端末などから入力に応じてデータまたは信号を処理した後、その結果を出力するための入出力装置190に接続できる。また、画像解析装置100は、データベースを備えるデータベースシステム200に接続できる。データベースは、解析しようとする画像を提供する装置の識別情報、接続情報及び認証情報のうちの少なくとも一つを含むことができる。
本実施形態において、入出力装置190及びデータベースシステム200は、画像解析装置100に含まれない形態で示されているが、本発明は、そのような構成に限定されず、実現に応じて、入出力装置190およびデータベースシステム200のうちの少なくとも一つをさらに含むように実現できる。
通信部160は、画像解析装置100を通信ネットワークに接続する。通信部160は、ネットワークを介してアクセスするユーザー端末、サーバ、管理者端末などから画像または画像解析に関連する情報或いは信号を受信することができる。
通信部160は、一つ以上の通信プロトコルを支援する1つ以上の有線および/または無線通信サブシステムを含むことができる。有線通信サブシステムは、PSTN(public switched telephone network)、ADSL(Asymmetric Digital Subscriber Line)またはVDSL(Very high−data rate Digital Subscriber Line)ネットワーク、PES(PSTN Emulation Service)のためのサブシステム、IP(internet protocol)マルチメディアサブシステム(IMS)などを含むことができる。無線通信サブシステムは、無線周波数(radio frequency、RF)受信機、RF送信機、RF送受信機、光(例えば、赤外線)受信機、光送信機、光送受信機、またはこれらの組み合わせを含むことができる。
無線ネットワークは、基本的にWi−Fiを指すが、これに限定されない。本実施形態において、通信部160は、様々な無線ネットワーク、例えば、GSM(登録商標)(Global System for Mobile Communication)、EDGE(Enhanced Data GSM(登録商標)(Environment)、CDMA(Code Division Multiple Access)、W−CDMA(W−Code Division Multiple Access)、LTE(Long Term Evolution)、LET−A(LET−Advanced)、OFDMA(Orthogonal Frequency Division Multiple Access)、WiMax、Wi−Fi(Wireless Fidelity)、及びBluetooth(登録商標)などから選択される少なくとも一つを支援するように実現できる。
制御部170は、内蔵メモリ或いはメモリ180に格納されるソフトウェアモジュールまたはプログラムを行って画像解析方法を実現することができる。制御部170は、例えば、プロセッサと呼ばれることもあり、図5に示した一連の手続きを行うことができる。
制御部170は、少なくとも一つの中央処理装置(CPU)またはコアを含むプロセッサやマイクロプロセッサで実現できる。中央処理装置またはコアは、処理する命令語を格納するレジスタ(register)と、比較、判断、演算を担当する演算論理装置(arithmetic logical unit、ALU)と、命令語の解釈と実行のためにCPUを内部的に制御する制御ユニット(control unit)と、これらを接続する内部バスなどを備えることができる。中央処理装置またはコアは、MCU(micro control unit)と周辺装置(外部拡張装置のための集積回路)が一緒に配置されるSOC(system on chip)で実現できるが、これに限定されない。
また、制御部170は、一つ以上のデータプロセッサ、イメージプロセッサまたはコーデック(CODEC)を含むことができるが、これに限定されない。制御部170は、周辺装置インターフェースとメモリインターフェースを備えることができる。周辺装置インターフェースは、制御部170と入出力装置190などの入出力システムまたは他の周辺装置とを接続し、メモリインターフェースは、制御部170とメモリ180とを接続することができる。
メモリ180は、仮想3次元深層ニューラルネットワークを利用して画像を解析するためのソフトウェアモジュールを格納することができる。ソフトウェアモジュールは、図5のステップ(S51乃至S53)をそれぞれ行う第1モジュール乃至第3モジュールを含むことができる。
前述したメモリ180は、不揮発性ランダムアクセスメモリ(non−volatile RAM、NVRAM)、代表的な揮発性メモリであるDRAM(dynamic random access memory)などの半導体メモリ、ハードディスクドライブ(hard disk drive、HDD)、光ストレージ装置、フラッシュメモリなどで実現できる。そして、メモリ180は、仮想3次元深層ニューラルネットワークを利用して画像を解析するためのソフトウェアモジュールの他に、オペレーティングシステム、プログラム、命令セットなどを格納することができる。
一方、本実施形態に係る画像解析方法は、様々なコンピュータ手段を介して実行できるプログラム命令形態で実現され、コンピュータ可読媒体に記録できる。コンピュータ可読媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。コンピュータ可読媒体に記録されるプログラム命令は、本発明のために特別に設計され構成されたもの、またはコンピュータソフトウェアの当業者に公知になって使用可能なものであり得る。
コンピュータ可読媒体の例には、ROM、RAM、フラッシュメモリ(flash memory)などのようにプログラム命令を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラ(compiler)によって作られるような機械語コードだけでなく、インタプリター(interpreter)などを用いてコンピュータによって実行できる高級言語コードを含む。上述したハードウェア装置は、本発明の動作を行うために少なくとも一つのソフトウェアモジュールで作動するように構成でき、その逆も同様である。
以上のように、本実施形態では、3次元画像データを解析するための深層ニューラルネットワークの構造を構成する方法を提供する。本実施形態に係る仮想3次元深層ニューラルネットワークの構造は、入力された医療画像から疾病の診断を下したり、病変の位置を見付けたり、ビデオからヒトの行動を認識したりするなどの3次元画像データの解析に活用できる。
以上、本発明の好適な実施形態を参照して説明したが、当該技術分野における熟練した当業者は、下記特許請求の範囲に記載された本発明の思想及び領域から逸脱することなく、本発明を多様に修正及び変更させることができることが理解できるだろう。

Claims (5)

  1. 複数の2次元画像データを所定の順に積む画像取得部と、
    前記画像取得部からの積んだ形態の複数の2次元画像データに対する互いに異なる形態の複数の情報に基づいて複数の3次元データを生成する3次元画像生成部と、
    前記3次元画像生成部からの複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、前記複数の3次元データに対する2次元畳み込みニューラルネットワークの適用結果を合わせるディープラーニングアルゴリズム解析部と、を含
    前記3次元画像生成部は、前記複数の3次元データを生成する前に、前記複数の2次元画像データのそれぞれに対してゼロ平均(zero−mean)または単位分散(unit−variance)演算を行う、仮想3次元深層ニューラルネットワークを利用する画像解析装置。
  2. 前記互いに異なる形態の複数の情報は、前記積んだ2次元画像データの時間または位置による動きの変化または模様の変化に対応するパターンを認識する情報を含む、請求項1に記載の仮想3次元深層ニューラルネットワークを利用する画像解析装置。
  3. 前記ディープラーニングアルゴリズム解析部は、前記複数の3次元データに対する前記2次元畳み込みニューラルネットワークの適用結果を畳み込み層(convolutional layer)、完全接続層(fully−connected layer)、出力層(output layer)、及び最終結果の平均を出す判定レベル融合(decision level fusion)のうちのいずれかで合わせる、請求項1に記載の仮想3次元深層ニューラルネットワークを利用する画像解析装置。
  4. 画像取得部で、複数の2次元画像データを所定の順に積むステップと、
    3次元画像生成部で、積んだ形態の前記複数の2次元画像データに対する互いに異なる形態の複数の情報に基づいて複数の3次元データを生成するステップと、
    ディープラーニングアルゴリズム解析部で、前記複数の3次元データのそれぞれに対して2次元畳み込みニューラルネットワークを適用し、前記複数の3次元データに対する2次元畳み込みニューラルネットワークの適用結果を合わせるステップと、を含
    前記生成するステップは、前記複数の3次元データを生成する前に、前記複数の2次元画像データのそれぞれに対してゼロ平均(zero−mean)または単位分散(unit−variance)演算を行う、
    仮想3次元深層ニューラルネットワークを利用する画像解析方法。
  5. 前記合わせるステップは、前記複数の3次元データに対する前記2次元畳み込みニューラルネットワークの適用結果を畳み込み層(convolutional layer)、完全接続層(fully−connected layer)、出力層(output layer)、及び最終結果の平均を出す判定レベル融合(decision level fusion)のうちのいずれかで合わせる、請求項に記載の仮想3次元深層ニューラルネットワークを利用する画像解析方法。
JP2019552542A 2017-03-24 2018-03-23 仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法 Active JP6979664B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0037958 2017-03-24
KR20170037958 2017-03-24
PCT/KR2018/003404 WO2018174623A1 (ko) 2017-03-24 2018-03-23 가상 3차원 심층 신경망을 이용하는 영상 분석 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2020513124A JP2020513124A (ja) 2020-04-30
JP6979664B2 true JP6979664B2 (ja) 2021-12-15

Family

ID=63585872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552542A Active JP6979664B2 (ja) 2017-03-24 2018-03-23 仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法

Country Status (6)

Country Link
US (1) US10970520B1 (ja)
EP (1) EP3605472A4 (ja)
JP (1) JP6979664B2 (ja)
KR (1) KR102061408B1 (ja)
CN (1) CN110574077B (ja)
WO (1) WO2018174623A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018204917A1 (en) 2017-05-05 2018-11-08 Ball Aerospace & Technologies Corp. Spectral sensing and allocation using deep machine learning
WO2019219968A1 (en) * 2018-05-18 2019-11-21 Deepmind Technologies Limited Visual speech recognition by phoneme prediction
KR102107182B1 (ko) * 2018-10-23 2020-05-06 전남대학교 산학협력단 손 제스처 인식 시스템 및 방법
KR102250163B1 (ko) * 2018-11-23 2021-05-10 네이버웹툰 유한회사 딥러닝 기술을 이용하여 비디오 영상을 3d 비디오 영상으로 변환하는 방법 및 장치
US11893681B2 (en) 2018-12-10 2024-02-06 Samsung Electronics Co., Ltd. Method for processing two-dimensional image and device for executing method
RU2703327C1 (ru) * 2018-12-10 2019-10-16 Самсунг Электроникс Ко., Лтд. Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
KR102263005B1 (ko) * 2019-01-15 2021-06-08 포항공과대학교 산학협력단 동적으로 3d cnn을 이용하는 고속 영상 인식 방법 및 장치
KR102263017B1 (ko) * 2019-01-15 2021-06-08 포항공과대학교 산학협력단 3d cnn을 이용한 고속 영상 인식 방법 및 장치
US11851217B1 (en) * 2019-01-23 2023-12-26 Ball Aerospace & Technologies Corp. Star tracker using vector-based deep learning for enhanced performance
US11412124B1 (en) 2019-03-01 2022-08-09 Ball Aerospace & Technologies Corp. Microsequencer for reconfigurable focal plane control
CN111988666B (zh) * 2019-05-23 2022-04-26 阿里巴巴集团控股有限公司 视频检测、3d卷积与映射方法、设备及存储介质
US11303348B1 (en) 2019-05-29 2022-04-12 Ball Aerospace & Technologies Corp. Systems and methods for enhancing communication network performance using vector based deep learning
US11488024B1 (en) 2019-05-29 2022-11-01 Ball Aerospace & Technologies Corp. Methods and systems for implementing deep reinforcement module networks for autonomous systems control
KR102081854B1 (ko) 2019-08-01 2020-02-26 전자부품연구원 3d edm을 이용한 수어 또는 제스처 인식 방법 및 장치
US11828598B1 (en) 2019-08-28 2023-11-28 Ball Aerospace & Technologies Corp. Systems and methods for the efficient detection and tracking of objects from a moving platform
KR102219364B1 (ko) * 2019-09-19 2021-02-25 주식회사 싸인텔레콤 영상감지장치 기반의 버스정류장 조명제어 시스템
TWI730452B (zh) * 2019-10-16 2021-06-11 逢甲大學 立體類神經網路系統
KR102166835B1 (ko) 2019-10-28 2020-10-16 주식회사 루닛 신경망 학습 방법 및 그 장치
KR102581941B1 (ko) * 2019-12-27 2023-09-22 권세기 딥러닝을 이용한 반려견의 입마개 착용 여부 감시 시스템 및 방법
US11830227B2 (en) 2020-05-12 2023-11-28 Lunit Inc. Learning apparatus and learning method for three-dimensional image
US11276249B2 (en) 2020-05-14 2022-03-15 International Business Machines Corporation Method and system for video action classification by mixing 2D and 3D features
CN111612689B (zh) * 2020-05-28 2024-04-05 上海联影医疗科技股份有限公司 医学图像处理方法、装置、计算机设备和可读存储介质
US20210398338A1 (en) * 2020-06-22 2021-12-23 Nvidia Corporation Image generation using one or more neural networks
KR102453834B1 (ko) * 2020-07-15 2022-10-11 한국로봇융합연구원 다수의 열화상 및 영상 카메라의 출력 정보를 심층신경망 모델의 입력데이터로 구조화하기 위한 방법
CN111985618B (zh) * 2020-08-14 2024-03-05 杭州海康威视数字技术股份有限公司 3d卷积神经网络在神经网络处理器上的处理方法和装置
KR102505994B1 (ko) * 2020-09-28 2023-03-07 (주)제이엘케이 경량 3차원 볼륨 데이터 획득 시스템 및 방법
KR102575224B1 (ko) * 2021-01-07 2023-09-08 충북대학교 산학협력단 가변 합성곱 신경망을 이용한 객체 검출 시스템 및 그 방법
KR20230027948A (ko) 2021-08-20 2023-02-28 선문대학교 산학협력단 이미지 초고해상도를 위한 컨볼루션 신경망 시스템
KR20230027949A (ko) 2021-08-20 2023-02-28 선문대학교 산학협력단 초고해상도 컨볼루션 신경망 시스템의 연산량 감소 장치 및 방법

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105838A (ja) 1998-09-29 2000-04-11 Toshiba Corp 画像表示方法及び画像処理装置
JP2000293704A (ja) 1999-04-02 2000-10-20 Kazuo Yamada 3次元データ表示装置及び3次元データ表示方法並びに情報記録媒体
JP2010051691A (ja) 2008-08-29 2010-03-11 Shimadzu Corp 超音波診断装置
JP2010072910A (ja) * 2008-09-18 2010-04-02 Nippon Telegr & Teleph Corp <Ntt> 顔の3次元モデル生成装置、顔の3次元モデル生成方法および顔の3次元モデル生成プログラム
US8866845B2 (en) * 2010-03-10 2014-10-21 Empire Technology Development Llc Robust object recognition by dynamic modeling in augmented reality
US11094137B2 (en) * 2012-02-24 2021-08-17 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
SG11201604981UA (en) 2013-12-19 2016-07-28 Avigilon Fortress Corp System and method for identifying faces in unconstrained media
US9898804B2 (en) * 2014-07-16 2018-02-20 Samsung Electronics Co., Ltd. Display driver apparatus and method of driving display
US9715642B2 (en) * 2014-08-29 2017-07-25 Google Inc. Processing images using deep neural networks
US9928410B2 (en) 2014-11-24 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognizer
KR20160061856A (ko) 2014-11-24 2016-06-01 삼성전자주식회사 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
KR102276339B1 (ko) 2014-12-09 2021-07-12 삼성전자주식회사 Cnn의 근사화를 위한 학습 장치 및 방법
KR101719278B1 (ko) 2015-04-14 2017-04-04 (주)한국플랫폼서비스기술 비주얼 콘텐츠기반 영상 인식을 위한 딥러닝 프레임워크 및 영상 인식 방법
GB2543893A (en) 2015-08-14 2017-05-03 Metail Ltd Methods of generating personalized 3D head models or 3D body models
US11425866B2 (en) * 2015-11-03 2022-08-30 Keith Charles Burden Automated pruning or harvesting system for complex morphology foliage
CN105787439B (zh) * 2016-02-04 2019-04-05 广州新节奏智能科技股份有限公司 一种基于卷积神经网络的深度图像人体关节定位方法
US9836820B2 (en) * 2016-03-03 2017-12-05 Mitsubishi Electric Research Laboratories, Inc. Image upsampling using global and local constraints
US11055063B2 (en) * 2016-05-02 2021-07-06 Marvell Asia Pte, Ltd. Systems and methods for deep learning processor
CN106407903A (zh) * 2016-08-31 2017-02-15 四川瞳知科技有限公司 基于多尺度卷积神经网络的实时人体异常行为识别方法
US10282918B2 (en) * 2016-09-20 2019-05-07 Siemens Healthcare Gmbh Two-dimensional cinematic medical imaging in color based on deep learning
US10460511B2 (en) * 2016-09-23 2019-10-29 Blue Vision Labs UK Limited Method and system for creating a virtual 3D model
HK1224513A (zh) * 2016-10-14 2017-08-18 萬維數碼有限公司 通過機器學習技術改進 的自動轉換質量的方法
JP2018067154A (ja) * 2016-10-19 2018-04-26 ソニーセミコンダクタソリューションズ株式会社 演算処理回路および認識システム
US10176551B2 (en) * 2017-04-27 2019-01-08 Apple Inc. Configurable convolution engine for interleaved channel data
US11195280B2 (en) * 2017-06-08 2021-12-07 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Progressive and multi-path holistically nested networks for segmentation
CN107730503B (zh) * 2017-09-12 2020-05-26 北京航空航天大学 三维特征嵌入的图像对象部件级语义分割方法与装置
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
EP3474192A1 (en) * 2017-10-19 2019-04-24 Koninklijke Philips N.V. Classifying data
US10762637B2 (en) * 2017-10-27 2020-09-01 Siemens Healthcare Gmbh Vascular segmentation using fully convolutional and recurrent neural networks
US11636668B2 (en) * 2017-11-10 2023-04-25 Nvidia Corp. Bilateral convolution layer network for processing point clouds
US10824862B2 (en) * 2017-11-14 2020-11-03 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
US10552664B2 (en) * 2017-11-24 2020-02-04 International Business Machines Corporation Image feature classification and localization using discriminative representations for robotic surgical control
US11132797B2 (en) * 2017-12-28 2021-09-28 Topcon Corporation Automatically identifying regions of interest of an object from horizontal images using a machine learning guided imaging system
CN108198145B (zh) * 2017-12-29 2020-08-28 百度在线网络技术(北京)有限公司 用于点云数据修复的方法和装置
KR102106694B1 (ko) * 2018-05-17 2020-05-04 한국과학기술원 뉴럴 네트워크를 이용하는 영상 처리 장치 및 상기 장치가 수행하는 방법
US11234666B2 (en) * 2018-05-31 2022-02-01 Canon Medical Systems Corporation Apparatus and method for medical image reconstruction using deep learning to improve image quality in position emission tomography (PET)
CN110163048B (zh) * 2018-07-10 2023-06-02 腾讯科技(深圳)有限公司 手部关键点的识别模型训练方法、识别方法及设备
US10297070B1 (en) * 2018-10-16 2019-05-21 Inception Institute of Artificial Intelligence, Ltd 3D scene synthesis techniques using neural network architectures
US11436743B2 (en) * 2019-07-06 2022-09-06 Toyota Research Institute, Inc. Systems and methods for semi-supervised depth estimation according to an arbitrary camera

Also Published As

Publication number Publication date
US10970520B1 (en) 2021-04-06
WO2018174623A1 (ko) 2018-09-27
EP3605472A1 (en) 2020-02-05
KR102061408B1 (ko) 2019-12-31
EP3605472A4 (en) 2020-12-23
KR20180108501A (ko) 2018-10-04
US20210103716A1 (en) 2021-04-08
CN110574077B (zh) 2023-08-01
CN110574077A (zh) 2019-12-13
JP2020513124A (ja) 2020-04-30

Similar Documents

Publication Publication Date Title
JP6979664B2 (ja) 仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法
Pavllo et al. 3d human pose estimation in video with temporal convolutions and semi-supervised training
Hu et al. Learning semantic segmentation of large-scale point clouds with random sampling
Afza et al. A framework of human action recognition using length control features fusion and weighted entropy-variances based feature selection
Li et al. SiamVGG: Visual tracking using deeper siamese networks
Jiang et al. Skeleton-aware 3d human shape reconstruction from point clouds
JP7490141B2 (ja) 画像検出方法、モデルトレーニング方法、画像検出装置、トレーニング装置、機器及びプログラム
JP6334735B2 (ja) エッジベクトルを利用した画像特徴検出
CN112308200B (zh) 神经网络的搜索方法及装置
Cao et al. 3D aided duet GANs for multi-view face image synthesis
Wang et al. Self-supervised multiscale adversarial regression network for stereo disparity estimation
Wang et al. Laplacian pyramid adversarial network for face completion
WO2011112368A2 (en) Robust object recognition by dynamic modeling in augmented reality
CN110023989B (zh) 一种素描图像的生成方法及装置
US20220414821A1 (en) Systems and methods for point cloud registration
JP2023519012A (ja) 画像処理方法及び装置
CN110738103A (zh) 活体检测方法、装置、计算机设备和存储介质
JP2021136012A (ja) 位相差を使用するライブネス検出方法及び装置
Wen et al. Point primitive transformer for long-term 4D point cloud video understanding
JP2021096850A (ja) 視差推定システムと方法、電子機器及びコンピュータ可読記憶媒体
CN114419732A (zh) 基于注意力机制优化的HRNet人体姿态识别方法
ABAWATEW et al. Attention augmented residual network for tomato disease detection andclassification
Shi et al. JRA-Net: Joint representation attention network for correspondence learning
CN116758212A (zh) 基于自适应去噪算法的3d重建方法、装置、设备及介质
Tran et al. Dynamic hand gesture recognition from multi-modal streams using deep neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R150 Certificate of patent or registration of utility model

Ref document number: 6979664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150