JP7092016B2 - 画像処理装置、方法、及びプログラム - Google Patents

画像処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP7092016B2
JP7092016B2 JP2018233709A JP2018233709A JP7092016B2 JP 7092016 B2 JP7092016 B2 JP 7092016B2 JP 2018233709 A JP2018233709 A JP 2018233709A JP 2018233709 A JP2018233709 A JP 2018233709A JP 7092016 B2 JP7092016 B2 JP 7092016B2
Authority
JP
Japan
Prior art keywords
image
resolution
label
low
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018233709A
Other languages
English (en)
Other versions
JP2020095526A (ja
Inventor
俊介 塚谷
和彦 村崎
慎吾 安藤
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018233709A priority Critical patent/JP7092016B2/ja
Priority to PCT/JP2019/048008 priority patent/WO2020121996A1/ja
Priority to US17/413,429 priority patent/US20220058807A1/en
Publication of JP2020095526A publication Critical patent/JP2020095526A/ja
Application granted granted Critical
Publication of JP7092016B2 publication Critical patent/JP7092016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、方法、及びプログラムに係り、特に、画像のラベルを識別するための画像処理装置、方法、及びプログラムに関する。
幅広い分野において、画像からの対象領域を抽出したいという要求がある。
例えば、画像から画素単位で人物や自動車といったオブジェクトクラスのラベルを付与する、セマンティックセグメンテーションという手法が存在する(非特許文献1参照)。
非特許文献1によるセマンティックセグメンテーションの手法では、正解ラベルを持つ画像データセットを畳み込みニューラルネットワークに学習させて学習済みモデルを生成する。そして、処理を行いたい画像を学習済みモデルに入力することで、出力として画素単位でオブジェクトクラスのラベルが割り振られたラベル画像を得ることができる。
J. Long, E. Shelhamer, and T. Darrell, "Fully convolutional networks for semantic segmentation," in Proc. of IEEE CVPR, 2015.
上記の手法では次のような問題点がある。
学習済みモデルが推定するラベルの精度は、学習に用いる画像データセットに依存する。オブジェクトクラスを推定するには画像中のオブジェクトの位置や大きさといった構造情報が重要となるが、畳み込みニューラルネットワークは拡大縮小という幾何学的変形に対する不変性を持たない性質がある。よって学習に用いる画像データセットに存在しないような高い解像度の画像を入力した場合、オブジェクトクラスの推定が失敗してしまう。
上記の問題を解決するため、学習に用いる画像データセットに入力として想定される解像度を持つ画像を含めて学習する方法が考えられるが、画像データセットの構築や再学習のコストが高く、容易ではないという課題がある。
また、学習に用いる画像データセットの解像度まで入力画像の解像度を落とす方法も考えられるが、本来の入力画像が高い解像度で撮影されているのに対して認識結果の解像度が低く、低画質なものとなってしまうという課題もある。
本発明は、上記事情を鑑みて成されたものであり、学習データに用いていない解像度の画像についても精度よくラベルを識別できる画像処理装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る画像処理装置は、入力画像と、前記入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とに基づいて、前記入力画像と、前記学習用画像に対応する解像度である低解像画像との画素の対応関係に関する複数のシフト量の各々について、前記シフト量を用いて前記入力画像から低解像度画像の各々を生成し、生成した前記低解像度画像の各々と前記低解像度画像の生成に用いた前記シフト量の各々とを出力するダウンサンプリング部と、前記学習済みモデルに前記低解像度画像の各々を入力し、前記低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力するセマンティックセグメンテーション処理部と、前記低解像度画像の生成に用いた前記シフト量の各々と、前記低解像度ラベル画像の各々とに基づいて、前記入力画像の各画素のラベルを求めたラベル画像を出力するアップサンプリング部と、を含んで構成されている。
また、第1の発明に係る画像処理装置において、前記アップサンプリング部は、前記低解像度ラベル画像ごとに、前記入力画像に対して、前記シフト量に応じて前記低解像度ラベル画像を割り当てた結果に基づいて、前記入力画像の各画素について、前記低解像度ラベル画像の各画素との重なりの割合に応じた各ラベルのスコアを付与した個別のラベル画像の各々を算出し、各画素について、前記個別のラベル画像の各々の前記画素について付与された各ラベルのスコアを統合して前記画素のラベルを決定することにより前記ラベル画像を出力するようにしてもよい。
第2の発明に係る画像処理方法は、ダウンサンプリング部が、入力画像と、前記入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とに基づいて、前記入力画像と、前記学習用画像に対応する解像度である低解像画像との画素の対応関係に関する複数のシフト量の各々について、前記シフト量を用いて前記入力画像から低解像度画像の各々を生成し、生成した前記低解像度画像の各々と前記低解像度画像の生成に用いた前記シフト量の各々とを出力するステップと、セマンティックセグメンテーション処理部が、前記学習済みモデルに前記低解像度画像の各々を入力し、前記低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力するステップと、アップサンプリング部が、前記低解像度画像の生成に用いた前記シフト量の各々と、前記低解像度ラベル画像の各々とに基づいて、前記入力画像の各画素のラベルを求めたラベル画像を出力するステップと、を含んで実行することを特徴とする。
また、第2の発明に係る画像処理方法において、前記アップサンプリング部が処理するステップは、前記低解像度ラベル画像ごとに、前記入力画像に対して、前記シフト量に応じて前記低解像度ラベル画像を割り当てた結果に基づいて、前記入力画像の各画素について、前記低解像度ラベル画像の各画素との重なりの割合に応じた各ラベルのスコアを付与した個別のラベル画像の各々を算出し、各画素について、前記個別のラベル画像の各々の前記画素について付与された各ラベルのスコアを統合して前記画素のラベルを決定することにより前記ラベル画像を出力するようにしてもよい。
第3の発明に係るプログラムは、コンピュータを、第1の発明に記載の画像処理装置の各部として機能させるためのプログラムである。
本発明の画像処理装置、方法、及びプログラムによれば、学習データに用いていない解像度の画像についても精度よくラベルを識別できる、という効果が得られる。
本発明の実施の形態に係る画像処理装置の構成を示すブロック図である。 本発明の実施の形態に係る画像処理装置における画像処理ルーチンを示すフローチャートである。 ダウンサンプリングの処理の詳細を示すフローチャートである。 アップサンプリングの処理の詳細を示すフローチャートである。 入力画像(高解像度画像)と低解像度画像との位置合わせの一例を示す図である。 低解像度ラベル画像と入力画像との位置合わせの一例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
まず、本発明の実施の形態の概要を説明する。
上記の課題を解決するため、本発明では学習済みモデルに適応しない高解像の入力画像の入力に対して、解像度を学習済みモデルに適応する解像度まで落とした低解像度画像を複数枚生成し、それぞれの低解像度画像を学習済みモデルに入力して低解像度ラベル画像を出力する。
低解像度ラベル画像ごとに、低解像度のラベルを高解像の入力画像に割り振ることで、入力画像と同じ解像度のラベル画像が得られる。
任意のセマンティックセグメンテーション手法に応用が可能であり、学習済みモデルをそのまま利用可能であることから、学習用画像データセットの再収集や再学習が不要である。
本発明の実施の形態の手法によって学習済みのセマンティックセグメンテーションモデルを用いて、想定よりも高い解像度の画像のラベルを推定することができる。これによって認識に用いるカメラの更改に応じてモデルを再学習するなどの手間を省くことができ、また多様な解像度が入力となるシーンにおいて入力解像度に応じた精細な認識結果を提示することができる。
<本発明の実施の形態に係る画像処理装置の構成>
次に、本発明の実施の形態に係る画像処理装置の構成について説明する。図1に示すように、本発明の実施の形態に係る画像処理装置100は、CPUと、RAMと、後述する画像処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この画像処理装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。
入力部10は、ラベルを付与する対象となる入力画像と、入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とを入力として受け付ける。
演算部20は、ダウンサンプリング部30と、セマンティックセグメンテーション部32と、アップサンプリング部34とを含んで構成されている。各処理部の処理の詳細については作用の説明において後述する。
ダウンサンプリング部30は、入力部10で受け付けた入力画像と、入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデル(図示省略)の学習に用いた学習用画像の解像度とに基づいて、複数のシフト量の各々について、シフト量を用いて入力画像から低解像度画像の各々を生成する。シフト量は、入力画像と、学習用画像に対応する解像度である低解像画像との画素の対応関係を表す。ダウンサンプリング部30は、生成した低解像度画像の各々と低解像度画像の生成に用いたシフト量の各々とを出力する。
セマンティックセグメンテーション部32は、学習済みモデルに低解像度画像の各々を入力し、低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力する。
アップサンプリング部34は、低解像度画像の生成に用いたシフト量の各々と、低解像度ラベル画像の各々とに基づいて、入力画像の各画素のラベルを求めたラベル画像を出力部50に出力する。
<本発明の実施の形態に係る画像処理装置の作用>
次に、本発明の実施の形態に係る画像処理装置100の作用について説明する。入力部10においてラベルを付与する対象となる入力画像と、入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とを受け付けると、画像処理装置100は、図2に示す画像処理ルーチンを実行する。
ステップS100では、ダウンサンプリング部30は、入力部10で受け付けた入力画像と、入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデル(図示省略)の学習に用いた学習用画像の解像度とに基づいて、複数のシフト量の各々について、シフト量を用いて入力画像から低解像度画像の各々を生成する。ダウンサンプリング部30は、生成した低解像度画像の各々と低解像度画像の生成に用いたシフト量の各々とを出力する。
ステップS102では、セマンティックセグメンテーション部32は、学習済みモデルに低解像度画像の各々を入力し、低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力する。
ステップS104では、アップサンプリング部34は、低解像度画像の生成に用いたシフト量の各々と、低解像度ラベル画像の各々とに基づいて、入力画像の各画素のラベルを求めたラベル画像を出力部50に出力する。
ステップS100のダウンサンプリング部30の処理の詳細を図3のフローチャートを参照して説明する。
ステップS1011では、入力画像I、入力画像Iの解像度(X×Y)、及び上記ステップS102で用いる学習済みモデルのパラメータが対象とする解像度(X×Y)を入力する。学習済みモデルのパラメータが対象とする解像度には、学習時に用いた画像データベースの学習用画像に用いられた画像解像度を選択する。
ステップS1012では、入力画像の解像度(X×Y)と学習済みモデルのパラメータが対象とする解像度(X×Y)とから、ダウンサンプリング処理で生成する低解像度画像の生成枚数を算出する。低解像度画像から入力画像の情報量を復元するためには、
Figure 0007092016000001

枚以上の生成が必要となるため、上記の枚数を低解像度画像の生成枚数として算出する。
ステップS1013では、回数vをv=1と設定する。
ステップS1014では、入力画像と低解像画像との画素の対応関係に関するサブピクセルオーダーでのシフト量(s、t)をランダムに設定する。シフトによる低解像度画像の画素値は周期的に変化するため、必要十分なシフト量となるように、シフト量の範囲は、以下のように定める。
Figure 0007092016000002
ステップS1015では、ステップS1014で設定したシフト量に基づいて、以下(1)式により、入力画像Iをサブピクセル単位でシフトした結果から、低解像度画像Iの画素値p(i,j)を計算し、低解像度画像Iを生成する。画像空間Ωにおいてp(i,j)は入力画像Iの画素値p(m、n)を用いて以下(1)式で表すことができる。
Figure 0007092016000003

Figure 0007092016000004

・・・(1)
ステップS1016では、回数vがステップS1012で算出した生成回数に達したかを判定する。生成回数に達していればステップS1018へ移行し、生成回数に達していなければステップS1017でv=v+1とカウントアップしてステップS1014に戻って処理を繰り返す。
ステップS1018では、ステップS1015によって得られた低解像度画像I、低解像度画像Iに対応するシフト量(s、t)、及び入力画像の解像度(X×Y)を出力する。
図5は、上記ステップS1015におけるサブピクセル単位のシフトによって入力画像をシフトさせたときの低解像度画像との画素の対応関係の一例を示す図であり、太枠が低解像度画像の画素、点線が入力画像の画素を表す。
次に、ステップS104のアップサンプリング部34の処理の詳細を図4のフローチャートを参照して説明する。
ステップS1031では、入力画像Iの解像度(X×Y)、複数枚の低解像度ラベル画像L、及び複数枚の低解像度ラベル画像Lに対応するシフト量(s、t)を入力する。
ステップS1032では、生成したすべての低解像度ラベル画像Lと対応するシフト量(s、t)を用いて、低解像度ラベル画像Lと入力画像Iとの位置合わせをサブピクセル単位で行い、解像度(X×Y)の個別のラベル画像Llhを算出する。個別のラベル画像Llhの算出では、入力画像Iの画素ごとに、位置合わせの結果、当該画素と重複する低解像度ラベル画像Lの各画素のラベルのスコアを、当該画素と重複する低解像度ラベル画像Lの各画素が重なる割合に応じて重み付き平均したスコアを、各ラベルについて算出し、個別のラベル画像Llhの該当する画素に割り当てることで行う。
図6は、上記ステップS1032におけるサブピクセル単位の低解像度ラベル画像Lと入力画像Iとの位置合わせの一例を示す図であり、太枠が低解像度ラベル画像Lの画素、点線が入力画像Iの画素を表す。例えば、入力画像Iの一つの画素に着目して低解像度ラベル画像Lの画素を重ねたときにa、b、c、及びdの領域ができるとする。この場合に、画素が重なる割合とは、a、b、c、及びdの領域におけるaの領域の割合のことである。
ステップS1033では、すべての個別のラベル画像Llhを統合し、各画素についてラベルを決定し、入力画像Iに対するラベル画像Lを生成する。ラベルの決定は、個別のラベル画像Llhの画素ごとに、当該画素に割り当てられたスコアが最も高いラベルを信頼度が高いラベルと判断し、当該画素のラベルとして採用することで行う。なお、スコアによる信頼度ではなく、すべての個別のラベル画像Llhで、当該画素において頻度が最も多いラベルを採用するようにしてもよい。
ステップS1034では、生成されたラベル画像Lを出力部50に出力する。
以上のようにアップサンプリング部34は、低解像度ラベル画像Lごとに、入力画像Iに対して、シフト量(s、t)に応じて低解像度ラベル画像Lを割り当てた結果に基づいて、入力画像Iの各画素について、低解像度ラベル画像の各画素との重なりの割合に応じた各ラベルのスコアを付与した個別のラベル画像Llhを算出する。そして、各画素について、個別のラベル画像Llhの画素について付与された各ラベルのスコアを統合して画素のラベルを決定することによりラベル画像Lを出力する。
以上説明したように、本発明の実施の形態に係る画像処理装置によれば、学習データに用いていない解像度の画像についても精度よくラベルを識別できる。
このように、学習済みのセマンティックセグメンテーションモデルが想定される解像度よりも高い解像度の入力画像のラベルを推定するために、入力画像の解像度を落として推定したラベル画像を高解像度化することで精細な認識結果を提示する。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
10 入力部
20 演算部
30 ダウンサンプリング部
32 セマンティックセグメンテーション部
34 アップサンプリング部
50 出力部
100 画像処理装置

Claims (5)

  1. 入力画像と、前記入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とに基づいて、前記入力画像と、前記学習用画像に対応する解像度である低解像画像との画素の対応関係に関する複数のシフト量の各々について、前記シフト量を用いて前記入力画像から低解像度画像の各々を生成し、生成した前記低解像度画像の各々と前記低解像度画像の生成に用いた前記シフト量の各々とを出力するダウンサンプリング部と、
    前記学習済みモデルに前記低解像度画像の各々を入力し、前記低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力するセマンティックセグメンテーション処理部と、
    前記低解像度画像の生成に用いた前記シフト量の各々と、前記低解像度ラベル画像の各々とに基づいて、前記入力画像の各画素のラベルを求めたラベル画像を出力するアップサンプリング部と、
    を含む画像処理装置。
  2. 前記アップサンプリング部は、前記低解像度ラベル画像ごとに、前記入力画像に対して、前記シフト量に応じて前記低解像度ラベル画像を割り当てた結果に基づいて、前記入力画像の各画素について、前記低解像度ラベル画像の各画素との重なりの割合に応じた各ラベルのスコアを付与した個別のラベル画像の各々を算出し、各画素について、前記個別のラベル画像の各々の前記画素について付与された各ラベルのスコアを統合して前記画素のラベルを決定することにより前記ラベル画像を出力する請求項1に記載の画像処理装置。
  3. ダウンサンプリング部が、入力画像と、前記入力画像の解像度と、画像の各画素にラベルを付与する学習済みモデルの学習に用いた学習用画像の解像度とに基づいて、前記入力画像と、前記学習用画像に対応する解像度である低解像画像との画素の対応関係に関する複数のシフト量の各々について、前記シフト量を用いて前記入力画像から低解像度画像の各々を生成し、生成した前記低解像度画像の各々と前記低解像度画像の生成に用いた前記シフト量の各々とを出力するステップと、
    セマンティックセグメンテーション処理部が、前記学習済みモデルに前記低解像度画像の各々を入力し、前記低解像度画像の各々の各画素にラベルを付与した低解像度ラベル画像の各々を出力するステップと、
    アップサンプリング部が、前記低解像度画像の生成に用いた前記シフト量の各々と、前記低解像度ラベル画像の各々とに基づいて、前記入力画像の各画素のラベルを求めたラベル画像を出力するステップと、
    を含む画像処理方法。
  4. 前記アップサンプリング部が処理するステップは、前記低解像度ラベル画像ごとに、前記入力画像に対して、前記シフト量に応じて前記低解像度ラベル画像を割り当てた結果に基づいて、前記入力画像の各画素について、前記低解像度ラベル画像の各画素との重なりの割合に応じた各ラベルのスコアを付与した個別のラベル画像の各々を算出し、各画素について、前記個別のラベル画像の各々の前記画素について付与された各ラベルのスコアを統合して前記画素のラベルを決定することにより前記ラベル画像を出力する請求項3に記載の画像処理方法。
  5. コンピュータを、請求項1又は請求項2に記載の画像処理装置の各部として機能させるためのプログラム。
JP2018233709A 2018-12-13 2018-12-13 画像処理装置、方法、及びプログラム Active JP7092016B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018233709A JP7092016B2 (ja) 2018-12-13 2018-12-13 画像処理装置、方法、及びプログラム
PCT/JP2019/048008 WO2020121996A1 (ja) 2018-12-13 2019-12-09 画像処理装置、方法、及びプログラム
US17/413,429 US20220058807A1 (en) 2018-12-13 2019-12-09 Image processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018233709A JP7092016B2 (ja) 2018-12-13 2018-12-13 画像処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020095526A JP2020095526A (ja) 2020-06-18
JP7092016B2 true JP7092016B2 (ja) 2022-06-28

Family

ID=71076887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233709A Active JP7092016B2 (ja) 2018-12-13 2018-12-13 画像処理装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220058807A1 (ja)
JP (1) JP7092016B2 (ja)
WO (1) WO2020121996A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202407640A (zh) * 2022-07-20 2024-02-16 日商索尼半導體解決方案公司 資訊處理裝置、資訊處理方法、及程式
WO2024075162A1 (ja) * 2022-10-03 2024-04-11 日本電信電話株式会社 画像修復装置、画像修復方法、および画像修復プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096489A (ja) 2002-08-30 2004-03-25 Seiko Epson Corp 画像処理装置及びその方法、画像形成装置、並びにコンピュータが読出し可能なプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
TWI668669B (zh) * 2018-05-31 2019-08-11 國立中央大學 物件追蹤系統及方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096489A (ja) 2002-08-30 2004-03-25 Seiko Epson Corp 画像処理装置及びその方法、画像形成装置、並びにコンピュータが読出し可能なプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LONG, Jonathan et al.,Fully Convolutional Networks for Semantic Segmentation,2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [online],2015年10月15日,pp. 3431-3440,[retrieved on 2020.1.24],Retrieved from IEEE Xplore,INSPEC Accession Number: 15524435

Also Published As

Publication number Publication date
JP2020095526A (ja) 2020-06-18
US20220058807A1 (en) 2022-02-24
WO2020121996A1 (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US11182620B2 (en) Method for training a convolutional recurrent neural network and for semantic segmentation of inputted video using the trained convolutional recurrent neural network
CN108876792B (zh) 语义分割方法、装置和系统及存储介质
CN110555433B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
EP3526765B1 (en) Iterative multiscale image generation using neural networks
CN112446383B (zh) 车牌识别方法及装置、存储介质、终端
CN108038409A (zh) 一种行人检测方法
CN111968064B (zh) 一种图像处理方法、装置、电子设备及存储介质
CN109858327B (zh) 一种基于深度学习的字符分割方法
CN110781980B (zh) 目标检测模型的训练方法、目标检测方法及装置
WO2022072940A1 (en) Processing images using self-attention based neural networks
JP7092016B2 (ja) 画像処理装置、方法、及びプログラム
JP2017068608A (ja) 演算装置、方法及びプログラム
JP2020038574A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置
CN111104941B (zh) 图像方向纠正方法、装置及电子设备
CN116071748A (zh) 一种基于频域全局滤波的无监督视频目标分割方法
CN113591528A (zh) 文档矫正方法、装置、计算机设备和存储介质
Zheng et al. Transformer-based hierarchical dynamic decoders for salient object detection
US20190156182A1 (en) Data inference apparatus, data inference method and non-transitory computer readable medium
JP2020038572A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、学習データセットの生成プログラム、学習データセットの生成方法、学習データセット、及び画像認識装置
Zhang et al. Boosting no-reference super-resolution image quality assessment with knowledge distillation and extension
CN114429602A (zh) 语义分割方法、装置、电子设备及存储介质
JP7107544B2 (ja) 情報処理装置、制御方法、及びプログラム
EP3959652A1 (en) Object discovery in images through categorizing object parts
JP7315516B2 (ja) 骨格推定装置及びプログラム
JP2016085694A (ja) 画像処理装置及びその制御方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150