JP2018077786A - 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両 - Google Patents

画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両 Download PDF

Info

Publication number
JP2018077786A
JP2018077786A JP2016220837A JP2016220837A JP2018077786A JP 2018077786 A JP2018077786 A JP 2018077786A JP 2016220837 A JP2016220837 A JP 2016220837A JP 2016220837 A JP2016220837 A JP 2016220837A JP 2018077786 A JP2018077786 A JP 2018077786A
Authority
JP
Japan
Prior art keywords
image
image processing
cnn
unit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016220837A
Other languages
English (en)
Other versions
JP6581068B2 (ja
Inventor
純二 大塚
Junji Otsuka
純二 大塚
琢麿 山本
Takuma Yamamoto
琢麿 山本
三島 直
Sunao Mishima
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016220837A priority Critical patent/JP6581068B2/ja
Priority to US15/677,344 priority patent/US10255663B2/en
Publication of JP2018077786A publication Critical patent/JP2018077786A/ja
Application granted granted Critical
Publication of JP6581068B2 publication Critical patent/JP6581068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】CNNを用いた画像処理をより高精度に実行する。
【解決手段】画像処理装置は、分割部と、生成部と、画像処理部と、を備える。分割部は、第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する。生成部は、複数の領域に含まれる第1の領域の画素の画素値を第1の値に変更した第1の画像を生成する。画像処理部は、第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する。
【選択図】図1

Description

本実施形態は、画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両に関する。
可視光カメラ、赤外線カメラ、および、レーザカメラなどの撮影機器によって得られた画像は、機器自身や外部環境等に起因するノイズによって画質が低下する。この画質低下を低減する方法として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Networks)を用いて、画像のノイズを低減する技術が開示されている。この技術は、人工的にノイズを付加した大量の自然画像を用いて、入力画像からノイズを付加する前の画像を推定する処理をCNNで高精度に学習する。
Chao Dong, Yubin Deng, Chen Change Loy, Xiaoou Tang. Compression Artifacts Reduction by a Deep Convolutional Network, Proc. of International Conference on Computer Vision (ICCV), 2015. Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015. He, Kaiming, et al. "Deep residual learning for image recognition." Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016. Jiwon Kim, Jung Kwon Lee and Kyoung Mu Lee, "Accurate Image Super-Resolution Using Very Deep Convolutional Networks", Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.
しかしながら、従来技術では、画像に含まれるノイズが適切に低減されない場合があった。
実施形態の画像処理装置は、分割部と、生成部と、画像処理部と、を備える。分割部は、第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する。生成部は、複数の領域に含まれる第1の領域の画素の画素値を第1の値に変更した第1の画像を生成する。画像処理部は、第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する。
第1の実施形態の画像処理装置のブロック図。 第1の実施形態における画像処理のフローチャート。 領域分割処理の一例を説明する図。 画像生成処理およびノイズ低減処理の一例を説明する図。 画像生成処理およびノイズ低減処理の一例を説明する図。 ノイズが多い領域の補間処理を画像処理として実行する例を示す図。 領域ごとに異なる第1の値を用いる例を示す図。 第2の実施形態にかかる画像処理装置のブロック図。 第2の実施形態における画像処理のフローチャート。 画像生成処理およびノイズ低減処理の一例を説明する図。 ノイズを低減する領域が重複する例を示す図。 入力画像の領域の画素値を統合する例を示す図。 画像処理装置のハードウェア構成図。 画像処理装置を搭載する車両の構成例を示す図。
以下に添付図面を参照して、この発明にかかる画像処理装置の好適な実施形態を詳細に説明する。
CNNで用いられる畳み込み演算では、注目画素の近傍の画素値の重み付和を出力する処理が、注目画素の位置を移動させながら入力画像に適用される。近傍の画素値に対する重みは、注目画像の位置によらず画像全体で同じ値が用いられる。したがって、畳み込み演算は、入出力の応答が画像内の位置に依存しない。CNNは、このように位置に依存しない畳み込み演算に基づいているため、画像内の位置によって処理を変えることが難しい。このため、従来技術では、画像の領域によって性質の異なるノイズが発生している場合など、画像の領域ごとに異なるノイズ低減処理を行うことが望ましい場合には、一部の領域のノイズが適切に低減されない問題があった。
例えば、レーザの反射光を分析することで距離計測するLIDAR(Light Detection And Ranging)により得られた距離画像(以下、LIDAR距離画像という)のノイズ低減を考える。LIDAR距離画像には、ノイズが多い領域およびノイズが少ないが含まれる。ノイズが多い領域例えば、空および斜面などレーザの反射光が正常に得られない領域は、ノイズが大きな領域となる。レーザの反射光が得られやすい領域は、ノイズが小さい領域である。ノイズが大きな領域は、例えば、SN比(受光されるレーザの反射光(S)の、その他に受光される環境光や回路等のノイズ(N)に対する割合)が小さい画素を多く含む。ノイズが大きな領域は、例えば画素のSN比の平均値が小さい。ノイズが大きな領域は、例えばノイズ誤差が大きい領域である。ノイズが大きな領域は、例えばノイズ頻度が大きい領域である。
入力画像のノイズを適切に低減するためには、ノイズが多いと推定される領域を特定し、領域ごとに適切にノイズ除去の処理をすることが望ましい。例えば、領域ごとに異なるノイズ除去の処理を行う。しかし、位置に依存しない畳み込み演算に基づくCNNでは、領域の特定、および、処理の分岐の2つを同時に学習することが難しい。このため、LIDAR距離画像のノイズ低減処理を学習すると、相対的にノイズが大きいノイズが多い領域のノイズ低減処理に学習が偏り、ノイズが小さいノイズが少ない領域のノイズが十分に低減されない。またノイズが多い領域とノイズが少ない領域の境界は、2つの領域にまたがって畳み込み演算がされるのでぼやけやすい。
(第1の実施形態)
そこで、第1の実施形態の画像処理装置は、入力画像を領域分割し、領域を識別する情報を入力画像に埋めこむために、領域分割結果に基づいて入力画像の1つ以上の特定の領域の値を第1の値に変換して第1の画像を生成する。このようにして領域を識別する情報を埋め込んだ第1の画像に対して、CNNを用いてノイズ低減などの画像処理を実行する。これにより、画像処理をより高精度に実行することができる。例えばノイズ低減処理を実行する場合、特定の領域のノイズをより高精度に低減することが可能となる。
なお、以下の説明の一部では入力画像はLIDAR距離画像としているが、入力画像はLIDAR距離画像に限られるものではない。入力画像は、LIDAR以外の方法で得られた距離画像であってもよい。距離画像とは、画素が距離を示す値を有する画像である。また、入力画像は、可視光カメラおよび赤外線カメラなどのLIDAR以外の撮影機器により得られた画像でもよい。
図1は、第1の実施形態の画像処理装置100の機能構成の一例を示すブロック図である。図1に示すように、画像処理装置100は、受付部101と、分割部102と、生成部103と、画像処理部104と、記憶部121と、を備えている。
受付部101は、処理対象となる画像の入力を受け付ける。例えばLIDAR距離画像を入力画像とする場合は、受付部101は、LIDARにより距離を測定して距離画像を出力する測定装置から、LIDAR距離画像を受け付ける。測定装置は、画像処理装置の内部および外部のいずれに備えられていてもよい。
記憶部121は、画像処理装置100の各種処理で用いられる各種情報を記憶する。例えば記憶部121は、受け付けられた入力画像を記憶する。
分割部102は、入力画像を複数の領域に分割する。例えば分割部102は、CNN(第1のCNN)を用いて入力画像を複数の領域に分割する。入力画像を複数の領域に分割する手法は、CNNを用いる手法に限られるものではなく、他の任意の手法を適用できる。例えば分割部102は、サポートベクターマシーン(SVM)などのCNN以外の機械学習のモデルを用いる手法、および、画素値または画素値の統計値と閾値との比較結果に応じて領域に分割する手法などを適用してもよい。画素値の統計値は、例えば、矩形および円形などの領域内の画素値の分散および平均値などである。分割部102は、例えば入力画像のうちノイズが多いと推定される領域と他の領域を分割する。
生成部103は、複数の領域に含まれる特定の領域(第1の領域)の画素の画素値を、特定の値(第1の値)に変更した画像(第1の画像)を生成する。第1の値の代わりに、第1の範囲に含まれる値を用いてもよい。
画像処理部104は、生成された画像(第1の画像)に対して分割部102が用いるCNN(第1のCNN)と異なるCNN(第2のCNN)を用いる画像処理を実行して画像(第2の画像)を生成する。画像処理はCNNを用いた画像処理であればどのような処理であってもよい。画像処理部104は、例えば、ノイズ低減処理、超解像処理、および、補間処理などの画像処理を実行する。以下では、主にノイズ低減処理を画像処理として実行する例を説明する。第1のCNNと第2のCNNは、同じ手法であってもよいし異なる手法であってもよい。
なお、受付部101、分割部102、生成部103、および、画像処理部104の機能の一部または全部は、1つの機能部が実現するように構成してもよい。例えば、画像処理部104が、分割部102および生成部103の機能をさらに備えていてもよい。すなわち、画像処理部104が、第1のCNNを用いて入力画像を複数の領域に分割し、複数の領域に含まれる特定の領域(第1の領域)の画素の画素値を特定の値(第1の値)に変更した第1の画像を生成し、第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成してもよい。
受付部101、分割部102、生成部103、および、画像処理部104は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
次に、このように構成された第1の実施形態にかかる画像処理装置100による画像処理について図2を用いて説明する。図2は、第1の実施形態における画像処理の一例を示すフローチャートである。
処理対象となる入力画像は受付部101により受付けられる。まず分割部102が、入力画像に対する領域分割処理を実行する(ステップS101)。領域分割処理では、分割部102には、ノイズを含む入力画像が入力される。また、入力画像の各画素が属する領域を識別する記号であるラベルが、第1のCNNを用いて出力される。第1のCNNは、入力層で入力画像を受け付け、出力層で入力画像の各画素の各ラベルのスコア(距離値がラベルの領域に属する確率・尤度等)を出力する。第1のCNNの入出力構造は、例えば非特許文献2のFCNと同様とすることができる。第1のCNNには、非特許文献2のFCNの他、非特許文献3のResNetを用いることもできるし、認識処理で用いられる他のCNNを用いても構わない。
分割部102は、複数のラベルのうち、入力画像の各画素について第1のCNNの出力したスコアが最も高いラベルを、当該画素のラベルとして与える。ラベルの種類(領域の種類)は、例えば設計者が事前に決めればよい。
図3は、領域分割処理の一例を説明する図である。例えば入力画像301がLIDAR距離画像の場合、分割部102は、空などの物体がないノイズが多い領域(図3の領域A)、斜面などの物体があるノイズが多い領域(図3の領域C)、および、その他のノイズが少ない領域(図3の領域B)の3つの領域に分割してもよい。図3の出力302は、入力画像を分割した3つの領域A、B、Cを模式的に示している。領域A、B、および、Cには、例えば、「ノイズが多い領域(物体なし)」、「ノイズが少ない領域」、および、「ノイズが多い領域(物体あり)」を示すラベルがそれぞれ付与される。
分割方法はこれに限定されず、例えば図3の領域Aおよび領域Cは、ノイズが多い領域として1つラベルで表しても構わない。また、人や道路などの属性、ノイズの強弱、明暗、前景と背景、および、後段の画像処理の必要性の有無など、設計者が定める任意の基準に基づいて分割しても構わない。
第1のCNNは、例えば、各画素が属する領域の正解ラベルを付与した入力画像を用いた学習により事前に作成される。第1のCNNには少なくとも入力画像が入力されるが、入力画像以外の画像をさらに入力してもよい。例えば、LIDAR距離画像のノイズ低減の場合、レーザの反射光の強さを示す反射強度画像や可視光カメラによる撮影画像を新たに加えてもよい。この場合、第1のCNNは、入力画像と入力画像以外の画像を用いた学習により作成されてもよい。分割部102は、このようにして作成された第1のCNNに、入力画像と入力画像以外の画像を入力することにより、入力画像を複数の領域に分割する。
図2に戻り、生成部103は、画像生成処理を実行する(ステップS102)。画像生成処理では、生成部103は、特定のラベルが付与された特定の領域(第1の領域)の画素値を、特定の値(第1の値)に置き換えた画像(第1の画像)を生成する。例えば生成部103は、ノイズが多い領域を示すラベルが付与された領域を特定の領域とし、この領域の画素値を特定の値に置き換えた画像を生成する。特定のラベルは1つであってもよいし、複数であってもよい。特定のラベルが複数の場合、画素値を置き換える特定の値が複数の異なる値であってもよい。
画像処理部104は、第1の画像を入力し、第2のCNNによるノイズ低減処理を実行して画像(第2の画像)を出力する(ステップS103)。ノイズ低減処理では、第1の画像に含まれる1つ以上の領域のノイズが低減された第2の画像が、第2のCNNを用いて出力される。
第2のCNNは、入力層で第1の画像を受けつけ、出力層で第2の画像を出力する。第2のCNNには、例えば、非特許文献1のARCNN、非特許文献4のVDSR、および、VDSRにResNetを組み合わせた構造を用いることができる。画像処理部104は、第2のCNNとして、画像処理で用いられる他のCNNを用いても構わない。第2の画像に領域の情報を第1の値として埋め込むことで、第2のCNNが領域を区別して特定の領域のノイズを低減しやすくすることが可能となる。
図4は、画像生成処理およびノイズ低減処理の一例を説明する図である。画像生成処理で第1の値に置き換えられる領域のラベル(特定のラベル)、第1の値、および、ノイズ低減処理の対象とする領域のラベルは、設計者が事前に決めればよい。
例えば、LIDAR距離画像のノイズ低減の場合、生成部103は、図4のように第1の値を0として、ノイズが多い領域である領域Aと領域Cを0に置き換えることで第1の画像401を生成する。また、画像処理部104は、ノイズが少ない領域のノイズ低減を学習した第2のCNNに第1の画像を入力する。これによりノイズが少ない領域である領域Bのノイズを低減した第2の画像402を出力することができる。
なお、第2のCNNでノイズ低減する領域は複数でもよく、また画素値を第1の値で置き換えた領域が含まれてもよい。例えばノイズが少ない領域である領域Bに囲まれているノイズが多い領域である領域Cは、周囲の画素値から真値を推定可能である。このため、ノイズが少ない領域のノイズ低減とともに領域Cの補間処理を画像処理として実行してもよい。
図5は、このように構成する場合の画像生成処理およびノイズ低減処理の一例を説明する図である。画像処理部104は、ノイズ低減および補間を学習した第2のCNNに第1の画像を入力することにより、ノイズが少ない領域である領域Bのノイズを低減するとともに、領域Cの画素値を補間した第2の画像402bを出力することができる。領域Cがノイズが多い領域であるという情報は、第1の値を入力画像に埋め込むことでCNNに伝達できるため、本来CNNが苦手な分岐処理を実現できる。
図6は、ノイズ低減処理を実行せずノイズが多い領域の補間処理を画像処理として実行する例を示す図である。画像処理部104は、補間を学習した第2のCNNに第1の画像を入力することにより、領域Cの画素値を補間した第2の画像402cを出力することができる。
第1の値は領域ごとに変えてもよいし、0でなくともよい。図7は、領域ごとに異なる第1の値を用いる例を示す図である。生成部103は、例えば領域Aに対して第1の値として0を付与し、領域Bに対して第1の値として0以外の値を付与した第1の画像401dを生成する。画像処理部104は、第2のCNNに第1の画像401dを入力することにより第2の画像402dを出力する。第2の画像402dにおいて、例えばノイズが少ない領域である領域Bのノイズが低減されている。第2の画像402dにおいて、例えばノイズが多い領域である領域Cの画素値が補完されている。第2の画像402dにおいて、例えばノイズが少ない領域である領域Bのノイズが低減され、かつノイズが多い領域である領域Cの画素値が補完されてもよい。
入力画像の画素値の第1の値への置換は、分岐処理に適さないCNNに領域の判別をしやすくさせる情報を与えることに相当する。このため、第1の値は、第2のCNNでノイズを低減する領域に含まれる頻度が少ない値を選ぶとよい。
なお、LIDAR距離画像では、空などのノイズが多い領域は真値が不明である。この領域の仮の距離の正解値を0とすれば、ノイズが多い領域の画素値を第1の値である0で置き換えることで、ノイズが多い領域のノイズが低減できたと考えることができる。従って、追加でノイズ低減を実行する必要はない。
なお、第2のCNNには少なくとも第1の画像が入力されるが、第1の画像以外の画像をさらに入力してもよい。例えば、LIDAR距離画像のノイズ低減の場合、入力画像、反射強度画像、および、可視光カメラによる撮影画像を新たに加えてもよい。この場合、第2のCNNは、第1の画像と第1の画像以外の画像を用いた学習により作成される。画像処理部104は、このようにして作成された第2のCNNに、第1の画像と第1の画像以外の画像を入力することにより画像処理を実行して第2の画像を出力する。
第1のCNNおよび第2のCNNは、ノイズを含む入力画像、ノイズを含まない正解画像、および、入力画像の各画素が属する領域の正解ラベルの組である複数の学習データを用いて学習される。第1のCNNおよび第2のCNNの学習は個別に行うこともできるし、同時に行うこともできる。
個別に学習する場合、第1のCNNは、例えば非特許文献2のように、入力画像を入力した際に出力されるラベルが正解ラベルに近づくほど値が小さくなる誤差関数を最小化することで学習される。誤差関数は、例えば、画像認識で一般に用いられる交差エントロピー誤差関数を用いることができる。誤差関数の最小化には、例えば、勾配降下法、共役勾配法、および、ニュートン法など任意の最小化手法を用いることができる。
第2のCNNの個別学習では、正解ラベル、または、事前に学習した第1のCNNが出力したラベルを用いて入力画像から第1の画像を生成し、例えば非特許文献1のように第1の画像を入力として第2のCNNによって出力される第2の画像が正解画像に近づくほど値が小さくなる誤差関数を最小化する。誤差関数は、例えば平均2乗誤差関数および平均絶対値誤差関数を用いることができる。
第1のCNNと第2のCNNを同時に学習する場合、第1のCNNが出力したラベルと正解ラベルとの誤差を測る誤差関数と、第1のCNNが出力したラベルを用いて生成した第1の画像を入力として第2のCNNによって出力される第2の画像と正解画像の誤差を測る誤差関数と、の重み付和を最小化する。重みは、設計者が適宜決定してよい。最小化の方法は個別に行う場合と同様である。
このように、第1の実施形態にかかる画像処理装置では、入力画像を複数の領域に分割し、複数の領域のうち画像処理の対象とする特定の領域の値を第1の値に変換して第1の画像を生成する。そして、第1の画像に対してCNNを用いてノイズ低減などの画像処理を実行する。これにより、画像処理をより高精度に実行することが可能となる。
(第2の実施形態)
第1の実施形態では、領域を分割した後の1つの画像(第1の画像)に対して、1つのCNN(第2のCNN)を用いた画像処理を実行する。このような構成では、例えば、領域ごとに異なるCNNを用いた画像処理を適用することができない。そこで第2の実施形態にかかる画像処理装置は、複数の第1の画像を生成し、複数の第1の画像それぞれに対して異なる第2のCNNを適用した結果である複数の第2の画像を統合し、第3の画像を生成する。これにより、領域ごとに異なる画像処理を実行することができる。
図8は、第2の実施形態にかかる画像処理装置100−2の構成の一例を示すブロック図である。図8に示すように、画像処理装置100−2は、受付部101と、分割部102と、生成部103−2と、画像処理部104−2と、統合部105−2と、を備えている。
第2の実施形態では、生成部103−2と画像処理部104−2の機能、および、統合部105−2を追加したことが第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる画像処理装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
生成部103−2は、複数の第1の画像を生成する点が、第1の実施形態の生成部103と異なっている。第1の画像の個数は任意である。また、生成する複数の第1の画像の一部または全部は相互に異なっていてもよいし、同一であってもよい。
画像処理部104−2は、生成された複数の第1の画像それぞれに対して、複数の第2のCNNのうちいずれかを用いる画像処理を実行して複数の第2の画像を生成する。
統合部105−2は、生成された複数の第2の画像を統合した第3の画像を生成する。例えば統合部105−2は、複数の第2の画像の対応する画素の画素値を重み付け平均した値を、第3の画像の対応する画素の画素値とすることにより、複数の第2の画像を統合する。
受付部101、分割部102、生成部103−2、画像処理部104−2、および、統合部105−2の機能の一部または全部は、1つの機能部が実現するように構成してもよい。例えば、画像処理部104−2が、分割部102、生成部103−2および統合部105−2の機能をさらに備えていてもよい。すなわち、画像処理部104−2が、第1のCNNを用いて入力画像を複数の領域に分割し、複数の領域に含まれる特定の領域(第1の領域)の画素の画素値を特定の値(第1の値)に変更した複数の第1の画像を生成し、複数の第1の画像それぞれに対して複数の第2のCNNにうちのいずれかを用いる画像処理を実行して複数の第2の画像を生成し、複数の第2の画像を統合した第3の画像を生成してもよい。
次に、このように構成された第2の実施形態にかかる画像処理装置100−2による画像処理について図9を用いて説明する。図9は、第2の実施形態における画像処理の一例を示すフローチャートである。
ステップS201の領域分割処理は、第1の実施形態にかかる画像処理装置100におけるステップS101と同様の処理なので、その説明を省略する。
生成部103−2は、画像生成処理を実行する(ステップS202)。本実施形態の画像生成処理では、生成部103−2は、第1の画像を複数生成する。次に画像処理部104−2は、複数の第1の画像のそれぞれについて、複数の第2のCNNのうち対応する第2のCNNによるノイズ低減処理を実行して画像(第2の画像)を出力する(ステップS203)。ノイズ低減処理により、特定の領域のノイズが低減された複数の第2の画像が、複数の第2のCNNそれぞれを用いて出力される。この際、例えば、複数の第1の画像のそれぞれに対して、ノイズを低減できるように学習された異なる第2のCNNが用いられる。複数の第2のCNNの一部または全部は、同一であってもよい。個々の第1の画像の生成処理、および、第2のCNNの処理は、第1の実施形態と同じである。
なお、第1の画像は他の第1の画像と第1の値で置き換える領域が同じでも構わない。また、第2のCNNで処理する領域は、他の第2のCNNで処理する領域と重複しても構わない。各第1の画像で第1の値に置き換える領域、第1の値、および、第2のCNNで処理する領域は、設計者が事前に決定すればよい。
複数の第2のCNNのそれぞれには少なくとも第1の画像が入力されるが、第1の画像以外の画像をさらに入力してもよい。例えば、LIDAR距離画像のノイズ低減の場合、入力画像、他の第2のCNNが出力した第2の画像、反射強度画像、および、可視光カメラによる撮影画像を新たに加えてもよい。この場合、第2のCNNは、第1の画像と第1の画像以外の画像を用いた学習により作成される。画像処理部104−2は、このようにして作成された第2のCNNに、第1の画像と第1の画像以外の画像を入力することにより画像処理を実行して第2の画像を出力する。
図10は、本実施形態の画像生成処理およびノイズ低減処理の一例を説明する図である。本実施形態では、生成部103−2は、複数の第1の画像1001、1002、1003を生成する。第1の画像1001は、例えば領域A、C、Dの画素値を0に置き換えた画像である。第1の画像1002は、領域A、B、Dの画素値を0に置き換えた画像である。第1の画像1003は、領域A、B、Cの画素値を0に置き換えた画像である。
画像処理部104−2は、第1の画像1001、1002、および、1003に対して、それぞれ第2のCNN104−2−1、104−2−2、および、104−2−3を適用して、第2の画像1011、1012、および、1013を生成する。
第2のCNN104−2−1は、例えば、領域AおよびBのノイズを低減するために用いられる。第2のCNN104−2−1を適用することにより、領域AおよびBのノイズが低減された第2の画像1011が生成される。第2のCNN104−2−2は、例えば、領域Cのノイズを低減するために用いられる。第2のCNN104−2−2を適用することにより、領域Cのノイズが低減された第2の画像1012が生成される。第2のCNN104−2−3は、例えば、領域Dのノイズを低減するために用いられる。第2のCNN104−2−3を適用することにより、領域Dのノイズが低減された第2の画像1013が生成される。第2のCNNそれぞれが、いずれのラベルに対応する領域を処理するかは、例えば設計者が事前に決定しておく。
図9に戻り、統合部105−2は、複数の第2の画像を統合し、特定の領域のノイズが低減された第3の画像を生成する(ステップS204)。例えば統合部105−2は、複数の第2の画像のそれぞれでノイズが低減された領域の画素値を、第3の画像の画素値とすることにより、第3の画像を生成する。図10の例では、統合部105−2は、第2の画像1011内の領域A、B、第2の画像1012内の領域C、および、第2の画像1013内の領域Dの画素値を、それぞれ対応する領域の画素値とする第3の画像を生成してもよい。
画像処理部104−2は、複数の第2の画像で重複する領域のノイズを低減してもよい。この場合、統合部105−2は、例えば複数の第2の画像の対応する画素の画素値を重み付け平均した値を、第3の画像の対応する画素の画素値とする。重みは、全ての第2の画像で等しい定数値でもよいし、第2のCNNの該当領域の処理精度が高いほど大きな値としてもよい。
図11は、ノイズを低減する領域が重複する例を示す図である。第2の画像1011−2は、領域A、B、Dのノイズが低減された画像である。領域Dは、第2の画像1013でもノイズが低減されている。すなわち、第2の画像1011−2と第2の画像1013では、ノイズを低減した領域(領域D)が重複する。統合部105−2は、領域Dに対応する領域については、第2の画像1011−2と第2の画像1013の領域Dの画素値の重み付け平均した値を画素値とする第3の画像1111を生成する。
なお、図11の画像1101は、各領域の画素値として採用する画像を模式的に示す。Y1、Y2およびY3は、それぞれ第2の画像1011−2、第2の画像1012、および、第2の画像1013の画素値を採用することを示す。w1およびw3は、それぞれ第2の画像1011−2および第2の画像1013の画素値に対して付与する重みを示す。
第2のCNNによってノイズが低減されない領域がある場合、入力画像の領域の画素値を第3の画像の画素値として統合してもよい。図12は、入力画像の領域の画素値を統合する例を示す図である。画像1101bは、各領域の画素値として採用する画像を模式的に示す。Iは、入力画像の画素値を採用することを示す。画像1101bに示すように、この例では、領域Dに対応する領域については、入力画像の画素値を第3の画像の画素値とする。これにより、入力画像にノイズの低減が必要のない領域があれば、その領域の入力画像の画素値を第3の画像の画素値として出力できる。
以上説明したとおり、第1および第2の実施形態によれば、CNNを用いた画像処理をより高精度に実行することが可能となる。
次に、第1および第2の実施形態の画像処理装置のハードウェア構成について図13を参照して説明する。画像処理装置は、CPU(Central Processing Unit)801、操作装置802、表示装置803、ROM(Read Only Memory)804、RAM(Random Access Memory)805、記憶装置806を備え、各部はバス810により接続されている。
CPU801は、RAM805の所定領域を作業領域として、ROM804に予め記憶された各種制御プログラムとの協働により各種処理を実行し、画像処理装置を構成する各部の動作を統括的に制御する。また、CPU801は、ROM804に予め記憶されたプログラムとの協働により、上述した各部の機能を実現させる。操作装置802は、画像を電気信号に変換し、信号としてCPU801に出力する。表示装置803は、各種情報を表示するディスプレイ装置などである。
ROM804は、画像処理装置の制御にかかるプログラムや各種設定情報等を書き換え不可能に記憶する。RAM805は、SDRAM等の記憶媒体であって、CPU801の作業エリアとして機能し、バッファ等の役割を果たす。記憶装置806は、磁気的または光学的に記録可能な記憶媒体を有し、操作装置802を介して取得された画像信号、および、図示しない通信部やI/F(インターフェース)等を介して外部から入力される画像等のデータを記憶する。なお、これに限らず、例えば画像処理装置の上述の各部の機能のうちの少なくとも一部が専用のハードウェア回路(例えば半導体集積回路)で実現される形態であってもよい。
第1または第2の実施形態にかかる画像処理装置で実行されるプログラムは、ROM804等に予め組み込まれて提供される。
第1または第2の実施形態にかかる画像処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部として機能させうる。このコンピュータは、CPU801がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
上記実施形態の画像処理装置は、例えば、距離画像等に基づき自律的に走行する車両の運転制御システムの一部として実現することができる。図14は、上記実施形態の画像処理装置を搭載する車両1400の構成例を示す図である。
車両1400は、運転制御システムとして、測定装置1401と、制御部1402と、画像処理装置100とを含む。なお画像処理装置100の代わりに第2の実施形態の画像処理装置100−2を搭載するように構成してもよい。
測定装置1401は、例えば、LIDARにより車両1400の前方の物体までの距離を測定して距離画像を出力する装置である。画像処理装置100は、測定装置1401から出力された距離画像を入力し、上記の各処理を実行して第2の画像を出力する。制御部1402は、第2の画像に基づいて車両1400の運転を制御する。
車両1400は、図14のように自動四輪車に限られるものではなく、自動二輪車、自転車、鉄道車両などであってもよい。また車両1400の代わりに、飛行体(ドローンなど)、および、ロボットなどの移動体に適用してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100−2 画像処理装置
101 受付部
102 分割部
103、103−2 生成部
104、104−2 画像処理部
105−2 統合部
801 CPU
802 操作装置
803 表示装置
804 ROM
805 RAM
806 記憶装置
810 バス
1400 車両
1401 測定装置
1402 制御部

Claims (10)

  1. 入力画像を記憶する記憶部と、
    第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割し、
    前記複数の領域に含まれる第1の領域の画素の画素値を第1の値に変更した第1の画像を生成し、
    前記第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する画像処理部と、
    を備える画像処理装置。
  2. 前記入力画像は、画素が距離を示す値を有する距離画像であり、
    前記第1の領域は、前記第1のCNNによりノイズが多いと推定される領域である、
    請求項1に記載の画像処理装置。
  3. 前記画像処理部は、複数の前記第1の画像を生成し、
    複数の前記第1の画像それぞれに対して、複数の第2のCNNのうちのいずれかを用いる画像処理を実行して複数の第2の画像を生成し、
    前記複数の第2の画像を統合した第3の画像を生成する、
    請求項1に記載の画像処理装置。
  4. 前記画像処理部は、前記複数の第2の画像の対応する画素の画素値を重み付け平均した値を、前記第3の画像の対応する画素の画素値とする、
    請求項3に記載の画像処理装置。
  5. 前記画像処理は、第2のCNNを用いて前記第1の画像のノイズを低減する処理である、
    請求項1に記載の画像処理装置。
  6. 前記画像処理は、第2のCNNを用いてノイズを低減するとともに、前記第1の領域の画素値を補間する処理である、
    請求項1に記載の画像処理装置。
  7. 第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する分割ステップと、
    前記複数の領域に含まれる第1の領域の画素の画素値を第1の値に変更した第1の画像を生成する生成ステップと、
    前記第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する画像処理ステップと、
    を含む画像処理方法。
  8. コンピュータを、
    第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する分割部と、
    前記複数の領域に含まれる第1の領域の画素の画素値を第1の値に変更した第1の画像を生成する生成部と、
    前記第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する画像処理部と、
    として機能させるためのプログラム。
  9. 第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する分割部と、
    前記複数の領域に含まれる第1の領域の画素の画素値を第1の値とした第1の画像を生成する生成部と、
    前記第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する画像処理部と、
    前記第2の画像に基づいて車両の運転を制御する制御部と、
    を備える運転制御システム。
  10. 車両であって、
    第1のCNN(Convolutional Neural Networks)を用いて、入力画像を複数の領域に分割する分割部と、
    前記複数の領域に含まれる第1の領域の画素の画素値を第1の値とした第1の画像を生成する生成部と、
    前記第1の画像に対して第2のCNNを用いる画像処理を実行して第2の画像を生成する画像処理部と、
    前記第2の画像に基づいて前記車両の運転を制御する制御部と、
    を備える車両。
JP2016220837A 2016-11-11 2016-11-11 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両 Active JP6581068B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016220837A JP6581068B2 (ja) 2016-11-11 2016-11-11 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両
US15/677,344 US10255663B2 (en) 2016-11-11 2017-08-15 Image processing device, image processing method, computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016220837A JP6581068B2 (ja) 2016-11-11 2016-11-11 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両

Publications (2)

Publication Number Publication Date
JP2018077786A true JP2018077786A (ja) 2018-05-17
JP6581068B2 JP6581068B2 (ja) 2019-09-25

Family

ID=62108594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220837A Active JP6581068B2 (ja) 2016-11-11 2016-11-11 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両

Country Status (2)

Country Link
US (1) US10255663B2 (ja)
JP (1) JP6581068B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
WO2020049828A1 (ja) * 2018-09-06 2020-03-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020039851A (ja) * 2018-09-06 2020-03-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2020075531A1 (ja) * 2018-10-10 2020-04-16 株式会社島津製作所 画像作成装置、画像作成方法および学習済みモデルの作成方法
WO2020105225A1 (ja) * 2018-11-22 2020-05-28 コニカミノルタ株式会社 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
JP2020144488A (ja) * 2019-03-05 2020-09-10 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP2021069602A (ja) * 2019-10-30 2021-05-06 有限会社 ティ・アール・コーポレーション デザイン方法、眉デザインサーバ及びデザイン支援プログラム
CN113168670A (zh) * 2018-11-07 2021-07-23 光谱Optix有限公司 使用神经网络的亮点去除
JP2021176101A (ja) * 2019-03-01 2021-11-04 株式会社トプコン 低コヒーレンス干渉法のための画質改善方法及びシステム
JP2021179926A (ja) * 2020-05-15 2021-11-18 ソフトバンク株式会社 学習プログラム、学習装置および学習方法
JP2022507144A (ja) * 2018-11-27 2022-01-18 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP2022058663A (ja) * 2018-09-14 2022-04-12 株式会社東芝 信号処理装置、距離計測装置、および距離計測方法
WO2022270058A1 (ja) * 2021-06-24 2022-12-29 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
US12025748B2 (en) 2018-09-14 2024-07-02 Kabushiki Kaisha Toshiba Signal processing apparatus, distance measuring apparatus, and distance measuring method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11132529B2 (en) * 2016-11-16 2021-09-28 Ventana Medical Systems, Inc. Convolutional neural networks for locating objects of interest in images of biological samples
US10552944B2 (en) * 2017-10-13 2020-02-04 Adobe Inc. Image upscaling with controllable noise reduction using a neural network
KR102606200B1 (ko) * 2018-03-06 2023-11-24 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109190752B (zh) * 2018-07-27 2021-07-23 国家新闻出版广电总局广播科学研究院 基于深度学习的全局特征和局部特征的图像语义分割方法
KR102631031B1 (ko) * 2018-07-27 2024-01-29 삼성전자주식회사 반도체 장치의 불량 검출 방법
US11182877B2 (en) 2018-08-07 2021-11-23 BlinkAI Technologies, Inc. Techniques for controlled generation of training data for machine learning enabled image enhancement
RU2709661C1 (ru) * 2018-09-19 2019-12-19 Общество с ограниченной ответственностью "Аби Продакшн" Обучение нейронных сетей для обработки изображений с помощью синтетических фотореалистичных содержащих знаки изображений
US10915990B2 (en) * 2018-10-18 2021-02-09 General Electric Company Systems and methods for denoising medical images with deep learning network
JP7287828B2 (ja) 2019-04-26 2023-06-06 株式会社日立製作所 患者位置決めシステム、方法およびプログラム
JP7353803B2 (ja) * 2019-06-03 2023-10-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7398480B2 (ja) * 2020-01-09 2023-12-14 株式会社日立ハイテク 画像を生成するシステム、及び非一時的コンピュータ可読媒体
CN115335852A (zh) * 2020-03-31 2022-11-11 华为技术有限公司 一种基于神经网络的图像处理方法及装置
US11501478B2 (en) * 2020-08-17 2022-11-15 Faro Technologies, Inc. System and method of automatic room segmentation for two-dimensional laser floorplans
US20220201295A1 (en) * 2020-12-21 2022-06-23 Electronics And Telecommunications Research Institute Method, apparatus and storage medium for image encoding/decoding using prediction
CN112927164B (zh) * 2021-03-22 2023-04-07 重庆邮电大学 一种基于深度卷积神经网络的无参考低照度图像增强方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) * 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
JP2016110232A (ja) * 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
US20160174902A1 (en) * 2013-10-17 2016-06-23 Siemens Aktiengesellschaft Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks
JP2016157434A (ja) * 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373160B2 (en) * 2013-12-18 2016-06-21 New York University System, method and computer-accessible medium for restoring an image taken through a window
US9767385B2 (en) * 2014-08-12 2017-09-19 Siemens Healthcare Gmbh Multi-layer aggregation for object detection
US10859395B2 (en) * 2016-12-30 2020-12-08 DeepMap Inc. Lane line creation for high definition maps for autonomous vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100183217A1 (en) * 2007-04-24 2010-07-22 Seung H Sebastian Method and apparatus for image processing
US20160174902A1 (en) * 2013-10-17 2016-06-23 Siemens Aktiengesellschaft Method and System for Anatomical Object Detection Using Marginal Space Deep Neural Networks
JP2016110232A (ja) * 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
JP2016157434A (ja) * 2015-02-23 2016-09-01 三菱電機株式会社 ストリートビューの画像をラベル付けする方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
下田 和、柳井 啓司: ""CNNを用いた弱教師学習による画像領域分割"", 情報処理学会 研究報告, vol. Vol.2015-CVIM-198, No.28, JPN6019028200, 7 September 2015 (2015-09-07), JP, pages 1 - 6, ISSN: 0004081787 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
US11315220B2 (en) 2018-06-07 2022-04-26 Kabushiki Kaisha Toshiba Distance measuring apparatus, vibration measuring apparatus, and industrial computed tomography apparatus
JP7068054B2 (ja) 2018-06-07 2022-05-16 株式会社東芝 距離計測装置、および距離計測方法
WO2020049828A1 (ja) * 2018-09-06 2020-03-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020039851A (ja) * 2018-09-06 2020-03-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7305401B2 (ja) 2018-09-06 2023-07-10 キヤノン株式会社 画像処理装置、画像処理装置の作動方法、及びプログラム
JP7419413B2 (ja) 2018-09-14 2024-01-22 株式会社東芝 信号処理装置、距離計測装置、および距離計測方法
JP2022058663A (ja) * 2018-09-14 2022-04-12 株式会社東芝 信号処理装置、距離計測装置、および距離計測方法
US12025748B2 (en) 2018-09-14 2024-07-02 Kabushiki Kaisha Toshiba Signal processing apparatus, distance measuring apparatus, and distance measuring method
JPWO2020075531A1 (ja) * 2018-10-10 2021-09-02 株式会社島津製作所 画像作成装置、画像作成方法および学習済みモデルの作成方法
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
WO2020075531A1 (ja) * 2018-10-10 2020-04-16 株式会社島津製作所 画像作成装置、画像作成方法および学習済みモデルの作成方法
JP7052880B2 (ja) 2018-10-10 2022-04-12 株式会社島津製作所 画像作成装置、画像作成方法および学習済みモデルの作成方法
CN113168670A (zh) * 2018-11-07 2021-07-23 光谱Optix有限公司 使用神经网络的亮点去除
WO2020105225A1 (ja) * 2018-11-22 2020-05-28 コニカミノルタ株式会社 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
JPWO2020105225A1 (ja) * 2018-11-22 2021-10-14 コニカミノルタ株式会社 機械学習方法、学習済みモデル、制御プログラム、および物体検知システム
JP7214863B2 (ja) 2018-11-27 2023-01-30 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP2022507144A (ja) * 2018-11-27 2022-01-18 レイセオン カンパニー 人工画像生成用コンピュータアーキテクチャ
JP2021176102A (ja) * 2019-03-01 2021-11-04 株式会社トプコン 低コヒーレンス干渉法のための画質改善方法及びシステム
JP2021176101A (ja) * 2019-03-01 2021-11-04 株式会社トプコン 低コヒーレンス干渉法のための画質改善方法及びシステム
JP7154353B2 (ja) 2019-03-01 2022-10-17 株式会社トプコン 低コヒーレンス干渉法のための画質改善方法及びシステム
JP7222038B2 (ja) 2019-03-01 2023-02-14 株式会社トプコン 低コヒーレンス干渉法のための画質改善方法及びシステム
JP2020144488A (ja) * 2019-03-05 2020-09-10 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP2021069602A (ja) * 2019-10-30 2021-05-06 有限会社 ティ・アール・コーポレーション デザイン方法、眉デザインサーバ及びデザイン支援プログラム
JP7175476B2 (ja) 2019-10-30 2022-11-21 有限会社 ティ・アール・コーポレーション デザイン方法、眉デザインサーバ及びデザイン支援プログラム
JP7228542B2 (ja) 2020-05-15 2023-02-24 ソフトバンク株式会社 学習プログラム、学習装置および学習方法
JP2021179926A (ja) * 2020-05-15 2021-11-18 ソフトバンク株式会社 学習プログラム、学習装置および学習方法
WO2022270058A1 (ja) * 2021-06-24 2022-12-29 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20180137605A1 (en) 2018-05-17
JP6581068B2 (ja) 2019-09-25
US10255663B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
JP6581068B2 (ja) 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両
US11527105B2 (en) System and method for scalable cloud-robotics based face recognition and face analysis
US9213910B2 (en) Reinforcement learning approach to character level segmentation of license plate images
US20150279021A1 (en) Video object tracking in traffic monitoring
US10916019B2 (en) Moving object detection in image frames based on optical flow maps
CN113168670A (zh) 使用神经网络的亮点去除
KR20170056860A (ko) 이미지 생성 방법 및 장치
CN111753764A (zh) 一种边缘端基于姿态估计的手势识别方法
US11087137B2 (en) Methods and systems for identification and augmentation of video content
JP6773707B2 (ja) 信号処理装置、信号処理方法およびプログラム
CN111126108A (zh) 图像检测模型的训练和图像检测方法及装置
WO2015057263A1 (en) Dynamic hand gesture recognition with selective enabling based on detected hand velocity
JP2018205800A (ja) 画像解析装置、ニューラルネットワーク装置、学習装置、画像解析方法およびプログラム
US10409393B2 (en) Image processing method capable of detecting noise and related navigation device
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
US20200334529A1 (en) Learning device, learning method, computer program product, and recognition device
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
CN111435457B (zh) 对传感器获取的采集进行分类的方法
CN109934185B (zh) 数据处理方法及装置、介质和计算设备
CN109598206B (zh) 动态手势识别方法及装置
CN116147898A (zh) 一种汽车前照灯发光强度的检测方法及装置
US20220318954A1 (en) Real time machine learning-based privacy filter for removing reflective features from images and video
CN113807407A (zh) 目标检测模型训练方法、模型性能检测方法及装置
CN113095347A (zh) 基于深度学习的标记识别方法和训练方法及其系统和电子设备
US20240119601A1 (en) Image processing apparatus, image processing method, and computer readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190829

R151 Written notification of patent or utility model registration

Ref document number: 6581068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151