JP2020187727A - 線画の生成 - Google Patents
線画の生成 Download PDFInfo
- Publication number
- JP2020187727A JP2020187727A JP2020007275A JP2020007275A JP2020187727A JP 2020187727 A JP2020187727 A JP 2020187727A JP 2020007275 A JP2020007275 A JP 2020007275A JP 2020007275 A JP2020007275 A JP 2020007275A JP 2020187727 A JP2020187727 A JP 2020187727A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- digital
- network
- line art
- photograph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 123
- 238000000034 method Methods 0.000 claims abstract description 75
- 238000001914 filtration Methods 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims 3
- 238000012549 training Methods 0.000 abstract description 45
- 230000008569 process Effects 0.000 abstract description 35
- 230000000007 visual effect Effects 0.000 abstract description 16
- 230000006870 function Effects 0.000 description 44
- 230000015654 memory Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 20
- 238000011176 pooling Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 10
- 238000004040 coloring Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000005022 packaging material Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000002985 plastic film Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
112、212、312、412、512、712、812、1236 線画
1200、1310、1410 計算デバイス
Claims (20)
- ニューラルネットワークを実行する計算デバイスによって、デジタル画像を前記ニューラルネットワークに入力するステップであって、前記デジタル画像は写真を含む、ステップ;
前記ニューラルネットワークを用いて、前記写真の内容を識別するステップ;
モデルを前記内容に適用するステップであって、前記モデルは、前記ニューラルネットワークのために構成され、前記モデルは、前記内容を図示するための単色の線を描画するための第1の特徴部分のセットを抽出するための、第1のパラメータを有し、また、線が描画されるべきでない第2の特徴部分のセットのための第2のパラメータを有する、ステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットを前記デジタル画像から抽出し、前記第2の特徴部分のセットをフィルタリングするステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットのための線のセットを生成するステップであって、前記線のセットは、前記内容の複数の様相をトレースする、ステップ;及び
前記ニューラルネットワークを用いて、前記デジタル画像のデジタル線画を出力するステップであって、前記デジタル線画は、前記線のセットを含む、ステップ
を含む、コンピュータ実装型の方法。 - 前記デジタル線画は、前記写真内のオブジェクトのエッジと、前記オブジェクトの特定の特徴部分とを含む、請求項1に記載のコンピュータ実装型の方法。
- 前記ニューラルネットワークからの出力を、第2のニューラルネットワークに入力するステップであって、前記第2のニューラルネットワークは、グレースケールデジタル画像からデジタルアーティファクトを除去して、2色調デジタル画像を出力するよう訓練され、また前記第2のニューラルネットワークは、前記デジタル線画を出力する、ステップを更に含む、請求項1に記載のコンピュータ実装型の方法。
- 前記第2のニューラルネットワークは、前記ニューラルネットワークとは別個に、線画及び前記デジタル線画のコピーのデータセットで訓練され、
前記コピーは、デジタル的に付加されたアーティファクトを含む、請求項3に記載のコンピュータ実装型の方法。 - 前記ニューラルネットワークは、デジタル写真及び前記デジタル写真のデジタル線画を含むデータセットで訓練され、
前記デジタル線画は、前記デジタル写真内のオブジェクトのエッジ及び特定の特徴部分のための線を含む、請求項1に記載のコンピュータ実装型の方法。 - 前記特定の特徴部分のための線は、前記オブジェクトの認識を支援する、請求項5に記載のコンピュータ実装型の方法。
- 前記特定の特徴部分のための線は、前記オブジェクトの複数の部分に対して、形状又は明確さを提供する、請求項5に記載のコンピュータ実装型の方法。
- 前記特定の特徴部分は、前記オブジェクトが前記デジタル写真の前景にある場合には、テクスチャを含む、請求項5に記載のコンピュータ実装型の方法。
- 前記特定の特徴部分はテクスチャを除外する、請求項5に記載のコンピュータ実装型の方法。
- 前記内容は、人物又は建築構造物の一部を含む、請求項1に記載のコンピュータ実装型の方法。
- 前記写真は、野外のシーン又は建造物内部の写真である、請求項1に記載のコンピュータ実装型の方法。
- 前記デジタル線画は2色調デジタル画像であり、前記線のセットが第1の色調であり、背景が第2の色調であり、
前記線のセットは幅が略均一である、請求項1に記載のコンピュータ実装型の方法。 - 1つ以上のプロセッサ;及び
命令を含む非一時的コンピュータ可読媒体
を備える、計算デバイスであって、
前記命令は、前記1つ以上のプロセッサによって実行された場合に、前記1つ以上のプロセッサに:
前記計算デバイスによって実行されているニューラルネットワークに、デジタル画像を入力するステップであって、前記デジタル画像は写真を含む、ステップ;
前記ニューラルネットワークを用いて、前記写真の内容を識別するステップ;
モデルを前記内容に適用するステップであって、前記モデルは、前記ニューラルネットワークのために構成され、前記モデルは、前記内容を図示するための単色の線を描画するための第1の特徴部分のセットを抽出するための、第1のパラメータを有し、また、線が描画されるべきでない第2の特徴部分のセットのための第2のパラメータを有する、ステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットを前記デジタル画像から抽出し、前記第2の特徴部分のセットをフィルタリングするステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットのための線のセットを生成するステップであって、前記線のセットは、前記内容の複数の様相をトレースする、ステップ;及び
前記ニューラルネットワークを用いて、前記デジタル画像のデジタル線画を出力するステップであって、前記デジタル線画は、前記線のセットを含む、ステップ
を含む操作を実施させる、計算デバイス。 - 前記デジタル線画は、前記写真内のオブジェクトのエッジと、前記オブジェクトの特定の特徴部分とを含む、請求項13に記載の計算デバイス。
- 前記操作は:
前記ニューラルネットワークからの出力を、第2のニューラルネットワークに入力するステップであって、前記第2のニューラルネットワークは、グレースケールデジタル画像からデジタルアーティファクトを除去して、2色調デジタル画像を出力するよう訓練され、また前記第2のニューラルネットワークは、前記デジタル線画を出力する、ステップ
を更に含む、請求項13に記載の計算デバイス。 - 前記ニューラルネットワークは、デジタル写真及び前記デジタル写真のデジタル線画を含むデータセットで訓練され、
前記デジタル線画は、前記デジタル写真内のオブジェクトのエッジ及び特定の特徴部分のための線を含む、請求項13に記載の計算デバイス。 - 前記内容は、人物又は建築構造物の一部を含む、請求項13に記載の計算デバイス。
- 前記写真は、野外のシーン又は建造物内部の写真である、請求項13に記載の計算デバイス。
- 命令が保存されている、非一時的コンピュータ可読媒体であって、
前記命令は、計算デバイスの1つ以上のプロセッサによって実行された場合に、前記1つ以上のプロセッサに:
前記計算デバイスによって実行されているニューラルネットワークに、デジタル画像を入力するステップであって、前記デジタル画像は写真を含む、ステップ;
前記ニューラルネットワークを用いて、前記写真の内容を識別するステップ;
モデルを前記内容に適用するステップであって、前記モデルは、前記ニューラルネットワークのために構成され、前記モデルは、前記内容を図示するための単色の線を描画するための第1の特徴部分のセットを抽出するための、第1のパラメータを有し、また、線が描画されるべきでない第2の特徴部分のセットのための第2のパラメータを有する、ステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットを前記デジタル画像から抽出し、前記第2の特徴部分のセットをフィルタリングするステップ;
前記ニューラルネットワークを用いて、前記第1の特徴部分のセットのための線のセットを生成するステップであって、前記線のセットは、前記内容の複数の様相をトレースする、ステップ;及び
前記ニューラルネットワークを用いて、前記デジタル画像のデジタル線画を出力するステップであって、前記デジタル線画は、前記線のセットを含む、ステップ
を含む操作を実施させる、非一時的コンピュータ可読媒体。 - 前記デジタル線画は2色調デジタル画像であり、前記線のセットが第1の色調であり、背景が第2の色調であり、
前記線のセットは幅が略均一である、請求項19に記載のコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/410,854 US10922860B2 (en) | 2019-05-13 | 2019-05-13 | Line drawing generation |
US16/410,854 | 2019-05-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187727A true JP2020187727A (ja) | 2020-11-19 |
JP7090113B2 JP7090113B2 (ja) | 2022-06-23 |
Family
ID=73221871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007275A Active JP7090113B2 (ja) | 2019-05-13 | 2020-01-21 | 線画の生成 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10922860B2 (ja) |
JP (1) | JP7090113B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102470821B1 (ko) * | 2022-01-27 | 2022-11-28 | 주식회사 위딧 | 웹툰 배경 이미지 생성 장치 |
JP7453900B2 (ja) | 2020-12-17 | 2024-03-21 | Kddi株式会社 | 学習方法、画像変換装置及びプログラム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11126890B2 (en) * | 2019-04-18 | 2021-09-21 | Adobe Inc. | Robust training of large-scale object detectors with a noisy dataset |
CN111951290B (zh) * | 2019-05-16 | 2023-11-03 | 杭州睿琪软件有限公司 | 一种图像中物体的边缘检测方法及装置 |
CN110399924B (zh) * | 2019-07-26 | 2021-09-07 | 北京小米移动软件有限公司 | 一种图像处理方法、装置及介质 |
US11544832B2 (en) * | 2020-02-04 | 2023-01-03 | Rockwell Collins, Inc. | Deep-learned generation of accurate typical simulator content via multiple geo-specific data channels |
US11113578B1 (en) * | 2020-04-13 | 2021-09-07 | Adobe, Inc. | Learned model-based image rendering |
US20220108423A1 (en) * | 2020-10-02 | 2022-04-07 | Google Llc | Conditional Axial Transformer Layers for High-Fidelity Image Transformation |
CN114596375A (zh) * | 2020-11-19 | 2022-06-07 | 英业达科技有限公司 | 产生重建影像的方法 |
CN112529978B (zh) * | 2020-12-07 | 2022-10-14 | 四川大学 | 一种人机交互式抽象画生成方法 |
EP4029579A1 (en) * | 2021-01-18 | 2022-07-20 | Société BIC | Generating artwork tutorials |
CN112907438B (zh) * | 2021-03-01 | 2024-05-31 | 中国科学院半导体研究所 | 肖像生成方法、装置、电子设备及存储介质 |
US20230368490A1 (en) * | 2022-05-13 | 2023-11-16 | Adobe Inc. | Preview and capture of stroke outlines from images and video |
CN117557589A (zh) * | 2023-11-08 | 2024-02-13 | 深圳市闪剪智能科技有限公司 | 基于神经网络的线条图上色方法、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03218581A (ja) * | 1989-11-01 | 1991-09-26 | Hitachi Ltd | 画像セグメンテーション方法 |
JP2009217606A (ja) * | 2008-03-11 | 2009-09-24 | Osaka Prefecture Univ | 塗り絵用線画の生成方法および生成プログラム |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3218581B2 (ja) | 1992-09-14 | 2001-10-15 | 株式会社ニコン | 位置決め方法、該方法を用いた露光方法及びデバイス製造方法、並びに前記製造方法で製造されたデバイス |
CN107403201A (zh) * | 2017-08-11 | 2017-11-28 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗靶区和危及器官智能化、自动化勾画方法 |
US10825132B2 (en) * | 2018-02-20 | 2020-11-03 | Element Ai Inc. | Training method for convolutional neural networks for use in artistic style transfers for video |
-
2019
- 2019-05-13 US US16/410,854 patent/US10922860B2/en active Active
-
2020
- 2020-01-21 JP JP2020007275A patent/JP7090113B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03218581A (ja) * | 1989-11-01 | 1991-09-26 | Hitachi Ltd | 画像セグメンテーション方法 |
JP2009217606A (ja) * | 2008-03-11 | 2009-09-24 | Osaka Prefecture Univ | 塗り絵用線画の生成方法および生成プログラム |
US20170287137A1 (en) * | 2016-03-31 | 2017-10-05 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
Non-Patent Citations (2)
Title |
---|
MIN-HO PARK, 外3名: ""False Contour Reduction Using Neural Networks and Adaptive Bi-Directional Smoothing"", 2010 DIGEST OF TECHNICAL PAPERS INTERNATIONAL CONFERENCE ON CONSUMER ELECTRONICS (ICCE), JPN6021049507, 22 February 2010 (2010-02-22), ISSN: 0004667199 * |
YIXUE WANG, 外3名: ""Generating Facial Line-drawing with Convolutional Neural Networks"", 2018 24TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR), JPN6021049511, 29 November 2018 (2018-11-29), pages 513 - 516, ISSN: 0004667198 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7453900B2 (ja) | 2020-12-17 | 2024-03-21 | Kddi株式会社 | 学習方法、画像変換装置及びプログラム |
KR102470821B1 (ko) * | 2022-01-27 | 2022-11-28 | 주식회사 위딧 | 웹툰 배경 이미지 생성 장치 |
Also Published As
Publication number | Publication date |
---|---|
US10922860B2 (en) | 2021-02-16 |
JP7090113B2 (ja) | 2022-06-23 |
US20200364910A1 (en) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7090113B2 (ja) | 線画の生成 | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
WO2008039693A2 (en) | Improving image masks | |
CN116569213A (zh) | 图像区域的语义细化 | |
Liu et al. | Photo stylistic brush: Robust style transfer via superpixel-based bipartite graph | |
CA3137297C (en) | Adaptive convolutions in neural networks | |
US11663467B2 (en) | Methods and systems for geometry-aware image contrast adjustments via image-based ambient occlusion estimation | |
CN111127309A (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
US11803950B2 (en) | Universal style transfer using multi-scale feature transform and user controls | |
Zhang et al. | Computer‐assisted relief modelling: A comprehensive survey | |
CN114820292A (zh) | 图像合成方法、装置、设备及存储介质 | |
Calatroni et al. | Unveiling the invisible: mathematical methods for restoring and interpreting illuminated manuscripts | |
Su et al. | An edge-refined vectorized deep colorization model for grayscale-to-color images | |
US11657481B2 (en) | Systems and methods for selective enhancement of skin features in images | |
Tous | Pictonaut: movie cartoonization using 3D human pose estimation and GANs | |
CN116342377A (zh) | 一种降质场景下伪装目标图像自适应生成方法与系统 | |
Seo et al. | Interactive painterly rendering with artistic error correction | |
Gao et al. | PencilArt: a chromatic penciling style generation framework | |
Liao et al. | Depth annotations: Designing depth of a single image for depth-based effects | |
Yang et al. | Architectural sketch to 3D model: An experiment on simple-form houses | |
US12118647B2 (en) | Generating colorized digital images utilizing a re-colorization neural network with local hints | |
Abhiram et al. | Parallel Computing and Deep Learning-Based Techniques for Colorization of Visual Media | |
Pauls et al. | The Depth Estimation of 2D Content: A New Life for Paintings | |
CN117952879B (zh) | 综合退化、估计和恢复的水下图像增强方法、装置、设备 | |
Rezaei et al. | Hybrid filter blending to maintain facial expressions in rendered human portraits |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7090113 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |