JP2017174416A - 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス - Google Patents
適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス Download PDFInfo
- Publication number
- JP2017174416A JP2017174416A JP2017034569A JP2017034569A JP2017174416A JP 2017174416 A JP2017174416 A JP 2017174416A JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017174416 A JP2017174416 A JP 2017174416A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- depth
- segmented
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000009877 rendering Methods 0.000 title claims abstract description 65
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000003044 adaptive effect Effects 0.000 title description 5
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 238000000605 extraction Methods 0.000 claims abstract description 54
- 230000007423 decrease Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 16
- 238000007781 pre-processing Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
Description
・セグメント化画像を生成することであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準と共に生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成することであって、バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準と共に生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングすること。
・セグメント化画像を生成するモジュールであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成するモジュールであって、バイナリエッジモジュールは、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングするモジュールと、
を含む。
・シーンのセグメント化画像を生成するための第1のステップ21であって、シーンのセグメント化画像はセグメント化領域の組の集合によって形成され、各セグメント化領域は、セグメント化領域の組の別の領域に適用されたものから異なることができるセグメンテーション基準でセグメント化され、
・シーンのバイナリエッジ画像を生成するための第2のステップ22であって、シーンのバイナリエッジ画像はバイナリエッジ領域の組の集合によって形成され、各バイナリエッジ領域は、バイナリエッジ領域の組の別の領域に適用されたものから異なることができるエッジ抽出基準で処理され、
・シーンを表現するノンフォトリアリスティックコンテンツをレンダリングする第3のステップ23であって、第1のステップ21で生成されたセグメント化画像と第2のステップ22で生成されたバイナリエッジ画像を組み合わせることによって行われる。
・セグメント化画像を生成するモジュールであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成するモジュールであって、バイナリエッジモジュールは、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングするモジュールである。
Claims (14)
- 同じシーンの少なくとも1つのイメージの組のノンフォトリアリスティックレンダリングの方法であって、デプス画像と関連する少なくとも1つの画像の前記組は、領域の組を含み、領域の前記組の各領域は、所定のデプスの領域に対応しており、
前記方法は、
セグメント化画像を生成することであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成される少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成することであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の前記少なくとも1つの領域に対応し、
前記セグメント化画像及び前記バイナリエッジ画像を組み合わせることによって少なくとも1つの画像の前記組をレンダリングすることと、
を含む、方法。 - セグメンテーション基準は、領域の前記組の前記少なくとも1つの領域から決定される、請求項1に記載の方法。
- 所定のセグメント化領域は、領域の前記組の所定の領域に対応し、前記所定のセグメント化領域に適用される前記所定のセグメンテーション基準は、前記所定のセグメント化領域に対応する領域の前記組の前記所定の領域のデプスと第1のリファレンスデプスとの間の差の関数である、請求項1に記載の方法。
- エッジ抽出基準は、領域の前記組の前記少なくとも1つの領域から決定される、請求項1に記載の方法。
- 所定のバイナリエッジ領域は、領域の前記組の所定の領域に対応し、前記所定のバイナリエッジ領域に適用される前記所定のエッジ抽出基準は、前記バイナリエッジ領域に対応する領域の前記組の前記所定の領域のデプスと第2のリファレンスデプスとの間の差の関数である、請求項1に記載の方法。
- セグメント化領域は、階層化画像表現から決定され、前記階層化画像表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)の階層化セグメンテーションを通して取得される、請求項1に記載の方法。
- バイナリエッジ領域は、重み付けエッジ表現から決定され、前記重み付けエッジ表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)のエッジ抽出を通して取得される、請求項1に記載の方法。
- セグメント化領域のデプスと前記第1のリファレンスデプスとの間の前記差が減少するにつれて、セグメンテーション基準の粒度レベルが増加する、請求項3に記載の方法。
- バイナリエッジ領域のデプスと前記第2のリファレンスデプスとの間の前記差が減少するにつれて、エッジ抽出基準の粒度レベルが増加する、請求項5に記載の方法。
- 前記第1のリファレンスデプスが、注視トラッキング分析から自動的に取得される請求項3に記載の方法。
- 前記第2のリファレンスデプスが、注視トラッキング分析から自動的に取得される、請求項5に記載の方法。
- 同じシーンの少なくとも1つの画像の前記組が、ライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる、請求項1に記載の方法。
- 同じシーンの少なくとも1つの画像の組のノンフォトリアリスティックレンダリングのためのデバイスであって、前記少なくとも1つの画像の組は、領域の組を含むデプス画像に関連し、領域の前記組の各領域は、所定のデプスの領域に対応し、
前記デバイスは、
セグメント化画像を生成するモジュールであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成するモジュールであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の少なくとも1つの領域に対応し、
前記セグメント化画像と前記バイナリエッジ画像を組み合わせることによって、少なくとも1つの画像の前記組をレンダリングするモジュールと、
を含む、デバイス。 - コンピュータによって読み取り可能であり、プロセッサによって実行可能な、通信ネットワークからダウンロード可能な又は媒体に記録されたコンピュータプログラム製品であって、請求項1乃至12のいずれか1項に従う方法を実行するプログラムコード命令を含む、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305227.7A EP3211599A1 (en) | 2016-02-29 | 2016-02-29 | Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device |
EP16305227.7 | 2016-02-29 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017174416A true JP2017174416A (ja) | 2017-09-28 |
JP2017174416A5 JP2017174416A5 (ja) | 2020-04-09 |
JP7120740B2 JP7120740B2 (ja) | 2022-08-17 |
Family
ID=55586253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017034569A Active JP7120740B2 (ja) | 2016-02-29 | 2017-02-27 | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11176728B2 (ja) |
EP (2) | EP3211599A1 (ja) |
JP (1) | JP7120740B2 (ja) |
KR (1) | KR20170101819A (ja) |
CN (1) | CN107133956B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741248B (zh) * | 2018-12-29 | 2023-06-13 | 深圳美图创新科技有限公司 | 水彩风格绘制方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005341569A (ja) * | 2004-05-17 | 2005-12-08 | Mitsubishi Electric Research Laboratories Inc | 物体を含むシーンの様式化された画像を生成する方法 |
US9607207B1 (en) * | 2014-03-31 | 2017-03-28 | Amazon Technologies, Inc. | Plane-fitting edge detection |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5048095A (en) * | 1990-03-30 | 1991-09-10 | Honeywell Inc. | Adaptive image segmentation system |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US7738725B2 (en) * | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
CN101542529B (zh) * | 2006-11-21 | 2012-10-03 | 皇家飞利浦电子股份有限公司 | 图像的深度图的生成方法和图像处理单元 |
GB0712690D0 (en) * | 2007-06-29 | 2007-08-08 | Imp Innovations Ltd | Imagee processing |
EP2034436A1 (en) * | 2007-09-06 | 2009-03-11 | Thomson Licensing | Method for non-photorealistic rendering |
KR101468267B1 (ko) | 2008-10-02 | 2014-12-15 | 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 | 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출 |
CN101945295B (zh) | 2009-07-06 | 2014-12-24 | 三星电子株式会社 | 生成深度图的方法和设备 |
US8860833B2 (en) | 2010-03-03 | 2014-10-14 | Adobe Systems Incorporated | Blended rendering of focused plenoptic camera data |
US20120200673A1 (en) * | 2010-06-15 | 2012-08-09 | Junichi Tagawa | Imaging apparatus and imaging method |
US8665341B2 (en) | 2010-08-27 | 2014-03-04 | Adobe Systems Incorporated | Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data |
WO2012063449A1 (ja) * | 2010-11-08 | 2012-05-18 | パナソニック株式会社 | 撮像装置、撮像方法、プログラム、および集積回路 |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
US8928737B2 (en) | 2011-07-26 | 2015-01-06 | Indiana University Research And Technology Corp. | System and method for three dimensional imaging |
US20130070049A1 (en) * | 2011-09-15 | 2013-03-21 | Broadcom Corporation | System and method for converting two dimensional to three dimensional video |
CN102663766B (zh) * | 2012-05-04 | 2014-10-22 | 云南大学 | 一种基于非真实感的艺术插画效果绘制方法 |
CN102831582B (zh) | 2012-07-27 | 2015-08-12 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
CN103067705B (zh) | 2012-12-19 | 2016-06-08 | 宁波大学 | 一种多视点深度视频预处理方法 |
TWI538512B (zh) * | 2013-06-27 | 2016-06-11 | 聚晶半導體股份有限公司 | 調整對焦位置的方法及電子裝置 |
AU2013206597A1 (en) * | 2013-06-28 | 2015-01-22 | Canon Kabushiki Kaisha | Depth constrained superpixel-based depth map refinement |
US20150104101A1 (en) | 2013-10-14 | 2015-04-16 | Apple Inc. | Method and ui for z depth image segmentation |
CN103942824B (zh) | 2014-05-15 | 2017-01-11 | 厦门大学 | 一种三维点云直线特征提取方法 |
US9704250B1 (en) * | 2014-10-30 | 2017-07-11 | Amazon Technologies, Inc. | Image optimization techniques using depth planes |
WO2016135451A1 (en) * | 2015-02-25 | 2016-09-01 | Bae Systems Plc | An image processing method and apparatus for determining depth within an image |
US10482586B2 (en) * | 2015-05-18 | 2019-11-19 | Nokia Technologies Oy | Filtering depth map image |
CN105069808B (zh) | 2015-08-31 | 2017-09-26 | 四川虹微技术有限公司 | 基于图像分割的视频图像深度估计方法 |
-
2016
- 2016-02-29 EP EP16305227.7A patent/EP3211599A1/en not_active Withdrawn
-
2017
- 2017-02-21 EP EP17157079.9A patent/EP3211600B1/en active Active
- 2017-02-22 US US15/439,878 patent/US11176728B2/en active Active
- 2017-02-27 KR KR1020170025596A patent/KR20170101819A/ko unknown
- 2017-02-27 JP JP2017034569A patent/JP7120740B2/ja active Active
- 2017-02-28 CN CN201710248220.XA patent/CN107133956B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005341569A (ja) * | 2004-05-17 | 2005-12-08 | Mitsubishi Electric Research Laboratories Inc | 物体を含むシーンの様式化された画像を生成する方法 |
US9607207B1 (en) * | 2014-03-31 | 2017-03-28 | Amazon Technologies, Inc. | Plane-fitting edge detection |
Non-Patent Citations (1)
Title |
---|
FRITZ ALBREGTSEN: "REGION & EDGE BASED SEGMENTATION", INF 4300 - DIGITAL IMAGE ANALYSIS, JPN6021011501, 22 September 2010 (2010-09-22), pages 1 - 58, ISSN: 0004648662 * |
Also Published As
Publication number | Publication date |
---|---|
US20170249775A1 (en) | 2017-08-31 |
JP7120740B2 (ja) | 2022-08-17 |
US11176728B2 (en) | 2021-11-16 |
EP3211599A1 (en) | 2017-08-30 |
EP3211600B1 (en) | 2021-09-29 |
KR20170101819A (ko) | 2017-09-06 |
CN107133956B (zh) | 2022-04-05 |
CN107133956A (zh) | 2017-09-05 |
EP3211600A1 (en) | 2017-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Winnemöller | Xdog: advanced image stylization with extended difference-of-gaussians | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
Gong et al. | Guided depth enhancement via a fast marching method | |
Afifi et al. | MPB: A modified poisson blending technique | |
CN111066026B (zh) | 用于向图像数据提供虚拟光调节的技术 | |
US10198794B2 (en) | System and method for adjusting perceived depth of an image | |
Kumar et al. | Structure-preserving NPR framework for image abstraction and stylization | |
CN111681198A (zh) | 一种形态学属性滤波多模融合成像方法、系统及介质 | |
CN106447756B (zh) | 用于生成用户定制的计算机生成动画的方法和系统 | |
Kim et al. | Layered non-photorealistic rendering with anisotropic depth-of-field filtering | |
Rosin et al. | Towards artistic minimal rendering | |
To et al. | Bas-relief generation from face photograph based on facial feature enhancement | |
Cong et al. | Selective image abstraction | |
CN116612263B (zh) | 一种感知潜视觉合成一致性动态拟合的方法及装置 | |
US9171357B2 (en) | Method, apparatus and computer-readable recording medium for refocusing photographed image | |
JP7120740B2 (ja) | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス | |
Liu et al. | Stereo-based bokeh effects for photography | |
Liao et al. | Depth annotations: Designing depth of a single image for depth-based effects | |
KR101715266B1 (ko) | 그래픽 가속기에 기반한 3d 모델의 라인 드로잉 방법 및 이를 이용한 프로그램이 기록된 컴퓨터 판독가능 기록매체 | |
Zhao et al. | Image aesthetics enhancement using composition-based saliency detection | |
Pavan Kumar et al. | A refined structure preserving image abstraction framework as a pre-processing technique for desire focusing on prominent structure and artistic stylization | |
Rosin et al. | Watercolour rendering of portraits | |
Jeong et al. | Photo quality enhancement by relocating subjects | |
Rezaei et al. | Hybrid filter blending to maintain facial expressions in rendered human portraits | |
KR102606373B1 (ko) | 영상에서 검출되는 얼굴의 랜드마크를 조절하기 위한 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181220 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181227 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7120740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |