JP2017174416A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2017174416A5 JP2017174416A5 JP2017034569A JP2017034569A JP2017174416A5 JP 2017174416 A5 JP2017174416 A5 JP 2017174416A5 JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017174416 A5 JP2017174416 A5 JP 2017174416A5
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- predetermined
- appendix
- segmented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 description 11
- 238000000605 extraction Methods 0.000 description 9
- 238000009877 rendering Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000875 corresponding Effects 0.000 description 2
- 230000000576 supplementary Effects 0.000 description 1
Description
これらのモジュール及びユニットは、相互に通信可能且つ協働可能ないくつかのプロセッサ501においても具体化することができる。
(付記1)
同じシーンの少なくとも1つのイメージの組のノンフォトリアリスティックレンダリングの方法であって、デプス画像と関連する少なくとも1つの画像の前記組は、領域の組を含み、領域の前記組の各領域は、所定のデプスの領域に対応しており、
前記方法は、
セグメント化画像を生成することであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成される少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成することであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の前記少なくとも1つの領域に対応し、
前記セグメント化画像及び前記バイナリエッジ画像を組み合わせることによって少なくとも1つの画像の前記組をレンダリングすることと、を含む、方法。
(付記2)
セグメンテーション基準は、領域の前記組の前記少なくとも1つの領域から決定される、付記1に記載の方法。
(付記3)
所定のセグメント化領域は、領域の前記組の所定の領域に対応し、前記所定のセグメント化領域に適用される前記所定のセグメンテーション基準は、前記所定のセグメント化領域に対応する領域の前記組の前記所定の領域のデプスと第1のリファレンスデプスとの間の差の関数である、付記1に記載の方法。
(付記4)
エッジ抽出基準は、領域の前記組の前記少なくとも1つの領域から決定される、付記1に記載の方法。
(付記5)
所定のバイナリエッジ領域は、領域の前記組の所定の領域に対応し、前記所定のバイナリエッジ領域に適用される前記所定のエッジ抽出基準は、前記バイナリエッジ領域に対応する領域の前記組の前記所定の領域のデプスと第2のリファレンスデプスとの間の差の関数である、付記1に記載の方法。
(付記6)
セグメント化領域は、階層化画像表現から決定され、前記階層化画像表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)の階層化セグメンテーションを通して取得される、付記1に記載の方法。
(付記7)
バイナリエッジ領域は、重み付けエッジ表現から決定され、前記重み付けエッジ表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)のエッジ抽出を通して取得される、付記1に記載の方法。
(付記8)
セグメント化領域のデプスと前記第1のリファレンスデプスとの間の前記差が減少するにつれて、セグメンテーション基準の粒度レベルが増加する、付記3に記載の方法。
(付記9)
バイナリエッジ領域のデプスと前記第2のリファレンスデプスとの間の前記差が減少するにつれて、エッジ抽出基準の粒度レベルが増加する、付記5に記載の方法。
(付記10)
前記第1のリファレンスデプスが、注視トラッキング分析から自動的に取得される付記3に記載の方法。
(付記11)
前記第2のリファレンスデプスが、注視トラッキング分析から自動的に取得される、付記5に記載の方法。
(付記12)
同じシーンの少なくとも1つの画像の前記組が、ライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる、付記1に記載の方法。
(付記13)
同じシーンの少なくとも1つの画像の組のノンフォトリアリスティックレンダリングのためのデバイスであって、前記少なくとも1つの画像の組は、領域の組を含むデプス画像に関連し、領域の前記組の各領域は、所定のデプスの領域に対応し、
前記デバイスは、
セグメント化画像を生成するモジュールであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成するモジュールであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の少なくとも1つの領域に対応し、
前記セグメント化画像と前記バイナリエッジ画像を組み合わせることによって、少なくとも1つの画像の前記組をレンダリングするモジュールと、を含む、デバイス。
(付記14)
コンピュータによって読み取り可能であり、プロセッサによって実行可能な、通信ネットワークからダウンロード可能な又は媒体に記録されたコンピュータプログラム製品であって、付記1乃至12のいずれか1項に従う方法を実行するプログラムコード命令を含む、コンピュータプログラム製品。
(付記1)
同じシーンの少なくとも1つのイメージの組のノンフォトリアリスティックレンダリングの方法であって、デプス画像と関連する少なくとも1つの画像の前記組は、領域の組を含み、領域の前記組の各領域は、所定のデプスの領域に対応しており、
前記方法は、
セグメント化画像を生成することであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成される少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成することであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の前記少なくとも1つの領域に対応し、
前記セグメント化画像及び前記バイナリエッジ画像を組み合わせることによって少なくとも1つの画像の前記組をレンダリングすることと、を含む、方法。
(付記2)
セグメンテーション基準は、領域の前記組の前記少なくとも1つの領域から決定される、付記1に記載の方法。
(付記3)
所定のセグメント化領域は、領域の前記組の所定の領域に対応し、前記所定のセグメント化領域に適用される前記所定のセグメンテーション基準は、前記所定のセグメント化領域に対応する領域の前記組の前記所定の領域のデプスと第1のリファレンスデプスとの間の差の関数である、付記1に記載の方法。
(付記4)
エッジ抽出基準は、領域の前記組の前記少なくとも1つの領域から決定される、付記1に記載の方法。
(付記5)
所定のバイナリエッジ領域は、領域の前記組の所定の領域に対応し、前記所定のバイナリエッジ領域に適用される前記所定のエッジ抽出基準は、前記バイナリエッジ領域に対応する領域の前記組の前記所定の領域のデプスと第2のリファレンスデプスとの間の差の関数である、付記1に記載の方法。
(付記6)
セグメント化領域は、階層化画像表現から決定され、前記階層化画像表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)の階層化セグメンテーションを通して取得される、付記1に記載の方法。
(付記7)
バイナリエッジ領域は、重み付けエッジ表現から決定され、前記重み付けエッジ表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)のエッジ抽出を通して取得される、付記1に記載の方法。
(付記8)
セグメント化領域のデプスと前記第1のリファレンスデプスとの間の前記差が減少するにつれて、セグメンテーション基準の粒度レベルが増加する、付記3に記載の方法。
(付記9)
バイナリエッジ領域のデプスと前記第2のリファレンスデプスとの間の前記差が減少するにつれて、エッジ抽出基準の粒度レベルが増加する、付記5に記載の方法。
(付記10)
前記第1のリファレンスデプスが、注視トラッキング分析から自動的に取得される付記3に記載の方法。
(付記11)
前記第2のリファレンスデプスが、注視トラッキング分析から自動的に取得される、付記5に記載の方法。
(付記12)
同じシーンの少なくとも1つの画像の前記組が、ライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる、付記1に記載の方法。
(付記13)
同じシーンの少なくとも1つの画像の組のノンフォトリアリスティックレンダリングのためのデバイスであって、前記少なくとも1つの画像の組は、領域の組を含むデプス画像に関連し、領域の前記組の各領域は、所定のデプスの領域に対応し、
前記デバイスは、
セグメント化画像を生成するモジュールであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
バイナリエッジ画像を生成するモジュールであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の少なくとも1つの領域に対応し、
前記セグメント化画像と前記バイナリエッジ画像を組み合わせることによって、少なくとも1つの画像の前記組をレンダリングするモジュールと、を含む、デバイス。
(付記14)
コンピュータによって読み取り可能であり、プロセッサによって実行可能な、通信ネットワークからダウンロード可能な又は媒体に記録されたコンピュータプログラム製品であって、付記1乃至12のいずれか1項に従う方法を実行するプログラムコード命令を含む、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305227.7A EP3211599A1 (en) | 2016-02-29 | 2016-02-29 | Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device |
EP16305227.7 | 2016-02-29 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017174416A JP2017174416A (ja) | 2017-09-28 |
JP2017174416A5 true JP2017174416A5 (ja) | 2020-04-09 |
JP7120740B2 JP7120740B2 (ja) | 2022-08-17 |
Family
ID=55586253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017034569A Active JP7120740B2 (ja) | 2016-02-29 | 2017-02-27 | 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11176728B2 (ja) |
EP (2) | EP3211599A1 (ja) |
JP (1) | JP7120740B2 (ja) |
KR (1) | KR20170101819A (ja) |
CN (1) | CN107133956B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741248B (zh) * | 2018-12-29 | 2023-06-13 | 深圳美图创新科技有限公司 | 水彩风格绘制方法及装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5048095A (en) * | 1990-03-30 | 1991-09-10 | Honeywell Inc. | Adaptive image segmentation system |
US6476805B1 (en) | 1999-12-23 | 2002-11-05 | Microsoft Corporation | Techniques for spatial displacement estimation and multi-resolution operations on light fields |
US7738725B2 (en) * | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
JP4610411B2 (ja) | 2004-05-17 | 2011-01-12 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | 物体を含むシーンの様式化された画像を生成する方法 |
CN101542529B (zh) * | 2006-11-21 | 2012-10-03 | 皇家飞利浦电子股份有限公司 | 图像的深度图的生成方法和图像处理单元 |
GB0712690D0 (en) * | 2007-06-29 | 2007-08-08 | Imp Innovations Ltd | Imagee processing |
EP2034436A1 (en) * | 2007-09-06 | 2009-03-11 | Thomson Licensing | Method for non-photorealistic rendering |
WO2010037512A1 (en) | 2008-10-02 | 2010-04-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Intermediate view synthesis and multi-view data signal extraction |
CN101945295B (zh) | 2009-07-06 | 2014-12-24 | 三星电子株式会社 | 生成深度图的方法和设备 |
US8817015B2 (en) | 2010-03-03 | 2014-08-26 | Adobe Systems Incorporated | Methods, apparatus, and computer-readable storage media for depth-based rendering of focused plenoptic camera data |
WO2011158498A1 (ja) * | 2010-06-15 | 2011-12-22 | パナソニック株式会社 | 撮像装置及び撮像方法 |
US8665341B2 (en) | 2010-08-27 | 2014-03-04 | Adobe Systems Incorporated | Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data |
CN102696219B (zh) * | 2010-11-08 | 2016-03-23 | 松下电器产业株式会社 | 摄像装置、摄像方法及集成电路 |
US20140176592A1 (en) | 2011-02-15 | 2014-06-26 | Lytro, Inc. | Configuring two-dimensional image processing based on light-field parameters |
US8928737B2 (en) | 2011-07-26 | 2015-01-06 | Indiana University Research And Technology Corp. | System and method for three dimensional imaging |
US20130070049A1 (en) * | 2011-09-15 | 2013-03-21 | Broadcom Corporation | System and method for converting two dimensional to three dimensional video |
CN102663766B (zh) * | 2012-05-04 | 2014-10-22 | 云南大学 | 一种基于非真实感的艺术插画效果绘制方法 |
CN102831582B (zh) | 2012-07-27 | 2015-08-12 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
CN103067705B (zh) | 2012-12-19 | 2016-06-08 | 宁波大学 | 一种多视点深度视频预处理方法 |
TWI538512B (zh) * | 2013-06-27 | 2016-06-11 | 聚晶半導體股份有限公司 | 調整對焦位置的方法及電子裝置 |
AU2013206597A1 (en) * | 2013-06-28 | 2015-01-22 | Canon Kabushiki Kaisha | Depth constrained superpixel-based depth map refinement |
US20150104101A1 (en) | 2013-10-14 | 2015-04-16 | Apple Inc. | Method and ui for z depth image segmentation |
US9607207B1 (en) * | 2014-03-31 | 2017-03-28 | Amazon Technologies, Inc. | Plane-fitting edge detection |
CN103942824B (zh) | 2014-05-15 | 2017-01-11 | 厦门大学 | 一种三维点云直线特征提取方法 |
US9704250B1 (en) * | 2014-10-30 | 2017-07-11 | Amazon Technologies, Inc. | Image optimization techniques using depth planes |
EP3262606A1 (en) * | 2015-02-25 | 2018-01-03 | BAE Systems PLC | An image processing method and apparatus for determining depth within an image |
EP3298577B1 (en) * | 2015-05-18 | 2019-11-27 | Nokia Technologies Oy | Filtering depth map image using texture and depth map images |
CN105069808B (zh) | 2015-08-31 | 2017-09-26 | 四川虹微技术有限公司 | 基于图像分割的视频图像深度估计方法 |
-
2016
- 2016-02-29 EP EP16305227.7A patent/EP3211599A1/en not_active Withdrawn
-
2017
- 2017-02-21 EP EP17157079.9A patent/EP3211600B1/en active Active
- 2017-02-22 US US15/439,878 patent/US11176728B2/en active Active
- 2017-02-27 KR KR1020170025596A patent/KR20170101819A/ko unknown
- 2017-02-27 JP JP2017034569A patent/JP7120740B2/ja active Active
- 2017-02-28 CN CN201710248220.XA patent/CN107133956B/zh active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10846870B2 (en) | Joint training technique for depth map generation | |
CN109493350B (zh) | 人像分割方法及装置 | |
US20190378247A1 (en) | Image processing method, electronic device and non-transitory computer-readable recording medium | |
JP6154075B2 (ja) | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 | |
CN106157273B (zh) | 生成合成图片的方法及装置 | |
US9542735B2 (en) | Method and device to compose an image by eliminating one or more moving objects | |
US10269100B1 (en) | Accelerated skin smoothing effect | |
WO2020024585A1 (zh) | 一种训练物体检测模型的方法、装置以及设备 | |
US9208548B1 (en) | Automatic image enhancement | |
JP6866889B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
EP3495996A3 (en) | Image processing method and apparatus, and electronic device | |
CN111027438B (zh) | 一种人体姿态的迁移方法、移动终端以及计算机存储介质 | |
JP2016502218A5 (ja) | ||
JP2016509811A5 (ja) | ||
JP2018530963A5 (ja) | ||
JP2015225665A (ja) | 画像ノイズ除去方法及び画像ノイズ除去装置 | |
CN107622504B (zh) | 用于处理图片的方法和装置 | |
CN110166684B (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
WO2014169579A1 (zh) | 一种色彩增强方法及装置 | |
US11238276B2 (en) | Automatic image capture system based on a determination and verification of a physical object size in a captured image | |
US9357123B1 (en) | Image defocus blur estimation | |
RU2013102854A (ru) | Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой | |
JP2018533273A5 (ja) | ||
CN113538502A (zh) | 图片裁剪方法、装置、电子设备及存储介质 | |
CN111369557B (zh) | 图像处理方法、装置、计算设备和存储介质 |