JP2005341569A - Method for generating stylized image of scene including object - Google Patents

Method for generating stylized image of scene including object Download PDF

Info

Publication number
JP2005341569A
JP2005341569A JP2005143803A JP2005143803A JP2005341569A JP 2005341569 A JP2005341569 A JP 2005341569A JP 2005143803 A JP2005143803 A JP 2005143803A JP 2005143803 A JP2005143803 A JP 2005143803A JP 2005341569 A JP2005341569 A JP 2005341569A
Authority
JP
Japan
Prior art keywords
image
edge
depth
edges
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005143803A
Other languages
Japanese (ja)
Other versions
JP4610411B2 (en
Inventor
Ramesh Raskar
ラメッシュ・ラスカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/847,068 external-priority patent/US7738725B2/en
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2005341569A publication Critical patent/JP2005341569A/en
Application granted granted Critical
Publication of JP4610411B2 publication Critical patent/JP4610411B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for generating a stylized image of a scene including an object. <P>SOLUTION: A set of n input images are acquired of the scene with a camera. Each one of the n input images is illuminated by one of a set of n light sources mounted on a body of the camera at different positions from a center of projection of a lens of the camera. Ambient lighting can be used to illuminate one image. Features in the set of n input images are detected. The features include depth edges, intensity edges, and texture edges to determine qualitative depth relationships between the depth edges, the intensity edges and the texture edges. The set of n input images are then combined in an output image to enhance the detected features according to the qualitative relationships. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、包括的にはノンフォトリアリスティック画像をレンダリングすることに関し、特に、自然のシーンおよび物体から取得した画像からノンフォトリアリスティック画像を生成することに関する。   The present invention relates generally to rendering non-photorealistic images, and more particularly to generating non-photorealistic images from images acquired from natural scenes and objects.

本発明の目的は、実世界のシーンおよび物体から取得された画像から様式化された画像を生成することである。様式化された画像は、描写される物体の形状について見る者の理解を深めることができる。ノンフォトリアリスティックレンダリング(NPR)技法は、物体の形状の輪郭を描き、移動部分を強調して動作を示し、影およびテクスチャの細部といったビジュアルクラッタ(visual clutter)を低減することを目的としている。様式化された画像は、機械部品、植物または内視鏡等の検査を受けている患者の体内のような低コントラストで幾何学的に複雑なシーンをレンダリングするために有用である。   An object of the present invention is to generate a stylized image from images acquired from real world scenes and objects. Stylized images can deepen the viewer's understanding of the shape of the object being depicted. Non-photorealistic rendering (NPR) techniques are intended to outline the shape of an object, highlight moving parts to show motion, and reduce visual clutter such as shadows and texture details. Stylized images are useful for rendering low contrast, geometrically complex scenes such as the body of a patient undergoing an examination, such as mechanical parts, plants or endoscopes.

シーンの豊かな3D幾何モデルが入手可能である場合、単純なシーンの視点に依存する輪郭の部分集合をレンダリングすることは比較的良く理解されている作業である(Saito等著「Comprehensible Rendering of 3-D Shapes」(Proceedings of SIGGRAPH'90, 1990)、およびMarkosian等著「Real-Time Non-photorealistic Rendering」(Proceedings of SIGGRAPH'97, pp. 415-420, 1997))。しかしながら、この手法を実世界のシーン、たとえば花を咲かせた植物に、最初にその植物の3Dモデルを生成することによって拡張することは、ほぼ不可能ではないにしろ困難である。   If a rich 3D geometric model of the scene is available, rendering a subset of contours that depends on the simple scene viewpoint is a relatively well-understood task (Saito et al., “Comprehensible Rendering of 3 -D Shapes "(Proceedings of SIGGRAPH '90, 1990), and" Real-Time Non-photorealistic Rendering "by Markosian et al. (Proceedings of SIGGRAPH '97, pp. 415-420, 1997)). However, it is difficult, if not nearly impossible, to extend this approach to real-world scenes, such as flowered plants, by first generating a 3D model of the plant.

3Dシーンの幾何の取得を迂回することが望ましい。その代わりに、目的は、カメラによって取得された画像から実世界のシーンの様式化された画像を直接生成することである。   It is desirable to bypass the acquisition of 3D scene geometry. Instead, the goal is to generate a stylized image of the real world scene directly from the image acquired by the camera.

従来技術において、利用可能な技法の大半は、単一の画像を処理して様式化された画像を生成する。通常、画像の分割、エッジの検出および色の割り当てといった形態学的な動作が適用される。技法の中には、様式化された描写を目的とするものも(DeCarlo等著「Stylization and Abstraction of Photographs」(Proc. Siggraph 02, ACM Press, 2002)、およびHertzmann著「Painterly Rendering with Curved Brush Strokes of Multiple Sizes」(ACM SIGGRAPH, pp. 453-460, 1998)を参照されたい)、判読性を高めるものもある。   In the prior art, most of the available techniques process a single image to produce a stylized image. Usually, morphological operations such as image segmentation, edge detection and color assignment are applied. Some techniques are intended for stylized depiction (DeCarlo et al. “Stylization and Abstraction of Photographs” (Proc. Siggraph 02, ACM Press, 2002), and Hertzmann “Painterly Rendering with Curved Brush Strokes”. of Multiple Sizes "(see ACM SIGGRAPH, pp. 453-460, 1998), some of which improve legibility.

ロトスコーピングといった様式化されたレンダリングのための対話型の技法も知られている。しかしながら、綿密な手動操作を必要とせずに、様式化された画像を生成する過程を自動化することが望ましい。   Interactive techniques for stylized rendering such as rotoscoping are also known. However, it is desirable to automate the process of generating stylized images without the need for careful manual manipulation.

航空写真において、シーン内の影は、平坦な地面および均一なアルベドを仮定して単一の輝度画像を閾値処理することによって特定されて、地形および建物の高さを推測する(Huertas等著「Detecting buildings in aerial images」(Computer Vision, Graphics and Image Processing 41, 2, pp. 131-152, 1998)、Irvin等著「Methods for exploiting the relationship between buildings and their shadows in aerial imagery」(IEEE Transactions on Systems, Man and Cybernetics 19, 6, pp. 1564-1575, 1989)、およびLin等著「Building detection and description from a single intensity image」(Computer Vision and Image Understanding: CVIU 72, 2, pp. 101-121, 1998)を参照されたい)。   In aerial photography, shadows in the scene are identified by thresholding a single luminance image assuming a flat ground and a uniform albedo to infer terrain and building height (Huertas et al., “ "Detecting buildings in aerial images" (Computer Vision, Graphics and Image Processing 41, 2, pp. 131-152, 1998), "Methods for exploiting the relationship between buildings and their shadows in aerial imagery" (IEEE Transactions on Systems) , Man and Cybernetics 19, 6, pp. 1564-1575, 1989), and Lin et al., “Building detection and description from a single intensity image” (Computer Vision and Image Understanding: CVIU 72, 2, pp. 101-121, 1998)).

技法の中には、影抽出技法を用いて影の取り込みを改善するものもあり、それによって、影マット(shadow mattes)を求めるか(Chuang等著「Shadow matting and compositing」(ACM Trans. Graph. 22, 3, pp. 494-500, 2003))、あるいは影を全て除去してシーンの分割を改善する(Toyama等著「Wallflower: Principles and Practice of Background Maintenance」(ICCV, pp. 255-261, 1999))。固有の(intrinsic)画像を用いて、他の技法は、影をはっきりと検出せずに影を除去する(Weiss著「Deriving intrinsic images from image sequences」(Proceedings of ICCV, vol. 2, pp. 68-75, 2001))。   Some techniques use shadow extraction techniques to improve the capture of shadows, thereby determining shadow mattes ("Shadow matting and compositing" by Chuang et al. (ACM Trans. Graph. 22, 3, pp. 494-500, 2003) or removing all shadows to improve scene segmentation (Toyama et al. “Wallflower: Principles and Practice of Background Maintenance” (ICCV, pp. 255-261, 1999)). Using intrinsic images, other techniques remove shadows without detecting shadows clearly (Deriving intrinsic images from image sequences by Weiss (Proceedings of ICCV, vol. 2, pp. 68). -75, 2001)).

受動的および能動的な照明を用いるステレオ技法は通常、深度エッジを検出するのではなく、深度値または表面の向きを求めるように設計される。深度エッジまたは不連続性は、照合過程を混乱させる部分遮蔽に起因して、従来のステレオ技法に問題を生じる(Geiger等著「Occlusions and binocular stereo」(European Conference on Computer Vision, pp. 425-433, 1992))。   Stereo techniques using passive and active illumination are usually designed to determine depth values or surface orientations rather than detecting depth edges. Depth edges or discontinuities cause problems with traditional stereo techniques due to partial occlusion that disrupts the matching process (Geiger et al., “Occlusions and binocular stereo” (European Conference on Computer Vision, pp. 425-433). , 1992)).

技法の中には、不連続点および遮蔽を直接モデル化しようとするものもある(Intille等著「Disparity-space images and large occlusion stereo」(ECCV (2), pp. 179-186, 1994)、Birchfield等著「Depth discontinuities by pixel-to-pixel stereo」(International Journal of Computer Vision 35, 3, pp. 269-293, 1999)、およびScharstein等著「A taxonomy and evaluation of dense two-frame stereo correspondence algorithms」(International Journal of Computer Vision, vol. 47(1), pp. 7-42, 2002))。   Some techniques attempt to model discontinuities and occlusions directly (Intille et al. “Disparity-space images and large occlusion stereo” (ECCV (2), pp. 179-186, 1994), Birchfield et al. “Depth discontinuities by pixel-to-pixel stereo” (International Journal of Computer Vision 35, 3, pp. 269-293, 1999) and Scharstein et al. “A taxonomy and evaluation of dense two-frame stereo correspondence algorithms (International Journal of Computer Vision, vol. 47 (1), pp. 7-42, 2002)).

通常より良好な結果を生じる能動的な照明方法が深度の抽出、影からの形状、影−時間ステレオ、および照度差ステレオに用いられている。残念ながら、これらの方法は深度の不連続点の周囲において不安定である(Sato等著「Stability issues in recovering illumination distribution from brightness in shadows」(IEEE Conf. on CVPR, pp. 400-407, 2001))。   Active lighting methods that produce better results than usual are used for depth extraction, shape from shadows, shadow-time stereo, and photometric stereo. Unfortunately, these methods are unstable around depth discontinuities (Sato et al. “Stability issues in recovering illumination distribution from brightness in shadows” (IEEE Conf. On CVPR, pp. 400-407, 2001). ).

或る技法は、多種多様な照明下で取得された画像内の検出された輝度エッジに対して論理演算を行い、形状の境界を保存する(Shirai等著「Extraction of the line drawing of 3-dimensional objects by sequential illumination from several directions」(Pattern Recognition, 4, 4, pp. 345-351, 1972))。この技法はまた、均一なアルベドシーンに制限されている。   One technique performs logical operations on detected luminance edges in images acquired under a wide variety of illuminations and preserves shape boundaries (Shirai et al., “Extraction of the line drawing of 3-dimensional”). objects by sequential illumination from several directions "(Pattern Recognition, 4, 4, pp. 345-351, 1972)). This technique is also limited to uniform albedo scenes.

照度差ステレオ技法を用いた場合、輝度統計を解析して、遮蔽輪郭における曲率の高い領域または折り目(folds)を検出することが可能である(Huggins等著「Finding Folds: On the Appearance and Identification of Occlusion」(IEEE Conf. on Computer Vision and Pattern Recognition, IEEE Computer Society, vol. 2, pp 718-725, 2001))。この技法は、遮蔽輪郭付近の領域を検出するが、輪郭そのものは検出しない。この技法は、表面の部分が局所的に滑らかであるものと仮定する。したがって、この技法は、一枚の(a leaf or piece of)紙といった平坦な前景物体、または立方体の角のような視点に依存しないエッジの場合に失敗する。   When photometric stereo techniques are used, luminance statistics can be analyzed to detect areas of high curvature or folds in the occluded contours (Huggins et al., “Finding Folds: On the Appearance and Identification of Occlusion "(IEEE Conf. On Computer Vision and Pattern Recognition, IEEE Computer Society, vol. 2, pp 718-725, 2001)). This technique detects the area near the occluded contour, but not the contour itself. This technique assumes that the surface portion is locally smooth. Thus, this technique fails for flat foreground objects such as a leaf or piece of paper, or for edge-independent edges such as cube corners.

影または暗部から形状を求める技法は移動する光源から連続的な表現、たとえば射影を構築する。連続的な深度の推定は射影から可能である(Raviv等著「Reconstruction of three-dimensional surfaces from two-dimensional binary images」(IEEE Transactions on Robotics and Automation, vol. 5(5), pp. 701-710, 1989)、Langer等著「Space occupancy using multiple shadowimages」(International Conference on Intelligent Robots and Systems, pp. 390-396, 1995)、およびDaum等著「On 3-D surface reconstruction using shape from shadows」(CVPR, pp. 461-468, 1998))。この技法は、影の開始および終了の正確な検出を必要とする。これにより、連続的な高さを推定することは困難になる。   Techniques for determining shapes from shadows or dark areas construct a continuous representation, such as a projection, from a moving light source. Continuous depth estimation is possible by projection (Raconstruct et al., “Reconstruction of three-dimensional surfaces from two-dimensional binary images” (IEEE Transactions on Robotics and Automation, vol. 5 (5), pp. 701-710). , 1989), “Space occupancy using multiple shadowimages” by Langer et al. (International Conference on Intelligent Robots and Systems, pp. 390-396, 1995), and “On 3-D surface reconstruction using shape from shadows” by Daum et al. (CVPR , pp. 461-468, 1998)). This technique requires accurate detection of shadow start and end. This makes it difficult to estimate the continuous height.

影を基にする形状の解析方法の概説が、Yang著「Shape from Darkness Under Error」(PhD thesis, Columbia University, 1996)、Kriegman等著「What shadows reveal about object structure」(Journal of the Optical Society of America, pp. 1804-1813, 2001)、およびSavarese等著「Shadow Carving」(Proc. of the Int. Conf. on Computer Vision, 2001)によって記載されている。   An overview of shadow-based shape analysis methods is provided by Yang “Shape from Darkness Under Error” (PhD thesis, Columbia University, 1996), Kriegman et al. “What shadows reveal about object structure” (Journal of the Optical Society of America, pp. 1804-1813, 2001) and “Shadow Carving” by Savarese et al. (Proc. Of the Int. Conf. On Computer Vision, 2001).

既知の能動的な照明に共通する制限は、推定されたまたは既知の3D光位置から画像の有効な影付けおよび影の変化を得るためには、光源が物体を取り囲む必要があることである。これは、これらの技法のスタジオまたは工業用の環境への応用を制限する固定されたライティングリグ(lighting rig)を必要とする。   A limitation common to known active illumination is that the light source needs to surround the object in order to obtain effective shading and change in the image from the estimated or known 3D light position. This requires a fixed lighting rig that limits the application of these techniques to studio or industrial environments.

深度エッジは多くの技法に固有の滑らかさの仮定に背く場合が多いため、深度および3D方面形状を求めるための既知の方法と相補的な方法で画像から深度エッジを抽出することが望ましい。   Because depth edges often violate the smoothness assumption inherent in many techniques, it is desirable to extract depth edges from an image in a manner complementary to known methods for determining depth and 3D directional shape.

深度の不連続点の場所を確実に検出し、入力として供給することができれば、多くの3D表面再構成過程の性能を著しく高めることができる。   If the location of depth discontinuities can be reliably detected and supplied as input, the performance of many 3D surface reconstruction processes can be significantly enhanced.

対応問題を解いたり、移動する光を用いて画素の輝度統計を解析したりすることなく深度エッジを検出することが望ましい。さらに、面法線が急激に変化する複雑な実世界のシーン(たとえば鉢植えの植物)、または深度の複雑度が高い、あるいは輝度の変化が小さいシーン(たとえば車のエンジンまたは検診を受けている人間の骨)からNPR画像を生成できることが望ましい。   It is desirable to detect depth edges without solving the correspondence problem or analyzing pixel brightness statistics using moving light. In addition, complex real-world scenes with rapidly changing surface normals (eg, potted plants), or scenes with high depth complexity or small changes in brightness (eg, humans undergoing car engines or screening) It is desirable that an NPR image can be generated from the bone).

本発明は、3Dモデルを再構成することなく実世界のシーンおよび物体の形状特徴を正確に取り込んで伝えるノンフォトリアリスティックレンダリング(NPR)のためのシステムおよび方法を提供する。   The present invention provides a system and method for non-photorealistic rendering (NPR) that accurately captures and conveys real-world scene and object shape features without reconstructing the 3D model.

本発明は、複数の光源、たとえばカメラ本体のレンズの周囲に位置付けられて、異なる角度からシーン内の深度の不連続点に沿って影を投じるフラッシュユニットを有するカメラを用いる。   The present invention uses a camera having a plurality of light sources, eg, flash units that are positioned around the lens of the camera body and cast shadows from different angles along depth discontinuities in the scene.

次に、カメラとフラッシュユニットの間の投影−幾何の関係を使用して、深度の不連続点を検出し、不連続点を、シーン内の物質の不連続点に起因する輝度エッジと区別する。   Next, the projection-geometric relationship between the camera and the flash unit is used to detect depth discontinuities and distinguish them from luminance edges due to material discontinuities in the scene. .

本発明は、検出されたエッジ特徴を使用して、様式化された静止画および動画画像、たとえば映像を生成する。検出された特徴を強調することができ、不要な細部を抑制することができる。また、複数の画像からの特徴を合成することができる。結果として得られる画像は、実世界のシーンおよび物体の3D構造を明確に伝える。   The present invention uses the detected edge features to generate stylized still and moving images, such as videos. The detected features can be emphasized and unnecessary details can be suppressed. In addition, features from a plurality of images can be combined. The resulting image clearly conveys the 3D structure of real world scenes and objects.

本発明によるシステムは、従来のデジタルカメラと同様のサイズおよび形状の単一パッケージとして構成されることができる。したがって、本発明によるシステムは、従来技術のNPRシステムおよび方法と比較して、携帯可能であり、使い易く、かつ低費用で製造できる。   The system according to the invention can be configured as a single package of the same size and shape as a conventional digital camera. Thus, the system according to the present invention is portable, easy to use and can be manufactured at low cost compared to prior art NPR systems and methods.

本発明は、実世界のシーンの様式化された画像および様式化された映像をレンダリングすることによって形状を伝えるための単純であるが効果的な方法を提供する。本発明は、光源と投じられた影の間のエピポーラの関係を利用して、シーンの複数の画像から幾何特徴を抽出する。3Dシーンの再構成に基づくのではなく、画像空間の不連続性を利用することによって、本発明の方法は、基礎となるシーンのプリミティブを強力に取得して異なる様式でレンダリングすることができる。   The present invention provides a simple but effective way to convey shapes by rendering stylized images and stylized video of real world scenes. The present invention extracts geometric features from multiple images of a scene using the epipolar relationship between the light source and the cast shadow. By taking advantage of image space discontinuities rather than based on 3D scene reconstruction, the method of the present invention can strongly capture and render the underlying scene primitives in different ways.

本発明は、基本的なカメラ構成、関連する特徴抽出およびレンダリング過程を提供する。深度エッジは、実世界のシーンのあらゆる画像内の基本的なプリミティブであるため、本発明は、ノンフォトリアリスティックなレンダリングを超えた用途で深度エッジ情報を用いることができる方法を説明する。   The present invention provides a basic camera configuration, associated feature extraction and rendering process. Since depth edges are fundamental primitives in every image of a real world scene, the present invention describes how depth edge information can be used in applications beyond non-photorealistic rendering.

本発明は、カメラ本体のレンズの周囲に配置される複数のフラッシュユニットを有するスチルカメラまたはビデオカメラを用いる。シーン中の点の完全な3D座標を推定し、次に深度の不連続点を見つけなければならない代わりに、本発明による方法は、深度エッジ回復の一般的な3D問題を輝度ステップエッジ検出の問題に低減する。   The present invention uses a still camera or video camera having a plurality of flash units arranged around the lens of the camera body. Instead of estimating the full 3D coordinates of points in the scene and then finding depth discontinuities, the method according to the present invention replaces the general 3D problem of depth edge recovery with the problem of luminance step edge detection. To reduce.

したがって、イメージング幾何の画像幾何を利用して、実世界のシーンおよび物体の様式化された画像を単純かつ低費用でレンダリングすることができる。本発明のカメラの解決策は、プロの芸術家ならびに一般の撮影者にとって有用なツールとなることができる。   Thus, imaging geometry of imaging geometry can be used to render stylized images of real world scenes and objects simply and inexpensively. The camera solution of the present invention can be a useful tool for professional artists as well as general photographers.

NPRカメラ
図1Aは、本発明によるノンフォトリアリスティック(NPR)画像を生成するためのデジタルカメラ100を示す。カメラ100は複数の光源、たとえば、フラッシュユニット101〜104と、単一のレンズ105とを備える。フラッシュユニット101〜104は、レンズ105の投影中心(COP)106の周囲に分散して配置される。最も良好な結果を得るために、フラッシュユニットはできる限りCOPの近くに配置される。それゆえ、フラッシュユニットをカメラ体の前面107に取り付けることは理に適っている。
NPR Camera FIG. 1A shows a digital camera 100 for generating non-photorealistic (NPR) images according to the present invention. The camera 100 includes a plurality of light sources, for example, flash units 101 to 104 and a single lens 105. The flash units 101 to 104 are distributed around the projection center (COP) 106 of the lens 105. In order to obtain the best results, the flash unit is placed as close as possible to the COP. Therefore, it makes sense to attach the flash unit to the front face 107 of the camera body.

以下で説明する1実施形態において、フラッシュユニットは、レンズの投影中心から別々の距離に位置付けられる。   In one embodiment described below, the flash unit is positioned at different distances from the projection center of the lens.

図1Bに示される最適な構成では、フラッシュユニット101〜104は左右および上下の対で操作される。これにより、画像110〜114内の画素が、少なくとも4つのライティング条件、すなわち下側に影ができる場合、上側に影ができる場合、左側に影ができる場合、および右側に影ができる場合についてイメージングされることができる。したがって、隣接する画素が、少なくとも1つの画像では影で覆われ、少なくとも1つの他の画像では影で覆われない。また、たとえ影があってもわずかであるように1つの画像を周辺からの光で収集することができる。   In the optimal configuration shown in FIG. 1B, the flash units 101-104 are operated in left / right and top / bottom pairs. As a result, the pixels in the images 110 to 114 are imaged for at least four lighting conditions, that is, a shadow on the lower side, a shadow on the upper side, a shadow on the left side, and a shadow on the right side. Can be done. Thus, adjacent pixels are covered with shadows in at least one image and not covered with shadows in at least one other image. Moreover, even if there is a shadow, one image can be collected with light from the surroundings so that there is little.

また、この構成は、エピポーラ横断を効率的にする。左右対の場合、その横断は、水平方向の走査線に沿って近似することができる。上下対の場合、その横断は、垂直方向に沿う。図1Cは3つのフラッシュユニットを備える構成を示す。図8は別の構成を示す。   This configuration also makes the epipolar traversal efficient. In the case of a left-right pair, the crossing can be approximated along a horizontal scan line. In the case of an upper and lower pair, the crossing is along the vertical direction. FIG. 1C shows a configuration with three flash units. FIG. 8 shows another configuration.

フラッシュユニットは、光学的に結合されたLEDによって起動することができる。LEDはマイクロコントローラ120によって、或る順序で1つずつオンにされ、対応するフラッシュユニットが起動される。フラッシュ持続時間は約4ミリ秒である。1つのフラッシュユニットがシーンを照明する毎に1つの画像が収集される。   The flash unit can be activated by an optically coupled LED. The LEDs are turned on one by one in a certain order by the microcontroller 120 and the corresponding flash unit is activated. The flash duration is about 4 milliseconds. One image is collected each time one flash unit illuminates the scene.

カメラの解像度は約4メガピクセルであるが、それよりも低い解像度あるいは高い解像度も実現可能である。   The camera resolution is about 4 megapixels, although lower or higher resolutions can be realized.

全ての新型のデジタルカメラと同様に、本発明のカメラもマイクロプロセッサ120およびメモリ130を備える。マイクロプロセッサ120は、本明細書に記載される動作、具体的には様式化された画像を生成するための方法200を実行するように設計される。図2を参照されたい。   As with all new digital cameras, the camera of the present invention includes a microprocessor 120 and a memory 130. The microprocessor 120 is designed to perform the operations described herein, specifically the method 200 for generating stylized images. Please refer to FIG.

メモリ130を用いて、収集された画像と、他の中間的な画像とを線形化した形で格納する。またメモリは、本明細書に記載される方法および手順によって用いられるデータも格納する。出力される様式化された画像201も、後にポート140を経由して閲覧用の外部装置にダウンロードするために、メモリに格納することができる。   A memory 130 is used to store the acquired image and other intermediate images in a linearized form. The memory also stores data used by the methods and procedures described herein. The stylized image 201 that is output can also be stored in memory for later downloading via the port 140 to an external device for viewing.

カメラ100は、複数の画像を高速で連続撮影し、フレームシーケンスあるいは映像を生成することができることに留意すべきである。これらも、本明細書に記載されるように様式化することができる。また、画像110〜114は、スタンドアローンプロセッサ、たとえばデスクトップシステムあるいはポータブルコンピューティング装置において後に処理するために、本発明と整合性のある他の技法を用いることにより収集することができることにも留意すべきである。   It should be noted that the camera 100 can continuously capture a plurality of images at a high speed to generate a frame sequence or video. These can also be stylized as described herein. Note also that images 110-114 can be collected by using other techniques consistent with the present invention for later processing in a stand-alone processor, such as a desktop system or portable computing device. Should.

カメラはビデオカメラの形態であってもよいことにも留意すべきである。この場合、カメラは、複数の画像シーケンス(映像)を収集し、各シーケンスがフラッシュユニットによる異なる照明条件に対応し、出力が様式化された映像となるようにする。   It should also be noted that the camera may be in the form of a video camera. In this case, the camera collects a plurality of image sequences (videos) so that each sequence corresponds to a different lighting condition by the flash unit and the output is a stylized video.

カメラ動作
図2は、或るシーンの様式化された画像201を生成するための本発明の方法200を示す。様式化とは、本明細書に記載されるように、エッジのような特定の細部を有するあらゆるノンフォトリアリスティック画像が強調され、テクスチャおよび単調な背景のような他の細部が削減、抽象化あるいは他の方法で簡略化されることを意味している。
Camera Operation FIG. 2 shows the inventive method 200 for generating a stylized image 201 of a scene. Stylization, as described herein, emphasizes any non-photorealistic image with specific details such as edges, reduces and abstracts other details such as textures and monotonous backgrounds Or it means that it is simplified by other methods.

最初に、図1のカメラ100によって、あるいは図に示されている構成と同様の何らかの他のカメラおよびフラッシュユニットによって、1組の画像110〜114が収集される210。各画像は、制御された異なるライティング条件下で収集される。図示される構成の場合、1つの画像は周囲からの光で、すなわちフラッシュを用いることなく撮影され、1つの画像は上側フラッシュユニットを用いて撮影され、1つの画像は下側フラッシュユニットを用いて撮影され、1つの画像は左側フラッシュユニットを用いて撮影され、1つの画像は右側フラッシュユニットを用いて撮影される。最低限、2つのフラッシュユニットおよび3つの画像が必要とされるが、さらに多くの、たとえば4〜8の画像およびフラッシュユニットを用いる場合、より良好な結果を得ることができる。フラッシュユニットがレンズの投影中心から別々の距離に配置される場合、さらに良好な結果を得ることができる。   Initially, a set of images 110-114 is collected 210 by the camera 100 of FIG. 1 or by some other camera and flash unit similar to the configuration shown in the figure. Each image is collected under different controlled lighting conditions. In the illustrated configuration, one image is taken with ambient light, ie without a flash, one image is taken with the upper flash unit, and one image is taken with the lower flash unit. One image is taken using the left flash unit and one image is taken using the right flash unit. At a minimum, two flash units and three images are required, but better results can be obtained when using more, for example 4-8 images and flash units. Even better results can be obtained if the flash units are arranged at different distances from the projection center of the lens.

1組の画像がマイクロプロセッサ120によって処理され、シルエットエッジが検出され220、テクスチャ領域が特定される230。その後、画像の組み合わせのシルエットエッジおよびテクスチャ領域を用いて、様式化された画像201が提供される。たとえば、シルエットエッジの幅を、そのエッジにおける深度不連続点のサイズに比例させ、テクスチャ領域を色勾配に従ってデエンファシスする。   A set of images is processed by the microprocessor 120, silhouette edges are detected 220, and texture regions are identified 230. A stylized image 201 is then provided using the silhouette edges and texture regions of the image combination. For example, the width of the silhouette edge is proportional to the size of the depth discontinuity at that edge, and the texture region is deemphasized according to the color gradient.

本発明は、各画像内の各画素を、シルエットエッジ画素、テクスチャエッジ画素、あるいは特徴のない画素のいずれかとして分類する。   The present invention classifies each pixel in each image as either a silhouette edge pixel, a texture edge pixel, or a featureless pixel.

本発明では、シルエットエッジ画素という用語を用いて、シーン内にC0の深度不連続点を有する画素のことを指す。これらシルエットエッジ画素は、法線が視野方向に垂直であるシーン内の物体の表面上の点に対応する画素を含む。また本発明は、薄い物体、たとえば一枚の紙の境界に対応する画素、および立方体のような視点に依存しない物体のエッジに対応する画素も含み、これらのタイプの物体はいずれも深度不連続点を有する。シルエットエッジ画素は、自己遮蔽に起因して、物体の内部に属することもできる。   In the present invention, the term silhouette edge pixel is used to refer to a pixel having a C0 depth discontinuity in the scene. These silhouette edge pixels include pixels corresponding to points on the surface of the object in the scene whose normal is perpendicular to the viewing direction. The invention also includes pixels that correspond to the edges of thin objects, such as the border of a piece of paper, and the edges of objects that do not depend on the viewpoint, such as cubes, both of which are depth discontinuous. Has a point. Silhouette edge pixels can also belong to the interior of an object due to self-occlusion.

テクスチャエッジ画素は、シーン内の反射率の変化および物質の不連続点に対応する。テクスチャ領域は通常テクスチャエッジによって輪郭を描かれる。しかしながら、テクスチャ領域は完全には包囲されない場合もある。   Texture edge pixels correspond to reflectance changes and material discontinuities in the scene. Texture regions are usually outlined by texture edges. However, the texture region may not be completely enclosed.

入力画像の特徴のない領域内の画素は、概ね一定の反射率および低い曲率を有するシーン内の領域、たとえば単調な背景の壁に対応する。これらの画素は、金属およびプラスチックのような「光沢のある」物質上の異方性の反射を含む、照明あるいは視野方向の変化に起因する、見え方のわずかな変化にも対応することができる。   Pixels in the featureless region of the input image correspond to regions in the scene that have a generally constant reflectivity and low curvature, such as a monotonous background wall. These pixels can also accommodate slight changes in appearance due to changes in illumination or viewing direction, including anisotropic reflections on “glossy” materials such as metals and plastics. .

画像収集
1組の画像110〜114が、レンズ105の投影中心(COP)106の極めて近くに配置されるフラッシュユニット101〜104を用いて、或るシーンから収集される210。図1を参照されたい。COPとフラッシュユニットとの間の基線150が短いことに起因して、そのシーン内の深度不連続点(エッジ)を表す長細い(a narrow sliver of)影がその画像内の各シルエットエッジ付近に現れる。
Image Collection A set of images 110-114 is collected 210 from a scene using flash units 101-104 that are placed very close to the projection center (COP) 106 of the lens 105. Please refer to FIG. Due to the short baseline 150 between the COP and the flash unit, a narrow sliver of shadows representing depth discontinuities (edges) in the scene are located near each silhouette edge in the image. appear.

個別の違うライティングを有する2つ以上の画像からのアタッチトキャストシャドウについての情報を組み合わせることにより、本発明はシルエットエッジ画素を検出することができる。   By combining information about attached cast shadows from two or more images with different distinct lighting, the present invention can detect silhouette edge pixels.

本明細書において、アタッチトキャストシャドウが画像空間において定義される。この定義は、物体空間内の従来のシェイプ・フロム・シャドウの定義とは全く異なる。その場合、光線が滑らかな物体に対して接線方向にある表面境界は、アタッチトシャドウ、すなわち「そのものの」影を有するものと見なされる。ここでは、アッタチトキャストシャドウは、物体と、その物体によって背景上に投じられる影とが画像空間において連続しているときに生成される。   In this specification, attached cast shadows are defined in image space. This definition is quite different from the conventional shape-from-shadow definition in object space. In that case, a surface boundary in which the ray is tangential to a smooth object is considered to have an attached shadow, or “as is” shadow. Here, the attach cast shadow is generated when an object and a shadow cast on the background by the object are continuous in the image space.

大部分の視点に依存しないエッジの場合、影のあるエリアは次の深度層上に投じられる影を含む。視点に依存するエッジの場合、影のあるエリアのごく一部がそのものの影を含む。   For edges that do not depend on most viewpoints, the shadowed area contains the shadow cast on the next depth layer. In the case of an edge that depends on the viewpoint, a small part of the shaded area includes its own shadow.

一般的には、影はフラッシュユニットの「反対」側にあり、すなわちフラッシュユニットがレンズの右側にある場合には、影はカメラ画像の深度不連続点の左側に現れ、別のフラッシュユニットは別の場所に影を投じる。図5Bを参照されたい。   In general, if the shadow is on the “opposite” side of the flash unit, that is, if the flash unit is on the right side of the lens, the shadow will appear on the left side of the depth discontinuity in the camera image and another flash unit will Cast a shadow on the place. See FIG. 5B.

シルエットエッジ画素の検出
図3は、本手法の根底をなすシルエットエッジ画素を検出するための手順300を示す。その概念は驚くほど簡単である。本発明の画像収集過程は照度差ステレオに密接に関連するが、本発明者らが知る限りでは、或るシーン内の影によって反映されるような深度不連続点を検出するためのコンピュータビジョンシステムにおいて照度差ステレオが用いられたことはない。照度差ステレオにより、本発明は、消去の過程によって他のエッジを分類できるようになる。
Silhouette Edge Pixel Detection FIG. 3 shows a procedure 300 for detecting silhouette edge pixels that underlie the present technique. The concept is surprisingly simple. Although the image acquisition process of the present invention is closely related to photometric stereo, to the best of our knowledge, a computer vision system for detecting depth discontinuities as reflected by shadows in a scene The illuminance difference stereo has never been used. The photometric stereo allows the present invention to classify other edges according to the erasing process.

その基本的な手順300は以下のように動作する。   The basic procedure 300 operates as follows.

或るシーンの周囲画像Iambient301を収集する。ただし、Iambientはいずれのフラッシュユニットも用いることなく、周囲からの光の下で撮影された画像である。 A surrounding image I ambient 301 of a certain scene is collected. However, I ambient is an image taken under the light from the surroundings without using any flash unit.

場所Pにおいて、点光源、すなわちフラッシュユニットを用いて、制御しながら照明されたそのシーンのn枚の画像I’(k=1,...,n)302を収集する。その画像は任意の順序で収集することができる。本発明の例では、n=4である。 At location P k , a point light source, ie a flash unit, is used to collect n images I ′ k (k = 1,..., N) 302 of the scene illuminated in a controlled manner. The images can be collected in any order. In the example of the present invention, n = 4.

照明された画像から周囲画像を差し引くこと310、すなわちI’−Iambientによって差画像I303が得られる。 A difference image I k 303 is obtained by subtracting 310 the surrounding image from the illuminated image, ie I ′ k −I ambient .

差画像から、最大画像Imax304が、Imax(x)=max(I(x))(k=1,...,n)として生成される320。すなわち、最大画像内の各画素は、差画像内の対応する画素の中の最大輝度値を有するものである。 From the difference image, a maximum image I max 304 is generated 320 as I max (x) = max k (I k (x)) (k = 1,..., N). That is, each pixel in the maximum image has the maximum luminance value among the corresponding pixels in the difference image.

差画像I毎に、除算によって全ての画素(x)について、R(x)=I(x)/Imax(x)として放射画像305が生成される330。すなわち、各差画像が最大画像によって割られる。 For each difference image I k , a radial image 305 is generated 330 for all pixels (x) by division as R k (x) = I k (x) / I max (x). That is, each difference image is divided by the largest image.

放射画像内の画素e341はエピポール画素であり、すなわちエピポール画素はPにおける対応する光源の画像である。従来の立体写真技法を用いて、エピポールを特定することができる。 Pixel e k 341 in the radiation image is an epipole pixel, ie an epipole pixel is an image of the corresponding light source at P k . Epipoles can be identified using conventional stereo photography techniques.

放射画像R305毎に、画素輝度とエピポール画素の画素輝度とを比較しながら、画像が横断される340。本発明において、放射状の横断とは、エピポール画素から所与の画素までの放射状の直線に沿って輝度エッジを検出することを意味する。この横断は、ライティングされたエリアから影のエリアへの、あるいはその逆への遷移を検出する。 For each radiation image R k 305, the image is traversed 340, comparing the pixel brightness and the pixel brightness of the epipole pixels. In the present invention, radial traversal means detecting a luminance edge along a radial line from an epipole pixel to a given pixel. This traversal detects a transition from the illuminated area to the shadow area and vice versa.

負の輝度遷移を有するステップで画素yを特定する。負の輝度遷移を有するこれらの画素yをシルエットエッジ画素306として指示する。シルエット画素として特定された全ての画素を最大画像内に重ね合わせることができ、結果として、全ての画像が処理されたときに、最大画像が全てのシルエット輪郭を示すようになる。   A pixel y is identified in a step having a negative luminance transition. Those pixels y having a negative luminance transition are indicated as silhouette edge pixels 306. All pixels identified as silhouette pixels can be overlaid in the maximum image, and as a result, when all images are processed, the maximum image will show all silhouette contours.

図4は、本発明に従ってシルエットエッジを強調した、花を生けた花瓶の様式化された画像400である。   FIG. 4 is a stylized image 400 of a flower vase with silhouette edges enhanced according to the present invention.

十分に大きな数のフラッシュユニットn(最低限2つであるが、通常4〜8)が用いられる場合、全ての向きおよび十分な深度差においてシルエットエッジ画素を検出することができる。そのシルエットがエピポーラ線に対して垂直な成分を有する場合には、照明されたエリアから影のあるエリアへの負の輝度遷移を有するエッジ画素が検出される。   If a sufficiently large number of flash units n (at least two, but usually 4-8) are used, silhouette edge pixels can be detected in all orientations and sufficient depth differences. If the silhouette has a component perpendicular to the epipolar line, an edge pixel having a negative luminance transition from the illuminated area to the shaded area is detected.

非常に簡単なシーンの場合、1つの照明された画像からいくつかのシルエットエッジが検出できることは理解すべきである。たとえば、主に垂直方向の深度不連続点を有するシーン、たとえば杭の囲いでは、1つの側方からの照明によって、複数のエッジを検出することができる。   It should be understood that for very simple scenes, several silhouette edges can be detected from a single illuminated image. For example, in a scene having mainly vertical depth discontinuities, such as a pile fence, multiple edges can be detected by illumination from one side.

ここで、手順300がさらに詳細に記載される。Imax画像は、カメラのCOP106に光源を有する画像を近似したものである。点光源が同じ大きさを有し、光源間の基線がそのシーンの深度よりも著しく小さいとき、この近似は概ね正確である。したがって、Imax画像は影内に画素を持たない。 The procedure 300 is now described in further detail. The I max image is an approximation of an image having a light source on the COP 106 of the camera. This approximation is generally accurate when the point light sources have the same size and the baseline between the light sources is significantly smaller than the depth of the scene. Thus, the I max image has no pixels in the shadow.

光源kによって照明されるエリアでは、比(I/Imax)は概ね1に等しく、影のあるエリアでは概ね0に等しい。それゆえ、負の輝度遷移の場所は影エッジを指示する。 In the area illuminated by the light source k, the ratio (I k / I max ) is approximately equal to 1 and in the shaded area is approximately equal to 0. Therefore, the location of the negative luminance transition indicates a shadow edge.

に光源があるものとすると、カメラ座標系内の拡散反射を有する3Dシーンの点Xのための画素xにおける輝度はI(x)によって与えられる。 Given a light source at P k , the luminance at pixel x for point X of the 3D scene with diffuse reflection in the camera coordinate system is given by I k (x).

3Dシーンの点Xが光源Pによって照明される場合には、以下の式が成り立つ。
(x)=μρ(x)・N(x)、そうでない場合には、
(x)=0
ここで、μという値は光の大きさであり、ρ(x)はシーン内の点Xにおける反射率であり、L(x)は正規化された光ベクトルL(x)=P−Xであり、N(x)は面法線であり、それらは全てカメラ座標系内にある。
When the point X of the 3D scene is illuminated by the light source P k , the following equation holds.
I k (x) = μ k ρ k L k (x) · N (x), otherwise
I k (x) = 0
Here, the value μ k is the magnitude of light, ρ k (x) is the reflectance at point X in the scene, and L k (x) is the normalized light vector L k (x) = P k -X, N (x) is the surface normal, and they are all in the camera coordinate system.

したがって、シーン内の点Xが点光源Pによって照明されるとき、その比は以下のように表される。 Therefore, when a point X in the scene is illuminated by a point light source P k , the ratio is expressed as follows:

Figure 2005341569
Figure 2005341569

0以外のρを有する拡散物体の場合、この比R(x)はアルベドρとは無関係であり、局所幾何のみの関数である。さらに、光源がカメラのCOP106に近く、かつX>>P(k)である場合には、この比は近似的に(μ/max(μ))であり、それは1組の無指向性の光源の場合に一定である。R(x)は、視点に依存するエッジを有する湾曲した物体のシルエット付近で非常に小さいことに留意されたい。 For diffuse objects with ρ k other than 0, this ratio R k (x) is independent of the albedo ρ k and is a function of local geometry only. Furthermore, if the light source is close to the camera COP 106 and X >> P (k), this ratio is approximately (μ k / max ik )), which is a set of omnidirectional Constant in the case of sex light sources. Note that R k (x) is very small near the silhouette of a curved object with edges that depend on the viewpoint.

これは、(L(x)・N(x)〜=0)であり、反対側にある光源のドット積の方が大きい、すなわち(L(x)・N(x)>L(x)・N(x))であるためである。したがって、放射画像R(x)内の画素の輝度は、その画素が影のあるエリアにはない場合であっても、急激に減少する。しかしながら、これは大きな問題ではなく、結果として、影のある領域が厚くなるだけであり、エピポーラ線に沿った輝度プロファイルの反転にはつながらない。 This is (L k (x) · N (x) ˜ = 0), and the dot product of the light source on the opposite side is larger, that is, (L i (x) · N (x)> L (x ) · N (x)). Therefore, the luminance of the pixel in the radiation image R k (x) decreases rapidly even when the pixel is not in the shaded area. However, this is not a big problem, and as a result, only the shaded area becomes thick, and it does not lead to the inversion of the luminance profile along the epipolar line.

よって二次散乱に起因して、影のあるエリアでは、比R(x)は概ね0に近くなる。エピポーラ線に沿った輝度プロファイルは、影のない前景から影のある背景に横断するときには、シルエットエッジにおいて急激な負の遷移を示し、背景上の影のある領域から影のない領域に横断するときには、急激な正の遷移を示す。 Therefore, the ratio R k (x) is approximately close to 0 in the shaded area due to secondary scattering. The luminance profile along the epipolar line shows a sharp negative transition at the silhouette edge when traversing from a shadowless foreground to a shadowed background, and when traversing from a shadowed area on the background to an unshadowed area Shows a sharp positive transition.

エピポールから所与の画素までの放射状のエピポーラ線に沿って、任意の標準的な1−Dエッジ検出器が適用でき、両方のこれらの遷移が検出され、負の遷移を有する画素がシルエットエッジ画素として指示される。   Any standard 1-D edge detector can be applied along the radial epipolar line from the epipole to a given pixel, both these transitions are detected, and the pixels with negative transitions are silhouette edge pixels As indicated.

輝度の遷移が検出されるので、ノイズおよび二次散乱が、検出されたシルエットエッジ画素の場所の精度に、それも常にそれらが存在することに影響を及ぼす可能性がある。   Since luminance transitions are detected, noise and secondary scattering can affect the accuracy of the location of detected silhouette edge pixels, which also always exists.

シルエットエッジにおける負の輝度遷移が放射画像R(x)内で検出できないとき、あるいは他の条件が誤った遷移を引き起こすとき、いくつかの条件が存在する。孤立した影、低い背景のアルベド、穴および窪みに起因して、あるいはシルエットが影のある領域内に存在するときに、シルエットは見逃される可能性がある。鏡面反射、自己遮蔽、あるいは視点に依存するシルエットに起因して、いくつかの画素がシルエットエッジ画素として誤って分類される可能性がある。   Several conditions exist when a negative luminance transition at the silhouette edge cannot be detected in the radiation image R (x), or when other conditions cause false transitions. The silhouette can be missed due to isolated shadows, low background albedo, holes and pits, or when the silhouette is in shadowed areas. Some pixels may be misclassified as silhouette edge pixels due to specular reflection, self-occlusion, or silhouettes that depend on the viewpoint.

カメラのCOPとフラッシュユニットとの間の基線を選択する際にトレードオフがある。影dのための画像幅を大きくしていく場合、基線は長いほど良好であるが、基線が短くなると影の分離が回避される。基線が様々であるとさらに良好な結果を得ることができる。   There is a trade-off in selecting the baseline between the camera COP and the flash unit. When the image width for the shadow d is increased, the longer the baseline, the better. However, when the baseline is shortened, the separation of the shadow is avoided. Even better results can be obtained if the baseline is varied.

或る画像内の或る特定のアタッチトキャストシャドウの幅はd=f(z−z)B/(z・z)である。ここで、fは焦点距離であり、Bはmm単位の基線であり、zおよびzは、影を付けるエッジ及び影のあるエッジまでのmm単位の深度である。 The width of a particular attached cast shadow in an image is d = f (z 2 −z 1 ) B / (z 1 · z 2 ). Where f is the focal length, B is the baseline in mm, and z 1 and z 2 are the depth in mm to the shadowed and shadowed edges.

物体の閾値幅Tが(z−z)×B/zよりも小さいときに、影分離が生じる。それゆえ、基線が短くなると、影分離を生じることなく、より小さな幅Tが可能になる。より高い解像度のカメラを用いて、実効焦点距離を長くすることができるので、本発明では、非常に小さな基線および、物体(z)への長い距離あるいは「深度」を有する高解像度のカメラが用いられる。 Shadow separation occurs when the threshold width T of the object is smaller than (z 2 −z 1 ) × B / z 2 . Thus, shorter baselines allow for smaller widths T without shadow separation. Since a higher resolution camera can be used to increase the effective focal length, the present invention provides a high resolution camera with a very small baseline and a long distance or “depth” to the object (z 2 ). Used.

光源の不均一性もその結果に影響を及ぼすようになる。(μ/max(μ))が定数ではないので、それはR(x)に影響を及ぼす。都合がよいことに、不均一な光源を用いる場合でも、ローブ輝度がフィールドに渡って滑らかに変化するので、それはR内に誤ったエッジを導入しない。 The non-uniformity of the light source also affects the result. Since (μ k / max ik )) is not a constant, it affects R k (x). Conveniently, even when using a non-uniform light source, it does not introduce false edges in R k because the lobe brightness varies smoothly across the field.

影領域につながる負の輝度ステップの検出は二値判定であり、本発明による方法はノイズに耐えることができるようになる。しかしながら、フラッシュユニットによって生成される光は依然として周囲光よりも優位である必要がある。また本発明は、シルエットが、有限の深度を有する背景から分離されるという仮定を基にしており、それは、本発明が背景を必要とすることを意味する。下記で記載される別の実施形態は、この背景が必要であるという要件に依存しない。   Detection of negative luminance steps leading to shadow areas is a binary decision, and the method according to the invention can withstand noise. However, the light generated by the flash unit still needs to be superior to ambient light. The present invention is also based on the assumption that silhouettes are separated from a background having a finite depth, which means that the present invention requires a background. Another embodiment described below does not rely on the requirement that this background be necessary.

テクスチャ領域内の細部の削減
また、本発明は、テクスチャおよび照明の変動のような、或るシーンのシルエットに関連しない、画像の領域内の細部あるいは複雑な部分を削減するための手順も提供する。シルエットエッジ画素306が与えられるとき、テクスチャエッジに属する画素を特定することができる230。したがって、テクスチャ領域を特定することができる。これらの画素は照明の方向とは無関係である。テクスチャエッジは、最大画像Imax内の輝度エッジから、検出されたシルエットエッジを引いたものである。
Reducing details in texture regions The present invention also provides a procedure for reducing details or complex portions in regions of an image that are not related to the silhouette of a scene, such as texture and lighting variations. . Given a silhouette edge pixel 306, the pixels belonging to the texture edge can be identified 230. Therefore, the texture region can be specified. These pixels are independent of the direction of illumination. Texture edges are those from the luminance edges in the maximum image I max, minus the detected silhouette edges.

理想的には、本発明は、全てのテクスチャ領域、すなわち元の画像内のテクスチャの細部に対応する画素の組を特定し、出力画像201内のテクスチャの細部をデエンファシスすることが望ましい。しかしながら、本発明はテクスチャエッジを特定することができるが、全てのテクスチャ領域を確実に見つけることはできない。これは、シルエットエッジ検出後のギャップに起因して、テクスチャエッジが必ずしも、テクスチャ領域の周囲に閉じた輪郭を形成するとは限らないため、あるいはそのような領域が次第に消えて、シーン内の支配的な色になる可能性があるためである。   Ideally, the present invention should identify a set of pixels corresponding to all texture regions, i.e., texture details in the original image, and de-emphasize the texture details in the output image 201. However, although the present invention can identify texture edges, it cannot reliably find all texture regions. This is because texture edges do not necessarily form closed contours around texture regions due to gaps after silhouette edge detection, or such regions disappear gradually and become dominant in the scene. This is because there is a possibility of becoming a different color.

それゆえ、本発明では、たとえば、幾何学的特徴により高い重要度を与えることができるとともに、テクスチャ特徴、たとえば、エッジおよび領域をデエンファシスすることができる「調整可能な」抽象化を実行することが望ましい。また本発明では、支配的な色を持たない画素を削除することも望ましい。   Thus, in the present invention, for example, performing “adjustable” abstractions that can give higher importance to geometric features and can de-emphasize texture features such as edges and regions Is desirable. In the present invention, it is also desirable to delete pixels that do not have a dominant color.

1つの対処方法では、テクスチャエッジに関連する領域がぼかされる。テクスチャ画素および隣接する画素に対して、隣接する特徴のない画素の色の重み付けされた平均値を単に割り当てることもできる。しかしながら、それはテクスチャ領域境界のみを減少させ、勾配を除去しない。さらに、テクスチャエッジによって輪郭を描かれたテクスチャ領域は数画素の幅を有することができ、それゆえ完全には削除されない。別の手法は、距離フィールドまたは拡散タイプの技法を用いる。   In one coping method, the area associated with the texture edge is blurred. It is also possible to simply assign a weighted average value of the color of neighboring non-feature pixels to texture pixels and neighboring pixels. However, it only reduces the texture region boundary and does not remove the gradient. Furthermore, texture regions outlined by texture edges can have a width of several pixels and are therefore not deleted completely. Another approach uses distance field or diffusion type techniques.

画素レベルで動作する代わりに、本発明はエッジを基にする手順を用いる。   Instead of operating at the pixel level, the present invention uses an edge-based procedure.

本発明によるエッジを基にする手順は、テクスチャ画素における高い輝度勾配が、支配的でない色画素を支配的な色画素から分離するという観測に基づく。テクスチャ画素における高い勾配を用いることなく、画素が勾配から再構成される場合には、テクスチャ画素の反対側からの色によって滑らかに、支配的でない色画素が自動的に埋められる。従来の画素を基にするシステムの場合に必要とされるような、穴を埋めるためにどの輝度値を用いるべきかについて判定を行う必要はなく、フェザリングあるいはぼかしを行う必要もない。   The edge-based procedure according to the invention is based on the observation that a high luminance gradient in texture pixels separates non-dominant color pixels from dominant color pixels. If the pixel is reconstructed from the gradient without using a high gradient in the texture pixel, the color pixel from the opposite side of the texture pixel is automatically filled with the non-dominant color pixel smoothly. There is no need to make a decision as to which luminance value should be used to fill a hole, as is necessary in conventional pixel-based systems, and no need to feather or blur.

エッジの強調
シルエットエッジ画素を検出するための本発明による手順は、画像を強調するために用いることができるさらに別の有用な情報も生成する。
Edge Enhancement The procedure according to the invention for detecting silhouette edge pixels also generates further useful information that can be used to enhance an image.

影の幅d=f(z−z)B/(z)は、深度不連続点における深度差(z−z)に比例する。この情報は画像を強調するときに用いることができる。 The shadow width d = f (z 2 −z 1 ) B / (z 1 z 2 ) is proportional to the depth difference (z 2 −z 1 ) at the depth discontinuity point. This information can be used to enhance the image.

シルエットエッジにおいて、本発明は、シルエットのどちら側が前景に属し、どちら側が背景に属するかを判定することができる。その計算は、エッジのどちら側が、エピポーラ線に沿った負の遷移において、R画像内により高い輝度を有するかに基づく。 At the silhouette edge, the present invention can determine which side of the silhouette belongs to the foreground and which side belongs to the background. The calculation is based on which side of the edge has higher brightness in the Rk image at negative transitions along the epipolar line.

この定性的な深度の関係は、エッジを強調するためにも用いることができる。本発明は最初に、シルエットが黒色の背景上に白色で存在するシルエット画像を生成する。本発明は、エッジ強調フィルタの勾配であるフィルタを用いてたたみ込みを行う。本発明は、ガウスフィルタからインパルス関数を引いたものを用いる。本発明により、たたみ込まれた画像が積分されるとき、シルエットエッジにおいて急激な遷移が得られる。   This qualitative depth relationship can also be used to enhance edges. The present invention first generates a silhouette image in which the silhouette is white on a black background. The present invention performs convolution using a filter that is the gradient of the edge enhancement filter. The present invention uses a Gaussian filter minus an impulse function. According to the present invention, when the convolved image is integrated, a sharp transition is obtained at the silhouette edge.

従来技術との比較
より良好なライティングを用いて、コントラストを改善し、背景に対して物体を強調することができる。この手法の成功は一般的に撮影者の技量によるが、本発明は、明らかな幾何に基づく一般的な解決手段を提供する。さらに、光源がカメラのCOPに近いので、本発明による単体で十分な機能を有するカメラ100では、外部光源は不要であり、操作が簡略化される。
Comparison with prior art Better lighting can be used to improve contrast and enhance objects against the background. Although the success of this approach is generally dependent on the skill of the photographer, the present invention provides a general solution based on obvious geometry. Further, since the light source is close to the COP of the camera, the camera 100 having a sufficient function by itself according to the present invention does not require an external light source, and the operation is simplified.

第2の簡単なオプションは、輝度画像上でエッジ検出を実行することである。しかしながら、画像値の急激な変化は必ずしも物体の境界を意味するわけではなく、その逆の場合もある。たとえば、或る複雑なシーンは、数多くの誤った輝度エッジを生成する可能性があり、一方、簡単な画像では、ほとんど輝度エッジが検出されない。それゆえ、画像値の変化のみを調べることによる画像強調方式は失敗する場合も多い。   A second simple option is to perform edge detection on the luminance image. However, an abrupt change in the image value does not necessarily mean an object boundary, and vice versa. For example, a complex scene can generate a large number of false luminance edges, while in a simple image few luminance edges are detected. Therefore, the image enhancement method by examining only the change of the image value often fails.

単一の画像上で動作する従来のNPR技法は、輝度エッジ検出および色の分割の信頼性が高くなるように、非常に画質が高く、コントラストが良好な画像を基にする。   Conventional NPR techniques that operate on a single image are based on images with very high image quality and good contrast so that luminance edge detection and color splitting are reliable.

本発明による手法は、従来のステレオ、照度差ステレオおよびヘルムホルツステレオのような能動的な照明技法と同じように見えるかもしれない。しかしながら、深度不連続点が、従来のステレオ技法に問題を生じている。ステレオ技法は、照合過程を混乱させる半遮蔽に起因して失敗する場合が多い。   The approach according to the present invention may look like active lighting techniques such as traditional stereo, photometric stereo and Helmholtz stereo. However, depth discontinuities create problems with conventional stereo techniques. Stereo techniques often fail due to semi-shielding that disrupts the matching process.

照度差ステレオは、或るシーンに渡る幾何およびアルベドを同時に推定する。古典的な照度差ステレオの主な制約は、光源がカメラのCOPから遠く離れていなければならないこと、および光源の位置が正確に分からなければならないことである。これには、スタジオ、工業用あるいは研究所の環境内でなら可能であるが、自給式のカメラユニットでは不可能であるような、固定されたライティングリグが必要とされる。さらに、その手法は、滑らかな表面に沿って法線を検出することを基にしており、深度不連続点、影のある領域および半遮蔽された部分では失敗する。   Photometric stereo estimates the geometry and albedo over a scene simultaneously. The main limitations of classical photometric stereo are that the light source must be far away from the camera COP and that the location of the light source must be known accurately. This requires a fixed lighting rig that is possible in a studio, industrial or laboratory environment, but not possible with a self-contained camera unit. Furthermore, the approach is based on detecting normals along a smooth surface and fails at depth discontinuities, shadowed areas and semi-obscured parts.

本発明による手法は正反対であり、或るシーン深度不連続点において輝度変動のための二値判定を行う。   The method according to the present invention is the opposite, and performs a binary decision for luminance variation at a certain scene depth discontinuity.

ヘルムホルツステレオの場合、影のある領域および半遮蔽された領域は対応している。左側の画像における影内の表面は、右側の画像では見ることができず、その逆も成り立つ。その問題は、単一の画像内の影のある領域を計算することが難しい問題であるということである。或る画素が影の領域にあるものと分類するための唯一の信頼性のある方法は、その画素と、影の中にないときのさらに別の画素とを比較することである。この二値判定は、本発明の技法を強力にする。また本発明では、いずれの照合あるいは相関過程も基にせず、大部分の動作を画素毎に行うことができる。これにより、本発明は、カメラのマイクロプロセッサ内に方法全体を組み込むことができるようになる。   In the case of Helmholtz stereo, shaded and semi-shielded areas correspond. The surface in the shadow in the left image cannot be seen in the right image and vice versa. The problem is that it is difficult to calculate a shaded area in a single image. The only reliable way to classify a pixel as being in the shadow area is to compare that pixel with yet another pixel when not in the shadow. This binary decision makes the technique of the present invention powerful. Also, in the present invention, most operations can be performed for each pixel without using any matching or correlation process. This allows the present invention to incorporate the entire method within the camera's microprocessor.

さらなる実施形態の説明
シーンの様式化された画像を生成するための本発明の方法は、以下のステップを含む。最初に、カメラのレンズの周囲に位置付けられた複数のフラッシュユニットによって生じるずらした光、および周囲からの光の下でシーンから1組の画像を取得する。これらの画像を処理して、深度エッジ、輝度エッジ、およびテクスチャエッジのような特徴を自動的に検出し、特徴間の定性的な深度の関係を求める。出力画像は、取得した画像の組み合わせであり、検出された特徴を、この検出された特徴および定性的な関係に従って強調し、様式化された画像を提供する。
Description of Additional Embodiments The method of the present invention for generating a stylized image of a scene includes the following steps. First, a set of images is acquired from the scene under staggered light produced by a plurality of flash units positioned around the lens of the camera and light from the environment. These images are processed to automatically detect features such as depth edges, luminance edges, and texture edges to determine a qualitative depth relationship between the features. The output image is a combination of acquired images and enhances the detected features according to the detected features and qualitative relationships to provide a stylized image.

本発明では、深度エッジという用語を用いて、C0の深度不連続点を有するエッジのことを指す。深度エッジは、滑らかな表面、薄い物体、すなわち一枚の紙の境界、または視点に依存しないエッジの物体、たとえば立方体について内側または外側の遮蔽輪郭またはシルエットに対応する。   In the present invention, the term depth edge is used to refer to an edge having a C0 depth discontinuity. A depth edge corresponds to a smooth surface, a thin object, i.e. a piece of paper boundary, or an edge object that does not depend on the viewpoint, e.g. an inside or outside occlusion contour or silhouette for a cube.

復元した深度エッジは符号付きである。局所近傍において、深度値の低い側、たとえば前景は正であるとみなされ、反対側、たとえば背景は負であるとみなされる。   The restored depth edge is signed. In the local neighborhood, the side with the lower depth value, for example the foreground, is considered positive and the other side, for example the background, is considered negative.

テクスチャエッジの例は反射率の変化または物質の不連続点である。テクスチャエッジは通常、テクスチャ領域の輪郭を描くが、閉じた輪郭を形成しない場合がある。   Examples of texture edges are reflectance changes or material discontinuities. A texture edge usually outlines a texture region, but may not form a closed contour.

深度エッジ
図5Aおよび図5Bに示すように、深度エッジを検出するための本発明の方法は、本手法の基礎であり、除去過程によって他のエッジを分類することを可能にする。本発明の方法は、影のエピポーラ幾何に関する2つの観測値に基づく。
Depth Edge As shown in FIGS. 5A and 5B, the method of the present invention for detecting depth edges is the basis of the present technique and allows other edges to be classified by the removal process. The method of the present invention is based on two observations relating to the epipolar geometry of the shadow.

図5Aにおいて、シーン501は物体502を含む。用いられるライティングに起因して、物体は、カメラ505によって撮影される画像I504内に影503を投じる。本発明では、全ての向きの深度エッジが少なくとも1つの画像に影を生じ、同じ影のある点が何らかの他の画像において照明されることを確実にする。 In FIG. 5A, the scene 501 includes an object 502. Due to the lighting used, the object casts a shadow 503 in the image I k 504 taken by the camera 505. In the present invention, all orientation depth edges cause shadows in at least one image to ensure that the same shadowed point is illuminated in some other image.

図5Bは、e1、e2、およびe3から発するエピポーラ光線について重ねた物体502の画像を対応する影521〜523とともに示す。   FIG. 5B shows an image of the object 502 superimposed on the epipolar rays emanating from e1, e2, and e3, along with corresponding shadows 521-523.

における点光源の画像は、カメラ画像内の画素eにあり、光エピポールと呼ばれる。Pから発する光線の画像は、eから発するエピポーラ光線である。Pがカメラの中心の後ろにあり、像平面から離れている場合、エピポーラ光線は無限遠で折り返す。 Image of the point light source in P k is located at pixel e k in the camera image, called an optical epipole. The image of light rays emanating from P k is epipolar rays emanating from e k . If P k is behind the center of the camera and away from the image plane, the epipolar ray folds back at infinity.

第1に、深度エッジ画素の影は、その画素を通過するエピポーラ光線に沿って位置するように制約されることに留意されたい。第2に、背景画素がエピポーラ光線に沿って深度エッジに対してエピポールの反対側にある場合にのみ影が観測される。したがって、概して、2つの光エピポールがエッジの反対側にある場合、一方の画像の深度エッジでは影が観測され、他方の画像では観測されない。   First, note that the shadow of a depth edge pixel is constrained to lie along an epipolar ray that passes through that pixel. Second, shadows are observed only when the background pixel is on the opposite side of the epipole with respect to the depth edge along the epipolar ray. Thus, in general, when two optical epipoles are on opposite sides of the edge, shadows are observed at the depth edge of one image and not the other image.

位置P、P、...Pに位置付けられたn個の光源に関する基本的な過程は以下の通りである。
周囲光で画像Iを取得する。
にある光源で画像Ik.0(k=1,...,n)を取得する。
画像I=Ik,0−Iを求める。
全ての画素xについて、Imax(x)=max(I(x))(k=1,...n)である。
各画像kについて、
比画像Rを生成する。ここで、R(x)=Ik(x)/Imax(x)である。
各画像Rについて、
エピポールekから各エピポーラ光線を横断する。
負の遷移を有するステップエッジを有する画素yを見つける。
画素yを深度エッジとして指示する。
Positions P 1 , P 2 ,. . . The basic process for n light sources positioned at P n is as follows.
Acquire image I 0 with ambient light.
Image I k by a light source in the P k. 0 (k = 1,..., N) is acquired.
The image I k = I k, 0 −I 0 is obtained.
For all pixels x, I max (x) = max k (I k (x)) (k = 1,... N).
For each image k,
A ratio image R k is generated. Here, R k (x) = Ik (x) / I max (x).
For each image R k
Each epipolar ray is traversed from the epipole ek.
Find a pixel y with a step edge that has a negative transition.
Pixel y is indicated as a depth edge.

カメラの周囲に配置される複数の、たとえば2〜8の光源を用いて、十分な深度差を有する全ての向きの深度エッジを検出することができる。各画像において、深度エッジにおける接線とエピポーラ光線のドット積が0以外である場合、照明された部分から影のある部分への負の遷移を有するステップエッジが検出される。深度エッジがエピポーラ光線に沿った向きにある場合、ステップエッジは検出することができない。   A plurality of, for example 2-8, light sources arranged around the camera can be used to detect all orientation depth edges with a sufficient depth difference. In each image, if the dot product of the tangent and epipolar ray at the depth edge is non-zero, a step edge having a negative transition from the illuminated part to the shaded part is detected. If the depth edge is oriented along the epipolar ray, the step edge cannot be detected.

画像Iは周囲成分が除去されている、すなわちI=Ik,0−Iであることに留意されたい。ここで、Iは、周囲光のみで、n個の光源をいずれもオンにせずに取得された画像である。元画像は最大合成画像Imaxであり、この最大合成画像Imaxは、カメラのCOPに光源を有する画像を近似したものであり、一般的に、n個の光源のいずれからの影も有さない。n個の光源が同じ大きさを有し、基線が、イメージングしているシーンの深度よりも十分に小さいとき、この近似は概ね正確である。 Note that the image I k has the surrounding components removed, ie I k = I k, 0 −I 0 . Here, I 0 is an image obtained with only ambient light and without turning on any of the n light sources. The original image is a maximum composite image I max , and this maximum composite image I max is an approximation of an image having a light source to the COP of the camera, and generally has shadows from any of the n light sources. Absent. This approximation is generally accurate when n light sources have the same size and the baseline is sufficiently smaller than the depth of the scene being imaged.

カメラ座標系内に与えられ、画素xにおいてイメージングされる3Dの点Xの画像を考える。Pにある光源によって点Xが照明される場合に、輝度I(x)は、一様乱反射(Lambertian)を仮定して、次式によって与えられる。 Consider an image of a 3D point X given in the camera coordinate system and imaged at pixel x. When point X is illuminated by a light source at P k , the luminance I k (x) is given by the following equation assuming uniform diffuse reflection (Lambertian).

Figure 2005341569
Figure 2005341569

そうでない場合、I(x)はゼロである。スカラーμは光強度の大きさであり、ρ(x)は点Xにおける反射率である。値(^)L(x)は、正規化された光ベクトル(^)L(x)=P−Xであり、N(x)は面法線であり、それらは全てカメラ座標系内にある。なお、(^)Lは、Lの上に^があることを表す。 Otherwise, I k (x) is zero. The scalar μ k is the magnitude of the light intensity, and ρ (x) is the reflectance at the point X. The value (^) L k (x) is the normalized light vector (^) L k (x) = P k -X, N (x) is the surface normal, and they are all in the camera coordinate system Is in. Note that (^) L k indicates that there is ^ on L k .

したがって、点XがPに見える場合、比は次のようになる。 Thus, if point X appears to be P k , the ratio is

Figure 2005341569
Figure 2005341569

0以外のアルベドρ(x)を有する拡散物体の場合、Rk(x)はアルベドρ(x)とは無関係であり、局所幾何のみの関数であることは明らかである。さらに、光源−カメラの基線|Pk|がその点までの距離と比べて小さい、すなわち、|X|<<|P|である場合、この比は近似的にμ/max(μ)であり、それは1組の無指向性の光源の場合に一定である。 For diffuse objects with an albedo ρ (x) other than 0, it is clear that Rk (x) is independent of the albedo ρ (x) and is a function of local geometry only. Furthermore, if the light source-camera baseline | Pk | is small compared to the distance to that point, ie | X | << | P k |, this ratio is approximately μ k / max ii ), Which is constant for a set of omnidirectional light sources.

(R=I/Imax)における比の値は、光源kによって照明されるエリアでは1.0に近くなり、影のある領域では0に近くなる。一般に、この値は相互反射に起因して0以外となる。比画像内のエピポーラ光線に沿った輝度プロファイルは、影のない前景から影のある背景に横断するときには、深度エッジにおいて急激な負への遷移を示し、影のある背景から前景上の影のない領域に横断するときには、正への急激な遷移を示す。 The ratio value in (R k = I k / I max ) is close to 1.0 in the area illuminated by the light source k and close to 0 in the shaded area. Generally, this value is non-zero due to mutual reflection. The intensity profile along the epipolar ray in the ratio image shows a sharp negative transition at the depth edge when traversing from a shadowless foreground to a shadowed background, and there is no shadow on the foreground from the shadowed background When crossing the region, it shows a sharp transition to positive.

これにより、深度エッジ検出の問題が輝度ステップエッジ検出の問題に低減される。エピポーラ光線に沿う単一エッジ検出器は、正と負の両方の遷移を検出し、本発明では、負の遷移を深度エッジとして指示する。上述のように、ノイズおよび相互反射は、位置の精度にのみ影響を及ぼし、深度エッジの存在の検出には影響を及ぼさない。なぜなら本発明は、連続値ではなく別個の遷移を検出しているからである。   This reduces the problem of depth edge detection to the problem of luminance step edge detection. A single edge detector along the epipolar ray detects both positive and negative transitions, and in the present invention indicates negative transitions as depth edges. As mentioned above, noise and interreflection only affect the accuracy of the position, not the detection of the presence of depth edges. This is because the present invention detects separate transitions rather than continuous values.

まとめると、基本的に3つのステップがある。
影のある領域の値が0に近い比画像を生成する。
各比画像上でエピポーラ光線に沿って輝度エッジの検出を実行し、負のステップエッジを深度エッジとして指示する。
n個すべての画像からのエッジマップを合成して、最終的な深度エッジマップを得る。
In summary, there are basically three steps.
A ratio image in which the value of the shadowed region is close to 0 is generated.
Luminance edge detection is performed along the epipolar ray on each ratio image, and negative step edges are indicated as depth edges.
The edge maps from all n images are combined to obtain the final depth edge map.

物質エッジ
深度エッジに加えて、本発明では、画像内の照明エッジおよび物質エッジも考慮する。照明エッジは、本発明のカメラに取り付けられたフラッシュユニットではなく周囲光に起因するライティングされた領域と影のある領域との間の境界である。個々の画像Iは周囲からの照明がなく、周囲照明エッジがない。一般に物質エッジは、照明方向と無関係であるため、除去過程によって分類することができる。物質エッジは、Imaxの輝度エッジから深度エッジを引いたものである。このエッジ分類方式は良好に動作し、調整に最少数のパラメータを伴う。本発明において必要となるパラメータは、深度エッジおよび物質エッジをそれぞれ検出するための比画像およびImax画像の輝度エッジ検出用パラメータのみである。
Material Edge In addition to the depth edge, the present invention also considers lighting and material edges in the image. The illumination edge is the boundary between the illuminated area and the shaded area due to ambient light rather than the flash unit attached to the camera of the present invention. Individual images I k have no illumination from the surroundings and no ambient lighting edges. In general, the material edge is independent of the illumination direction, and can be classified by the removal process. Material edge is obtained by subtracting the depth edges from the luminance edge of I max. This edge classification scheme works well and involves a minimum number of parameters for adjustment. The parameters required in the present invention are only the ratio edge detection parameter and the Imax image luminance edge detection parameter for detecting the depth edge and the material edge, respectively.

深度エッジを検出するための本発明の技法は、深度エッジにおける負の遷移を比画像R内で検出することができないフォールスネガティブ、または他の条件がR内で誤った遷移を引き起こすフォールスポジティブのような一部の条件を除いて、驚くほど信頼性が高い。深度エッジもまた、孤立した影、低い背景のアルベド、穴および窪みに起因して、あるいは深度エッジが影のある領域内に存在する場合に見逃される可能性がある。鏡面反射、自己遮蔽、あるいは視点に依存する深度エッジに起因して、いくつかの画素が深度エッジ画素として誤ってラベル付けされる可能性がある。 Our technique for detecting depth edges is false negatives where negative transitions at depth edges cannot be detected in the ratio image R k , or false positives where other conditions cause false transitions in R k . Except for some conditions like, it is surprisingly reliable. Depth edges can also be missed due to isolated shadows, low background albedo, holes and depressions, or when depth edges are in shadowed areas. Due to specular reflection, self-occlusion, or depth edges that depend on the viewpoint, some pixels may be mislabeled as depth edge pixels.

湾曲した表面
比R(x)は、視点に依存するエッジを有する湾曲した物体の非常に小さく深度の短いエッジである。これは、ドット積((^)Lk(x)・N(x))であり、「反対」側にある光源のドット積の方がより大きいためである。これは次のように表される。
The curved surface ratio R k (x) is a very small and short depth edge of a curved object with edges that depend on the viewpoint. This is because the dot product ((^) Lk (x) · N (x)) is larger, and the dot product of the light source on the “opposite” side is larger. This is expressed as follows.

Figure 2005341569
Figure 2005341569

したがって、R(x)は、画素が影のある領域にはない場合であっても、急激に減少する。しかしながら、これは大きな問題ではなく、Rの負の遷移における傾斜が小さくなるだけである。 Therefore, R k (x) decreases rapidly even when the pixel is not in a shaded area. However, this is not a big problem, only the slope at the negative transition of R k is reduced.

基線を選択する際のトレードオフ
カメラとフラッシュの間の基線距離は長いほど良い。基線が長いほど、画像内に投じられる検出可能な影の幅は広くなるが、影が関連する深度エッジから分離することを回避するには、より短い基線が必要とされる。
Tradeoffs when selecting the baseline The longer the baseline distance between the camera and the flash, the better. The longer the baseline, the wider the detectable shadow cast in the image, but a shorter baseline is required to avoid separating the shadow from the associated depth edge.

画像内の隣接する影の幅はd=fB(z−z)/(z)である。ここで、fは焦点距離であり、Bは基線であり、zおよびzは、影を付けるエッジ及び影のあるエッジまでの深度である。物体の幅Tが(z−z)B/zよりも小さいときに、影の孤立が生じる。よって、基線Bが短いほど、影分離を生じることなく、Tのより小さい、より幅の狭い物体が可能になる。幸い、デジタルカメラの小型化により、本発明では、小さな基線を選択する一方で、fに比例して画素解像度を上げることができるので、積fBは一定のままとなる。これにより、幅の狭い物体の深度検出が可能になる。 The width of the adjacent shadow in the image is d = fB (z 2 −z 1 ) / (z 1 z 2 ). Here, f is the focal length, B is the base line, and z 1 and z 2 are the depth to the shadowed edge and the shadowed edge. Shadow isolation occurs when the width T of the object is smaller than (z 2 −z 1 ) B f / z 2 . Therefore, the shorter the base line B, the narrower the object having a smaller T, without causing shadow separation. Fortunately, the downsizing of the digital camera allows the present invention to select a small baseline while increasing the pixel resolution in proportion to f so that the product fB remains constant. This makes it possible to detect the depth of a narrow object.

階層的な基線
図6に示すように、カメラの解像度が限られている場合は、階層的な基線を用いることができる。ここでは、第1のフラッシュユニットの組610がCOP106から第1の距離611のところに配置されて画像Fを取得し、第2のフラッシュユニットの組620が第1の距離よりも大きな第2の距離622に配置されて画像Fを取得する。
Hierarchical Baseline As shown in FIG. 6, a hierarchical baseline can be used when the camera resolution is limited. Here, the set 610 of the first flash unit from COP106 is located at a first distance 611 acquires image F S, larger second than the set 620 of the second flash unit is a first distance It disposed a distance 622 to acquire an image F L with.

したがって、本発明では、短い基線を用いて幅の狭い物体において影分離を生じることなく、より長い基線を用いて小さい深度不連続点を検出することができる。実際には、2つの異なる基線で十分である。しかしながら、この場合、基線のより長い画像F内の影分離に起因する誤ったエッジを扱わなければならない。基線のより短い画像Fは小さな深度不連続点を見逃す場合がある。 Therefore, in the present invention, it is possible to detect a small depth discontinuity using a longer baseline without causing shadow separation in a narrow object using a short baseline. In practice, two different baselines are sufficient. However, in this case, it must handle false edges due to shadow the separation of longer image F L baseline. Shorter image F S of the baseline sometimes miss small depth discontinuities.

1対の画像内の情報を合成して深度エッジを検出する方法には4つの場合がある。
画像Fは検出不可能な幅の狭い影を有し、画像Fは検出可能な影を有する。
画像Fは検出可能な幅の狭い影を有し、画像Fは幅の広い影を有する。
画像Fは検出可能な影を有するが、画像Fは、画像Fの影と重なる孤立した影を有する。
画像Fは検出可能な影を有し、画像Fは孤立した影を有するが、画像Fと画像Fの影は重ならない。
There are four cases in which the depth edges are detected by combining information in a pair of images.
Image F S has a narrow shadows undetectable width, image F L has detectable shadows.
Image F S has a narrow shadows detectable width, image F L has a broad shadow width.
Image F S has a detectable shadow image F L has isolated shadow overlapping the shadow image F S.
Image F S has detectable shadows, the image F L has a shadow isolated, the shadow image F S and the image F L do not overlap.

本発明の方法では、2つの画像の最小合成を取る。最初の3つの場合において、これは、何らアーチファクトを生じることなく隣接する影の有効幅を都合良く増加させ、変更なしで基本的な過程により扱うことができる。4番目の場合、影のない領域が最小合成画像内の2つの影を分離するため、F内の影が誤っているように見える。 The method of the present invention takes a minimum composition of two images. In the first three cases this conveniently increases the effective width of adjacent shadows without any artifacts and can be handled by the basic process without modification. 4 th case, since the shadow-free region separating the two shadows in the minimum composite image appears to be incorrect shadow in F L.

本発明の解決策は以下の通りである。画像Fおよび画像Fを用いて深度エッジを求める。次に、エピポーラ光線を横断する。画像F内の何らかの点Dには深度エッジが現れ、画像Fには現れない場合、次の深度エッジが検出されるまで画像F内のエピポーラ光線を横断する。画像F内に対応する深度エッジがない場合、画像F内に対応する深度エッジはなく、このエッジを誤ったエッジとして指示する。 The solution of the present invention is as follows. A depth edge is obtained using the image F S and the image F L. Next, the epipolar ray is traversed. It appears depth edges in some point D 1 of the within the image F S, if not appear in the image F L, crossing the epipolar rays in image F L to the next depth edge is detected. If there is no depth edges corresponding to the image F L, no depth edges corresponding to the image F S, is indicated as erroneous edge of this edge.

鏡面反射
一方の画像の画素には現れ、他方の画像には現れない鏡面反射ハイライトは、比画像内に誤った遷移を生じる可能性がある。単一画像内の鏡面反射を検出するための方法はあるが、テクスチャ領域において鏡面反射を確実に検出することは困難である。
Specular reflection Specular highlights that appear in pixels of one image but not in the other image can cause false transitions in the ratio image. Although there are methods for detecting specular reflection in a single image, it is difficult to reliably detect specular reflection in a texture region.

本発明の方法は、鏡面反射を生じる光源のずれに従って鏡面反射スポットがずれるという事実に基づく。本発明では、異なる光位置における鏡面反射スポットが各画像内にどのように現れるかについて3つの場合を考慮する。すなわち、たとえば鏡面反射の高く湾曲が中程度である表面上で光沢のあるスポットが鮮明なままである場合、いくつかの光沢のあるスポットが重なる場合、およびたとえば実質的に鏡面反射のフロントパラレル(fronto-parallel)平面上で光沢のあるスポットが完全に重なる場合である。この最後の場合は、比画像内に誤った勾配が生じない。   The method of the invention is based on the fact that the specular spot shifts according to the deviation of the light source that causes specular reflection. In the present invention, three cases are considered as to how specular reflection spots at different light positions appear in each image. That is, for example, when a glossy spot remains sharp on a highly specular and moderately curved surface, when several glossy spots overlap, and, for example, a substantially specular front parallel ( fronto-parallel) where glossy spots completely overlap on the plane. In this last case, there is no false gradient in the ratio image.

なお、鏡面反射は入力画像において重なるが、鏡面反射の周囲の境界、すなわち輝度エッジは一般に重ならない。主な構想は、n枚の画像内の所与の画素(x,y)における勾配変動を利用することである。最初の2つの場合において、画素(x,y)が鏡面反射領域である場合、鏡面反射境界に起因する勾配は、別々のライティング下のn枚の画像のうちの1つまたは少数のみにおいて高い。   Although the specular reflection overlaps in the input image, the boundary around the specular reflection, that is, the luminance edge generally does not overlap. The main idea is to take advantage of the gradient variation at a given pixel (x, y) in n images. In the first two cases, if pixel (x, y) is a specular region, the gradient due to the specular boundary is high in only one or a few of the n images under separate lighting.

その画素におけるnの勾配の中央値が外れ値を除去する。本発明の方法は、Weiss(上記参照)によって記載される固有の画像手法を適応したものである。ここでは、影の境界が静止していないことに注意することによって屋外シーンの影が除去される。   The median value of the n gradient at that pixel removes the outlier. The method of the present invention is an adaptation of the unique image technique described by Weiss (see above). Here, the shadow of the outdoor scene is removed by noting that the shadow boundary is not stationary.

本発明では、以下のように入力画像の勾配の中央値を用いることによって画像を再構成する。
輝度勾配G(x,y)=∇I(x,y)を求める。
勾配の中央値G(x,y)=median(G(x,y))を見つける。
|∇I’−G|を最小化する画像I’を構成する。
In the present invention, the image is reconstructed by using the median of the gradient of the input image as follows.
Luminance gradient G k (x, y) = ∇I k (x, y) is obtained.
Find the median G (x, y) = median k (G k (x, y)) of the gradient.
Construct an image I ′ that minimizes | ∇I′−G |.

本発明では、積分を適用する前に、画像を埋めて2のべき乗に最も近い正方形の画像にし、次に、結果として得られる画像を元のサイズにクロッピングする。本発明では、同様の勾配ドメイン技法を用いて、後述のようにいくつかのレンダリング作業を簡略化する。結果として得られる固有の画像輝度I(x,y)は、最大合成画像Imax(x,y)の代わりに比画像を計算するための共通の特徴として用いられる。この場合、鏡面反射領域において、比Ik(x,y)/I’(x,y)は1.0よりも大きい。これは、比画像内の負の遷移が鏡面反射部分に位置しないように1.0に設定される。 In the present invention, before applying the integral, the image is filled into a square image that is closest to a power of 2, and then the resulting image is cropped to its original size. The present invention uses a similar gradient domain technique to simplify some rendering tasks as described below. The resulting inherent image brightness I (x, y) is used as a common feature for calculating the ratio image instead of the maximum composite image I max (x, y). In this case, the ratio Ik (x, y) / I ′ (x, y) is larger than 1.0 in the specular reflection region. This is set to 1.0 so that negative transitions in the ratio image are not located in the specular reflection part.

背景の欠如
これまで、本発明では、背景に影を投じる深度エッジは有限距離内にあるものと仮定してきた。しかしながら、これは常にそうであるとは限らない。この場合、本発明では、最も外側の深度エッジ、すなわち、前景と遠方の背景とによって共有されるエッジのみが見逃される可能性がある。これは、前景−背景推定技法を用いて容易に検出することができる。画像I/Imaxの比は背景において1に近く、前景の内部において0に近い。
Lack of Background So far, the present invention has assumed that the depth edges that cast shadows on the background are within a finite distance. However, this is not always the case. In this case, in the present invention, only the outermost depth edge, that is, the edge shared by the foreground and the distant background may be missed. This can be easily detected using foreground-background estimation techniques. The ratio of the image I 0 / I max is close to 1 in the background and close to 0 in the foreground.

画像の合成
3Dモデルに基づくNPRは既知であるが、写真については既知ではない。シーンの完全な3D表現がない場合、本発明では、以下の2Dキューを利用して新規のレンダリングアルゴリズムを開発する。すなわち、深度エッジの符号すなわちエッジにおける前景対背景、影の幅に基づく相対的な深度差、符号付きエッジ付近の色、および遮蔽輪郭における滑らかな表面の法線である。
Image Synthesis NPR based on 3D models is known, but not for photographs. In the absence of a complete 3D representation of the scene, the present invention develops a new rendering algorithm using the following 2D queues. The depth edge sign, foreground versus background at the edge, the relative depth difference based on shadow width, the color near the signed edge, and the smooth surface normal at the occlusion contour.

本発明の方法は、本来は綿密な手動操作が必要とされる様式化されたレンダリングのための作業、たとえば画像編集やロトスコーピングを自動化する。   The method of the present invention automates tasks for stylized rendering, such as image editing and rotoscoping, which originally require careful manual manipulation.

エッジのレンダリング
深度エッジピクセルを輪郭につなげ、次に輪郭を平滑化する。T字型接合部において、向きの類似性に基づいて次のエッジ画素を選択する従来の方法とは異なり、本発明では、影からの情報を用いて、接続成分を分解する。
Rendering edges Connect edge edge pixels to a contour and then smooth the contour. Unlike the conventional method of selecting the next edge pixel based on the orientation similarity in the T-shaped joint, the present invention uses the information from the shadow to decompose the connected components.

符号付き深度エッジ
比画像R内のエピポーラ光線に沿った負の遷移において、エッジに対して輝度の高い側が前景であり、影のある領域に対応する輝度の低い側が背景である。
In the negative transition along the epipolar ray in the signed depth edge ratio image R k , the higher luminance side with respect to the edge is the foreground, and the lower luminance side corresponding to the shaded area is the background.

図7に示すように、定性的な深度の関係を用いて、解剖部位の各深度エッジにおける前景−背景の分離を明確に示すことができる。本発明では、芸術家が用いたオーバー−アンダー様式をマットでエミュレートする。深度エッジの前景側は白色であり、背景側は黒色である。輪郭を面法線701に沿って変位させることによって深度エッジの両側がレンダリングされる。   As shown in FIG. 7, the qualitative depth relationship can be used to clearly indicate the foreground-background separation at each depth edge of the anatomical site. In the present invention, the mat emulates the over-under style used by the artist. The foreground side of the depth edge is white and the background side is black. Both sides of the depth edge are rendered by displacing the contour along the surface normal 701.

光方向
図8に示すように、本発明では、ライティング方向に対する深度エッジの向きに応じて深度エッジの幅811〜812を変更することによって、任意の光方向801を解剖部位の出力画像800において伝えることができる。3Dにおけるエッジの向きは、像平面におけるその投影の向きと略同じであるため、幅は、画像空間の法線と所望の光方向とのドット積に比例することができる。
Light Direction As shown in FIG. 8, in the present invention, an arbitrary light direction 801 is conveyed in the output image 800 of the anatomical site by changing the depth edge widths 811 to 812 according to the direction of the depth edge with respect to the lighting direction. be able to. Since the direction of the edge in 3D is substantially the same as the direction of its projection in the image plane, the width can be proportional to the dot product of the normal of the image space and the desired light direction.

色の変化
図9に示すように、本発明では、選択された色で深度エッジをレンダリングすることによって元の物体の色を示すことができる。符号付き深度エッジから、固定された画素距離における法線に沿って、別の深度または輝度エッジと交差することなく前景の色を選択する。前景の色を付けられた深度エッジは、分割された入力画像、たとえば周囲からの光で取得された入力画像に重ねてもよい。
Color Change As shown in FIG. 9, the present invention can indicate the color of the original object by rendering the depth edges with the selected color. From the signed depth edge, select a foreground color along the normal at a fixed pixel distance without intersecting another depth or luminance edge. The foreground colored depth edge may be superimposed on the divided input image, for example, an input image acquired with ambient light.

色の割り当て
シーンの3Dモデルはないため、エッジでない画素をレンダリングするには、取り込んだ2D画像の別々な処理方法が必要である。
Color assignment Since there is no 3D model of the scene, rendering a non-edge pixel requires a different method of processing the captured 2D image.

法線の補間
滑らかな物体について図10Aおよび図10Bに示すように、深度エッジは、面法線が視野方向に垂直である遮蔽輪郭に対応する。したがって、深度エッジにおける法線は像平面に位置し、他の画素における法線を予測することができる。本発明では、2Dポアソン微分方程式を解くことによって、この疎な補間問題を解くことができる。本発明の方法は、Johnston著「Lumo: illumination for cel animation」(Proceedings of the second international symposium on Non-photorealistic animation and rendering, ACM Press, PP. 45-ff, 2002)によって記載されるようなオーバー−アンダーマットを生成するための手動の方法を自動化する。本発明の場合、符号付き深度エッジにより法線の補間が可能になり、その一方で、深度エッジにおける法線の不連続点を維持して、ライティング方向から離れた向きにある表面1001を強調する。
Normal Interpolation As shown in FIGS. 10A and 10B for smooth objects, depth edges correspond to occluded contours where the surface normal is perpendicular to the viewing direction. Therefore, the normal at the depth edge is located in the image plane, and the normal at the other pixels can be predicted. In the present invention, this sparse interpolation problem can be solved by solving a 2D Poisson differential equation. The method of the present invention is described in detail by Johnston “Lumo: illumination for cel animation” (Proceedings of the second international symposium on Non-photorealistic animation and rendering, ACM Press, PP. 45-ff, 2002). Automate manual methods for generating undermats. For the present invention, signed depth edges allow normal interpolation, while maintaining normal discontinuities at the depth edges to enhance the surface 1001 in a direction away from the lighting direction. .

画像の減衰
プロの写真家は、局部光を用いて、形状の境界におけるコントラストを強調することがある。本発明では、これを画像減衰マップにより以下のように模倣する。深度エッジは黒色の背景上に白色で存在する。本発明は、エッジ強調フィルタの勾配であるフィルタを用いてたたみ込みを行う。本発明のフィルタは、ガウス関数からインパルス関数を引いたものである。たたみ込んだ画像に対して2D積分を実行すると、深度エッジにおいて急激な遷移が得られる。
Image attenuation Professional photographers sometimes use local light to enhance contrast at shape boundaries. In the present invention, this is imitated by an image attenuation map as follows. The depth edge exists in white on a black background. The present invention performs convolution using a filter that is the gradient of the edge enhancement filter. The filter of the present invention is obtained by subtracting an impulse function from a Gaussian function. When 2D integration is performed on the convolved image, a sharp transition is obtained at the depth edge.

変化の描写
いくつかの静止した図は、前景の動きのある部分を明るくすることによって、活動、たとえば車内の変化する油を示す。しかしながら、色が類似しておりテクスチャがない場合、輝度を基にした方式による前景の検出、たとえば図11に示すような、他の皮膚の色をした部分の前面にある手の動作の検出は困難である。
A depiction of change Some stationary figures show activity, for example changing oil in the car, by brightening certain parts of the foreground motion. However, if the colors are similar and there is no texture, foreground detection using a luminance-based method, for example, the detection of hand movements in front of other skin colored parts, as shown in FIG. Have difficulty.

本発明は、2組の別個のマルチフラッシュ画像、すなわち、手なしの「背景」の組1101、および顔の前面に手がある前景の組1102を取得して、基準シーンと変化したシーンを取り込む。本発明では、前景をはっきりと検出せずに、新たな深度エッジに寄与する領域の内部を強調する。本発明は勾配フィールドを求め、勾配フィールドでは、基準シーンではなく変化したシーン内で深度エッジとして指示される画素に単位大きさの勾配が割り当てられる。向きは、深度エッジに対する画像空間の法線と一致する。他の画素における勾配は0である。2D積分から再構成された画像は、ポワソン方程式を解くことによる擬似深度マップ−最小二乗誤差の解である。本発明は、このマップを1.0において閾値処理して前景マスク1103を得、この前景マスク1103を用いて出力画像1104の対応する部分を明るくする。   The present invention captures two sets of separate multi-flash images, a handless “background” set 1101 and a foreground set 1102 with a hand in front of the face to capture the reference scene and the changed scene. . In the present invention, the inside of the region contributing to the new depth edge is emphasized without clearly detecting the foreground. The present invention determines a gradient field, in which unit-size gradients are assigned to pixels indicated as depth edges in a changed scene rather than a reference scene. The orientation matches the image space normal to the depth edge. The gradient at other pixels is zero. The image reconstructed from 2D integration is a pseudo depth map-least square error solution by solving the Poisson equation. The present invention thresholds this map at 1.0 to obtain the foreground mask 1103 and uses this foreground mask 1103 to brighten the corresponding portion of the output image 1104.

エピポーラ光線に沿った影の幅は、エッジの両側の深度値の比に比例することに留意されたい。したがって、単位大きさ勾配の代わりに、本発明は、エピポーラ光線に沿った影の幅の対数に比例した値を割り当てて、より高品質の擬似深度マップを得る。   Note that the width of the shadow along the epipolar ray is proportional to the ratio of the depth values on both sides of the edge. Thus, instead of a unit magnitude gradient, the present invention assigns a value proportional to the logarithm of the shadow width along the epipolar ray to obtain a higher quality pseudo depth map.

残念ながら、本発明者らは、非点光源の使用および相互反射に起因して、光線に沿った正の遷移は強くないことを発見した。原則として、推定される影の幅は、調整可能な抽象化に用いて、深度差の小さいエッジを除去することができる。   Unfortunately, the inventors have discovered that positive transitions along the rays are not strong due to the use of non-point light sources and interreflection. In principle, the estimated shadow width can be used for adjustable abstraction to remove edges with small depth differences.

抽象化
画像内のビジュアルクラッタを低減し、物体の形状を明確にする1つの方法は、シーンの形状の境界すなわち深度エッジに関係ない細部、たとえばテクスチャおよび照明の変化を簡略化することである。従来の画像分割手法は、閉じた輪郭に厳しい制約を課し、各領域に固定した色を割り当てる。また、分割は、深度エッジを見逃し、前景と背景が単色の物体に統合されてしまう場合がある。
Abstraction One way to reduce visual clutter in an image and clarify the shape of an object is to simplify changes in details, such as texture and lighting, that are not related to scene shape boundaries or depth edges. Conventional image segmentation techniques impose severe restrictions on closed contours and assign a fixed color to each region. In addition, the division may miss a depth edge and the foreground and background may be integrated into a single color object.

本発明の方法は、テクスチャ画素における勾配を用いずに、勾配から画像を再構成する。従来の画素を基にするシステムの場合に必要とされるような、穴を埋めるためにどの輝度値を用いるべきかについての判定は行われず、フェザリングおよびぼかしを行う必要はない。   The method of the present invention reconstructs an image from gradients without using gradients in texture pixels. No determination is made as to which luminance value should be used to fill the hole, as is required in conventional pixel-based systems, and no feathering and blurring is required.

マスク画像γ(x,y)=aであり、ここで、
(x,y)はテクスチャエッジ画素であり、
d(x,y)は特徴のない画素であり、
(x,y)は1に設定された深度エッジ画素である。
Mask image γ (x, y) = a, where
(X, y) is a texture edge pixel,
d (x, y) is a featureless pixel,
(X, y) is a depth edge pixel set to 1.

因数d(x,y)は、深度エッジ画素の距離フィールドに対するテクスチャ画素の距離フィールドの比である。このパラメータaは抽象化の程度を制御し、テクスチャはa=0について抑制される。手順は以下の通りである。
マスク画像γ(x,y)を生成する
輝度勾配∇I(x,y)を求める
マスクをかけた勾配G(x,y)=∇I(x,y)γ(x,y)を変更する
|I’−G|を最小化するように画像I’を再構成する
出力画像I’(x,y)内の色を、入力画像I(x,y)の色に実質的に一致するように正規化する
The factor d (x, y) is the ratio of the texture pixel distance field to the depth edge pixel distance field. This parameter a controls the degree of abstraction and the texture is suppressed for a = 0. The procedure is as follows.
Generate mask image γ (x, y) Find luminance gradient ∇I (x, y) Change masked gradient G (x, y) = ∇I (x, y) γ (x, y) Reconstruct the image I ′ to minimize | I′−G | so that the colors in the output image I ′ (x, y) substantially match the colors of the input image I (x, y) Normalize to

画像の再構築に続いて、上述の鏡面反射減衰技法におけるようなマルチグリッド手法によりポワソン方程式を解く。   Following image reconstruction, the Poisson equation is solved by a multigrid approach, such as in the specular attenuation technique described above.

動的なシーン
これまでのところ、本発明の方法は、静止シーンの複数の画像を取得して幾何特徴を求める。本発明は、移動物体または移動カメラを有するシーンの取り込みの同時性の欠如を調べる。ここでもまた、画像シーケンス中の動きを推定するための多くの著作物が存在し、賢明な手法は、静的アルゴリズムからの結果を用いて、導入されるアーチファクトを補正するために動き補償技法を適用することである。
Dynamic Scenes So far, the method of the present invention obtains geometric features by acquiring multiple images of a still scene. The present invention examines the lack of simultaneity of capturing scenes with moving objects or moving cameras. Again, there are many works for estimating motion in an image sequence, and sensible techniques use motion compensation techniques to correct introduced artifacts using results from static algorithms. Is to apply.

しかしながら、光学フローおよび動きの境界を見つけることは、特にテクスチャのない領域において困難な問題である。静止している場合と同様に、本発明では、豊かな画素毎の動き表現を見つけ、動きの中の不連続点、すなわち深度エッジを見つけることに直接焦点を当てるという難しい問題を迂回する。   However, finding optical flow and motion boundaries is a difficult problem, especially in areas without texture. As with stationary, the present invention bypasses the difficult problem of finding rich pixel-by-pixel motion representations and focusing directly on finding discontinuities in motion, ie, depth edges.

この場合、カメラは、画像組(フレーム)のシーケンスをフレーム毎に1つのフラッシュを用いて取得するビデオカメラである。次に、画像組のシーケンスを上述のように時間順に処理する。   In this case, the camera is a video camera that acquires a sequence of image sets (frames) using one flash for each frame. Next, the sequence of images is processed in time order as described above.

本発明は、各フレームにおいて深度エッジを見つけ、各フレームにおいて見つけたエッジを接続して完全な深度エッジにする。   The present invention finds a depth edge in each frame and connects the found edges in each frame to a complete depth edge.

動きの中の深度エッジ
取得の同時性の欠如は、元の画像、たとえば最大合成Imaxの信頼性が低く、特徴が位置合わせされていないことを意味する。このことが、影領域を確実に見付けることを妨げる。本発明は、シーンの動きが中程度である、特に画像空間において物体の特徴の動きが物体の幅よりも小さいという簡略化の仮定を行う。高速カメラにより、フレーム間の動き量を低減することができるが、同時性の欠如を仮定することはできない。本発明の新規の照明方法により、このことは、移動する影のある領域を観測することによって比較的簡単に解決されることが分かった。この説明を簡単にするために、本発明では、レンズの左側および右側にあるフラッシュユニットのみを考えて、垂直方向の深度エッジを求める。
The lack of simultaneity of depth edge acquisition in motion means that the original image, eg, the maximum composite I max , is unreliable and the features are not aligned. This prevents the shadow area from being reliably found. The present invention makes a simplistic assumption that the motion of the scene is moderate, especially in the image space, the motion of the object features is smaller than the width of the object. A high speed camera can reduce the amount of motion between frames, but cannot assume the lack of simultaneity. With the novel illumination method of the present invention, it has been found that this can be solved relatively easily by observing a moving shadowed area. In order to simplify this explanation, the present invention considers only the flash units on the left and right sides of the lens to determine the vertical depth edge.

本発明は、そうしたシーケンスにおいて3つのタイプの輝度勾配を特定する。
深度エッジに起因する、隣接する影エッジを有する勾配、
静止部分のテクスチャエッジに起因する勾配、および
移動部分のテクスチャエッジに起因する勾配。
The present invention identifies three types of intensity gradients in such sequences.
Gradient with adjacent shadow edges due to depth edges,
Gradient due to texture edge of stationary part and gradient due to texture edge of moving part.

上述した、画像比を生成する基本的な方法を用いて、本発明は、静止したテクスチャエッジをわずかに除去することができる。   Using the basic method for generating the image ratio described above, the present invention can remove a small amount of stationary texture edges.

本発明は、照明における左から右への切り替えに起因して、影エッジは交互のフレームにおいてなくなり、移動するテクスチャエッジはなくならないという事実を利用する。   The present invention takes advantage of the fact that due to the left-to-right switch in lighting, the shadow edges disappear in alternating frames and the moving texture edges do not go away.

フレームm−1およびフレームm+1が与えられるとき、フレームm内の深度エッジを求めるための過程は以下の通りである。ここで、a=フレームIm−1であり、b=フレームIであり、c=フレームIm+1である。
画像Iabを保存する影を求める。ここでIab=min(a,b,c)である。
影のない画像Iacを求める。ここでIac=min(a,c)である。
比画像Rを求める。ここでR.Iab/Iacである。
からのエピポーラ光線に沿って横断し、負の遷移を指示する。
Given frame m-1 and frame m + 1, the process for determining the depth edge in frame m is as follows. Here, a = frame I m−1 , b = frame I m , and c = frame I m + 1 .
A shadow for storing the image I ab is obtained. Here, I ab = min (a, b, c).
An image Iac without a shadow is obtained. Here, I ac = min (a, c).
Determining the ratio image R m. Here, R m . Iab / Iac .
traverses along the epipolar ray from e m, instructs a negative transition.

フレームm内の画素がフレームm−1およびm+1内の対応する画素間にあるとき、比Rは0に近い。すなわち、これら両方のフレームの輝度は高い。深度エッジの場合、静止していても移動していても、フレームmに現れる隣接する影はこの条件を生じるが、静止しているかまたは移動しているテクスチャステップエッジの場合には生じない。 The ratio R m is close to 0 when the pixels in frame m are between corresponding pixels in frames m−1 and m + 1. That is, the luminance of both these frames is high. In the case of a depth edge, whether it is stationary or moving, adjacent shadows appearing in frame m cause this condition, but not for texture step edges that are stationary or moving.

エッジおよび色
所与のフレームmにおける深度エッジは、限られた向きのみに渡るため、不完全である。動的なシーンにおいて、4つの連続フレームの深度エッジの結合は、不連続な輪郭を識別するほど整列していない場合がある。本発明は、同じフラッシュユニットに対応する符号付き深度エッジ、すなわちmとm+nを照合し、中間フレームの変位を補間する。色を割り当てるために、本発明では、3つの連続フレーム、たとえば前フレーム、現フレーム、および次フレームの最大値をとる。
Edges and colors Depth edges in a given frame m are imperfect because they only span a limited orientation. In dynamic scenes, the combination of the depth edges of four consecutive frames may not be aligned enough to identify discontinuous contours. The present invention compares signed depth edges corresponding to the same flash unit, ie, m and m + n, and interpolates the displacement of the intermediate frame. In order to assign colors, the present invention takes the maximum of three consecutive frames, for example the previous frame, the current frame and the next frame.

深度エッジの抽出方法は、赤外線、ソナー、x線およびレーダーイメージングにおいて「影」を生成する可視光以外のスペクトルにも用いることができることに留意されたい。具体的には、不可視の赤外光源をカメラに備え、結果として生じるフラッシュが邪魔にならないようにすることが可能である。   Note that the depth edge extraction method can also be used for spectra other than visible light that produce “shadows” in infrared, sonar, x-ray and radar imaging. Specifically, the camera can be equipped with an invisible infrared light source so that the resulting flash is not in the way.

実際に、周波数分割多重化方式を用いて、単一ショットのマルチフラッシュシステムを生成することができる。フラッシュは、別々の波長の別々の4色を同時に発射する。カメライメージャ上のフィルタのベイヤーモザイクパターンが、4つの別々の波長を復号化する。   Indeed, a frequency-division multiplexing scheme can be used to generate a single shot multi-flash system. The flash fires four different colors at different wavelengths simultaneously. A Bayer mosaic pattern of filters on the camera imager decodes four separate wavelengths.

深度エッジの応用
深度の不連続点を検出することは、画像を理解するための基本であり、多くの用途において用いることができる。本方法は、主に物体の最外部のシルエットに基づくが、本発明者らは、完全な深度エッジマップは、ビジュアルハル(visual hull)、分割、深度層およびアスペクトグラフの分解の問題に役立つことができると考える。航空写真技法は、日光の既知の方向から投じられた影の複数の時間差画像を見ることによって建物の検出を改善することができる。さらに、後処理中の被写界深度効果、カメラアレイを用いた合成口径および任意の背景を用いた仮想セットのためのスクリーンマッティング等の効果は、高品質の符号付き深度エッジを必要とする。
Depth Edge Applications Detecting depth discontinuities is fundamental to understanding images and can be used in many applications. The method is mainly based on the outermost silhouette of the object, but we have found that a full depth edge map can help with visual hull, segmentation, depth layer and aspect graph decomposition problems. I think you can. Aerial photography techniques can improve building detection by looking at multiple time difference images of shadows cast from a known direction of sunlight. In addition, effects such as depth of field during post-processing, composite apertures using camera arrays and screen matting for virtual sets using arbitrary backgrounds require high quality signed depth edges. .

エッジまたはエリアを基にしたステレオ対応は、符号付き深度エッジを照合し、動的計画法を深度エッジ内に制約し、部分的な遮蔽を扱うように相関フィルタを変更することによって改善することができる。エッジ分類は、低コントラスト画像における色およびテクスチャの分類を助けるための信頼性マップも提供することができる。   Stereo correspondence based on edges or areas can be improved by matching signed depth edges, constraining dynamic programming within depth edges, and modifying the correlation filter to handle partial occlusion. it can. Edge classification can also provide a reliability map to help classify colors and textures in low contrast images.

本発明は好適な実施形態を例示することにより記載されてきたが、本発明の精神および範囲内で、種々の他の適用形態および変更形態が実施され得ることは理解されたい。それゆえ、添付の特許請求の範囲の目的は、本発明の真の精神および範囲内に入るような、全てのそのような変形あるいは変更を網羅することである。   Although the invention has been described by way of illustrating the preferred embodiments, it is to be understood that various other applications and modifications can be made within the spirit and scope of the invention. Therefore, the purpose of the appended claims is to cover all such modifications or changes as fall within the true spirit and scope of the invention.

本発明によるノンフォトリアリスティックカメラのブロック図である。1 is a block diagram of a non-photorealistic camera according to the present invention. FIG. 別の構成のフラッシュユニットを備える図1Aのカメラのブロック図である。1B is a block diagram of the camera of FIG. 1A including a flash unit of another configuration. さらに別の構成のフラッシュユニットを備える図1Aのカメラのブロック図である。It is a block diagram of the camera of FIG. 1A provided with the flash unit of another structure. 本発明による様式化された画像を生成するための方法の流れ図である。3 is a flow diagram of a method for generating a stylized image according to the present invention. シルエットエッジを検出するための方法の流れ図である。2 is a flow diagram of a method for detecting silhouette edges. 本発明によるシルエットエッジを強調した花を生けた花瓶の画像である。It is the image of the vase which laid the flower which emphasized the silhouette edge by this invention. 投じられる影に対応するエピポーラ光線のブロック図である。It is a block diagram of the epipolar ray corresponding to the cast shadow. 投じられる影に対応するエピポーラ光線のブロック図である。It is a block diagram of the epipolar ray corresponding to the cast shadow. カメラのレンズの周囲の様々な距離のところに位置付けられたフラッシュユニットを有するカメラのブロック図である。FIG. 2 is a block diagram of a camera having flash units positioned at various distances around the camera lens. オーバー−アンダー様式のレンダリングを用いた出力画像である。Output image using over-under style rendering. 様々なエッジ幅を有する出力画像である。It is an output image having various edge widths. デエンファシスしたテクスチャを有する出力画像である。It is an output image having a de-emphasized texture. 滑らかな物体の出力画像である。It is an output image of a smooth object. 滑らかな物体の出力画像である。It is an output image of a smooth object. シーン内の変化する物体の出力画像である。It is an output image of a changing object in the scene.

Claims (44)

物体を含むシーンの様式化された画像を生成する方法であって、
n枚の入力画像のそれぞれが、カメラのレンズの投影中心から異なる位置の前記カメラの本体に取り付けられたn個の光源の組のうちの1つの光源によって照明され、カメラを用いて前記シーンからn枚の入力画像の組を取得することと、
前記n枚の入力画像の組内の、深度エッジ、輝度エッジ、及びテクスチャエッジを含む特徴を検出して、前記深度エッジ、前記輝度エッジ、及び前記テクスチャエッジ間の定性的な深度の関係を求めることと、
前記n枚の入力画像の組を1つの出力画像に合成して、前記検出された特徴を前記定性的な関係に従って強調することと
を含む、物体を含むシーンの様式化された画像を生成する方法。
A method for generating a stylized image of a scene including an object, comprising:
Each of the n input images is illuminated by one light source of a set of n light sources attached to the body of the camera at a different position from the projection center of the camera lens, and from the scene using the camera. obtaining a set of n input images;
A feature including a depth edge, a luminance edge, and a texture edge in the set of the n input images is detected to obtain a qualitative depth relationship between the depth edge, the luminance edge, and the texture edge. And
Combining the set of n input images into a single output image to produce a stylized image of the scene containing the object comprising enhancing the detected features according to the qualitative relationship Method.
前記深度エッジは、前記n枚の入力画像内の深度の不連続点に対応する
請求項1記載の方法。
The method of claim 1, wherein the depth edge corresponds to a discontinuity in depth within the n input images.
前記深度エッジは、符号付きであり、前記n枚の入力画像内の前景画素が正の値を有し、背景画素が負の値を有するようになっており、
前記テクスチャエッジは、前記シーン内の反射率及び物質の不連続点の輪郭を描き、
前記輝度エッジは、実質的に一定の反射率を有する前記シーン内の領域の輪郭を描く
請求項1記載の方法。
The depth edge is signed, and foreground pixels in the n input images have a positive value and background pixels have a negative value,
The texture edges outline the reflectance and material discontinuities in the scene,
The method of claim 1, wherein the luminance edge outlines a region in the scene having a substantially constant reflectivity.
前記深度エッジは、画像空間の座標に対して前記シーン内の影領域に対応する
請求項1記載の方法。
The method of claim 1, wherein the depth edge corresponds to a shadow region in the scene relative to image space coordinates.
前記シーン内の前記物体及び前記影領域は、前記画像空間において連続している
請求項4記載の方法。
The method of claim 4, wherein the object and the shadow region in the scene are continuous in the image space.
前記n枚の入力画像のそれぞれについて、実質的に0に近い前記影領域内の画素輝度から比画像を生成することと、
前記深度エッジにおいて負のステップエッジを指示するエピポーラ光線に沿って各比画像に対して輝度エッジ検出を実行して、各比画像の深度エッジマップを生成することと、
n枚すべての入力画像からの前記エッジマップを合成して、最終的な深度エッジマップを得ることとをさらに含む
請求項4記載の方法。
For each of the n input images, generating a ratio image from the pixel brightness in the shadow region substantially close to 0;
Performing luminance edge detection on each ratio image along an epipolar ray indicating a negative step edge at the depth edge to generate a depth edge map of each ratio image;
The method of claim 4, further comprising combining the edge maps from all n input images to obtain a final depth edge map.
前記n個の光源の組は、前記カメラのレンズの投影中心から別々の距離の前記カメラの本体に取り付けられて、複数の基線を提供する
請求項1記載の方法。
The method of claim 1, wherein the set of n light sources is attached to the camera body at different distances from a projection center of the camera lens to provide a plurality of baselines.
前記n枚の入力画像は、鏡面反射ハイライトを含み、
前記n枚の入力画像から前記鏡面反射ハイライトを除去することをさらに含む
請求項1記載の方法。
The n input images include specular highlights;
The method of claim 1, further comprising removing the specular highlight from the n input images.
前記n枚の入力画像内の各画素においてn個の勾配変動を求めることと、
前記n個の勾配の中央値を求めて、外れ値を除去することとをさらに含む
請求項8記載の方法。
Determining n gradient variations at each pixel in the n input images;
The method of claim 8, further comprising: determining a median value of the n gradients and removing outliers.
特定の入力画像I内の各画素(x,y)における輝度勾配は、G(x,y)=∇I(x,y)であり、
前記勾配の中央値は、G(x,y)=median(G(x,y))であり、
再構成される画像I’は、|∇I’−G|を最小化する
請求項9記載の方法。
The luminance gradient at each pixel (x, y) in the specific input image I k is G k (x, y) = ∇I k (x, y),
The median value of the gradient is G (x, y) = median k (G k (x, y))
The method of claim 9, wherein the reconstructed image I ′ minimizes | ∇I′−G |.
比I(x,y)/I’(x,y)は、1.0に設定されて、前記鏡面反射ハイライトが除去される
請求項10記載の方法。
The method of claim 10, wherein the ratio I k (x, y) / I ′ (x, y) is set to 1.0 to remove the specular highlight.
前記深度エッジ画素を輪郭につなぐことと、
前記輪郭を平滑化することとをさらに含む
請求項1記載の方法。
Connecting the depth edge pixels to a contour;
The method of claim 1, further comprising smoothing the contour.
前記深度エッジの前景側は、前記正の値を有し、前記深度エッジの背景側は、前記負の値を有し、
前記前景側を白色としてレンダリングすることと、
前記背景側を黒色としてレンダリングすることとをさらに含む
請求項3記載の方法。
The foreground side of the depth edge has the positive value, the background side of the depth edge has the negative value,
Rendering the foreground side as white;
The method of claim 3, further comprising rendering the background side as black.
前記輪郭を面法線に沿って変位させることによって前記深度エッジの前記前景側及び前記背景側をレンダリングすることをさらに含む
請求項13記載の方法。
The method of claim 13, further comprising rendering the foreground side and the background side of the depth edge by displacing the contour along a surface normal.
前記深度エッジの幅を変更して、前記出力画像において任意の光方向を伝えることをさらに含む
請求項14記載の方法。
The method of claim 14, further comprising changing a width of the depth edge to convey an arbitrary light direction in the output image.
前記幅は、画像空間の法線と前記任意の光方向のドット積に比例する
請求項15記載の方法。
The method of claim 15, wherein the width is proportional to a normal of the image space and a dot product in the arbitrary light direction.
選択された色で前記深度エッジをレンダリングすることをさらに含む
請求項1記載の方法。
The method of claim 1, further comprising rendering the depth edge with a selected color.
1つの入力画像は、周囲からの光によって照明され、
周囲からの光によって照明される前記1つの入力画像を分割することと、
分割された入力画像に色を付けた深度エッジを重ねることとをさらに含む
請求項17記載の方法。
One input image is illuminated by ambient light,
Splitting the one input image illuminated by light from the surroundings;
18. The method of claim 17, further comprising overlaying colored depth edges on the segmented input image.
前記深度エッジを前記出力画像において黒色の背景上に白色でレンダリングすることと、
エッジ強調フィルタの勾配であるフィルタを用いて前記エッジをたたみ込み、たたみ込まれた画像を得ることと、
前記たたみ込まれた画像を積分して、前記深度エッジにおける急激な遷移を得ることとをさらに含む
請求項1記載の方法。
Rendering the depth edge in white on a black background in the output image;
Convolving the edge with a filter that is a gradient of an edge enhancement filter to obtain a convolved image;
The method of claim 1, further comprising integrating the convolved image to obtain a sharp transition at the depth edge.
前記フィルタは、ガウス関数からインパルス関数を引いたものである
請求項19記載の方法。
The method of claim 19, wherein the filter is a Gaussian function minus an impulse function.
前記シーンは、背景物体及び前景物体を含み、
前記背景物体のみを有する前記シーンから第1のn+1枚の入力画像の組を取得することと、
前記背景物体及び前記前景物体を有する前記シーンから第2のn+1枚の入力画像の組を取得することと、
前記第2のn+1枚の入力画像の組の前記前景物体に対応する部分にマスクを適用して、前記出力画像における前記前景物体の外観を強調することとをさらに含む
請求項1記載の方法。
The scene includes a background object and a foreground object;
Obtaining a first n + 1 set of input images from the scene having only the background object;
Obtaining a second n + 1 set of input images from the scene having the background object and the foreground object;
The method of claim 1, further comprising applying a mask to a portion of the second n + 1 set of input images corresponding to the foreground object to enhance the appearance of the foreground object in the output image.
前記マスク内の画素輝度値は、1に設定される
請求項21記載の方法。
The method of claim 21, wherein a pixel luminance value in the mask is set to one.
前記テクスチャエッジは、前記n+1枚の画像内のテクスチャ領域を定義し、
マスク画像に従って前記テクスチャ領域にマスクをかけて、前記出力画像においてクラッタを低減することをさらに含む
請求項1記載の方法。
The texture edge defines a texture region in the n + 1 images,
The method of claim 1, further comprising masking the texture region according to a mask image to reduce clutter in the output image.
前記マスク画像内の画素は、γ(x,y)=aであり、
前記深度エッジの画素(x,y)の輝度値を1に設定することと、
前記テクスチャエッジの画素(x,y)の輝度値を0に設定することと、
画素d(x,y)の輝度エッジの輝度値を、深度エッジ画素の距離フィールドに対するテクスチャエッジ画素の距離フィールドの比に設定することとをさらに含む
請求項23記載の方法。
The pixels in the mask image are γ (x, y) = a,
Setting the luminance value of the pixel (x, y) at the depth edge to 1,
Setting the luminance value of the texture edge pixel (x, y) to 0;
24. The method of claim 23, further comprising: setting a luminance value of a luminance edge of pixel d (x, y) to a ratio of a texture edge pixel distance field to a depth edge pixel distance field.
初期マスク画像γ(x,y)を生成することと、
輝度勾配∇I(x,y)を求めることと、
マスクをかけられた勾配G(x,y)=∇I(x,y)γ(x,y)を変更することと、
前記出力画像I’を再構成して、|I’−G|を最小化することと、
前記出力画像I’(x,y)内の色を正規化して、前記入力画像I(x,y)内の色と実質的に一致させることとをさらに含む
請求項24記載の方法。
Generating an initial mask image γ (x, y);
Obtaining a luminance gradient ∇I (x, y);
Changing the masked gradient G (x, y) = ∇I (x, y) γ (x, y) ;
Reconstructing the output image I ′ to minimize | I′−G |;
25. The method of claim 24, further comprising normalizing colors in the output image I '(x, y) to substantially match colors in the input image I (x, y).
前記カメラはビデオカメラであり、前記物体は前記シーン内で動き、
前記ビデオカメラを用いて前記シーンからn+1枚の入力画像の組のシーケンスを取得することと、
前記n枚の入力画像の組のシーケンス内の前記特徴を検出することと、
前記n+1枚の入力画像の組のシーケンスを出力画像のシーケンスに合成して、前記定性的な関係に従って前記検出された特徴を強調することとをさらに含む
請求項1記載の方法。
The camera is a video camera and the object moves in the scene;
Obtaining a sequence of a set of n + 1 input images from the scene using the video camera;
Detecting the feature in a sequence of the set of n input images;
The method of claim 1, further comprising: combining the sequence of the n + 1 input image sets into an output image sequence to enhance the detected features according to the qualitative relationship.
輝度勾配が、前記深度エッジに起因する勾配、静止部分の前記テクスチャエッジに起因する勾配、及び移動部分の前記テクスチャエッジに起因する勾配を含み、
前記画像の組のシーケンス内の輝度勾配を特定することと、
前記静止部分を有するテクスチャエッジを除去することとをさらに含む
請求項26記載の方法。
A luminance gradient includes a gradient due to the depth edge, a gradient due to the texture edge of the stationary portion, and a gradient due to the texture edge of the moving portion;
Identifying a luminance gradient in the sequence of sets of images;
27. The method of claim 26, further comprising removing a texture edge having the stationary portion.
前記出力画像のシーケンス内で移動する深度エッジの変位を補間することをさらに含む
請求項27記載の方法。
28. The method of claim 27, further comprising interpolating displacements of depth edges that move within the sequence of output images.
前記出力画像のシーケンスの特定の画像内の画素の色を3つの連続する画像の最大値に従って割り当てることをさらに含む
請求項26記載の方法。
27. The method of claim 26, further comprising assigning pixel colors in a particular image of the output image sequence according to a maximum of three consecutive images.
前記3つの連続する画像は、前記シーケンス内の特定の画像、前の画像及び次の画像である
請求項29記載の方法。
30. The method of claim 29, wherein the three consecutive images are a specific image, a previous image, and a next image in the sequence.
前記光源は、可視光を放射する
請求項1記載の方法。
The method of claim 1, wherein the light source emits visible light.
前記光源は、赤外光を放射する
請求項1記載の方法。
The method of claim 1, wherein the light source emits infrared light.
前記光源は、ソナー信号を放射する
請求項1記載の方法。
The method of claim 1, wherein the light source emits a sonar signal.
前記光源は、x線を放射する
請求項1記載の方法。
The method of claim 1, wherein the light source emits x-rays.
前記光源は、レーダー信号を放射する
請求項1記載の方法。
The method of claim 1, wherein the light source emits a radar signal.
前記光源は、複数の波長の光を同時に放射し、
前記カメラ内のセンサにおいて複数のフィルタを用いて複数の周波数を復号化することをさらに含む
請求項1記載の方法。
The light source emits light of a plurality of wavelengths simultaneously,
The method of claim 1, further comprising decoding a plurality of frequencies using a plurality of filters at a sensor in the camera.
前記フィルタは、ベイヤーモザイクパターンを有する
請求項36記載の方法。
The method of claim 36, wherein the filter has a Bayer mosaic pattern.
前記エッジは、前記n枚の入力画像内の全てのエッジを含む
請求項1記載の方法。
The method of claim 1, wherein the edges include all edges in the n input images.
前記エッジからビジュアルハルを求めることをさらに含む
請求項38記載の方法。
39. The method of claim 38, further comprising determining a visual hull from the edge.
前記エッジに従って前記出力画像を分割することをさらに含む
請求項38記載の方法。
40. The method of claim 38, further comprising segmenting the output image according to the edges.
前記エッジに従って前記出力画像内の深度層を分解することをさらに含む
請求項38記載の方法。
40. The method of claim 38, further comprising decomposing a depth layer in the output image according to the edge.
前記エッジに従って前記出力画像のアスペクトグラフを分解することをさらに含む
請求項38記載の方法。
40. The method of claim 38, further comprising decomposing an aspect graph of the output image according to the edges.
前記入力画像は、航空写真撮影術によって取得される
請求項1記載の方法。
The method of claim 1, wherein the input image is acquired by aerial photography.
前記光源は、フラッシュユニットである
請求項1記載の方法。
The method of claim 1, wherein the light source is a flash unit.
JP2005143803A 2004-05-17 2005-05-17 Method for generating a stylized image of a scene containing objects Expired - Fee Related JP4610411B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/847,068 US7738725B2 (en) 2003-03-19 2004-05-17 Stylized rendering using a multi-flash camera

Publications (2)

Publication Number Publication Date
JP2005341569A true JP2005341569A (en) 2005-12-08
JP4610411B2 JP4610411B2 (en) 2011-01-12

Family

ID=35494557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005143803A Expired - Fee Related JP4610411B2 (en) 2004-05-17 2005-05-17 Method for generating a stylized image of a scene containing objects

Country Status (1)

Country Link
JP (1) JP4610411B2 (en)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008039767A (en) * 2006-08-01 2008-02-21 Mitsubishi Electric Research Laboratories Inc Method and system for sensing surface shape of reflective object
JP2009177782A (en) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd Image processing apparatus and photographing apparatus
JP2009212811A (en) * 2008-03-04 2009-09-17 Canon Inc Imaging system, method, and program
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP2011215100A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011215101A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011215099A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
US8325268B2 (en) 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP2017102637A (en) * 2015-12-01 2017-06-08 キヤノン株式会社 Processing apparatus, processing system, imaging device, processing method, program, and recording medium
WO2017154706A1 (en) * 2016-03-09 2017-09-14 株式会社ニコン Detection device, information processing device, detection method, detection program, and detection system
JP2017163587A (en) * 2011-09-28 2017-09-14 ペリカン イメージング コーポレイション System and method for encoding and decoding light field image file
JP2017174416A (en) * 2016-02-29 2017-09-28 トムソン ライセンシングThomson Licensing Adaptive depth-guided non-photorealistic rendering method, and corresponding computer program product, computer-readable carrier medium and device
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
JP2019113870A (en) * 2019-04-05 2019-07-11 キヤノン株式会社 Imaging apparatus
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
CN110070482A (en) * 2019-03-14 2019-07-30 北京字节跳动网络技术有限公司 Image processing method, device and computer readable storage medium
US10380752B2 (en) 2012-08-21 2019-08-13 Fotonation Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
JP2019168862A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Processing equipment, processing system, imaging device, processing method, program, and recording medium
US10455218B2 (en) 2013-03-15 2019-10-22 Fotonation Limited Systems and methods for estimating depth using stereo array cameras
US10462362B2 (en) 2012-08-23 2019-10-29 Fotonation Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10540806B2 (en) 2013-09-27 2020-01-21 Fotonation Limited Systems and methods for depth-assisted perspective distortion correction
US10560684B2 (en) 2013-03-10 2020-02-11 Fotonation Limited System and methods for calibration of an array camera
US10674138B2 (en) 2013-03-15 2020-06-02 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10708492B2 (en) 2013-11-26 2020-07-07 Fotonation Limited Array camera configurations incorporating constituent array cameras and constituent cameras
JP2020170366A (en) * 2019-04-03 2020-10-15 株式会社キーエンス Hand-held optical information reader
US10897562B2 (en) 2015-07-23 2021-01-19 Canon Kabushiki Kaisha Imaging device including a plurality of light emitting elements
US10944961B2 (en) 2014-09-29 2021-03-09 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US11022725B2 (en) 2012-06-30 2021-06-01 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
CN113221619A (en) * 2021-01-28 2021-08-06 深圳市雄帝科技股份有限公司 Face image highlight removing method and system based on Poisson reconstruction and storage medium thereof
US11151783B2 (en) 2014-09-03 2021-10-19 Nikon Corporation Image pickup device, information processing device, and image pickup system
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2024051541A1 (en) * 2022-09-08 2024-03-14 北京字跳网络技术有限公司 Special-effect image generation method and apparatus, and electronic device and storage medium
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101812664B1 (en) 2016-10-28 2017-12-27 한국과학기술원 Method and apparatus for extracting multi-view object with fractional boundaries

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008988A (en) * 2001-04-11 2003-01-10 Hewlett Packard Co <Hp> Method and apparatus for the removal of flash artifacts
JP2003219264A (en) * 2002-01-22 2003-07-31 Fuji Photo Film Co Ltd Imaging apparatus, image picking up method and program
JP2004289829A (en) * 2003-03-19 2004-10-14 Mitsubishi Electric Research Laboratories Inc Method for generating stylized image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008988A (en) * 2001-04-11 2003-01-10 Hewlett Packard Co <Hp> Method and apparatus for the removal of flash artifacts
JP2003219264A (en) * 2002-01-22 2003-07-31 Fuji Photo Film Co Ltd Imaging apparatus, image picking up method and program
JP2004289829A (en) * 2003-03-19 2004-10-14 Mitsubishi Electric Research Laboratories Inc Method for generating stylized image

Cited By (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008039767A (en) * 2006-08-01 2008-02-21 Mitsubishi Electric Research Laboratories Inc Method and system for sensing surface shape of reflective object
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP2009177782A (en) * 2007-12-28 2009-08-06 Sanyo Electric Co Ltd Image processing apparatus and photographing apparatus
JP4606486B2 (en) * 2007-12-28 2011-01-05 三洋電機株式会社 Image processing apparatus and photographing apparatus
US8325268B2 (en) 2007-12-28 2012-12-04 Sanyo Electric Co., Ltd. Image processing apparatus and photographing apparatus
JP2009212811A (en) * 2008-03-04 2009-09-17 Canon Inc Imaging system, method, and program
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
JP2011215101A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011215099A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
JP2011215100A (en) * 2010-04-02 2011-10-27 Seiko Epson Corp Optical position detecting device
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US10984276B2 (en) 2011-09-28 2021-04-20 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US20180197035A1 (en) 2011-09-28 2018-07-12 Fotonation Cayman Limited Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata
JP2017163587A (en) * 2011-09-28 2017-09-14 ペリカン イメージング コーポレイション System and method for encoding and decoding light field image file
JP2020017999A (en) * 2011-09-28 2020-01-30 フォトネイション リミテッド System and method for encoding and decoding light field image file
US10275676B2 (en) 2011-09-28 2019-04-30 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10430682B2 (en) 2011-09-28 2019-10-01 Fotonation Limited Systems and methods for decoding image files containing depth maps stored as metadata
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
US11022725B2 (en) 2012-06-30 2021-06-01 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10380752B2 (en) 2012-08-21 2019-08-13 Fotonation Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US10462362B2 (en) 2012-08-23 2019-10-29 Fotonation Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US10560684B2 (en) 2013-03-10 2020-02-11 Fotonation Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US10958892B2 (en) 2013-03-10 2021-03-23 Fotonation Limited System and methods for calibration of an array camera
US11985293B2 (en) 2013-03-10 2024-05-14 Adeia Imaging Llc System and methods for calibration of an array camera
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US10547772B2 (en) 2013-03-14 2020-01-28 Fotonation Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10638099B2 (en) 2013-03-15 2020-04-28 Fotonation Limited Extended color processing on pelican array cameras
US10674138B2 (en) 2013-03-15 2020-06-02 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10455218B2 (en) 2013-03-15 2019-10-22 Fotonation Limited Systems and methods for estimating depth using stereo array cameras
US10540806B2 (en) 2013-09-27 2020-01-21 Fotonation Limited Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10767981B2 (en) 2013-11-18 2020-09-08 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US11486698B2 (en) 2013-11-18 2022-11-01 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10708492B2 (en) 2013-11-26 2020-07-07 Fotonation Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10574905B2 (en) 2014-03-07 2020-02-25 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US11151783B2 (en) 2014-09-03 2021-10-19 Nikon Corporation Image pickup device, information processing device, and image pickup system
US11546576B2 (en) 2014-09-29 2023-01-03 Adeia Imaging Llc Systems and methods for dynamic calibration of array cameras
US10944961B2 (en) 2014-09-29 2021-03-09 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10897562B2 (en) 2015-07-23 2021-01-19 Canon Kabushiki Kaisha Imaging device including a plurality of light emitting elements
JP2017102637A (en) * 2015-12-01 2017-06-08 キヤノン株式会社 Processing apparatus, processing system, imaging device, processing method, program, and recording medium
JP2017174416A (en) * 2016-02-29 2017-09-28 トムソン ライセンシングThomson Licensing Adaptive depth-guided non-photorealistic rendering method, and corresponding computer program product, computer-readable carrier medium and device
US11176728B2 (en) 2016-02-29 2021-11-16 Interdigital Ce Patent Holdings, Sas Adaptive depth-guided non-photorealistic rendering method and device
JP7120740B2 (en) 2016-02-29 2022-08-17 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device
US11151733B2 (en) 2016-03-09 2021-10-19 Nikon Corporation Detection device, information processing device, detection method, storage medium, and detection system
WO2017154706A1 (en) * 2016-03-09 2017-09-14 株式会社ニコン Detection device, information processing device, detection method, detection program, and detection system
JP2019168862A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Processing equipment, processing system, imaging device, processing method, program, and recording medium
JP7179472B2 (en) 2018-03-22 2022-11-29 キヤノン株式会社 Processing device, processing system, imaging device, processing method, program, and recording medium
CN110070482B (en) * 2019-03-14 2023-05-02 北京字节跳动网络技术有限公司 Image processing method, apparatus and computer readable storage medium
CN110070482A (en) * 2019-03-14 2019-07-30 北京字节跳动网络技术有限公司 Image processing method, device and computer readable storage medium
JP7289703B2 (en) 2019-04-03 2023-06-12 株式会社キーエンス handheld optical information reader
JP2020170366A (en) * 2019-04-03 2020-10-15 株式会社キーエンス Hand-held optical information reader
JP2019113870A (en) * 2019-04-05 2019-07-11 キヤノン株式会社 Imaging apparatus
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11982775B2 (en) 2019-10-07 2024-05-14 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN113221619B (en) * 2021-01-28 2024-02-20 深圳市雄帝科技股份有限公司 Face image highlight removing method and system based on Poisson reconstruction and storage medium thereof
CN113221619A (en) * 2021-01-28 2021-08-06 深圳市雄帝科技股份有限公司 Face image highlight removing method and system based on Poisson reconstruction and storage medium thereof
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
WO2024051541A1 (en) * 2022-09-08 2024-03-14 北京字跳网络技术有限公司 Special-effect image generation method and apparatus, and electronic device and storage medium

Also Published As

Publication number Publication date
JP4610411B2 (en) 2011-01-12

Similar Documents

Publication Publication Date Title
JP4610411B2 (en) Method for generating a stylized image of a scene containing objects
US7738725B2 (en) Stylized rendering using a multi-flash camera
Raskar et al. Non-photorealistic camera: depth edge detection and stylized rendering using multi-flash imaging
US7359562B2 (en) Enhancing low quality videos of illuminated scenes
JP4440681B2 (en) Method for generating stylized images
JP4364686B2 (en) Method for enhancing the quality of images of naturally illuminated scenes
US7206449B2 (en) Detecting silhouette edges in images
US7295720B2 (en) Non-photorealistic camera
US7102638B2 (en) Reducing texture details in images
US10867430B2 (en) Method and system of 3D reconstruction with volume-based filtering for image processing
Goesele et al. Multi-view stereo revisited
Gvili et al. Depth keying
Zollmann et al. Image-based ghostings for single layer occlusions in augmented reality
US8451322B2 (en) Imaging system and method
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
Vogt et al. Highlight substitution in light fields
CA2667066A1 (en) Apparatus and method for automatic real-time bi-layer segmentation using color and infrared images
Amri et al. A robust framework for joint background/foreground segmentation of complex video scenes filmed with freely moving camera
Jang et al. 3D human modeling from a single depth image dealing with self-occlusion
Yagi et al. Diminished reality for privacy protection by hiding pedestrians in motion image sequences using structure from motion
Gelautz et al. Recognition of object contours from stereo images: an edge combination approach
Feris et al. Dealing with multi-scale depth changes and motion in depth edge detection
Haque et al. Gaussian-Hermite moment-based depth estimation from single still image for stereo vision
Cheng et al. Contrast enhancement from multiple panoramic images
Dana Bidirectional Texture Function and 3D Texture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4610411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees