JP2011517226A - System and method for enhancing the sharpness of an object in a digital picture - Google Patents
System and method for enhancing the sharpness of an object in a digital picture Download PDFInfo
- Publication number
- JP2011517226A JP2011517226A JP2011503987A JP2011503987A JP2011517226A JP 2011517226 A JP2011517226 A JP 2011517226A JP 2011503987 A JP2011503987 A JP 2011503987A JP 2011503987 A JP2011503987 A JP 2011503987A JP 2011517226 A JP2011517226 A JP 2011517226A
- Authority
- JP
- Japan
- Prior art keywords
- target
- positioning information
- video
- input video
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000002708 enhancing effect Effects 0.000 title claims description 8
- 238000007670 refining Methods 0.000 claims description 9
- 230000001965 increasing effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 10
- 238000013459 approach Methods 0.000 description 21
- 230000015556 catabolic process Effects 0.000 description 9
- 238000006731 degradation reaction Methods 0.000 description 9
- 238000012805 post-processing Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000009499 grossing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 229920001690 polydopamine Polymers 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0021—Tracking a path or terminating locations
- A63B2024/0028—Tracking the path of an object, e.g. a ball inside a soccer pitch
- A63B2024/0034—Tracking the path of an object, e.g. a ball inside a soccer pitch during flight
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
- G06T2207/30224—Ball; Puck
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
デジタルピクチャにおける対象の鮮明度は、デジタルピクチャの入力映像を、対象の性質及び特徴を表す記憶された情報と比較して、対象を識別してその位置を示す対象位置決め情報を生成することによって高められる。対象及び対象が位置する領域の鮮明度は画像処理によって高められ、そのように鮮明度を高められた入力映像はエンコードされる。The sharpness of an object in a digital picture is enhanced by comparing the input picture of the digital picture with stored information that represents the nature and characteristics of the object to identify the object and generate object positioning information that indicates its position. It is done. The sharpness of the object and the area where the object is located is enhanced by image processing, and the input video with such enhanced sharpness is encoded.
Description
本発明は、概して、デジタルピクチャの送信に係り、具体的に、デジタルピクチャ、特に、低解像度・低ビットレートの映像符号化を有するユニットで表示されるデジタルピクチャにおいて関心がある対象の鮮明度(visibility)を高めることに係る。 The present invention relates generally to the transmission of digital pictures, and in particular, the sharpness of interest of interest in digital pictures, in particular digital pictures displayed in units with low resolution and low bit rate video coding. Visibility).
例えば携帯電話機及びPDA等の携帯型の装置に映像コンテンツを配信する要望が高まっている。小さな画面サイズ、限られた帯域幅及び限られたデコーダエンド処理能力のために、映像は低ビットレート且つ低解像度でエンコードされる。 For example, there is an increasing demand for distributing video content to portable devices such as mobile phones and PDAs. Due to the small screen size, limited bandwidth, and limited decoder end processing power, the video is encoded at a low bit rate and low resolution.
低解像度・低ビットレートのエンコーディングの主たる問題の1つは、認知される映像品質にとって重要な対象の劣化又は喪失である。例えば、ボールがはっきりと見えない場合にサッカー又はテニスの試合のビデオクリップを観るのは厄介である。 One of the main problems with low resolution, low bit rate encoding is the degradation or loss of objects important to perceived video quality. For example, it is cumbersome to watch a video clip of a soccer or tennis match when the ball is not clearly visible.
従って、低解像度・低ビットレートの映像の主観的な表示品位を改善するよう、関心のある対象をハイライト表示することが好ましい。 Therefore, it is preferable to highlight the object of interest so as to improve the subjective display quality of the low resolution / low bit rate video.
本発明の様々な実施において、デジタル画像における関心のある対象の鮮明度は、画像における対象のおおよその位置及びサイズを前提として高められる。あるいは、対象の鮮明度は、対象のおおよその位置及びサイズの精緻化の後に高められる。対象のエンハンスメントは少なくとも2つの利点を提供する。第1に、対象のエンハンスメントは、対象を見やすく且つ追いやすくし、それによってユーザ・エクスペリエンスを改善する。第2に、対象のエンハンスメントは、エンコーディング(すなわち、圧縮)段階の間、対象をほとんど劣化させない。本発明の主たる用途の1つは、例えば携帯電話機及びPDA等の携帯型の装置への映像配信であるが、本発明の特徴、コンセプト及び実施は、また、例えば、インターネット・プロトコル上の映像(低ビットレート標準画質コンテンツ)を含む様々な他の用途、状況及び環境にとっても有用である。 In various implementations of the present invention, the sharpness of an object of interest in a digital image is increased given the approximate location and size of the object in the image. Alternatively, the sharpness of the object is increased after refinement of the approximate position and size of the object. The subject enhancement provides at least two advantages. First, subject enhancement makes the subject easier to see and follow, thereby improving the user experience. Second, the enhancement of the object causes little degradation of the object during the encoding (ie, compression) phase. One of the main applications of the present invention is the distribution of video to portable devices such as mobile phones and PDAs, but the features, concepts and implementations of the present invention also include, for example, video over Internet protocols ( It is also useful for a variety of other applications, situations and environments, including low bit rate standard definition content).
本発明は、映像において関心のある対象をハイライト表示して、低解像度・低ビットレートの映像の主観的な表示品位を改善する。本発明のシステム及び方法は、異なった特徴の対象を扱うことができるとともに、全自動モード、半自動モード(すなわち、手動援助有り)及び全手動モードで動作することができる。対象のエンハンスメントは、前処理段階で(すなわち、映像エンコーディング段階の前又はその段階で)、あるいは後処理段階で(すなわち、映像デコーディングの後で)実行されてよい。 The present invention highlights objects of interest in the video to improve the subjective display quality of the low resolution, low bit rate video. The system and method of the present invention can handle objects of different characteristics and can operate in fully automatic mode, semi-automatic mode (ie with manual assistance) and fully manual mode. The subject enhancement may be performed in the pre-processing stage (ie, before or at the video encoding stage) or at the post-processing stage (ie, after video decoding).
本発明に従って、デジタルピクチャにおける対象の鮮明度は、対象を含む入力映像を提供し、前記対象の性質及び特徴を表す情報を記憶し、前記入力映像並びに前記対象の性質及び特徴を表す情報に応じて、前記対象を識別し且つ該対象の位置を示す対象位置決め情報を生成することによって、高められる。前記対象及び前記対象が位置する領域を含む前記入力映像の部分のエンハンスト(enhanced)映像は、前記対象位置決め情報に応じて前記入力映像から生成され、生成されたエンハンスト映像はエンコードされる。 According to the present invention, the definition of a target in a digital picture provides an input video including the target, stores information representing the properties and characteristics of the target, and depends on the input video and information representing the characteristics and features of the target And by generating object positioning information that identifies the object and indicates the position of the object. An enhanced video of the portion of the input video including the target and the region where the target is located is generated from the input video according to the target positioning information, and the generated enhanced video is encoded.
図1を参照すると、本発明に従って構成される対象エンハンシングシステム(object enhancing system)は、送信器10内の全ての構成要素にわたってよく、あるいは、対象エンハンスメント部品は受信器20にあってよい。対象のハイライト表示が行われる処理チェーンには3つの段階がある。すなわち、(1)対象がエンコーディング(すなわち、圧縮)段階の前に送信器10で引き立たせられる前処理、(2)対象を含む関心領域が、対象及びその位置に関する情報の精緻化によって送信器10で特別の処理を受けるエンコーディング、及び(3)対象が、メタデータとしてビットストリームにより送信器10から送信された対象及びその位置に関するサイド情報を用いてデコードディングの後に受信器20で引き立たせられる後処理である。本発明に従って構成される対象エンハンシングシステムは、上記の段階の中の1つのみで、又は上記の段階の中の2つで、又は上記の3つの段階全てで、対象のハイライト表示を提供するよう配置されてよい。
Referring to FIG. 1, an object enhancing system configured in accordance with the present invention may span all components in
デジタルピクチャにおいて対象の鮮明度を高めるための図1のシステムは、関心のある対象を含む入力映像を提供する手段を有する。鮮明度を高められるべき対象を含むデジタルピクチャの発生源は、従来の構成及び動作のテレビジョンカメラであってよく、矢印12によって表されている。
The system of FIG. 1 for enhancing the sharpness of an object in a digital picture has means for providing an input video that includes the object of interest. The source of the digital picture that includes the object to be enhanced in sharpness may be a television camera of conventional construction and operation and is represented by
図1のシステムは、更に、関心のある対象の性質及び特徴を表す情報(例えば、対象テンプレート)を記憶し、且つ、入力映像並びに対象の性質及び特徴を表す情報に応じて、対象を識別し且つその位置を示す対象位置決め情報を生成する手段を有する。かかる手段は、図1において対象位置決めモジュール14として示され、フレームごとに入力映像を走査して、関心のある対象の性質及び特徴を表す記憶された情報と同じ性質及び特徴を有するピクチャ内の対象(すなわち、対象が何であるのか)を特定し、その対象の位置(すなわち、対象がどこにあるのか)を示す手段を有する。対象位置決めモジュール14は、従来の構成及び動作のユニットであってよく、フレームごとに入力映像のデジタルピクチャを走査し、走査された入力映像のデジタルピクチャのセクタを関心のある対象の性質及び特徴を表す記憶された情報と比較して、特定のセクタの走査から生成された情報が対象の性質及び特徴を表す記憶された情報と同じである場合に関心のある対象を識別し且つデジタルピクチャのグリッド座標によってその位置を示す。
The system of FIG. 1 further stores information (eg, a target template) that represents the properties and characteristics of the object of interest, and identifies the objects according to the input video and information that represents the characteristics and features of the target. And means for generating target positioning information indicating the position. Such means is shown in FIG. 1 as the
一般に、対象位置決めモジュール14は、関心のある対象の識別及び位置決めにおいて下記の方法の中の1又はそれ以上を実施する。
In general, the
・対象トラッキング・・・対象トラッカーの目的は、映像において動いている対象の位置決めを行うことである。通常は、トラッカーは、前のフレームから得られる当該動いている対象の履歴を鑑みて、現在のフレームにおける対象パラメータ(例えば、位置、サイズ)を推定する。トラッキングアプローチは、例えば、テンプレート照合、オプティカルフロー、カルマンフィルタ、平均シフト解析、隠れマルコフモデル、及び特別のフィルタに基づいてよい。 Target tracking: The purpose of the target tracker is to locate a moving object in the video. Normally, the tracker estimates target parameters (eg, position, size) in the current frame in view of the moving target's history obtained from the previous frame. The tracking approach may be based on, for example, template matching, optical flow, Kalman filter, average shift analysis, hidden Markov model, and special filters.
・対象検出・・・対象検出における目的は、対象に関する予備的知識に基づいて画像又は映像フレームで対象の存在及び位置を検出することである。対象検出方法は、一般に、トップダウン・アプローチ及びボトムアップ・アプローチの組み合わせを用いる。トップダウン・アプローチで、対象検出方法は、検出される対象に係る人間の知識から得られる規則に基づく。ボトムアップ・アプローチで、対象検出方法は、対象を低レベルの構造的特徴又はパターンと関連付けて、これらの特徴又はパターンを探すことによって対象の位置を決める。 Object detection: The purpose in object detection is to detect the presence and position of an object in an image or video frame based on preliminary knowledge about the object. The object detection method generally uses a combination of a top-down approach and a bottom-up approach. In a top-down approach, the object detection method is based on rules derived from human knowledge of the detected object. In a bottom-up approach, the object detection method associates the object with low-level structural features or patterns and locates the object by looking for these features or patterns.
・対象セグメンテーション・・・このアプローチで、画像又は映像は、それを構成する“対象”に分解される。これらの“対象”は、例えばカラーパッチ等の意味エンティティ(semantic entities)又は視覚構造を有してよい。かかる分解は、一般に、対象の動き、色及びテクスチャ属性に基づく。対象セグメンテーションは、コンパクトビデオ符号化、自動及び半自動のコンテンツベースの記述(content-based description)、フィルム・ポストプロダクション(film post-production)、及び場面説明を含む幾つかの応用を有してよい。具体的に、セグメンテーションは、場面について対象に基づく記述を提供することによって対象の位置決めに係る問題を単純化する。 Object segmentation. With this approach, an image or video is broken down into the "objects" that make it up. These “objects” may have semantic entities or visual structures such as color patches, for example. Such decomposition is generally based on object motion, color and texture attributes. Target segmentation may have several applications including compact video coding, automatic and semi-automatic content-based description, film post-production, and scene description. Specifically, segmentation simplifies the problem of object positioning by providing an object-based description of the scene.
図2は、対象位置決めモジュール14によって提供されるおおよその対象の位置を表す。ユーザは、例えば、対象が位置する領域の周囲に楕円を描いて、対象の位置をおおよそ示す。最終的に、おおよその対象位置決め情報(すなわち、楕円の中心点、長軸及び短軸パラメータ)は精緻化される。
FIG. 2 represents the approximate object position provided by the
理想的には、対象位置決めモジュール14は全自動モードで動作する。しかし、具体的に、幾つかの手動支援が、位置を見つけ出すべきシステムによって重要な対象を定義するよう、システムによって又は最低限生ずるエラーを補正するために必要とされる。非対象領域のエンハンスメントは、見る者を混乱させて実際の動作を見逃させることがある。この問題を解消し又は最小限とするよう、ユーザは、上記のように、対象の周囲に楕円を描くことができ、次いで、システムは、特定された位置から対象を追跡することができる。フレームにおける対象の位置決めが成功すると、対象位置決めモジュール14は、対応する楕円パラメータ(すなわち、中心点、長軸及び短軸)を出力する。理想的には、この境界となる楕円の輪郭は、対象の輪郭と一致する。
Ideally, the
しかし、パラメータが単なる近似であって、結果として得られる楕円が対象をしっかりと包含しないまま対象エンハンスメントが適用される場合、2つの問題が起こりうる。第1に、楕円が対象の全体を含まないために、対象は全体としてエンハンスメントを受けられるわけではない。第2に、非対象領域がエンハンスメントを受けることがある。これらの結果は好ましくないために、このような状況下で、エンハンスメントの前に対象領域を精緻化することが有用である。対象位置決め情報の精緻化は、以下でより詳細に検討される。 However, if the parameter is just an approximation and the object enhancement is applied without the resulting ellipse firmly containing the object, two problems can arise. First, because an ellipse does not contain the entire object, the object cannot receive enhancement as a whole. Second, non-target areas may be enhanced. Because these results are undesirable, it is useful to refine the target area before enhancement under such circumstances. The refinement of the object positioning information is discussed in more detail below.
図1のシステムは、更に、入力映像と、対象位置決めモジュール14から受け取られる対象位置決め情報とに応じて、関心のある対象及び対象が位置する領域を含むデジタルピクチャの部分のエンハンスト映像を生成する手段を有する。かかる手段は、対象エンハンスメントモジュール16として図1で示され、従来の構成及び動作のユニットであってよく、関心のある対象を含むデジタルピクチャの領域の鮮明度を、その領域に従来の画像処理演算を適用することによって高める。フレームごとに対象位置決めモジュール14から受け取られる対象位置決め情報は、関心のある対象が位置する所定サイズの領域のグリッド座標を含む。加えて、上述されるように、対象エンハンスメントは、エンハンスメント段階の後に続くエンコーディング段階(以下で記載)の間の対象の劣化を低減するのに役立つ。ここまでの図1のシステムの動作は、上記の前処理動作モードに対応する。
The system of FIG. 1 further includes means for generating an enhanced image of a portion of the digital picture that includes the object of interest and the region in which the object is located in response to the input image and the object positioning information received from the
対象のエンハンスメントを行う場合に、対象の鮮明度は、関心のある対象が位置する領域で画像処理演算を適用することによって改善される。これらの演算は、対象の内部で(例えば、テクスチャエンハンスメント)及び場合により対象の外部でさえ(例えば、コントラスト増大、対象領域外のぼかし)、対象境界に沿って(例えば、エッジ鮮鋭化(sharpening))適用されてよい。例えば、最も対象に注目を引く方法の1つは、対象の内部で対象の輪郭に沿ってエッジを鮮鋭化することである。これは、対象のディテールをより鮮明にするとともに、対象を背景から際立たせる。更に、より鮮鋭化されたエッジは、より良くエンコーディングを切り抜ける傾向がある。他の可能性は、例えば、スムージング、鮮鋭化及び対象精緻化の各動作をインタラクティブに適用することによって(必ずしも、適用される順序はここに挙げられた順でなくてもよい。)、対象を拡大(enlarge)することである。 When performing object enhancement, object sharpness is improved by applying image processing operations in the region where the object of interest is located. These operations are performed inside the object (eg texture enhancement) and possibly even outside the object (eg contrast enhancement, blurring outside the object region) along the object boundary (eg edge sharpening). ) May be applied. For example, one way to attract the most attention to an object is to sharpen the edges along the object's contour within the object. This makes the subject's details clearer and makes the subject stand out from the background. Furthermore, sharper edges tend to get through encoding better. Other possibilities include, for example, by applying smoothing, sharpening and object refinement operations interactively (the order of application need not necessarily be in the order listed here). To enlarge.
図3A〜3Dは、対象エンハンスメント処理におけるワークフローを表す。図3Aは、焦点を当てられている画像がサッカーボールであるところのサッカー映像における単一フレームである。図3Bは、対象位置決めモジュール14の出力、すなわち、フレームにおけるサッカーボールの対象位置決め情報を示す。図3Cは、以下でより詳細に検討される領域精緻化ステップを表し、このステップで、図3Bのおおよその対象位置情報は、対象境界のより正確な推定、すなわち、ボールを囲む明るい色の線を生成するよう精緻化される。図3Dは、対象エンハンスメント、本例ではエッジ鮮鋭化を適用した後の結果を示す。留意すべきは、サッカーボールは図3Dでより鮮鋭化されて、図3Aの元のフレームにおけるよりも鮮明である点である。対象は、また、より高いコントラストを有する。コントラストとは、一般に、暗い色をより暗く、明るい色をより明るくすることをいう。
3A to 3D show a workflow in the target enhancement process. FIG. 3A is a single frame in a soccer video where the focused image is a soccer ball. FIG. 3B shows the output of the
図1のシステムに対象エンハンスメントを含めることによって、有意な利点が得られる。不完全なトラッキング及び歪みエンハンスメントに伴う問題が解消される。不完全なトラッキングは、対象の位置決めを難しくしうる。フレームごとに、対象の位置は僅かに外れて、各フレームは違うふうに僅かに外れることがある。これは、例えば、背景の断片が様々なフレームでエンハンスメントを受けること及び/又は対象の異なる部分が様々なフレームでエンハンスメントを受けることに起因して、フリッカを引き起こしうる。更に、一般的なエンハンスメント技術は、ある状況下で、歪みを導入することがある。 Including targeted enhancements in the system of FIG. 1 provides significant advantages. Problems associated with incomplete tracking and distortion enhancement are eliminated. Incomplete tracking can make object positioning difficult. For each frame, the position of the object is slightly off, and each frame may be off slightly differently. This can cause flicker, for example, due to background fragments being enhanced in various frames and / or different portions of the subject being enhanced in various frames. Furthermore, common enhancement techniques may introduce distortion under certain circumstances.
上記のように、エンハンスメント前の対象位置決め情報の精緻化は、対象が位置する領域の境界外にある特徴に対するエンハンスメントを回避するよう、対象位置決め情報が各フレームで対象の性質及び対象の位置のみを近似する場合に、必要とされうる。 As described above, the refinement of the target positioning information before enhancement is such that the target positioning information only shows the target property and target position in each frame so as to avoid enhancement for features outside the boundary of the region where the target is located. May be needed when approximating.
対象位置決めモジュール14による対象位置決め情報の生成及び対象エンハンスメントモジュール16への対象位置決め情報の送信は、上記のように全自動であってよい。入力映像のフレームが対象位置決めモジュール14によって受信されると、対象位置決め情報は対象位置決めモジュール14によって更新され、更新された対象位置決め情報は対象エンハンスメントモジュール16に送信される。
The generation of the target positioning information by the
対象位置決めモジュール14による対象位置決め情報の生成及び対象エンハンスメントモジュール16への対象位置決め情報の送信は、また、半自動であってもよい。対象位置決めモジュール14から対象エンハンスメントモジュール16への直接の対象位置決め情報の送信に代えて、ユーザが、利用可能な対象位置決め情報を有した後に、手動で入力映像のデジタルピクチャに、対象が位置する所定サイズの領域を定義するマーキング(例えば、境界線)を加えてよい。
The generation of the target positioning information by the
対象位置決め情報の生成及び対象エンハンスメントモジュール16への対象位置決め情報の送信は、また、全手動であってもよい。このような動作において、ユーザは入力映像のデジタルピクチャを観て、手動で入力映像のデジタルピクチャに、対象が位置する所定サイズの領域を定義するマーキング(例えば、境界線)を加える。実際問題として、全手動動作は、ライブ事象の補償のために推奨されない。
Generation of target positioning information and transmission of target positioning information to the
対象位置決め情報の精緻化は、必要な場合又は望ましい場合に、対象境界推定を伴い、対象の正確な境界が推定される。正確な境界の推定は、不自然な対象表現及び動作の副次的な作用を伴うことなく対象の鮮明度を高めるのに役立ち、幾つかの基準に基づく。対象境界推定のためのこれらのアプローチが開示される。 Refinement of the target positioning information involves target boundary estimation when necessary or desirable, and an accurate target boundary is estimated. Accurate boundary estimation helps to increase the sharpness of an object without unnatural object representation and side effects of motion, and is based on several criteria. These approaches for object boundary estimation are disclosed.
第1は、楕円パラメータの領域にわたって検索することによってほぼ厳密に対象の境界を示す楕円を決定し又は識別する楕円ベースのアプローチである。対象境界推定のための第2のアプローチはレベルセットベースの検索であり、このアプローチでは、対象近隣のレベルセット表現が取得されて、検索が対象境界をおおよそ表すレベルセット輪郭のために実施される。対象境界推定のための第3のアプローチは、対象境界に集まるようにある制約を有して曲線を縮小又は拡大するために使用される輪郭(contours)又は蛇行(snakes)等の曲線展開方法(curve evolution methods)を伴う。対象境界推定のための第1及び第2のアプローチのみが以下でより詳細に検討される。 The first is an ellipse-based approach that determines or identifies an ellipse that shows the boundary of the object almost exactly by searching over a region of ellipse parameters. A second approach for target boundary estimation is level set based search, in which a level set representation of the target neighborhood is obtained and the search is performed for level set contours that roughly represent the target boundary . A third approach for object boundary estimation is a curve expansion method such as contours or snakes that are used to reduce or expand a curve with certain constraints to gather at the object boundary ( curve evolution methods). Only the first and second approaches for object boundary estimation are discussed in more detail below.
楕円ベースのアプローチで、対象境界推定は、ほぼ厳密に対象の境界を示す楕円のパラメータを決定することと等価である。このアプローチは、初期値(すなわち、対象位置決めモジュール14の出力)の周囲の楕円パラメータの領域にわたって検索を行い、各楕円が対象の境界を示す堅固さ(tightness)を決定する。図4に表されるアルゴリズムの出力は、最も堅固な境界楕円である。 With an ellipse-based approach, object boundary estimation is equivalent to determining an ellipse parameter that indicates the object boundary almost exactly. This approach searches over the area of the ellipse parameter around the initial value (ie, the output of the object positioning module 14) to determine the tightness with which each ellipse represents the boundary of the object. The output of the algorithm represented in FIG. 4 is the most rigid boundary ellipse.
楕円の堅固さ測定は、楕円のエッジ沿いの画像強度の平均階調度であるよう定義される。この測定の背後にある論拠は、最も堅固な境界楕円が密接に対象輪郭に従うべきであり、画像階調度は通常対象輪郭(すなわち、対象と背景の間のエッジ)沿いで高いことである。対象境界推定アルゴリズムのためのフローチャートは図4に示されている。パラメータを精緻化するための検索範囲(Δx,Δy,Δa,Δb)はユーザにより指定される。 The ellipse stiffness measurement is defined to be the average gradation of the image intensity along the edge of the ellipse. The rationale behind this measurement is that the hardest bounding ellipse should closely follow the object contour and the image gradient is usually high along the object contour (ie, the edge between the object and the background). A flowchart for the object boundary estimation algorithm is shown in FIG. A search range (Δ x , Δ y , Δ a , Δ b ) for refining the parameters is specified by the user.
図4のフローチャートは、平均階調度を計算することによって開始する。次いで、変数が初期化され、水平の中心点位置、垂直の中心点位置及び2つの軸のための4つの入れ子ループが入られている。この中心点及び2軸によって記述される楕円がより良い(すなわち、より大きい)平均階調度を生ずる場合、この階調度値及びこの楕円はこれまでで最良であるとして知られる。次は4つの全てのループによるルーピングであり、最良の楕円を有して終了する。 The flowchart of FIG. 4 starts by calculating the average gradation. The variables are then initialized, with a horizontal center point position, a vertical center point position, and four nested loops for the two axes. If the ellipse described by this center point and two axes yields a better (ie, larger) average gradient, this gradient value and this ellipse are known as the best so far. Next is looping through all four loops, ending with the best ellipse.
楕円ベースのアプローチは、対象と背景との間の境界が一様に高い階調度を有する環境に適用されてよい。しかい、このアプローチは、また、境界が一様に高い階調度を有さない環境に適用されてもよい。例えば、このアプローチは、また、対象及び/又は背景が対象/背景境界に沿って強度変化を有する場合でさえ有用である。 The ellipse-based approach may be applied to environments where the boundary between the object and the background has a uniformly high gradation. However, this approach may also be applied to environments where the boundaries do not have a uniform high gradation. For example, this approach is also useful even when the object and / or background has an intensity change along the object / background boundary.
楕円ベースのアプローチは、典型的な実施において、最良適合の楕円の記述を生成する。記述は、通常、中心点、長軸及び短軸を含む。 The ellipse-based approach produces a best-fit ellipse description in a typical implementation. The description usually includes a center point, a major axis and a minor axis.
楕円ベースの表現は、任意形状を有する対象を記述するには不適切であることがある。楕円形の対象でさえ、モーションブラー(motion-blur)又は部分的な閉塞(occluding)が起こる場合に不規則な形状を有して現れることがある。レベルセット表現は、任意形状の態様の境界の推定を容易にする。 Ellipse-based representations may be inappropriate for describing objects with arbitrary shapes. Even elliptical objects may appear with irregular shapes when motion-blur or partial occluding occurs. The level set representation facilitates estimation of the boundary of the arbitrarily shaped aspect.
図5A〜5Dは、対象境界推定のためのレベルセットアプローチに係る概念を表す。強度画像I(x,y)は、例えば図5Bに示されるような連続的な強度表面であり、図5Aに示されるような離散的な強度のグリッドでないとする。強度値iでのレベルセットは、Il(i)={(x,y)|I(x,y)=i}によって定義される閉じた輪郭の組である。閉じた輪郭は連続的な曲線によって、又は曲線をたどる離散的な画素の列によって表されてよい。画像Iのレベルセット表現は、異なる強度レベル値でのレベルセットの組(すなわち、Ll(M)={Il(i)|i∈M})である。例えば、M={0,...,255}又はM={50.5,100.5,200.5}である。レベルセットは、幾つかの方法によって画像から取り出され得る。かかる方法の1つは、離散的な強度グリッドを空間及び強度値の両方において連続的な強度表面に変換するために一度に4つの画素の組の間で双線形補間(bilinear interpolation)を適用することである。その後、例えば図5Dに示されるようなレベルセットが、例えば図5Cに示されるような1又はそれ以上のレベル面(すなわち、特定のレベルにある水平な面)との表面の交差を計算することによって、取り出される。 5A-5D represent concepts related to a level set approach for target boundary estimation. The intensity image I (x, y) is, for example, a continuous intensity surface as shown in FIG. 5B and is not a discrete intensity grid as shown in FIG. 5A. The level set at intensity value i is a closed contour set defined by I l (i) = {(x, y) | I (x, y) = i}. A closed contour may be represented by a continuous curve or by a sequence of discrete pixels following the curve. The level set representation of image I is a set of level sets with different intensity level values (ie, L l (M) = {I l (i) | i∈M}). For example, M = {0,. . . , 255} or M = {50.5, 100.5, 200.5}. The level set can be extracted from the image in several ways. One such method applies bilinear interpolation between a set of four pixels at a time to convert a discrete intensity grid into a continuous intensity surface in both space and intensity values. That is. Thereafter, a level set, such as shown in FIG. 5D, calculates the intersection of the surface with one or more level surfaces (ie, horizontal surfaces at a particular level), eg, as shown in FIG. 5C. Is taken out.
レベルセット表現は、地勢図(topographical map)に様々に類似する。通常、地勢図は、様々な標高値について閉じた輪郭を有する。 Level set representations are variously similar to topographical maps. Typically, topographic maps have closed contours for various elevation values.
実際に、画像Iは、推定されるべき境界を有する対象を含むサブ画像であってよい。レベルセット表現Ll(M)(M={i1,i2,...,iN})が取り出される。集合Mは、対象画素の推定強度に基づいて構成されてよく、あるいは、単に固定ステップにより強度範囲全体に及んでよい(例えば、M={0.5,1.5,...,254.5,255.5})。次いで、集合Ll(M)に含まれる全てのレベルセット曲線(すなわち、閉じた輪郭)Cjが考えられる。対象境界推定は、対象に関連する多数の基準を最も良く満足するレベルセット曲線C*を決定する問題を割り当てられる。かかる基準は、とりわけ、下記の変数を有してよい:
・Cj沿いの平均階調度、
・Cj内の面積、
・Cjの長さ、
・Cjの中心の位置、
・Cjに含まれる画素の強度の平均及び/又は分散。
Indeed, image I may be a sub-image that includes an object having a boundary to be estimated. The level set representation L 1 (M) (M = {i 1 , i 2 ,..., I N }) is retrieved. The set M may be constructed based on the estimated intensity of the target pixel, or may simply span the entire intensity range by a fixed step (eg, M = {0.5, 1.5,..., 254...). 5, 255.5}). Then, all level set curves (ie closed contours) C j included in the set L 1 (M) are considered. Object boundary estimation is assigned the problem of determining a level set curve C * that best satisfies a number of criteria associated with the object. Such criteria may have the following variables, among others:
The average gradient along · C j,
The area in C j ,
The length of C j ,
The position of the center of C j ,
The average and / or variance of the intensities of the pixels contained in C j
基準は、対象に関する予備的知識に基づいてこれらの変数に制約を課してよい。以下では、レベルセットによる対象境界推定の具体的実施が記載される。 The criteria may impose constraints on these variables based on prior knowledge about the subject. In the following, a specific implementation of target boundary estimation by level set is described.
mref、sref、aref及びベクトルxref=(xref,yref)は、夫々、対象の平均強度、強度の標準偏差、面積及び中心についての基準値であるとする。これらは、対象に関する予備的知識(例えば、対象位置決めモジュール14からの対象パラメータは楕円から得られる。)に基づいて初期化されてよい。次いで、レベルの集合Mが、M={imin,imin+Δl,imin+2Δl,・・・,imax}として構成される。ここで、
特定のレベルセット曲線Cjに関し、mj、sj、aj及びベクトルxj=(xj,yj)は、夫々、Cjに含まれる画像領域の平均強度、強度の標準偏差、面積及び中心の測定値であるとする。また、Cjに沿って平均階調度Gavg(Cj)が計算される。言い換えると、Gavg(Cj)は、Cj上の各画素での階調度の平均である。夫々のCjに関し、この場合、スコアが以下のように計算される:
対象境界を推定した後、基準値mref、sref、aref及びベクトルxrefは、学習係数(learning factor)α∈[0,1]により更新されてよい(例えば、mref new=αmj+(1−α)mref)。映像シーケンスの場合に、係数αは、高値で始まって、フレームごとに低下し、最終的に固定の低値αminまで飽和する、時間(例えば、フレームインデックス)tの関数であってよい。 After estimating the target boundary, the reference values m ref , s ref , a ref and the vector x ref may be updated by a learning factor αε [0, 1] (eg, m ref new = αm j + (1-α) m ref ). In the case of a video sequence, the coefficient α may be a function of time (eg, frame index) t starting at a high value, decreasing from frame to frame, and eventually saturating to a fixed low value α min .
対象のエンハンスメントにおいて、対象の鮮明度は、対象の近隣で画像処理演算を適用することによって改善される。かかる演算は、対象境界に沿って(例えば、エッジ鮮鋭化)、対象内部で(例えば、テクスチャエンハンスメント)、及び場合により対象の外部でさえ(例えば、コントラスト増大)適用されてよい。ここに記載される実施において、対象エンハンスメントのための多数の方法が提案される。第1は、対象内部でその輪郭に沿ってエッジを鮮鋭化することである。第2は、スムージング、鮮鋭化及び境界推定の各動作をインタラクティブに適用することによって(必ずしも、適用される順序はここに挙げられた順でなくてもよい。)、対象を拡大(enlarge)することである。他の可能性は、形態学的フィルタ(morphological filter)及び対象置換の使用を含む。 In object enhancement, object definition is improved by applying image processing operations in the vicinity of the object. Such operations may be applied along the object boundary (eg, edge sharpening), inside the object (eg, texture enhancement), and even even outside the object (eg, contrast enhancement). In the implementation described herein, a number of methods for target enhancement are proposed. The first is to sharpen the edges along the contour inside the object. Second, the object is enlarged by interactively applying smoothing, sharpening and boundary estimation operations (the order of application need not necessarily be in the order listed here). That is. Other possibilities include the use of morphological filters and object replacement.
より対象に注目を引く方法の1つは、対象の内部で対象の輪郭に沿ってエッジを鮮鋭化することである。これは、対象のディテールをより鮮明にするとともに、対象を背景から際立たせる。更に、より鮮鋭化されたエッジは、より良く圧縮を切り抜ける傾向がある。鮮鋭化による対象エンハンスメントのためのアルゴリズムは、一度に1つのフレームで対象に作用し、その入力として強度画像I(x,y)と、対象位置決めモジュール14によって提供される対象パラメータ(すなわち、位置、サイズ等)とをとる。当該アルゴリズムは、以下のように3つのステップを有する。 One way to attract more attention to the object is to sharpen the edges along the object's outline within the object. This makes the subject's details clearer and makes the subject stand out from the background. Furthermore, sharper edges tend to better survive compression. The algorithm for object enhancement by sharpening operates on the object one frame at a time, with its intensity image I (x, y) as input and the object parameters provided by the object positioning module 14 (ie, position, Size). The algorithm has three steps as follows.
・対象の境界Oを推定する。 -Estimate the boundary O of the object.
・対象境界内及び対象境界上の画像Iにおける全ての画素に鮮鋭化フィルタFαを適用する。これはOに含まれる全ての画素について新たな鮮鋭化値Isharp(x,y)を与える。ここで、Isharp(x,y)=(I*Fα)(x,y)であり、(I*Fα)は鮮鋭化フィルタFαによる画像Iの畳み込みを示す。 · Applying a sharpening filter F alpha to all pixels in the image I on the target within the boundary and the object boundary. This gives a new sharpening value I sharp (x, y) for all pixels contained in O. Here, I sharp (x, y) = (I * F α ) (x, y), and (I * F α ) indicates convolution of the image I by the sharpening filter F α .
・Oの内側及びその上の全ての(x,y)について画素I(x,y)をIsharp(x,y)により置換する。 Replace pixel I (x, y) with I sharp (x, y) for all (x, y) inside and above O.
鮮鋭化フィルタFαは、クロネッカー・デルタ関数(Kronecker delta function)及び離散ラプラシアン演算子∇α 2の差として定義される:
Fα(x,y)=δ(x,y)−∇α 2(x,y)。
The sharpening filter F α is defined as the difference between the Kronecker delta function and the discrete Laplacian operator ∇ α 2 :
F α (x, y) = δ (x, y) −∇ α 2 (x, y).
パラメータα∈[0,1]は、ラプラシアン演算子の形を制御する。実際に、3×3のフィルタカーネルは、原点(0,0)であるカーネルの中心を有して構成される。このようなカーネルの一例が以下に示される:
平滑化フィルタGσは、以下のように、2次元ガウス関数である:
入力映像のエンハンスメントを最適化するよう、オブジェクトアウェアのエンコーダモジュール18は、対象位置決めモジュール14から対象位置決め情報を受け取って、対象が位置する領域、結果として対象、のエンハンスメントをより良く保つ。エンハンスメントが保たれようとなかろうと、対象が位置する領域は、オブジェクトアウェアのエンコーダ18によるエンコードがない場合よりもより良く保たれる。しかし、エンハンスメントは、また、圧縮の間の対象の劣化も最小限とする。この最適化されたエンハンスメントは、エンコーディング決定及びリソース(例えば、ビット)の割り当てを適切に管理することによって達成される。
In order to optimize the enhancement of the input video, the object-
オブジェクトアウェアのエンコーダ18は、“オブジェクトフレンドリー”なマクロブロック(MB)モード決定、すなわち、対象をほとんど劣化させないMBモード決定を行うよう配置されてよい。このような配置は、例えば、図7(A)〜(C)に表されているように、予測のためにMBのオブジェクトフレンドリーなパーティショニングを有してよい。他のアプローチは、より細かい量子化、すなわちより多くのビットを、対象を含むMBに強いることである。これは、対象が更なるビットを得ることをもたらす。更なる他のアプローチは、対象自体を付加的なビットの対象とする。更なる他のアプローチは、速度歪み最適化処理の間に、重み付けされた歪みメトリクスを用いる。このとき、関心領域に属する画素は、関心領域外の画素よりも高い重みを有する。
The object-
図7A〜7Cを参照すると、16×16マクロブロックの3つの可能な細分が示されている。このような細分は、どのようにMBをエンコードすべきかを決定するためにエンコードが行うモード決定の部分である。1つのキーメトリクスは、対象が細分の領域の高い割合を占める場合に、対象がエンコード中にほとんど劣化しないことである。これは、対象の劣化が細分のより多くの部分の品質を劣化させるためである。故に、図7Cで、対象は、夫々16×8細分の小さな部分しか構成せず、然るに、これは、良好な細分とは考えられない。様々な実施におけるオブジェクトアウェアのエンコーダは、どこに対象が位置しているのかを知り、この位置情報をそのモード決定に組み入れる。このようなオブジェクトアウェアのエンコーダは、対象が細分のより大きい部分を占めることをもたらす細分を好む。全体として、オブジェクトアウェアのエンコーダ18の目的は、エンコーディング処理中に可能な限り対象の劣化を小さくするのに役立つ。
Referring to FIGS. 7A-7C, three possible subdivisions of a 16 × 16 macroblock are shown. Such subdivision is part of the mode decision performed by the encoding to determine how to encode the MB. One key metric is that the target is hardly degraded during encoding if the target occupies a high percentage of subdivision areas. This is because the degradation of the object degrades the quality of more parts of the subdivision. Thus, in FIG. 7C, each object constitutes only a small portion of 16 × 8 subdivisions, which is not considered a good subdivision. Object-aware encoders in various implementations know where the object is located and incorporate this position information into its mode decision. Such object-aware encoders prefer subdivisions that result in the subject occupying a larger part of the subdivision. Overall, the purpose of the object-
図1に示されるように、対象位置決めモジュール14、対象エンハンスメントモジュール16及びオブジェクトアウェアのエンコーダモジュール18は、関心のある対象を含むデジタルピクチャの入力映像を受信し、対象の鮮明度が高められた圧縮映像ストリームを送信する送信器10の構成要素である。圧縮映像ストリームの送信は、例えば携帯電話機又はPDA等の受信器20によって受信される。
As shown in FIG. 1, a
従って、図1のシステムは、更に、受信器20によって受信される圧縮映像ストリームにおいてエンハンスト映像をデコードする手段を有する。このような手段は、デコーダモジュール22として図1で示され、従来の構成及び動作のモジュールであってよく、例えば関心領域に更なるビットを割り当てることによって関心のある対象を含む関心領域に特別の扱いを与えることで最小限の劣化をもってエンハンスト映像を重要な対象にまで復元し、あるいは、高められた対象の鮮明度をより良く保つモード決定を行う。
Accordingly, the system of FIG. 1 further comprises means for decoding the enhanced video in the compressed video stream received by the
図1に点線で示されるように、オブジェクトアウェアの後処理モジュール24を一時的に無視すると、デコーダモジュール22から出力される復号された映像は、高められた対象の鮮明度を有してデジタルピクチャを観るために、例えば携帯電話機又PDF等の画面のような表示コンポーネント26に導かれる。
As shown by the dotted lines in FIG. 1, when the object-
上記の図1のシステムの動作モードは、対象が対象エンハンスメントモジュール16によってエンコードディング動作の前にエンハンスメントを受ける点で、前処理と見なされる。シーケンスは、圧縮される前に変更される。
The mode of operation of the system of FIG. 1 above is considered preprocessing in that the subject is enhanced by the
上記のようにエンコーディングの前に対象の鮮明度を高めることに代えて、入力映像は、点線19で表されるように、オブジェクトアウェアのエンコーダモジュール18に直接に導かれて、対象の鮮明度を高められることなくエンコードされ、受信器20にあるオブジェクトアウェアの後処理モジュール24によって行われるエンハンスメントを有する。図1のシステムのこのような動作モードは、エンコーディング段階及びデコーディング段階の後で対象の鮮明度が高められる点で後処理と見なされ、メタデータとしてビットストリームにより送信される対象に関するサイド情報(例えば、対象の位置及びサイズ)を用いることによって行われてよい。後処理モードの動作は、受信器の複雑性が増すという欠点を有する。後処理モードの動作で、送信器10にあるオブジェクトアウェアのエンコーダ18は、対象の鮮明度が受信器で高められる場合に、対象位置情報のみを利用する。
Instead of increasing the object's definition before encoding as described above, the input video is directly directed to the object-
上記のように、送信器エンドの対象ハイライト表示システム(すなわち、前処理モードの動作)の利点の1つは、一般に低電力デバイスである受信器エンドの複雑性を増す必要性を回避することである。加えて、前処理モードの動作は、標準的な映像デコーダの使用を可能にする。これは、システムの展開を容易にする。 As mentioned above, one of the advantages of the transmitter end object highlighting system (ie, pre-processing mode of operation) is to avoid the need to increase the complexity of the receiver end, which is typically a low power device. It is. In addition, the pre-processing mode of operation allows the use of a standard video decoder. This facilitates system deployment.
記載される実施は、例えば、方法若しくは処理、装置、又はソフトウェアプログラムについて実施されてよい。単一の実施形態に関連してしか論じられないとしても(例えば、方法としてしか論じられないとしても)、論じられる実施又は特徴は他の形態(例えば、装置又はプログラム)でも実施されてよい。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアで実施されてよい。方法は、例えば、コンピュータ又は他のプロセッシングデバイス等の装置で実施されてよい。更に、方法は、プロセッシングデバイス又は他の装置によって実行される命令によって実施されてよく、このような命令は、例えば、CD又は他のコンピュータ可読記憶デバイス若しくは集積回路等のコンピュータ読出可能な媒体に記憶されてよい。 The described implementations may be implemented, for example, on a method or process, an apparatus, or a software program. Although discussed only in connection with a single embodiment (e.g., discussed only as a method), the discussed implementations or features may be implemented in other forms (e.g., an apparatus or program). The device may be implemented, for example, with suitable hardware, software, and firmware. The method may be implemented on an apparatus such as a computer or other processing device, for example. Further, the method may be implemented by instructions executed by a processing device or other apparatus, such instructions stored on a computer readable medium such as a CD or other computer readable storage device or integrated circuit, for example. May be.
当業者にとって明らかであるように、実施は、また、例えば記憶又は送信される情報を坦持するようフォーマットされた信号を生成してよい。情報は、例えば、情報を実行するための命令、又は記載される実施の1つによって生成されるデータを有してよい。例えば、信号は、様々なタイプの対象情報(すなわち、位置、形状)をデータとして坦持し、及び/又はエンコードされた画像データをデータとして坦持するようフォーマットされてよい。 As will be apparent to those skilled in the art, implementations may also generate signals that are formatted to carry information that is stored or transmitted, for example. The information may comprise, for example, instructions for performing the information or data generated by one of the described implementations. For example, the signal may be formatted to carry various types of target information (ie, position, shape) as data and / or carry encoded image data as data.
本発明は特定の実施形態を参照してここでは図示及び記載をされているが、本発明は示されている詳細に限定されるよう意図されない。むしろ、様々な変形が、特許請求の範囲で定義される技術的範囲内で、本発明から外れることなく行われてよい。 Although the invention is illustrated and described herein with reference to specific embodiments, the invention is not intended to be limited to the details shown. Rather, various modifications may be made without departing from the invention within the scope defined by the claims.
[関連出願の相互参照]
本願は、2008年4月11日に出願された、「PROCESSING IMAGES HAVING OBJECTS」と題された米国仮出願第61/123844号(代理人整理番号PU080054)の優先権を主張するものであり、その先願は参照により全文を本願に援用される。
[Cross-reference of related applications]
This application claims the priority of US Provisional Application No. 61/123844 (Attorney Docket Number PU080054) entitled “PROCESSING IMAGES HAVING OBJECTS” filed on April 11, 2008, The prior application is incorporated herein by reference in its entirety.
Claims (15)
対象を含む入力映像を提供する手段と、
(a)前記対象の性質及び特徴を表す情報を記憶し、且つ、(b)前記入力映像並びに前記対象の性質及び特徴を表す情報に応じて、前記対象を識別し且つ該対象の位置を示す対象位置決め情報を生成する手段と、
前記入力映像及び前記対象位置決め情報に応じて、前記対象及び該対象が位置するデジタルピクチャの領域を含む前記入力映像の部分のエンハンスト映像を生成する手段と、
前記エンハンスト映像をエンコードする手段と
を有するシステム。 A system that increases the sharpness of objects in digital pictures,
Means for providing an input video including the object;
(A) storing information representing the nature and characteristics of the object; and (b) identifying the object and indicating the position of the object according to the input video and information representing the nature and characteristics of the object. Means for generating target positioning information;
Means for generating an enhanced video of a portion of the input video including the target and an area of a digital picture in which the target is located, according to the input video and the target positioning information;
Means for encoding the enhanced video.
(b)前記エンコードされたエンハンスト映像をデコードする手段と、
(c)前記エンハンスト映像を表示する手段と
を更に有する請求項1に記載のシステム。 (A) means for transmitting the encoded enhanced video;
(B) means for decoding the encoded enhanced video;
The system according to claim 1, further comprising: (c) means for displaying the enhanced video.
(a)前記入力映像のセクタを走査する手段と、
(b)前記入力映像の走査された前記セクタを、前記対象の性質及び特徴を表す前記記憶された情報と比較して、前記対象の性質及び特徴を表す前記記憶された情報と同じ性質及び特徴を有する前記デジタルピクチャにおける対象を識別し且つ該対象の位置を決める手段と
を有する、請求項1に記載のシステム。 The means for generating the target positioning information includes:
(A) means for scanning a sector of the input video;
(B) comparing the scanned sector of the input video with the stored information representative of the properties and characteristics of the object and the same properties and characteristics as the stored information representative of the characteristics and characteristics of the object; The system of claim 1, comprising: means for identifying an object in the digital picture having and determining a position of the object.
(b)前記エンハンスト映像をエンコードする手段は、
(1)前記対象位置決め情報を受け取り、且つ
(2)該対象位置決め情報を精緻化する手段を有する、
請求項3に記載のシステム。 (A) the object positioning information approximates only the identity and position of the object;
(B) The means for encoding the enhanced video comprises:
(1) receiving the target positioning information; and (2) having means for refining the target positioning information.
The system according to claim 3.
(b)前記対象及び該対象が位置するデジタルピクチャの領域を含む前記入力映像の部分のエンハンスト映像を生成する手段は、前記対象位置決め情報を精緻化する手段を有する、
請求項3に記載のシステム。 (A) the object positioning information approximates only the identity and position of the object;
(B) means for generating an enhanced video of a portion of the input video including the target and a digital picture area where the target is located has means for refining the target positioning information;
The system according to claim 3.
対象を含む入力映像を提供する段階と、
前記対象の性質及び特徴を表す情報を記憶する段階と、
前記入力映像並びに前記対象の性質及び特徴を表す情報に応じて、前記対象を識別し且つ該対象の位置を示す対象位置決め情報を生成する段階と、
前記入力映像及び前記対象位置決め情報に応じて、前記対象及び該対象が位置するデジタルピクチャの領域を含む前記入力映像の部分のエンハンスト映像を生成する段階と、
前記エンハンスト映像をエンコードする段階と、
エンコードされた前記エンハンスト映像を送信する段階と
を有する方法。 A method for increasing the sharpness of an object in a digital picture,
Providing an input video including the target;
Storing information representing the properties and characteristics of the object;
Generating target positioning information that identifies the target and indicates the position of the target according to the input video and information representing the nature and characteristics of the target;
Generating an enhanced video of a portion of the input video that includes the target and a region of a digital picture in which the target is located, according to the input video and the target positioning information;
Encoding the enhanced video;
Transmitting the encoded enhanced video.
(b)前記エンコードされたエンハンスト映像をデコードする段階と、
(c)前記エンハンスト映像を表示する段階と
を更に有する請求項8に記載の方法。 (A) receiving the encoded enhanced video;
(B) decoding the encoded enhanced video;
The method of claim 8, further comprising: (c) displaying the enhanced video.
(a)前記入力映像のセクタを走査する段階と、
(b)前記入力映像の走査された前記セクタを、前記対象の性質及び特徴を表す前記記憶された情報と比較して、前記対象の性質及び特徴を表す前記記憶された情報と同じ性質及び特徴を有する前記デジタルピクチャにおける対象を識別し且つ該対象の位置を決める段階と
を有する、請求項8に記載の方法。 The step of generating the target positioning information includes:
(A) scanning the sector of the input video;
(B) comparing the scanned sector of the input video with the stored information representative of the properties and characteristics of the object and the same properties and characteristics as the stored information representative of the characteristics and characteristics of the object; And identifying a target in the digital picture having and determining the position of the target.
(b)前記エンハンスト映像をエンコードする段階は、
(1)前記対象位置決め情報を受け取る段階と、
(2)該対象位置決め情報を精緻化する段階と
を有する、請求項10に記載の方法。 (A) the object positioning information approximates only the identity and position of the object;
(B) encoding the enhanced video comprises:
(1) receiving the target positioning information;
The method according to claim 10, further comprising: refining the target positioning information.
(a)前記対象の境界を推定する段階と、
(b)前記対象を引き立たせる段階と
を有する、請求項11に記載の方法。 The step of refining the target positioning information includes:
(A) estimating a boundary of the object;
The method of claim 11, comprising: (b) enhancing the object.
(b)前記対象及び該対象が位置するデジタルピクチャの領域を含む前記入力映像の部分のエンハンスト映像を生成する段階は、前記対象位置決め情報を精緻化する段階を有する、
請求項10に記載の方法。 (A) the object positioning information approximates only the identity and position of the object;
(B) generating an enhanced image of the portion of the input image that includes the object and a region of the digital picture in which the object is located comprises refining the object positioning information;
The method of claim 10.
(a)前記対象の境界を推定する段階と、
(b)前記対象を引き立たせる段階と
を有する、請求項13に記載の方法。 The step of refining the target positioning information includes:
(A) estimating a boundary of the object;
14. The method of claim 13, comprising the step of: (b) enhancing the object.
対象を含む入力映像を提供する手段と、
(a)前記対象の性質及び特徴を表す情報を記憶し、且つ、(b)前記入力映像並びに前記対象の性質及び特徴を表す情報に応じて、前記対象を識別し且つ該対象の位置を示す対象位置決め情報を生成する手段と、
前記入力映像及び前記対象位置決め情報に応じて、前記入力映像をエンコードする手段と
を有するシステム。 A system that increases the sharpness of objects in digital pictures,
Means for providing an input video including the object;
(A) storing information representing the nature and characteristics of the object; and (b) identifying the object and indicating the position of the object according to the input video and information representing the nature and characteristics of the object. Means for generating target positioning information;
Means for encoding the input video according to the input video and the target positioning information.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12384408P | 2008-04-11 | 2008-04-11 | |
US60/123,844 | 2008-04-11 | ||
PCT/US2009/002173 WO2009126258A1 (en) | 2008-04-11 | 2009-04-07 | System and method for enhancing the visibility of an object in a digital picture |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011517226A true JP2011517226A (en) | 2011-05-26 |
Family
ID=40848271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011503987A Pending JP2011517226A (en) | 2008-04-11 | 2009-04-07 | System and method for enhancing the sharpness of an object in a digital picture |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP2277142A1 (en) |
JP (1) | JP2011517226A (en) |
CN (1) | CN101999138A (en) |
BR (1) | BRPI0911189A2 (en) |
CA (1) | CA2720947A1 (en) |
WO (1) | WO2009126258A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102656886B (en) * | 2009-12-14 | 2016-08-10 | 汤姆逊许可证公司 | The video coding strategies of object-aware |
CN103004213B (en) * | 2010-06-08 | 2016-04-20 | 杜比实验室特许公司 | Tone and method of color gamut mapping of color and device |
US8665286B2 (en) | 2010-08-12 | 2014-03-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Composition of digital images for perceptibility thereof |
WO2015010164A1 (en) | 2013-07-22 | 2015-01-29 | National Ict Australia Limited | Enhancing vision for a vision impaired user |
US10583290B2 (en) | 2014-09-10 | 2020-03-10 | National Ict Australia Limited | Enhancing vision for a vision impaired user |
CN110173752B (en) * | 2018-06-19 | 2021-04-13 | 安徽新大陆特种涂料有限责任公司 | Intelligent humidifying type warmer |
CN111028243A (en) * | 2019-11-29 | 2020-04-17 | 上海交通大学 | Method, system and device for segmenting neuroblastoma of children based on CT scanning image |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002207992A (en) * | 2001-01-12 | 2002-07-26 | Hitachi Ltd | Method and device for processing image |
US20050036704A1 (en) * | 2003-08-13 | 2005-02-17 | Adriana Dumitras | Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering |
JP2005318063A (en) * | 2004-04-27 | 2005-11-10 | Olympus Corp | Video signal processing apparatus and program, and video signal recording medium |
JP2006013722A (en) * | 2004-06-23 | 2006-01-12 | Matsushita Electric Ind Co Ltd | Unit and method for processing image |
WO2007045001A1 (en) * | 2005-10-21 | 2007-04-26 | Mobilkom Austria Aktiengesellschaft | Preprocessing of game video sequences for transmission over mobile networks |
US20070198906A1 (en) * | 2006-02-13 | 2007-08-23 | Snell & Wilcox Limited | Sport Action Coding |
JP2007259149A (en) * | 2006-03-23 | 2007-10-04 | Sanyo Electric Co Ltd | Encoding method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9019538D0 (en) * | 1990-09-07 | 1990-10-24 | Philips Electronic Associated | Tracking a moving object |
US6466275B1 (en) * | 1999-04-16 | 2002-10-15 | Sportvision, Inc. | Enhancing a video of an event at a remote location using data acquired at the event |
US6757434B2 (en) * | 2002-11-12 | 2004-06-29 | Nokia Corporation | Region-of-interest tracking method and device for wavelet-based video coding |
EP2067109A1 (en) * | 2006-09-29 | 2009-06-10 | Thomson Licensing | Dynamic state estimation |
-
2009
- 2009-04-07 JP JP2011503987A patent/JP2011517226A/en active Pending
- 2009-04-07 CA CA2720947A patent/CA2720947A1/en not_active Abandoned
- 2009-04-07 CN CN200980112778.9A patent/CN101999138A/en active Pending
- 2009-04-07 WO PCT/US2009/002173 patent/WO2009126258A1/en active Application Filing
- 2009-04-07 EP EP09729220A patent/EP2277142A1/en not_active Withdrawn
- 2009-04-07 BR BRPI0911189A patent/BRPI0911189A2/en not_active IP Right Cessation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002207992A (en) * | 2001-01-12 | 2002-07-26 | Hitachi Ltd | Method and device for processing image |
US20050036704A1 (en) * | 2003-08-13 | 2005-02-17 | Adriana Dumitras | Pre-processing method and system for data reduction of video sequences and bit rate reduction of compressed video sequences using spatial filtering |
JP2005318063A (en) * | 2004-04-27 | 2005-11-10 | Olympus Corp | Video signal processing apparatus and program, and video signal recording medium |
JP2006013722A (en) * | 2004-06-23 | 2006-01-12 | Matsushita Electric Ind Co Ltd | Unit and method for processing image |
WO2007045001A1 (en) * | 2005-10-21 | 2007-04-26 | Mobilkom Austria Aktiengesellschaft | Preprocessing of game video sequences for transmission over mobile networks |
US20070198906A1 (en) * | 2006-02-13 | 2007-08-23 | Snell & Wilcox Limited | Sport Action Coding |
JP2007259149A (en) * | 2006-03-23 | 2007-10-04 | Sanyo Electric Co Ltd | Encoding method |
Also Published As
Publication number | Publication date |
---|---|
WO2009126258A9 (en) | 2009-12-17 |
EP2277142A1 (en) | 2011-01-26 |
WO2009126258A1 (en) | 2009-10-15 |
CA2720947A1 (en) | 2009-10-15 |
BRPI0911189A2 (en) | 2018-05-22 |
CN101999138A (en) | 2011-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20110026607A1 (en) | System and method for enhancing the visibility of an object in a digital picture | |
US20030053692A1 (en) | Method of and apparatus for segmenting a pixellated image | |
US8340422B2 (en) | Generation of depth map for an image | |
JP3889233B2 (en) | Image encoding method and apparatus, and image decoding method and apparatus | |
JP2011517226A (en) | System and method for enhancing the sharpness of an object in a digital picture | |
US20050249429A1 (en) | Method, apparatus, and program for image processing | |
JP5036084B2 (en) | Video processing apparatus, video processing method, and program | |
WO2014197154A1 (en) | Methods of image fusion for image stabilizaton | |
JP2008252860A (en) | Image processing method and image processing apparatus | |
EP3298578B1 (en) | Method and apparatus for determining a depth map for an image | |
CN111612696B (en) | Image stitching method, device, medium and electronic equipment | |
US20110026606A1 (en) | System and method for enhancing the visibility of an object in a digital picture | |
JP5950605B2 (en) | Image processing system and image processing method | |
JP2009044739A (en) | Method and system for determining background color in digital image | |
JP2002232838A (en) | Digital camera | |
Chamaret et al. | Video retargeting for stereoscopic content under 3D viewing constraints | |
JP2002230575A (en) | Method and device for image effect | |
US20230368490A1 (en) | Preview and capture of stroke outlines from images and video | |
CN115423817A (en) | Image segmentation method, device, electronic device and medium | |
CN112422825A (en) | Intelligent photographing method, device, equipment and computer readable medium | |
CN117456134A (en) | Unmanned aerial vehicle VR display method and device, electronic equipment and storage medium | |
CN118037922A (en) | AR (augmented reality) glasses data processing method and device based on nerve radiation field | |
CN115665477A (en) | Video enhancement system, method and device | |
JP2012124712A (en) | Image processing system, image processing method, and image processing program | |
VARABABU et al. | A Novel Global Contrast Enhancement Algorithm using the Histograms of Color and Depth Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121023 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20121127 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20121204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130423 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131203 |