JP6736471B2 - 画像処理方法および画像処理装置 - Google Patents
画像処理方法および画像処理装置 Download PDFInfo
- Publication number
- JP6736471B2 JP6736471B2 JP2016559561A JP2016559561A JP6736471B2 JP 6736471 B2 JP6736471 B2 JP 6736471B2 JP 2016559561 A JP2016559561 A JP 2016559561A JP 2016559561 A JP2016559561 A JP 2016559561A JP 6736471 B2 JP6736471 B2 JP 6736471B2
- Authority
- JP
- Japan
- Prior art keywords
- focus
- images
- depth
- depth planes
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 71
- 238000003672 processing method Methods 0.000 title claims description 26
- 230000008859 change Effects 0.000 claims description 174
- 230000004927 fusion Effects 0.000 claims description 142
- 238000000034 method Methods 0.000 claims description 80
- 230000006870 function Effects 0.000 claims description 51
- 238000004422 calculation algorithm Methods 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 26
- 238000007500 overflow downdraw method Methods 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 239000002131 composite material Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
1010 決定モジュール
1020 生成モジュール
1030 記憶モジュール
1040 選択取り込みモジュール
1050 問い合わせモジュール
1060 取得モジュール
1070 表示モジュール
1100 画像処理装置
1110 プロセッサ
1120 メモリ
1130 通信バス
1140 モニタ
1150 入力インターフェース
Claims (26)
- 複数の深度面の深度情報を決定するステップであって、前記複数の深度面の前記深度情報は前記複数の深度面を指示するのに用いられ、前記複数の深度面は前記複数の深度面の複数の焦点変更画像にそれぞれ対応し、前記複数の焦点変更画像は前記複数の焦点変更画像の生データに基づいて生成される、複数の深度面の深度情報を決定するステップと、
前記深度情報に従って前記複数の深度面の焦点変更画像を生成するステップであって、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の合焦部分を含む、前記深度情報に従って前記複数の深度面の焦点変更画像を生成するステップと、
を含み、
前記複数の深度面は前記複数の焦点変更画像の前記生データにそれぞれ対応し、前記深度情報に従って前記複数の深度面の焦点変更画像を生成する前記ステップは、
前記複数の深度面の前記深度情報に従って前記複数の焦点変更画像の前記生データを決定するステップと、
前記複数の焦点変更画像の前記生データに従って前記複数の深度面の前記焦点変更画像を生成するステップであって、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の前記合焦部分を含む、前記複数の焦点変更画像の前記生データに従って前記複数の深度面の前記焦点変更画像を生成するステップと、
を含み、
前記複数の焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成する前記ステップは、
前記複数の焦点変更画像の前記生データに従って、前記複数の焦点変更画像内の各焦点変更画像のものである合焦部分および非合焦部分を直接生成するステップと、
前記合焦部分と前記非合焦部分とをつなぎ合わせるステップと、
を含む、画像処理方法。 - 前記複数の焦点変更画像の前記生データに従って前記複数の深度面の前記焦点変更画像を生成する前記ステップは、
前記複数の焦点変更画像を生成するように、リフォーカシングアルゴリズムを用いて前記複数の焦点変更画像の前記生データに基づいてリフォーカシング処理を行うステップと、
前記複数の深度面の前記焦点変更画像を生成するように、前記複数の焦点変更画像を組み合わせるステップと、
を含む、請求項1に記載の画像処理方法。 - 前記複数の焦点変更画像を組み合わせる前記ステップは、
画像融合法を用いて前記複数の焦点変更画像の前記合焦部分を組み合わせるステップ、
を含む、請求項2に記載の画像処理方法。 - 画像融合法を用いて前記複数の焦点変更画像の前記合焦部分を組み合わせる前記ステップは、
前記複数の焦点変更画像の画素の点広がり関数を決定するステップと、
前記画素の前記点広がり関数に従って融合重みテンプレートを生成するステップであって、前記融合重みテンプレートは前記画素の融合重みを含み、高合焦度の画素の融合重みは低合焦度の画素の融合重みより大きい、前記画素の前記点広がり関数に従って融合重みテンプレートを生成するステップと、
前記融合重みテンプレートに従って前記複数の焦点変更画像に対して画像融合を行うステップと、
を含む、請求項3に記載の画像処理方法。 - 前記複数の焦点変更画像内の各焦点変更画像は合焦部分および非合焦部分を含み、前記複数の焦点変更画像を組み合わせる前記ステップは、
前記複数の焦点変更画像内の各焦点変更画像から前記合焦部分および前記非合焦部分を選択するステップと、
前記合焦部分と前記非合焦部分とをつなぎ合わせるステップと、
を含む、請求項2から4のいずれか一項に記載の画像処理方法。 - すべての深度面の焦点変更画像の生データに従って、前記すべての深度面に対応する前記焦点変更画像を生成するステップであって、前記すべての深度面は前記すべての深度面の前記焦点変更画像にそれぞれ対応する、前記すべての深度面に対応する前記焦点変更画像を生成するステップ、
をさらに含み、前記深度情報に従って前記複数の深度面の焦点変更画像を生成する前記ステップは、
前記複数の深度面の前記深度情報に従って前記すべての深度面の前記焦点変更画像の中から前記複数の深度面の前記焦点変更画像を選択するステップと、
前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成するステップであって、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の前記合焦部分を含む、前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成するステップと、
を含む、請求項1から5のいずれか一項に記載の画像処理方法。 - 前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成する前記ステップは、
前記すべての焦点変更画像の画素の点広がり関数を決定するステップと、
前記すべての焦点変更画像の前記画素の前記点広がり関数に従って融合重みテンプレートを生成するステップであって、前記融合重みテンプレートは前記すべての焦点変更画像の前記画素の融合重みを含み、前記複数の焦点変更画像の画素の融合重みは前記すべての焦点変更画像内の前記複数の焦点変更画像を除く他の焦点変更画像の画素の融合重みより大きく、前記複数の焦点変更画像内の高合焦度の画素の融合重みは前記複数の焦点変更画像内の低合焦度の画素の融合重みより大きい、前記すべての焦点変更画像の前記画素の前記点広がり関数に従って融合重みテンプレートを生成するステップと、
前記融合重みテンプレートに従って前記すべての焦点変更画像に対して画像融合を行うステップと、
を含む、請求項6に記載の画像処理方法。 - 前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成する前記ステップは、
前記複数の焦点変更画像内の各焦点変更画像から合焦部分および非合焦部分を選択するステップと、
前記合焦部分と前記非合焦部分とをつなぎ合わせるステップと、
を含む、請求項6または7に記載の画像処理方法。 - 深度面の深度または画素座標をインデックスとして用いて、クエリテーブルに前記複数の深度面の前記焦点変更画像のものである前記合焦部分および非合焦部分を問い合わせるステップであって、前記合焦部分および前記非合焦部分は、前記深度面の前記深度または前記画素座標を前記インデックスとして用いて前記クエリテーブルに記憶されている、前記クエリテーブルに前記複数の深度面の前記焦点変更画像のものである前記合焦部分および非合焦部分を問い合わせるステップ、
をさらに含み、前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成する前記ステップは、
前記複数の深度面の前記焦点変更画像のものである前記合焦部分と前記非合焦部分とをつなぎ合わせるステップ、
を含む、請求項6から8のいずれか一項に記載の画像処理方法。 - 前記合焦部分と前記非合焦部分とをつなぎ合わせる前記ステップは、
前記合焦部分の画像および前記非合焦部分の画像に対して前処理、画像位置合わせ、および画像融合を行うステップ、
を含む、請求項1から5、8、または9のいずれか一項に記載の画像処理方法。 - 前記複数の焦点変更画像内の焦点変更画像を表示するステップと、
前記表示された焦点変更画像の複数の領域において複数のユーザ入力を取得するステップであって、前記複数のユーザ入力は前記複数の深度面に対応する、前記表示された焦点変更画像の複数の領域において複数のユーザ入力を取得するステップと、
前記複数の深度面の前記生成された焦点変更画像を表示装置上で出力するステップと、
をさらに含み、複数の深度面の深度情報を決定する前記ステップは、
前記複数のユーザ入力に従って前記複数の深度面の前記深度情報を決定するステップ、
を含む、請求項1から10のいずれか一項に記載の画像処理方法。 - 前記ユーザ入力は、
ユーザによるタッチスクリーン上でのシングルポイントタップ入力、マルチポイントタップ入力、シングルポイントスライド入力、もしくはマルチポイントスライド入力;
入力デバイス上の姿勢センサによって検出されたユーザ姿勢;または
入力デバイス上の動作追跡モジュールによって検出されたユーザ動作、
のうちの1つである、請求項11に記載の画像処理方法。 - 複数の深度面の深度情報を決定する前記ステップは、
既定の入力に従って、前記既定の入力に対応する前記複数の深度面を決定するステップ、
を含み、前記方法は、
表示装置上で、前記既定の入力に対応する前記複数の深度面の前記焦点変更画像を出力するステップ、
をさらに含む、請求項1から10のいずれか一項に記載の画像処理方法。 - 複数の深度面の深度情報を決定するように構成された決定モジュールであって、前記複数の深度面の前記深度情報は前記複数の深度面を指示するのに用いられ、前記複数の深度面は前記複数の深度面の複数の焦点変更画像にそれぞれ対応する、決定モジュールと、
前記深度情報に従って前記複数の深度面の焦点変更画像を生成するように構成された生成モジュールであって、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の合焦部分を含む、生成モジュールと、
を含み、
前記複数の深度面は前記複数の焦点変更画像の生データにそれぞれ対応し、前記生成モジュールは、前記複数の深度面の前記深度情報に従って前記複数の焦点変更画像の前記生データを決定し、前記複数の焦点変更画像の前記生データに従って前記複数の深度面の前記焦点変更画像を生成し、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の前記合焦部分を含み、
前記生成モジュールは、前記複数の深度面の前記深度情報に従って前記複数の焦点変更画像の前記生データを決定し、前記複数の焦点変更画像の前記生データに従って、前記複数の焦点変更画像内の各焦点変更画像のものである合焦部分および非合焦部分を直接生成し、前記合焦部分と前記非合焦部分とをつなぎ合わせる、画像処理装置。 - 前記生成モジュールは、前記複数の焦点変更画像を生成するように、リフォーカシングアルゴリズムを用いて前記複数の焦点変更画像の前記生データに基づいてリフォーカシング処理を行い、前記複数の深度面の前記焦点変更画像を生成するように、前記複数の焦点変更画像を組み合わせる、請求項14に記載の画像処理装置。
- 前記生成モジュールは、画像融合法を用いて前記複数の焦点変更画像の前記合焦部分を組み合わせる、請求項15に記載の画像処理装置。
- 前記生成モジュールは、前記複数の焦点変更画像の画素の点広がり関数を決定し、前記画素の前記点広がり関数に従って融合重みテンプレートを生成し、前記融合重みテンプレートに従って前記複数の焦点変更画像に対して画像融合を行い、前記融合重みテンプレートは前記画素の融合重みを含み、高合焦度の画素の融合重みは低合焦度の画素の融合重みより大きい、請求項16に記載の画像処理装置。
- 前記生成モジュールは、前記複数の焦点変更画像内の各焦点変更画像から合焦部分および非合焦部分を選択し、前記合焦部分と前記非合焦部分とをつなぎ合わせる、請求項15から17のいずれか一項に記載の画像処理装置。
- 前記生成モジュールは、すべての深度面の焦点変更画像の生データに従って、前記すべての深度面に対応する前記焦点変更画像をさらに生成し、前記複数の深度面の前記深度情報に従って前記すべての深度面の前記焦点変更画像の中から前記複数の深度面の前記焦点変更画像を選択し、前記複数の深度面の前記焦点変更画像に従って前記複数の深度面の前記焦点変更画像を生成し、前記すべての深度面は前記すべての深度面の前記焦点変更画像にそれぞれ対応し、前記複数の深度面の前記焦点変更画像は前記複数の焦点変更画像の前記合焦部分を含む、請求項14から18のいずれか一項に記載の画像処理装置。
- 前記生成モジュールは、前記すべての焦点変更画像の画素の点広がり関数を決定し、前記すべての焦点変更画像の前記画素の前記点広がり関数に従って融合重みテンプレートを生成し、前記融合重みテンプレートに従って前記すべての焦点変更画像に対して画像融合を行い、前記融合重みテンプレートは前記すべての焦点変更画像の前記画素の融合重みを含み、前記複数の焦点変更画像の画素の融合重みは前記すべての焦点変更画像内の前記複数の焦点変更画像を除く他の焦点変更画像の画素の融合重みより大きく、前記複数の焦点変更画像内の高合焦度の画素の融合重みは前記複数の焦点変更画像内の低合焦度の画素の融合重みより大きい、請求項19に記載の画像処理装置。
- 前記生成モジュールは、前記複数の焦点変更画像内の各焦点変更画像から合焦部分および非合焦部分を選択し、前記合焦部分と前記非合焦部分とをつなぎ合わせる、請求項19または20に記載の画像処理装置。
- 深度面の深度または画素座標をインデックスとして用いて、クエリテーブルに前記複数の深度面の前記焦点変更画像のものである前記合焦部分および非合焦部分を問い合わせるように構成された問い合わせモジュール、をさらに含み、前記合焦部分および前記非合焦部分は前記深度面の前記深度または前記画素座標を前記インデックスとして用いて前記クエリテーブルに記憶されており、前記生成モジュールは、前記複数の深度面の前記焦点変更画像のものである前記合焦部分と前記非合焦部分とをつなぎ合わせる、
請求項19から21のいずれか一項に記載の画像処理装置。 - 前記生成モジュールは、前記つなぎ合わせを行うときに、前記合焦部分の画像および前記非合焦部分の画像に対して前処理、画像位置合わせ、および画像融合を行う、請求項14から18、21、または22のいずれか一項に記載の画像処理装置。
- 前記複数の焦点変更画像内の焦点変更画像を表示するように構成された、表示モジュールと、
前記表示された焦点変更画像の複数の領域において複数のユーザ入力を取得するように構成された、取得モジュールと、
をさらに含み、前記複数のユーザ入力は前記複数の深度面に対応し、前記表示モジュールは、前記複数の深度面の前記生成された焦点変更画像を表示装置上で出力し、前記決定モジュールは、前記複数のユーザ入力に従って前記複数の深度面の前記深度情報を決定する、請求項14から23のいずれか一項に記載の画像処理装置。 - 前記ユーザ入力は、ユーザによるタッチスクリーン上でのシングルポイントタップ入力、マルチポイントタップ入力、シングルポイントスライド入力、もしくはマルチポイントスライド入力;入力デバイス上の姿勢センサによって検出されたユーザ姿勢;または入力デバイス上の動作追跡モジュールによって検出されたユーザ動作、のうちの1つである、請求項24に記載の画像処理装置。
- 前記決定モジュールは、既定の入力に従って、前記既定の入力に対応する前記複数の深度面を決定し、前記画像処理装置は、
表示装置上で、前記既定の入力に対応する前記複数の深度面の前記焦点変更画像を出力するように構成された、表示モジュール、
をさらに含む、請求項14から25のいずれか一項に記載の画像処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410230506.1A CN105335950B (zh) | 2014-05-28 | 2014-05-28 | 图像处理方法和图像处理装置 |
CN201410230506.1 | 2014-05-28 | ||
PCT/CN2015/080021 WO2015180659A1 (zh) | 2014-05-28 | 2015-05-28 | 图像处理方法和图像处理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017517794A JP2017517794A (ja) | 2017-06-29 |
JP6736471B2 true JP6736471B2 (ja) | 2020-08-05 |
Family
ID=54698118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016559561A Active JP6736471B2 (ja) | 2014-05-28 | 2015-05-28 | 画像処理方法および画像処理装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20170076430A1 (ja) |
EP (1) | EP3101624B1 (ja) |
JP (1) | JP6736471B2 (ja) |
KR (1) | KR101893047B1 (ja) |
CN (1) | CN105335950B (ja) |
WO (1) | WO2015180659A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9918017B2 (en) | 2012-09-04 | 2018-03-13 | Duelight Llc | Image sensor apparatus and method for obtaining multiple exposures with zero interframe time |
US9531961B2 (en) | 2015-05-01 | 2016-12-27 | Duelight Llc | Systems and methods for generating a digital image using separate color and intensity data |
US9807322B2 (en) | 2013-03-15 | 2017-10-31 | Duelight Llc | Systems and methods for a digital image sensor |
US9819849B1 (en) | 2016-07-01 | 2017-11-14 | Duelight Llc | Systems and methods for capturing digital images |
US10558848B2 (en) | 2017-10-05 | 2020-02-11 | Duelight Llc | System, method, and computer program for capturing an image with correct skin tone exposure |
US10924688B2 (en) | 2014-11-06 | 2021-02-16 | Duelight Llc | Image sensor apparatus and method for obtaining low-noise, high-speed captures of a photographic scene |
US11463630B2 (en) | 2014-11-07 | 2022-10-04 | Duelight Llc | Systems and methods for generating a high-dynamic range (HDR) pixel stream |
FR3037756B1 (fr) * | 2015-06-18 | 2020-06-19 | Lens Correction Technologies | Procede et dispositif de production d'une image numerique |
JP2017050662A (ja) * | 2015-09-01 | 2017-03-09 | キヤノン株式会社 | 画像処理装置、撮像装置および画像処理プログラム |
JP2017191071A (ja) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 分光データ処理装置、撮像装置、分光データ処理方法および分光データ処理プログラム |
CN114449163A (zh) | 2016-09-01 | 2022-05-06 | 迪尤莱特公司 | 基于焦点目标信息调整焦点的装置和方法 |
WO2018129692A1 (en) * | 2017-01-12 | 2018-07-19 | Intel Corporation | Image refocusing |
CN106898048B (zh) * | 2017-01-19 | 2019-10-29 | 大连理工大学 | 一种可适应复杂场景的无畸变集成成像三维显示方法 |
CN107230192B (zh) | 2017-05-31 | 2020-07-21 | Oppo广东移动通信有限公司 | 图像处理方法、装置、计算机可读存储介质和移动终端 |
US11227405B2 (en) | 2017-06-21 | 2022-01-18 | Apera Ai Inc. | Determining positions and orientations of objects |
CN107525945B (zh) * | 2017-08-23 | 2019-08-02 | 南京理工大学 | 基于集成成像技术的3d-3c粒子图像测速系统及方法 |
CN108389223B (zh) * | 2018-02-06 | 2020-08-25 | 深圳市创梦天地科技股份有限公司 | 一种图像处理方法及终端 |
CN108337434B (zh) * | 2018-03-27 | 2020-05-22 | 中国人民解放军国防科技大学 | 一种针对光场阵列相机的焦外虚化重聚焦方法 |
US11575865B2 (en) | 2019-07-26 | 2023-02-07 | Samsung Electronics Co., Ltd. | Processing images captured by a camera behind a display |
CN110602397A (zh) * | 2019-09-16 | 2019-12-20 | RealMe重庆移动通信有限公司 | 图像处理方法、装置、终端及存储介质 |
CN111260561A (zh) * | 2020-02-18 | 2020-06-09 | 中国科学院光电技术研究所 | 一种可用于掩模版缺陷检测的快速多图拼接方法 |
CN113516614A (zh) | 2020-07-06 | 2021-10-19 | 阿里巴巴集团控股有限公司 | 脊柱影像的处理方法、模型训练方法、装置及存储介质 |
CN112241940B (zh) * | 2020-09-28 | 2023-12-19 | 北京科技大学 | 一种多张多聚焦图像融合方法及装置 |
US11721001B2 (en) | 2021-02-16 | 2023-08-08 | Samsung Electronics Co., Ltd. | Multiple point spread function based image reconstruction for a camera behind a display |
US11722796B2 (en) | 2021-02-26 | 2023-08-08 | Samsung Electronics Co., Ltd. | Self-regularizing inverse filter for image deblurring |
TWI799828B (zh) * | 2021-03-31 | 2023-04-21 | 中強光電股份有限公司 | 影像處理裝置、影像處理方法以及3d影像產生系統 |
US11832001B2 (en) | 2021-12-20 | 2023-11-28 | Visera Technologies Company Limited | Image processing method and image processing system |
CN116847209B (zh) * | 2023-08-29 | 2023-11-03 | 中国测绘科学研究院 | 一种基于Log-Gabor与小波的光场全聚焦影像生成方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8559705B2 (en) * | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
WO2010065344A1 (en) * | 2008-11-25 | 2010-06-10 | Refocus Imaging, Inc. | System of and method for video refocusing |
CN102314683B (zh) * | 2011-07-15 | 2013-01-16 | 清华大学 | 一种非平面图像传感器的计算成像方法和成像装置 |
JP5822613B2 (ja) * | 2011-09-12 | 2015-11-24 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6207202B2 (ja) * | 2012-06-08 | 2017-10-04 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
US20130329068A1 (en) * | 2012-06-08 | 2013-12-12 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP5818828B2 (ja) * | 2013-01-29 | 2015-11-18 | キヤノン株式会社 | 画像処理装置、撮像システム、画像処理システム |
CN104281397B (zh) * | 2013-07-10 | 2018-08-14 | 华为技术有限公司 | 多深度区间的重聚焦方法、装置及电子设备 |
-
2014
- 2014-05-28 CN CN201410230506.1A patent/CN105335950B/zh active Active
-
2015
- 2015-05-28 JP JP2016559561A patent/JP6736471B2/ja active Active
- 2015-05-28 EP EP15800270.9A patent/EP3101624B1/en active Active
- 2015-05-28 WO PCT/CN2015/080021 patent/WO2015180659A1/zh active Application Filing
- 2015-05-28 KR KR1020167025332A patent/KR101893047B1/ko active IP Right Grant
-
2016
- 2016-11-28 US US15/361,640 patent/US20170076430A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3101624A4 (en) | 2017-05-17 |
EP3101624B1 (en) | 2019-12-04 |
EP3101624A1 (en) | 2016-12-07 |
CN105335950B (zh) | 2019-02-12 |
KR101893047B1 (ko) | 2018-08-29 |
WO2015180659A1 (zh) | 2015-12-03 |
CN105335950A (zh) | 2016-02-17 |
KR20160121569A (ko) | 2016-10-19 |
JP2017517794A (ja) | 2017-06-29 |
US20170076430A1 (en) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6736471B2 (ja) | 画像処理方法および画像処理装置 | |
US9214013B2 (en) | Systems and methods for correcting user identified artifacts in light field images | |
JP6047807B2 (ja) | リフォーカスを実現するための方法および電子装置 | |
CN106170822B (zh) | 3d光场相机和摄影方法 | |
JP6223169B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
Guo et al. | Enhancing light fields through ray-space stitching | |
JP6452360B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
CN110213491B (zh) | 一种对焦方法、装置及存储介质 | |
US10957021B2 (en) | Method for rendering a final image from initial images acquired by a camera array, corresponding device, computer program product and computer-readable carrier medium | |
JP2016024489A (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
JP6541920B1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
US20190102056A1 (en) | User interface for manipulating light-field images | |
JPWO2012086362A1 (ja) | 画像処理装置、そのプログラム、および画像処理方法 | |
Wang et al. | Light field imaging based accurate image specular highlight removal | |
JP6234401B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP6611531B2 (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
JP7373297B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6263024B2 (ja) | 画像処理装置、画像処理方法および、プログラム、並びに画像再生装置 | |
Gledhill | 3D panoramic imaging for virtual environment construction | |
CN113132715B (zh) | 一种图像处理方法、装置、电子设备及其存储介质 | |
Tao | Unified Multi-Cue Depth Estimation from Light-Field Images: Correspondence, Defocus, Shading, and Specularity | |
Coelho | Application for Light Field Inpainting | |
Guo | Combining learning and computational imaging for 3D inference | |
JP2014230172A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190305 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190319 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6736471 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |