JP2017512335A - デバイスのための画像編集技法 - Google Patents
デバイスのための画像編集技法 Download PDFInfo
- Publication number
- JP2017512335A JP2017512335A JP2016551791A JP2016551791A JP2017512335A JP 2017512335 A JP2017512335 A JP 2017512335A JP 2016551791 A JP2016551791 A JP 2016551791A JP 2016551791 A JP2016551791 A JP 2016551791A JP 2017512335 A JP2017512335 A JP 2017512335A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user input
- layer
- image layer
- mobile device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000012545 processing Methods 0.000 claims abstract description 45
- 230000015654 memory Effects 0.000 claims description 35
- 230000009471 action Effects 0.000 claims description 33
- 238000003709 image segmentation Methods 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 16
- 238000002372 labelling Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 description 18
- 230000004044 response Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 239000003607 modifier Substances 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 230000008685 targeting Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
102 画像データ
104a 画像レイヤ
106a 画像レイヤ
108a クラスタ
110a クラスタ
112a クラスタ
114a クラスタ
116 属性
118a 属性
120a 属性
122a 属性
124 クラスタアイデンティファイア
126 クラスタ特定情報
128 画像セグメントジェネレータ
130 セグメント化マスク
132 画像コンポーネントラベラー
134 画像アーチファクト
136 画像モディファイア
138 修正された画像データ
140 属性
200 画像
202 背景
204 前景
210 クラスタ化された画像
212 クラスタ
220 結果的な画像
300 画像
310 セグメント化マスク
320 修正された画像
400 画像
402 ユーザ入力
410 画像
420 画像
430 セグメント化マスク
432 画像アーチファクト
440 画像
500、510、520、530、540 ユーザインターフェース
502 画像
504 ユーザ入力
532 ボタン
536 ボタン
538 ボタン
800 モバイルデバイス
810 処理リソース
822 システムオンチップデバイス
826 ディスプレイコントローラ
828 ディスプレイ
830 入力デバイス
832 メモリ
834 コーデック
836 スピーカ
838 マイクロフォン
840 ワイヤレスコントローラ
842 アンテナ
844 電源
852 データ
856 カメラ
858 命令
880 RFインターフェース
890 カメラコントローラ
892 クラスタ特定命令
894 画像セグメント化命令
896 画像ラベリング命令
902 モバイルデバイス
904 ディスプレイデバイス
906 メモリ
908 画像
910 属性
912 属性
914 画像データ
916 ユーザ構成パラメータ
918 ユーザ入力
920 第2の動作状態
922 属性
924 画像
926 修正された画像データ
928 ユーザ入力
930 第3の動作状態
932 属性
934 画像
936 修正された画像データ
1110 処理リソース
1126 ディスプレイコントローラ
1130 入力デバイス
1134 コーデック
1136 スピーカ
1138 マイクロフォン
1140 ワイヤレスコントローラ
1142 アンテナ
1144 電源
1156 カメラ
1158 命令
1180 RFインターフェース
1190 カメラコントローラ
1192 ユーザ選好入力
D_s 距離測度
S グリッド間隔サイズ
V 滑らかさ項
Claims (108)
- デバイスによって画像を処理するための方法であって、
前記画像に対応する画像データを第1の画像レイヤおよび第2の画像レイヤへとセグメント化するステップと、
ユーザ入力に基づいて前記第2の画像レイヤの第2の属性とは独立に前記第1の画像レイヤの第1の属性を調整するステップとを含む方法。 - 前記デバイスにおいて前記ユーザ入力を受け取るステップと、
前記画像データを、修正された画像を表す修正された画像データを生成するように前記ユーザ入力に基づいて修正するステップであって、前記修正された画像は、前記第2の画像レイヤに対する前記第1の画像レイヤの独立した修正を示す、ステップとをさらに含む、請求項1に記載の方法。 - 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の背景に対応する、請求項1に記載の方法。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記前景の第2の部分に対応する、請求項1に記載の方法。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の背景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記背景の第2の部分に対応する、請求項1に記載の方法。
- 前記第1の属性または前記第2の属性のうちの1つまたは複数は、色属性、鮮鋭度属性、ぼかし属性、またはコンテキスト属性に対応する、請求項1に記載の方法。
- 前記画像の編集を可能にするために前記デバイスのメモリに画像編集アプリケーションをロードするステップをさらに含む、請求項1に記載の方法。
- 前記画像データに関連するクラスタを特定するステップであって、前記画像データは前記クラスタに基づいてセグメント化される、ステップをさらに含む、請求項1に記載の方法。
- 前記第1のレイヤは前記画像の背景に対応し、前記第2のレイヤは前記画像の前景に対応し、前記第1のレイヤは、スーパーフォーカスカメラ効果を近似するように前記第2のレイヤに対してぼかされる、請求項1に記載の方法。
- 前記第1の画像レイヤを使用して1つまたは複数のコンポーネントラベリング動作を実行するステップをさらに含む、請求項1に記載の方法。
- 前記ユーザ入力は、前記デバイスのユーザインターフェース(UI)を介して受け取られる、請求項10に記載の方法。
- メモリと、
前記メモリに結合されたプロセッサと
を備え、前記プロセッサは、
画像に対応する画像データを第1の画像レイヤおよび第2の画像レイヤへとセグメント化することと、ユーザ入力に基づいて前記第2の画像レイヤの第2の属性とは独立に前記第1の画像レイヤの第1の属性を調整することとを行うように構成される、装置。 - 前記プロセッサは、前記ユーザ入力を受け取り、前記画像データを、修正された画像を表す修正された画像データを生成するように前記ユーザ入力に基づいて修正するようにさらに構成され、前記修正された画像は、前記第2の画像レイヤに対する前記第1の画像レイヤの独立した修正を示す、請求項12に記載の装置。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の背景に対応する、請求項12に記載の装置。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記前景の第2の部分に対応する、請求項12に記載の装置。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の背景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記背景の第2の部分に対応する、請求項12に記載の装置。
- 前記第1の属性または前記第2の属性のうちの1つまたは複数は、色属性、鮮鋭度属性、ぼかし属性、またはコンテキスト属性に対応する、請求項12に記載の装置。
- 前記プロセッサは、前記画像の編集を可能にするために画像編集アプリケーションをロードするようにさらに構成される、請求項12に記載の装置。
- 前記プロセッサは、前記画像データに関連するクラスタを特定し、前記クラスタに基づいて前記画像データをセグメント化するようにさらに構成される、請求項12に記載の装置。
- モバイルデバイス内に組み込まれる、請求項12に記載の装置。
- 前記プロセッサは、前記第1の画像レイヤを使用して1つまたは複数のコンポーネントラベリング動作を実行するようにさらに構成される、請求項12に記載の装置。
- ディスプレイデバイスをさらに備え、前記プロセッサは、前記ディスプレイデバイスにおいてユーザインターフェース(UI)を表示させるようにさらに構成され、前記ユーザ入力は前記ディスプレイデバイスを介して受け取られる、請求項21に記載の装置。
- 命令を記憶する非一時的コンピュータ可読媒体であって、前記命令は、プロセッサに、
画像に関連する画像データを第1の画像レイヤおよび第2の画像レイヤへとセグメント化することと、
ユーザ入力に基づいて前記第2の画像レイヤの第2の属性とは独立に前記第1の画像レイヤの第1の属性を調整することとを行わせるように前記プロセッサによって実行可能である非一時的コンピュータ可読媒体。 - 前記命令は、前記ユーザ入力を受け取り、前記画像データを、修正された画像を表す修正された画像データを生成するように前記ユーザ入力に基づいて修正するように前記プロセッサによってさらに実行可能であり、前記修正された画像は、前記第2の画像レイヤに対する前記第1の画像レイヤの独立した修正を示す、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の背景に対応する、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記前景の第2の部分に対応する、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の背景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記背景の第2の部分に対応する、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記第1の属性または前記第2の属性のうちの1つまたは複数は、色属性、鮮鋭度属性、ぼかし属性、またはコンテキスト属性に対応する、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記命令は、前記画像の編集を可能にするために画像編集アプリケーションをロードするように前記プロセッサによってさらに実行可能である、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記プロセッサおよび前記メモリはモバイルデバイスに組み込まれる、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記命令は、前記画像データに関連するクラスタを特定し、前記クラスタに基づいて前記画像データをセグメント化するように前記プロセッサによってさらに実行可能である、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記命令は、前記第1の画像レイヤを使用して1つまたは複数のコンポーネントラベリング動作を実行するように前記プロセッサによってさらに実行可能である、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記命令は、ユーザインターフェース(UI)を介して前記ユーザ入力を受け取るように前記プロセッサによってさらに実行可能である、請求項32に記載の非一時的コンピュータ可読媒体。
- 画像に関連する画像データを第1の画像レイヤおよび第2の画像レイヤへとセグメント化するための手段と、
ユーザ入力に基づいて前記第2の画像レイヤの第2の属性とは独立に前記第1の画像レイヤの第1の属性を調整するための手段とを備える装置。 - 前記ユーザ入力を受け取るための手段と、
前記画像データを、修正された画像を表す修正された画像データを生成するように前記ユーザ入力に基づいて修正するための手段とをさらに備え、
前記修正された画像は、前記第2の画像レイヤに対する前記第1の画像レイヤの独立した修正を示す、請求項34に記載の装置。 - 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の背景に対応する、請求項35に記載の装置。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の前景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記前景の第2の部分に対応する、請求項35に記載の装置。
- 前記第1の画像レイヤおよび前記第2の画像レイヤの一方は、前記画像の背景の第1の部分に対応し、前記第1の画像レイヤおよび前記第2の画像レイヤの他方は、前記画像の前記背景の第2の部分に対応する、請求項35に記載の装置。
- 前記第1の属性または前記第2の属性のうちの1つまたは複数は、色属性、鮮鋭度属性、ぼかし属性、またはコンテキスト属性に対応する、請求項35に記載の装置。
- 前記画像の編集を可能にするために画像編集アプリケーションをロードするための手段をさらに備える、請求項35に記載の装置。
- 前記画像データに関連するクラスタを特定するための手段であって、前記画像データは前記クラスタに基づいてセグメント化される、手段をさらに備える、請求項35に記載の装置。
- モバイルデバイス内に組み込まれる、請求項35に記載の装置。
- 前記第1の画像レイヤを使用して1つまたは複数のコンポーネントラベリング動作を実行するための手段をさらに備える、請求項35に記載の装置。
- ユーザに対してユーザインターフェース(UI)を表示するための手段をさらに備える、請求項43に記載の装置。
- モバイルデバイスにおいて第1の画像を表示するステップと、
前記モバイルデバイスにおいて第1のユーザ入力を受け取るステップであって、前記第1のユーザ入力は前記モバイルデバイスに対する方向を示す、ステップと、
前記第1のユーザ入力に基づいて、第2の画像を生成するために前記第1の画像に対して第1の画像編集動作を実行するステップと、
前記ユーザデバイスにおいて前記第2の画像を表示するステップと、
前記モバイルデバイスにおいて第2のユーザ入力を受け取るステップであって、前記第2のユーザ入力は前記方向を示す、ステップと、
前記第2のユーザ入力に基づいて、第3の画像を生成するために前記第2の画像に対して第2の画像編集動作を実行するステップとを含む方法。 - 前記第1のユーザ入力および前記第2のユーザ入力は、前記モバイルデバイスのディスプレイデバイスにおけるスワイプ操作に対応する、請求項45に記載の方法。
- 前記第1の画像編集動作は画像ぼかし動作を含み、前記第2の画像編集動作は色変更動作を含む、請求項45に記載の方法。
- 前記第1の画像編集動作および前記第2の画像編集動作の順序は、前記モバイルデバイスにおいて記憶されたユーザ構成パラメータに基づく、請求項45に記載の方法。
- ユーザ選好入力を受け取るステップをさらに含み、前記ユーザ選好入力は、色変更動作が画像ぼかし動作よりも前に行われることを示すように前記ユーザ構成パラメータを再構成する、請求項48に記載の方法。
- 前記モバイルデバイスにおいて第3のユーザ入力を受け取るステップであって、前記第3のユーザ入力は前記方向を示す、ステップと、
前記第3のユーザ入力に基づいて、前記モバイルデバイスにおいて前記第1の画像を表示するステップとをさらに含む、請求項45に記載の方法。 - 前記第3のユーザ入力は、前記第1の画像編集動作および前記第2の画像編集動作を取り消すためのコマンドに対応する、請求項50に記載の方法。
- メモリと、
前記メモリに結合されたプロセッサであって、前記プロセッサは、モバイルデバイスに第1の画像を表示させることと、前記モバイルデバイスにおいて第1のユーザ入力を受け取ることであって、前記第1のユーザ入力は前記モバイルデバイスに対する方向を示すことと、前記第1のユーザ入力に基づいて、第2の画像を生成するために前記第1の画像に対して第1の画像編集動作を実行することと、前記モバイルデバイスに前記第2の画像を表示させることと、第2のユーザ入力を受け取ることであって、前記第2のユーザ入力は前記方向を示すことと、前記第2のユーザ入力に基づいて、第3の画像を生成するために前記第2の画像に対して第2の画像編集動作を実行することとを行うように構成されるプロセッサとを備える装置。 - 前記第1のユーザ入力および前記第2のユーザ入力は、前記モバイルデバイスのディスプレイデバイスにおけるスワイプ操作に対応する、請求項52に記載の装置。
- 前記第1の画像編集動作は画像ぼかし動作を含み、前記第2の画像編集動作は色変更動作を含む、請求項52に記載の装置。
- 前記第1の画像編集動作および前記第2の画像編集動作の順序は、前記モバイルデバイスにおいて記憶されたユーザ構成パラメータに基づく、請求項52に記載の装置。
- ユーザ選好入力を受け取ることをさらに含み、前記ユーザ選好入力は、色変更動作が画像ぼかし動作よりも前に行われることを示すように前記ユーザ構成パラメータを再構成する、請求項55に記載の装置。
- 前記モバイルデバイスにおいて第3のユーザ入力を受け取ることであって、前記第3のユーザ入力は前記方向を示すことと、
前記第3のユーザ入力に基づいて、前記モバイルデバイスにおいて前記第1の画像を表示することとをさらに含む、請求項52に記載の装置。 - 前記第3のユーザ入力は、前記第1の画像編集動作および前記第2の画像編集動作を取り消すためのコマンドに対応する、請求項57に記載の装置。
- 命令を記憶するコンピュータ可読媒体であって、前記命令は、モバイルデバイスに、
前記モバイルデバイスにおいて第1の画像を表示することと、
前記モバイルデバイスにおいて第1のユーザ入力を受け取ることであって、前記第1のユーザ入力は前記モバイルデバイスに対する方向を示すことと、
前記第1のユーザ入力に基づいて、第2の画像を生成するために前記第1の画像に対して第1の画像編集動作を実行することと、
前記モバイルデバイスにおいて前記第2の画像を表示することと、
前記モバイルデバイスにおいて第2のユーザ入力を受け取ることであって、前記第2のユーザ入力は前記方向を示すことと、
前記第2のユーザ入力に基づいて、第3の画像を生成するために前記第2の画像に対して第2の画像編集動作を実行することとを行わせるようにプロセッサによって実行可能である、コンピュータ可読媒体。 - 前記第1のユーザ入力および前記第2のユーザ入力は、前記モバイルデバイスのディスプレイデバイスにおけるスワイプ操作に対応する、請求項59に記載のコンピュータ可読媒体。
- 前記第1の画像編集動作は画像ぼかし動作を含み、前記第2の画像編集動作は色変更動作を含む、請求項59に記載のコンピュータ可読媒体。
- 前記第1の画像編集動作および前記第2の画像編集動作の順序は、前記モバイルデバイスにおいて記憶されたユーザ構成パラメータに基づく、請求項59に記載のコンピュータ可読媒体。
- 前記命令は、前記モバイルデバイスに、ユーザ選好入力を受け取らせるように前記プロセッサによってさらに実行可能であり、前記ユーザ選好入力は、色変更動作が画像ぼかし動作よりも前に行われることを示すように前記ユーザ構成パラメータを再構成する、請求項62に記載のコンピュータ可読媒体。
- 前記命令は、前記モバイルデバイスに、前記モバイルデバイスにおいて第3のユーザ入力を受け取らせることであって、前記第3のユーザ入力は、前記方向を示すことと、前記第3のユーザ入力に基づいて、前記モバイルデバイスにおいて前記第1の画像を表示させることとを行うように前記プロセッサによってさらに実行可能である、請求項59に記載のコンピュータ可読媒体。
- 前記第3のユーザ入力は、前記第1の画像編集動作および前記第2の画像編集動作を取り消すためのコマンドに対応する、請求項64に記載のコンピュータ可読媒体。
- モバイルデバイスにおいて第1の画像を表示するための手段と、
前記モバイルデバイスにおいて第1のユーザ入力を受け取るための手段であって、前記第1のユーザ入力は前記モバイルデバイスに対する方向を示す、手段と、
前記第1のユーザ入力に基づいて、第2の画像を生成するために前記第1の画像に対して第1の画像編集動作を実行するための手段と、
前記モバイルデバイスに、前記第2の画像を表示させるための手段と、
第2のユーザ入力を受け取るための手段であって、前記第2のユーザ入力は前記方向を示す、手段と、
前記第2のユーザ入力に基づいて、第3の画像を生成するために前記第2の画像に対して第2の画像編集動作を実行するための手段とを備える装置。 - 前記第1のユーザ入力および前記第2のユーザ入力は、前記モバイルデバイスのディスプレイデバイスにおけるスワイプ操作に対応する、請求項66に記載の装置。
- 前記第1の画像編集動作は画像ぼかし動作を含み、前記第2の画像編集動作は色変更動作を含む、請求項66に記載の装置。
- 前記第1の画像編集動作および前記第2の画像編集動作の順序は、前記モバイルデバイスにおいて記憶されたユーザ構成パラメータに基づく、請求項66に記載の装置。
- ユーザ選好入力を受け取るための手段をさらに備え、前記ユーザ選好入力は、色変更動作が画像ぼかし動作よりも前に行われることを示すように前記ユーザ構成パラメータを再構成する、請求項69に記載の装置。
- 前記モバイルデバイスにおいて第3のユーザ入力を受け取るための手段であって、前記第3のユーザ入力は前記方向を示す、手段と、
前記第3のユーザ入力に基づいて、前記モバイルデバイスにおいて前記第1の画像を表示するための手段とをさらに備える、請求項66に記載の装置。 - 前記第3のユーザ入力は、前記第1の画像編集動作および前記第2の画像編集動作を取り消すためのコマンドに対応する、請求項71に記載の装置。
- ユーザインターフェースから第1のユーザ入力を受け取るステップであって、前記第1のユーザ入力は、表示動作用の画像を選択する、ステップと、
前記第1のユーザ入力に基づいて、
前記表示動作を実行するステップと、
前記画像に対応する画像データを使用してクラスタ化動作を自動的に開始するステップとを含む方法。 - 前記第1のユーザ入力は、前記ユーザインターフェースにおいて提示される画像ギャラリーから前記画像を選択するタッチスクリーン動作に対応する、請求項73に記載の方法。
- 前記クラスタ化動作は、前記画像をサムネイルビューからフルビューに拡大するために前記表示動作が実行されている間に、前記画像データ内のクラスタを特定するために開始される、請求項73に記載の方法。
- 前記クラスタ化動作は、シンプルリニアイテレイティブクラスタリング(SLIC)技法を使用して前記クラスタを特定する、請求項75に記載の方法。
- 前記ユーザインターフェースから第2のユーザ入力を受け取るステップであって、前記第2のユーザ入力は前記画像の第1の画像レイヤを特定するステップと、
前記第1の画像レイヤに関連する画像セグメント化動作を自動的に開始するステップとをさらに含む、請求項73に記載の方法。 - 前記第1の画像レイヤは前記画像の前景に対応し、前記第2のユーザ入力は、前記前景を選択するスワイプアクションに対応する、請求項77に記載の方法。
- 前記ユーザインターフェースから第3のユーザ入力を受け取るステップであって、前記第3のユーザ入力は前記画像の第2の画像レイヤを特定するステップをさらに含む、請求項77に記載の方法。
- 前記第2の画像レイヤは前記画像の背景に対応し、前記第3のユーザ入力は、前記背景を選択するスワイプアクションに対応する、請求項79に記載の方法。
- 前記画像セグメント化動作は、前記第3のユーザ入力が受け取られている間に、グラブカット技法を使用して、前記第1の画像レイヤを処理する、請求項79に記載の方法。
- メモリと、
前記メモリに結合されたプロセッサであって、ユーザインターフェースから第1のユーザ入力を受け取ることであって、前記第1のユーザ入力は表示動作用の画像を選択することと、前記第1のユーザ入力に基づいて前記表示動作を実行することと、前記第1のユーザ入力に基づく前記画像に対応する画像データを使用してクラスタ化動作を自動的に開始することとを行うように構成されるプロセッサとを備える装置。 - 前記第1のユーザ入力は、前記ユーザインターフェースにおいて提示される画像ギャラリーから前記画像を選択するタッチスクリーン動作に対応する、請求項82に記載の装置。
- 前記クラスタ化動作は、前記画像をサムネイルビューからフルビューに拡大するために前記表示動作が実行されている間に、前記画像データ内のクラスタを特定するために開始される、請求項82に記載の装置。
- 前記クラスタ化動作は、シンプルリニアイテレイティブクラスタリング(SLIC)技法を使用して前記クラスタを特定する、請求項84に記載の装置。
- 前記プロセッサは、前記ユーザインターフェースから第2のユーザ入力を受け取ることであって、前記第2のユーザ入力は前記画像の第1の画像レイヤを特定することと、前記第1の画像レイヤに関連する画像セグメント化動作を自動的に開始することとを行うようにさらに構成される、請求項82に記載の装置。
- 前記第1の画像レイヤは前記画像の前景に対応し、前記第2のユーザ入力は、前記前景を選択するスワイプアクションに対応する、請求項86に記載の装置。
- 前記プロセッサは、前記ユーザインターフェースから第3のユーザ入力を受け取ることであって、前記第3のユーザ入力は前記画像の第2の画像レイヤを特定することを行うようにさらに構成される、請求項86に記載の装置。
- 前記第2の画像レイヤは前記画像の背景に対応し、前記第3のユーザ入力は、前記背景を選択するスワイプアクションに対応する、請求項88に記載の装置。
- 前記画像セグメント化動作は、前記第3のユーザ入力が受け取られている間に、グラブカット技法を使用して、前記第1の画像レイヤを処理する、請求項88に記載の装置。
- 命令を記憶するコンピュータ可読媒体であって、前記命令は、プロセッサに、
ユーザインターフェースから第1のユーザ入力を受け取ることであって、前記第1のユーザ入力は、表示動作用の画像を選択することと、
前記第1のユーザ入力に基づいて、
前記表示動作を実行することと、
前記画像に対応する画像データを使用してクラスタ化動作を自動的に開始することとを行わせるように前記プロセッサによって実行可能である、コンピュータ可読媒体。 - 前記第1のユーザ入力は、前記ユーザインターフェースにおいて提示される画像ギャラリーから前記画像を選択するタッチスクリーン動作に対応する、請求項91に記載のコンピュータ可読媒体。
- 前記クラスタ化動作は、前記画像をサムネイルビューからフルビューに拡大するために前記表示動作が実行されている間に、前記画像データ内のクラスタを特定するために開始される、請求項91に記載のコンピュータ可読媒体。
- 前記クラスタ化動作は、シンプルリニアイテレイティブクラスタリング(SLIC)技法を使用して前記クラスタを特定する、請求項93に記載のコンピュータ可読媒体。
- 前記命令は、前記ユーザインターフェースから第2のユーザ入力を受け取ることであって、前記第2のユーザ入力は前記画像の第1の画像レイヤを特定することと、前記第1の画像レイヤに関連する画像セグメント化動作を自動的に開始することとを行うように前記プロセッサによってさらに実行可能である、請求項91に記載のコンピュータ可読媒体。
- 前記第1の画像レイヤは前記画像の前景に対応し、前記第2のユーザ入力は、前記前景を選択するスワイプアクションに対応する、請求項95に記載のコンピュータ可読媒体。
- 前記命令は、前記ユーザインターフェースから第3のユーザ入力を受け取ることであって、前記第3のユーザ入力は前記画像の第2の画像レイヤを特定することを行うように前記プロセッサによってさらに実行可能である、請求項95に記載のコンピュータ可読媒体。
- 前記第2の画像レイヤは前記画像の背景に対応し、前記第3のユーザ入力は、前記背景を選択するスワイプアクションに対応する、請求項97に記載のコンピュータ可読媒体。
- 前記画像セグメント化動作は、前記第3のユーザ入力が受け取られている間に、グラブカット技法を使用して、前記第1の画像レイヤを処理する、請求項97に記載のコンピュータ可読媒体。
- ユーザインターフェースから第1のユーザ入力を受け取るための手段であって、前記第1のユーザ入力は、表示動作用の画像を選択する、手段と、
前記第1のユーザ入力に基づいて前記表示動作を実行するための手段と、
前記第1のユーザ入力に基づく前記画像に対応する画像データを使用してクラスタ化動作を自動的に開始するための手段とを備える装置。 - 前記第1のユーザ入力は、前記ユーザインターフェースにおいて提示される画像ギャラリーから前記画像を選択するタッチスクリーン動作に対応する、請求項100に記載の装置。
- 前記クラスタ化動作は、前記画像をサムネイルビューからフルビューに拡大するために前記表示動作が実行されている間に、前記画像データ内のクラスタを特定するために開始される、請求項100に記載の装置。
- 前記クラスタ化動作は、シンプルリニアイテレイティブクラスタリング(SLIC)技法を使用して前記クラスタを特定する、請求項102に記載の装置。
- 前記ユーザインターフェースから第2のユーザ入力を受け取るための手段であって、前記第2のユーザ入力は前記画像の第1の画像レイヤを特定する、手段と、
前記第1の画像レイヤに関連する画像セグメント化動作を自動的に開始するための手段とをさらに備える、請求項100に記載の装置。 - 前記第1の画像レイヤは前記画像の前景に対応し、前記第2のユーザ入力は、前記前景を選択するスワイプアクションに対応する、請求項104に記載の装置。
- 前記ユーザインターフェースから第3のユーザ入力を受け取るための手段であって、前記第3のユーザ入力は前記画像の第2の画像レイヤを特定する、手段をさらに備える、請求項104に記載の装置。
- 前記第2の画像レイヤは前記画像の背景に対応し、前記第3のユーザ入力は、前記背景を選択するスワイプアクションに対応する、請求項106に記載の装置。
- 前記画像セグメント化動作は、前記第3のユーザ入力が受け取られている間に、グラブカット技法を使用して、前記第1の画像レイヤを処理する、請求項106に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461941996P | 2014-02-19 | 2014-02-19 | |
US61/941,996 | 2014-02-19 | ||
PCT/CN2014/000172 WO2015123792A1 (en) | 2014-02-19 | 2014-02-24 | Image editing techniques for a device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017512335A true JP2017512335A (ja) | 2017-05-18 |
JP6355746B2 JP6355746B2 (ja) | 2018-07-11 |
Family
ID=53877493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016551791A Active JP6355746B2 (ja) | 2014-02-19 | 2014-02-24 | デバイスのための画像編集技法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10026206B2 (ja) |
EP (1) | EP3108379B1 (ja) |
JP (1) | JP6355746B2 (ja) |
KR (1) | KR101952569B1 (ja) |
CN (1) | CN105940392B (ja) |
WO (1) | WO2015123792A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112860163A (zh) * | 2021-01-21 | 2021-05-28 | 维沃移动通信(深圳)有限公司 | 图像编辑方法和装置 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268698B2 (en) * | 2014-11-21 | 2019-04-23 | Adobe Inc. | Synchronizing different representations of content |
KR20170029978A (ko) * | 2015-09-08 | 2017-03-16 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US10270965B2 (en) * | 2015-12-04 | 2019-04-23 | Ebay Inc. | Automatic guided capturing and presentation of images |
KR101823035B1 (ko) * | 2015-12-16 | 2018-02-01 | 남기원 | 소셜 기반의 이미지 설정값 공유 시스템 및 그 방법 |
WO2017203705A1 (ja) * | 2016-05-27 | 2017-11-30 | 楽天株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2018056792A (ja) * | 2016-09-29 | 2018-04-05 | アイシン精機株式会社 | 画像表示制御装置 |
US10325372B2 (en) * | 2016-12-20 | 2019-06-18 | Amazon Technologies, Inc. | Intelligent auto-cropping of images |
JP6434568B2 (ja) * | 2017-05-18 | 2018-12-05 | 楽天株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR101961015B1 (ko) * | 2017-05-30 | 2019-03-21 | 배재대학교 산학협력단 | 가상 스튜디오 연동 스마트 증강현실 서비스 시스템 및 방법 |
EP3567548B1 (en) * | 2018-05-09 | 2020-06-24 | Siemens Healthcare GmbH | Medical image segmentation |
US11138699B2 (en) * | 2019-06-13 | 2021-10-05 | Adobe Inc. | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
WO2021080158A1 (en) | 2019-10-25 | 2021-04-29 | Samsung Electronics Co., Ltd. | Image processing method, apparatus, electronic device and computer readable storage medium |
CN114902286A (zh) * | 2019-12-31 | 2022-08-12 | 高通股份有限公司 | 用于促进运动帧的感兴趣区域跟踪的方法和装置 |
US11217020B2 (en) * | 2020-03-16 | 2022-01-04 | Snap Inc. | 3D cutout image modification |
US11069044B1 (en) * | 2020-03-18 | 2021-07-20 | Adobe Inc. | Eliminating image artifacts using image-layer snapshots |
US11995757B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Customized animation from video |
US20230252687A1 (en) * | 2022-02-10 | 2023-08-10 | Qualcomm Incorporated | Systems and methods for facial attribute manipulation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246460A (ja) * | 2003-02-12 | 2004-09-02 | Daihatsu Motor Co Ltd | コンピュータ・グラフィックス装置及び意匠設計プログラム |
JP2009037282A (ja) * | 2007-07-31 | 2009-02-19 | Sharp Corp | 画像閲覧装置 |
US20090256947A1 (en) * | 2008-04-15 | 2009-10-15 | Sony Corporation | Method and apparatus for performing touch-based adjustments within imaging devices |
JP2010533918A (ja) * | 2007-07-18 | 2010-10-28 | ナンヤン テクノロジカル ユニヴァーシティー | グラフィックデータ提供方法及びグラフィックデータ表示方法 |
WO2013145589A1 (ja) * | 2012-03-26 | 2013-10-03 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973212B2 (en) | 2000-09-01 | 2005-12-06 | Siemens Corporate Research, Inc. | Graph cuts for binary segmentation of n-dimensional images from object and background seeds |
US20040008886A1 (en) | 2002-07-02 | 2004-01-15 | Yuri Boykov | Using graph cuts for editing photographs |
KR100698845B1 (ko) * | 2005-12-28 | 2007-03-22 | 삼성전자주식회사 | 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치 |
EP1826723B1 (en) | 2006-02-28 | 2015-03-25 | Microsoft Corporation | Object-level image editing |
US7593020B2 (en) | 2006-05-30 | 2009-09-22 | Microsoft Corporation | Image editing using image-wide matting |
US8644600B2 (en) | 2007-06-05 | 2014-02-04 | Microsoft Corporation | Learning object cutout from a single example |
US7995841B2 (en) | 2007-09-24 | 2011-08-09 | Microsoft Corporation | Hybrid graph model for unsupervised object segmentation |
US20090252429A1 (en) | 2008-04-03 | 2009-10-08 | Dan Prochazka | System and method for displaying results of an image processing system that has multiple results to allow selection for subsequent image processing |
US8731319B2 (en) * | 2008-06-25 | 2014-05-20 | Adobe Systems Incorporated | Image layer stack interface |
WO2011085248A1 (en) * | 2010-01-07 | 2011-07-14 | Swakker, Llc | Methods and apparatus for modifying a multimedia object within an instant messaging session at a mobile communication device |
CN101976194A (zh) | 2010-10-29 | 2011-02-16 | 中兴通讯股份有限公司 | 一种设置用户界面的方法及装置 |
JP5170226B2 (ja) * | 2010-12-10 | 2013-03-27 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US20120210229A1 (en) * | 2011-02-16 | 2012-08-16 | Andrew Bryant | Color workflow |
US9153031B2 (en) * | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
KR101792641B1 (ko) | 2011-10-07 | 2017-11-02 | 엘지전자 주식회사 | 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법 |
CN102592268B (zh) * | 2012-01-06 | 2015-04-01 | 清华大学深圳研究生院 | 一种分割前景图像的方法 |
US9041727B2 (en) | 2012-03-06 | 2015-05-26 | Apple Inc. | User interface tools for selectively applying effects to image |
TWI543582B (zh) | 2012-04-17 | 2016-07-21 | 晨星半導體股份有限公司 | 影像編輯方法以及相關之模糊參數建立方法 |
US9285971B2 (en) | 2012-06-20 | 2016-03-15 | Google Inc. | Compartmentalized image editing system |
CN103885623A (zh) * | 2012-12-24 | 2014-06-25 | 腾讯科技(深圳)有限公司 | 一种将滑动事件处理成编辑手势的方法、系统及移动终端 |
CN103152521B (zh) * | 2013-01-30 | 2016-08-17 | 广东欧珀移动通信有限公司 | 一种移动终端中实现景深效果的方法及移动终端 |
CN103294362A (zh) * | 2013-06-28 | 2013-09-11 | 贝壳网际(北京)安全技术有限公司 | 用于移动设备的屏幕显示控制方法、装置和移动设备 |
US9697820B2 (en) * | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9965865B1 (en) * | 2017-03-29 | 2018-05-08 | Amazon Technologies, Inc. | Image data segmentation using depth data |
-
2014
- 2014-02-24 CN CN201480074666.XA patent/CN105940392B/zh not_active Expired - Fee Related
- 2014-02-24 US US15/111,175 patent/US10026206B2/en not_active Expired - Fee Related
- 2014-02-24 JP JP2016551791A patent/JP6355746B2/ja active Active
- 2014-02-24 WO PCT/CN2014/000172 patent/WO2015123792A1/en active Application Filing
- 2014-02-24 KR KR1020167023875A patent/KR101952569B1/ko active IP Right Grant
- 2014-02-24 EP EP14882881.7A patent/EP3108379B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246460A (ja) * | 2003-02-12 | 2004-09-02 | Daihatsu Motor Co Ltd | コンピュータ・グラフィックス装置及び意匠設計プログラム |
JP2010533918A (ja) * | 2007-07-18 | 2010-10-28 | ナンヤン テクノロジカル ユニヴァーシティー | グラフィックデータ提供方法及びグラフィックデータ表示方法 |
JP2009037282A (ja) * | 2007-07-31 | 2009-02-19 | Sharp Corp | 画像閲覧装置 |
US20090256947A1 (en) * | 2008-04-15 | 2009-10-15 | Sony Corporation | Method and apparatus for performing touch-based adjustments within imaging devices |
JP2009278623A (ja) * | 2008-04-15 | 2009-11-26 | Sony Corp | 撮像デバイス内でタッチ式調節を実行する方法及び装置 |
WO2013145589A1 (ja) * | 2012-03-26 | 2013-10-03 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
Non-Patent Citations (1)
Title |
---|
谷 岳人: "ファジィ分離統合法を用いたカラー画像の大まかな領域分割アルゴリズムの改良", 映像情報メディア学会技術報告 VOL.38 NO.7, vol. ITS2013-41, IE2013-106 (2014-02), JPN6018004594, 10 February 2014 (2014-02-10), JP, pages 67 - 72, ISSN: 0003736172 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112860163A (zh) * | 2021-01-21 | 2021-05-28 | 维沃移动通信(深圳)有限公司 | 图像编辑方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3108379A4 (en) | 2018-01-17 |
US20160335789A1 (en) | 2016-11-17 |
JP6355746B2 (ja) | 2018-07-11 |
CN105940392A (zh) | 2016-09-14 |
WO2015123792A1 (en) | 2015-08-27 |
KR20160124129A (ko) | 2016-10-26 |
EP3108379A1 (en) | 2016-12-28 |
KR101952569B1 (ko) | 2019-02-27 |
US10026206B2 (en) | 2018-07-17 |
EP3108379B1 (en) | 2023-06-21 |
CN105940392B (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355746B2 (ja) | デバイスのための画像編集技法 | |
JP7226851B2 (ja) | 画像処理の方法および装置並びにデバイス | |
US10284789B2 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
CN108924420B (zh) | 图像拍摄方法、装置、介质、电子设备及模型训练方法 | |
WO2018120238A1 (zh) | 用于处理文档的设备、方法和图形用户界面 | |
CN107771391B (zh) | 用于确定图像帧的曝光时间的方法和装置 | |
JP7568378B2 (ja) | 画像表示方法、装置、機器及び媒体 | |
WO2015196038A1 (en) | Image editing using selective editing tools | |
US11558561B2 (en) | Personalized videos featuring multiple persons | |
CN112950525B (zh) | 图像检测方法、装置及电子设备 | |
CN105376496A (zh) | 拍照方法及装置 | |
CN104410785A (zh) | 一种信息处理方法及电子设备 | |
US20170168709A1 (en) | Object selection based on region of interest fusion | |
KR101620933B1 (ko) | 제스쳐 인식 메커니즘을 제공하는 방법 및 장치 | |
US20190371050A1 (en) | Image processing method and apparatus, electronic device and computer readable medium | |
CN105701762B (zh) | 一种图片处理方法和电子设备 | |
CN108111763B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN110266926B (zh) | 图像处理方法、装置、移动终端以及存储介质 | |
CN108305262A (zh) | 文件扫描方法、装置及设备 | |
CN114612283A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113794831A (zh) | 视频拍摄方法、装置、电子设备及介质 | |
US10990802B2 (en) | Imaging apparatus providing out focusing and method for controlling the same | |
CN112367465A (zh) | 图像输出方法、装置及电子设备 | |
JP6155349B2 (ja) | デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品 | |
CN112995539A (zh) | 一种移动终端及图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6355746 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |