JP5907196B2 - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents
画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDFInfo
- Publication number
- JP5907196B2 JP5907196B2 JP2014039868A JP2014039868A JP5907196B2 JP 5907196 B2 JP5907196 B2 JP 5907196B2 JP 2014039868 A JP2014039868 A JP 2014039868A JP 2014039868 A JP2014039868 A JP 2014039868A JP 5907196 B2 JP5907196 B2 JP 5907196B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- locus
- trajectory
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 353
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000006870 function Effects 0.000 description 40
- 238000000034 method Methods 0.000 description 40
- 238000010586 diagram Methods 0.000 description 30
- 230000008859 change Effects 0.000 description 15
- 230000001965 increasing effect Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20096—Interactive definition of curve of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Description
また特許文献2には、撮影画像中で特定被写体が指定されたら、色分布マップから特定被写体の検出された色が属する部分の近傍範囲を部分的に抽出した色相分布範囲、彩度分布範囲を示す色相インジケータと彩度インジケータとを特定被写体の近傍に直交配置させて表示させることで、2次元の操作空間を形成し、この操作空間内で指を移動する入力操作で色補正値を設定できるようにした色補正装置が開示されている。
請求項2に記載の発明は、前記軌跡の形状を判定する形状判定部をさらに備え、前記項目切替部は、前記軌跡の形状に応じて画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記項目切替部は、前記画像上でユーザが行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置である。
請求項4に記載の発明は、前記画像の中からユーザが画像処理を行なう画像領域として指定する指定領域を検出するために、当該指定領域内の代表位置を表す代表位置情報を取得する位置情報取得部と、前記代表位置情報から前記指定領域を検出する領域検出部と、をさらに備え、前記指定領域に対し画像処理を行なうことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置である。
請求項5に記載の発明は、画像処理を行なう画像上でユーザにより操作される軌跡の位置情報を取得し、前記軌跡の位置情報から当該軌跡の大きさを求め、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定し、判定された入力方向に応じて決められ、画像処理の項目の切り替えを行ない、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なうことを特徴とする画像処理方法である。
請求項6に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像上でユーザにより操作される軌跡の位置情報を取得する取得部と、前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理システムである。
請求項7に記載の発明は、画像処理を行なう画像上でユーザにより操作される軌跡の位置情報を取得する機能と、前記軌跡の位置情報から当該軌跡の大きさを求める機能と、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する機能と、判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう機能と、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう機能と、を実現させるプログラムである。
請求項2の発明によれば、本構成を有していない場合に比較して、軌跡の形状を基に複数の画像処理の項目をより直感的に切り替えることができる画像処理装置が提供できる。
請求項3の発明によれば、本構成を有していない場合に比較して、ユーザが画像処理の項目を切り替えるのがより容易になる。
請求項4の発明によれば、ユーザが画像処理を行なう領域を選択することができる。
請求項5の発明によれば、本構成を有していない場合に比較して、画像処理の程度をより直感的に入力できる画像処理方法が提供できる。
請求項6の発明によれば、本構成を有していない場合に比較して、画像処理をより容易に行なうことができる画像処理システムが提供できる。
請求項7の発明によれば、本構成を有していない場合に比較して、画像処理の程度をより直感的に入力できる機能をコンピュータにより実現できる。
従来、画像処理は、パーソナルコンピュータ(PC)でマウスを駆使して行うのが一般的である。そして画質処理を行なうためのアプリケーションソフトウェアとして、簡易的に行うフリーソフトから、スキルのあるユーザが使用するアドビシステムズ株式会社のPhotoshopに代表されるレタッチソフトまで幅広く存在する。
一方、近年では、タブレット端末等に代表されるICT(Information and Communication Technology)機器の利用が急速に増えており、タッチやタップ等、直接人が触れることで直観性の高い操作が可能となっている。またICT機器でのカラーの画像の表示能力や色再現性も高くなり、画像処理も高度化してきている。
一方で、直観性を高めると、画像処理の自由度や操作性が犠牲になってしまうことが多い。例えば、輝度のみの調整であったり、色相、彩度のように2自由度を調整できても、他の画質調整(輝度調整や帯域の調整)などへの切り替えが困難であった。
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
[第1の実施の形態]
次に画像処理装置10の第1の実施の形態について説明を行なう。
図2は、本発明の第1の実施の形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
具体的には、ユーザ指示受付部102は、表示装置20で表示される画像上でユーザにより入力される操作の軌跡の位置情報を、ユーザ指示情報として受け付ける。
この軌跡は、入力装置30により入力することができる。具体的には、入力装置30がマウスであった場合は、マウスを操作して表示装置20で表示している画像をドラッグし軌跡を描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により表示画面21をなぞりスワイプすることで同様に軌跡を描く。
本実施の形態では、軌跡の大きさとして一方向の軌跡の長さを求める。
図3は、表示装置20の表示画面21に表示される画像の一例を示した図である。
ここで表示画面21に表示される画像は、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである。そして画像Gの下方に「タッチして縦方向に動かしてください」旨のメッセージが表示されている。なお表示画面21は、この場合タッチパネルであるとする。
このときユーザは、メッセージに従い、画像Gをスワイプすることで概ね縦方向(図中上下方向)となる軌跡を入力する。そしてユーザ指示受付部102が入力された軌跡の位置情報を取得し、そして算出部103は、この軌跡の表示画面21上における始点の位置と終点の位置から軌跡の長さを求める。
図4では、画像G上でユーザが軌跡Kを入力した場合を示している。そして画像Gの左上の頂部を原点Oとし、原点Oから右方向をX方向、下方向をY方向とする。そして算出部103は、軌跡Kの始点K0と終点K1の座標を軌跡の位置情報から求める。ここでは、始点K0の座標を(X0、Y0)とし、終点K1の座標を(X1、Y1)とする。そしてX方向の移動量|X0−X1|とY方向の移動量|Y0−Y1|を基に、下記数1式の条件を満たしているか否かを算出部103が判定する。なお説明の便宜上表示画面21上に軌跡Kを図示しているが、実際に軌跡Kを表示画面21に表示させる必要は必ずしもない。また、表示画面21で指等を最初に置く位置はどこでもよい(必ずしも決まって無くてよい)。これにより、指等を置く位置が決まっているスライダのように、ストレスを感じることが少ないため、利便性がより向上する。
例えば、画像処理パラメータをαとし、このαの増減をΔαとすると、軌跡の長さとΔαとを下記数2式の関係により対応付けることができる。
また|Y0−Y1|が大きくなるほど、Δαの大きさが大きくなる。つまり、軌跡の大きさにより画像処理を行なう程度が変更される。またこのとき軌跡を上方向に入力(画像Gを下から上へスワイプ)したときは、Δαは、正の数となり、αは増加する。一方、軌跡を下方向に入力(画像Gを上から下へスワイプ)したときは、Δαは、負の数となり、αは減少する。
ここでは例えば、画像の質感を制御する画像処理を行なう。またここでは画像の質感を制御する画像処理として視認性を制御する画像処理について説明を行なう。なお視認性を向上させるとは、視認対象が良く見えることを意味し、これを実現するための画像処理の代表例としてRetinexの原理を挙げることができる。画像処理として、単純にトーンカーブを調整する方法では、画像全体の輝度が向上するたけであるが、Retinexの原理では、画素とその周囲に応じた輝度変更を行うことができる。
画素値I(x、y)を数5式のように2つの成分に分解することは、一般に不良設定問題として知られている。そのためRetinex原理に基づく視認性再現では、何かしらの方法で照明成分L(x、y)を推定することが前提となる。そのために多く用いられる方法は、原画像に対し、ぼかしパラメータを複数用意して、低周波フィルタをかけたフィルタリング画像を生成して合成したものを照明成分L(x、y)とすることが多い。
図5(a)の画像Gは、原画像であり、視認性を調整する前の画像である。
また図5(b)は、画像G上でユーザが上方向に1回スワイプを行ない、縦方向の軌跡を入力したときを示している。このとき反射率強調パラメータαは、予め定められた分だけ増加し、視認性が向上する。
さらに図5(c)は、画像G上でユーザが上方向にさらにもう1回スワイプを行ない、縦方向の軌跡を入力したときを示している。このとき反射率強調パラメータαは、さらに予め定められた分だけ増加し、視認性がさらに向上する。
人が面について知覚する代表的な例として、光沢感やマット(つや消し)感などがある。
この光沢感やマット感は、輝度ヒストグラムの歪度を算出することで定量化することができる。即ち、この輝度ヒストグラムの歪度を、画像処理パラメータαとして扱うことができる。
図6(a)は、表示画面21に表示されている物体を示し、図6(b)は、この物体の輝度ヒストグラムを示す。図6(b)で横軸は、輝度を表し、縦軸は、画素数を表す。この場合の輝度ヒストグラムは、一般的な形状である。
さらに図7(c)は、図6(a)の画像に対し物体のマット感を増加させた画像を示している。また図7(d)は、このときの輝度ヒストグラムを示している。
図7(b)、図6(b)、図7(d)の輝度ヒストグラムを比較すると、形状が異なることがわかる。
ここでは図示するようにユーザは、画像G上で横方向の軌跡を入力する。そして軌跡を右方向に入力(例えば、画像Gを左から右へスワイプ)したときは、画像処理パラメータα2を増加させ、物体のマット感を増す処理が行なわれる。また軌跡を左方向に入力(例えば、画像Gを右から左へスワイプ)したときは、画像処理パラメータα1を増加させ、物体の光沢感を増す処理が行なわれる。
以下、図2および図9を使用して画像処理装置10の動作について説明を行う。
次に算出部103が、例えば、図4で説明した方法で、軌跡の位置情報から軌跡の長さを求める(ステップ103)。
さらに画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ105)。
次に画像処理装置10の第2の実施の形態について説明を行なう。
図10は、本発明の第2の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、入力方向判定部107と、画像処理項目切替部108と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図10で示した第2の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、入力方向判定部107と画像処理項目切替部108をさらに備える点で異なる。
具体的には、軌跡のX方向の移動量|X0−X1|と、Y方向の移動量|Y0−Y1|の大きさを比較する。そして何れが大きいかで軌跡がX方向に入力されたか、Y方向に入力されたかの判定を行う。
上述した第1の実施の形態では、軌跡の一方向のみの入力に対し対応していたが、本実施の形態では、軌跡の二方向の入力に対応し、入力の方向により画像処理の項目の切り替えが行なわれる。
図12(a)〜(b)では、画像Gに対する画像処理として色度の調整を行う場合を示している。このうち図12(a)では、横方向に軌跡が入力された場合は、色相が調整されることを表している。つまり画像処理パラメータαとして色相(H)が適用されている。また図12(b)では、縦方向に軌跡が入力された場合は、彩度が調整されることを表している。つまり画像処理パラメータβとして彩度(S)が適用されている。
例えば、画像全体のH(色相)やS(彩度)の平均値を考え、平均値周辺の画素値を有する画素については変化量を大きくし、平均値から離れた画素値を有する画素については変化量を小さく(または変化しないように)してもよい。この場合、画像によっては、一律にH(色相)やS(彩度)の調整を行うよりも自然な色調となる場合がある。
このうち図13(a)は、関数fH(H)を示している。ここで横軸は、調整前の画素値Hを表し、縦軸は、調整後の画素値H’を表す。
図13(a)の関数では、調整前の画素値が平均値H0の場合に、Hの変化量が最も大きくなる。そして関数fH(H)は、平均値H0と色調整後の画素値H0+ΔdHで表される座標(H0、H0+ΔdH)とHやHhの最大値Hmaxで表される座標(Hmax、Hmax)とを結ぶ線、および座標(H0、H0+ΔdH)と原点(0、0)を結ぶ線で定義される。
図13(b)の関数では、調整前の画素値が平均値S0の場合に、Sの変化量が最も大きくなる。そして関数fS(S)は、平均値S0と色調整後の画素値S0+ΔdSで表される座標(S0、S0+ΔdS)とSやShの最大値Smaxで表される座標(Smax、Smax)とを結ぶ線、および座標(S0、S0+ΔdS)と原点(0、0)を結ぶ線で定義される。
図14は、複数回縦方向の軌跡を入力したときに関数fH(H)が更新される様子を示した図である。
ここで1回縦方向の軌跡を入力したときは、平均値H0の箇所で、Hの変化量はΔdHとなり、色調整後の画素値はH0+ΔdHとなる。そして関数fH(H)は、図13(a)と同様の関数となる。なお図14では、この関数をfH(H)(1)として図示している。さらにもう1回縦方向の軌跡を入力したときは、平均値H0の箇所で、さらにHがΔdH変化し、色調整後の画素値H0+2ΔdHとなる。これに従い、関数fH(H)は、fH(H)(2)で図示するものに更新される。そしてさらにもう1回縦方向の軌跡を入力したときは、平均値H0の箇所で、さらにHがΔdH変化し、色調整後の画素値H0+3ΔdHとなる。これに従い、関数fH(H)は、fH(H)(3)で図示するものに更新される。なおこの際、最大限更新できる上限であるリミットを設け、関数fH(H)をこのリミットを越えて更新されないようにすることが好ましい。
また上述した例では、画像情報取得部101で取得したRGBデータをHSVデータに変換して画像処理を行うことが好ましい。ただしこれに限られるものではなく、L*a*b*データやYCbCrデータに変換して行ってもよく、RGBデータのままで行ってもよい。
この場合、V−VB(αB)は、アンシャープ成分を表す。またVBは、平滑化画像を表し、αBが小さい場合は、ぼかし度合いが小さい画像となり、αBが大きい場合は、ぼかし度合いが大きい画像となる。そのためαBが小さい場合は、アンシャープ成分V−VB(αB)は、より高周波となるので、数12式はより高周波強調の式となり細かい輪郭(ディテール)がくっきり再現される。対してαBが大きい場合は、アンシャープ成分V−VB(αB)は、より低周波となるので、数12式はより低周波強調の式となり、おおまかな輪郭(形状)が強調される。またαgは、強調度合い(ゲイン)であるため、αgが小さい場合は、強調の度合いが小さく、αgが大きい場合は、強調の度合いが大きくなる。
そしてユーザが、横方向の軌跡を入力させたときは、ぼかし帯域を表すパラメータαBの調整が行なわれる。即ち、ユーザが、右方向に軌跡を入力したときは、ぼかし帯域を表すパラメータαBを高周波方向にする。またユーザが、左方向に軌跡を入力したときは、ぼかし帯域を表すパラメータαBを低周波方向にする。
またユーザが、縦方向の軌跡を入力させたときは、強調の度合いを表すパラメータαgの調整が行なわれる。即ち、ユーザが、上方向に軌跡を入力したときは、強調の度合いを表すパラメータαgを増加させる。またユーザが、下方向に軌跡を入力したときは、強調の度合いを表すパラメータαgを減少させる。
図示するようにぼかし帯域を表すパラメータαBの調整を行い、ぼかし帯域αBを高周波方向にしたとき(図中右方向)は、画像Gがよりシャープな画質となり、ぼかし帯域を表すパラメータαBを低周波方向にしたとき(図中左方向)は、画像Gがよりアンシャープな画質となる。
以下、図10および図17を使用して画像処理装置10の動作について説明を行う。
次に算出部103が、軌跡の位置情報から軌跡の長さを求める(ステップ203)。
さらに画像処理項目切替部108は、軌跡の入力方向に応じて画像処理部105で行なう画像処理の項目の切り替えを行なう(ステップ205)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ207)。
次に画像処理装置10の第3の実施の形態について説明を行なう。
図18は、本発明の第3の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、形状判定部109と、画像処理項目切替部108と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図18で示した第3の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、形状判定部109と画像処理項目切替部108をさらに備える点で異なる。
上述した第1の実施の形態および第2の実施の形態では、直線状の軌跡を入力していたが、本実施の形態では、軌跡として予め定められた図形や文字を入力する。図19に図示した例では、ユーザは、図形として円形である「○」の図形を入力している。
図20は、軌跡Kのサイズを求める方法の一例を説明した図である。
図示するように「○」の図形である軌跡Kに外接する矩形Qを考え、この矩形Qを基に、軌跡のサイズを求める。
具体的には、例えば、矩形Qの長辺の長さを軌跡Kのサイズとすることができる。また矩形Qの長辺の長さと短辺の長さの平均を軌跡Kのサイズとしてもよい。この軌跡Kのサイズは、算出部103が算出する。
つまり形状判定部109は、軌跡Kの形状を判定し、そしてその形状から画像処理部105で行う画像処理の項目のうちの何れかに対応するかを判定する。
図21(a)〜(b)は、軌跡Kの形状の判定を行う方法について説明した図である。
図21(a)は、軌跡Kとして「H」の文字が入力され、そして軌跡Kに外接する矩形Qについて示している。そして図21(b)で図示するように、矩形Qを内部の軌跡Kとともに正方形に正規化する。そして正規化した後の図形や文字について予め用意されたテンプレートとなる図形や文字等とのマッチングを行い、その近さで、軌跡Kの形状の判定を行う。
そしてパラメータ更新部104は、切り替えられた画像処理の項目に関する画像処理パラメータを更新する。この際に画像処理パラメータは、軌跡Kのサイズに応じてその更新の度合いが変化する。即ち、軌跡Kのサイズが大きいほど、画像処理パラメータはより大きく変更される。
図22(a)では、入力される軌跡Kについて示している。このときより小さいサイズの「○」の図形である軌跡Kaを入力したときは、輝度のガンマ補正が、図22(c)に示すようになされ、これに応じた図22(b)の画像が表示される。
またこのときより大きいサイズの「○」の図形である軌跡Kbを入力したときは、輝度のガンマ補正が、図22(e)に示すようになされ、これに応じた図22(d)の画像が表示される。
以下、図18および図23を使用して画像処理装置10の動作について説明を行う。
次に算出部103が、図20で説明したように、軌跡の位置情報から軌跡に外接する矩形を求め、この矩形を基に軌跡のサイズを求める(ステップ303)。
そして画像処理項目切替部108が、軌跡の形状に応じて画像処理の項目の切り替えを行なう(ステップ305)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ307)。
次に画像処理装置10の第4の実施の形態について説明を行なう。
図24は、本発明の第4の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、画像処理項目切替部108と、入力方向判定部107と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図24で示した第4の実施の形態の画像処理装置10は、図10で示した第2の実施の形態の画像処理装置10に対し、入力方向判定部107と画像処理項目切替部108とが逆になっている点で異なる。
図25(a)〜(b)では、調整を行なう項目を切り替えるのに、タップ動作で切り替える場合を示している。つまり入力装置30がタッチパネルであった場合に表示画面21の何れかの箇所をタップすると、調整を行なう項目が、図25(a)で図示した「彩度」および「色相」と、図25(b)で図示した「明度」および「色相」との間で交互に切り替えられる。ここでは、図25(a)で示した画面をタップした結果、図25(b)の画面に切り替わった場合を示している。
以下、図24および図26を使用して画像処理装置10の動作について説明を行う。
そして画像処理項目切替部108が、ユーザが表示画面21上で行なうタップ動作またはクリック動作の回数に応じて画像処理の項目の切り替えを行なう(ステップ403)。
そして算出部103が、軌跡の位置情報から軌跡の長さを求める(ステップ405)。
そして入力方向判定部107が、軌跡の入力方向を判定する(ステップ406)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ408)。
次に画像処理装置10の第5の実施の形態について説明を行なう。
図27は、本発明の第5の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、領域検出部110と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図27で示した第5の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、領域検出部110をさらに備える点で異なる。
実際には、領域検出部103は、表示装置20で表示している画像の中から、指定領域を切り出す処理を行う。
上述した第1の実施の形態〜第4の実施の形態は、例えば、画像全体で調整を行う場合、または、画像を調整する場合でも背景が複雑ではない場合などに適する。対して、本実施形態では、複雑な背景を伴った場合に、特定の指定領域を切り出し、切り出した指定領域に対し画像処理を行いたい場合に有効である。
図28は、指定領域をユーザインタラクティブに行う方法の例を示した図である。
ここでは、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、人物の顔の部分を指定領域として切り出す場合を示している。
この原理は、図29−1に示すように前景の仮想ノードを始点、背景の仮想ノードを終点として設定し、前景の仮想ノードからユーザが指定した前景領域の代表位置をリンクし、ユーザが指定した背景領域の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。前景から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と背景とを分離することになる(グラフカット)。
図29−2(a)〜(e)は、2つのシードが与えられた場合に、画像を2つの領域にわける具体例である。
ここでは図29−2(a)の原画像に対し、図29−2(b)で示すように、シードとしてシード1とシード2の2つを与える。そして各々のシードを基点に領域を拡張していく。この場合、例えば、原画像における近傍画素の値との近さ等に応じて領域を拡張していくことができる。このとき図29−2(c)に示すように領域同士のせめぎ合いがある場合は、再判定の対象画素となり、再判定の対象画素の画素値と近傍の関係でどちらの領域に属するかを決めればよい。このとき、下記文献に記載されている方法を使うことができる。
以上挙げた例は、領域カットに関する例であり、領域拡張やグラフなどの原理を利用した領域の切り出し方法の具体例を示した。ただし本実施の形態では、この領域カットの方法は問わず、いかなるものでも適用可能である。
図30(a)は、指定領域を切り出す前の原画像である画像Gであり、図30(b)は、指定領域として人物の顔の部分を切り出した場合を示している。また図30(c)は、指定領域中の画素にフラグ「1」を付与し、指定領域外の画素にフラグ「0」を付与すると、このフラグの分布は、図30(c)のようになる。ここで白色の部分は、フラグが1であり、指定領域であることを示す。また黒色の部分は、フラグが0であり、指定領域外であることを示す。図30(c)は、指定領域と指定領域外とを切り分けるマスクと見ることもできる。
この場合、ユーザは、図32−1(a)に示すように、図28で説明した通りに画像G中の顔の部分、および顔以外の部分のそれぞれに対し代表となる軌跡をそれぞれ与える。
この状態でユーザが、例えば、横方向にスワイプ動作を行うと、例えば、色相(H)の調整が行われる。なおこの場合、ラジオボタン213aとラジオボタン213bにより顔の部分と顔以外の部分とで指定領域の切替えができるようになっている。そして「前景」に対応するラジオボタン213aを選択した場合は、顔の部分が指定領域となり、「背景」に対応するラジオボタン213bを選択した場合は、顔以外の部分が指定領域となる。
この場合、ユーザは、図32−2(a)において、図32−1(a)と同様に画像G中の顔の部分、および顔以外の部分のそれぞれに対し代表となる軌跡をそれぞれ与える。
後はユーザが、スワイプ動作を行なうことで、図32−1(c)の場合と同様に、指定領域に対して、例えば色相(H)の調整を行なうことができる。またラジオボタン213aとラジオボタン213bにより顔の部分と顔以外の部分とで指定領域の切替えができる。
以下、図27および図33を使用して画像処理装置10の動作について説明を行う。
そして領域検出部110が、この軌跡の位置情報を基に指定領域の切り出しを行う(ステップ503)。
そして算出部103が、例えば、図4で説明した方法で、軌跡の位置情報から軌跡の長さを求める(ステップ505)。
さらに画像処理部105が、更新された画像処理パラメータに基づき、画像中の指定領域に対し画像処理を行なう(ステップ507)。
また第2の実施の形態による画像処理装置10では、これに加え、軌跡の入力方向により画像処理の項目の切り替えを行なうことができる。そしてユーザは、画像処理の項目の切り替えを、より直感的に、またより操作性よく行なうことができる。
さらに第3の実施の形態による画像処理装置10では、ユーザが覚えやすい図形や文字等を使用して画像処理の項目の切り替えを行なうことができる。また図形や文字の大きさにより画像処理の程度を制御することができる。そしてユーザは、より直感的に、またより操作性よく画像処理を行なうことができる。
またさらに第4の実施の形態による画像処理装置10では、タップ等により画像処理の項目の切り替えを行なうことができる。そしてユーザは、画像処理の項目の切り替えを、より直感的に、またより操作性よく行なうことができる。
またさらに第5の実施の形態による画像処理装置10では、指定領域の切り出しをより容易に行なうことができる。そしてユーザは、画像処理を行ないたい領域を選択して画像処理を行なうことができる。
次に、画像処理装置10のハードウェア構成について説明する。
図34は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
Claims (7)
- 画像処理を行なう画像上でユーザにより操作される軌跡の位置情報を取得する取得部と、
前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、
前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、
前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、
前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理装置。 - 前記軌跡の形状を判定する形状判定部をさらに備え、
前記項目切替部は、前記軌跡の形状に応じて画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置。 - 前記項目切替部は、前記画像上でユーザが行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置。
- 前記画像の中からユーザが画像処理を行なう画像領域として指定する指定領域を検出するために、当該指定領域内の代表位置を表す代表位置情報を取得する位置情報取得部と、
前記代表位置情報から前記指定領域を検出する領域検出部と、
をさらに備え、
前記指定領域に対し画像処理を行なうことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 - 画像処理を行なう画像上でユーザにより操作される軌跡の位置情報を取得し、
前記軌跡の位置情報から当該軌跡の大きさを求め、
前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定し、
判定された入力方向に応じて決められ、画像処理の項目の切り替えを行ない、
前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なうことを特徴とする画像処理方法。 - 画像を表示する表示装置と、
前記表示装置に表示される画像の画像情報に対し画像処理を行なう画像処理装置と、
ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
を備え、
前記画像処理装置は、
前記画像上でユーザにより操作される軌跡の位置情報を取得する取得部と、
前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、
前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、
前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、
前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理システム。 - 画像処理を行なう画像上でユーザにより操作される軌跡の位置情報を取得する機能と、
前記軌跡の位置情報から当該軌跡の大きさを求める機能と、
前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する機能と、
判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう機能と、
前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう機能と、
を実現させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014039868A JP5907196B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US14/467,176 US20150248221A1 (en) | 2014-02-28 | 2014-08-25 | Image processing device, image processing method, image processing system, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014039868A JP5907196B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015165346A JP2015165346A (ja) | 2015-09-17 |
JP2015165346A5 JP2015165346A5 (ja) | 2015-12-10 |
JP5907196B2 true JP5907196B2 (ja) | 2016-04-26 |
Family
ID=54006778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014039868A Active JP5907196B2 (ja) | 2014-02-28 | 2014-02-28 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150248221A1 (ja) |
JP (1) | JP5907196B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3300016B1 (en) * | 2015-05-22 | 2021-06-30 | Sony Corporation | Device and method for processing image |
US10477036B2 (en) * | 2016-04-14 | 2019-11-12 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP6793325B2 (ja) * | 2016-05-25 | 2020-12-02 | パナソニックIpマネジメント株式会社 | 肌診断装置および肌診断方法 |
WO2017208619A1 (ja) * | 2016-05-31 | 2017-12-07 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11138699B2 (en) | 2019-06-13 | 2021-10-05 | Adobe Inc. | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images |
CN110336917B (zh) * | 2019-06-21 | 2021-02-26 | 惠州Tcl移动通信有限公司 | 一种图片展示方法、装置、存储介质及终端 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3834740B2 (ja) * | 1996-03-29 | 2006-10-18 | 株式会社ワコム | 図形編集装置および図形編集方法 |
JP2002329212A (ja) * | 2001-05-02 | 2002-11-15 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2004213521A (ja) * | 2003-01-08 | 2004-07-29 | Canon Inc | ペン入力情報処理方法 |
JP2006106976A (ja) * | 2004-10-01 | 2006-04-20 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
US7954067B2 (en) * | 2007-03-16 | 2011-05-31 | Apple Inc. | Parameter setting superimposed upon an image |
JP2010146378A (ja) * | 2008-12-19 | 2010-07-01 | Olympus Imaging Corp | 色補正装置、カメラ、色補正方法および色補正用プログラム |
US20110035700A1 (en) * | 2009-08-05 | 2011-02-10 | Brian Meaney | Multi-Operation User Interface Tool |
US8780134B2 (en) * | 2009-09-30 | 2014-07-15 | Nokia Corporation | Access to control of multiple editing effects |
US8885856B2 (en) * | 2011-12-28 | 2014-11-11 | Starkey Laboratories, Inc. | Hearing aid with integrated flexible display and touch sensor |
GB2513499B (en) * | 2012-03-06 | 2019-07-24 | Apple Inc | Color adjustors for color segments |
-
2014
- 2014-02-28 JP JP2014039868A patent/JP5907196B2/ja active Active
- 2014-08-25 US US14/467,176 patent/US20150248221A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2015165346A (ja) | 2015-09-17 |
US20150248221A1 (en) | 2015-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
WO2020108082A1 (zh) | 视频处理方法、装置、电子设备和计算机可读介质 | |
US9244607B2 (en) | System and method for image processing using multi-touch gestures | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5880767B2 (ja) | 領域判定装置、領域判定方法およびプログラム | |
WO2020082275A1 (zh) | 终端设备的绘制内容处理方法、装置及终端设备 | |
CN107291346B (zh) | 终端设备的绘制内容处理方法、装置及终端设备 | |
US8406566B1 (en) | Methods and apparatus for soft edge masking | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5981175B2 (ja) | 図面表示装置、及び図面表示プログラム | |
US9659228B2 (en) | Image processing apparatus, image processing system, non-transitory computer readable medium, and image processing method | |
JP2017126304A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6269323B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
CN109766530B (zh) | 图表边框的生成方法、装置、存储介质和电子设备 | |
US10366515B2 (en) | Image processing apparatus, image processing system, and non-transitory computer readable medium | |
TW201337644A (zh) | 資訊處理裝置、資訊處理方法、及記錄媒體 | |
US20210072884A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2018097415A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
CN110264393B (zh) | 一种信息处理方法、终端和存储介质 | |
JP2010146026A (ja) | 表示制御装置 | |
JP2016004309A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
CN114546576A (zh) | 显示方法、显示装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151021 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20151021 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20151104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5907196 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |