JP5907196B2 - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents

画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDF

Info

Publication number
JP5907196B2
JP5907196B2 JP2014039868A JP2014039868A JP5907196B2 JP 5907196 B2 JP5907196 B2 JP 5907196B2 JP 2014039868 A JP2014039868 A JP 2014039868A JP 2014039868 A JP2014039868 A JP 2014039868A JP 5907196 B2 JP5907196 B2 JP 5907196B2
Authority
JP
Japan
Prior art keywords
image processing
image
locus
trajectory
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014039868A
Other languages
English (en)
Other versions
JP2015165346A (ja
JP2015165346A5 (ja
Inventor
佐々木 信
信 佐々木
翔太 鳴海
翔太 鳴海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2014039868A priority Critical patent/JP5907196B2/ja
Priority to US14/467,176 priority patent/US20150248221A1/en
Publication of JP2015165346A publication Critical patent/JP2015165346A/ja
Publication of JP2015165346A5 publication Critical patent/JP2015165346A5/ja
Application granted granted Critical
Publication of JP5907196B2 publication Critical patent/JP5907196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理方法、画像処理システム、プログラムに関する。
特許文献1には、画像表示装置にタッチパッドを備え、タッチパッドと、画像を表示する領域とを対応させ、タッチパッドで検出した位置から画像を2次元並列状に区分してなる1以上の領域を特定し、特定した1以上の領域に表示される画像の輝度を変更する。また、画像表示装置は、タッチパッドでユーザがなぞった位置、2回のなぞり、速度などに応じて特定される領域を変化させる画像表示装置が開示されている。
また特許文献2には、撮影画像中で特定被写体が指定されたら、色分布マップから特定被写体の検出された色が属する部分の近傍範囲を部分的に抽出した色相分布範囲、彩度分布範囲を示す色相インジケータと彩度インジケータとを特定被写体の近傍に直交配置させて表示させることで、2次元の操作空間を形成し、この操作空間内で指を移動する入力操作で色補正値を設定できるようにした色補正装置が開示されている。
特開2008−250804号公報 特開2010−146378号公報
ユーザが画像処理を行なう際に、画像処理の程度をより直感的に入力できることが望ましい。
請求項1に記載の発明は、画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得する取得部と、前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理装置である。
請求項2に記載の発明は、前記軌跡の形状を判定する形状判定部をさらに備え前記項目切替部は、前記軌跡の形状に応じて画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置である。
請求項に記載の発明は、前記項目切替部は、前記画像上でユーザが行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置である。
請求項に記載の発明は、前記画像の中からユーザが画像処理を行なう画像領域として指定する指定領域を検出するために、当該指定領域内の代表位置を表す代表位置情報を取得する位置情報取得部と、前記代表位置情報から前記指定領域を検出する領域検出部と、をさらに備え、前記指定領域に対し画像処理を行なうことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置である。
請求項に記載の発明は、画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得し、前記軌跡の位置情報から当該軌跡の大きさを求め、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定し、判定された入力方向に応じて決められ、画像処理の項目の切り替えを行ない、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なうことを特徴とする画像処理方法である。
請求項に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像でユーザにより操作される軌跡の位置情報を取得する取得部と、前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理システムである。
請求項に記載の発明は、画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得する機能と、前記軌跡の位置情報から当該軌跡の大きさを求める機能と、前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する機能と、判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう機能と、前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう機能と、を実現させるプログラムである。
請求項1の発明によれば、本構成を有していない場合に比較して、画像処理の程度をより直感的に入力できる画像処理装置が提供できる。また本構成を有していない場合に比較して、複数の画像処理の項目についてより容易に画像処理を行なうことができる。
請求項2の発明によれば、本構成を有していない場合に比較して、軌跡の形状を基に複数の画像処理の項目をより直感的に切り替えることができる画像処理装置が提供できる。
請求項の発明によれば、本構成を有していない場合に比較して、ユーザが画像処理の項目を切り替えるのがより容易になる。
請求項の発明によれば、ユーザが画像処理を行なう領域を選択することができる。
請求項の発明によれば、本構成を有していない場合に比較して、画像処理の程度をより直感的に入力できる画像処理方法が提供できる。
請求項の発明によれば、本構成を有していない場合に比較して、画像処理をより容易に行なうことができる画像処理システムが提供できる。
請求項の発明によれば、本構成を有していない場合に比較して、画像処理の程度をより直感的に入力できる機能をコンピュータにより実現できる。
本実施の形態における画像処理システムの構成例を示す図である。 本発明の第1の実施の形態における画像処理装置の機能構成例を表すブロック図である。 表示装置の表示画面に表示される画像の一例を示した図である。 表示画面上において入力された軌跡について説明した図である。 (a)〜(c)は、画像処理として視認性を調整した場合の画像の変化を示した図である。 (a)は、表示画面に表示されている物体を示し、(b)は、この物体の輝度ヒストグラムを示す。 (a)は、図6(a)の画像に対し物体の光沢感を増加させた画像を示している。(b)は、このときの輝度ヒストグラムを示している。(c)は、図6(a)の画像に対し物体のマット感を増加させた画像を示している。(d)は、このときの輝度ヒストグラムを示している。 画像処理として知覚制御を調整する場合を示した図である。 第1の実施の形態についての画像処理装置の動作について説明したフローチャートである。 本発明の第2の実施の形態における画像処理装置の機能構成例を表すブロック図である。 (a)〜(b)は、軌跡の入力方向と画像処理パラメータとの関係を示した図である。 (a)〜(b)は、画像処理パラメータの適用例を示した図である。 関数f(H)、f(S)を示した図である。 複数回縦方向の軌跡を入力したときに関数f(H)が更新される様子を示した図である。 空間周波数の調整を行なうときに表示画面に表示される画像の例を示した図である。 図15による操作の結果、画像処理が行なわれた後の画像について説明した図である。 第2の実施の形態についての画像処理装置の動作について説明したフローチャートである。 本発明の第3の実施の形態における画像処理装置の機能構成例を表すブロック図である。 本実施の形態でユーザが入力する軌跡の一例を示した図である。 軌跡のサイズを求める方法の一例を説明した図である。 (a)〜(b)は、軌跡の形状の判定を行う方法について説明した図である。 (a)〜(e)は、軌跡のサイズにより画像処理の結果が異なる様子を示した図である。 第3の実施の形態についての画像処理装置の動作について説明したフローチャートである。 本発明の第4の実施の形態における画像処理装置の機能構成例を表すブロック図である。 (a)〜(b)は、画像処理の項目の切り替えを行なうときに表示画面で表示される画像の例を示した図である。 第4の実施の形態についての画像処理装置の動作について説明したフローチャートである。 本発明の第5の実施の形態における画像処理装置の機能構成例を表すブロック図である。 指定領域をユーザインタラクティブに行う方法の例を示した図である。 最大流量最小カットの原理を説明した図である。 (a)〜(e)は、2つのシードが与えられた場合に、画像を2つの領域にわける具体例である。 (a)〜(c)は、原画像から指定領域が切り出される様子を示した図である。 指定領域を切り出すマスクの一例を示した図である。 (a)〜(c)は、ユーザが指定領域を切り出す作業を行い、さらにその後、画像処理を行う作業を行う場合について説明した図である。 (a)〜(b)は、図32−1の切り出しボタンを設けない場合を示している。 第5の実施の形態についての画像処理装置の動作について説明したフローチャートである。 画像処理装置のハードウェア構成を示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<発明の背景>
従来、画像処理は、パーソナルコンピュータ(PC)でマウスを駆使して行うのが一般的である。そして画質処理を行なうためのアプリケーションソフトウェアとして、簡易的に行うフリーソフトから、スキルのあるユーザが使用するアドビシステムズ株式会社のPhotoshopに代表されるレタッチソフトまで幅広く存在する。
一方、近年では、タブレット端末等に代表されるICT(Information and Communication Technology)機器の利用が急速に増えており、タッチやタップ等、直接人が触れることで直観性の高い操作が可能となっている。またICT機器でのカラーの画像の表示能力や色再現性も高くなり、画像処理も高度化してきている。
以上のような背景の中、ユーザインタラクティブな直観操作を行う従来技術として、携帯電話機のような小型のICT機器で簡易に輝度調整を行なうため、表示された画像に対して、なぞった回数や速度に応じて、調整の度合いを制御するものがある。またカラーの画像の特定領域を指定するとともに、特定領域の外接矩形上にインジケータを表示し、インジケータを横方向に動かすことで色相を修正し、またインジケータを縦方向に動かすことで彩度を修正するものがある。
ここで特に、タッチパネルなどを搭載したICT機器で行なう画像処理では、画像処理を行なう際の直観性を高めることが課題となっている。
一方で、直観性を高めると、画像処理の自由度や操作性が犠牲になってしまうことが多い。例えば、輝度のみの調整であったり、色相、彩度のように2自由度を調整できても、他の画質調整(輝度調整や帯域の調整)などへの切り替えが困難であった。
以上の状況を踏まえ、本実施の形態では、以下のような画像処理システム1を用いて、上記の問題の抑制を図っている。
<画像処理システム全体の説明>
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
画像処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、画像処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、画像情報の作成等が行われるようになっている。
表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。
入力装置30は、キーボードやマウス等で構成される。入力装置30は、画像処理を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、画像処理を行なう際に、ユーザが画像処理装置10に対し画像処理を行なうための指示を入力するのに使用する。
画像処理装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
このような画像処理システム1において、表示装置20には、まず最初に画像処理を行なう前の画像である原画像が表示される。そしてユーザが入力装置30を使用して、画像処理装置10に対し画像処理を行なうための指示を入力すると、画像処理装置10により原画像の画像情報に対し画像処理がなされる。この画像処理の結果は、表示装置20に表示される画像に反映され、画像処理後の画像が再描画されて表示装置20に表示されることになる。この場合、ユーザは、表示装置20を見ながらインタラクティブに画像処理を行なうことができ、より直感的に、またより容易に画像処理の作業を進めることができる。
なお本実施の形態における画像処理システム1は、図1の形態に限られるものではない。例えば、画像処理システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、画像処理装置10により画像情報が作成され、この画像情報に基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで画像処理を行なうための指示を入力する。
<画像処理装置の説明>
[第1の実施の形態]
次に画像処理装置10の第1の実施の形態について説明を行なう。
図2は、本発明の第1の実施の形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
画像情報取得部101は、画像処理を行なう画像の画像情報を取得する。即ち、画像情報取得部101は、画像処理を行なう前の画像情報を取得する。この画像情報は、表示装置20で表示を行なうための、例えば、RGB(Red、Green、Blue)のビデオデータ(RGBデータ)である。
ユーザ指示受付部102は、軌跡情報取得部の一例であり、入力装置30により入力された画像処理に関するユーザによる指示を受け付ける。
具体的には、ユーザ指示受付部102は、表示装置20で表示される画像上でユーザにより入力される操作の軌跡の位置情報を、ユーザ指示情報として受け付ける。
この軌跡は、入力装置30により入力することができる。具体的には、入力装置30がマウスであった場合は、マウスを操作して表示装置20で表示している画像をドラッグし軌跡を描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により表示画面21をなぞりスワイプすることで同様に軌跡を描く。
算出部103は、軌跡の位置情報から軌跡の大きさを求める。
本実施の形態では、軌跡の大きさとして一方向の軌跡の長さを求める。
図3は、表示装置20の表示画面21に表示される画像の一例を示した図である。
ここで表示画面21に表示される画像は、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである。そして画像Gの下方に「タッチして縦方向に動かしてください」旨のメッセージが表示されている。なお表示画面21は、この場合タッチパネルであるとする。
このときユーザは、メッセージに従い、画像Gをスワイプすることで概ね縦方向(図中上下方向)となる軌跡を入力する。そしてユーザ指示受付部102が入力された軌跡の位置情報を取得し、そして算出部103は、この軌跡の表示画面21上における始点の位置と終点の位置から軌跡の長さを求める。
図4は、表示画面21上において入力された軌跡について説明した図である。
図4では、画像G上でユーザが軌跡Kを入力した場合を示している。そして画像Gの左上の頂部を原点Oとし、原点Oから右方向をX方向、下方向をY方向とする。そして算出部103は、軌跡Kの始点Kと終点Kの座標を軌跡の位置情報から求める。ここでは、始点Kの座標を(X、Y)とし、終点Kの座標を(X、Y)とする。そしてX方向の移動量|X−X|とY方向の移動量|Y−Y|を基に、下記数1式の条件を満たしているか否かを算出部103が判定する。なお説明の便宜上表示画面21上に軌跡Kを図示しているが、実際に軌跡Kを表示画面21に表示させる必要は必ずしもない。また、表示画面21で指等を最初に置く位置はどこでもよい(必ずしも決まって無くてよい)。これにより、指等を置く位置が決まっているスライダのように、ストレスを感じることが少ないため、利便性がより向上する。
Figure 0005907196
そして数1式の条件を満たしていた場合、算出部103は、軌跡が縦方向に入力されたと判定し、|Y−Y|を軌跡の長さとする。また数1式の条件を満たしていない場合、算出部103は、軌跡が横方向に入力されたと判定し、|Y−Y|が0以外の値として存在しても軌跡の長さを0とする。なお軌跡の実際の長さをそのまま軌跡の長さとして扱ってもよい。
パラメータ更新部104は、軌跡の長さを画像処理パラメータに反映させる。
例えば、画像処理パラメータをαとし、このαの増減をΔαとすると、軌跡の長さとΔαとを下記数2式の関係により対応付けることができる。
Figure 0005907196
ここでkは比例定数であり、kを小さく設定するほど画像処理パラメータαの更新の感度が抑制され、kを大きく設定するほど画像処理パラメータをαの更新の感度をよくすることができる。
また|Y−Y|が大きくなるほど、Δαの大きさが大きくなる。つまり、軌跡の大きさにより画像処理を行なう程度が変更される。またこのとき軌跡を上方向に入力(画像Gを下から上へスワイプ)したときは、Δαは、正の数となり、αは増加する。一方、軌跡を下方向に入力(画像Gを上から下へスワイプ)したときは、Δαは、負の数となり、αは減少する。
更新後の画像処理パラメータをα’とすると、画像処理パラメータα’は、下記数3式となる。
Figure 0005907196
通常GUI(Graphical User Interface)を利用したソフトウェアでは、マウス(または、タッチした指)の動きであるイベントを常時監視する仕組みを持っているため、瞬間瞬間のΔαの情報を得て、マウスや指が動くとリアルタイムに画像の質を変化させることができる。
また、一度、マウスや指をリリースして、再びタッチした場合は、数3式のαはα’となり、これまで説明した処理と、同様の処理を繰り返して以下の数4式で示すように再更新される。
Figure 0005907196
ここでΔα’は指をリリースした後に再タッチしたところから計算した数2式の量であり、α’はα”に再更新される。またさらにマウスや指をリリースして、再びタッチした場合は、同様にしてさらに再更新が行なわれる。
画像処理部105は、画像処理パラメータα’に基づき、画像に対し画像処理を行なう。画像処理の詳しい内容については後述する。
画像情報出力部106は、以上のように画像処理がなされた後の画像情報を出力する。画像処理がなされた後の画像情報は、表示装置20に送られる。そして表示装置20にてこの画像情報に基づき画像が表示される。
次に画像処理部105で行なう画像処理の内容について説明を行なう。
ここでは例えば、画像の質感を制御する画像処理を行なう。またここでは画像の質感を制御する画像処理として視認性を制御する画像処理について説明を行なう。なお視認性を向上させるとは、視認対象が良く見えることを意味し、これを実現するための画像処理の代表例としてRetinexの原理を挙げることができる。画像処理として、単純にトーンカーブを調整する方法では、画像全体の輝度が向上するたけであるが、Retinexの原理では、画素とその周囲に応じた輝度変更を行うことができる。
Retinexの原理では、画像の画素値はI(x、y)は、反射率成分と照明成分からなると考える。これは、以下の数5式で表すことができる。数5式で、I(x、y)は、(x、y)に位置する画素の反射率成分であり、L(x、y)は、(x、y)に位置する画素の照明成分である。
Figure 0005907196
人の視覚認知特性では、形状や面の知覚は、数5式で示される反射率成分が寄与する部分が大きいと考えられている。そこで反射率成分I(x、y)を強調することが、Retinex原理に基づく視認性制御の基本である。
画素値I(x、y)を数5式のように2つの成分に分解することは、一般に不良設定問題として知られている。そのためRetinex原理に基づく視認性再現では、何かしらの方法で照明成分L(x、y)を推定することが前提となる。そのために多く用いられる方法は、原画像に対し、ぼかしパラメータを複数用意して、低周波フィルタをかけたフィルタリング画像を生成して合成したものを照明成分L(x、y)とすることが多い。
また、Retinexの原理で視認性再現を行う場合に使用する画素値I(x、y)は、RGBのデータすべてを用いる場合もあれば、RGBデータをHSVデータに変換し、Vデータのみで行う場合もある。または、Lデータの中のLデータでもよいし、YCbCrデータの中のYデータを用いてもよい。また独自に輝度を定義して行ってもよい。
原画像の画素値I(x、y)から、視認性が向上させた画素値I’(x、y)への変換は、例えば、以下の数6式のように表すことができる。
Figure 0005907196
数6式でαは、反射率成分を強調する反射率強調パラメータであり、0≦α≦1の範囲を採る。α=0のときは、画素値I(x、y)をそのまま維持し、α=1のときは、反射率成分I(x、y)となる。
数6式の反射率強調パラメータαは、数3式の画像処理パラメータαとして扱うことができる。そしてこの反射率強調パラメータαを調整することで視認性を調整することができる。
図5(a)〜(c)は、画像処理として視認性を調整した場合の画像の変化を示した図である。
図5(a)の画像Gは、原画像であり、視認性を調整する前の画像である。
また図5(b)は、画像G上でユーザが上方向に1回スワイプを行ない、縦方向の軌跡を入力したときを示している。このとき反射率強調パラメータαは、予め定められた分だけ増加し、視認性が向上する。
さらに図5(c)は、画像G上でユーザが上方向にさらにもう1回スワイプを行ない、縦方向の軌跡を入力したときを示している。このとき反射率強調パラメータαは、さらに予め定められた分だけ増加し、視認性がさらに向上する。
このようにスワイプを行なった回数分、反射率強調パラメータαは、数3式に従い順次更新される。なお画像G上でユーザが下方向にスワイプを行なったときは、反射率強調パラメータαは、予め定められた分だけ減少し、視認性が抑制される。
なお上述した例では、0≦α≦1であったが、これに限られるものではなく、予め適切な画像処理が行える範囲としてより狭い範囲に設定してもよい。即ち、0〜1の範囲内でリミットを設けてもよい。
特にICT機器の場合、持ち運びが便利で使用する環境も異なる。環境が異なるとは、外のやや強い日差しの環境、室内の薄暗い場所、室内の明るい場所など周囲の明るさが異なることを表す。そしてこのような多様な環境下で、画像を表示する場合、本実施の形態に示す画像処理方法によれば、容易に視認性を調整することが可能となる。
次に質感を制御する画像処理として知覚制御を制御する画像処理について説明を行なう。
人が面について知覚する代表的な例として、光沢感やマット(つや消し)感などがある。
この光沢感やマット感は、輝度ヒストグラムの歪度を算出することで定量化することができる。即ち、この輝度ヒストグラムの歪度を、画像処理パラメータαとして扱うことができる。
以下、輝度ヒストグラムの歪度について説明を行なう。
図6(a)は、表示画面21に表示されている物体を示し、図6(b)は、この物体の輝度ヒストグラムを示す。図6(b)で横軸は、輝度を表し、縦軸は、画素数を表す。この場合の輝度ヒストグラムは、一般的な形状である。
図7(a)は、図6(a)の画像に対し物体の光沢感を増加させた画像を示している。また図7(b)は、このときの輝度ヒストグラムを示している。
さらに図7(c)は、図6(a)の画像に対し物体のマット感を増加させた画像を示している。また図7(d)は、このときの輝度ヒストグラムを示している。
図7(b)、図6(b)、図7(d)の輝度ヒストグラムを比較すると、形状が異なることがわかる。
そしてこの形状を表す歪度sは、以下の数7式で表すことができる。数7式で、I(x、y)は、位置(x、y)の画素の輝度を、mは物体の画像全体の平均輝度を、Nは物体の画像全体の画素数を表す。
Figure 0005907196
ここで光沢感の画像処理パラメータαをα、マット感の画像処理パラメータαをαとする。この場合数6式は、以下の数8式となる。数8式で、I(x、y)は、数7式の歪度sの値が光沢感を与える値になるときの画素値(この場合、輝度の値)であり、I(x、y)は、数7式のsの値がマット感を与える値になるときの画素値である。
Figure 0005907196
歪度sの値によって輝度ヒストグラムの形状が定まり、歪度sが大きいほど光沢感が感じられる画像となり、歪度sが小さいほどマット感が感じられる画像となる。そして原画像の輝度ヒストグラムを歪度sを使用して制御し、そしてその輝度ヒストグラムを有する画像からI(x、y)、I(x、y)を決定することができる。
図8は、画像処理として知覚制御を調整する場合を示した図である。
ここでは図示するようにユーザは、画像G上で横方向の軌跡を入力する。そして軌跡を右方向に入力(例えば、画像Gを左から右へスワイプ)したときは、画像処理パラメータαを増加させ、物体のマット感を増す処理が行なわれる。また軌跡を左方向に入力(例えば、画像Gを右から左へスワイプ)したときは、画像処理パラメータαを増加させ、物体の光沢感を増す処理が行なわれる。
図9は、第1の実施の形態についての画像処理装置10の動作について説明したフローチャートである。
以下、図2および図9を使用して画像処理装置10の動作について説明を行う。
まず画像情報取得部101が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ101)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、例えば、図3や図8で説明した方法で、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ102)。
次に算出部103が、例えば、図4で説明した方法で、軌跡の位置情報から軌跡の長さを求める(ステップ103)。
そしてパラメータ更新部104が、例えば、数3式を使用して、予め用意された画像処理の項目に関する画像処理パラメータを更新する(ステップ104)。
さらに画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ105)。
そして画像情報出力部106が、画像処理がなされた後の画像情報を出力する(ステップ106)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
[第2の実施の形態]
次に画像処理装置10の第2の実施の形態について説明を行なう。
図10は、本発明の第2の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、入力方向判定部107と、画像処理項目切替部108と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図10で示した第2の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、入力方向判定部107と画像処理項目切替部108をさらに備える点で異なる。
画像情報取得部101およびユーザ指示受付部102の機能については、第1の実施の形態と同様である。また画像情報出力部106についても同様であるので、以下、他の機能部について説明を行う。
算出部103は、軌跡のX方向の移動量|X−X|と、Y方向の移動量|Y−Y|の双方を次の入力方向判定部107に送る。
入力方向判定部107は、軌跡の入力方向を判定する。
具体的には、軌跡のX方向の移動量|X−X|と、Y方向の移動量|Y−Y|の大きさを比較する。そして何れが大きいかで軌跡がX方向に入力されたか、Y方向に入力されたかの判定を行う。
画像処理項目切替部108は、軌跡の入力方向に応じて画像処理部105で行なう画像処理の項目の切り替えを行なう。
上述した第1の実施の形態では、軌跡の一方向のみの入力に対し対応していたが、本実施の形態では、軌跡の二方向の入力に対応し、入力の方向により画像処理の項目の切り替えが行なわれる。
例えば、画像処理部105が、画像処理パラメータαと画像処理パラメータβの2つの画像処理パラメータについて画像処理を行うことができる場合、画像処理パラメータαと画像処理パラメータβとで軌跡の入力方向によりその何れかを使用して画像処理を行う。またパラメータ更新部104は、軌跡の長さを画像処理パラメータαと画像処理パラメータβの何れかについて更新を行う。
そして図11(a)に示すようにX方向(横方向)に軌跡が入力された場合、画像処理パラメータαを使用して画像処理を行う。また図11(b)に示すようにY方向(縦方向)に軌跡が入力された場合、画像処理パラメータβを使用して画像処理を行う。
図12(a)〜(b)は、画像処理パラメータの適用例を示した図である。
図12(a)〜(b)では、画像Gに対する画像処理として色度の調整を行う場合を示している。このうち図12(a)では、横方向に軌跡が入力された場合は、色相が調整されることを表している。つまり画像処理パラメータαとして色相(H)が適用されている。また図12(b)では、縦方向に軌跡が入力された場合は、彩度が調整されることを表している。つまり画像処理パラメータβとして彩度(S)が適用されている。
画像G中の画素の画素値をH(色相)、S(彩度)、V(輝度)のHSVデータで表した場合、調整前の画素値をH、S、V、調整後の画素値をH’、S’、V’とすると、HとH’、SとS’の関係は、下記数9式となる。
Figure 0005907196
、kは比例定数である。kは、横方向に入力される軌跡の長さに対するH(色相)の変化の反映度を表し、kは、縦方向に入力される軌跡の長さに対するS(彩度)の変化の反映度を表す。即ち、kやkを小さく設定するほどH(色相)やS(彩度)の変化の感度が抑制され、kやkを大きく設定するほどH(色相)やS(彩度)の変化の感度をよくすることができる。
数9式によれば、入力された軌跡の長さが、すべてH(色相)やS(彩度)の画素値の変化に反映されるが、これに限られるものではない。
例えば、画像全体のH(色相)やS(彩度)の平均値を考え、平均値周辺の画素値を有する画素については変化量を大きくし、平均値から離れた画素値を有する画素については変化量を小さく(または変化しないように)してもよい。この場合、画像によっては、一律にH(色相)やS(彩度)の調整を行うよりも自然な色調となる場合がある。
この場合、調整前の画素値をH、S、V、調整後の画素値をH’、S’、V’とすると、HとH’、SとS’の関係は、下記数10式となる。
Figure 0005907196
数10式で関数f(H)、f(S)は、図13(a)〜(b)に示す関数として定義することができる。
このうち図13(a)は、関数f(H)を示している。ここで横軸は、調整前の画素値Hを表し、縦軸は、調整後の画素値H’を表す。
図13(a)の関数では、調整前の画素値が平均値Hの場合に、Hの変化量が最も大きくなる。そして関数f(H)は、平均値Hと色調整後の画素値H+Δdで表される座標(H0、+Δd)とHやHの最大値Hmaxで表される座標(Hmax、Hmax)とを結ぶ線、および座標(H0、+Δd)と原点(0、0)を結ぶ線で定義される。
同様に図13(b)は、関数f(S)を示している。ここで横軸は、調整前の画素値Sを表し、縦軸は、調整後の画素値S’を表す。
図13(b)の関数では、調整前の画素値が平均値Sの場合に、Sの変化量が最も大きくなる。そして関数f(S)は、平均値Sと色調整後の画素値S+Δdで表される座標(S0、+Δd)とSやSの最大値Smaxで表される座標(Smax、Smax)とを結ぶ線、および座標(S0、+Δd)と原点(0、0)を結ぶ線で定義される。
またこのときHの変化量Δd、およびSの変化量Δdは、以下の数11式となる。
Figure 0005907196
また複数回同じ方向の軌跡を入力したときは、関数f(H)、f(S)は、順次更新される。
図14は、複数回縦方向の軌跡を入力したときに関数f(H)が更新される様子を示した図である。
ここで1回縦方向の軌跡を入力したときは、平均値Hの箇所で、Hの変化量はΔdとなり、色調整後の画素値はH+Δdとなる。そして関数f(H)は、図13(a)と同様の関数となる。なお図14では、この関数をf(H)(1)として図示している。さらにもう1回縦方向の軌跡を入力したときは、平均値Hの箇所で、さらにHがΔd変化し、色調整後の画素値H+2Δdとなる。これに従い、関数f(H)は、f(H)(2)で図示するものに更新される。そしてさらにもう1回縦方向の軌跡を入力したときは、平均値Hの箇所で、さらにHがΔd変化し、色調整後の画素値H+3Δdとなる。これに従い、関数f(H)は、f(H)(3)で図示するものに更新される。なおこの際、最大限更新できる上限であるリミットを設け、関数f(H)をこのリミットを越えて更新されないようにすることが好ましい。
なお上述した例では、軌跡の入力方向によりH(色相)とS(彩度)の調整を行ったが、これに限られるものではなく、例えば、H(色相)とV(輝度)の組み合わせでもよく、さらにS(彩度)とV(輝度)の組み合わせでもよい。さらに軌跡の入力の方向別に対応付ける画像処理パラメータは、これに限られるものではなく、他のものでもよい。
また上述した例では、画像情報取得部101で取得したRGBデータをHSVデータに変換して画像処理を行うことが好ましい。ただしこれに限られるものではなく、LデータやYCbCrデータに変換して行ってもよく、RGBデータのままで行ってもよい。
また画像処理パラメータとして画像の有する空間周波数に着目したパラメータを設定して、画像処理を行なうことも考えられる。
具体的には、各画素値の輝度Vを、以下の数12式を使用して調整する。数12式でαは、強調度合いを表すパラメータであり、αは、ぼかし帯域を表すパラメータである。
この場合、V−V(α)は、アンシャープ成分を表す。またVは、平滑化画像を表し、αが小さい場合は、ぼかし度合いが小さい画像となり、αが大きい場合は、ぼかし度合いが大きい画像となる。そのためαが小さい場合は、アンシャープ成分V−V(α)は、より高周波となるので、数12式はより高周波強調の式となり細かい輪郭(ディテール)がくっきり再現される。対してαが大きい場合は、アンシャープ成分V−V(α)は、より低周波となるので、数12式はより低周波強調の式となり、おおまかな輪郭(形状)が強調される。またαは、強調度合い(ゲイン)であるため、αが小さい場合は、強調の度合いが小さく、αが大きい場合は、強調の度合いが大きくなる。
Figure 0005907196
この場合、例えば、横方向に軌跡を入力した場合、ぼかし帯域を表すパラメータαを増減させるようにし、縦方向に軌跡を入力した場合、強調度合いを表すパラメータαを増減させるようにする。
またこのときαの変化量Δα、およびαの変化量Δαは、以下の数13式となる。
Figure 0005907196
、kは比例定数である。kは、横方向に入力される軌跡の長さに対するぼかし帯域を表すパラメータαの変化の反映度を表し、kは、縦方向に入力される軌跡の長さに対する強調度合いを表すパラメータαの変化の反映度を表す。
図15は、空間周波数の調整を行なうときに表示画面21に表示される画像Gの例を示した図である。
そしてユーザが、横方向の軌跡を入力させたときは、ぼかし帯域を表すパラメータαの調整が行なわれる。即ち、ユーザが、右方向に軌跡を入力したときは、ぼかし帯域を表すパラメータαを高周波方向にする。またユーザが、左方向に軌跡を入力したときは、ぼかし帯域を表すパラメータαを低周波方向にする。
またユーザが、縦方向の軌跡を入力させたときは、強調の度合いを表すパラメータαの調整が行なわれる。即ち、ユーザが、上方向に軌跡を入力したときは、強調の度合いを表すパラメータαを増加させる。またユーザが、下方向に軌跡を入力したときは、強調の度合いを表すパラメータαを減少させる。
図16は、図15による操作の結果、画像処理が行なわれた後の画像Gについて説明した図である。
図示するようにぼかし帯域を表すパラメータαの調整を行い、ぼかし帯域αを高周波方向にしたとき(図中右方向)は、画像Gがよりシャープな画質となり、ぼかし帯域を表すパラメータαを低周波方向にしたとき(図中左方向)は、画像Gがよりアンシャープな画質となる。
また強調の度合いを表すパラメータαの調整を行い、強調の度合いを表すパラメータαを増加させたとき(図中上方向)は、画像Gがより強調した画像として表示され、強調の度合いを表すパラメータαを減少させたとき(図中下方向)は、画像Gがよりめだたない画像として表示される。
なお画像をぼかす方法は、ガウシアンフィルタを使用する方法、移動平均を使用する方法、縮小して拡大する方法など様々な方法があるが、いかなるものを用いてもよい。例えば、ガウシアンフィルタを使用する方法であれば、ぼかし帯域を表すパラメータαは、ガウス関数の分散に対応付けることができる。また移動平均を使用する方法であれば、移動窓のサイズに対応付けることができ、縮小して拡大する方法であれば縮小率に対応付けることができる。
なおぼかし帯域を表すパラメータαや強調の度合いを表すパラメータαについて、最大限更新できる上限であるリミットを設け、このリミットを越えて更新されないようにすることが好ましい。
図17は、第2の実施の形態についての画像処理装置10の動作について説明したフローチャートである。
以下、図10および図17を使用して画像処理装置10の動作について説明を行う。
まず画像情報取得部101が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ201)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、例えば、図12で説明した方法で、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ202)。
次に算出部103が、軌跡の位置情報から軌跡の長さを求める(ステップ203)。
そして入力方向判定部107が、軌跡の入力方向を判定する(ステップ204)。
さらに画像処理項目切替部108は、軌跡の入力方向に応じて画像処理部105で行なう画像処理の項目の切り替えを行なう(ステップ205)。
次にパラメータ更新部104が、切り替えられた画像処理の項目に関する画像処理パラメータを更新する(ステップ206)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ207)。
次に画像情報出力部106が、画像処理がなされた後の画像情報を出力する(ステップ208)。この画像情報は、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
[第3の実施の形態]
次に画像処理装置10の第3の実施の形態について説明を行なう。
図18は、本発明の第3の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、算出部103と、形状判定部109と、画像処理項目切替部108と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図18で示した第3の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、形状判定部109と画像処理項目切替部108をさらに備える点で異なる。
画像情報取得部101およびユーザ指示受付部102の機能については、第1の実施の形態と同様である。また画像情報出力部106についても同様であるので、以下、他の機能部について説明を行う。
図19は、本実施の形態でユーザが入力する軌跡の一例を示した図である。
上述した第1の実施の形態および第2の実施の形態では、直線状の軌跡を入力していたが、本実施の形態では、軌跡として予め定められた図形や文字を入力する。図19に図示した例では、ユーザは、図形として円形である「○」の図形を入力している。
算出部103は、軌跡の大きさとして軌跡のサイズを求める。
図20は、軌跡Kのサイズを求める方法の一例を説明した図である。
図示するように「○」の図形である軌跡Kに外接する矩形Qを考え、この矩形Qを基に、軌跡のサイズを求める。
具体的には、例えば、矩形Qの長辺の長さを軌跡Kのサイズとすることができる。また矩形Qの長辺の長さと短辺の長さの平均を軌跡Kのサイズとしてもよい。この軌跡Kのサイズは、算出部103が算出する。
形状判定部109は、入力された軌跡の形状を判定する。
つまり形状判定部109は、軌跡Kの形状を判定し、そしてその形状から画像処理部105で行う画像処理の項目のうちの何れかに対応するかを判定する。
ここでは、軌跡Kの形状が円形である「○」の図形であった場合は、画像処理として輝度のガンマ補正を行うものとする。また軌跡Kの形状が、「H」の文字であった場合は、画像処理として色相の調整を行うものとし、軌跡Kの形状が、「S」の文字であった場合は、画像処理として彩度の調整を行うものとする。
軌跡Kの形状の判定は、例えば、以下のようにして行う。
図21(a)〜(b)は、軌跡Kの形状の判定を行う方法について説明した図である。
図21(a)は、軌跡Kとして「H」の文字が入力され、そして軌跡Kに外接する矩形Qについて示している。そして図21(b)で図示するように、矩形Qを内部の軌跡Kとともに正方形に正規化する。そして正規化した後の図形や文字について予め用意されたテンプレートとなる図形や文字等とのマッチングを行い、その近さで、軌跡Kの形状の判定を行う。
画像処理項目切替部108は、軌跡の形状に応じて画像処理部105で行なう画像処理の項目の切り替えを行なう。
そしてパラメータ更新部104は、切り替えられた画像処理の項目に関する画像処理パラメータを更新する。この際に画像処理パラメータは、軌跡Kのサイズに応じてその更新の度合いが変化する。即ち、軌跡Kのサイズが大きいほど、画像処理パラメータはより大きく変更される。
画像処理部105は、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう。
図22(a)〜(e)は、軌跡Kのサイズにより画像処理の結果が異なる様子を示した図である。
図22(a)では、入力される軌跡Kについて示している。このときより小さいサイズの「○」の図形である軌跡Kaを入力したときは、輝度のガンマ補正が、図22(c)に示すようになされ、これに応じた図22(b)の画像が表示される。
またこのときより大きいサイズの「○」の図形である軌跡Kbを入力したときは、輝度のガンマ補正が、図22(e)に示すようになされ、これに応じた図22(d)の画像が表示される。
図23は、第3の実施の形態についての画像処理装置10の動作について説明したフローチャートである。
以下、図18および図23を使用して画像処理装置10の動作について説明を行う。
まず画像情報取得部101が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ301)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、例えば、図19で説明した方法で、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ302)。
次に算出部103が、図20で説明したように、軌跡の位置情報から軌跡に外接する矩形を求め、この矩形を基に軌跡のサイズを求める(ステップ303)。
さらに形状判定部109が、軌跡の形状を判定する(ステップ304)。
そして画像処理項目切替部108が、軌跡の形状に応じて画像処理の項目の切り替えを行なう(ステップ305)。
次にパラメータ更新部104が、切り替えられた画像処理の項目に関する画像処理パラメータを更新する(ステップ306)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ307)。
次に画像情報出力部106が、画像処理がなされた後の画像情報を出力する(ステップ308)。この画像情報は、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
[第4の実施の形態]
次に画像処理装置10の第4の実施の形態について説明を行なう。
図24は、本発明の第4の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、画像処理項目切替部108と、入力方向判定部107と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図24で示した第4の実施の形態の画像処理装置10は、図10で示した第2の実施の形態の画像処理装置10に対し、入力方向判定部107と画像処理項目切替部108とが逆になっている点で異なる。
本実施の形態では、画像処理項目切替部108において、ユーザが表示画面21上で行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なう。このタップ動作やクリック動作は、ユーザ指示受付部102によりユーザ指示情報として取得され、このユーザ指示情報を基に画像処理項目切替部108が、画像処理の項目の切り替えを行なう。
例えば、画像処理パラメータがα、α、α、…、αのようにn個ある場合は、タップ動作やクリック動作に応じて、画像処理パラメータをα→α→α→…→α→αというように順に切り替えていけばよい。また画像処理パラメータがα、α、αの3個であった場合に、そのうち2個の組み合わせであるαα、αα、ααをαα→αα→αα→ααというように順に切り替えていってもよい。
図25(a)〜(b)は、画像処理の項目の切り替えを行なうときに表示画面21で表示される画像の例を示した図である。
図25(a)〜(b)では、調整を行なう項目を切り替えるのに、タップ動作で切り替える場合を示している。つまり入力装置30がタッチパネルであった場合に表示画面21の何れかの箇所をタップすると、調整を行なう項目が、図25(a)で図示した「彩度」および「色相」と、図25(b)で図示した「明度」および「色相」との間で交互に切り替えられる。ここでは、図25(a)で示した画面をタップした結果、図25(b)の画面に切り替わった場合を示している。
図26は、第4の実施の形態についての画像処理装置10の動作について説明したフローチャートである。
以下、図24および図26を使用して画像処理装置10の動作について説明を行う。
まず画像情報取得部101が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ401)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
次にユーザが表示画面21上で行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なう。このタップ動作またはクリック動作の情報は、ユーザ指示情報として、ユーザ指示受付部102が取得する(ステップ402)。
そして画像処理項目切替部108が、ユーザが表示画面21上で行なうタップ動作またはクリック動作の回数に応じて画像処理の項目の切り替えを行なう(ステップ403)。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ404)。
そして算出部103が、軌跡の位置情報から軌跡の長さを求める(ステップ405)。
そして入力方向判定部107が、軌跡の入力方向を判定する(ステップ406)。
さらにパラメータ更新部104が、切り替えられた画像処理の項目と軌跡の入力方向に対応する画像処理パラメータを更新する(ステップ407)。
そして画像処理部105が、更新された画像処理パラメータに基づき、画像に対し画像処理を行なう(ステップ408)。
次に画像情報出力部106が、画像処理がなされた後の画像情報を出力する(ステップ409)。この画像情報は、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
[第5の実施の形態]
次に画像処理装置10の第5の実施の形態について説明を行なう。
図27は、本発明の第5の実施の形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部101と、ユーザ指示受付部102と、領域検出部110と、算出部103と、パラメータ更新部104と、画像処理部105と、画像情報出力部106とを備える。
図27で示した第5の実施の形態の画像処理装置10は、図2で示した第1の実施の形態の画像処理装置10に対し、領域検出部110をさらに備える点で異なる。
領域検出部110は、ユーザからの指示に基づき、表示装置20で表示されている画像の中からユーザが画像処理を行なう画像領域として指定する指定領域を検出する。
実際には、領域検出部103は、表示装置20で表示している画像の中から、指定領域を切り出す処理を行う。
上述した第1の実施の形態〜第4の実施の形態は、例えば、画像全体で調整を行う場合、または、画像を調整する場合でも背景が複雑ではない場合などに適する。対して、本実施形態では、複雑な背景を伴った場合に、特定の指定領域を切り出し、切り出した指定領域に対し画像処理を行いたい場合に有効である。
本実施の形態では、指定領域の切り出しを下記に説明するユーザインタラクティブに行う方法により行うことができる。
図28は、指定領域をユーザインタラクティブに行う方法の例を示した図である。
ここでは、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、人物の顔の部分を指定領域として切り出す場合を示している。
この場合ユーザは、顔の部分、および顔以外の部分のそれぞれに対し代表となる軌跡をそれぞれ与える。この軌跡は、入力装置30により入力することができる。具体的には、入力装置30がマウスであった場合は、マウスを操作して画像Gをドラッグし軌跡を描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により画像Gをなぞりスワイプすることで同様に軌跡を描く。なお軌跡ではなく、点として与えてもよい。即ち、ユーザは、顔の部分、および顔以外の部分のそれぞれに対し代表となる位置を示す情報を与えればよい。
そしてこの位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得され、さらに領域検出部103により指定領域を切り出す処理が行なわれる。この場合、ユーザ指示受付部102は、指定領域内の代表位置を表す代表位置情報を取得する位置情報取得部として機能する。
そして領域検出部103は、軌跡等が描かれた画素と周辺の画素との間で画素値の近さ(RGB値のユークリッド距離など)を基に、近ければ連結し、遠ければ、連結しない作業を繰り返し、領域を拡張していく。このように領域を拡張していく領域拡張方法により、指定領域を切り出すことができる。
また指定領域の切り出しを行うのに、例えば、画像Gをグラフと見立て、最大流量最小カットの原理を利用した方法も使用できる。
この原理は、図29−1に示すように前景の仮想ノードを始点、背景の仮想ノードを終点として設定し、前景の仮想ノードからユーザが指定した前景領域の代表位置をリンクし、ユーザが指定した背景領域の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。前景から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と背景とを分離することになる(グラフカット)。
またはシードを与えた後に、領域拡張の原理を利用した方法でも指定領域の切り出しを行うことができる。
図29−2(a)〜(e)は、2つのシードが与えられた場合に、画像を2つの領域にわける具体例である。
ここでは図29−2(a)の原画像に対し、図29−2(b)で示すように、シードとしてシード1とシード2の2つを与える。そして各々のシードを基点に領域を拡張していく。この場合、例えば、原画像における近傍画素の値との近さ等に応じて領域を拡張していくことができる。このとき図29−2(c)に示すように領域同士のせめぎ合いがある場合は、再判定の対象画素となり、再判定の対象画素の画素値と近傍の関係でどちらの領域に属するかを決めればよい。このとき、下記文献に記載されている方法を使うことができる。
V.Vezhnevets and V.Konouchine: "Grow-Cut" -Interactive Multi-label N-D Image Segmentation", Proc.Graphicon.pp 150-156(2005)
図29−2(d)の例では、再判定の対象画素は、最終的にはシード2の領域として判定され、図29−2(e)に示すように2つのシードを基に、2つの領域に切り分けられて収束する。
以上挙げた例は、領域カットに関する例であり、領域拡張やグラフなどの原理を利用した領域の切り出し方法の具体例を示した。ただし本実施の形態では、この領域カットの方法は問わず、いかなるものでも適用可能である。
図30(a)〜(c)は、原画像から指定領域が切り出される様子を示した図である。
図30(a)は、指定領域を切り出す前の原画像である画像Gであり、図30(b)は、指定領域として人物の顔の部分を切り出した場合を示している。また図30(c)は、指定領域中の画素にフラグ「1」を付与し、指定領域外の画素にフラグ「0」を付与すると、このフラグの分布は、図30(c)のようになる。ここで白色の部分は、フラグが1であり、指定領域であることを示す。また黒色の部分は、フラグが0であり、指定領域外であることを示す。図30(c)は、指定領域と指定領域外とを切り分けるマスクと見ることもできる。
なおこのマスクを図31で示すように境界をぼかしたものとし、このマスクを使用して指定領域を切り出してもよい。この場合、マスクの値は、通常は、指定領域では1、指定領域外では0であるが、指定領域と指定領域外との境界付近では、0〜1の値を採る。即ち、指定領域と指定領域外との境界がぼける平滑化マスクとなる。
図32−1(a)〜(c)は、ユーザが指定領域を切り出す作業を行い、さらにその後、画像処理を行う作業を行う場合について説明した図である。
この場合、ユーザは、図32−1(a)に示すように、図28で説明した通りに画像G中の顔の部分、および顔以外の部分のそれぞれに対し代表となる軌跡をそれぞれ与える。
そして図32−1(a)に示すように、切り出しボタン211をタッチすると、図32−1(b)に示すように顔の部分が指定領域として切り出される。
さらにユーザが色感調整ボタン212をタッチすると、図32−1(c)に示すように画像Gは、元に戻り、画像処理を行う画面となる。
この状態でユーザが、例えば、横方向にスワイプ動作を行うと、例えば、色相(H)の調整が行われる。なおこの場合、ラジオボタン213aとラジオボタン213bにより顔の部分と顔以外の部分とで指定領域の切替えができるようになっている。そして「前景」に対応するラジオボタン213aを選択した場合は、顔の部分が指定領域となり、「背景」に対応するラジオボタン213bを選択した場合は、顔以外の部分が指定領域となる。
また、図32−2(a)〜(b)は、図32−1の切り出しボタン211を設けない場合を示している。
この場合、ユーザは、図32−2(a)において、図32−1(a)と同様に画像G中の顔の部分、および顔以外の部分のそれぞれに対し代表となる軌跡をそれぞれ与える。
そしてユーザが色感調整ボタン212をタッチすると、図32−2(b)に示すように図32−1(c)と同様の画像処理を行う画面となる。即ち、この場合、色感調整ボタン212は、図32−1(a)で説明した切り出しボタン211の機能を含むものとなる。
後はユーザが、スワイプ動作を行なうことで、図32−1(c)の場合と同様に、指定領域に対して、例えば色相(H)の調整を行なうことができる。またラジオボタン213aとラジオボタン213bにより顔の部分と顔以外の部分とで指定領域の切替えができる。
なお図31で示したようなマスクを用いて指定領域の切り出しを行ったとき、指定領域内の(x、y)の位置における画素に付与されたマスクの値をw(x、y)、画像処理前の画素値をIRGB(x、y)、画像処理後の画素値をI’RGB(x、y)、マスク合成され画面に表示される画素値をI RGB(x、y)とすると、以下の数14式の関係となる。
Figure 0005907196
図33は、第5の実施の形態についての画像処理装置10の動作について説明したフローチャートである。
以下、図27および図33を使用して画像処理装置10の動作について説明を行う。
まず画像情報取得部101が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ501)。このRGBデータは、表示装置20に送られ、画像処理を行う前の画像が表示される。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、例えば、図28で説明した方法で、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ502)。
そして領域検出部110が、この軌跡の位置情報を基に指定領域の切り出しを行う(ステップ503)。
次にユーザが、表示装置20の表示画面21に表示された画像に対し、例えば、図3や図8で説明した方法で、軌跡の入力を行う。この軌跡の位置情報は、ユーザ指示情報としてユーザ指示受付部102により取得される(ステップ504)。
そして算出部103が、例えば、図4で説明した方法で、軌跡の位置情報から軌跡の長さを求める(ステップ505)。
そしてパラメータ更新部104が、予め用意された画像処理の項目に関する画像処理パラメータを更新する(ステップ506)。
さらに画像処理部105が、更新された画像処理パラメータに基づき、画像中の指定領域に対し画像処理を行なう(ステップ507)。
そして画像情報出力部106が、画像処理がなされた後の画像情報を出力する(ステップ508)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。
以上詳述した第1の実施の形態による画像処理装置10では、画像処理の程度を軌跡の長さで制御することができ、また軌跡を入力する位置は画像中のどこでもよい。そしてユーザは、より直感的に、またより操作性よく画像処理を行なうことができる。
また第2の実施の形態による画像処理装置10では、これに加え、軌跡の入力方向により画像処理の項目の切り替えを行なうことができる。そしてユーザは、画像処理の項目の切り替えを、より直感的に、またより操作性よく行なうことができる。
さらに第3の実施の形態による画像処理装置10では、ユーザが覚えやすい図形や文字等を使用して画像処理の項目の切り替えを行なうことができる。また図形や文字の大きさにより画像処理の程度を制御することができる。そしてユーザは、より直感的に、またより操作性よく画像処理を行なうことができる。
またさらに第4の実施の形態による画像処理装置10では、タップ等により画像処理の項目の切り替えを行なうことができる。そしてユーザは、画像処理の項目の切り替えを、より直感的に、またより操作性よく行なうことができる。
またさらに第5の実施の形態による画像処理装置10では、指定領域の切り出しをより容易に行なうことができる。そしてユーザは、画像処理を行ないたい領域を選択して画像処理を行なうことができる。
<画像処理装置のハードウェア構成例>
次に、画像処理装置10のハードウェア構成について説明する。
図34は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
<プログラムの説明>
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
よって本実施の形態で、画像処理装置10が行なう処理は、コンピュータに、画像処理を行なう画像の画像情報を取得する機能と、画像上でユーザにより入力される軌跡の位置情報を取得する機能と、軌跡の位置情報から軌跡の大きさを求める機能と、軌跡の大きさにより画像処理を行なう程度を変更し、画像に対し画像処理を行なう機能と、を実現させるプログラムとして捉えることもできる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…画像処理システム、10…画像処理装置、20…表示装置、30…入力装置、101…画像情報取得部、102…ユーザ指示受付部、103…算出部、104…パラメータ更新部、105…画像処理部、106…画像情報出力部、107…入力方向判定部、108…画像処理項目切替部、109…形状判定部、110…領域検出部

Claims (7)

  1. 画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得する取得部と、
    前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、
    前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、
    前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、
    前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理装置。
  2. 前記軌跡の形状を判定する形状判定部をさらに備え
    前記項目切替部は、前記軌跡の形状に応じて画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置。
  3. 前記項目切替部は、前記画像上でユーザが行なうタップ動作またはクリック動作により画像処理の項目の切り替えを行なうことを特徴とする請求項1に記載の画像処理装置。
  4. 前記画像の中からユーザが画像処理を行なう画像領域として指定する指定領域を検出するために、当該指定領域内の代表位置を表す代表位置情報を取得する位置情報取得部と、
    前記代表位置情報から前記指定領域を検出する領域検出部と、
    をさらに備え、
    前記指定領域に対し画像処理を行なうことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  5. 画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得し、
    前記軌跡の位置情報から当該軌跡の大きさを求め、
    前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定し、
    判定された入力方向に応じて決められ、画像処理の項目の切り替えを行ない、
    前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なうことを特徴とする画像処理方法。
  6. 画像を表示する表示装置と、
    前記表示装置に表示される画像の画像情報に対し画像処理を行なう画像処理装置と、
    ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
    を備え、
    前記画像処理装置は、
    前記画像でユーザにより操作される軌跡の位置情報を取得する取得部と、
    前記軌跡の位置情報から当該軌跡の大きさを求める算出部と、
    前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する入力方向判定部と、
    前記入力方向判定部で判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう項目切替部と、
    前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう画像処理システム。
  7. 画像処理を行なう画像でユーザにより操作される軌跡の位置情報を取得する機能と、
    前記軌跡の位置情報から当該軌跡の大きさを求める機能と、
    前記軌跡の入力方向を予め定められた二方向のうち何れが大きいかで何れか一方であると判定する機能と、
    判定された入力方向に応じて決められ、画像処理の項目の切り替えを行なう機能と、
    前記軌跡の大きさにより画像処理を行なう程度を変更し、前記画像に対し画像処理を行なう機能と、
    を実現させるプログラム。
JP2014039868A 2014-02-28 2014-02-28 画像処理装置、画像処理方法、画像処理システムおよびプログラム Active JP5907196B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014039868A JP5907196B2 (ja) 2014-02-28 2014-02-28 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US14/467,176 US20150248221A1 (en) 2014-02-28 2014-08-25 Image processing device, image processing method, image processing system, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014039868A JP5907196B2 (ja) 2014-02-28 2014-02-28 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Publications (3)

Publication Number Publication Date
JP2015165346A JP2015165346A (ja) 2015-09-17
JP2015165346A5 JP2015165346A5 (ja) 2015-12-10
JP5907196B2 true JP5907196B2 (ja) 2016-04-26

Family

ID=54006778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014039868A Active JP5907196B2 (ja) 2014-02-28 2014-02-28 画像処理装置、画像処理方法、画像処理システムおよびプログラム

Country Status (2)

Country Link
US (1) US20150248221A1 (ja)
JP (1) JP5907196B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3300016B1 (en) * 2015-05-22 2021-06-30 Sony Corporation Device and method for processing image
US10477036B2 (en) * 2016-04-14 2019-11-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6793325B2 (ja) * 2016-05-25 2020-12-02 パナソニックIpマネジメント株式会社 肌診断装置および肌診断方法
WO2017208619A1 (ja) * 2016-05-31 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11138699B2 (en) 2019-06-13 2021-10-05 Adobe Inc. Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images
CN110336917B (zh) * 2019-06-21 2021-02-26 惠州Tcl移动通信有限公司 一种图片展示方法、装置、存储介质及终端

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3834740B2 (ja) * 1996-03-29 2006-10-18 株式会社ワコム 図形編集装置および図形編集方法
JP2002329212A (ja) * 2001-05-02 2002-11-15 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2004213521A (ja) * 2003-01-08 2004-07-29 Canon Inc ペン入力情報処理方法
JP2006106976A (ja) * 2004-10-01 2006-04-20 Canon Inc 画像処理装置、画像処理方法及びプログラム
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
JP2010146378A (ja) * 2008-12-19 2010-07-01 Olympus Imaging Corp 色補正装置、カメラ、色補正方法および色補正用プログラム
US20110035700A1 (en) * 2009-08-05 2011-02-10 Brian Meaney Multi-Operation User Interface Tool
US8780134B2 (en) * 2009-09-30 2014-07-15 Nokia Corporation Access to control of multiple editing effects
US8885856B2 (en) * 2011-12-28 2014-11-11 Starkey Laboratories, Inc. Hearing aid with integrated flexible display and touch sensor
GB2513499B (en) * 2012-03-06 2019-07-24 Apple Inc Color adjustors for color segments

Also Published As

Publication number Publication date
JP2015165346A (ja) 2015-09-17
US20150248221A1 (en) 2015-09-03

Similar Documents

Publication Publication Date Title
JP5907196B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
WO2020108082A1 (zh) 视频处理方法、装置、电子设备和计算机可读介质
US9244607B2 (en) System and method for image processing using multi-touch gestures
JP6287337B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP5880767B2 (ja) 領域判定装置、領域判定方法およびプログラム
WO2020082275A1 (zh) 终端设备的绘制内容处理方法、装置及终端设备
CN107291346B (zh) 终端设备的绘制内容处理方法、装置及终端设备
US8406566B1 (en) Methods and apparatus for soft edge masking
US9792695B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
JP6241320B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP5981175B2 (ja) 図面表示装置、及び図面表示プログラム
US9659228B2 (en) Image processing apparatus, image processing system, non-transitory computer readable medium, and image processing method
JP2017126304A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP6269323B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN109766530B (zh) 图表边框的生成方法、装置、存储介质和电子设备
US10366515B2 (en) Image processing apparatus, image processing system, and non-transitory computer readable medium
TW201337644A (zh) 資訊處理裝置、資訊處理方法、及記錄媒體
US20210072884A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6930099B2 (ja) 画像処理装置
JP2018097415A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN110264393B (zh) 一种信息处理方法、终端和存储介质
JP2010146026A (ja) 表示制御装置
JP2016004309A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN114546576A (zh) 显示方法、显示装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151021

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20151021

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20151104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5907196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350