JP6269323B2 - 画像処理装置、画像処理方法、画像処理システムおよびプログラム - Google Patents
画像処理装置、画像処理方法、画像処理システムおよびプログラム Download PDFInfo
- Publication number
- JP6269323B2 JP6269323B2 JP2014113460A JP2014113460A JP6269323B2 JP 6269323 B2 JP6269323 B2 JP 6269323B2 JP 2014113460 A JP2014113460 A JP 2014113460A JP 2014113460 A JP2014113460 A JP 2014113460A JP 6269323 B2 JP6269323 B2 JP 6269323B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- representative position
- image processing
- designated area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、指定領域の切り出しを行なう際におけるユーザの心理的負担を軽減することにある。
請求項2に記載の発明は、前記包含領域は、ユーザが前記画像上で複数の軌跡を描くことで入力され、前記第1の代表位置設定部は、入力された複数の前記包含領域が重複する頻度に応じて前記第1の代表位置を設定することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記包含領域は、ユーザが前記画像上で軌跡を描くことで入力され、前記第1の代表位置設定部は、前記軌跡の中心線の位置を前記第1の代表位置として設定することを特徴とする請求項1に記載の画像処理装置である。
請求項4に記載の発明は、前記画像処理装置は、前記中心線を前記画像上に表示するか否かを切り替える表示切替部をさらに備えることを特徴とする請求項3に記載の画像処理装置である。
請求項5に記載の発明は、前記位置情報取得部は、前記指定領域および前記指定領域外領域の位置の少なくとも一方を補足する補足位置情報をさらに取得し、前記領域検出部は、前記第1の代表位置および前記第2の代表位置に加え前記補足位置情報を使用して前記指定領域を検出することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置である。
請求項6に記載の発明は、画像の画像情報を取得し、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定し、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定し、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出することを特徴とする画像処理方法である。
請求項7に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、を備え、前記画像処理装置は、前記画像の画像情報を取得する画像情報取得部と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定する第2の代表位置設定部と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、前記指定領域に対し画像処理を行なう画像処理部と、を備えることを特徴とする画像処理システムである。
請求項8に記載の発明は、コンピュータに、画像の画像情報を取得する画像情報取得機能と、前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定する第2の代表位置設定機能と、前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、を実現させることを特徴とするプログラムである。
請求項2の発明によれば、よりユーザの意図に合致した第1の位置情報を抽出することができる。
請求項3の発明によれば、第1の位置情報をより簡単に設定することができる。
請求項4の発明によれば、ユーザが中心線の位置を確認することができる。
請求項5の発明によれば、指定領域の切り出しの精度がより向上する。
請求項6の発明によれば、指定領域の切り出しを行なう際に、ユーザにとって、より利便性が高い画像処理方法が提供できる。
請求項7の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項8の発明によれば、指定領域の切り出しを行なう際におけるユーザの心理的負担を軽減することができるとともに、第2の位置情報をより簡単に設定することができる機能をコンピュータにより実現できる。
例えば、カラーの画像の画質調整を行なうときには、カラーの画像全体に対し行なう場合とカラーの画像中において領域別に行なう場合がある。カラーの画像を表現する要素は、一般にRGB等の色成分、L*a*b*等の輝度と色度、またはHSVなどの輝度と色相と彩度により表すことができる。また画質を制御する代表例としては、色成分のヒストグラム制御、輝度のコントラスト制御、輝度のヒストグラム制御、輝度の帯域制御、色相制御、彩度制御などが挙げられる。また近年では、Retinex等のように視認性を表す画質についての制御も重要視されている。色や輝度の帯域に基づく画質を制御する場合、特に特定の領域に対してのみ画質調整を行うときは、この領域を切り出す処理が必要となる。
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
[第1の実施形態]
次に画像処理装置10の第1の実施形態について説明を行なう。
図2は、本発明の第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、第1の代表位置設定部13と、第2の代表位置設定部14と、領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、ユーザが画像処理を行なう画像領域として、指定領域を指定する指示をユーザ指示情報として受け付ける。より具体的には、本実施の形態では、ユーザ指示受付部12は、ユーザ指示情報として、画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する。
図3は、指定領域を指定する作業をユーザインタラクティブに行う方法の例を示した図である。
ここでは、表示装置20の表示画面21で表示している画像が、前景として写る人物と、人物の背後に写る背景とからなる写真の画像Gである場合を示している。そしてユーザが、前景である人物の頭髪の部分を指定領域Sとして選択する場合を示している。なお以後、指定領域外の領域を「指定領域外領域」と言うことがある。
例えば、図3では、ユーザは、図中左方向から右方向に向けて描かれた円弧状の軌跡K1と、同様の方向で「S」の文字に近い曲線状に描かれた軌跡K2の2回に分けて軌跡を描いている。これにより指定領域Sを包含する包含領域Hを入力することができる。なお軌跡K1と軌跡K2は、画像G上において重複する領域があってもよい。図3では、2回描かれた軌跡が重複せず、1回だけ軌跡が通過した領域を薄く着色する表示を行ない、軌跡が重複し、2回とも軌跡が通過した領域を濃く着色する表示を行なっている。
また第2の代表位置設定部14は、指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を設定する。
ここでは指定領域の代表位置である第1の代表位置は、描かれた軌跡K(この場合、包含領域Hでもある)の中心線Cの位置として設定される。この場合「中心線」とは、軌跡Kの太さ方向(幅方向)の中央部を軌跡が描かれる方向に対し連続的に結ぶことにより得られる線である。
ユーザが、指定領域を指定するために軌跡Kを入力するときには、ユーザは、画像G上でこの中央部を描く動作を行なうため、ユーザの心理上、中心線Cを軌跡Kの代表位置とすることは妥当である。よってこの中心線Cを第1の代表位置とする。なおこの第1の代表位置を以後、図4に示すように、「シード1」と言うことがある。
上述したように図3では、包含領域Hを入力するために軌跡K1と軌跡K2を描いている。よってこの場合、軌跡の中心線であるシード1も2本の曲線となる。
図4では、第2の代表位置は、包含領域Hの周囲に包含領域Hに沿って描かれるほぼ一定の太さの線状の領域により設定され、その結果、長方形に近い形状となった領域として設定されている。なおこの第2の代表位置を、以後、図4に示すように、「シード2」と言うことがある。
図6に示した例では、第1の代表位置である「シード1」については、図4の場合と同様である。一方、第2の代表位置である「シード2」については、包含領域Hの外側の領域全体として設定している。
このうち図7(a)は、図4で説明した方法でシード1およびシード2を設定した場合である。図示するように軌跡K1と軌跡K2の中心線である2本の曲線で示したシード1と、包含領域Hに沿って設定される1本の直線で示したシード2が設定される。
また図7(b)は、図6で説明した方法でシード1およびシード2を設定した場合である。図示するようにシード1については図7(a)の場合と同様である。一方、シード2は包含領域Hの外側の領域全体として設定される。
この原理は、図8に示すように前景の仮想ノードを始点、背景の仮想ノードを終点として設定し、前景の仮想ノードからユーザが指定した前景領域の代表位置をリンクし、ユーザが指定した背景領域の代表位置から終点へリンクさせる。そして始点から水を流した場合、最大流せる量はいくらかを計算する。前景から始点へのリンクの値を水道管のパイプの太さと考えて、ボトルネックになっている(流れにくい)箇所のカットの総和が最大流量であるという原理である。つまりは、ボトルネックとなるリンクをカットすることが、前景と背景とを分離することになる(グラフカット)。
図9(a)は、指定領域の切り出しが行なわれる原画像を示したものである。図示するように原画像は、全体が縦9画素、横7画素の9×7=63画素の領域からなり、図示するように画像領域R1と画像領域R2が含まれる。この画像領域R1に含まれる画素のそれぞれの画素値、また画像領域R2に含まれる画素のそれぞれの画素値は近い値を採る。そしてこの画像領域R1を指定領域として切り出すものとする。なおこの場合、画像領域R2はそれぞれ指定領域外領域となる。
図11(a)〜(c)に示した例では、ユーザが、画像Gの前景である人物の頭髪の部分、顔の部分、および頭髪や顔以外の部分をそれぞれ指定領域として選択する場合を示している。即ち、この場合指定領域は3つある。ここでは頭髪の部分の指定領域を「第1の指定領域(S1)」、顔の部分の指定領域を「第2の指定領域(S2)」、頭髪や顔以外の部分の指定領域を「第3の指定領域(S3)」とする。
図12は、画像処理を行なう際に、表示装置20の表示画面21に表示される画面の例を示している。
ここでは、選択された指定領域に対し、色相、彩度、輝度の調整を行なう例を示している。この例では、表示画面21の左上側に指定領域が選択された状態の画像Gが表示され、表示画面21の右上側に「領域1」、「領域2」、「領域3」の何れかを選択するラジオボタン212a、212b、212cが表示される。ここでは、ラジオボタンのうち212aが選択されており、指定領域として、頭髪の部分の画像領域である「第1の指定領域(S1)」が選択されている。なおラジオボタン212a、212b、212cを操作することで、指定領域の切り替えが可能であることは、図11の場合と同様である。
以下、図2および図13を使用して、第1の実施形態の画像処理装置10の動作について説明を行う。
さらに第2の代表位置設定部14が、例えば、図4や図6で説明した方法を用い、第1の代表位置を基に、第2の代表位置であるシード2を設定する(ステップ104)。
このユーザによる指定領域の選択の指示は、ユーザ指示受付部12が受け付ける(ステップ106)。
そして領域切替部16により指定領域の切り替えが行なわれる(ステップ107)。これは、例えば、図11で説明したラジオボタン212a、212b、212c等を使用して切り替えることができる。
ユーザによる画像処理の指示は、ユーザ指示受付部12が受け付ける(ステップ108)。
そして画像処理部17が、ユーザの指示に基づき、選択された指定領域の画像処理を行なう(ステップ109)。
次に画像処理装置10の第2の実施形態について説明を行なう。
図14は、本発明の第2の実施形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、表示切替部19と、第1の代表位置設定部13と、第2の代表位置設定部14と、領域検出部15と、領域切替部16と、画像処理部17と、画像情報出力部18とを備える。
第2の実施形態の画像処理装置10は、図2で示した第1の実施形態の画像処理装置10に対し、表示切替部19を備えることが異なる。また他の機能部の動作については第1の実施形態とほぼ同様である。よってここでは、表示切替部19について説明を行なう。
図15(a)〜(b)は、軌跡の中心線の表示を行なうか否かを決定するために表示装置20の表示画面21に表示される画面の例を示している。
この例では、表示画面21の左側に軌跡が描かれた状態の画像Gが表示され、表示画面21の右側に軌跡の中心線の表示を「ON」にするか、「OFF」にするかの何れかを選択するラジオボタン214a、214bが表示される。
そしてユーザが入力装置30を使用して、ラジオボタン214aを選択すると、軌跡の中心線の表示が「ON」になり、ラジオボタン214bを選択すると、軌跡の中心線の表示が「OFF」になる。
一方、図15(b)は、ラジオボタン214aを選択した場合を示している。この場合、軌跡の中心線の表示が「ON」になるため軌跡の中心線C(シード1)の表示が行なわれ、図5に示したものと同様に中心線C(シード1)が描かれた画像Gが表示される。この軌跡の表示は、画像加工を行なう画像加工ソフトウェア等で用いられるブラシツールの中で細いサイズのものを実装する方法で実現してもよい。
以下、図14および図16を使用して、第2の実施形態の画像処理装置10の動作について説明を行う。
ユーザによる中心線表示の指示は、ユーザ指示受付部12が受け付ける(ステップ203)。
そして表示切替部19が、ユーザの指示により軌跡Kの中心線の表示の切り替えが行なわれる(ステップ204)。
次に画像処理装置10の第3の実施形態について説明を行なう。
上述した第1の実施形態および第2の実施形態では、第1の代表位置であるシード1を軌跡の中心線としていたが、これに限られるものではない。
第3の実施形態では、第1の代表位置設定部13において、以下の方法によりシード1を求める。
図17(a)では、画像G上でユーザが3回軌跡を描いた場合を示している。図では、この3本の軌跡を軌跡K1、軌跡K2、軌跡K3で図示している。また軌跡K1、軌跡K2、軌跡K3の中心線をそれぞれ中心線C1、中心線C2、中心線C3として図示している。
図中横軸は、画素の位置を表し、縦軸は、頻度を表す。なお横軸は便宜上一次元で記載しているが、実際には二次元の画像上の位置となるため二次元により表されるものとなる。
そして画素の位置を(x、y)、この画素の位置に対する頻度をh(x、y)とし、正規化した頻度hnorm(x、y)を下記数1式により求める。
さらに画素値は、通常0〜255の整数値(階調値)で表されるため、この画素値と同等の扱いをするため、正規化した頻度hnorm(x、y)に255を乗じる。そしてこの結果算出された値をシード1として扱う。
シード1は、画素の位置に対応して定まり、0〜255の何れかの整数値を採るものとなる。図17(c)の場合は、頻度は0〜3の4段階であったため、0、85、170、255の何れかの値を有するものとなる。このようにシード1は一定値でなくとも指定領域の切り出しを行なう処理に支障はない。
この場合、シード1は、中心線の重なり度合いにより定義されたものとなり、シード2は、図17の軌跡K1、軌跡K2、軌跡K3が描かれなかった位置全体として設定される。
次に画像処理装置10の第4の実施形態について説明を行なう。
上述した第3の実施形態では、頻度の概念を使用し、これによりシード1を設定したが、第4の実施形態では、これに加えシード2についてもシード1と同様に頻度の概念を使用して設定を行なう。
この場合、シード1は、図18で示した第3の実施形態と同様となる。対してシード2は、第3の実施形態では、軌跡K1、軌跡K2、軌跡K3が描かれなかった位置全体として設定されていたが、本実施の形態では、頻度に応じて設定されるものとなる。そのため軌跡K1、軌跡K2、軌跡K3が描かれた部分にまでシード2が拡張され、図19で示すようにシード2の範囲がシード1側により近づくようになる。即ち、シード1とシード2の間の領域(図18、図19では、シード1とシード2の間の空白の部分として図示した領域)が図18に対し、図19では、より狭くなる。
また画像処理装置10の動作についても、図13で説明した第1の実施形態のものや、図16で説明した第2の実施形態のものが、シード1およびシード2の設定の方法の箇所が、上述した場合になることを除き、そのまま適用できる。
次に画像処理装置10の第5の実施形態について説明を行なう。
第5の実施形態では、指定領域の位置を補足する補足位置情報をさらに加えて指定領域の切り出しを行なう。
図20(a)は、図3と同様の図であり、ユーザが指定領域Sを包含する包含領域Hを画像Gに対し入力した場合を示している。この包含領域Hの入力は、図3で説明したように、ユーザが2本の軌跡である軌跡K1、K2を画像G上で描くことで行なわれる。
図20(b)は、ユーザが、指定領域Sの位置を補足する軌跡を描いた場合を示している。
ここでは、この軌跡を軌跡K3および軌跡K4で示している。この軌跡K3、K4は、ユーザが、指定領域Sである頭髪の部分についてさらに詳しく規定したい場合に補足位置として描かれ、軌跡K1、K2の中心線とは異なるものである。
この軌跡は太い線よりもより細い線にて描いた方が、入力はより容易になる。これは例えば、画像加工を行なう画像加工ソフトウェア等で用いられるブラシツールの中で細いサイズのものを実装する方法で実現してもよい。
次に画像処理装置10の第6の実施形態について説明を行なう。
第6の実施形態では、指定領域外領域の位置を補足する補足位置情報をさらに加えて指定領域の切り出しを行なう。
図21(a)〜(b)は、図20(a)〜(b)と同様の図であり、ユーザが指定領域Sを包含する包含領域Hを画像Gに対し入力し、さらに指定領域Sの位置を補足する軌跡として、軌跡K3、K4を入力したことを示している。そしてこの軌跡K3、K4の位置情報は、上述の通り指定領域Sの位置を補足する補足位置情報として使用される。
図21(c)は、ユーザが、指定領域外領域の位置を補足する軌跡を描いた場合を示している。
ここでは、この軌跡を軌跡K5で示している。この軌跡K5は、ユーザが、指定領域外領域である頭髪以外の部分についてさらに詳しく規定したい場合に補足位置として描かれる。本実施の形態では、軌跡K5は、人物の額の箇所に描かれている。
図示するように軌跡K5は、包含領域H内にその一部が含まれるが、この部分は、指定領域外領域であることが明確化される。
一方、画像処理装置10の動作は、以下のようになる。
以下、図2および図23を使用して、第5の実施形態および第6の実施形態の画像処理装置10の動作について説明を行う。
ユーザによる軌跡の位置情報は、補足位置情報としてユーザ指示受付部12が受け付ける(ステップ303)。
さらに第2の代表位置設定部14が、第2の代表位置であるシード2を設定する(ステップ305)。このとき指定領域外領域についての補足位置情報についてもシード2として扱ってもよい。
この場合、指定領域と指定領域外領域の双方について入力する必要はなく、指定領域を含む包含領域についてだけ入力すればよい。またユーザにとっては、包含領域を入力する作業は、いわば指定領域を大雑把に塗りつぶす作業となり、ユーザにとって安心であり、心理的負担が軽減される。そのためユーザの入力作業の負担が軽減され、ユーザの利便性が向上する。また指定領域を切り出す処理速度が高速化しやすい。
次に、画像処理装置10のハードウェア構成について説明する。
図24は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行うための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
Claims (8)
- 画像の画像情報を取得する画像情報取得部と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定する第2の代表位置設定部と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
を備えることを特徴とする画像処理装置。 - 前記包含領域は、ユーザが前記画像上で複数の軌跡を描くことで入力され、
前記第1の代表位置設定部は、入力された複数の前記包含領域が重複する頻度に応じて前記第1の代表位置を設定することを特徴とする請求項1に記載の画像処理装置。 - 前記包含領域は、ユーザが前記画像上で軌跡を描くことで入力され、
前記第1の代表位置設定部は、前記軌跡の中心線の位置を前記第1の代表位置として設定することを特徴とする請求項1に記載の画像処理装置。 - 前記画像処理装置は、前記中心線を前記画像上に表示するか否かを切り替える表示切替部をさらに備えることを特徴とする請求項3に記載の画像処理装置。
- 前記位置情報取得部は、前記指定領域および前記指定領域外領域の位置の少なくとも一方を補足する補足位置情報をさらに取得し、
前記領域検出部は、前記第1の代表位置および前記第2の代表位置に加え前記補足位置情報を使用して前記指定領域を検出することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 - 画像の画像情報を取得し、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得し、
前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定し、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定し、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する
ことを特徴とする画像処理方法。 - 画像を表示する表示装置と、
前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、
ユーザが前記画像処理装置に対し画像処理を行なうための指示を入力する入力装置と、
を備え、
前記画像処理装置は、
前記画像の画像情報を取得する画像情報取得部と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得部と、
前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定部と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定する第2の代表位置設定部と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出部と、
前記指定領域に対し画像処理を行なう画像処理部と、
を備えることを特徴とする画像処理システム。 - コンピュータに、
画像の画像情報を取得する画像情報取得機能と、
前記画像の中の特定の画像領域である指定領域を包含するようにユーザが入力した包含領域の位置情報を取得する位置情報取得機能と、
前記包含領域の位置情報を基に、前記指定領域の代表位置である第1の代表位置を設定する第1の代表位置設定機能と、
前記指定領域外の領域である指定領域外領域の代表位置である第2の代表位置を前記包含領域外の少なくとも一部の位置として設定する第2の代表位置設定機能と、
前記第1の代表位置および前記第2の代表位置から前記指定領域を検出する領域検出機能と、
を実現させることを特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113460A JP6269323B2 (ja) | 2014-05-30 | 2014-05-30 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
US14/539,367 US9652858B2 (en) | 2014-05-30 | 2014-11-12 | Image processing apparatus, image processing method, and image processing system |
AU2014280985A AU2014280985B2 (en) | 2014-05-30 | 2014-12-30 | Image processing apparatus, image processing method, image processing system, and program |
CN201510009492.5A CN105302431B (zh) | 2014-05-30 | 2015-01-08 | 图像处理设备、图像处理方法和图像处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014113460A JP6269323B2 (ja) | 2014-05-30 | 2014-05-30 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015228594A JP2015228594A (ja) | 2015-12-17 |
JP6269323B2 true JP6269323B2 (ja) | 2018-01-31 |
Family
ID=54702171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014113460A Active JP6269323B2 (ja) | 2014-05-30 | 2014-05-30 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9652858B2 (ja) |
JP (1) | JP6269323B2 (ja) |
CN (1) | CN105302431B (ja) |
AU (1) | AU2014280985B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017126304A (ja) * | 2016-01-15 | 2017-07-20 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
CN106570534B (zh) * | 2016-11-15 | 2019-12-03 | 福建农林大学 | 全自动微小昆虫诱集检测方法及其系统 |
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
CN111383054A (zh) * | 2020-03-10 | 2020-07-07 | 中国联合网络通信集团有限公司 | 广告检验方法和装置 |
CN111182351A (zh) * | 2020-03-17 | 2020-05-19 | 惠州Tcl移动通信有限公司 | 一种视频播放处理方法、装置、存储介质及终端 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973212B2 (en) * | 2000-09-01 | 2005-12-06 | Siemens Corporate Research, Inc. | Graph cuts for binary segmentation of n-dimensional images from object and background seeds |
EP1217508A1 (en) * | 2000-12-21 | 2002-06-26 | Xerox Corporation | Systems and computer program products for the display and operation of virtual three-dimensional books |
US20040008886A1 (en) * | 2002-07-02 | 2004-01-15 | Yuri Boykov | Using graph cuts for editing photographs |
JP2005073817A (ja) * | 2003-08-29 | 2005-03-24 | Hitachi Medical Corp | 医用画像表示装置 |
US7590268B1 (en) | 2005-10-17 | 2009-09-15 | Adobe Systems Incorporated | Method and apparatus for representing an area of a raster image by a centerline |
KR20100028344A (ko) | 2008-09-04 | 2010-03-12 | 삼성전자주식회사 | 휴대단말의 영상 편집 방법 및 장치 |
WO2011084130A1 (en) * | 2009-12-16 | 2011-07-14 | Thomson Licensing | Human interaction trajectory-based system |
US8286102B1 (en) * | 2010-05-27 | 2012-10-09 | Adobe Systems Incorporated | System and method for image processing using multi-touch gestures |
CN101907923B (zh) * | 2010-06-29 | 2012-02-22 | 汉王科技股份有限公司 | 信息提取方法、装置及系统 |
JP5269851B2 (ja) | 2010-09-27 | 2013-08-21 | 富士フイルム株式会社 | 画像編集装置及びその画像編集方法並びにそのプログラム |
US8610712B2 (en) * | 2011-03-01 | 2013-12-17 | Adobe Systems Incorporated | Object selection in stereo image pairs |
JP2013029930A (ja) | 2011-07-27 | 2013-02-07 | Univ Of Tokyo | 画像処理装置 |
US20130335340A1 (en) * | 2012-06-19 | 2013-12-19 | International Business Machines Corporation | Controlling display of images received from secondary display devices |
JP5872395B2 (ja) * | 2012-06-29 | 2016-03-01 | セコム株式会社 | 領域分割装置 |
-
2014
- 2014-05-30 JP JP2014113460A patent/JP6269323B2/ja active Active
- 2014-11-12 US US14/539,367 patent/US9652858B2/en active Active
- 2014-12-30 AU AU2014280985A patent/AU2014280985B2/en active Active
-
2015
- 2015-01-08 CN CN201510009492.5A patent/CN105302431B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105302431A (zh) | 2016-02-03 |
AU2014280985A1 (en) | 2015-12-17 |
CN105302431B (zh) | 2019-05-14 |
US20150347863A1 (en) | 2015-12-03 |
US9652858B2 (en) | 2017-05-16 |
JP2015228594A (ja) | 2015-12-17 |
AU2014280985B2 (en) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11301200B2 (en) | Method of providing annotation track on the content displayed on an interactive whiteboard, computing device and non-transitory readable storage medium | |
JP6269323B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
US8542199B2 (en) | Image processing apparatus, image processing method, and program | |
JP5858188B1 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
US20130016246A1 (en) | Image processing device and electronic apparatus | |
US20160283819A1 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium storing program | |
JP6287337B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP5907196B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2017126304A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP6241320B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2013029930A (ja) | 画像処理装置 | |
US20160300321A1 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
JP6582472B2 (ja) | 画像処理装置、画像処理システムおよびプログラム | |
JP6550819B2 (ja) | 選択支援装置及びプログラム | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
JP2011014076A (ja) | 情報処理装置、文書拡大表示方法、プログラム及び記録媒体 | |
US20150324983A1 (en) | Image display device, image display method, and computer-readable recording medium | |
JP2018081430A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
WO2023273462A1 (zh) | 一种显示设备及填色方法 | |
JP6930099B2 (ja) | 画像処理装置 | |
JP2018097415A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
CN105208183B (zh) | 电子设备显示漫画的方法 | |
JP2019101844A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6269323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |