JP2013029930A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2013029930A JP2013029930A JP2011164465A JP2011164465A JP2013029930A JP 2013029930 A JP2013029930 A JP 2013029930A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2013029930 A JP2013029930 A JP 2013029930A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- area
- information
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Abstract
Description
本発明は、画像処理装置に係り、特に処理操作の利便性の向上に関する。 The present invention relates to an image processing apparatus, and more particularly to improvement in convenience of processing operation.
近年、いわゆるスマートフォン等、一般的なコンピュータと同様の処理が可能な携帯端末が広く利用されている。このようなスマートフォンでは、画面が比較的小さく、また操作もタッチパネルを利用するなど、画像上においても大ざっぱな点を指定できる程度となっているものが多い。 In recent years, mobile terminals such as so-called smartphones that can perform the same processing as a general computer have been widely used. Many of such smartphones have a relatively small screen and can be used to specify rough points on an image, such as using a touch panel.
一方、与えられた画像情報から対象となる領域を抽出する技術として、画像セグメンテーションと呼ばれる技術が知られている。こうしたセグメンテーションの処理の方法として、グラフカット(Graph Cuts)、領域拡張法などの種々の方法がある。例えば特許文献1には、物体認識のためにセグメンテーション処理を利用する例が開示されている。
On the other hand, a technique called image segmentation is known as a technique for extracting a target region from given image information. As a method of processing such segmentation, there are various methods such as graph cuts and region expansion methods. For example,
こうした従来のセグメンテーション技術では、例えばグラフカットを用いる場合に、抽出したい領域(前景)を取り囲む形状を初期領域として事前に指定することが前提となっている。しかしながら、既に述べたように、これをスマートフォン上に実装する場合、詳細な領域指定が困難であるために、セグメンテーションの処理が必ずしも十分にできない場合がある。 In such a conventional segmentation technique, for example, when a graph cut is used, it is assumed that a shape surrounding an area (foreground) to be extracted is designated in advance as an initial area. However, as described above, when this is mounted on a smartphone, it may be difficult to perform segmentation processing because detailed area designation is difficult.
本発明は上記実情に鑑みて為されたもので、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる画像処理装置を提供することをその目的の一つとする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus that can achieve desired segmentation processing and improve the convenience of processing operation even by rough coordinate designation. To do.
上記従来例の問題点を解決する本発明は、画像処理装置であって、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、とを含むこととしたものである。 The present invention for solving the problems of the conventional example is an image processing apparatus, means for displaying image information to be processed, means for receiving at least one designation of a point in the displayed image information, For each of the received points, a region forming means for forming a region of a predetermined shape including the point in the image information, and performing segmentation processing using the information of the formed region as an initial region of the foreground, the image information Are separated into foreground and background, and output means for outputting the image portion of the foreground obtained by the separation.
ここで前記領域形成手段は、所定形状の領域の大きさを、隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとしてもよい。 Here, the area forming means may set the size of the predetermined shape area to be in contact with an adjacent predetermined shape area or to be in contact with a shape surrounding the image information.
また、前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行うこととしてもよい。 The region forming means further forms a small region within the formed region having a predetermined shape and including the designated point included in the region, and the separating unit includes the small region. The separation process may be performed assuming that all of the pixels are included in the foreground.
さらに本発明の一態様に係る画像処理装置は、さらに、前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行することとしたものである。 Furthermore, in the image processing apparatus according to an aspect of the present invention, the separation unit further performs a segmentation process using an area outside the predetermined shape formed by the region forming unit as an initial region of the background. Is.
また本発明の別の態様に係るプログラムは、コンピュータを、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、として機能させることとしたものである。 According to another aspect of the present invention, there is provided a program for displaying, on a computer, means for displaying image information to be processed, means for receiving at least one point designation in the displayed image information, and each received point. A region forming means for forming a region of a predetermined shape including the point in the image information, and performing segmentation processing using the information on the formed region as an initial region of the foreground, and converting the image information into the foreground and background. And separating means for separating the foreground and output means for outputting the image portion of the foreground obtained by the separation.
このように点の指定に基づいて初期領域を形成し、セグメンテーション処理を行うことで、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる。 In this way, by forming an initial region based on the designation of points and performing segmentation processing, desired segmentation processing can be achieved even by rough coordinate designation, and convenience of processing operations can be improved.
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、画像取得部15とを含んで構成されている。
Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the
ここで制御部11は、例えばCPU(Central Processing Unit)等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、処理対象となる画像情報を取得して表示部14に表示出力させる。またこの制御部11は、表示された画像情報内の点の指定を少なくとも一つ受け入れ、当該受け入れた各点を含む所定形状の各領域を画像情報内に形成する。そして制御部11は、形成した領域の情報を前景の初期領域としてセグメンテーション処理を実行し、画像情報を、前景と背景とに分離し、当該分離して得た前景の画像部分を出力する。この制御部11による具体的な処理の内容については後に詳しく述べる。
Here, the
記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムはDVD−ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。また、この記憶部12は、制御部11のワークメモリとしても動作する。
The
操作部13は、例えば表示部14に積層して配された透明のタッチパネルである。この操作部13は、利用者が触れるなどして指示した位置を表す情報を生成して、制御部11に出力する。表示部14は、液晶ディスプレイパネルなどであり、制御部11から入力される指示に従い、画像情報を表示出力する。
The
画像取得部15は、例えばカメラなど、撮像により画像情報を取得する撮像部、あるいは、ネットワークインタフェース、USB(Universal Serial Bus)インタフェース等外部の装置との通信により画像情報を取得する通信部の少なくとも一方を含む。この画像取得部15は、取得した画像情報を制御部11に出力する。
The
次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、画像取得部15が取得して出力する画像情報を記憶部12に格納する。また、この制御部11は、記憶部12に格納されたプログラムを実行することで、機能的に図2に例示する構成を有したものして動作する。すなわち、この制御部11は機能的には、画像情報取得部21と、画像表示制御部22と、指定点受入部23と、領域形成部24と、分離部25と、出力部26と、情報処理部27とを含んで構成される。
Next, the operation of the
画像情報取得部21は、利用者からの指示に従い、記憶部12に格納した画像情報の一つを読み出す。また、この画像情報取得部21は、利用者からの指示に従い、画像取得部15の撮像部に指示して、画像情報を撮像して取得してもよい。画像表示制御部22は、画像情報取得部21が取得した画像情報を表示部14に表示出力させる。
The image
指定点受入部23は、画像表示制御部22によって表示部14が表示出力している画像情報上で、利用者が操作部13を操作して指示した位置(画像情報内の点の指定)を少なくとも一つ、受け入れる。操作部13が表示部14に積層されたタッチパネルである場合、操作部13は、利用者が触れた位置に対応する、積層されている表示部14上の画素の位置の情報(座標情報)を出力する。
The designated
指定点受入部23は、操作部13から利用者が指定した座標情報の入力を受けるごとに、当該座標情報Pを、記憶部12に処理対象座標情報リストとして蓄積して格納する(図3)。また、この指定点受入部23は、利用者が操作部13上の一点を長押し(タッチパネル上の一点を抑えたまま、一定時間以上そのままにする操作)したことを表す情報を操作部13から受け入れ、次の処理を行ってもよい。
Each time the designated
すなわち、長押しされた座標情報Sが入力されると、処理対象座標情報リストに含まれる座標情報P1,P2,…Pnのうち、
|S−Pi|<T
(ただし、|S−Pi|は、座標情報Sで表される座標と、Piで表される座標との距離、i=1,2,…n、Tは予め定めたしきい値)を満足する座標情報Piがあるか否かを調べ、そのようなPiがあれば(複数あれば、|S−Pi|が最も小さいPiとする)、当該Piを取り囲む所定形状の図形を表示部14に表示し、また、当該図形の近傍に削除指示を受け入れるアイコン(例えばX印のアイコン)を表示する。この表示は例えば図4に例示するようになる。
That is, when the long-pressed coordinate information S is input, among the coordinate information P1, P2,... Pn included in the processing target coordinate information list,
| S-Pi | <T
(Where | S−Pi | is the distance between the coordinates represented by the coordinate information S and the coordinates represented by Pi, i = 1, 2,... N, T is a predetermined threshold value) If there is such a Pi (if there are a plurality of coordinates information Pi, | S-Pi | is the smallest Pi), a graphic of a predetermined shape surrounding the Pi is displayed on the
そして利用者がこの所定形状の図形を表示部14上でドラッグすると、ドラッグに従って座標情報Piを変更する。また、利用者が当該図形近傍に配された削除指示用のアイコンに触れると、当該座標情報Piを、処理対象座標情報リストから削除する等、処理対象座標情報リスト上の座標情報を追加、変更する処理を行わせてもよい。
When the user drags the figure with the predetermined shape on the
領域形成部24は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する。具体的にこの領域形成部24は、処理対象座標情報リストに含まれる座標情報を順次、注目座標Pgとして選択する。
The
領域形成部24は、注目座標Pgとの間で、距離
|Pi−Pg|
が最も小さい、最近傍の座標情報Pjを処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n、ただしi≠g)のうちから選択する。そして領域形成部24は、最近傍の他の点までの距離|Pj−Pg|の半分を、点Pgを含む所定形状の領域の大きさを規定する情報rgとして算出する。つまり、
rg=|Pi−Pg|/2
とする(図5)。
The
Is selected from the coordinate information Pi (i = 1, 2,... N, where i ≠ g) included in the processing target coordinate information list. Then, the
rg = | Pi-Pg | / 2
(FIG. 5).
領域形成部24は、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n)に関連して、それぞれの点を含む所定形状の領域の大きさを規定する情報ri(i=1,2,…n)を生成すると、この情報riを、対応する座標情報を特定する情報に関連づけて記憶部12に格納する。領域形成部24はそして、座標情報Piがあらわす座標を中心とし、半径がriである円形状の領域(i=1,2…,n)を生成する(図6)。このようにすることで、所定形状の領域の大きさが隣接する(最近傍の)所定形状の領域に接する大きさとなる。
The
またこの領域形成部24は、n=1、つまり、処理対象座標情報リストに含まれる座標情報Piが1つしかなければ、領域の大きさを画像情報を取り囲む形状に接する大きさとする。つまり座標情報Piが表す座標を中心とし、画像情報に外接する矩形に内接する(枠に接する最大の大きさの)円形状の領域を生成することとすればよい。
Further, the
分離部25は、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。このセグメンテーション処理については、例えばグラフカットなどの公知の処理を採用できるので、ここでの詳しい説明を省略する。具体的には、グラフカットの実装例であるグラブカット(GrabCut)の自動セグメンテーション(Automatic segmentation)を採用してもよい。このグラブカットは例えば、C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004に詳しい説明が記載されている。
The
出力部26は、画像情報のうち、分離された前景の画像部分を出力する。本実施の形態では、座標情報Piごとに前景となる画像部分が分離される。出力部26は、座標情報Piごとの前景となる画像部分を出力する。情報処理部27は、出力部26が出力した画像部分を用いて予め定めた情報処理を実行する。この情報処理部27による処理の例については後に述べる。
The
本実施の形態は、以上の構成を備えており、次に述べるように動作する。利用者が本実施の形態の画像処理装置を操作して、画像情報を取得して表示するよう指示すると、図7に例示するように本実施の形態の画像処理装置1は、表示部14に指示により取得した画像情報を表示し、点を指定する操作を待機する(S1)。
The present embodiment has the above configuration and operates as described below. When the user operates the image processing apparatus according to the present embodiment to instruct to acquire and display image information, the
利用者が、表示された画像情報上で、抽出したい画像部分中の一点をタップすると画像処理装置1は、当該タップされた位置に対応する画像情報上の座標情報を取得して記録する(S2)。画像処理装置1は、利用者から指定が終了した旨の操作が行われるまで処理S2を繰り返して行い、少なくとも一つの指定点の座標情報を蓄積して記録する。
When the user taps one point in the image portion to be extracted on the displayed image information, the
利用者が点の指定を終了した旨の操作を行うと、画像処理装置1は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する(S3)。ここでは所定形状は例えば円であるとする。また、各領域は重なり合わずに互いに接する大きさ以下の大きさとする。
When the user performs an operation indicating that the point has been specified, the
画像処理装置1は、形成した領域を、前景を表す初期領域としてグラブカットなどのプログラムを利用してセグメンテーション処理を実行する(S4)。そしてセグメンテーションの処理により得られた画像情報のうち、前景となる部分画像を処理の対象として取り出して(S5)、予め定めた処理を実行する(S6)。
The
さらに本実施の形態の画像処理装置1の制御部11は、領域形成部24及び分離部25の処理として次のような処理を行ってもよい。すなわち領域形成部24は、座標情報Piについて確定した円形状の領域(区別のため外周領域と呼ぶ)内に、さらに当該座標情報Piによって表される座標を含む小領域をさらに形成してもよい。この小領域は具体的に、確定した外周領域の形状と相似の形状であって、予め定めた大きさのものとする。なお、この予め定めた大きさによって確定される小領域が、確定した外周領域からはみ出る場合は、外周領域と小領域とが重なりあっている(いわばそれらの論理積によって確定される)領域を小領域とする。
Further, the
また別の例では、この小領域は、確定した外周領域の形状と相似の形状であって、外周領域の大きさに対して予め定めた比ないし大きさだけ小さい領域であるものとして設定してもよい。 In another example, this small region is set to be a shape similar to the shape of the determined outer peripheral region, and a region that is smaller than the size of the outer peripheral region by a predetermined ratio or size. Also good.
そして制御部11の分離部25は、この小領域内にある画素はすべて前景を構成する画素であるとしてセグメンテーションの処理を実行する。具体的にグラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=1(foreground brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。
Then, the
さらに本実施の形態の画像処理装置1では、分離部25の処理として、画像情報のうち、どの外周領域にも含まれない部分(領域外の部分)については、背景の初期領域としてセグメンテーションの処理を行ってもよい。具体的に、グラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=0(background brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。
Further, in the
さらにここまでの説明において、領域形成部24は、注目座標情報Pgから最近傍の他の点(座標情報Pjで表される座標の点)までの距離|Pj−Pg|の半分、つまりこれらの各点の中点を、点Pgを含む所定形状の領域の外周が通る点として、領域の大きさを規定していた。つまり、
rg=|Pj−Pg|/2
としていた。
Further, in the description so far, the
rg = | Pj-Pg | / 2
I was trying.
しかしながら、本実施の形態はこれに限られるものではない。例えば領域形成部24は、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて、表示部14に表示出力し、領域の調整を利用者から受け入れる指示に従って行ってもよい。この調整は例えば次のようにして行うことができる。すなわち利用者が領域内の一点をタップするごとに、当該タップされた領域の大きさを拡大するようにする。
However, the present embodiment is not limited to this. For example, the
このために領域形成部24は、この調整を受け入れる処理を行う際には、予め各座標情報Pi(i=1,2,…,n)についてタップ回数を表す情報Ti(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。このタップ回数Tiは、当初は、それぞれ1回ずつなのでそれぞれ「1」となる。
Therefore, when the
一例として、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力し、領域の調整を利用者から受け入れる処理を行う。
As an example, when an area is formed in the process S3, a graphic image representing the formed area is superimposed on the image information to be processed and displayed on the
ここで利用者が調整のために指定した点の座標情報が入力されると、領域形成部24は形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
Here, when the coordinate information of the point designated for adjustment by the user is input, the
| Pa−Pi | ≦ ri
The coordinate information Pi is searched. If there is such coordinate information Pi, the
そして領域形成部24は、当該座標情報Piとその最近傍の他の点までの距離|Pj−Pi|を用いて、まず指定した座標情報Piに係る、指定された領域の大きさriを、
r′i=(Ti/(Ti+Tj))×|Pj−Pi|
に更新する。なお、Tjは、座標情報Pjに関連づけられたタップ回数である。また領域形成部24は、座標情報Piの最近傍の座標情報Pjについて、当該座標情報Pjに係る領域の大きさrjを
r′j=(Tj/(Ti+Tj))×|Pj−Pi|
とする。
Then, the
r′i = (Ti / (Ti + Tj)) × | Pj−Pi |
Update to Tj is the number of taps associated with the coordinate information Pj. Further, the
And
このとき、領域形成部24は、
|Pi−Pk|<r′i+rk
または
|Pj−Pk|<r′j+rk
なる座標情報Pkならびに半径rkがないかを調べる。つまり領域の大きさを拡大等した結果、他の座標情報に係る領域と重なり合うこととならないかを調べる。そして座標情報Piについて、|Pi−Pk|<r′i+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′i=|Pi−Pk|−rk
とする。また座標情報Pjについて、|Pj−Pk|<r′j+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′j=|Pj−Pk|−rk
とする。
At this time, the
| Pi-Pk | <r'i + rk
Or | Pj−Pk | <r′j + rk
It is checked whether there is coordinate information Pk and radius rk. That is, as a result of enlarging the size of the area, it is checked whether or not it overlaps with the area related to other coordinate information. When the coordinate information Pi is found such that | Pi−Pk | <r′i + rk (to be overlapped) Pk and rk, the
r'i = | Pi-Pk | -rk
And When the coordinate information Pj is found such that | Pj−Pk | <r′j + rk (which overlaps), the
r'j = | Pj-Pk | -rk
And
また、利用者が領域の調整を終了する指示(領域を確定する指示)を入力すると、処理S4に移行して、処理を続ける。 When the user inputs an instruction to end the adjustment of the area (an instruction to determine the area), the process proceeds to step S4 and the process is continued.
次に、本実施の形態の画像処理装置1において制御部11が、画像情報から処理対象として取り出した前景となる画像部分について行う処理の例について述べる。本実施の形態のある例によると、画像処理装置1が取得する画像情報は、例えば複数の皿のそれぞれに盛られた飲食物を撮像した画像情報である。
Next, an example of processing performed by the
そして利用者は、表示された飲食物を撮像した画像から、各皿の飲食物の部分をタップする。画像処理装置1は、タップされた位置を含む領域を画定し、この領域を前景の初期領域としてセグメンテーション処理により、飲食物を含んだ画像部分を抽出する。
And a user taps the part of the food and drink of each dish from the image which imaged the displayed food and drink. The
本実施の形態の画像処理装置1は、抽出した画像部分の画素値のヒストグラム等、画素値に基づいて演算される特徴量と、当該特徴量により識別される料理について、標準的なものについて予め定めた分量の場合(例えば1人分)の栄養成分値(例えばカロリーや塩分等)とを関連づけて保持したデータベース(成分値データベース)を参照して、抽出された画像部分ごとに、標準的、かつ予め定めた分量の栄養成分値を取得する。なお、こうしたデータベースは、文部科学省の「食品標準成分表」等の情報から作成できる。
The
画像処理装置1は、次に、抽出した前景の画像部分の数と大きさとにより、取得した栄養成分値を補正する。具体的に、通常の食事において一人が喫食する飲食物の種類を平均的にN皿として、抽出した前景の画像部分の数がこのNを超えていなければ、この抽出した前景の画像部分の大きさ(例えば抽出した画像部分に外接する円の半径riでよい)の平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。
Next, the
また、抽出した前景の画像部分の数がこのNを超えていれば、N以下の画像部分が得られるまで、抽出した前景の画像部分のうち大きさが大きいものから順にn個、または、小さいものから順にm個の少なくとも一方を、n,mを漸増させつつ繰り返して、除いていく。そして、この結果、N以下の画像部分が得られたならば、それらの大きさの平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。そして画像処理装置1は、この累算の結果を表示部14に表示し、利用者に提示する。
Also, if the number of extracted foreground image parts exceeds this N, until the number of N or less image parts is obtained, n pieces of extracted foreground image parts in descending order of size or smaller At least one of m pieces is removed in order from the one by repeatedly increasing n and m. As a result, if N or less image portions are obtained, an average value rave of these sizes is calculated. Then, taking the average value as the size for one person, the size of each extracted image portion of the foreground ri / rave is multiplied by the nutrient value obtained from the component value database for the corresponding image portion, and accumulated. Then, the
[個別の大きさ]
また領域形成部24が、形成した領域の一つに対して利用者の調整の指示を受け入れる場合に、ここまでの説明では、調整の対象となった領域の大きさを指示に応じて拡大するとともに、隣接する領域の大きさについては、当該調整の対象となった領域と重なり合わず、接することとなるよう縮小することとしてきた。しかしながら本実施の形態はこれに限られるものではない。
[Individual size]
When the
個々の領域の大きさを個別のものとして、利用者による調整の対象となった領域を指示に応じて拡大ないし縮小するようにし、隣接する領域の大きさについては調整しないようにしても構わない。 The size of each region may be individual, the region that is subject to adjustment by the user may be enlarged or reduced according to an instruction, and the size of the adjacent region may not be adjusted. .
すなわち、利用者が調整のために指定した点の座標情報Paが入力されると、領域形成部24は、形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該指定された領域の座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
That is, when the coordinate information Pa of the point designated for adjustment by the user is input, the
| Pa−Pi | ≦ ri
The coordinate information Pi is searched. If there is such coordinate information Pi, the
そして領域形成部24は、この座標情報Piに係る、指定された領域の大きさriを、
ri=ri+Δr×Ti
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでΔrはタップ一回分の増分として予め定めた値とする。
Then, the
ri = ri + .DELTA.r.times.Ti
Ri is updated (the equal sign in this case means that the value on the right side is assigned to the variable on the left side). Here, Δr is set to a predetermined value as an increment for one tap.
この場合、領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。
In this case, when the user inputs an instruction to end the adjustment of the region, the
そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。
Then, the
一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。
On the other hand, when information indicating that there is an overlapping area is input, the
この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。
As in this example, the
[前景の大きさを変更する処理の変形例]
また、領域形成部24は、領域の調整を受け入れる場合であって、領域間が離れても構わないとする場合には、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを初期値として、座標情報Piに対応する領域の大きさとしてもよい。つまり、
ri=rdefault
とする。
[Modification of processing to change foreground size]
In addition, when the
ri = rdefault
And
この場合利用者は、当初領域に関する座標情報を指定して、その後、適宜タップを繰り返して、領域の大きさが所望のものとなるまでタップを繰り返すこととすればよい。 In this case, the user may designate the coordinate information regarding the initial region, and then repeat the tap as appropriate, and repeat the tap until the size of the region becomes a desired one.
さらにここまでの説明では、領域形成部24が調整の処理を受け入れるにあたっては、タップ回数に応じて領域を拡大する例について述べたが、調整の処理では、領域の拡大・縮小の双方を可能としてもよい。
Further, in the description so far, the example has been described in which the
この例では、領域形成部24は、拡大・縮小の双方の調整を受け入れる処理を行うため、予め各座標情報Pi(i=1,2,…,n)について拡大縮小の割合を表す重み値Wi(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。この重み値Wiは、当初は、予め定めた初期値X、例えば「0」としておく。
In this example, the
また、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを、座標情報Piに対応する領域の大きさの初期値としておく。 In addition, a predetermined size rdefault is set as an initial value of the size of the region corresponding to the coordinate information Pi regardless of the nearest coordinate information with respect to the input coordinate information Pi.
一例として領域形成部24は、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力するとともに、各領域を表す図形画像の内部ないし外周上に重ね合わせて、領域の拡大を指示する際にタップするアイコン(例えば「+」記号のアイコン)と、領域の縮小を指示する際にタップするアイコン(例えば「−」記号のアイコン)とを表示する。そして領域の調整を利用者から受け入れる処理を行う。これら、拡大ないし縮小指示のためのアイコンは、どの領域に関連するものかが指定できればそれでよく、表示位置は特に上記のものに限られない。
As an example, when the
さらに別の例では、調整の対象となる領域を指定して、指二本で広げるあるいは狭めるような操作(アップル社のアイフォーンでいう、「ピンチアウト」ならびに「ピンチイン」操作)を行うことで、拡大縮小の指示が行われてもよい。 In another example, you can specify the area to be adjusted and perform operations to expand or narrow it with two fingers ("pinch out" and "pinch in" operations on Apple's iPhone). Instructing enlargement / reduction may be performed.
ここで利用者が調整のために、いずれかの領域の図形画像に関連づけられた拡大・縮小のためのアイコンがタップされるか、またはいずれかの領域を指定した「ピンチアウト」や「ピンチイン」といった操作が行われると、領域形成部24は形成した領域の情報を参照して、指定された領域Pi(アイコンをタップしたときには当該タップされアイコンに関連する領域)を特定する。
Here, for adjustment, the icon for enlargement / reduction associated with the graphic image in one of the areas is tapped, or “pinch out” or “pinch in” in which one of the areas is specified. When the above operation is performed, the
そして領域形成部24は、当該特定した座標情報Piに関連づけられた重み値Wiを調整する。すなわち、領域の拡大を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ増大させ、領域の縮小を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ減少させる。
Then, the
また「ピンチアウト」や「ピンチイン」といった操作の場合は、これらの操作において2つの指の触れている点が近接ないし離隔した量に応じ、近接したときには近接量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiから差引きする。 Also, in the case of operations such as “pinch out” and “pinch in”, the proximity amount (the distance between the initial two points and the distance between the two points) depends on the amount at which the points touched by two fingers are close or separated in these operations. The absolute value of the difference between the two points after the operation) is multiplied by a predetermined coefficient, and only the result of the multiplication is subtracted from the current weight value Wi.
また、ピンチアウト操作(2つの指の触れている点が離隔していく操作)がされたときには、離隔量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiを増大させる。 When a pinch-out operation (an operation in which the points touched by two fingers are separated) is performed, the separation amount (the difference between the initial distance between the two points and the distance between the two points after the operation) (Absolute value) is multiplied by a predetermined coefficient, and the current weight value Wi is increased by the result of the multiplication.
領域形成部24は、こうして調整した重み値Wiを用いて、先に特定した座標情報Piに係る、指定された領域の大きさriを、
ri=rdefault+Δr×(Wi−X)
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでのΔrは、重み値Wの増分「1」あたりの拡大縮小量として予め定めた値とし、rdefaultは、領域の大きさの初期値、Xは重み値の初期値とする。
The
ri = rdefault + .DELTA.r.times. (Wi-X)
Ri is updated (the equal sign in this case means that the value on the right side is assigned to the variable on the left side). Here, Δr is a predetermined value as an enlargement / reduction amount per increment “1” of the weight value W, rdefault is an initial value of the size of the region, and X is an initial value of the weight value.
さらに領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。
Further, when the user inputs an instruction to end the adjustment of the area, the
そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。処理S4以下の処理を行う分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。
Then, the
一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。
On the other hand, when information indicating that there is an overlapping area is input, the
この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。
As in this example, the
[画像内容に応じて初期設定の前景の大きさを変更する例]
さらに領域形成部24は、領域の拡大や縮小の調整を行う際には、調整後の大きさをタップの回数やピンチアウト操作等において指定された二点間の距離の変化に応じて、調整後の領域の大きさを定めるのではなく、予め定めた規則に従って、調整後の領域の大きさを定めてもよい。
[Example of changing the default foreground size according to the image contents]
Further, when adjusting the enlargement or reduction of the area, the
一例として、領域形成部24が重み値Wiを用いる場合、座標情報Piに対応する領域について拡大の操作が行われたときには、Wiを「1」だけインクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつインクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。なお、タップ回数Tiを用いる場合も、ここでのWiの代わりにTiとして同様の処理を行えばよい。この場合、タップ回数Tiは実際のタップ回数ではなく、重み値と同様の意味を持つこととなる。
As an example, when the
r′i = rdefault + Δr × (Wi−X)
And the statistic of the pixel value of the part surrounded by the area of the tentative size in the image information to be processed is compared with the statistic of the pixel value of the part outside the area. The temporary size may be adjusted while incrementing Wi by “1” until the comparison result matches a predetermined condition. Then, when the condition is met, the increment of Wi is stopped, and the temporary size r'i at that time is set as a new size of the area corresponding to the coordinate information Pi. In other words,
ri = r'i
And Even when the number of taps Ti is used, the same processing may be performed as Ti instead of Wi here. In this case, the tap count Ti is not the actual tap count but has the same meaning as the weight value.
また同様に、座標情報Piに対応する領域について縮小の操作が行われたときには、Wiを「1」だけデクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつデクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。
Similarly, when a reduction operation is performed on the area corresponding to the coordinate information Pi, Wi is decremented by “1”,
r′i = rdefault + Δr × (Wi−X)
And the statistic of the pixel value of the part surrounded by the area of the tentative size in the image information to be processed is compared with the statistic of the pixel value of the part outside the area. Until the comparison result matches a predetermined condition, Wi may be decremented by “1” and the provisional size may be adjusted. When the condition is met, the decrement of Wi is stopped, and the provisional size r'i at that time is set as a new size of the area corresponding to the coordinate information Pi. In other words,
ri = r'i
And
これらの場合において、画素値の統計量は、例えば画素値の平均、あるいは、ヒストグラムにおける最頻値などとしてもよい。そして、比較結果に係る条件とは、例えば領域内外における画素値の各平均の差の絶対値が予め定めたしきい値を超える、あるいは領域内外における各最頻値の差の絶対値が予め定めたしきい値を超える、などの条件としておけばよい。 In these cases, the statistic of the pixel value may be, for example, an average of pixel values or a mode value in a histogram. The condition relating to the comparison result is, for example, that the absolute value of the average difference between the pixel values inside and outside the region exceeds a predetermined threshold value, or the absolute value of the difference between the mode values inside and outside the region is predetermined. It may be set as a condition such as exceeding the threshold value.
また重み値Wiをインクリメント、またはデクリメントする場合において、仮の大きさr′iが予め定めた下限値を下回る場合はその時点でデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよく、また、座標情報Piに対応する仮の大きさr′iの領域が画像情報の辺に接したところでインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよい。 Further, when incrementing or decrementing the weight value Wi, if the provisional magnitude r'i falls below a predetermined lower limit value, the decrement is stopped at that point, and the provisional magnitude r'i at that time is It may be set as a new size of the area corresponding to the coordinate information Pi, or when the area of the temporary size r′i corresponding to the coordinate information Pi is in contact with the side of the image information, the increment is stopped. The provisional size r′i at that time may be set as a new size of the area corresponding to the coordinate information Pi.
本実施の形態によると、簡便な操作で、例えば飲食物の画像情報から、各飲食物の画像部分を特定できる。 According to this Embodiment, the image part of each food / beverage can be specified by simple operation, for example from the image information of food / beverage.
1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 画像取得部、21 画像情報取得部、22 画像表示制御部、23 指定点受入部、24 領域形成部、25 分離部、26 出力部、27 情報処理部。
DESCRIPTION OF
Claims (5)
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
とを含む画像処理装置。 Means for displaying image information to be processed;
Means for accepting at least one designation of a point in the displayed image information;
For each received point, a region forming means for forming a region of a predetermined shape including the point in the image information;
Separation means for separating the image information into a foreground and a background by performing segmentation processing using the information of the formed area as an initial area of a foreground,
Output means for outputting the image portion of the foreground obtained by the separation,
An image processing apparatus.
前記領域形成手段は、所定形状の領域の大きさを、
隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとする
画像処理装置。 The image processing apparatus according to claim 1,
The region forming means determines the size of the region having a predetermined shape,
An image processing apparatus having a size that touches an adjacent area of a predetermined shape or a size that touches a shape surrounding image information.
前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、
前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行う
画像処理装置。 The image processing apparatus according to claim 1 or 2,
The region forming means further forms a small region within the formed region of the predetermined shape and including the specified point included in the region,
The image processing apparatus that performs the separation process on the assumption that all pixels in the small region are included in the foreground.
前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行する
画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus that performs segmentation processing using the part outside the region of the predetermined shape formed by the region forming unit as the initial region of the background.
処理対象となる画像情報を表示する手段と、
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
として機能させるプログラム。 Computer
Means for displaying image information to be processed;
Means for accepting at least one designation of a point in the displayed image information;
For each received point, a region forming means for forming a region of a predetermined shape including the point in the image information;
Separation means for separating the image information into a foreground and a background by performing segmentation processing using the information of the formed area as an initial area of a foreground,
Output means for outputting the image portion of the foreground obtained by the separation,
Program to function as.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011164465A JP2013029930A (en) | 2011-07-27 | 2011-07-27 | Image processing device |
PCT/JP2012/069027 WO2013015381A1 (en) | 2011-07-27 | 2012-07-26 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011164465A JP2013029930A (en) | 2011-07-27 | 2011-07-27 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013029930A true JP2013029930A (en) | 2013-02-07 |
Family
ID=47601218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011164465A Withdrawn JP2013029930A (en) | 2011-07-27 | 2011-07-27 | Image processing device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013029930A (en) |
WO (1) | WO2013015381A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015060366A (en) * | 2013-09-18 | 2015-03-30 | カシオ計算機株式会社 | Image processor, image processing method and program |
JP2016012174A (en) * | 2014-06-27 | 2016-01-21 | 国立大学法人電気通信大学 | Intake estimation device, intake estimation method and program |
JP2016122367A (en) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | Image processor, image processing method and program |
JP2016530624A (en) * | 2013-08-16 | 2016-09-29 | ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド | Method and device for generating virtual fitting model images |
US9652858B2 (en) | 2014-05-30 | 2017-05-16 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and image processing system |
US9679386B2 (en) | 2013-10-09 | 2017-06-13 | Casio Computer Co., Ltd. | Image processing device capable of segmenting an image into plural areas |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010037B (en) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | Image processing method, device and storage medium |
WO2022185643A1 (en) * | 2021-03-03 | 2022-09-09 | 富士フイルム株式会社 | Image processing device, method for operating image processing device, and program for operating image processing device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3890235B2 (en) * | 2002-01-28 | 2007-03-07 | キヤノン株式会社 | Image processing apparatus, image processing method, computer program, and storage medium |
JP4569698B2 (en) * | 2008-06-20 | 2010-10-27 | ソニー株式会社 | Object recognition apparatus, object recognition method, and object recognition method program |
JP2010097355A (en) * | 2008-10-15 | 2010-04-30 | Nippon Telegr & Teleph Corp <Ntt> | Image separation device, image separation method, and image separation program |
JP2011050038A (en) * | 2009-07-27 | 2011-03-10 | Sanyo Electric Co Ltd | Image reproducing apparatus and image sensing apparatus |
-
2011
- 2011-07-27 JP JP2011164465A patent/JP2013029930A/en not_active Withdrawn
-
2012
- 2012-07-26 WO PCT/JP2012/069027 patent/WO2013015381A1/en active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016530624A (en) * | 2013-08-16 | 2016-09-29 | ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド | Method and device for generating virtual fitting model images |
JP2015060366A (en) * | 2013-09-18 | 2015-03-30 | カシオ計算機株式会社 | Image processor, image processing method and program |
US9384558B2 (en) | 2013-09-18 | 2016-07-05 | Casi Computer Co., Ltd. | Image processing device for performing image segmentation processing |
US9679386B2 (en) | 2013-10-09 | 2017-06-13 | Casio Computer Co., Ltd. | Image processing device capable of segmenting an image into plural areas |
US9652858B2 (en) | 2014-05-30 | 2017-05-16 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and image processing system |
JP2016012174A (en) * | 2014-06-27 | 2016-01-21 | 国立大学法人電気通信大学 | Intake estimation device, intake estimation method and program |
JP2016122367A (en) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | Image processor, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
WO2013015381A1 (en) | 2013-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013015381A1 (en) | Image processing device | |
US11592923B2 (en) | Systems and methods for resizing applications in a multitasking view on an electronic device with a touch-sensitive display | |
US11188216B2 (en) | Selectively emphasizing digital content | |
US9747010B2 (en) | Electronic content visual comparison apparatus and method | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
US20140375860A1 (en) | Information processing device, information processing system, and storage medium storing program | |
WO2007004489A1 (en) | Image processing device and image processing method | |
JP6287337B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP5880767B2 (en) | Region determination apparatus, region determination method, and program | |
EP2383701A1 (en) | Image processing method and apparatus | |
JP5907196B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP6269323B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP6241320B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
EP2911115B1 (en) | Electronic device and method for color extraction | |
KR101902418B1 (en) | Device and method for editing image in wireless terminal | |
US20180173411A1 (en) | Display device, display method, and non-transitory computer readable recording medium | |
JP5408097B2 (en) | Image display device and image display method | |
KR20130136939A (en) | Method for display and apparatus for the same | |
JP7363235B2 (en) | Information processing device and information processing program | |
CN111831123B (en) | Gesture interaction method and system suitable for desktop mixed reality environment | |
TW200920102A (en) | Document camera and its method for sharpening partial image on projected image | |
US20180173362A1 (en) | Display device, display method used in the same, and non-transitory computer readable recording medium | |
JP2013105238A (en) | Information processing device, method and program | |
JP2009211607A (en) | Object extraction device and method | |
JP6930099B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141007 |