JP2013029930A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2013029930A
JP2013029930A JP2011164465A JP2011164465A JP2013029930A JP 2013029930 A JP2013029930 A JP 2013029930A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2011164465 A JP2011164465 A JP 2011164465A JP 2013029930 A JP2013029930 A JP 2013029930A
Authority
JP
Japan
Prior art keywords
region
image
area
information
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011164465A
Other languages
Japanese (ja)
Inventor
Kiyoharu Aizawa
清晴 相澤
Silva Gamhewage Chaminda De
ガムヘワゲ チャミンダ デジルヴァ
Haruki Sugiyama
春樹 杉山
Makoto Ogawa
誠 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FOO LOG Inc
Foolog
University of Tokyo NUC
Original Assignee
FOO LOG Inc
Foolog
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FOO LOG Inc, Foolog, University of Tokyo NUC filed Critical FOO LOG Inc
Priority to JP2011164465A priority Critical patent/JP2013029930A/en
Priority to PCT/JP2012/069027 priority patent/WO2013015381A1/en
Publication of JP2013029930A publication Critical patent/JP2013029930A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that can achieve desired segmentation processing even by rough coordinate designation, so that the usability of processing operations can be improved.SOLUTION: An image processing device: displays image information to be processed; accepts at least one designation of a point within the displayed image information; forms a region having a predetermined shape including the point within the image information for each accepted point; and executes segmentation processing with information on the formed region as an initial region of the foreground, thereby separating the image information into the foreground and the background.

Description

本発明は、画像処理装置に係り、特に処理操作の利便性の向上に関する。   The present invention relates to an image processing apparatus, and more particularly to improvement in convenience of processing operation.

近年、いわゆるスマートフォン等、一般的なコンピュータと同様の処理が可能な携帯端末が広く利用されている。このようなスマートフォンでは、画面が比較的小さく、また操作もタッチパネルを利用するなど、画像上においても大ざっぱな点を指定できる程度となっているものが多い。   In recent years, mobile terminals such as so-called smartphones that can perform the same processing as a general computer have been widely used. Many of such smartphones have a relatively small screen and can be used to specify rough points on an image, such as using a touch panel.

一方、与えられた画像情報から対象となる領域を抽出する技術として、画像セグメンテーションと呼ばれる技術が知られている。こうしたセグメンテーションの処理の方法として、グラフカット(Graph Cuts)、領域拡張法などの種々の方法がある。例えば特許文献1には、物体認識のためにセグメンテーション処理を利用する例が開示されている。   On the other hand, a technique called image segmentation is known as a technique for extracting a target region from given image information. As a method of processing such segmentation, there are various methods such as graph cuts and region expansion methods. For example, Patent Document 1 discloses an example in which segmentation processing is used for object recognition.

特開2010−027025号公報JP 2010-027025 A

こうした従来のセグメンテーション技術では、例えばグラフカットを用いる場合に、抽出したい領域(前景)を取り囲む形状を初期領域として事前に指定することが前提となっている。しかしながら、既に述べたように、これをスマートフォン上に実装する場合、詳細な領域指定が困難であるために、セグメンテーションの処理が必ずしも十分にできない場合がある。   In such a conventional segmentation technique, for example, when a graph cut is used, it is assumed that a shape surrounding an area (foreground) to be extracted is designated in advance as an initial area. However, as described above, when this is mounted on a smartphone, it may be difficult to perform segmentation processing because detailed area designation is difficult.

本発明は上記実情に鑑みて為されたもので、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる画像処理装置を提供することをその目的の一つとする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus that can achieve desired segmentation processing and improve the convenience of processing operation even by rough coordinate designation. To do.

上記従来例の問題点を解決する本発明は、画像処理装置であって、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、とを含むこととしたものである。   The present invention for solving the problems of the conventional example is an image processing apparatus, means for displaying image information to be processed, means for receiving at least one designation of a point in the displayed image information, For each of the received points, a region forming means for forming a region of a predetermined shape including the point in the image information, and performing segmentation processing using the information of the formed region as an initial region of the foreground, the image information Are separated into foreground and background, and output means for outputting the image portion of the foreground obtained by the separation.

ここで前記領域形成手段は、所定形状の領域の大きさを、隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとしてもよい。   Here, the area forming means may set the size of the predetermined shape area to be in contact with an adjacent predetermined shape area or to be in contact with a shape surrounding the image information.

また、前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行うこととしてもよい。   The region forming means further forms a small region within the formed region having a predetermined shape and including the designated point included in the region, and the separating unit includes the small region. The separation process may be performed assuming that all of the pixels are included in the foreground.

さらに本発明の一態様に係る画像処理装置は、さらに、前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行することとしたものである。   Furthermore, in the image processing apparatus according to an aspect of the present invention, the separation unit further performs a segmentation process using an area outside the predetermined shape formed by the region forming unit as an initial region of the background. Is.

また本発明の別の態様に係るプログラムは、コンピュータを、処理対象となる画像情報を表示する手段と、前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、前記分離して得た前景の画像部分を出力する出力手段と、として機能させることとしたものである。   According to another aspect of the present invention, there is provided a program for displaying, on a computer, means for displaying image information to be processed, means for receiving at least one point designation in the displayed image information, and each received point. A region forming means for forming a region of a predetermined shape including the point in the image information, and performing segmentation processing using the information on the formed region as an initial region of the foreground, and converting the image information into the foreground and background. And separating means for separating the foreground and output means for outputting the image portion of the foreground obtained by the separation.

このように点の指定に基づいて初期領域を形成し、セグメンテーション処理を行うことで、大ざっぱな座標指定によっても、所望のセグメンテーション処理を達成でき、処理操作の利便性を向上できる。   In this way, by forming an initial region based on the designation of points and performing segmentation processing, desired segmentation processing can be achieved even by rough coordinate designation, and convenience of processing operations can be improved.

本発明の実施の形態に係る画像処理装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が生成する処理対象座標情報のリストの例を表す説明図である。It is explanatory drawing showing the example of the list | wrist of the process target coordinate information which the image processing apparatus which concerns on embodiment of this invention produces | generates. 本発明の実施の形態に係る画像処理装置が表示する画面例を表す説明図である。It is explanatory drawing showing the example of a screen which the image processing apparatus which concerns on embodiment of this invention displays. 本発明の実施の形態に係る画像処理装置の領域生成の処理例を表す説明図である。It is explanatory drawing showing the example of a process of the area | region production | generation of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置が生成する領域の例を表す説明図である。It is explanatory drawing showing the example of the area | region which the image processing apparatus which concerns on embodiment of this invention produces | generates. 本発明の実施の形態に係る画像処理装置の動作例を表すフローチャート図である。It is a flowchart figure showing the operation example of the image processing device concerning an embodiment of the invention.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、画像取得部15とを含んで構成されている。   Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the image processing apparatus 1 according to the embodiment of the present invention includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an image acquisition unit 15. It is configured.

ここで制御部11は、例えばCPU(Central Processing Unit)等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、処理対象となる画像情報を取得して表示部14に表示出力させる。またこの制御部11は、表示された画像情報内の点の指定を少なくとも一つ受け入れ、当該受け入れた各点を含む所定形状の各領域を画像情報内に形成する。そして制御部11は、形成した領域の情報を前景の初期領域としてセグメンテーション処理を実行し、画像情報を、前景と背景とに分離し、当該分離して得た前景の画像部分を出力する。この制御部11による具体的な処理の内容については後に詳しく述べる。   Here, the control unit 11 is a program control device such as a CPU (Central Processing Unit), and operates according to a program stored in the storage unit 12. In the present embodiment, the control unit 11 acquires image information to be processed and causes the display unit 14 to display and output the image information. In addition, the control unit 11 accepts at least one designation of a point in the displayed image information, and forms each region of a predetermined shape including the accepted point in the image information. Then, the control unit 11 performs segmentation processing using the formed region information as the initial region of the foreground, separates the image information into the foreground and the background, and outputs the foreground image portion obtained by the separation. Details of specific processing by the control unit 11 will be described in detail later.

記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムはDVD−ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。また、この記憶部12は、制御部11のワークメモリとしても動作する。   The storage unit 12 is a memory device or the like and holds a program executed by the control unit 11. This program may be provided by being stored in a computer-readable recording medium such as a DVD-ROM (Digital Versatile Disc Read Only Memory) and copied to the storage unit 12. The storage unit 12 also operates as a work memory for the control unit 11.

操作部13は、例えば表示部14に積層して配された透明のタッチパネルである。この操作部13は、利用者が触れるなどして指示した位置を表す情報を生成して、制御部11に出力する。表示部14は、液晶ディスプレイパネルなどであり、制御部11から入力される指示に従い、画像情報を表示出力する。   The operation unit 13 is a transparent touch panel arranged on the display unit 14, for example. The operation unit 13 generates information indicating a position instructed by touching the user and outputs the information to the control unit 11. The display unit 14 is a liquid crystal display panel or the like, and displays and outputs image information in accordance with an instruction input from the control unit 11.

画像取得部15は、例えばカメラなど、撮像により画像情報を取得する撮像部、あるいは、ネットワークインタフェース、USB(Universal Serial Bus)インタフェース等外部の装置との通信により画像情報を取得する通信部の少なくとも一方を含む。この画像取得部15は、取得した画像情報を制御部11に出力する。   The image acquisition unit 15 is at least one of an imaging unit that acquires image information by imaging, such as a camera, or a communication unit that acquires image information by communication with an external device such as a network interface or a USB (Universal Serial Bus) interface. including. The image acquisition unit 15 outputs the acquired image information to the control unit 11.

次に本実施の形態の制御部11の動作について説明する。本実施の形態の制御部11は、画像取得部15が取得して出力する画像情報を記憶部12に格納する。また、この制御部11は、記憶部12に格納されたプログラムを実行することで、機能的に図2に例示する構成を有したものして動作する。すなわち、この制御部11は機能的には、画像情報取得部21と、画像表示制御部22と、指定点受入部23と、領域形成部24と、分離部25と、出力部26と、情報処理部27とを含んで構成される。   Next, the operation of the control unit 11 of the present embodiment will be described. The control unit 11 according to the present embodiment stores the image information acquired and output by the image acquisition unit 15 in the storage unit 12. In addition, the control unit 11 is functionally operated with the configuration illustrated in FIG. 2 by executing a program stored in the storage unit 12. That is, the control unit 11 is functionally configured to have an image information acquisition unit 21, an image display control unit 22, a designated point receiving unit 23, an area forming unit 24, a separation unit 25, an output unit 26, an information And a processing unit 27.

画像情報取得部21は、利用者からの指示に従い、記憶部12に格納した画像情報の一つを読み出す。また、この画像情報取得部21は、利用者からの指示に従い、画像取得部15の撮像部に指示して、画像情報を撮像して取得してもよい。画像表示制御部22は、画像情報取得部21が取得した画像情報を表示部14に表示出力させる。   The image information acquisition unit 21 reads one of the image information stored in the storage unit 12 in accordance with an instruction from the user. Further, the image information acquisition unit 21 may instruct the image acquisition unit 15 to acquire and acquire image information in accordance with an instruction from the user. The image display control unit 22 causes the display unit 14 to display and output the image information acquired by the image information acquisition unit 21.

指定点受入部23は、画像表示制御部22によって表示部14が表示出力している画像情報上で、利用者が操作部13を操作して指示した位置(画像情報内の点の指定)を少なくとも一つ、受け入れる。操作部13が表示部14に積層されたタッチパネルである場合、操作部13は、利用者が触れた位置に対応する、積層されている表示部14上の画素の位置の情報(座標情報)を出力する。   The designated point receiving unit 23 indicates a position (designation of a point in the image information) indicated by the user operating the operation unit 13 on the image information displayed and output by the display unit 14 by the image display control unit 22. Accept at least one. When the operation unit 13 is a touch panel laminated on the display unit 14, the operation unit 13 displays pixel position information (coordinate information) on the laminated display unit 14 corresponding to the position touched by the user. Output.

指定点受入部23は、操作部13から利用者が指定した座標情報の入力を受けるごとに、当該座標情報Pを、記憶部12に処理対象座標情報リストとして蓄積して格納する(図3)。また、この指定点受入部23は、利用者が操作部13上の一点を長押し(タッチパネル上の一点を抑えたまま、一定時間以上そのままにする操作)したことを表す情報を操作部13から受け入れ、次の処理を行ってもよい。   Each time the designated point receiving unit 23 receives input of coordinate information designated by the user from the operation unit 13, the designated point receiving unit 23 accumulates and stores the coordinate information P as a processing target coordinate information list in the storage unit 12 (FIG. 3). . In addition, the designated point receiving unit 23 receives information indicating that the user has long-pressed one point on the operation unit 13 (an operation for keeping the point on the touch panel to remain for a predetermined time or longer) from the operation unit 13. You may accept and do the following:

すなわち、長押しされた座標情報Sが入力されると、処理対象座標情報リストに含まれる座標情報P1,P2,…Pnのうち、
|S−Pi|<T
(ただし、|S−Pi|は、座標情報Sで表される座標と、Piで表される座標との距離、i=1,2,…n、Tは予め定めたしきい値)を満足する座標情報Piがあるか否かを調べ、そのようなPiがあれば(複数あれば、|S−Pi|が最も小さいPiとする)、当該Piを取り囲む所定形状の図形を表示部14に表示し、また、当該図形の近傍に削除指示を受け入れるアイコン(例えばX印のアイコン)を表示する。この表示は例えば図4に例示するようになる。
That is, when the long-pressed coordinate information S is input, among the coordinate information P1, P2,... Pn included in the processing target coordinate information list,
| S-Pi | <T
(Where | S−Pi | is the distance between the coordinates represented by the coordinate information S and the coordinates represented by Pi, i = 1, 2,... N, T is a predetermined threshold value) If there is such a Pi (if there are a plurality of coordinates information Pi, | S-Pi | is the smallest Pi), a graphic of a predetermined shape surrounding the Pi is displayed on the display unit 14. In addition, an icon (for example, an X mark icon) that accepts a deletion instruction is displayed in the vicinity of the figure. This display is illustrated in FIG. 4, for example.

そして利用者がこの所定形状の図形を表示部14上でドラッグすると、ドラッグに従って座標情報Piを変更する。また、利用者が当該図形近傍に配された削除指示用のアイコンに触れると、当該座標情報Piを、処理対象座標情報リストから削除する等、処理対象座標情報リスト上の座標情報を追加、変更する処理を行わせてもよい。   When the user drags the figure with the predetermined shape on the display unit 14, the coordinate information Pi is changed according to the drag. Further, when the user touches a deletion instruction icon arranged near the figure, the coordinate information on the processing target coordinate information list is added or changed, such as deleting the coordinate information Pi from the processing target coordinate information list. You may perform the process to perform.

領域形成部24は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する。具体的にこの領域形成部24は、処理対象座標情報リストに含まれる座標情報を順次、注目座標Pgとして選択する。   The area forming unit 24 refers to the coordinate information included in the processing target coordinate information list, and for each point received by the user's instruction operation, forms an area of a predetermined shape including the point in the image information. Specifically, the region forming unit 24 sequentially selects the coordinate information included in the processing target coordinate information list as the attention coordinate Pg.

領域形成部24は、注目座標Pgとの間で、距離
|Pi−Pg|
が最も小さい、最近傍の座標情報Pjを処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n、ただしi≠g)のうちから選択する。そして領域形成部24は、最近傍の他の点までの距離|Pj−Pg|の半分を、点Pgを含む所定形状の領域の大きさを規定する情報rgとして算出する。つまり、
rg=|Pi−Pg|/2
とする(図5)。
The region forming unit 24 makes a distance | Pi−Pg |
Is selected from the coordinate information Pi (i = 1, 2,... N, where i ≠ g) included in the processing target coordinate information list. Then, the region forming unit 24 calculates half of the distance | Pj−Pg | to the other nearest point as information rg that defines the size of the region having a predetermined shape including the point Pg. In other words,
rg = | Pi-Pg | / 2
(FIG. 5).

領域形成部24は、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…n)に関連して、それぞれの点を含む所定形状の領域の大きさを規定する情報ri(i=1,2,…n)を生成すると、この情報riを、対応する座標情報を特定する情報に関連づけて記憶部12に格納する。領域形成部24はそして、座標情報Piがあらわす座標を中心とし、半径がriである円形状の領域(i=1,2…,n)を生成する(図6)。このようにすることで、所定形状の領域の大きさが隣接する(最近傍の)所定形状の領域に接する大きさとなる。   The area forming unit 24 relates to the coordinate information Pi (i = 1, 2,... N) included in the processing target coordinate information list, and information ri (which defines the size of an area of a predetermined shape including each point. When i = 1, 2,..., n) is generated, this information ri is stored in the storage unit 12 in association with information specifying the corresponding coordinate information. Then, the region forming unit 24 generates a circular region (i = 1, 2,..., N) having a radius ri around the coordinates represented by the coordinate information Pi (FIG. 6). By doing so, the size of the region of the predetermined shape becomes a size in contact with the adjacent (closest) region of the predetermined shape.

またこの領域形成部24は、n=1、つまり、処理対象座標情報リストに含まれる座標情報Piが1つしかなければ、領域の大きさを画像情報を取り囲む形状に接する大きさとする。つまり座標情報Piが表す座標を中心とし、画像情報に外接する矩形に内接する(枠に接する最大の大きさの)円形状の領域を生成することとすればよい。   Further, the region forming unit 24 sets the size of the region in contact with the shape surrounding the image information if n = 1, that is, if there is only one coordinate information Pi included in the processing target coordinate information list. That is, a circular area inscribed in the rectangle circumscribing the image information (maximum size in contact with the frame) may be generated with the coordinates represented by the coordinate information Pi as the center.

分離部25は、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。このセグメンテーション処理については、例えばグラフカットなどの公知の処理を採用できるので、ここでの詳しい説明を省略する。具体的には、グラフカットの実装例であるグラブカット(GrabCut)の自動セグメンテーション(Automatic segmentation)を採用してもよい。このグラブカットは例えば、C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004に詳しい説明が記載されている。   The separation unit 25 performs segmentation processing using the formed region information as an initial region of the foreground, and separates the image information into the foreground and the background. For this segmentation process, a known process such as a graph cut can be adopted, and detailed description thereof is omitted here. Specifically, GrabCut automatic segmentation, which is an implementation example of graph cut, may be employed. This grab cut is described in detail in, for example, C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., Vol. 23, pp. 309-314, 2004. Have been described.

出力部26は、画像情報のうち、分離された前景の画像部分を出力する。本実施の形態では、座標情報Piごとに前景となる画像部分が分離される。出力部26は、座標情報Piごとの前景となる画像部分を出力する。情報処理部27は、出力部26が出力した画像部分を用いて予め定めた情報処理を実行する。この情報処理部27による処理の例については後に述べる。   The output unit 26 outputs the separated foreground image portion of the image information. In the present embodiment, the foreground image portion is separated for each coordinate information Pi. The output unit 26 outputs an image portion serving as a foreground for each coordinate information Pi. The information processing unit 27 executes predetermined information processing using the image portion output by the output unit 26. An example of processing by the information processing unit 27 will be described later.

本実施の形態は、以上の構成を備えており、次に述べるように動作する。利用者が本実施の形態の画像処理装置を操作して、画像情報を取得して表示するよう指示すると、図7に例示するように本実施の形態の画像処理装置1は、表示部14に指示により取得した画像情報を表示し、点を指定する操作を待機する(S1)。   The present embodiment has the above configuration and operates as described below. When the user operates the image processing apparatus according to the present embodiment to instruct to acquire and display image information, the image processing apparatus 1 according to the present embodiment is displayed on the display unit 14 as illustrated in FIG. The image information acquired by the instruction is displayed, and an operation for designating a point is awaited (S1).

利用者が、表示された画像情報上で、抽出したい画像部分中の一点をタップすると画像処理装置1は、当該タップされた位置に対応する画像情報上の座標情報を取得して記録する(S2)。画像処理装置1は、利用者から指定が終了した旨の操作が行われるまで処理S2を繰り返して行い、少なくとも一つの指定点の座標情報を蓄積して記録する。   When the user taps one point in the image portion to be extracted on the displayed image information, the image processing apparatus 1 acquires and records coordinate information on the image information corresponding to the tapped position (S2). ). The image processing apparatus 1 repeats the process S2 until the user performs an operation indicating that the designation has been completed, and accumulates and records the coordinate information of at least one designated point.

利用者が点の指定を終了した旨の操作を行うと、画像処理装置1は、処理対象座標情報リストに含まれる座標情報を参照し、利用者の指示操作により受け入れた点ごとに、当該点を含む所定形状の領域を画像情報内に形成する(S3)。ここでは所定形状は例えば円であるとする。また、各領域は重なり合わずに互いに接する大きさ以下の大きさとする。   When the user performs an operation indicating that the point has been specified, the image processing apparatus 1 refers to the coordinate information included in the processing target coordinate information list, and for each point received by the user's instruction operation, A region having a predetermined shape including the image is formed in the image information (S3). Here, it is assumed that the predetermined shape is, for example, a circle. In addition, each region has a size not larger than the size in contact with each other without overlapping.

画像処理装置1は、形成した領域を、前景を表す初期領域としてグラブカットなどのプログラムを利用してセグメンテーション処理を実行する(S4)。そしてセグメンテーションの処理により得られた画像情報のうち、前景となる部分画像を処理の対象として取り出して(S5)、予め定めた処理を実行する(S6)。   The image processing apparatus 1 executes a segmentation process using a program such as a grab cut with the formed area as an initial area representing the foreground (S4). Then, out of the image information obtained by the segmentation process, a partial image serving as the foreground is extracted as a process target (S5), and a predetermined process is executed (S6).

さらに本実施の形態の画像処理装置1の制御部11は、領域形成部24及び分離部25の処理として次のような処理を行ってもよい。すなわち領域形成部24は、座標情報Piについて確定した円形状の領域(区別のため外周領域と呼ぶ)内に、さらに当該座標情報Piによって表される座標を含む小領域をさらに形成してもよい。この小領域は具体的に、確定した外周領域の形状と相似の形状であって、予め定めた大きさのものとする。なお、この予め定めた大きさによって確定される小領域が、確定した外周領域からはみ出る場合は、外周領域と小領域とが重なりあっている(いわばそれらの論理積によって確定される)領域を小領域とする。   Further, the control unit 11 of the image processing apparatus 1 according to the present embodiment may perform the following processing as the processing of the region forming unit 24 and the separation unit 25. That is, the area forming unit 24 may further form a small area including the coordinates represented by the coordinate information Pi in a circular area determined for the coordinate information Pi (referred to as an outer peripheral area for distinction). . Specifically, the small area has a shape similar to the determined shape of the outer peripheral area and has a predetermined size. In addition, when the small area determined by the predetermined size protrudes from the determined outer peripheral area, the area where the outer peripheral area and the small area overlap (to be determined by their logical product) is reduced. This is an area.

また別の例では、この小領域は、確定した外周領域の形状と相似の形状であって、外周領域の大きさに対して予め定めた比ないし大きさだけ小さい領域であるものとして設定してもよい。   In another example, this small region is set to be a shape similar to the shape of the determined outer peripheral region, and a region that is smaller than the size of the outer peripheral region by a predetermined ratio or size. Also good.

そして制御部11の分離部25は、この小領域内にある画素はすべて前景を構成する画素であるとしてセグメンテーションの処理を実行する。具体的にグラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=1(foreground brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。   Then, the separation unit 25 of the control unit 11 performs the segmentation process on the assumption that all the pixels in the small area are pixels constituting the foreground. Specifically, when using grab cut, after performing automatic segmentation with the outer region as the initial region, this small region is designated as the foreground by the user (C. Rother, V. Kolmogorov, and A. Blake, GrabCut : Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., Vol. 23, pp. 309-314, 2004, αn = 1 (foreground brush) .

さらに本実施の形態の画像処理装置1では、分離部25の処理として、画像情報のうち、どの外周領域にも含まれない部分(領域外の部分)については、背景の初期領域としてセグメンテーションの処理を行ってもよい。具体的に、グラブカットを用いる場合、外周領域を初期領域として自動セグメンテーションを行った後、この小領域が利用者から前景として指定された領域(C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., vol. 23, pp. 309−314, 2004においてαn=0(background brush)とされる領域)であるとして、再度セグメンテーションの評価を実行する。   Further, in the image processing apparatus 1 according to the present embodiment, as a process of the separation unit 25, a segmentation process is performed as a background initial area for a part of the image information that is not included in any outer peripheral area (a part outside the area). May be performed. Specifically, when grab cut is used, after performing automatic segmentation with the outer region as the initial region, this small region is designated as the foreground by the user (C. Rother, V. Kolmogorov, and A. Blake, GrabCut: Interactive foreground extraction using iterated graph cuts, ACM Trans. Graph., Vol. 23, pp. 309-314, 2004, assuming that αn = 0 (background brush)) To do.

さらにここまでの説明において、領域形成部24は、注目座標情報Pgから最近傍の他の点(座標情報Pjで表される座標の点)までの距離|Pj−Pg|の半分、つまりこれらの各点の中点を、点Pgを含む所定形状の領域の外周が通る点として、領域の大きさを規定していた。つまり、
rg=|Pj−Pg|/2
としていた。
Further, in the description so far, the region forming unit 24 determines the half of the distance | Pj−Pg | from the target coordinate information Pg to another nearest point (the coordinate point represented by the coordinate information Pj), that is, The size of the area is defined as a point through which the outer periphery of the area having a predetermined shape including the point Pg passes through the midpoint of each point. In other words,
rg = | Pj-Pg | / 2
I was trying.

しかしながら、本実施の形態はこれに限られるものではない。例えば領域形成部24は、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて、表示部14に表示出力し、領域の調整を利用者から受け入れる指示に従って行ってもよい。この調整は例えば次のようにして行うことができる。すなわち利用者が領域内の一点をタップするごとに、当該タップされた領域の大きさを拡大するようにする。   However, the present embodiment is not limited to this. For example, the area forming unit 24 superimposes the graphic image representing the formed area on the image information to be processed, and displays it on the display unit 14, and performs the area adjustment according to an instruction to accept the adjustment from the user. Also good. This adjustment can be performed as follows, for example. That is, each time the user taps one point in the area, the size of the tapped area is enlarged.

このために領域形成部24は、この調整を受け入れる処理を行う際には、予め各座標情報Pi(i=1,2,…,n)についてタップ回数を表す情報Ti(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。このタップ回数Tiは、当初は、それぞれ1回ずつなのでそれぞれ「1」となる。   Therefore, when the region forming unit 24 performs the process of accepting the adjustment, information Ti (i = 1, 2, 2) indicating the number of taps for each coordinate information Pi (i = 1, 2,..., N) in advance. ..., n) are stored in the storage unit 12 in association with each other. Since the number of taps Ti is initially 1 each, it is “1”.

一例として、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力し、領域の調整を利用者から受け入れる処理を行う。   As an example, when an area is formed in the process S3, a graphic image representing the formed area is superimposed on the image information to be processed and displayed on the display unit 14 to accept adjustment of the area from the user. I do.

ここで利用者が調整のために指定した点の座標情報が入力されると、領域形成部24は形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
Here, when the coordinate information of the point designated for adjustment by the user is input, the region forming unit 24 refers to the information of the formed region and specifies the region including the point represented by the coordinate information. That is, the coordinate information of the point designated by the user for adjustment is Pa, the coordinate information Pi (i = 1, 2,..., N) included in the processing target coordinate information list, and the size of the corresponding area. And (here circle radius ri)
| Pa−Pi | ≦ ri
The coordinate information Pi is searched. If there is such coordinate information Pi, the region forming unit 24 sets the region corresponding to the coordinate information Pi as the designated region, and increments the number of taps Ti associated with the coordinate information Pi by “1”.

そして領域形成部24は、当該座標情報Piとその最近傍の他の点までの距離|Pj−Pi|を用いて、まず指定した座標情報Piに係る、指定された領域の大きさriを、
r′i=(Ti/(Ti+Tj))×|Pj−Pi|
に更新する。なお、Tjは、座標情報Pjに関連づけられたタップ回数である。また領域形成部24は、座標情報Piの最近傍の座標情報Pjについて、当該座標情報Pjに係る領域の大きさrjを
r′j=(Tj/(Ti+Tj))×|Pj−Pi|
とする。
Then, the area forming unit 24 uses the coordinate information Pi and the distance | Pj−Pi | to the other nearest point to determine the size r i of the designated area related to the designated coordinate information Pi.
r′i = (Ti / (Ti + Tj)) × | Pj−Pi |
Update to Tj is the number of taps associated with the coordinate information Pj. Further, the area forming unit 24 sets the size rj of the area related to the coordinate information Pj with respect to the coordinate information Pj nearest to the coordinate information Pi by r′j = (Tj / (Ti + Tj)) × | Pj−Pi |
And

このとき、領域形成部24は、
|Pi−Pk|<r′i+rk
または
|Pj−Pk|<r′j+rk
なる座標情報Pkならびに半径rkがないかを調べる。つまり領域の大きさを拡大等した結果、他の座標情報に係る領域と重なり合うこととならないかを調べる。そして座標情報Piについて、|Pi−Pk|<r′i+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′i=|Pi−Pk|−rk
とする。また座標情報Pjについて、|Pj−Pk|<r′j+rkなる(重なり合うこととなる)Pk及びrkが見出されたときには、領域形成部24は、
r′j=|Pj−Pk|−rk
とする。
At this time, the region forming unit 24
| Pi-Pk | <r'i + rk
Or | Pj−Pk | <r′j + rk
It is checked whether there is coordinate information Pk and radius rk. That is, as a result of enlarging the size of the area, it is checked whether or not it overlaps with the area related to other coordinate information. When the coordinate information Pi is found such that | Pi−Pk | <r′i + rk (to be overlapped) Pk and rk, the region forming unit 24
r'i = | Pi-Pk | -rk
And When the coordinate information Pj is found such that | Pj−Pk | <r′j + rk (which overlaps), the region forming unit 24
r'j = | Pj-Pk | -rk
And

また、利用者が領域の調整を終了する指示(領域を確定する指示)を入力すると、処理S4に移行して、処理を続ける。   When the user inputs an instruction to end the adjustment of the area (an instruction to determine the area), the process proceeds to step S4 and the process is continued.

次に、本実施の形態の画像処理装置1において制御部11が、画像情報から処理対象として取り出した前景となる画像部分について行う処理の例について述べる。本実施の形態のある例によると、画像処理装置1が取得する画像情報は、例えば複数の皿のそれぞれに盛られた飲食物を撮像した画像情報である。   Next, an example of processing performed by the control unit 11 in the image processing apparatus 1 according to the present embodiment for the foreground image portion extracted from the image information as a processing target will be described. According to an example of the present embodiment, the image information acquired by the image processing device 1 is, for example, image information obtained by capturing food and drinks stacked on each of a plurality of dishes.

そして利用者は、表示された飲食物を撮像した画像から、各皿の飲食物の部分をタップする。画像処理装置1は、タップされた位置を含む領域を画定し、この領域を前景の初期領域としてセグメンテーション処理により、飲食物を含んだ画像部分を抽出する。   And a user taps the part of the food and drink of each dish from the image which imaged the displayed food and drink. The image processing apparatus 1 defines an area including the tapped position, and extracts an image portion including food and drink by segmentation processing using the area as an initial area of the foreground.

本実施の形態の画像処理装置1は、抽出した画像部分の画素値のヒストグラム等、画素値に基づいて演算される特徴量と、当該特徴量により識別される料理について、標準的なものについて予め定めた分量の場合(例えば1人分)の栄養成分値(例えばカロリーや塩分等)とを関連づけて保持したデータベース(成分値データベース)を参照して、抽出された画像部分ごとに、標準的、かつ予め定めた分量の栄養成分値を取得する。なお、こうしたデータベースは、文部科学省の「食品標準成分表」等の情報から作成できる。   The image processing apparatus 1 according to the present embodiment uses a standard one for a feature amount calculated based on a pixel value, such as a histogram of pixel values of an extracted image portion, and a dish identified by the feature amount. For each of the extracted image parts, with reference to a database (component value database) stored in association with nutritional component values (for example, calories and salt content) in the case of a defined amount (for example, for one person), And the nutritional component value of the predetermined quantity is acquired. In addition, such a database can be created from information such as “Food Standard Composition Table” of the Ministry of Education, Culture, Sports, Science and Technology.

画像処理装置1は、次に、抽出した前景の画像部分の数と大きさとにより、取得した栄養成分値を補正する。具体的に、通常の食事において一人が喫食する飲食物の種類を平均的にN皿として、抽出した前景の画像部分の数がこのNを超えていなければ、この抽出した前景の画像部分の大きさ(例えば抽出した画像部分に外接する円の半径riでよい)の平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。   Next, the image processing apparatus 1 corrects the acquired nutrient component value based on the number and size of the extracted foreground image portions. Specifically, if the average number of the foreground image portions extracted by one person in an ordinary meal is N dishes and the number of extracted foreground image portions does not exceed N, the size of the extracted foreground image portion is larger. Then, an average value rave is calculated (for example, it may be a radius ri of a circle circumscribing the extracted image portion). Then, taking the average value as the size for one person, the size of each extracted image portion of the foreground ri / rave is multiplied by the nutrient value obtained from the component value database for the corresponding image portion, and accumulated.

また、抽出した前景の画像部分の数がこのNを超えていれば、N以下の画像部分が得られるまで、抽出した前景の画像部分のうち大きさが大きいものから順にn個、または、小さいものから順にm個の少なくとも一方を、n,mを漸増させつつ繰り返して、除いていく。そして、この結果、N以下の画像部分が得られたならば、それらの大きさの平均値raveを演算する。そして当該平均値を1人分の大きさとして、抽出した前景の各画像部分の大きさri/raveを対応する画像部分について成分値データベースから取得した栄養成分値に乗じて、累算する。そして画像処理装置1は、この累算の結果を表示部14に表示し、利用者に提示する。   Also, if the number of extracted foreground image parts exceeds this N, until the number of N or less image parts is obtained, n pieces of extracted foreground image parts in descending order of size or smaller At least one of m pieces is removed in order from the one by repeatedly increasing n and m. As a result, if N or less image portions are obtained, an average value rave of these sizes is calculated. Then, taking the average value as the size for one person, the size of each extracted image portion of the foreground ri / rave is multiplied by the nutrient value obtained from the component value database for the corresponding image portion, and accumulated. Then, the image processing apparatus 1 displays the accumulation result on the display unit 14 and presents it to the user.

[個別の大きさ]
また領域形成部24が、形成した領域の一つに対して利用者の調整の指示を受け入れる場合に、ここまでの説明では、調整の対象となった領域の大きさを指示に応じて拡大するとともに、隣接する領域の大きさについては、当該調整の対象となった領域と重なり合わず、接することとなるよう縮小することとしてきた。しかしながら本実施の形態はこれに限られるものではない。
[Individual size]
When the area forming unit 24 accepts a user's adjustment instruction for one of the formed areas, in the above description, the size of the area to be adjusted is enlarged according to the instruction. At the same time, the size of the adjacent area has been reduced so as to be in contact with the area to be adjusted without overlapping. However, the present embodiment is not limited to this.

個々の領域の大きさを個別のものとして、利用者による調整の対象となった領域を指示に応じて拡大ないし縮小するようにし、隣接する領域の大きさについては調整しないようにしても構わない。   The size of each region may be individual, the region that is subject to adjustment by the user may be enlarged or reduced according to an instruction, and the size of the adjacent region may not be adjusted. .

すなわち、利用者が調整のために指定した点の座標情報Paが入力されると、領域形成部24は、形成した領域の情報を参照して、当該座標情報が表す点を含む領域を特定する。つまり、利用者が調整のために指定した点の座標情報をPaとして、処理対象座標情報リストに含まれる座標情報Pi(i=1,2,…,n)と、それぞれに対応する領域の大きさ(ここでは円の半径ri)とを用いて、
|Pa−Pi|≦ri
なる座標情報Piを検索する。そして、そのような座標情報Piがあれば、領域形成部24は座標情報Piに対応する領域を指定された領域として、当該指定された領域の座標情報Piに関連づけられたタップ回数Tiを「1」だけインクリメントする。
That is, when the coordinate information Pa of the point designated for adjustment by the user is input, the region forming unit 24 refers to the information of the formed region and specifies the region including the point represented by the coordinate information. . That is, the coordinate information of the point designated by the user for adjustment is Pa, the coordinate information Pi (i = 1, 2,..., N) included in the processing target coordinate information list, and the size of the corresponding area. And (here circle radius ri)
| Pa−Pi | ≦ ri
The coordinate information Pi is searched. If there is such coordinate information Pi, the area forming unit 24 sets the area corresponding to the coordinate information Pi as the designated area, and sets the number of taps Ti associated with the coordinate information Pi of the designated area to “1”. "Is incremented.

そして領域形成部24は、この座標情報Piに係る、指定された領域の大きさriを、
ri=ri+Δr×Ti
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでΔrはタップ一回分の増分として予め定めた値とする。
Then, the area forming unit 24 determines the size r i of the designated area related to the coordinate information Pi.
ri = ri + .DELTA.r.times.Ti
Ri is updated (the equal sign in this case means that the value on the right side is assigned to the variable on the left side). Here, Δr is set to a predetermined value as an increment for one tap.

この場合、領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。   In this case, when the user inputs an instruction to end the adjustment of the region, the region forming unit 24 uses two different pieces of coordinate information Pi (i = 1, 2,..., N), Pj (j = 1, 2, .., N), it is checked whether there is a combination of i and j such that | Pi−Pj | <ri + rj (whether there is a region overlapping each other).

そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。   Then, the region forming unit 24 outputs information indicating the presence or absence of overlapping regions to the separating unit 25. When the information indicating that there is no overlapping area is input, the separation unit 25 performs segmentation processing using the information on the formed area as the initial area of the foreground, and outputs image information as described above. , Separate into foreground and background.

一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。   On the other hand, when information indicating that there is an overlapping area is input, the separation unit 25 uses each of the areas related to the individual coordinate information Pi (i = 1, 2,..., N) as the initial area of the foreground. Perform segmentation processing individually. Then, the logical sum of the foreground parts obtained individually as a result of the individual segmentation processing is used as the foreground part of the image information, and the part other than the foreground part is used as the background.

この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。   As in this example, the separation unit 25 separates the foreground and the background by executing segmentation processing at least for regions that do not overlap each other and individually for overlapping regions.

[前景の大きさを変更する処理の変形例]
また、領域形成部24は、領域の調整を受け入れる場合であって、領域間が離れても構わないとする場合には、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを初期値として、座標情報Piに対応する領域の大きさとしてもよい。つまり、
ri=rdefault
とする。
[Modification of processing to change foreground size]
In addition, when the region forming unit 24 accepts the adjustment of the region and the regions may be separated, the region forming unit 24 determines in advance regardless of the nearest coordinate information with respect to the input coordinate information Pi. The size rdefault may be used as an initial value, and the size of the area corresponding to the coordinate information Pi may be used. In other words,
ri = rdefault
And

この場合利用者は、当初領域に関する座標情報を指定して、その後、適宜タップを繰り返して、領域の大きさが所望のものとなるまでタップを繰り返すこととすればよい。   In this case, the user may designate the coordinate information regarding the initial region, and then repeat the tap as appropriate, and repeat the tap until the size of the region becomes a desired one.

さらにここまでの説明では、領域形成部24が調整の処理を受け入れるにあたっては、タップ回数に応じて領域を拡大する例について述べたが、調整の処理では、領域の拡大・縮小の双方を可能としてもよい。   Further, in the description so far, the example has been described in which the region forming unit 24 accepts the adjustment process, and the region is enlarged according to the number of taps. However, the adjustment process enables both the enlargement and reduction of the region. Also good.

この例では、領域形成部24は、拡大・縮小の双方の調整を受け入れる処理を行うため、予め各座標情報Pi(i=1,2,…,n)について拡大縮小の割合を表す重み値Wi(i=1,2,…,n)を関連づけて記憶部12に格納して保持する。この重み値Wiは、当初は、予め定めた初期値X、例えば「0」としておく。   In this example, the area forming unit 24 performs a process of accepting both the enlargement / reduction adjustments, and therefore the weight value Wi representing the enlargement / reduction ratio for each coordinate information Pi (i = 1, 2,..., N) in advance. (I = 1, 2,..., N) are associated and stored in the storage unit 12. The weight value Wi is initially set to a predetermined initial value X, for example, “0”.

また、入力された座標情報Piに対する最近傍の座標情報に関わらず、予め定めた大きさrdefaultを、座標情報Piに対応する領域の大きさの初期値としておく。   In addition, a predetermined size rdefault is set as an initial value of the size of the region corresponding to the coordinate information Pi regardless of the nearest coordinate information with respect to the input coordinate information Pi.

一例として領域形成部24は、処理S3において領域を形成すると、形成した領域を表す図形画像を、処理の対象となっている画像情報に重ね合わせて表示部14に表示出力するとともに、各領域を表す図形画像の内部ないし外周上に重ね合わせて、領域の拡大を指示する際にタップするアイコン(例えば「+」記号のアイコン)と、領域の縮小を指示する際にタップするアイコン(例えば「−」記号のアイコン)とを表示する。そして領域の調整を利用者から受け入れる処理を行う。これら、拡大ないし縮小指示のためのアイコンは、どの領域に関連するものかが指定できればそれでよく、表示位置は特に上記のものに限られない。   As an example, when the region forming unit 24 forms a region in the process S3, a graphic image representing the formed region is superimposed on the image information to be processed and displayed on the display unit 14, and each region is displayed. An icon to be tapped when instructing enlargement of an area (for example, an icon with a “+” sign) and an icon to be tapped when instructing reduction of an area (for example, “−” ”Symbol icon). Then, processing for accepting the adjustment of the area from the user is performed. These icons for enlarging or reducing instructions only need to be able to specify which region is related, and the display position is not particularly limited to the above.

さらに別の例では、調整の対象となる領域を指定して、指二本で広げるあるいは狭めるような操作(アップル社のアイフォーンでいう、「ピンチアウト」ならびに「ピンチイン」操作)を行うことで、拡大縮小の指示が行われてもよい。   In another example, you can specify the area to be adjusted and perform operations to expand or narrow it with two fingers ("pinch out" and "pinch in" operations on Apple's iPhone). Instructing enlargement / reduction may be performed.

ここで利用者が調整のために、いずれかの領域の図形画像に関連づけられた拡大・縮小のためのアイコンがタップされるか、またはいずれかの領域を指定した「ピンチアウト」や「ピンチイン」といった操作が行われると、領域形成部24は形成した領域の情報を参照して、指定された領域Pi(アイコンをタップしたときには当該タップされアイコンに関連する領域)を特定する。   Here, for adjustment, the icon for enlargement / reduction associated with the graphic image in one of the areas is tapped, or “pinch out” or “pinch in” in which one of the areas is specified. When the above operation is performed, the region forming unit 24 refers to the information of the formed region, and specifies the specified region Pi (the region related to the icon that is tapped when the icon is tapped).

そして領域形成部24は、当該特定した座標情報Piに関連づけられた重み値Wiを調整する。すなわち、領域の拡大を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ増大させ、領域の縮小を指示するアイコンがタップされたときには例えば重み値Wiをタップされた回数だけ減少させる。   Then, the area forming unit 24 adjusts the weight value Wi associated with the specified coordinate information Pi. That is, when an icon for instructing expansion of an area is tapped, for example, the weight value Wi is increased by the number of taps, and when an icon for instructing reduction of the area is tapped, for example, the weight value Wi is decreased by the number of taps. Let

また「ピンチアウト」や「ピンチイン」といった操作の場合は、これらの操作において2つの指の触れている点が近接ないし離隔した量に応じ、近接したときには近接量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiから差引きする。   Also, in the case of operations such as “pinch out” and “pinch in”, the proximity amount (the distance between the initial two points and the distance between the two points) depends on the amount at which the points touched by two fingers are close or separated in these operations. The absolute value of the difference between the two points after the operation) is multiplied by a predetermined coefficient, and only the result of the multiplication is subtracted from the current weight value Wi.

また、ピンチアウト操作(2つの指の触れている点が離隔していく操作)がされたときには、離隔量(当初の2点間の距離と、操作後の2点間の距離との差の絶対値)に、予め定めた係数を乗じ、当該乗じた結果だけ、現在の重み値Wiを増大させる。   When a pinch-out operation (an operation in which the points touched by two fingers are separated) is performed, the separation amount (the difference between the initial distance between the two points and the distance between the two points after the operation) (Absolute value) is multiplied by a predetermined coefficient, and the current weight value Wi is increased by the result of the multiplication.

領域形成部24は、こうして調整した重み値Wiを用いて、先に特定した座標情報Piに係る、指定された領域の大きさriを、
ri=rdefault+Δr×(Wi−X)
として、riを更新する(この場合の等号は、左辺の変数に右辺の値を代入することを意味する)。ここでのΔrは、重み値Wの増分「1」あたりの拡大縮小量として予め定めた値とし、rdefaultは、領域の大きさの初期値、Xは重み値の初期値とする。
The area forming unit 24 uses the weight value Wi adjusted in this way to calculate the size r i of the specified area related to the coordinate information Pi specified earlier.
ri = rdefault + .DELTA.r.times. (Wi-X)
Ri is updated (the equal sign in this case means that the value on the right side is assigned to the variable on the left side). Here, Δr is a predetermined value as an enlargement / reduction amount per increment “1” of the weight value W, rdefault is an initial value of the size of the region, and X is an initial value of the weight value.

さらに領域形成部24は、利用者が領域の調整を終了する指示を入力すると、互いに異なる二つの座標情報Pi(i=1,2,…,n)、Pj(j=1,2,…,n)の組み合わせのすべてについて、|Pi−Pj|<ri+rjであるようなi,jの組み合わせがあるか否か(互いに重なり合う領域があるか否か)を調べる。   Further, when the user inputs an instruction to end the adjustment of the area, the area forming unit 24 receives two different pieces of coordinate information Pi (i = 1, 2,..., N), Pj (j = 1, 2,. For all combinations of n), it is checked whether there is a combination of i and j such that | Pi−Pj | <ri + rj (whether there is an overlapping area).

そして領域形成部24は、重なり合う領域の有無を表す情報を分離部25に出力する。処理S4以下の処理を行う分離部25は、重なり合う領域がない旨の情報が入力されているときには、ここまでに説明したのと同様に、形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、画像情報を、前景と背景とに分離する。   Then, the region forming unit 24 outputs information indicating the presence or absence of overlapping regions to the separating unit 25. When the information indicating that there is no overlapping region is input, the separation unit 25 that performs the processing from step S4 onward performs segmentation processing using the information on the formed region as the initial region of the foreground, as described above. To separate the image information into foreground and background.

一方、分離部25は、重なり合う領域がある旨の情報が入力されているときには、個々の座標情報Pi(i=1,2,…,n)に係る領域の各々を、前景の初期領域として、個別にセグメンテーション処理を実行する。そして個別のセグメンテーション処理の結果、個別に得られる前景部分の論理和を、画像情報の前景部分とし、また、この前景部分以外の部分を背景とする。   On the other hand, when information indicating that there is an overlapping area is input, the separation unit 25 uses each of the areas related to the individual coordinate information Pi (i = 1, 2,..., N) as the initial area of the foreground. Perform segmentation processing individually. Then, the logical sum of the foreground parts obtained individually as a result of the individual segmentation processing is used as the foreground part of the image information, and the part other than the foreground part is used as the background.

この例のように、分離部25は、少なくとも互いに重なり合わない領域については一括して、また重なり合う領域については個別にセグメンテーションの処理を実行して、前景と背景とを分離する。   As in this example, the separation unit 25 separates the foreground and the background by executing segmentation processing at least for regions that do not overlap each other and individually for overlapping regions.

[画像内容に応じて初期設定の前景の大きさを変更する例]
さらに領域形成部24は、領域の拡大や縮小の調整を行う際には、調整後の大きさをタップの回数やピンチアウト操作等において指定された二点間の距離の変化に応じて、調整後の領域の大きさを定めるのではなく、予め定めた規則に従って、調整後の領域の大きさを定めてもよい。
[Example of changing the default foreground size according to the image contents]
Further, when adjusting the enlargement or reduction of the area, the area forming unit 24 adjusts the size after adjustment according to the change in the distance between the two points designated in the number of taps, the pinch-out operation, or the like. Instead of determining the size of the subsequent area, the size of the adjusted area may be determined according to a predetermined rule.

一例として、領域形成部24が重み値Wiを用いる場合、座標情報Piに対応する領域について拡大の操作が行われたときには、Wiを「1」だけインクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつインクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。なお、タップ回数Tiを用いる場合も、ここでのWiの代わりにTiとして同様の処理を行えばよい。この場合、タップ回数Tiは実際のタップ回数ではなく、重み値と同様の意味を持つこととなる。
As an example, when the area forming unit 24 uses the weight value Wi, when an enlargement operation is performed on the area corresponding to the coordinate information Pi, Wi is incremented by “1”.
r′i = rdefault + Δr × (Wi−X)
And the statistic of the pixel value of the part surrounded by the area of the tentative size in the image information to be processed is compared with the statistic of the pixel value of the part outside the area. The temporary size may be adjusted while incrementing Wi by “1” until the comparison result matches a predetermined condition. Then, when the condition is met, the increment of Wi is stopped, and the temporary size r'i at that time is set as a new size of the area corresponding to the coordinate information Pi. In other words,
ri = r'i
And Even when the number of taps Ti is used, the same processing may be performed as Ti instead of Wi here. In this case, the tap count Ti is not the actual tap count but has the same meaning as the weight value.

また同様に、座標情報Piに対応する領域について縮小の操作が行われたときには、Wiを「1」だけデクリメントし、
r′i=rdefault+Δr×(Wi−X)
として仮の大きさを定め、この処理対象の画像情報のうち、この仮の大きさの領域が囲む部分の画素値の統計量と、領域外の部分の画素値の統計量とを比較して、この比較結果が、予め定めた条件に合致するまで、Wiを「1」ずつデクリメントしつつ、仮の大きさを調整してもよい。そして条件に合致したときにWiのデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定する。つまり、
ri=r′i
とする。
Similarly, when a reduction operation is performed on the area corresponding to the coordinate information Pi, Wi is decremented by “1”,
r′i = rdefault + Δr × (Wi−X)
And the statistic of the pixel value of the part surrounded by the area of the tentative size in the image information to be processed is compared with the statistic of the pixel value of the part outside the area. Until the comparison result matches a predetermined condition, Wi may be decremented by “1” and the provisional size may be adjusted. When the condition is met, the decrement of Wi is stopped, and the provisional size r'i at that time is set as a new size of the area corresponding to the coordinate information Pi. In other words,
ri = r'i
And

これらの場合において、画素値の統計量は、例えば画素値の平均、あるいは、ヒストグラムにおける最頻値などとしてもよい。そして、比較結果に係る条件とは、例えば領域内外における画素値の各平均の差の絶対値が予め定めたしきい値を超える、あるいは領域内外における各最頻値の差の絶対値が予め定めたしきい値を超える、などの条件としておけばよい。   In these cases, the statistic of the pixel value may be, for example, an average of pixel values or a mode value in a histogram. The condition relating to the comparison result is, for example, that the absolute value of the average difference between the pixel values inside and outside the region exceeds a predetermined threshold value, or the absolute value of the difference between the mode values inside and outside the region is predetermined. It may be set as a condition such as exceeding the threshold value.

また重み値Wiをインクリメント、またはデクリメントする場合において、仮の大きさr′iが予め定めた下限値を下回る場合はその時点でデクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよく、また、座標情報Piに対応する仮の大きさr′iの領域が画像情報の辺に接したところでインクリメントを停止し、そのときの仮の大きさr′iを、座標情報Piに対応する領域の新たな大きさとして設定してもよい。   Further, when incrementing or decrementing the weight value Wi, if the provisional magnitude r'i falls below a predetermined lower limit value, the decrement is stopped at that point, and the provisional magnitude r'i at that time is It may be set as a new size of the area corresponding to the coordinate information Pi, or when the area of the temporary size r′i corresponding to the coordinate information Pi is in contact with the side of the image information, the increment is stopped. The provisional size r′i at that time may be set as a new size of the area corresponding to the coordinate information Pi.

本実施の形態によると、簡便な操作で、例えば飲食物の画像情報から、各飲食物の画像部分を特定できる。   According to this Embodiment, the image part of each food / beverage can be specified by simple operation, for example from the image information of food / beverage.

1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 画像取得部、21 画像情報取得部、22 画像表示制御部、23 指定点受入部、24 領域形成部、25 分離部、26 出力部、27 情報処理部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 Image acquisition part, 21 Image information acquisition part, 22 Image display control part, 23 Designated point reception part, 24 Area formation part, 25 Separation unit, 26 output unit, 27 information processing unit.

Claims (5)

処理対象となる画像情報を表示する手段と、
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
とを含む画像処理装置。
Means for displaying image information to be processed;
Means for accepting at least one designation of a point in the displayed image information;
For each received point, a region forming means for forming a region of a predetermined shape including the point in the image information;
Separation means for separating the image information into a foreground and a background by performing segmentation processing using the information of the formed area as an initial area of a foreground,
Output means for outputting the image portion of the foreground obtained by the separation,
An image processing apparatus.
請求項1記載の画像処理装置であって、
前記領域形成手段は、所定形状の領域の大きさを、
隣接する所定形状の領域に接する大きさとするか、または画像情報を取り囲む形状に接する大きさとする
画像処理装置。
The image processing apparatus according to claim 1,
The region forming means determines the size of the region having a predetermined shape,
An image processing apparatus having a size that touches an adjacent area of a predetermined shape or a size that touches a shape surrounding image information.
請求項1または2記載の画像処理装置であって、
前記領域形成手段は、前記形成した所定形状の領域内の小領域であって、当該領域に含まれる前記指定された点を含む小領域をさらに形成し、
前記分離手段は、当該小領域内のすべての画素が前景に含まれるものとして分離処理を行う
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The region forming means further forms a small region within the formed region of the predetermined shape and including the specified point included in the region,
The image processing apparatus that performs the separation process on the assumption that all pixels in the small region are included in the foreground.
請求項1から3のいずれか一項に記載の画像処理装置であって、
前記分離手段は、前記領域形成手段が形成した所定形状の領域外の部分を、背景の初期領域として、セグメンテーション処理を実行する
画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus that performs segmentation processing using the part outside the region of the predetermined shape formed by the region forming unit as the initial region of the background.
コンピュータを、
処理対象となる画像情報を表示する手段と、
前記表示した画像情報内の点の指定を少なくとも一つ受け入れる手段と、
前記受け入れた点ごとに、当該点を含む所定形状の領域を前記画像情報内に形成する領域形成手段と、
前記形成した領域の情報を前景の初期領域として、セグメンテーション処理を実行し、前記画像情報を、前景と背景とに分離する分離手段と、
前記分離して得た前景の画像部分を出力する出力手段と、
として機能させるプログラム。
Computer
Means for displaying image information to be processed;
Means for accepting at least one designation of a point in the displayed image information;
For each received point, a region forming means for forming a region of a predetermined shape including the point in the image information;
Separation means for separating the image information into a foreground and a background by performing segmentation processing using the information of the formed area as an initial area of a foreground,
Output means for outputting the image portion of the foreground obtained by the separation,
Program to function as.
JP2011164465A 2011-07-27 2011-07-27 Image processing device Withdrawn JP2013029930A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011164465A JP2013029930A (en) 2011-07-27 2011-07-27 Image processing device
PCT/JP2012/069027 WO2013015381A1 (en) 2011-07-27 2012-07-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011164465A JP2013029930A (en) 2011-07-27 2011-07-27 Image processing device

Publications (1)

Publication Number Publication Date
JP2013029930A true JP2013029930A (en) 2013-02-07

Family

ID=47601218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011164465A Withdrawn JP2013029930A (en) 2011-07-27 2011-07-27 Image processing device

Country Status (2)

Country Link
JP (1) JP2013029930A (en)
WO (1) WO2013015381A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060366A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Image processor, image processing method and program
JP2016012174A (en) * 2014-06-27 2016-01-21 国立大学法人電気通信大学 Intake estimation device, intake estimation method and program
JP2016122367A (en) * 2014-12-25 2016-07-07 カシオ計算機株式会社 Image processor, image processing method and program
JP2016530624A (en) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド Method and device for generating virtual fitting model images
US9652858B2 (en) 2014-05-30 2017-05-16 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and image processing system
US9679386B2 (en) 2013-10-09 2017-06-13 Casio Computer Co., Ltd. Image processing device capable of segmenting an image into plural areas

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010037B (en) * 2017-11-29 2019-09-13 腾讯科技(深圳)有限公司 Image processing method, device and storage medium
WO2022185643A1 (en) * 2021-03-03 2022-09-09 富士フイルム株式会社 Image processing device, method for operating image processing device, and program for operating image processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3890235B2 (en) * 2002-01-28 2007-03-07 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
JP4569698B2 (en) * 2008-06-20 2010-10-27 ソニー株式会社 Object recognition apparatus, object recognition method, and object recognition method program
JP2010097355A (en) * 2008-10-15 2010-04-30 Nippon Telegr & Teleph Corp <Ntt> Image separation device, image separation method, and image separation program
JP2011050038A (en) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd Image reproducing apparatus and image sensing apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530624A (en) * 2013-08-16 2016-09-29 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド Method and device for generating virtual fitting model images
JP2015060366A (en) * 2013-09-18 2015-03-30 カシオ計算機株式会社 Image processor, image processing method and program
US9384558B2 (en) 2013-09-18 2016-07-05 Casi Computer Co., Ltd. Image processing device for performing image segmentation processing
US9679386B2 (en) 2013-10-09 2017-06-13 Casio Computer Co., Ltd. Image processing device capable of segmenting an image into plural areas
US9652858B2 (en) 2014-05-30 2017-05-16 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and image processing system
JP2016012174A (en) * 2014-06-27 2016-01-21 国立大学法人電気通信大学 Intake estimation device, intake estimation method and program
JP2016122367A (en) * 2014-12-25 2016-07-07 カシオ計算機株式会社 Image processor, image processing method and program

Also Published As

Publication number Publication date
WO2013015381A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
WO2013015381A1 (en) Image processing device
US11592923B2 (en) Systems and methods for resizing applications in a multitasking view on an electronic device with a touch-sensitive display
US11188216B2 (en) Selectively emphasizing digital content
US9747010B2 (en) Electronic content visual comparison apparatus and method
US9792695B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
US20140375860A1 (en) Information processing device, information processing system, and storage medium storing program
WO2007004489A1 (en) Image processing device and image processing method
JP6287337B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP5880767B2 (en) Region determination apparatus, region determination method, and program
EP2383701A1 (en) Image processing method and apparatus
JP5907196B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP6269323B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP6241320B2 (en) Image processing apparatus, image processing method, image processing system, and program
EP2911115B1 (en) Electronic device and method for color extraction
KR101902418B1 (en) Device and method for editing image in wireless terminal
US20180173411A1 (en) Display device, display method, and non-transitory computer readable recording medium
JP5408097B2 (en) Image display device and image display method
KR20130136939A (en) Method for display and apparatus for the same
JP7363235B2 (en) Information processing device and information processing program
CN111831123B (en) Gesture interaction method and system suitable for desktop mixed reality environment
TW200920102A (en) Document camera and its method for sharpening partial image on projected image
US20180173362A1 (en) Display device, display method used in the same, and non-transitory computer readable recording medium
JP2013105238A (en) Information processing device, method and program
JP2009211607A (en) Object extraction device and method
JP6930099B2 (en) Image processing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007