JP6102122B2 - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP6102122B2 JP6102122B2 JP2012184852A JP2012184852A JP6102122B2 JP 6102122 B2 JP6102122 B2 JP 6102122B2 JP 2012184852 A JP2012184852 A JP 2012184852A JP 2012184852 A JP2012184852 A JP 2012184852A JP 6102122 B2 JP6102122 B2 JP 6102122B2
- Authority
- JP
- Japan
- Prior art keywords
- foreground
- image
- area
- background
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
図1は、本技術を適用した画像処理システムの一実施の形態の構成例を示している。図1の画像処理システムは、入力画像のうち、ユーザが入力する情報により、オブジェクトを特定し、特定したオブジェクトを含むオブジェクト画像を切り抜くものである。
次に、図3のフローチャートを参照して、図1の画像処理システムにより画像切出処理について説明する。
次に、図5のフローチャートを参照して、ラフキャプチャモード処理について説明する。
次に、図7のフローチャートを参照して、切抜画像生成処理について説明する。
ここで、図9のフローチャートを参照して、αマット処理について説明する。
次に、図10のフローチャートを参照して、BGモード修正処理について説明する。BGモード修正処理は、上述したようにラフキャプチャモード処理などで抽出したオブジェクト画像のうち、背景画素にもかからわず前景画素として抽出された画素を背景画素とするように修正する処理である。
次に、図14のフローチャートを参照して、FGモード修正処理について説明する。FGモード修正処理は、上述したようにラフキャプチャモード処理やBGモード修正処理などで抽出したオブジェクト画像のうち、前景画素にもかからわず背景画素として抽出されなかった画素を前景画素とするように修正する処理である。尚、FGモード修正処理については、BGモード修正処理においてマーク線が背景マークBMを指定するものであったのに対して、前景マークFMを指定するものである点が異なる以外は同様であるので、その説明は適宜省略するものとする。
Claims (6)
- 入力画像に対して切り出したいオブジェクトとの境界を特定するマーク線を入力する入力部と、
前記マーク線に基づいて特定される前記オブジェクトからなるオブジェクト画像を、前記入力画像より抽出するオブジェクト画像抽出部とを含み、
前記入力部は、
前記オブジェクト画像抽出部により抽出されたオブジェクト画像に対して、さらに、前記オブジェクトとの境界を特定するマーク線を入力し、
前記オブジェクト画像に対して、前記オブジェクトの境界を特定する局所的なマーク線を、前記オブジェクトを前景としたときの背景を特定する背景マークとして入力する背景モードと、
前記前景を特定する前景マークとして入力する前景モードとがあり、
前記オブジェクト画像抽出部は、
前記入力部が背景モードである場合、前記マーク線を構成する各画素を、前記背景を特定する画素値であるものとし、前記マーク線を構成する各画素において、第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記入力部が前景モードである場合、前記マーク線を構成する各画素を、前記前景を特定する画素値であるものとし、前記マーク線を構成する各画素において、前記第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、前記グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記オブジェクト画像に対応するオブジェクト領域の情報と、前記オブジェクト領域の周辺部において、前記オブジェクト領域外の領域の画素値の前景成分の混合比を示す画素値からなるαマット画像とを求め、前記オブジェクト領域の情報により特定される画素値に、前記αマット画像に基づいた前景成分となる混合比を乗じた画像をオブジェクト画像として抽出し、
前記αマット画像における各画素の前景成分の混合比αは、前景最短距離の、前記前景最短距離と背景最短距離との和に対する比率を1より減算したものであり、
前景色は、画像色と前記未処理領域の各画素について平滑化処理を行って画像の画素値の変化を滑らかにして画素値の変化が平滑化するように処理されたベースレイア色との減算結果に混合比αを乗算した値に、最近傍前景色を加算したものである
画像処理装置。 - 前記入力部は、前記オブジェクトの境界を特定するマーク線により、前記入力画像における、前記オブジェクトの全体を特定するラフキャプチャモードがあり、
前記オブジェクト画像抽出部は、前記ラフキャプチャモードの場合、前記マーク線が閉曲線ではないとき、先端部および終端部を結んで前記閉曲線を構成し、前記入力画像の前記閉曲線内の領域を、前記オブジェクトを含む前景とし、前記閉曲線外の領域を背景としてオブジェクト画像を抽出する
請求項1に記載の画像処理装置。 - 前記オブジェクト画像抽出部は、前記マーク線により構成される閉曲線内であって、かつ、前記入力部により入力されたマーク線を構成する各画素において、第2の所定の半径からなる未処理領域を設定し、前記未処理領域、前記前景を示す画像の領域、および前記背景を示す画素の領域からなる3領域の情報に基づいて、グラフカットにより前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、前記オブジェクト画像を前記入力画像、または前記オブジェクト画像より抽出する
請求項2に記載の画像処理装置。 - 前記背景モードおよび前記前景モードにおける未処理領域は、前記局所的なマーク線を構成する各画素より第2の所定の半径からなる領域を内接する矩形領域である
請求項1に記載の画像処理装置。 - 入力画像に対して切り出したいオブジェクトとの境界を特定するマーク線の入力をする入力処理と、
前記マーク線に基づいて特定される前記オブジェクトからなるオブジェクト画像を、前記入力画像より抽出するオブジェクト画像抽出処理とからなるステップを含み、
前記入力処理は、
前記オブジェクト画像抽出処理により抽出されたオブジェクト画像に対して、さらに、前記オブジェクトとの境界を特定するマーク線を入力し、
前記オブジェクト画像に対して、前記オブジェクトの境界を特定する局所的なマーク線を、前記オブジェクトを前景としたときの背景を特定する背景マークとして入力する背景モードと、
前記前景を特定する前景マークとして入力する前景モードとがあり、
前記オブジェクト画像抽出処理は、
前記入力処理が背景モードである場合、前記マーク線を構成する各画素を、前記背景を特定する画素値であるものとし、前記マーク線を構成する各画素において、第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記入力処理が前景モードである場合、前記マーク線を構成する各画素を、前記前景を特定する画素値であるものとし、前記マーク線を構成する各画素において、前記第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、前記グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記オブジェクト画像に対応するオブジェクト領域の情報と、前記オブジェクト領域の周辺部において、前記オブジェクト領域外の領域の画素値の前景成分の混合比を示す画素値からなるαマット画像とを求め、前記オブジェクト領域の情報により特定される画素値に、前記αマット画像に基づいた前景成分となる混合比を乗じた画像をオブジェクト画像として抽出し、
前記αマット画像における各画素の前景成分の混合比αは、前景最短距離の、前記前景最短距離と背景最短距離との和に対する比率を1より減算したものであり、
前景色は、画像色と前記未処理領域の各画素について平滑化処理を行って画像の画素値の変化を滑らかにして画素値の変化が平滑化するように処理されたベースレイア色との減算結果に混合比αを乗算した値に、最近傍前景色を加算したものである
画像処理方法。 - 入力画像に対して切り出したいオブジェクトとの境界を特定するマーク線を入力する入力ステップと、
前記マーク線に基づいて特定される前記オブジェクトからなるオブジェクト画像を、前記入力画像より抽出するオブジェクト画像抽出ステップとを含む処理をコンピュータに実行させ、
前記入力ステップの処理は、
前記オブジェクト画像抽出ステップの処理により抽出されたオブジェクト画像に対して、さらに、前記オブジェクトとの境界を特定するマーク線を入力し、
前記オブジェクト画像に対して、前記オブジェクトの境界を特定する局所的なマーク線を、前記オブジェクトを前景としたときの背景を特定する背景マークとして入力する背景モードと、
前記前景を特定する前景マークとして入力する前景モードとがあり、
前記オブジェクト画像抽出ステップの処理は、
前記入力処理が背景モードである場合、前記マーク線を構成する各画素を、前記背景を特定する画素値であるものとし、前記マーク線を構成する各画素において、第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記入力処理が前景モードである場合、前記マーク線を構成する各画素を、前記前景を特定する画素値であるものとし、前記マーク線を構成する各画素において、前記第1の所定の半径からなる未処理領域を設定し、前記未処理領域、前記背景を示す領域、および前記前景を示す領域の3領域の情報に基づいて、前記グラフカットにより、前記未処理領域の画素を、前記前景を示す領域、または前記背景を示す領域のいずれかに割り当てることで、オブジェクト画像を抽出し、
前記オブジェクト画像に対応するオブジェクト領域の情報と、前記オブジェクト領域の周辺部において、前記オブジェクト領域外の領域の画素値の前景成分の混合比を示す画素値からなるαマット画像とを求め、前記オブジェクト領域の情報により特定される画素値に、前記αマット画像に基づいた前景成分となる混合比を乗じた画像をオブジェクト画像として抽出し、
前記αマット画像における各画素の前景成分の混合比αは、前景最短距離の、前記前景最短距離と背景最短距離との和に対する比率を1より減算したものであり、
前景色は、画像色と前記未処理領域の各画素について平滑化処理を行って画像の画素値の変化を滑らかにして画素値の変化が平滑化するように処理されたベースレイア色との減算結果に混合比αを乗算した値に、最近傍前景色を加算したものである
プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012184852A JP6102122B2 (ja) | 2012-08-24 | 2012-08-24 | 画像処理装置および方法、並びにプログラム |
PCT/JP2013/004865 WO2014030322A1 (en) | 2012-08-24 | 2013-08-15 | Image processing device, method, and program |
CN201380044216.1A CN104583925B (zh) | 2012-08-24 | 2013-08-15 | 图像处理设备、方法及程序 |
US14/414,751 US10254938B2 (en) | 2012-08-24 | 2013-08-15 | Image processing device and method with user defined image subsets |
EP13759321.6A EP2888652A1 (en) | 2012-08-24 | 2013-08-15 | Image processing device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012184852A JP6102122B2 (ja) | 2012-08-24 | 2012-08-24 | 画像処理装置および方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014044461A JP2014044461A (ja) | 2014-03-13 |
JP2014044461A5 JP2014044461A5 (ja) | 2015-03-05 |
JP6102122B2 true JP6102122B2 (ja) | 2017-03-29 |
Family
ID=49118750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012184852A Expired - Fee Related JP6102122B2 (ja) | 2012-08-24 | 2012-08-24 | 画像処理装置および方法、並びにプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10254938B2 (ja) |
EP (1) | EP2888652A1 (ja) |
JP (1) | JP6102122B2 (ja) |
CN (1) | CN104583925B (ja) |
WO (1) | WO2014030322A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9449395B2 (en) * | 2014-09-15 | 2016-09-20 | Winbond Electronics Corp. | Methods and systems for image matting and foreground estimation based on hierarchical graphs |
KR102423065B1 (ko) * | 2015-06-04 | 2022-07-21 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN104932826B (zh) * | 2015-06-26 | 2018-10-12 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
JP6736661B2 (ja) * | 2015-09-04 | 2020-08-05 | ヤンセン ファーマシューティカ エヌ.ベー. | 治療化合物及び合成 |
GB2551396B (en) * | 2016-06-17 | 2018-10-10 | Imagination Tech Ltd | Augmented reality occlusion |
CN110263306B (zh) * | 2018-03-12 | 2023-04-04 | 京瓷办公信息系统株式会社 | 图像处理系统以及图像形成装置 |
CN108921854B (zh) * | 2018-05-22 | 2022-06-21 | 复旦大学 | 一种消化道内镜图像不规则病变区域标注方法及系统 |
CN109725802B (zh) * | 2018-12-17 | 2021-02-23 | 浙江口碑网络技术有限公司 | 页面交互方法及装置 |
KR20210066494A (ko) * | 2019-11-28 | 2021-06-07 | 주식회사 지이모션 | 의상의 3차원 모델링 방법 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3094338B2 (ja) * | 1990-06-14 | 2000-10-03 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US20060029275A1 (en) * | 2004-08-06 | 2006-02-09 | Microsoft Corporation | Systems and methods for image data separation |
US7430339B2 (en) * | 2004-08-09 | 2008-09-30 | Microsoft Corporation | Border matting by dynamic programming |
US20090046110A1 (en) | 2007-08-16 | 2009-02-19 | Motorola, Inc. | Method and apparatus for manipulating a displayed image |
JP5045619B2 (ja) * | 2008-09-08 | 2012-10-10 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8482545B2 (en) * | 2008-10-02 | 2013-07-09 | Wacom Co., Ltd. | Combination touch and transducer input system and method |
TWM350750U (en) * | 2008-10-03 | 2009-02-11 | Inventec Appliances Corp | Electric pen |
US8885977B2 (en) * | 2009-04-30 | 2014-11-11 | Apple Inc. | Automatically extending a boundary for an image to fully divide the image |
-
2012
- 2012-08-24 JP JP2012184852A patent/JP6102122B2/ja not_active Expired - Fee Related
-
2013
- 2013-08-15 EP EP13759321.6A patent/EP2888652A1/en not_active Ceased
- 2013-08-15 WO PCT/JP2013/004865 patent/WO2014030322A1/en active Application Filing
- 2013-08-15 US US14/414,751 patent/US10254938B2/en not_active Expired - Fee Related
- 2013-08-15 CN CN201380044216.1A patent/CN104583925B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2888652A1 (en) | 2015-07-01 |
JP2014044461A (ja) | 2014-03-13 |
WO2014030322A1 (en) | 2014-02-27 |
US20150205501A1 (en) | 2015-07-23 |
CN104583925B (zh) | 2018-05-18 |
CN104583925A (zh) | 2015-04-29 |
US10254938B2 (en) | 2019-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6102122B2 (ja) | 画像処理装置および方法、並びにプログラム | |
US8204308B2 (en) | Image processing apparatus, method, and program | |
US9244607B2 (en) | System and method for image processing using multi-touch gestures | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
EP2846309B1 (en) | Method and apparatus for segmenting object in image | |
WO2017157109A1 (en) | Image processing method and terminal | |
KR101032446B1 (ko) | 영상의 정점 검출 장치 및 방법 | |
US20230334235A1 (en) | Detecting occlusion of digital ink | |
US11138699B2 (en) | Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images | |
US20240161406A1 (en) | Modifying two-dimensional images utilizing iterative three-dimensional meshes of the two-dimensional images | |
US20090116731A1 (en) | Method and system for detection of concha and intertragal notch point in 3D undetailed ear impressions | |
CN111624620A (zh) | 信息处理装置、信息处理方法和存储介质 | |
US11055526B2 (en) | Method, system and apparatus for processing a page of a document | |
CN115668271A (zh) | 用于生成平面图的方法及装置 | |
EP3608868B1 (en) | Firefly detection using a plurality of buffers | |
WO2016204241A1 (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
US20240161320A1 (en) | Generating adaptive three-dimensional meshes of two-dimensional images | |
KR20230168523A (ko) | 이미지의 전경 및 배경을 분리하는 방법 및 장치 | |
US11200708B1 (en) | Real-time color vector preview generation | |
CN115359008A (zh) | 显示界面的测试方法及装置、存储介质、电子设备 | |
TWI720388B (zh) | 用以處理分段平滑信號之設備、方法及電腦程式 | |
JP2021105987A (ja) | インタラクティブなオブジェクト選択 | |
Korinke et al. | Exploring touch interaction methods for image segmentation on mobile devices | |
US20240161366A1 (en) | Modifying two-dimensional images utilizing three-dimensional meshes of the two-dimensional images | |
KR100988431B1 (ko) | 영상 특징 추출 방법, 이를 기록한 기록매체 및 이를 수행하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160923 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6102122 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |