JPH03218581A - 画像セグメンテーション方法 - Google Patents

画像セグメンテーション方法

Info

Publication number
JPH03218581A
JPH03218581A JP2166573A JP16657390A JPH03218581A JP H03218581 A JPH03218581 A JP H03218581A JP 2166573 A JP2166573 A JP 2166573A JP 16657390 A JP16657390 A JP 16657390A JP H03218581 A JPH03218581 A JP H03218581A
Authority
JP
Japan
Prior art keywords
image
segmentation method
image segmentation
processing
directions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2166573A
Other languages
English (en)
Inventor
Makoto Kato
誠 加藤
Toyohisa Morita
豊久 森田
Shinichiro Miyaoka
宮岡 伸一郎
Makoto Nomi
能見 誠
Hiroyuki Ogawara
大河原 宏之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2166573A priority Critical patent/JPH03218581A/ja
Priority to US07/606,629 priority patent/US5247583A/en
Publication of JPH03218581A publication Critical patent/JPH03218581A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、デザインシミュレーション等に必要な、画像
中から特定の部位を切り出す画像セグメンテーション方
法及びその装置に関する。
[従来の技術コ 店頭におけるプレゼンテーションシステム等,画像の豊
な表呪力をもちいたシステムの研究,開発が盛んである
。この画像情報を更に有効に利用するため、背景合成、
物体色変更等のイメージシミュレーションが、家電製品
等のデザインシミュレーションに広く用いられている。
これらイメージシミュレーションを行うためには、画像
中から特定の対象物を切り出しておく必要があり、これ
を画像セグメンテーション技術という。例えば、街で撮
影した車の画像から車の部分だけ分離することが、画像
セグメンテーション技術であり、これを郊外の風景に埋
め込むのがイメージシミュレーションである。
この画像セグメンテーション技術は大きく二つに分けら
れる。第一の方法は色情報を用いるものであり、例えば
、O  plusE  1989年1月号第131頁か
ら第142頁に「フリカラーイメージプロセッサSHA
IPとその応用」と題して記載されている。これらの方
法は,例えば赤い車を背景から分離する際には、画像中
の各画素の色が、ある範囲の赤い色に入るかどうかの判
定を行行い、その結果で切り出す対象であるかどうかの
識別を行うものである。具体的には、j行j列画素のR
GB各成分の値をr(i,jLg(it jLb(i,
j)としたとき、それぞれの成分での最小最大のしきい
値Σrain ,Σrmax,Σgain ,Σgma
x,Σbmin ,Σbmax ,としたとき、次の範
囲を切り出す。
Σrw+in<  r (i  t  j  )<Σr
maxかつ Σgain< g (i t j )<Σ
gmaxかつ Σbmin< b ( i + j )
<Σbmax最も一般的な色情報を用いたセグメンテー
ション方法であり、上記公知例でふれたSHAIPなど
各社で採用されている。
ここで識別処理というのは、画像全体あるいは一部の領
域の中の各画素が識別のための条件(この場合は、(2
)の条件)を満たすかどうかの判定をすることである。
この条件を満たすと判定された画素の集合よりなる領域
(これをマスクという)は、画像中の他の領域と分離す
へき領域と一致しているのが最善であるが、識別処理の
能力により、必ずしも一致しない。
この処理で、R 1n等を決定するため、赤、緑青のそ
れぞれの色について別々にヒストグラム;.作成して表
示することもある。
ここで、ヒストグラムとは、画像全体あるい番・一部の
領域の中の画素の赤、緑、青の値の分布{示すものであ
り、赤、緑、青の各成分に関し、→の値と、その値を持
つ画素の個数に関した情報委示すものである。また、上
述した赤い車の例で番;背景中に赤いポストなどがある
と、これも切り8されてしまうので、処理範囲を実空間
(i−jfi間)で限定することによって処理している
この技術の特殊なものとしてクロマキー技術力ある。ク
ロマキー技術では、人物等の切り出したい対象を、決ま
った色(緑など)の背景板の前番コ配置させて画像を撮
影する点に特徴がある。こC画像から、上述の決まった
色以外の部分を切り仕し対象とすると切り出しが行える
第2の方法は画像のエッジの情報、すなわち、画像中の
画素の値(色、明度など)の変化する部分の情報を用い
るものである。これらの方法は、画像中のシーンの理解
や認識のため研究されてきたものであるが、これについ
ては、K. H.Ballard, C. B. Br
own著Computer Vision,Prer+
tice−Hall, Inc.刊(1982)第4章
Boundary Detectionに述べられてい
る。基本的には、画像中の隣接する画素間の色や画像濃
度の差の大きい所をエッジとして求め、これをつなぐこ
とにより輪郭を求める。ニツジを求めるために用いられ
るのは次のようなものである。
白黒濃淡画像の場合、lvJ画像をa(1+j)で表す
。i方向が横方向に,j方向が縦方向に対応する。
(1)一次微分 横方向: a(i+1,j)−a(iljL縦方向: 
a (1’*J +l)  a (l IJLなど (2)2次微分: 横方向: a(i+1,,))  2a(lej)+(
a(x   1+J)* 縦方向: a(i,j+1) −2a(i,j)+ a
(x v  j  ILa(i + IIJ)十a(i
−1,j)+a(i,j+1)+a(xtj1)  4
 a(ltj)など (3)ゼロクロッシング 2次微分が正から負へ、あるいは、負から正八変化する
点。位置以外に強度の情報を用いる場合には、その変化
の度合いく3次微分に相当する)を用いる。
上記(二つの方法では、1画素あたり1670万色のフ
ルカラー画像や1画像あたり256階調の白黒濃淡画像
を主な対象としたものである。これらの他、1画素あた
り2階調の2{1i画像のような単純なものについては
各種の処理が可能である。
例えば、白い背景の中に黒で書かれた対象が他の画像バ
タンと重畳しないである場合、対象の境界部分を指定す
ると、境界を順に追跡して切り出すものがある。
また,これまで述べてきた方法のように画像処理技術で
切り出すのではなく、マウス等の外部入力装置により直
接的に対象の輪郭の座標を入力する方法もある。即ち、
マウスの操作と位置を同期して画面上にカーソルを表示
しカーソルを切り出し対象の輪郭に沿うように操作して
、その軌跡をもって輪郭とするものである。
その他,上記第2の方法に関連する最近の研究としては
,ダイナミックモデルを用いたSNAKEと名付けられ
たシステムがあり、Proceedings of F
irst InternationalConfere
nce on Computer Vision(19
87), IEEEComputer Society
 Pressの第259頁から第268頁に記載されて
いる。
[発明が解決しようとする課題] しかしながら,上記した従来技術のうち、第1の色情報
を用いるものは、RGB空間内で,切り出したい対象領
域の分布が弧立していて,直方体でかつ良好に識別でき
る場合に有効であって,色調が場所に依存して微妙に変
化するような画像中では、単一の識別の基準を全画面に
適用することは難しいという問題があった。
また,赤、緑、青に対して別々のヒストグラムを用いて
も,画像中の色分布を十分把握できず,従って識別のた
めのしきい値の設定が的確に行おれないため、良好な画
像セグメンテーションができないという問題があった。
本発明は、この問題点を解決するためになされたもので
ある。
本発明の第1の目的は、画像中の色の分布がより複雑で
あったり、また場所により微妙に変化しているような場
合でも、画像中から特定の部位を切り出すことができる
画像セグメンテーション方法及びその装置を提供するこ
とにある。
また、上記従来技術のうち、第一の方法である色情報を
用いるものは,切り出される対象の色が一様でその他の
部分と異なる色分布をしている場合以外には適用できな
いというもうーっの問題点があった。
また,上記従来技術のうち第二の方法であるエッジ情報
を用いるものは、画像中のノイズなどのため、対象のエ
ッジ以外にもた多数のエッジが現れるため、また、逆に
対象の輪郭となるべき位置でもエッジがとぎれることが
あるため、これらを取捨選択して、対象のエッジだけを
つなぎあわせるのは難しい。これらは、工場のライン中
などの限定された環境の中だけで成立したり、多大な計
算時間を要するものがほとんどである。
また、3番目に述べた2値画像の方法は,2値画像数や
階調数の少ない多値画像以外に適用するのは困難である
。特に背景が一様な階調でない場合には全く適用できな
い。
最後に述べた外部入力装置から直接輪郭位置を指定する
方法は、輪郭位置を正確に指定する作業量が大であると
いう点問題があった。
本発明の第2の目的は、フルカラー画像中の異なる色が
混在する対象物や白黒濃淡画像にも適用できる処理時間
が小さくかつ作業量の小さい画像セグメンテーション方
法及びその装置を提供することにある。
[課題を解決するための手段] 上記第1の目的を達成するために、処理領域を重複を許
す複数個の小領域に分解し、それぞれの小領域に対して
、切り出す部分の画素と不要な部分の画素を一個あるい
は複数個指定し、それぞれの画素の色情報から特徴量空
間における代表点と参照点を決定し、該代表点と該参照
点を結ぶ線分に直交する平面または曲面を識別面として
識別処理を行っている。
そして,上記小領域間の重複部分については、それらの
間の領域を統合,排除する論理演算を行うことにより切
り出し部分を生成していく。
また,該識別面は、該線分をt対1−tに内分する平面
であり、tの値として、ヒストグラムの極小部に対応す
る位置に上記識別面が位置するような値を選ぶ。
更に,上記識別処理における代表点と参照点が複数個あ
る場合、ある代表点に関しては、複数の参照点との識別
結果の論理積をとり、その結果をそれぞれの代表点に関
し論理和をとることにより識別処理を行っている。
平面の位置を直接入力する平面位置入力装置を備えてお
り、該装置は、該平面に設けられた複数個のパルス発信
源と,該発信源から発信されるパルスを受信する複数個
の受信器とから構成され、発信から受信までの時間を計
測することにより、該平面の位置を計測している。
上記第2の目的を達成するために、画像中に存在する切
り出し対象の構造に関する先験的,かつ、節点とそれを
つなぐ曲線よりなる線画で表現された3次元構造を任意
の方向から2次元に投影したところの変形及び変更可能
な形状モデルがある場合には、この形状モデルと画像中
の対象の輪郭上の節点などを位置的に粗く関連付け,そ
れに従い画像を各曲線ごとにある幅を持つ帯状画像に再
編成した後,この再編成画像上でのエッジ情報に基づい
た画像処理をすることにより対象の輪郭、構造の詳細を
求めることにより達成される。
上記形状モデルがない場合には、画像中に存在する切り
出し対象の輪郭付近の位置座標を入力装置より入力し、
これら点列にそって、ある幅の帯状の画像領域を抽出し
、これを矩形の画像に再編成し、この再編成画像上での
エッジ情報に基づいた画像処理をすることにより対象の
輪郭,構造の詳細を求めることにより達成される. [作用コ 上記第1の目的を達成するための手段では画像を入力、
表示してから,処理領域を指定し、この処理領域に対し
て識別処理を行う。この識別処理は、画面上で、マスク
として切り出したい部分をビックすることにより、代表
点のRGB成分を入力し、またマスクでないは不要の部
分をピックすることにより、参照点のRGB成分を入力
し、これら2つの点を結ぶ線分に直交する平面を識別面
として識別処理を行う。
そして、切り出し結果を表示し、この切り出し結果を保
存するか否かの分岐処理を行う。これを保存しない場合
は、識別処理を行う前の状態までマスクを戻し,それを
表示する。これを保存する場合は、保存のための処理を
する。
上記第2の目的を達成するための手段では、画像中の対
象に粗く関連付けられた形状モデルや、入力装置より入
力された点列は切り出し対象の輪郭に概略そっている。
これらにそって再編成された帯状の画像は、元の画像に
比べて次のような著しい特徴を持っている。再編成され
た画像中で輪郭にそった方向を横方向、それに直交する
方向を縦方向とすると,(1)各縦ライン中で輪郭にな
る点は一点であり、(2)隣接する各縦ライン中で輪郭
になる点は近接している。すなわち、再編成された帯状
画像中では、輪郭は大略横方向に走っているという特徴
である。この特徴はエッジ情報より輪郭をもとめる際の
有効な制約条件となる。
これを利用し、次のような方法が可能になる。
上記第2の目的を達成するための手段のうち第1の方法
は協調アルゴリズムあるいはニューラルネットワークの
1手法であるホップフィールドネットワークと呼ばれる
ものである。前者についてはD.阿arr, T. P
.oggio がCooperative ofste
reo disparity と題し+Science
, vol. 194,p,283 (1976)にス
テレオ処理への適用に関し論じているものが有名である
。後者については、ニューラルネットワーク情報処理、
産業図書(1988年)第20頁から第27頁に解説さ
れている。cD,j; t)を時刻tにおける,帯状画
像のi行j列画素の値とする。簡単のため、C(x,j
;t)は1とOのどちらかの値をとるものとし、これに
微分等の処理をしてエッジ成分を抽出したエッジマップ
画像を初期状態、すなわちC(xtj;O)とする。エ
ッジマップも簡単のためOと1の値しかとらないものと
する。エッジがある画素は1、エッジでない画素はOで
ある。このC(i,j ; t)につき、次の繰返し計
算を行なう。
C(i,j  :  t+1)=σ(A(i,j  :
  t)i B(1+J  : j)+δc(itj 
; o))ただし、σ{ }は下のような、しきい値σ
thでの階段関数である。
σ{x}=O,x<σth σ(x)= 1 ,x≧σth また、 A(i,j : t)=C(i−Lj ; t)+C(
i−1,j ; t)十C(i+1,j ; t)+C
( i+ 2* j ; t ) A(i,,):t)は、横方向の強調(隣接する縦ライ
ンでは輪郭は近接する)を表し、B(x,,):t)は
縦方向の抑制(各縦ラインで輪郭は1点)を表す。C(
xyj; O)は初期状態でエッジのある場所が輪郭に
なる可能性が高いということを表している。この方法に
ついてテストデータで行なったシミュレーション結果を
第16図に示す。初期状態にあったノイズによるエッジ
や、輪郭の欠けが計算をくりかえすうちに完全な輪郭と
なってレ1る。
なお、簡単のためC(i.j ; o)を2値として取
扱をしたが、より一般の連続の実数値の取扱いも可能で
ある。その場合はσ(x)は階段関数ではなくシグモイ
ド関数になる。
上記第2の目的を達成するための手段のうち第2の方法
はシミュレーティドアニーリングあるいはモンテカルロ
シミュレーションとよばれる方法に基づいている。これ
についても上述のニューラルネットワーク情報処理、産
業図書(1 9 8 8年)第31頁から第33頁にG
ibbs Samplerという名前で解説されている
。本アルゴリズムは、物性物理学におけるモデル(固体
表面の物理吸着系)と類似の発想に基づくものである。
固体表面の上に1次元的にばねで繋がれた質点(吸着原
子などに対応する)の鎖が横たえられていると想定する
(第17図)。固体表面はエッジの初期状態に対応し,
エッジのある位置は凹んでいる。そのため、質点はエッ
ジの上にあると位置エネルギーを得る。
質点は縦方向のみに移動できるように束縛されていて、
横には動けないとする(各縦ランイで輪郭は1点)。質
点と質点の間はばねで繋がれているので、質点同士は横
に並んでいると弾性エネルギーを得し、縦方向に離れる
とエネルギーを損する(隣接する縦ラインでは輪郭は近
接する)。これにより系の全エネルギーは決定される。
この系を有限温度でシミュレートすると、熱エネルギー
のために鎖は動き回り,配置のエネルギー(位置エネル
ギーと弾性エネルギーの和)は高い状態にある。徐々に
系の温度を下げていくと、配置のエネルギーが最小にな
るような場所に,それぞれの質点は落ちこんでいく。シ
ミュレーションはモンテカルロ法の通常の手順にしたが
う。まず、ある温度Tでのモンテカルロ法基本操作は以
下の通り.(1)一様乱数をふり,動かしてみる質点を
決定する。
(2)一様乱数をふり、(1)で決定された質点の動か
し方を決定める。
本シミュレーションでは、上に一つ動くか、下に一つ動
くかの2通りから選択する。
(3)配置のエネルギーの変化量ΔEを計算する。
(4)ΔEが負なら、無条件で(2)の試行を存続させ
る。ΔEが0ならば(2)の試行を元に戻す。ΔEが正
ならば、一様乱数をふり、exp(一ΔE/T)との大
小を比較する。一様乱数のほうが大ならば,(2)の試
行を元に戻す。そうでないならば、試行を保存する。
この操作を質点の個数回だけ行なうことを、lモンテカ
ルロステップという。次に、シミュレーションの手順を
説明する。
(1)鎖を初期配置に置く。仮りに、中央横一列に配置
する。
(2)高温(典型的なΔEより十分大な温度)でしばら
く動かす。
(3)温度を除々に下げる。
この他、上述の帯状画像の特徴を用いた各種のアルゴリ
ズムが可能である。
以上のように、輪郭の概略位置を入力するという作業量
の少ない処理を付加し、画像を再編成して帯状画像を作
成することにより有効な制約条件を課すことができ,従
来困難であったエッジの分布から輪郭を抽出することが
可能となる。
[実施例] 以下、本発明の実施例(3例)を用いて説明する。第1
の実施例は、本発明の第1の目的を達成するための手段
を用いたものである. 第4図は、本発明の実施例のハードウェア構成図であっ
て、コンピュータ401、ディジタル化された画像を蓄
えるメモリー403、カラー画像あるいは、文字表示を
行うCRT402、写真をディジタル画像として入力及
び画像を印刷する画像入出力装置407、キーボード4
04、マウス405、第9図で後述する平面位置入力装
置408から構成されている。
ここで,マウス405の機能について説明すると、コン
ピュータ401上の制御プログラムにより,マウス40
5で指示された平面位置に従い,CRT402上に小さ
い矢印が表示され、マウス405を動かすことにより、
操作者はこの矢印をCRT402の画面上で自由に動か
すことができる。また,マウス405上のボタン406
を押すと、CRT402上の画面中の矢印の先の位置情
報がコンピュータ401に送られ、その上で動作するソ
フトウェアで用いることができる。
以下,この操作を両面中である場所を「ピックする」と
いう用語を用いることにする。
またCRT402上に表示される画像の質については現
在、縦横1000XIOOOすなわち、1画面百万画素
程度で,赤緑青それぞれ256階調で合計1670万色
程度のものが一般的であるので、本発明でもこの程度の
画質のものを用いる。
しかしこ九に限定されるものではない。画像入出力装置
407もこれに対応できる性能のものを用いる。
第1図から第3図は、本発明の実施例に係る処理手順を
示したフローチャートである。
第1図を用いて本発明の基本的な処理手順を説明すると
、ステップ101では画像を入力し表示する5ステップ
102では処理領域を指定し、ステップ103では、こ
の処理領域に対して・識別処理を行う。この処理につい
ては後述する。
ステップ104では切り出し結果を表示する。
例えば、マスクとして切り出された部分は、白抜きにし
て表示する。ステップ105では、第4図のキーボード
404の入力に従いこの切り出し結果を保存するか否か
の分岐処理を行う。これを保存しない場合は、ステップ
106でステップ103の識別処理を行う前の状態まで
マスクを戻し、それを表示する。これを保存する場合は
、ステップ107で、これを保存する処理をする。具体
的には、表示を行うマスクとは保存用のマスクをメモリ
中に確保しておき,これに書き込む。
ステップ108では、処理を継続するか否かをキーボー
ド404の入力に従って行う。継続する場合には,ステ
ップ102に戻り、新たな処理領域を設定するところか
ら繰り返す。処理を継続しない場合には、結果を出力し
終了する。
第2図、第3図によって,ステップ103の識別処理を
説明する。
第2図は、代表点と参照点を1点ずつ指定する場合の処
理フローである。すなわち、ステップ201では、画面
上で、マスクとして切り出したい部分をピックすること
により、代表点のRGB成分を入力し、ステップ202
では、マスクでない不要の部分をピックすることにより
、参照点のRGB成分を入力する。
これについて,第5図の具体例を用いて説明すると、同
図において、車501のうち,処理領域502中でカー
ソル503を出し、カーソル503の場所を読み取り、
画像上の位置を特定し、その画像の赤、緑、青の値を入
力する。
第5a図において、カーソルがポインティングしている
部分は、切り出したい部分すなわち、画像中の他の領域
と分離する領域であり,ここの色を代表色と呼ぶ。そし
て、第5b図で、マウスがポインティングしている部分
は、不要な部分すなわち、識別処理においてマスクにな
るべきでない領域であり、ここの色を参照色と呼ぶ。こ
のカーソルを用いる処理により、画像上の場所を指示す
るだけで、その画表の赤,緑、青の値を入力することが
できる。
ステップ203では,これら2つの点を結ぶ線分に直交
する平面を識別面とするため,線分のどこを平面が通る
かの指定を行う。
本発明の識別面について説明すると、色空間での識別は
、第6a図に示すように、座標軸604で展開される色
空間の上で,識別の条件として任意の位置方向の平面や
曲面を用いる。すなわち、識別面603を用いることに
より色分布601と色分布602が識別される。また,
一枚の平面や曲面でなく第6b図に示すような、識別面
608と識別面609を用いることにより、色分布60
5、色分布606、色分布607のような複雑なものも
識別可能となる。
以下、ステップ201から203までを式を用いて説明
する。
代表点の色:ν ”= (P r” − P”g , 
PQb)参照点の色=7’  ”=(pF,pF,p,
)とすると、RGB空間において、代表点と参照点をt
:1−tに内分する平面の方程式は、次のようになる。
αγ+βg十γb十δ=0 ただし ・・・・・・・・・・・・(3) (3)式で、tの値を決定すれば、識別面は完全に決定
される。
このtの決定は、キーボード404の入力によるか,あ
るいは次のようにして行う。第7b図は、代表色707
と参照色708を結ぶ線分の上に、第7a図の色分布の
各点を射影して作ったちヒストグラム710である。そ
して、例えば、該ヒストグラム710の極小部711に
対応する位置に識別面709が位置するようなtの値を
選ぶことができる。
ここでは、前者を採り、キーボードから数値を入力する
ことにより識別面を決定する。この平面による切り出し
結果をステップ104で表示し、満足な結果が得られる
までくり返す。
ステップ204では,処理領域の各画素のRGB値が、
識別面に関して、代表点と同じ側にあるかどうかを判定
する。ステップ205では、以前の識別によるマスクと
重複する領域については、論理演算を行う。ここで論理
演算というのは、マスクである場合を「真」、マスクで
ない場合を「偽」として、ある画素が複数の小領域での
識別処理を受けるときに、それらの結果を統合するため
に用いられる。
本発明の実施例では、論理積をとる.具体的には、以前
の識別結果と今回の識別結果の両方ともマスクである場
合のみ、マスクであると判定する。
すなわち例えば、第8a図、第8b図において、処理領
域802と処理領域803のそれぞれで識別処理を行い
、これを第8c図のような論理演算を行う。車801の
ボディーカラーが一定である場合でも、撮影位置などに
より微妙に色調が異なるので、このような分割処理によ
って良好な切り出し処理ができる。
ステップ204とステップ205は、処理領域中の画素
すべてについて繰り返す。
第3図は、代表点、参照点を複数個指定する場合の、ス
テップ103の識別処理の詳細フローである。
ステップ301ではピックにより代表点をn点入力する
。ステップ302では、同様に、参照点をm点入力する
。これら、nXm個の代表点と参照点の組のそれぞれに
ついて識別面を設定する。
それぞれについてパラメータtを決定してもよいが、本
発明の実施例ではすべてt=0.5とする。
これは、代表点と参照点の中間付近にヒストグラムの極
小位置が来る場合が多く、従って切り出しが成功する場
合が多いという理由による。
k番目の代表点とQ番目の参照点の間の識別面の代表点
側の領域をΩ.とすると,最終的には次の領域を識別し
て切り出す領域とすればよい。
ステップ304では、各画素について式(4)を満たす
か否かによって識別を行い、ステップ305では、以前
の結果との論理演算を行う。
ステップ103の識別処理は、第9図の平面位置を直接
入力する機器を用いることによってもできる。
すなわち、矩形の平面903の4隅には、発信源901
が設けられ、これが発信したパルスを受信器902が受
信する。この機器は、そのまま、rgb空間とその中の
平面に対応させることができる。例えば、ある発信源か
らパルスが発行されてから、各受信器に到達するまでの
時間を計り、その違いを求めることにより、その発信源
の位置がわかる。つまり、平面903をこの機器の中に
配置することにより、平面の方程式の係数のようなパラ
メータや、平面が含む点の位置座標といった数値の情報
を入力することなしに、平面の位置を入力することがで
きる。この平面を識別面とすることよより、識別処理を
行うこともできる。
以上のように、本発明の実施例では、ステップ102か
らステップ107までのループの中で、ループ毎に、ス
テップ102で処理領域の指定を行っていたが、このル
ープ処理の前にキーボードから入力された画像上の位置
座標の点列に従い、最初に各ループで使用される小領域
を決定しておくこともできる。
また、ステップ103の識別面は次のような処理で決定
することもできる。すなわち、下記に示す分離の尺度J
を最小にする’FQ.’F”.t(参照点、代表点の名
赤、緑、青成分と、tで合計7つのパラメータ)を探索
して決定し、この値を用いて識別平面を決める。
以上、この第1の実施例で説明したように、本発明の第
1の目的を達成するための手段によれば、色の分布が複
雑な画像から、特定の領域を分離する場合にも,良好な
分離、切り出しの処理ができるという効果がある。
以下、本発明の第2の実施例を、第10図から第17図
を用いて説明する。本実施例のハードウェア構成図は第
1の実施例を共通であり、第4図を用いるが、平面位置
入力装i!408は使用しない。本実施例は、第2の目
的を達するための手段を説明するものである。
第10図は本発明の実施例に係る処理手順を示したフロ
ーチャートである。また、第11図から第17図は本発
明の実施例に係る処理手順の内容を詳細に説明する図で
ある。
第10図を用いて本発明の基本的な処理手順を説明する
と、ステップ1001では、画像を入力し表示する。例
えば、第11図の概略輪郭指定点のx印を除いたものを
想定する。第11図切り出し対象1101、すなわち車
体の部分を他の背景部分より切り出すのが本実施例の目
的である。ステップ1002ではマウス操作により概略
輪郭点1102が指定される。この点の個数は、第11
図に示す通り、それらをつなぐと、切り出し対象の概略
の輪郭となる程度であり、また、これらの点は正確に輪
郭のうえに位置していなくともよい。
ステソプ1003ではステップ1002で入力され概略
輪郭位置に従い、第12図輪郭周辺部である幅(典型的
には20から40画素幅程度。これには限らない。)で
抜きだし、これをA−A’の部分で切り離してリサンプ
ル処理を行い,矩形の細長いディジタル画像である帯状
画像1202を作成する。リサンプル処理については、
第13図で説明する。リサンプル処理では,概略輪郭で
定義された、ABCDの台形1o31を矩形の帯状画像
にするため、台形1301を格子に区切り、その格子点
の位置の原画像の画素の値を帯状画像の対応する画素の
値にすることである。直下の画素の値のみを用いること
もあるが周辺画素の値を補閲して用いることが多い。ス
テップ1003では、この帯状画像1202に従来技術
の項目で述べた方法でエッジ画像を作成する。本実施例
では、ゼロクッシングを用いる。その結果が第6図エッ
ジ画像1401である。このエッジ画像1401のなか
で横方向に真の輪郭が走っているはずで、これを行うの
がステップ10o5のエッジ接続処理であり、この内容
については作用の項で説明した。本実施例ではホップフ
ィールドネットワークの方法を用いる。エッジ接続処理
の結果、輪郭(整形前)1402が得られる。エッジ整
形処理だけでは、完全でない場合もあるため、ステップ
1006では輪郭整形処理を行う。輪郭(整形前)のな
かにあるような孤立した飛びの除去などが目的である。
本処理の場合、輪郭(整形前)を端から探索し、不連続
点にはさまれている短い線分を検出したらそれを消去し
その両側の端を結ぶ、という処理を行った。その結果輪
郭(整形後)1403が得られる。ステップl 005
のエッジ接続処理だけで完全な場合(飛びが検出されな
かったとき)はステップ1006の輪郭整形処理は行わ
れない。ステップ1007では、第12図の輪郭周辺部
1201から帯状画像1202を作成したときの逆の変
換を適用して輪郭(ll形後)を原画像に再マッピング
する。ステップ1008では原画像に重ねて、原画像と
同じサイズの、輪郭の中と外を区別するマスク画像を作
成する。典型的には、輪郭の外の画素の場所にはO.@
郭上及び内容には1を割り当てる。このマスク原画像と
別に保持することもできるが、同じ画像ファイルに保持
することもできる。すなわち、多くのフルカラーグラフ
ィックワークステーションではl画素を32ビットで表
現していることを利用する。
赤青緑それぞれ256階調用いるためには、それぞれ8
ビットあればよいので、1670万色表現するためには
、1画素あたり24ビットあればよいのだが、処理の都
合上もう8ビット余計に冗長ビットを持っている場合が
多い。この冗長ビットの部分にマスク画像を蓄えれば、
画像の記憶容量を増加させず切り出し対象の情報を付加
することができる。ステップ1008ではこのマスク情
報の付いた画像を第4図メモリー403に記憶させる。
このマスク情報付き画像ファイルは、イメージシミュレ
ーションのアプリケーションプログラムにおいて使用す
ることができる。例えば、他の背景画像に自動車の車体
を重畳合成する場合には,マスクがOの画素は背景画像
の画素値を、マスクが1の画素は重畳画像(車)の画素
値を持つ画像を作成すれば良い。また,色彩変更処理で
は、マスクが1の画素のみに、それぞれの色彩変更処理
アルゴリズムを適用すれば、車体の部分のみの色彩が変
更される。
以上説明した第2の実施例の各ステップでは次のような
代替処理が可能である。
ます、ステップ1002では離散的に数個の概l8fi
+郭位置をマウスよりピックで入力していたが、そのか
わりにマウス連続的に輪郭付近を走らせ、その軌跡を用
いることもできる。その軌跡の上に数個の概略輪郭位置
を設定すればよいが、軌跡の上に等間隔で配置したり、
曲率が大きいところに配置するなどの方法がある。また
、帯状画像を連続的なマウスの軌跡を膨張・収縮させる
ことにより求めることもできる。
ステップ1002では予め自動車の車体に対する典型的
な形状のモデルがある場合には、これを輪郭を含む概略
形状として用いることができる。
第15図3次元形状モデル1501は3次元の形状デー
タであり、視点の位置を定義すれば透視変換により2次
元形状モデル1502を作成できる。
2次元形状モデルは陰線消去をしたものであり車体を指
定された視点からみたときの画像を線画化したときの概
略形状を表し、線分、曲線、ノード1503、交点15
04よりなる。この2次元形状モデルのノードと交点を
画像と位置的に対応させると、各線分,曲線は,対象画
像中の車体の概略形状になる。以下ステップの処理は各
線分、曲線ごとに独立して帯状画像を作成して行うこと
により同様に進行する。
ステップ1004のエッジ画像作成では、従来技術の項
目で述べたように、ゼロクロッシングの代わりに1次微
分をとることができる。
ステップ1005のエッジ接続処理では、ホップフィー
ルドネットワークの代わりにシミュレーティドアニーリ
ングを用いることができる。
ステップ1008のマスクデータへの書き込みは、複数
のマスク(例えば、車体とタイヤを別々のマスクにして
保持する)を異なる255以下の整数値として書き込む
ことができる。
次に、本発明の第3の実施例を第18図から第2o図を
用いて説明する。本実施例も第2の実施例と同じ目的で
あり、第20図は第10図ステップ1001からステッ
プ1007までに相当するものである。第2の実施例と
異なる点は、第2の実施例のように、概略輪郭位置をす
べて指定してからエッジ接続処理を行うのではなく、1
点指定する毎に部分帯状画像を作成して、その中で個別
にエッジ接続処理を行うことである。
ステップ1801では切り出し対象の画像を入力表示す
る。ステップ1802では、第1の概略輪郭点の位置を
ピック入力する。ステップ1803以降はループである
。ステップ1803では次の概略輪郭点の位置をピック
入力する。ステップ1804では、ステップ18o3で
入力された第19図概略輪郭点1901とその直前に入
力された概略輪郭点1902を用いて、二つの概略輪郭
点を結ぶ方向に沿って帯状画像を作成する。
ステップ1905からステップ19o7までは、第2の
実施例のステップ1004からステップ1006までと
、処理対象が部分帯状画像であることを除いて、同じで
ある。ステップ1808ではこの部分帯状画像に関する
計算された輪郭を原画像に重畳して表示する、ステップ
1809は全体の輪郭を抽呂し終って処理を終了するか
どうかの分岐である。終了しない場合にはステップ18
10に進みステップ1808で直前に行った部分帯状画
像の輪郭抽出結果の保存を行うかどうかの分岐処理を行
う。保存しない場合は最後に指示された概略輪郭点と部
分輪郭をキャンセルしステップ1803に戻る。保存す
る場合には、そのままステップ1803に戻る。本実施
例に続き、第2の実施例のようにマスク画像作成、画像
ファイルへの書きだしを行ってイメージシミュレーショ
ンへ適用することができる。
以上説明した第3の実施例の各ステップでは次のような
代替処理が可能である。
ステップ1804では、部分帯状画像のりサンプル方法
を簡易にすることができる。概域輸郭点のなす線分が横
向きに近いときには第20図(a)のように矩形に並べ
替える。概略輪郭点が縦方向に近い場合には第20図(
b)のように並べなおす。単なる並べ替えであり、補間
などは伴わない処理を行う。
第2,第3の実施例によれば、本発明は切り出したい対
象の輪郭にたいする概略位置の指定をするだけで、詳細
の輪郭形状を得ることができるという効果がある。
〔発明の効果〕
以上、説明したように、本発明によれば、外部から入力
される切り出し対象あるいは、その境界に関する情報を
入力し,切り出し処理を行い、従来できなかった、色の
分布が複雑な場合や、対象と、背景が同種の色の場合に
も適用できる、という効果がある。
【図面の簡単な説明】
第1図〜第3図は本発明の実施例に係る処理手順を示し
たフローチャート、第4図は本発明の実施例のハードウ
ェア構成図、第5a図、第5b図は切り出し部分と不要
部分とを指示した図、第6a図、第6b図は本発明によ
る識別面を示す図、第7a図、第7b図は色分布とヒス
トグラムを示す図、第8a図、第8b図、第8c図は処
理領域の論理演算を説明する図、第9図は本発明の平面
位置入力装置を示す図、第10図は本発明の第2の実施
例の処理のフローチャート、第11図から第17図は第
2の実施例の処理の内容を説明する図,第18図は本発
明の第3の実施例の処理のフローチャート、 第19図、 第20図は第3の実施 例の処理の内容を説明する図である。 第 l 図 第2目 第11 b 第 A b目 b 第?C目 ( デθ2 第7θ目 第 72記 /2ρ2 才にイスミjしイ名と 第/夕目 第 (り エノシ褐和期橿 (り 1日B ?2 已 (C) 28月 第20図

Claims (1)

  1. 【特許請求の範囲】 1、ディジタル的に表現されたカラーあるいは白黒濃淡
    の画像中から特定の対象を切り出す方法において、外部
    より入力される、切り出し対象あるいはその境界に関す
    る属性、位置を指定あるいは限定する情報に基づき、指
    定された画像上の位置または限定された画像上の範囲、
    あるいは属性の範囲について切りだし処理を行うことを
    特徴とする画像セグメンテーション方法。 2、上記外部より入力される情報は、画像中に存在する
    対象の構造に関する先験的、かつ変形及び変更可能な形
    状モデルを持ち、この形状モデルと画像中の対象を空間
    的に粗く関連付けたものであり、この関連に従い画像を
    再編成し、この再編成画像上での画像処理により対象の
    輪郭を決定する請求項1項の画像セグメンテーション方
    法。 3、上記変形及び変更可能な形状モデルは節点とそれを
    互いにつなぐ曲線または直線よりなる線画で表現された
    3次元構造を任意の方向から2次元に投影した物である
    請求項2項の画像セグメンテーション方法。 4、上記再編成画像は、画像中大略1方向に輪郭が位置
    しているものである請求項2項の画像セグメンテーショ
    ン方法。 5、上記画像処理はエッジ抽出処理をした後に、エッジ
    抽出画像を初期状態として、縦方向の抑制、横方向の強
    調をかけるところの反復計算を行うところの相互結合ニ
    ューラルネットワーク処理の結果に、必要な場合には孤
    立線分除去処理を加えたものである請求項2項の画像セ
    グメンテーション方法。 6、上記画像処理はエッジ抽出処理をした後に、エッジ
    抽出画像のエッジのある部分はポテンシャルエネルギー
    が低いとし、縦方向に束縛されたばねでつながれた粒子
    をモンテカルロシミュレーションにより動作させ、最低
    エネルギー状態を求めることにより、必要な場合には孤
    立線分除去処理を加える請求項2項の画像セグメンテー
    ション方法。 7、上記エッジ抽出処理は横方向または縦方向、あるい
    はそれら両方向を組み入れた1次微分である請求項5項
    の画像セグメンテーション方法。 8、上記エッジ抽出処理は横方向または、縦方向、ある
    いはそれら両方向を組み入れた1次微分である請求項6
    項の画像セグメンテーション方法。 9、上記エッジ抽出処理は横方向または縦方向、あるい
    はそれら両方向を組み入れた2次微分である請求項5項
    の画像セグメンテーション方法。 10、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れた2次微分である請求項6
    項の画像セグメンテーション方法。 11、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れたゼロクロッシングである
    請求項5項の画像セグメンテーション方法。 12、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れたゼロクロッシングである
    請求項6項の画像セグメンテーション方法。 13、上記外部より入力される情報は、画像中のある対
    象の真の輪郭の付近の点列の位置座標であり、これら入
    力された点列にそって、ある幅の帯状の画像領域を抽出
    しこれを矩形の画像に再編成した後、この対象の輪郭の
    詳細を、真の輪郭は概略この帯状領域に沿って存在する
    という性質を利用して、この矩形画像中で画像処理をす
    ることにより求める請求項1項の画像セグメンテーショ
    ン方法。 14、上記画像処理はエッジ抽出処理をした後に、エッ
    ジ抽出画像を初期状態として、縦方向の抑制、横方向の
    強調をかける反復計算を行う相互結合ニューラルネット
    ワーク処理の結果に、必要な場合には孤立線分除去処理
    を加えたものである請求項13項の画像セグメンテーシ
    ョン方法。 15、上記画像処理はエッジ抽出処理をした後に、エッ
    ジ抽出画像のエッジのある部分はポテンシャルエネルギ
    ーが低いとし、縦方向に束縛されたばねでつながれた粒
    子モンテカルロシミュレーションにより動作させ、最低
    エネルギー状態を求めることにより、必要な場合には孤
    立線分除去処理を加えたものである請求項13項の画像
    セグメンテーション方法。 16、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れた1次微分である請求項1
    4項の画像セグメンテーション方法。 17、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れた1次微分である請求項1
    5項の画像セグメンテーション方法。 18、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れた2次微分である請求項1
    4項の画像セグメンテーション方法。 19、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れた2次微分である請求項1
    5項の画像セグメンテーション方法 20、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れたゼロクッシングである請
    求項14項の画像セグメンテーション方法。 21、上記エッジ抽出処理は横方向または縦方向、ある
    いはそれら両方向を組み入れたゼロクッシングである請
    求項15項の画像セグメンテーション方法。 22、上記外部より入力される情報は、画像中の処理領
    域を重複を許す複数個の小領域に分解し、それぞれの小
    領域に対して、切り出す部分の画素と不要な部分の画素
    を一個あるいは複数個指定したそれぞれの画素の色情報
    であり、それらの色情報から該代表点と該参照点を結ぶ
    線分に直交する平面または曲面を識別面として識別処理
    を行う請求項1項の画像セグメンテーション方法。 23、上記特徴量はカラー画像の赤、緑、青の3成分で
    ある請求項22項の画像セグメンテーション方法。 24、上記小領域間の重複部分については、それらの間
    の領域を統合、排除する論理演算を行うことにより切り
    出し部分を生成していく請求項22項の画像セグメンテ
    ーション方法。 25、上記識別面は、上記線分をt対1−tに内分する
    変面または曲面である請求項22項の画像セグメンテー
    ション方法。 26、上記tの値は、ヒストグラムの極小部に対応する
    位置に上記識別面が位置するような値である請求項25
    項の画像セグメンテーション方法。 27、上記tの値は0.5である請求項26項の画像セ
    グメンテーション方。 28、上記識別処理は、代表点と参照点が複数個ある場
    合、ある代表点に関しては、複数の参照点との識別結果
    の論理積をとり、その結果をそれぞれの代表点に関し論
    理和をとる請求項22項の画像セグメンテーション方法
    。 29、ディジタル的に表現されたカラー画像から特定の
    対象を切り出す装置において、平面の位置を直接入力す
    る平面位置入力装置を備えたことを特徴とする画像処理
    装置。 30、上記入力装置は、上記平面に設けられた複数個の
    パルス発信源と、該発信源から発信されるパルスを受信
    する複数個の受信器と、発信から受信までの時間を計測
    することにより、該平面の位置を計測する計測器とから
    なる請求項29項の画像処理装置。
JP2166573A 1989-11-01 1990-06-27 画像セグメンテーション方法 Pending JPH03218581A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2166573A JPH03218581A (ja) 1989-11-01 1990-06-27 画像セグメンテーション方法
US07/606,629 US5247583A (en) 1989-11-01 1990-10-31 Image segmentation method and apparatus therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1-286168 1989-11-01
JP28616889 1989-11-01
JP2166573A JPH03218581A (ja) 1989-11-01 1990-06-27 画像セグメンテーション方法

Publications (1)

Publication Number Publication Date
JPH03218581A true JPH03218581A (ja) 1991-09-26

Family

ID=26490889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2166573A Pending JPH03218581A (ja) 1989-11-01 1990-06-27 画像セグメンテーション方法

Country Status (2)

Country Link
US (1) US5247583A (ja)
JP (1) JPH03218581A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269181A (ja) * 2008-04-30 2009-11-19 Photo Craft Co Ltd 三次元レリーフの製造方法および装置
JP2020187727A (ja) * 2019-05-13 2020-11-19 アドビ インコーポレイテッド 線画の生成

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2674354A1 (fr) * 1991-03-22 1992-09-25 Thomson Csf Procede d'analyse de sequences d'images routieres, dispositif pour sa mise en óoeuvre et son application a la detection d'obstacles.
JP3178884B2 (ja) * 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
AU7603894A (en) * 1993-08-27 1995-03-21 Massachusetts Institute Of Technology Example-based image analysis and synthesis using pixelwise correspondence
EP0721631B1 (de) * 1993-09-27 1997-07-23 Siemens Aktiengesellschaft Verfahren zur segmentation von digitalen farbbildern
EP0693738A3 (en) * 1994-06-23 1996-11-06 Dainippon Screen Mfg Device and method for producing colored masks
US5539805A (en) * 1994-09-21 1996-07-23 Raynet Corporation Power supply system including ringing voltage reset under low input voltage conditions
US5768413A (en) * 1995-10-04 1998-06-16 Arch Development Corp. Method and apparatus for segmenting images using stochastically deformable contours
US5917940A (en) * 1996-01-23 1999-06-29 Nec Corporation Three dimensional reference image segmenting method and device and object discrimination system
US6493465B2 (en) * 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US7650015B2 (en) 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
US5778160A (en) * 1996-09-24 1998-07-07 Xerox Corporation Liquid ink printing system having region-dependent image processing
US5808623A (en) * 1996-10-07 1998-09-15 Adobe Systems Incorporated System and method for perspective transform in computer using multi-pass algorithm
US6408028B1 (en) 1997-06-02 2002-06-18 The Regents Of The University Of California Diffusion based peer group processing method for image enhancement and segmentation
JP4698831B2 (ja) * 1997-12-05 2011-06-08 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
AU2207599A (en) 1997-12-29 1999-07-19 Cornell Research Foundation Inc. Image subregion querying using color correlograms
JP2001188910A (ja) * 1999-10-22 2001-07-10 Toshiba Corp 画像の輪郭抽出方法、画像からの物体抽出方法およびこの物体抽出方法を用いた画像伝送システム
US7391929B2 (en) * 2000-02-11 2008-06-24 Sony Corporation Masking tool
KR20000058657A (ko) * 2000-06-22 2000-10-05 오승호 최적화된 메모리 구조 및 정합 화소 수를 적용한디스패러티 측정 아키텍쳐
US7715591B2 (en) * 2002-04-24 2010-05-11 Hrl Laboratories, Llc High-performance sensor fusion architecture
EP1649422A1 (en) * 2003-07-16 2006-04-26 Philips Intellectual Property & Standards GmbH Object-specific segmentation
US20050110801A1 (en) * 2003-11-20 2005-05-26 I-Jong Lin Methods and systems for processing displayed images
US20050201591A1 (en) * 2004-03-10 2005-09-15 Kiselewich Stephen J. Method and apparatus for recognizing the position of an occupant in a vehicle
US7561732B1 (en) * 2005-02-04 2009-07-14 Hrl Laboratories, Llc Method and apparatus for three-dimensional shape estimation using constrained disparity propagation
KR100698845B1 (ko) * 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
US20080144935A1 (en) * 2006-11-30 2008-06-19 Chav Ramnada Method for segmentation of digital images
JP2010123002A (ja) * 2008-11-20 2010-06-03 Canon Inc 文書画像レイアウト装置
JP4825888B2 (ja) * 2009-03-17 2011-11-30 株式会社東芝 文書画像処理装置および文書画像処理方法
CN112070678B (zh) * 2020-08-10 2023-04-11 华东交通大学 一种批量蛋白质印迹膜条倾斜矫正和分割方法及系统
CN112053360B (zh) * 2020-10-10 2023-07-25 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
CN112288820B (zh) * 2020-12-29 2021-04-27 深圳市六合智能感知系统科技有限公司 规则物体的轮廓计算方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU456705B2 (en) * 1970-12-09 1975-01-09 Nippon Electric Co. Ltd. Electrooptical device for discriminating predetermined patterns from others
JPS60123978A (ja) * 1983-12-08 1985-07-02 Kubota Ltd 色信号分離装置
JPS60169726A (ja) * 1984-02-13 1985-09-03 Omron Tateisi Electronics Co 色識別のための弁別基準の作成方法
US4727498A (en) * 1984-10-31 1988-02-23 University Of South Carolina Process for segmenting reservoir pores
US4839838A (en) * 1987-03-30 1989-06-13 Labiche Mitchell Spatial input apparatus
US4731663A (en) * 1987-05-20 1988-03-15 American Telephone And Telegraph Method and apparatus for color identification

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269181A (ja) * 2008-04-30 2009-11-19 Photo Craft Co Ltd 三次元レリーフの製造方法および装置
JP2020187727A (ja) * 2019-05-13 2020-11-19 アドビ インコーポレイテッド 線画の生成

Also Published As

Publication number Publication date
US5247583A (en) 1993-09-21

Similar Documents

Publication Publication Date Title
JPH03218581A (ja) 画像セグメンテーション方法
US5119439A (en) Method of and apparatus for extracting image contour data
CN108446694B (zh) 一种目标检测方法及装置
JPH02162475A (ja) 画像輪郭修正方法
JP2018045693A (ja) 動画像背景除去方法及び動画像背景除去システム
KR20030062313A (ko) 영상 변환 및 부호화 기술
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
US11935209B1 (en) Systems and methods for dynamic backfilling of a three-dimensional object
TWI716874B (zh) 影像處理裝置、影像處理方法、及影像處理程式
US20220327710A1 (en) Image Segmentation Method and Apparatus and Image Three-Dimensional Reconstruction Method and Apparatus
CN112102342B (zh) 平面轮廓识别方法、装置、计算机设备和存储介质
JPH05250472A (ja) 画像の残りの部分から切離すべく、興味あるエリアの画像上の境界の微細マスクを準備する方法および装置
JPH0830787A (ja) 画像領域分割方法及び画像領域統合方法
CN116342377A (zh) 一种降质场景下伪装目标图像自适应生成方法与系统
US20030146918A1 (en) Appearance modelling
CN115631489A (zh) 一种三维语义场景补全方法、装置、设备及介质
CN112802175B (zh) 大规模场景遮挡剔除方法、装置、设备及存储介质
JP7144384B2 (ja) オブジェクト検出装置、方法及びプログラム
JP3055423B2 (ja) 領域分割装置
US20230169708A1 (en) Image and video matting
JPH07121710A (ja) 画像セグメンテーション方法及び装置
JPH05128224A (ja) カラー画像の色抽出装置および方法
JP2003058885A (ja) 対応点探索方法および装置並びにコンピュータプログラム
JP3598051B2 (ja) 画像検索装置、画像検索方法および画像検索処理プログラムを記録した記録媒体
CN113112537A (zh) 一种基于深度网络目标分割的立体视觉生成方法及装置