JP2002522830A - 色フレームイメージシーケンスで移動体を検出する装置及び方法 - Google Patents
色フレームイメージシーケンスで移動体を検出する装置及び方法Info
- Publication number
- JP2002522830A JP2002522830A JP2000564151A JP2000564151A JP2002522830A JP 2002522830 A JP2002522830 A JP 2002522830A JP 2000564151 A JP2000564151 A JP 2000564151A JP 2000564151 A JP2000564151 A JP 2000564151A JP 2002522830 A JP2002522830 A JP 2002522830A
- Authority
- JP
- Japan
- Prior art keywords
- color
- frame image
- pixel
- intensity level
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000006243 chemical reaction Methods 0.000 claims abstract description 37
- 230000033001 locomotion Effects 0.000 claims description 31
- 239000003086 colorant Substances 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 20
- 238000005259 measurement Methods 0.000 description 13
- 239000000872 buffer Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Color Television Systems (AREA)
- Processing Of Color Television Signals (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
領域の色と動作情報を用いて動映像上の顔領域を検出することができる装置及び
その方法に関するものである。
顔領域を検出するための既存の発明は広く使われていない。なぜならば、前記の
ような既存の発明は顔の大きさ及び方向そして背景イメージによって大きい影響
を受けるためである。
。 顔領域の検出のため、前記顔の形状情報を用いる既存の発明は灰色レベルの変
化を測定し、前記測定された値を顔の先天的情報に適用することによりなされる
。しかし、前記のような顔の形状情報を用いる方法は顔の正面のみを有するイメ
ージ色顔領域を検出することに用いられるべきであり、前記のような検出結果は
顔の大きさ及び方向、そして背景イメージに大きい影響を受ける。
題となり、これは、前記方法が人間の顔固有の色を用いて顔領域を検出するため
である。しかも、前記のような方法は前記形状情報を用いる方法よりも多くの情
報を使用するため、多量のデータ処理が要求される。しかし、ハードウェア技術
が発達するにつれて、前記形状を用いる方法よりも多く適用できる。
される。 発明の開示 したがって、移動体の検出が背景イメージ、大きさ及び方向によって影響を受
ける移動体検出装置及び方法を提供することが本発明の主目的である。
ができる装置及び方法を提供することにある。 前記目的を達成するために本発明によると、色フレームイメージシーケンスの
移動体検出装置が提供される。ここで、色フレームイメージは複数のピクセルを
有し、前記ピクセルはそれぞれ3色成分を有する。前記装置は、標準フレームイ
メージを生産するため、色フレームイメージの前記色成分を標準化させる色標準
化器と、前記色標準化器に連結され、前記標準フレームイメージの色を変換する
ことにより、前記標準フレームイメージを第1色変換フレームイメージ化する色
変換器(ここで、前記第1色変換フレームイメージは移動体をなすピクセルが強
調された強度レベルを有する)と、前記色変換器に連結され、前記第1色変換フ
レームイメージを1フレーム遅延させて第2色変換フレームイメージ化するフレ
ーム遅延器と、前記色変換器と前記色遅延器に連結され、移動体の動作を検出し
、前記検出された動作によって前記第1色変換フレームイメージの強度レベルを
強化する動作検出器とからなる。
かになるであろう。以後の説明においては添付図面を参照し、各図面で同一部を
示すために同一符号を使用する。 発明を実施する最良の態様 図1は色動映像の移動体を検出するための本発明の全システムのブロック図を
示す。前記システムは、色動映像の現在フレームイメージの色成分を標準化する
色標準化器100と、前記標準フレームイメージの色を前記標準フレームイメー
ジが色変換フレームイメージ化されるように変換する色変換器200と、前記色
変換器200の色変換フレームを一時的に貯蔵して前記色変換フレームを1フレ
ーム遅延させ得るようにするフレーム遅延器300と、前記色変換器200と前
記フレーム遅延器300から色変換された現在及び以前のフレームを受けて移動
体の動作を検出する動作検出器400とから構成される。前記色変換器により生
成された色変換フレームイメージは移動客体に対応するピクセルが強調された強
度レベルを有する。前記動作検出器400は移動体のピクセルの強度レベルを更
に強化するため、前記移動体の検出された動作を使用する。
も3色成分、つまり相違した波長を有する赤、緑、青で表現できる。言いかえれ
ば、色情報QはQ=(R,G,B)により与えられる。輝度値Yは前記3色成分
の和により定義される。ここで、輝度値Yは明るさを知覚し得るようにする可視
輻射エネルギーの基準である。イメージの明るさがイメージの色成分に影響を及
ぼすことを防止するため、各ピクセルの色成分はそのピクセルの輝度値Yにより
標準化されなければならない。
抽出器130と、二つの標準化器110、120とから構成される。輝度抽出器
130はフレームイメージの各ピクセルの赤、緑、青色成分を全て合わせて輝度
地Y、つまり(Y=R+G+B)の値を求める。その後、標準化器110、例え
ば赤色成分標準化器は前記輝度値Yを入力して前記輝度値Y及び赤色成分Rを用
いて標準色成分r(r=(R/Y)*255)を計算し外部に出力する。同様に
、標準化器120、例えば緑色成分標準化器は前記輝度値Yを入力して標準色成
分g(g=(G/Y)*255)を計算し外部に出力する。ここで、輝度値の範
囲が3bitであり、最も明るいピクセルの輝度値が255であると仮定した。標
準化により、どんな色情報Q(Q=r,g)であっても二つの標準色成分r及び
gにより表現することができ、これは三つの標準色成分の関係がr+g+b=2
55であるためである。このようにして、標準化色空間の色モデルは2562/
2色を表現することができ、反面RGB色空間の色モデルは2563色を表現す
ることができる。
3aにおいて、水平面上の2軸は二つの標準化された色成分rとgの値を示し、
水平面に垂直な軸は、前記典型的な顔イメージにおいて、前記標準化された色成
分r、gを有するピクセルの数を示す。標準化された色成分の分散は背景と明る
さにかかわらず全ての顔イメージに類似する。
れた色成分のヒストグラムを示す。本発明の具体例においては、モデリングが図
3bに示すように二次元ガウス分散関数を用いて行われた。顔イメージの色分散
のためのガウスモデルは一般色分散(Generalized Face Color Distribution;
以下GFCDという)と呼ばれる。本具体例において、M(M=(/r、/g)
)は二次元ガウス分散の中心点となり、前記/kと/gは顔イメージの全てのピ
クセルの標準化された色成分の平均値である。Σ2 は顔イメージの標準化された
色成分の共分散数列を示す。前記具体例において、顔イメージのためのGFCD
はm=(105,95)、σrのΣ2 =20、σgのΣ2 =15を有し得る。GF
CDモデルを用いることにより、顔を含んでいる入力色イメージの顔が顔色に対
応するピクセルが強調された灰色レベルイメージに変換される。
空間のガウス分散の平均m=(/r,/g)の色成分に近接した値に変換する。
色変換はつぎのように定義される。
x,y)は座標(x,y)のピクセルの標準化された色成分であり、GF()は
一般顔色分散関数である。GFCDを用いる色変換は人間顔色のピクセル色の近
接値に比例する値を生成する。 以下、図4と図5を参照して図1の色変換器200を説明する。
ック210、220と、第1、2標準化ブロック230、240と、出力器25
0とから構成される。第1ブロック210は標準化器110から標準化された色
成分rを受けて特定GFCDモデルによる既貯蔵されたσrと比較する。仮に、
標準色成分rがσrの3倍以下であり、/r周辺地を有する場合、第1ブロック
210はr’=|r−/r|を出力する。そうでない場合、第1ブロック210
はZr=0となるように、非常に大きい値を出力する。第2標準化ブロック24
0は出力値g’を入力して1次元標準ガウス数GF(0,σr 2)を含む参照表(
look-up table;以下LUTという)を参照して変換値Zgを出力する。出力器
250はZrとZgの値を受けてZ=(Zr*Zg)*255を計算し、Zを出
力する。図5は典型的な顔イメージをGFCDモデリングにより色変換を行った
結果を示す。図5の結果イメージから分かるように、人間の顔色を有する部分は
強調された。
位と同様に背景イメージも強調する。この問題を克服するため、本方法は人間顔
の動作情報を使用する。一般に、背景イメージが停止しているうちに人間顔領域
のみが動く。したがって、顔領域の動作情報が用いられると、人間顔領域は背景
イメージとはっきりと区分される。二つの連続フレームイメージ色動作情報を抽
出する方法は関連技術分野によく知られている。それは領域基礎方法と特徴点基
礎方法である。関連技術分野の殆どの適用には、前記特徴点基礎方法が一般に内
挿法を使用する後処理を必要とするため、特徴点基礎方法より領域基礎方法を用
いる。
フレーム間差が前記特定ピクセルの動作を測定するために加わる。この方法は蓄
積差測定法(Accumulated Difference Measure;以下AMDという)である。前
記ADM法は隣接ピクセルの強度差の合計を用いるため、前記隣接ピクセルの小
さい雑音のような変化にも確かに検出する。しかし、小さい差を有するピクセル
は平均効果により無視され、測定は臨界値の決定によって大きく影響を受ける。
るピクセルをカウントすることで動作検出を行う。このような動作検出はアンマ
ッチングピクセルカウント(Unmatching Pixel Count;以下UPCという)測定
と言われ、つぎのように定義される。
決定する臨界値である。UPC方法において、マッチングはピクセル単位でテス
トされ、その結果が蓄積されるので、小さな強度変化を起こすオーバーラップ領
域がはっきりと取られるように平均効果が減少する。 色イメージの動作を検出するため、前記色情報が使用できる。GFCDモデリ
ングの色変換方法により変換された色変換イメージの各ピクセルの強度レベルは
そのピクセルが顔領域にある可能性を表すというのは当業者が分かる。色変換イ
メージの色情報は色変換イメージピクセルの強度レベルのカウントを合わせるこ
とにより、式2により合併される。このような新たな動作検出測定はウェイテッ
ドアンマッチングピクセルカウント(Weighted Unmatching Pixel Count;以下
WUPCという)と呼ばれる。WUPC(x,y,t)はUPC測定UPC(x
,y,t)と色変換イメージZ(x,y,t)の強度レベル間のファジー−AN
D演算により生成される。WUPC測定はつぎの式のように定義される。
用することにより得られる。言いかえれば、Thは顔領域のピクセルに対しては
その値が小さくなり、ほかのピクセルに対してはその値が大きくなる。このよう
にして、WUPC測定はほかのピクセルの動作より顔をなすピクセルの動作にも
っと敏感であり、顔領域の小さな動作であっても検出する。本発明の好ましい具
体例において、臨界Thはつぎのようにシグモイド(Sigmoid)関数を使用する
ことにより得られる。Qが小さくなるにつれてシグモイド関数の勾配は急になる
。
式3の臨界Thを決めるため、前記シグモイド関数のような関数を使用すること
が適切である。なぜならば、シグモイド関数は大きい入力値に対して小さな臨界
Thを出力し、小さな入力値に対して大きい臨界Thを出力するためである。ま
た、前記シグモイド関数は最大入力値又は最小入力値に対して突然応答しない関
数であるという点で非線型性を有する。アダプティブリカウンティングアンマッ
チングピクセルに対する前記方法はアダプティブウェイテッドアンマッチングピ
クセルカウント(Adaptive Weighted Unmatching Pixel Count;以下AWUPC
という)測定という。
時的に色変換イメージを貯蔵し、所定大きさのウィンドウをなすピクセルの強度
レベルを出力する第1、2ラインバッファ410、420と、ウィンドウの中央
ピクセルの強度レベルによる臨界thを生成するアダプティブ臨界値生成器44
0と、式3のアンマッチングピクセル値U(x,y,t)を計算することにより
、現在フレームウィンドウのピクセルがその前フレームウィンドウのピクセルと
マッチングされるかを決定するため、第1、2ラインバッファ410と420か
ら色変換イメージの現在及び前フレームを入力し、臨界Thを入力するアンマッ
チングピクセル値生成器430と、アンマッチングピクセル生成器430でアン
マッチングされたピクセルと決定されたピクセルをカウンティングするアンマッ
チングピクセルカウンター450と、第2ラインバッファ420の色変換イメー
ジのピクセルの強度レベルZ(x,y,t)とアンマッチングピクセルカウンタ
ー450の出力値のファジー−AND演算を行うファジーAND演算器460と
から構成される。第2ラインバッファ420は現在フレームウィンドウの強度レ
ベルZ(i,j,t)を出力する反面、第1ラインバッファ410は前フレーム
ウィンドウの強度レベルZ(i,j,t)を出力する。ウィンドウのサイズは(
2N+1)×(2N+1)であり、第1、2ラインバッファ410、420は(
2N+1)×(2N+1)ピクセルの強度レベルを出力する。臨界値生成器44
0は現在フレームウィンドウのなかで中央ピクセルZ(x,y,t)の強度レベ
ルを入力して式4による臨界値Thを生成する。アンマッチングピクセル生成器
430は第1ラインバッファ410の出力と臨界値生成器440から臨界値Th
を入力する。その後、アンマッチングピクセル生成器430はウィンドウの中央
ピクセルZ(x,y,t)による式3のu(i,j,t)を生成する。アンマッ
チングピクセルカウンター450はアンマッチングピクセル生成器430の出力
を受けてアンマッチングピクセルの数をカウントする。ファジー−AND演算器
460のファジー−AND演算子は第2ラインバッファ420からの中央ピクセ
ルZ(x,y,t)の強度レベルとアンマッチングピクセルカウンター450の
出力をファジー−AND演算することにより、色動作情報を出力する。
図7は四角物体を有する二つの連続イメージの動作検出結果を示す。図7aは背
景イメージを有する四角物体を有する第1イメージを示す。図7aの四角物体の
ピクセルは200〜230のランダム灰色レベルを有する反面、背景イメージの
ピクセルは0〜30のランダム灰色レベルを有する。図7bはx軸とy軸方向に
四角物体が50ピクセルだけ動いた第2イメージを示す。図7cは従来のADM
方法による動作検出結果を示す。強度レベルのフレーム間差の大きい領域が強調
された。しかし、二つの後続イメージの四角物体がオーバーラップされた領域は
強調されていない。したがって、後続フレームの二つの物体がオーバーラップさ
れる場合、従来のADM方法により動作がよく検出されない。図7dはUPC方
法による動作検出結果を示す。図7dはUPC方法による動作検出結果を示す。
図7dにおいて、二つの連続イメージの四角物体がオーバーラップされた領域も
強調された。UPC測定はADM方法より移動体の動作検出を検出することがで
き、このことは移動体のオーバーラップ領域を検出することができるためである
。図7eはWUPC測定による動作検出結果を示す。第1イメージの所望色を有
する移動体の領域が強調された。図7fは本発明によるAWUPC測定を用いる
動作検出結果を示す。図8は人間の顔を有する二つの連続イメージの動作検出結
果を示す。図8aは背景イメージを有する人間の顔を有する第1イメージのGF
CD色変換イメージを示す。図8bは人間の顔が少し動いた第2イメージのGF
CD色変換イメージを示す。図8cは従来のADM方法による動作検出結果を示
す。図8cに示すように、従来のADM方法によっては動作がよく検出されなか
った。図8dはUPC測定による動作検出結果を示す。図8eと図8fは本発明
によるWUPC測定とAWUPC測定による動作検出結果を示す。
す。
b)は二次元ガウス分散関数によりモデリングされた顔イメージの標準化された
色成分のヒストグラムを示す。
結果を示す。
す。
。
Claims (12)
- 【請求項1】 標準色フレームイメージを生成するため、色フレームの色成
分を標準化する色標準化器と、 移動体に対応するピクセルが強調された強度レベルを有する第1色変換フレー
ムイメージに前記標準化された色フレームイメージを色変換するため、前記色標
準化器に連結された色変換器と、 第1色変換フレームイメージを1フレームだけ遅延させて、第2色変換フレー
ムイメージとなるようにするため、前記色変換器に連結された色フレーム遅延器
と、 検出された動作に基づき移動体の動作を検出し第1色変換フレームイメージの
強度レベルを強化するため、前記色変換器と前記フレーム遅延器に連結された動
作検出器とから構成された、それぞれ三つの色成分を有する複数のピクセルを有
する色フレームイメージシーケンスで移動体を検出する装置。 - 【請求項2】 請求項1において、第1色変換フレームイメージの各ピクセ
ルは前記移動体の標準色成分に対するピクセルの標準色成分に近接した値に比例
する強度レベルを有する色フレームイメージシーケンスで移動体を検出する装置
。 - 【請求項3】 請求項2において、前記第1色変換イメージの各ピクセルの
強度レベルとピクセルの標準色成分がつぎのような関係を有する色フレームイメ
ージシーケンスで移動体を検出する装置。 【数1】 ここで、(x,y)は前記標準フレームイメージのピクセル座標であり、g(x
,y)とr(x,y)は座標(x,y)のピクセルの標準化された色成分であり
、GF()は二次元ガウス分散関数である。 - 【請求項4】 請求項1において、前記動作検出器は、前記第1色変換フレ
ームイメージと第2色変換フレームイメージの強度レベル差が臨界値より大きい
ピクセル周辺のピクセルをカウンティングすることで各ピクセルの動作を検出す
る手段から構成され、ここで、前記各ピクセルの強度レベルは前記各ピクセルの
前記検出された動作による強度レベルを合わせることにより更に強化される、色
フレームイメージシーケンスで移動体を検出する装置。 - 【請求項5】 請求項4において、前記合わせ過程は、前記各ピクセルの前
記検出された動作と前記強度レベルをファジー−AND演算することにより遂行
される、色フレームイメージシーケンスで移動体を検出する装置。 - 【請求項6】 請求項4において、前記臨界値はつぎのようなシグモイド関
数により得られる、色フレームイメージシーケンスで移動体を検出する装置。 【数2】 ここで、Z(x,y,t)はピクセルの強度レベルであり、Qは所定のパラメー
タである。 - 【請求項7】 標準フレームイメージを生成するため、色フレームイメージ
の色成分を標準化する段階と、 前記標準化されたフレームイメージの色を、前記移動体に対応するピクセルが
強調された強度レベルを有する第1色変換フレームイメージに変換する段階と、 前記第1色変換フレームイメージを1フレームだけ遅延させて第2色変換フレ
ームイメージとなるようにする段階と、 移動体の動作を検出し、検出された動作に基づいて前記第1色変換フレームの
強度レベルを強化する段階とからなる、それぞれ3色成分を有する複数のピクセ
ル色から色フレームイメージシーケンスで移動体を検出する方法。 - 【請求項8】 請求項7において、第1色変換フレームの各フレームは前記
移動体の標準色成分に対するピクセルの標準色成分に近接した値に比例する強度
レベルを有する、色フレームイメージシーケンスで移動体を検出する方法。 - 【請求項9】 請求項8において、前記第1色変換フレームイメージの各ピ
クセルの強度レベルとピクセルの標準色成分の関係がつぎのようである、色フレ
ームイメージシーケンスで移動体を検出する方法。 【数3】 ここで、(x,y)は前記標準フレームイメージのピクセル座標であり、g(x
,y)とr(x,y)は座標(x,y)のピクセルの標準化された色成分であり
、GF()は二次元ガウス分散関数である。 - 【請求項10】 請求項7において、前記動作検出段階は前記第1色変換フ
レームイメージと第2色変換フレームイメージの強度レベル差が臨界値より大き
いピクセル周辺のピクセルをカウンティングすることで各ピクセルの動作を検出
する手段から構成され、ここで、前記各ピクセルの強度レベルは前記各ピクセル
の前記検出された動作による強度レベルを合わせることにより更に強化される、
色フレームイメージシーケンスで移動体を検出する方法。 - 【請求項11】 請求項10において、前記合わせ過程は、前記各ピクセル
の前記検出された動作と前記強度レベルをファジー−AND演算することにより
遂行される、色フレームイメージシーケンスで移動体を検出する方法。 - 【請求項12】 請求項10において、前記臨界値はつぎのようなシグモイ
ド関数により得られる、色フレームイメージシーケンスで移動体を検出する方法
。 【数4】 ここで、Z(x,y,t)はピクセルの強度レベルであり、Qは所定のパラメ
ータである。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR1998/000243 WO2000008586A2 (en) | 1998-08-07 | 1998-08-07 | Apparatus and method for detecting a moving object in a sequence of color frame images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002522830A true JP2002522830A (ja) | 2002-07-23 |
JP3725784B2 JP3725784B2 (ja) | 2005-12-14 |
Family
ID=19531098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000564151A Expired - Fee Related JP3725784B2 (ja) | 1998-08-07 | 1998-08-07 | 色フレームイメージシーケンスで移動体を検出する装置及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US6999604B1 (ja) |
JP (1) | JP3725784B2 (ja) |
DE (1) | DE19883010B4 (ja) |
WO (1) | WO2000008586A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170402A (ja) * | 2010-02-16 | 2011-09-01 | Casio Computer Co Ltd | 画像処理装置及び画像処理プログラム |
KR20190024244A (ko) * | 2017-08-31 | 2019-03-08 | 한화테크윈 주식회사 | 영상 처리 시스템 및 그에 의한 영상 처리 방법 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020039111A1 (en) * | 2000-06-27 | 2002-04-04 | James Gips | Automated visual tracking for computer access |
JP4062924B2 (ja) * | 2002-01-24 | 2008-03-19 | コニカミノルタホールディングス株式会社 | カラー画像処理方法及びカラー画像処理装置 |
EP1418530B1 (en) * | 2002-10-08 | 2012-12-05 | Sony France S.A. | Adaptive artificial vision method and system |
US7447374B1 (en) * | 2003-01-06 | 2008-11-04 | Apple Inc. | Method and apparatus for an intuitive digital image processing system that enhances digital images |
US7212651B2 (en) * | 2003-06-17 | 2007-05-01 | Mitsubishi Electric Research Laboratories, Inc. | Detecting pedestrians using patterns of motion and appearance in videos |
ATE381852T1 (de) * | 2005-02-03 | 2008-01-15 | Sony Ericsson Mobile Comm Ab | Verfahren und vorrichtung zur erzeugung von verbesserten bildern aus mehreren konsekutiven belichtungen |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US8150155B2 (en) | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
TWI328201B (en) * | 2006-10-30 | 2010-08-01 | Ind Tech Res Inst | Method and system for object detection in an image plane |
JP5622461B2 (ja) * | 2010-07-07 | 2014-11-12 | オリンパス株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US11436839B2 (en) * | 2018-11-02 | 2022-09-06 | Toyota Research Institute, Inc. | Systems and methods of detecting moving obstacles |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0076260B1 (en) * | 1981-04-10 | 1989-08-02 | Ampex Corporation | System for spatially transforming images |
US5204749A (en) * | 1984-05-25 | 1993-04-20 | Canon Kabushiki Kaisha | Automatic follow-up focus detecting device and automatic follow-up device |
JP3040466B2 (ja) * | 1990-07-17 | 2000-05-15 | ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | 画像処理方法 |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
JPH0568241A (ja) * | 1991-09-09 | 1993-03-19 | Nippon Telegr & Teleph Corp <Ntt> | テレビ電話用cif画像変換方式 |
EP0735509B1 (en) * | 1995-03-31 | 1999-01-27 | Hitachi Europe Limited | Image processing for facial feature extraction |
US5909249A (en) * | 1995-12-15 | 1999-06-01 | General Instrument Corporation | Reduction of noise visibility in a digital video system |
EP0786907A3 (en) * | 1997-01-24 | 2001-06-13 | Texas Instruments Incorporated | Video encoder |
US6148092A (en) * | 1998-01-08 | 2000-11-14 | Sharp Laboratories Of America, Inc | System for detecting skin-tone regions within an image |
US6493041B1 (en) * | 1998-06-30 | 2002-12-10 | Sun Microsystems, Inc. | Method and apparatus for the detection of motion in video |
US6292575B1 (en) * | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
-
1998
- 1998-08-07 DE DE19883010T patent/DE19883010B4/de not_active Expired - Fee Related
- 1998-08-07 WO PCT/KR1998/000243 patent/WO2000008586A2/en active Application Filing
- 1998-08-07 JP JP2000564151A patent/JP3725784B2/ja not_active Expired - Fee Related
- 1998-08-07 US US09/744,250 patent/US6999604B1/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011170402A (ja) * | 2010-02-16 | 2011-09-01 | Casio Computer Co Ltd | 画像処理装置及び画像処理プログラム |
US8736682B2 (en) | 2010-02-16 | 2014-05-27 | Casio Computer Co., Ltd. | Image processing apparatus |
KR20190024244A (ko) * | 2017-08-31 | 2019-03-08 | 한화테크윈 주식회사 | 영상 처리 시스템 및 그에 의한 영상 처리 방법 |
KR102422128B1 (ko) * | 2017-08-31 | 2022-07-20 | 한화테크윈 주식회사 | 영상 처리 시스템 및 그에 의한 영상 처리 방법 |
Also Published As
Publication number | Publication date |
---|---|
DE19883010B4 (de) | 2008-06-26 |
DE19883010T1 (de) | 2001-09-27 |
JP3725784B2 (ja) | 2005-12-14 |
WO2000008586A2 (en) | 2000-02-17 |
WO2000008586A3 (en) | 2001-09-20 |
US6999604B1 (en) | 2006-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rivera et al. | Content-aware dark image enhancement through channel division | |
US5960111A (en) | Method and apparatus for segmenting images prior to coding | |
KR102153607B1 (ko) | 영상에서의 전경 검출 장치 및 방법 | |
JP3725784B2 (ja) | 色フレームイメージシーケンスで移動体を検出する装置及び方法 | |
EP1400924B1 (en) | Pseudo three dimensional image generating apparatus | |
US6548800B2 (en) | Image blur detection methods and arrangements | |
JP2011128990A (ja) | 画像処理装置とその方法 | |
KR100845969B1 (ko) | 동적객체 영역 추출방법 및 장치 | |
US7403636B2 (en) | Method and apparatus for processing an image | |
Mendes et al. | Movement detection and moving object distinction based on optical flow | |
CN111583357A (zh) | 一种基于matlab系统的物体运动图像捕捉合成方法 | |
CN114758268A (zh) | 手势识别方法、装置及智能设备 | |
JPH11312243A (ja) | 顔領域検出装置 | |
WO2008018459A1 (fr) | Procédé de traitement d'image, appareil de traitement d'image, programme de traitement d'image, et appareil de prise d'image | |
Chaczko et al. | A preliminary investigation on computer vision for telemedicine systems using OpenCV | |
Arora et al. | Enhancement of overexposed color images | |
JP2002312787A (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
JP2002312795A (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
JP2004062604A (ja) | 画像処理方法および装置 | |
JP2967088B1 (ja) | 動物体領域分割装置 | |
JP2002312792A (ja) | 画像処理装置および画像処理方法、記録媒体、並びにプログラム | |
JP2005242703A (ja) | 画像処理装置および画像処理方法 | |
Várkonyi-Kóczy et al. | Fuzzy information measure for improving HDR imaging | |
JPH03237571A (ja) | 画像の2値化しきい値算出装置 | |
JP2004086538A (ja) | 画像の特徴量分類方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040622 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20040921 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20041005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050125 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20050422 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20050506 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050922 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080930 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090930 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100930 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100930 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120930 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130930 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |