JP2007304721A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2007304721A JP2007304721A JP2006130614A JP2006130614A JP2007304721A JP 2007304721 A JP2007304721 A JP 2007304721A JP 2006130614 A JP2006130614 A JP 2006130614A JP 2006130614 A JP2006130614 A JP 2006130614A JP 2007304721 A JP2007304721 A JP 2007304721A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- sample
- sample image
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】迅速に画像処理が行える画像処理装置及び画像処理方法を提供すること。
【解決手段】対象物を撮像した撮像画像から対象物の特徴点画像を抽出し(S23)、その抽出された特徴点画像を予めデータベースに複数記録され対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定し(S24)、その選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する(S25)。これにより、対象物の位置及び向きの推定を迅速に行える。
【選択図】 図2
【解決手段】対象物を撮像した撮像画像から対象物の特徴点画像を抽出し(S23)、その抽出された特徴点画像を予めデータベースに複数記録され対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定し(S24)、その選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する(S25)。これにより、対象物の位置及び向きの推定を迅速に行える。
【選択図】 図2
Description
本発明は、認識対象物の位置と向きの推定に適した画像処理装置及び画像処理方法に関するものである。
従来、認識対象物の位置や向きを推定する装置として、例えば特開2003−308533号公報に記載されるように、認識対象物のさまざまな向きに対するワイヤフレームモデルとテンプレートからなる参照データを生成し、参照データと入力画像のそれとの照合によって認識対象物の向きを推定するものが知られている。
特開2003−308533号公報
しかしながら、このような装置にあっては、画像処理が迅速に行えず認識対象物の検出及びその位置と向きの推定が困難となるという問題点がある。例えば、車両のドライバの視線監視を行うに際し、各時刻の撮影画像に基づいてドライバの状態を検出する必要があるが、参照データの処理負荷やデータサイズが多大なものになり、ドライバの向きを検出する処理に膨大な時間を要する。
本発明は、上記した事情に鑑みて為されたものであり、迅速に画像処理が行える画像処理装置及び画像処理方法を提供することを目的とする。
すなわち本発明に係る画像処理装置は、対象物を撮像した撮像画像から前記対象物の特徴点画像を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された特徴点画像を予めデータベースに複数記録され前記対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定する類似画像探索手段と、前記類似画像探索手段により選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する推定手段とを備えて構成されている。
この発明によれば、撮像した対象物の特徴点画像のみをサンプル画像と照合して類似するサンプル画像を選定するため、データベースの照合における処理負荷を軽減することができる。これにより、対象物の位置及び向きの推定を迅速に行える。
また本発明に係る画像処理装置において、前記類似画像探索手段は、前記対象物の位置及び向きを第一サンプリング間隔で設定してなる第一サンプル画像群から最も類似するサンプル画像を選定した後、前記第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像を選定することにより全サンプル画像のうち最も類似するサンプル画像を選定することが好ましい。
この発明によれば、最初にサンプリング間隔の粗い第一サンプル画像群から類似するサンプル画像を選定した後、さらに細かいサンプリング間隔の第二サンプル画像群から類似するサンプル画像を選定することにより、全サンプル画像と照合することなく、サンプル画像の選定を迅速に行うことができる。
また本発明に係る画像処理装置は、前記対象物を撮像した画像から前記対象物の特徴点についての特徴点画像を抽出し、その特徴点の三次元座標値を検出してモデルを生成するモデル化手段と、前記モデル化手段により生成されたモデルに基づき前記対象物の位置及び向きを変えて複数のサンプル画像を生成するサンプル画像生成手段と、前記サンプル画像生成手段により生成されたサンプル画像とそのサンプル画像が生成された際の前記対象物の位置及び向きとを関連付けて記録するデータベースと、を備えたことを特徴とする。
この発明によれば、対象物のモデルを用いて対象物の位置及び向きを変えて複数のサンプル画像を作成することができる。このため、サンプル画像に関連付けられる位置及び向きの分解能を向上させることができ、対象物の位置及び向きのより高精度な推定が可能になる。
本発明に係る画像処理方法は、対象物を撮像した撮像画像から前記対象物の特徴点画像を抽出する特徴点抽出工程と、前記特徴点抽出工程により抽出された特徴点画像を予めデータベースに複数記録され前記対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定する類似画像探索工程と、前記類似画像探索工程により選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する推定工程と、を備えて構成されている。
この発明によれば、撮像した対象物の特徴点画像のみをサンプル画像と照合して類似するサンプル画像を選定するため、データベースの照合における処理負荷を軽減することができる。これにより、対象物の位置及び向きの推定を迅速に行える。
本発明に係る画像処理方法は、類似画像探索工程において、前記対象物の位置及び向きを第一サンプリング間隔で設定してなる第一サンプル画像群から最も類似するサンプル画像を選定した後、前記第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像を選定することにより全サンプル画像のうち最も類似するサンプル画像を選定することが好ましい。
この発明によれば、最初にサンプリング間隔の粗い第一サンプル画像群から類似するサンプル画像を選定した後、さらに細かいサンプリング間隔の第二サンプル画像群から類似するサンプル画像を選定することにより、全サンプル画像と照合することなく、サンプル画像の選定を迅速に行うことができる。
本発明によれば、画像処理の負荷を低減することによって対象物の位置及び向きの推定を迅速に行うことができる。
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1に本発明の実施形態に係る画像処理装置の構成概要図を示す。
図1に示すように、本実施形態に係る画像処理装置1は、対象物を撮影しその撮影画像を画像処理して対象物の位置及び向きを検出する装置である。本発明に適用される対象物は特に限定されないが、以下の実施形態では人物の顔10とする。画像処理装置1には、カメラ2及び画像処理部3を備えている。カメラ2は、人物の顔10を撮影する撮影手段であり、例えばCCD、C−MOSなどの撮像素子を備えたものが用いられる。
画像処理部3は、撮影画像を入力して画像処理することにより人物の顔10の有無や位置及び向きを検出する画像処理手段である。この画像処理部3は、カメラ2と接続され、カメラ2により撮影された撮影画像データが入力される。画像処理部3としては、例えば、画像メモリ、画像処理プロセッサ及び信号出力インターフェースを備えたものが用いられる。
図2に本実施形態に係る画像処理装置1の動作についてのフローチャートを示す。図2のS20〜S25に示すように、画像処理部3により、モデル化処理、サンプル画像生成処理、データベース化処理、特徴点抽出処理、類似画像探索処理、推定処理が順次実行される。S20のモデル化処理からS22のデータベース化処理までは、例えば、初回の装置起動時などに1回実行すれば、以後省略してもよい。また、S23の特徴点抽出処理からS25の推定処理までは、装置の起動中において所定の時間間隔で繰り返し実行される。
まず、S20では、モデル化処理が行われる。モデル化処理は、人物の顔10を撮像した参照画像から顔10の特徴点についての特徴点画像を抽出し、その特徴点の三次元座標値を検出してモデルを生成する処理である。顔10の特徴点としては、例えば目尻や口角などが設定される。
そして、S21に移行し、サンプル画像生成処理が行われる。サンプル画像生成処理は、S20のモデル化処理により生成されたモデルに基づき顔10の位置及び向きを変えて複数の特徴点画像(以下、「サンプル画像」という。)を生成する処理である。このサンプル画像生成処理は、例えば、以下の手順により行われる。
まず、装置が顔10を認識できる位置と向きの範囲(以下、「認識可能範囲」という。)の設定が行われ、その認識可能範囲において顔10の位置及び向きが第一サンプリング間隔で変えられてモデルに入力され、その位置及び向きごとに顔10のサンプル画像が生成される。
例えば、図3に示すように、第一サンプリング間隔で設定された顔10の位置及び向きに応じたサンプル画像が生成される。第一サンプリング間隔としては、例えば、顔10の位置(距離)が10cmごとの間隔とされ、顔10の向きが10度ごとの間隔とされる。
そして、顔10の位置及び向きごとに得られたサンプル画像における各特徴点が投影される画像上の位置が計算される。そして、その計算により得られた各特徴点付近の輝度パターンが特徴点ごとに生成される。この輝度パターンの生成は、例えば、次の式(1)を用いて行えばよい。
この式(1)において、(u1、v1)は参照画像上の座標値、(u2、v2)は変換後のサンプル画像上の座標値、HiはA2・(Rt+(t1・ni T)/(Mi・ni T))・A1 −1、αはスケール比率を表すパラメータ、A1は参照画像の撮影時のカメラ内部パラメータ、A2は入力画像の撮影時のカメラ内部パラメータ、Rtは顔運動の回転行列、ttは顔運動の並進ベクトル、niは参照画像撮影時の基準座標系におけるi番目の特徴点における法線ベクトル、Miは参照画像撮影時の基準座標系におけるi番目の特徴点の三次元座標値である。また、iは特徴点の個数値であり、例えば特徴点が6つの場合にはi=1〜6となる。
そして、第二サンプリング間隔によるサンプル画像の生成が行われる。第二サンプリング間隔は、第一サンプリング間隔より細かく設定される間隔である。認識可能範囲において顔10の位置及び向きが第二サンプリング間隔で変えられてモデルに入力され、その位置及び向きごとに顔10のサンプル画像が生成される。
例えば、図4に示すように、第二サンプリング間隔で設定された顔10の位置及び向きに応じたサンプル画像が生成される。第二サンプリング間隔としては、例えば、顔10の位置(距離)が1cmごとの間隔とされ、顔10の向きが1度ごとの間隔とされる。
そして、顔10の位置及び向きごとに得られたサンプル画像における各特徴点が投影される画像上の位置が計算される。そして、その計算により得られた各特徴点付近の輝度パターンが特徴点ごとに生成される。この輝度パターンの生成は、例えば、上述した式(1)を用いて行えばよい。
なお、第一サンプリング間隔と第二サンプリング間隔を分けてサンプル画像を生成する場合について説明したが、間隔の細かい第二サンプリング間隔でサンプル画像を作成した後、その第二サンプリング間隔で生成したサンプル画像を第一サンプリング間隔で抽出して第一サンプリング間隔のサンプル画像として設定してもよい。
そしてS22に移行し、データベース化処理が行われる。このデータベース処理は、サンプル画像生成処理により生成されたサンプル画像とそのサンプル画像が生成された際の顔10の位置及び向きとを関連付けて記録する処理である。記録方法としては、例えば、ハードディスクなどの読み出し速度が高速な不揮発性メモリを用いることが好ましい。図5は、データベースに格納されるデータの概念を示した図である。
そして、S23に移行し、特徴点抽出処理が行われる。この特徴点抽出処理は、認識対象物となる人物の顔10を撮像した撮像画像(入力画像)において顔10の特徴点画像を抽出する処理である。顔10の特徴点としては、例えば目尻や口角などが設定される。抽出方法としては、例えばharrisオペレータを用いて行われる。文献「C.Harris and M.Stephens, A combined cornerand edge detector, Proc.4th Alvey Vision Conf., Aug. 1988, Manchester, U.K.,pp.147-151」に記載される手法などを用いるとよい。
そして、S24に移行し、類似画像探索処理が行われる。類似画像探索処理は、特徴点抽出処理により抽出された特徴点画像を顔10の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定する処理である。この類似画像探索処理は、まず、第一サンプリング間隔で設定してなる第一サンプル画像群のサンプル画像と特徴点画像(入力画像)との類似度が算出され、最も類似するサンプル画像が選定される。そして、その最も類似するサンプル画像に近隣する顔10の位置及び向きの範囲において、第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像が選定され、全サンプル画像のうち最も類似するサンプル画像が選定される。入力画像に対応する特徴点画像とサンプル画像との類似度は、例えば、次の式(2)を用いて算出される。
この式(2)において、I(u、v)は入力画像(特徴点画像)における位置(u、v)における輝度であり、T(u、v)はサンプル画像における位置(u、v)における輝度である。
そして、S25に移行し、推定処理が行われる。推定処理は、類似画像探索処理により選定されたサンプル画像における顔10の位置及び向きのデータに基づいて入力画像(撮影画像)における顔10の位置及び向きを推定する処理である。例えば、この推定処理により、選定されたサンプル画像における顔10の位置及び向きのデータを撮像画像における顔の位置及び向きのデータとして、認識対象物となる人物の顔10の位置及び向きを検出することができる。
次に、本実施形態に係る画像処理装置におけるモデル化処理について詳述する。
図5にモデル化処理のフローチャートを示す。図5の30に示すように、モデル化処理として、まず対象物である顔10の二方向画像の読み込み処理が行われる。この二方向画像読み込み処理は、異なる方向から同一の人物の顔10を同時に撮像した二つの参照画像のデータを読み込む処理である。
そして、S31に移行し、特徴点抽出処理が行われる。特徴点抽出処理は、二つの参照画像について、それぞれ顔10の特徴点周辺部分の画像(特徴点画像)の抽出を行う処理である。顔10の特徴点としては、例えば目尻や口角などが設定することが好ましい。抽出方法としては、例えば、上述したharrisオペレータを用いた手法が用いられる。
そして、S32に移行し、特徴点対応付け処理が行われる。特徴点対応付け処理は、二つの特徴点画像において、各特徴点のどれとどれが対応しているか決定する処理である。この処理は、例えば一方の特徴点画像において特徴点を含む周辺輝度パターンと最も類似する輝度パターンを周辺領域に持つ他方の特徴点画像の特徴点が対応するものとして選択して行えばよい。この際、類似度の計算は、上述した式(2)を用いて行えばよい。
そして、S33に移行し、F行列推定処理が行われる。F行列推定処理は、二つの参照画像を撮影した際の各カメラの位置関係に関連するF行列を推定する処理である。このF行列推定処理としては、例えば、文献「Quang-Tuan Luong, Rachid Deriche, Olivier Faugeras, and TheodorePapadopoulo. On determining the fundamental matrix: Analysis of differentmethods and experimental results. INRIA Rapport de recherche, No. 1894, Mai1993.10」又は、文献「A Robust Method for Estimating the Fundamental Matrix:Proc. VIIthDigital Image Computing: Techniques and Applications, Sun C., Talbot H.,Ourselin S. and Adriaansen T.(Eds.), 10-12 Dec. 2003, Sydney」で提案される手法などを用いればよい。
そして、S34に移行し、カメラ位置関係算出処理が行われる。カメラ位置関係算出処理は、二つの参照画像を撮像した際の各カメラの位置関係をF行列から算出する処理である。このカメラ位置関係算出処理において、例えば、S33にて推定したF行列に基づいて二つのカメラの位置関係を表す並進量及び回転量が算出される。まず、各参照画像を撮像したときのカメラ内部パラメータA1、A2を用いて次の式(3)により、F行列をE行列に変換が行われる。
E=(A1)T・F・A2 … (3)
そして、このE行列に基づいて二つの参照画像取得時におけるカメラの位置関係が算出される。その際、カメラの位置関係の算出手法は、例えば、文献「Motion and Structure From Two Perspective Views: Algorithms, ErrorAnalysis, and Error Estimation」に記載される手法が用いられる。
そして、S35に移行し、特徴点三次元復元処理が行われる。特徴点三次元復元処理は、S34にて推定したカメラ位置関係に基づいて参照画像上に特徴点の座標値に対応する特徴点の三次元座標を推定する処理である。この処理は、例えば、文献「3次元ビジョン徐剛 p95」に記載される手法が用いられる。
図6にモデルの概念図を示す。このようなモデルによれば、顔10の位置及び向きを入力することにより、特徴点位置が決定し、サンプル画像を容易に生成することができる。
以上のように、本実施形態に係る画像処理装置および画像処理方法によれば、顔10を撮像した撮像画像から顔10の特徴点画像を抽出し、その特徴点画像を予めデータベースに複数記録され顔10の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定し、その選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における顔10の位置及び向きを推定する。これにより、撮像した顔10の特徴点画像のみをサンプル画像と照合して類似するサンプル画像を選定するため、データベースの照合における処理負荷を軽減することができる。
また、画像処理の負荷を低減することによって顔10の位置及び向きの推定を迅速に行うことができる。特に、画像処理装置1を車両に取り付け、運転者を撮影しその運転者の顔の向きと位置を推定して運転者の視線検出に適用する場合に有用である。
また、本実施形態に係る画像処理装置及び画像処理方法によれば、顔10の位置及び向きを第一サンプリング間隔で設定してなる第一サンプル画像群から最も類似するサンプル画像を選定した後、第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像を選定することにより全サンプル画像のうち最も類似するサンプル画像を選定する。これにより、全サンプル画像と照合することなく、サンプル画像の選定を迅速に行うことができる。
また、画像処理の負荷を低減することによって顔10の位置及び向きの推定を迅速に行うことができる。この場合も、画像処理装置1を車両に取り付け、運転者を撮影しその運転者の顔の向きと位置を推定して運転者の視線検出に適用する場合に有用である。
なお、上述した実施形態は本発明に係る画像処理装置及び画像処理方法の一例を示すものである。本発明に係る画像処理装置及び画像処理方法は、これらの実施形態に係る画像処理装置及び画像処理方法に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る画像処理装置及び画像処理方法を変形し、又は他のものに適用したものであってもよい。
例えば、本実施形態では、認識対象物が人物の顔である場合について説明したが、人物の顔以外の物を画像処理により認識する場合に適用してもよい。
1…画像処理装置、2…カメラ(撮影手段)、3…画像処理部、10…認識対象人物。
Claims (5)
- 対象物を撮像した撮像画像から前記対象物の特徴点画像を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された特徴点画像を予めデータベースに複数記録され前記対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定する類似画像探索手段と、
前記類似画像探索手段により選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する推定手段と、
を備えた画像処理装置。 - 前記類似画像探索手段は、前記対象物の位置及び向きを第一サンプリング間隔で設定してなる第一サンプル画像群から最も類似するサンプル画像を選定した後、前記第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像を選定することにより全サンプル画像のうち最も類似するサンプル画像を選定すること、
を特徴とする請求項1に記載の画像処理装置。 - 前記対象物を撮像した画像から前記対象物の特徴点についての特徴点画像を抽出し、その特徴点の三次元座標値を検出してモデルを生成するモデル化手段と、
前記モデル化手段により生成されたモデルに基づき前記対象物の位置及び向きを変えて複数のサンプル画像を生成するサンプル画像生成手段と、
前記サンプル画像生成手段により生成されたサンプル画像とそのサンプル画像が生成された際の前記対象物の位置及び向きとを関連付けて記録するデータベースと、
を備えたことを特徴とする請求項1又は2に記載の画像処理装置。 - 対象物を撮像した撮像画像から前記対象物の特徴点画像を抽出する特徴点抽出工程と、
前記特徴点抽出工程により抽出された特徴点画像を予めデータベースに複数記録され前記対象物の特徴点を表すサンプル画像と照合し、その照合されたサンプル画像のうち最も類似するサンプル画像を選定する類似画像探索工程と、
前記類似画像探索工程により選定されたサンプル画像における対象物の位置及び向きのデータに基づいて撮像画像における対象物の位置及び向きを推定する推定工程と、
を備えた画像処理方法。 - 類似画像探索工程において、前記対象物の位置及び向きを第一サンプリング間隔で設定してなる第一サンプル画像群から最も類似するサンプル画像を選定した後、前記第一サンプリング間隔より細かい第二サンプリング間隔で設定された第二サンプル画像群から最も類似するサンプル画像を選定することにより全サンプル画像のうち最も類似するサンプル画像を選定すること、
を特徴とする請求項4に記載の画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006130614A JP2007304721A (ja) | 2006-05-09 | 2006-05-09 | 画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006130614A JP2007304721A (ja) | 2006-05-09 | 2006-05-09 | 画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007304721A true JP2007304721A (ja) | 2007-11-22 |
Family
ID=38838613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006130614A Pending JP2007304721A (ja) | 2006-05-09 | 2006-05-09 | 画像処理装置及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007304721A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101937513A (zh) * | 2009-06-30 | 2011-01-05 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN102855496A (zh) * | 2012-08-24 | 2013-01-02 | 苏州大学 | 遮挡人脸认证方法及系统 |
JP2013134112A (ja) * | 2011-12-26 | 2013-07-08 | Mitsubishi Electric Corp | 目標方向推定装置 |
CN103729616A (zh) * | 2012-10-11 | 2014-04-16 | 英属维京群岛速位互动股份有限公司 | 高精确度的脸形追踪方法 |
WO2015001791A1 (ja) * | 2013-07-03 | 2015-01-08 | パナソニックIpマネジメント株式会社 | 物体認識装置及び物体認識方法 |
WO2019045089A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体 |
WO2021111975A1 (ja) * | 2019-12-04 | 2021-06-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057348A (ja) * | 1998-08-07 | 2000-02-25 | Sankyo Seiki Mfg Co Ltd | パターンの認識方法及び装置 |
JP2003058896A (ja) * | 2001-08-10 | 2003-02-28 | Nec Corp | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
JP2003308533A (ja) * | 2002-04-17 | 2003-10-31 | Mitsubishi Electric Corp | ドライバの顔画像処理装置 |
-
2006
- 2006-05-09 JP JP2006130614A patent/JP2007304721A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057348A (ja) * | 1998-08-07 | 2000-02-25 | Sankyo Seiki Mfg Co Ltd | パターンの認識方法及び装置 |
JP2003058896A (ja) * | 2001-08-10 | 2003-02-28 | Nec Corp | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
JP2003308533A (ja) * | 2002-04-17 | 2003-10-31 | Mitsubishi Electric Corp | ドライバの顔画像処理装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101937513A (zh) * | 2009-06-30 | 2011-01-05 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
JP2013134112A (ja) * | 2011-12-26 | 2013-07-08 | Mitsubishi Electric Corp | 目標方向推定装置 |
CN102855496A (zh) * | 2012-08-24 | 2013-01-02 | 苏州大学 | 遮挡人脸认证方法及系统 |
CN103729616A (zh) * | 2012-10-11 | 2014-04-16 | 英属维京群岛速位互动股份有限公司 | 高精确度的脸形追踪方法 |
CN103729616B (zh) * | 2012-10-11 | 2017-10-03 | 爱唯秀股份有限公司 | 高精确度的脸形追踪方法 |
WO2015001791A1 (ja) * | 2013-07-03 | 2015-01-08 | パナソニックIpマネジメント株式会社 | 物体認識装置及び物体認識方法 |
JP6052751B2 (ja) * | 2013-07-03 | 2016-12-27 | パナソニックIpマネジメント株式会社 | 物体認識装置及び物体認識方法 |
WO2019045089A1 (ja) * | 2017-09-04 | 2019-03-07 | 日本電気株式会社 | 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体 |
JPWO2019045089A1 (ja) * | 2017-09-04 | 2020-08-27 | 日本電気株式会社 | 情報処理装置、長さ測定システム、長さ測定方法およびコンピュータプログラム |
WO2021111975A1 (ja) * | 2019-12-04 | 2021-06-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2360638B1 (en) | Method, system and computer program product for obtaining a point spread function using motion information | |
EP2620907B1 (en) | Pupil detection device and pupil detection method | |
JP5001260B2 (ja) | オブジェクト追跡方法及びオブジェクト追跡装置 | |
JP5159950B2 (ja) | 画像処理装置、方法、プログラム | |
US9330325B2 (en) | Apparatus and method for reducing noise in fingerprint images | |
JP4943034B2 (ja) | ステレオ画像処理装置 | |
JP2007304721A (ja) | 画像処理装置及び画像処理方法 | |
JP2004157850A (ja) | 運動検出装置 | |
JP5170094B2 (ja) | なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム | |
JPWO2010050206A1 (ja) | なりすまし検知システム、なりすまし検知方法及びなりすまし検知プログラム | |
JP2007319938A (ja) | ロボット装置及び物体の三次元形状の取得方法 | |
JPWO2018154709A1 (ja) | 動作学習装置、技能判別装置および技能判別システム | |
JP2005318546A (ja) | 画像認識システム、画像認識方法、及び画像認識プログラム | |
JP2008014691A (ja) | ステレオ画像計測方法とそれを実施する装置 | |
CN110909561A (zh) | 眼睛状态检测系统及眼睛状态检测系统的操作方法 | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
JP2016123044A (ja) | 被写体追跡装置、その制御方法およびプログラム | |
KR100562632B1 (ko) | 보급형 장치를 위한 수기 인식 시스템 및 수기 인식의동적 수행 방법 | |
JPWO2018235219A1 (ja) | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム | |
CN111670456A (zh) | 信息处理装置、追踪方法和追踪程序 | |
JP2005115544A (ja) | 動作識別装置、及び対象物の姿勢識別装置 | |
JP2018205950A (ja) | 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム | |
JP7484924B2 (ja) | 撮像装置、画像処理システム、画像処理方法及びプログラム | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP2019185556A (ja) | 画像解析装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101214 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110322 |