JP2005530278A - ポーズ角度を推定するためのシステムおよび方法 - Google Patents
ポーズ角度を推定するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2005530278A JP2005530278A JP2004516128A JP2004516128A JP2005530278A JP 2005530278 A JP2005530278 A JP 2005530278A JP 2004516128 A JP2004516128 A JP 2004516128A JP 2004516128 A JP2004516128 A JP 2004516128A JP 2005530278 A JP2005530278 A JP 2005530278A
- Authority
- JP
- Japan
- Prior art keywords
- input image
- pose
- image
- subject
- training images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
図1は、入力画像の中の被写体のポーズ角度を推定するのに適したシステム100の好ましい一実施形態を示している。例示のため、システム100の動作は、主に、特定の被写体グループの、すなわち人間の頭部のポーズ角度を推定することに関連して説明される。しかしながら、本システムおよび本方法は、後述されるように、他の被写体に対しても幅広く適用可能である。
ヨー:顔が正面を向いている場合は0°
被写体がその頭部を左に回転させる場合は正(1°〜90°)
被写体がその頭部を右に回転させる場合は負(−1°〜−90°)
ピッチ:顔が正面を向いている場合は0度
被写体がその頭部を上に回転させる場合は正(1°〜90°)
被写体がその頭部を下に回転させる場合は負(−1°〜−90°)
ロール角:顔が正面を傾いていない場合は0°
被写体がその頭部を左に傾かせる場合は正(1°〜90°)
被写体がその頭部を右に傾かせる場合は負(−1°〜−90°)
F(α(x)−αk)=cos(α(x)−αk)
となるように選択されて良い。
●マップ1=cos(−30°−(−90°))=+0.500
●マップ2=cos(−30°−(−45°))=+0.966
●マップ3=cos(−30°−(−25°))=+0.996
●マップ4=cos(−30°−(0°))=+0.866
●マップ5=cos(−30°−(+25°))=+0.574
●マップ6=cos(−30°−(+45°))=+0.259
●マップ7=cos(−30°−(+90°))=−0.500
好ましい一実施形態において、本システムの動作は、訓練期間および実行期間(ランタイム)の2段階に分けられる。訓練期間において、ニューラルネットワーク402,450は、後ほど詳述されるように、対応するネットワーク訓練器106によって、比較的大きな少なくとも1セットの訓練画像を使用して、それぞれに訓練される。ランタイムにおいて、訓練済みのニューラルネットワークは、入力画像を処理し、計算部470に出力を供給する。計算部470は、画像の中の被写体のポーズ角度を決定する。以下の説明では、先ず、各ニューラルネットワーク402,450の訓練の好ましい一実施形態が説明され、次に、システム100のランタイム動作の好ましい一実施形態が説明される。
好ましい一実施形態において、訓練は、人間の顔を含む数千の中間調の訓練画像を使用して行われる。この訓練画像セットは、様々な人種および性別の1,500の被写体を、様々なポーズで且つ様々な光条件のもとで、様々な顔用装飾品(眼鏡など)と共に撮影した、30,000の訓練画像からなるセットを構成することが好ましい。
好ましい一実施形態において、SOMネット402は、従来の縮小ガウス近傍関数を使用して訓練される。SOMネット402を訓練するために、非監視モードのもとで、標準の訓練画像がネットワークに提示される、すなわち、SOMニューロンは、特定の入力に対応する関連の出力を学習するように強制されない。それどころか、SOMネット402は、配列のうち位置的に近いものから特定の幾何学的距離だけ離れたものまでを含むニューロンが互いに活性化しあって同じ入力画像から何かを学習するように、ニューロンのウェイトベクトル403を組織する。この結果、この付近においてニューロンのウェイトベクトルが局所的に緩和される。これは、継続学習において大域的な秩序化をもたらす。
回帰推定部450は、入力および所望出力の両方がネットワークに提示される誤差逆伝搬技術を使用して、監視モードのもとで訓練されることが好ましい。好ましい一実施形態において、回帰推定部450の訓練は、以下の手順で実施可能である。
1.SOMネット402が上述のような訓練を完全に終えた後、標準の一訓練画像をプロトタイプ投影部401に適用する。
2.その訓練画像用に対応した投影ベクトル[投影1,投影2,投影3,……,投影V]を、プロトタイプ投影部401に計算させる。このとき、Vは、SOMネットワークのプロトタイプベクトル403の数である。
3.出力ノード453の所望出力[マップ1,マップ2,……,マップM]を計算する。このとき、Mは、出力ノード453の数である。所望出力の計算は、マッピング関数F(α(x)−αk)を使用して実施されることが好ましい。このとき、α(x)は、入力された訓練画像の既知のポーズ角度で、αkは、出力ニューロンkに関連付けられた調整後の角度である。
4.投影ベクトル[投影1,投影2,投影3,……,投影V]を回帰推定部の入力モード451に、対応するマッピングベクトル[マップ1,マップ2,……,マップM]を回帰推定部の出力モード453に、それぞれ提示する。
5.回帰推定部ネットワーク450のウェイトを、誤差逆伝搬技術を使用して更新する。
6.回帰推定部450の実際の出力と所望の出力との間の平均平方誤差が許容範囲になるまで、他の訓練画像に対してもステップ1〜5の手順を繰り返す。人間の頭部のポーズ角度を推定する必要がある代表的な用途において、許容可能な誤差は約2〜3%だと考えられる。
システムは、ニューラルネットワーク402,450が訓練された時点で、ランタイム動作の用意が整う。以下では、図6を参照にしながら、ランタイム動作の好ましい一実施形態が説明される。
1.入力画像400は顔を含まない。
2.入力画像400は顔を含むが、SOMネット402および回帰推定部450の訓練に使用された画像とは大幅に異なる。例えば、もし訓練画像に、眼鏡をかけ且つ室内照明に照らされた被写体のみが含まれる場合は、本システムは、眼鏡をかけず且つ直射日光に照らされた女性の被写体を含む画像を提示された際に、不正確な結果を生じる恐れがある。
上述の議論は、ヨーの推定に焦点を当ててきたが、本システムおよび本方法は、例えばピッチおよびロールなど、別の次元でポーズ角度を決定するようにも構成可能である。これは、所望の次元で様々にポーズ角度が変動する被写体を含む訓練画像を使用して、ニューラルネットワーク402,450を訓練することによって行われる。例えば、システム100をピッチの推定に適用するためには、ニューラルネットワーク402,450は、ピッチ角のみが変動し、ヨー角およびロール角は0°である顔を含む訓練画像を用いて訓練されることが好ましい。
Claims (45)
- 入力画像の中の被写体のポーズ角度を少なくとも1つの次元で決定するためのシステムであって、
非監視モードで第1の複数の訓練画像を使用して訓練され、複数のウェイトベクトルを作成する第1のニューラルネットワークであって、前記複数のウェイトベクトルは、前記複数の訓練画像をそれぞれに表す、第1のニューラルネットワークと、
入力画像を受信すると共に、前記入力画像と前記ウェイトベクトルとの間の距離を表す複数の計算距離を含む投影ベクトルを生成するように構成される投影部と、
監視モードで第2の複数の訓練画像を使用して訓練される複数のニューロンを含む第2のニューラルネットワークであって、前記第2の複数の訓練画像は既知のポーズ角度の被写体を含み、各ニューロンは特定のポーズ角度に調整されると共に、前記投影ベクトルを受信し、各ニューロンの調整後の前記ポーズ角度からの前記被写体のポーズ角度の変化に応じて単調に減少する偶関数に従って値を出力するように構成される、第2のニューラルネットワークと、
前記ニューロンによって出力された前記値を受信すると共に、前記被写体のポーズ角度を少なくとも1つの次元で推定するように構成される曲線適合部と、
前記ニューロンによって出力された前記値と、前記関数のための計算値と、の間の誤差を表す値を、前記推定ポーズ角度を使用して生成する誤差計算部と
を備えるシステム。 - 請求項1に記載のシステムであって、
前記被写体は頭部である、システム。 - 請求項1に記載のシステムであって、
前記関数はcos(α(x)−αk)で表され、このとき、αkはニューロンの調整後の角度で、α(x)は前記推定ポーズ角度である、システム。 - 請求項1に記載のシステムであって、
前記曲線適合部は、最小平方誤差曲線適合アルゴリズムを実行する、システム。 - 請求項1に記載のシステムはさらに、
その視野で画像を捕らえるように構成されるイメージセンサを備える、システム。 - 請求項5に記載のシステムであって、
前記イメージセンサはビデオカメラである、システム。 - 請求項5に記載のシステムであって、
前記イメージセンサはデジタルカメラである、システム。 - 請求項1に記載のシステムであって、
前記入力画像は、生の被写体から得られる、システム。 - 請求項1に記載のシステムであって、
前記入力画像は写真から得られる、システム。 - 請求項1に記載のシステムであって、
前記入力画像は印刷イメージから得られる、システム。 - 請求項1に記載のシステムであって、
前記入力画像は、芸術家による創作物から得られる、システム。 - 請求項1に記載のシステムであって、
前記第1の複数の訓練画像の少なくとも一部は、前記第2の複数の訓練画像の少なくとも一部と同一である、システム。 - 請求項12に記載のシステムであって、
前記第1の複数の訓練画像および前記第2の複数の訓練画像は、前記同一の訓練画像である、システム。 - 請求項1に記載のシステムであって、
前記ウェイトベクトルの数は、前記第2のニューラルネットワークの出力ノードの数よりも大きい、システム。 - 請求項14に記載のシステムであって、
前記ウェイトベクトルの数は、前記第2のニューラルネットワークの出力ノードの数の約2倍である、システム。 - 請求項1に記載のシステムであって、
前記入力画像は、前記被写体を含む画像の一部をトリミングすることによって生成される、システム。 - 請求項1に記載のシステムであって、
前記投影部は、前記入力画像を標準の寸法にスケール変更するように構成される、システム。 - 請求項17に記載のシステムであって、
前記標準の寸法は、20画素×20画素である、システム。 - 請求項1に記載のシステムであって、
前記少なくとも1つの次元はヨーである、システム。 - 請求項1に記載のシステムであって、
前記少なくとも1つの次元はピッチである、システム。 - 請求項1に記載のシステムであって、
前記少なくとも1つの次元はロールである、システム。 - 請求項1に記載のシステムであって、
前記システムは、ヨー、ピッチ、およびロールのポーズ角度を推定するように構成される、システム。 - 入力画像の中の被写体のポーズ角度を少なくとも1つの次元で決定するための方法であって、
非監視モードで第1の複数の訓練画像を使用して、第1のニューラルネットワークを訓練し、複数の訓練画像をそれぞれに表す複数のウェイトベクトルを作成する動作と、
前記入力画像を前記第1のニューラルネットワーク上に投影させ、前記入力画像と前記ウェイトベクトルとの間の距離を表す複数の計算距離を含む投影ベクトルを生成する動作と、
監視モードで第2の複数の訓練画像を使用して、第2のニューラルネットワークを訓練する動作であって、前記第2の複数の訓練画像は、既知のポーズ角度を採る被写体を含み、前記第2のニューラルネットワークは、特定のポーズ角度にそれぞれに調整された複数のニューロンを含む、動作と、
前記第2のニューラルネットワークにおいて、各ニューロンの調整後の前記ポーズ角度からの前記被写体のポーズ角度の変化に応じて単調に減少する偶関数にしたがって、前記投影ベクトルを処理し、複数の出力値を生成する動作と、
前記出力値を曲線に適合させ、前記被写体のポーズ角度を少なくとも1つの次元で推定する動作と、
前記出力値と、前記関数のための計算値と、の間の誤差を表すことのできる値を、前記推定ポーズ角度を使用して計算する動作と
を備える方法。 - 請求項23に記載の方法であって、
前記被写体は頭部である、方法。 - 請求項24に記載の方法であって、
前記頭部は、識別可能な顔を前記画像の中に含む、方法。 - 請求項23に記載の方法であって、
前記関数はcos(α(x)−αk)で表され、このとき、αkはニューロンの調整後の角度で、α(x)は前記推定ポーズ角度である、方法。 - 請求項23に記載の方法であって、
前記曲線適合部は、最小平方誤差曲線適合アルゴリズムを実行する、方法。 - 請求項23に記載のシステムであって、さらに、
イメージセンサであって、該センサの視野で画像を捕らえるように構成されるイメージセンサを備える、システム。 - 請求項28に記載のシステムであって、
前記イメージセンサはビデオカメラである、システム。 - 請求項28に記載のシステムであって、
前記イメージセンサはデジタルカメラである、システム。 - 請求項23に記載のシステムであって、
前記入力画像は、生の被写体から得られる、システム。 - 請求項23に記載のシステムであって、
前記入力画像は写真から得られる、システム。 - 請求項23に記載のシステムであって、
前記入力画像は印刷イメージから得られる、システム。 - 請求項23に記載のシステムであって、
前記入力画像は、芸術家による創作物から得られる、システム。 - 請求項23に記載のシステムであって、
前記第1の複数の訓練画像の少なくとも一部は、前記第2の複数の訓練画像の少なくとも一部と同一である、システム。 - 請求項35に記載のシステムであって、
前記第1の複数の訓練画像および前記第2の複数の訓練画像は、前記同一の訓練画像である、システム。 - 請求項23に記載のシステムであって、
前記ウェイトベクトルの数は、前記第2のニューラルネットワークの出力ノードの数よりも大きい、システム。 - 請求項37に記載のシステムであって、
前記ウェイトベクトルの数は、前記第2のニューラルネットワークの出力ノードの数の約2倍である、システム。 - 請求項23に記載のシステムであって、
前記入力画像は、前記被写体を含む画像の一部をトリミングすることによって生成される、システム。 - 請求項23に記載のシステムであって、
前記投影部は、前記入力画像を標準の寸法にスケール変更するように構成される、システム。 - 請求項40に記載のシステムであって、
前記標準の寸法は、20画素×20画素である、システム。 - 請求項23に記載のシステムであって、
前記少なくとも1つの次元はヨーである、システム。 - 請求項23に記載のシステムであって、
前記少なくとも1つの次元はピッチである、システム。 - 請求項23に記載のシステムであって、
前記少なくとも1つの次元はロールである、システム。 - 請求項23に記載のシステムであって、
前記システムは、ヨー、ピッチ、およびロールのポーズ角度を推定するように構成される、システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/175,929 US6959109B2 (en) | 2002-06-20 | 2002-06-20 | System and method for pose-angle estimation |
PCT/US2003/019715 WO2004001660A1 (en) | 2002-06-20 | 2003-06-20 | System and method for pose-angle estimation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005530278A true JP2005530278A (ja) | 2005-10-06 |
JP4469275B2 JP4469275B2 (ja) | 2010-05-26 |
Family
ID=29734008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004516128A Expired - Fee Related JP4469275B2 (ja) | 2002-06-20 | 2003-06-20 | ポーズ角度を推定するためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6959109B2 (ja) |
EP (1) | EP1537522A4 (ja) |
JP (1) | JP4469275B2 (ja) |
AU (1) | AU2003245639A1 (ja) |
WO (1) | WO2004001660A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009246566A (ja) * | 2008-03-28 | 2009-10-22 | Sony Ericsson Mobilecommunications Japan Inc | 撮像装置、撮像方法、撮像制御プログラム、及び携帯端末装置 |
JP2020107244A (ja) * | 2018-12-28 | 2020-07-09 | 日本放送協会 | 姿勢推定装置、学習装置及びプログラム |
JP2020537790A (ja) * | 2017-10-20 | 2020-12-24 | トヨタ モーター ヨーロッパ | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7292723B2 (en) * | 2003-02-26 | 2007-11-06 | Walker Digital, Llc | System for image analysis in a network that is structured with multiple layers and differentially weighted neurons |
US20040186813A1 (en) * | 2003-02-26 | 2004-09-23 | Tedesco Daniel E. | Image analysis method and apparatus in a network that is structured with multiple layers and differentially weighted neurons |
US7177461B2 (en) * | 2003-03-10 | 2007-02-13 | Cranial Technologies, Inc. | Cranial remodeling device database |
EP3196805A3 (en) * | 2003-06-12 | 2017-11-01 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
US7409372B2 (en) * | 2003-06-20 | 2008-08-05 | Hewlett-Packard Development Company, L.P. | Neural network trained with spatial errors |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US7508979B2 (en) * | 2003-11-21 | 2009-03-24 | Siemens Corporate Research, Inc. | System and method for detecting an occupant and head pose using stereo detectors |
US7526123B2 (en) * | 2004-02-12 | 2009-04-28 | Nec Laboratories America, Inc. | Estimating facial pose from a sparse representation |
US7609893B2 (en) * | 2004-03-03 | 2009-10-27 | Trw Automotive U.S. Llc | Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model |
US7236615B2 (en) * | 2004-04-21 | 2007-06-26 | Nec Laboratories America, Inc. | Synergistic face detection and pose estimation with energy-based models |
CA2565870A1 (en) | 2004-05-06 | 2005-12-15 | The Regents Of The University Of California | Method and system for aligning and classifying images |
JP4532171B2 (ja) * | 2004-06-01 | 2010-08-25 | 富士重工業株式会社 | 立体物認識装置 |
JP2005346806A (ja) * | 2004-06-02 | 2005-12-15 | Funai Electric Co Ltd | Dvdレコーダおよび記録再生装置 |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
KR100643303B1 (ko) * | 2004-12-07 | 2006-11-10 | 삼성전자주식회사 | 다면 얼굴을 검출하는 방법 및 장치 |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
JP4646681B2 (ja) * | 2005-04-13 | 2011-03-09 | キヤノン株式会社 | 色処理装置及びその方法 |
WO2008023280A2 (en) | 2006-06-12 | 2008-02-28 | Fotonation Vision Limited | Advances in extending the aam techniques from grayscale to color images |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
KR20080026003A (ko) * | 2006-09-19 | 2008-03-24 | 삼성전자주식회사 | 물리적인 상대 위치에 기반한 사진상의 ⅰd 태깅 장치 및방법 |
JP4709723B2 (ja) * | 2006-10-27 | 2011-06-22 | 株式会社東芝 | 姿勢推定装置及びその方法 |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (en) | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
US8649604B2 (en) | 2007-03-05 | 2014-02-11 | DigitalOptics Corporation Europe Limited | Face searching and detection in a digital image acquisition device |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
WO2010012448A2 (en) | 2008-07-30 | 2010-02-04 | Fotonation Ireland Limited | Automatic face and skin beautification using face detection |
US8150102B2 (en) * | 2008-08-27 | 2012-04-03 | Samsung Electronics Co., Ltd. | System and method for interacting with a media device using faces and palms of video display viewers |
JP6093501B2 (ja) * | 2009-01-22 | 2017-03-08 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像処理の間のユーザとの対話を予測する方法及び装置 |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
CN103177269B (zh) | 2011-12-23 | 2017-12-15 | 北京三星通信技术研究有限公司 | 用于估计对象姿态的设备和方法 |
KR20140095601A (ko) * | 2013-01-18 | 2014-08-04 | 삼성전자주식회사 | 자세 분류 장치 및 자세 분류 방법 |
CN103217438B (zh) * | 2013-04-02 | 2015-02-18 | 天津大学 | 一种基于图像特征的电路板元件精确定位与检测的方法 |
CN105069413B (zh) * | 2015-07-27 | 2018-04-06 | 电子科技大学 | 一种基于深度卷积神经网络的人体姿势识别方法 |
CN105718878B (zh) * | 2016-01-19 | 2019-08-09 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN106308809B (zh) * | 2016-08-15 | 2019-04-23 | 河北工业大学 | 大腿残肢者的步态识别方法 |
US10839226B2 (en) * | 2016-11-10 | 2020-11-17 | International Business Machines Corporation | Neural network training |
US10467458B2 (en) * | 2017-07-21 | 2019-11-05 | Altumview Systems Inc. | Joint face-detection and head-pose-angle-estimation using small-scale convolutional neural network (CNN) modules for embedded systems |
CN106599815A (zh) * | 2016-12-06 | 2017-04-26 | 东南大学 | 基于标记分布的解决类别缺失问题的头部姿态估计方法 |
CN107180413B (zh) * | 2017-05-05 | 2019-03-15 | 平安科技(深圳)有限公司 | 车损图片角度纠正方法、电子装置及可读存储介质 |
CN107358157B (zh) * | 2017-06-07 | 2020-10-02 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
US11712162B1 (en) * | 2017-06-28 | 2023-08-01 | Bertec Corporation | System for testing and/or training the vision of a user |
US10304258B2 (en) | 2017-07-24 | 2019-05-28 | Microsoft Technology Licensing, Llc | Human feedback in 3D model fitting |
US10691925B2 (en) * | 2017-10-28 | 2020-06-23 | Altumview Systems Inc. | Enhanced face-detection and face-tracking for resource-limited embedded vision systems |
CN111447877A (zh) * | 2017-10-23 | 2020-07-24 | 皇家飞利浦有限公司 | 使用深度成像的正电子发射断层摄影(pet)系统设计优化 |
US10922585B2 (en) * | 2018-03-13 | 2021-02-16 | Recogni Inc. | Deterministic labeled data generation and artificial intelligence training pipeline |
US10643063B2 (en) * | 2018-04-09 | 2020-05-05 | Qualcomm Incorporated | Feature matching with a subspace spanned by multiple representative feature vectors |
CN108920999A (zh) * | 2018-04-16 | 2018-11-30 | 深圳市深网视界科技有限公司 | 一种头部角度预测模型训练方法、预测方法、设备和介质 |
CN110866864A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 人脸姿态估计/三维人脸重构方法、装置及电子设备 |
CN109189276A (zh) * | 2018-08-29 | 2019-01-11 | 深圳众赢时代科技有限公司 | 桌面投影全息技术 |
CN111046707A (zh) * | 2018-10-15 | 2020-04-21 | 天津大学青岛海洋技术研究院 | 一种基于面部特征的任意姿态正脸还原网络 |
CN110213605B (zh) * | 2019-05-28 | 2022-09-13 | 广州方硅信息技术有限公司 | 图像纠正方法、装置及设备 |
CN111062478A (zh) * | 2019-12-18 | 2020-04-24 | 天地伟业技术有限公司 | 基于神经网络的特征压缩算法 |
CN111028912A (zh) * | 2019-12-23 | 2020-04-17 | 北京深测科技有限公司 | 环境辅助生活的监控方法及系统 |
CN111680552B (zh) * | 2020-04-28 | 2023-10-03 | 北京控制工程研究所 | 一种特征部位智能识别方法 |
CN112857348B (zh) * | 2020-12-31 | 2021-08-13 | 北京航空航天大学 | 一种利用磁悬浮轴承的角速度测量方法 |
CN113869186B (zh) * | 2021-09-24 | 2022-12-16 | 合肥的卢深视科技有限公司 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
US11989343B2 (en) * | 2022-01-05 | 2024-05-21 | Nokia Technologies Oy | Pose validity for XR based services |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5239594A (en) * | 1991-02-12 | 1993-08-24 | Mitsubishi Denki Kabushiki Kaisha | Self-organizing pattern classification neural network system |
US5642431A (en) | 1995-06-07 | 1997-06-24 | Massachusetts Institute Of Technology | Network-based system and method for detection of faces and the like |
US5850470A (en) * | 1995-08-30 | 1998-12-15 | Siemens Corporate Research, Inc. | Neural network for locating and recognizing a deformable object |
US6144755A (en) | 1996-10-11 | 2000-11-07 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Method and apparatus for determining poses |
US6128397A (en) | 1997-11-21 | 2000-10-03 | Justsystem Pittsburgh Research Center | Method for finding all frontal faces in arbitrarily complex visual scenes |
US6429699B1 (en) * | 2000-12-19 | 2002-08-06 | Winbond Electronics Corp. | Generator of neuron transfer function and its derivative |
-
2002
- 2002-06-20 US US10/175,929 patent/US6959109B2/en not_active Expired - Lifetime
-
2003
- 2003-06-20 EP EP03739266A patent/EP1537522A4/en not_active Withdrawn
- 2003-06-20 AU AU2003245639A patent/AU2003245639A1/en not_active Abandoned
- 2003-06-20 WO PCT/US2003/019715 patent/WO2004001660A1/en active Application Filing
- 2003-06-20 JP JP2004516128A patent/JP4469275B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009246566A (ja) * | 2008-03-28 | 2009-10-22 | Sony Ericsson Mobilecommunications Japan Inc | 撮像装置、撮像方法、撮像制御プログラム、及び携帯端末装置 |
JP2020537790A (ja) * | 2017-10-20 | 2020-12-24 | トヨタ モーター ヨーロッパ | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
JP7060686B2 (ja) | 2017-10-20 | 2022-04-26 | トヨタ モーター ヨーロッパ | 画像処理およびオブジェクトの視点決定の方法ならびにシステム |
JP2020107244A (ja) * | 2018-12-28 | 2020-07-09 | 日本放送協会 | 姿勢推定装置、学習装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20030235332A1 (en) | 2003-12-25 |
EP1537522A4 (en) | 2011-02-16 |
WO2004001660A1 (en) | 2003-12-31 |
JP4469275B2 (ja) | 2010-05-26 |
EP1537522A1 (en) | 2005-06-08 |
AU2003245639A1 (en) | 2004-01-06 |
US6959109B2 (en) | 2005-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4469275B2 (ja) | ポーズ角度を推定するためのシステムおよび方法 | |
US9881204B2 (en) | Method for determining authenticity of a three-dimensional object | |
Wechsler | Reliable Face Recognition Methods: System Design, Impementation and Evaluation | |
JP4692773B2 (ja) | 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム | |
JP6424822B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR100858087B1 (ko) | 객체 포즈 정규화 방법과 장치 및 객체 인식 방법 | |
JP4951498B2 (ja) | 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体 | |
US7853085B2 (en) | Viewpoint-invariant detection and identification of a three-dimensional object from two-dimensional imagery | |
JP5406705B2 (ja) | データ補正装置及び方法 | |
KR100930994B1 (ko) | 3차원 영상 모델 생성 방법 및 장치, 이를 이용한 영상인식 방법 및 장치 그리고 상기 방법들을 수행하는프로그램이 기록된 기록 매체 | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
JP2019079487A (ja) | パラメータ最適化装置、パラメータ最適化方法、プログラム | |
JP2009020761A (ja) | 画像処理装置及びその方法 | |
Tsalakanidou et al. | Integration of 2D and 3D images for enhanced face authentication | |
JP2006343859A (ja) | 画像処理装置及び画像処理方法 | |
KR100855631B1 (ko) | 특징벡터 검출장치 및 방법, 그리고, 이를 이용한얼굴인식장치 및 방법 | |
JP7230345B2 (ja) | 情報処理装置及び情報処理プログラム | |
JP2009230704A (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
CN110990604A (zh) | 图像底库生成方法、人脸识别方法和智能门禁系统 | |
JP7326965B2 (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
Zamuner et al. | A pose-adaptive constrained local model for accurate head pose tracking | |
TW413793B (en) | Tracing 3D display system and method made with image processing method | |
Rashad et al. | 3D face recognition using 2DPCA 3D face recognition using 2DPCA | |
González-Jiménez et al. | Automatic pose correction for local feature-based face authentication | |
CN106997477B (zh) | 一种图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100202 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4469275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |