JP2009150900A - リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム - Google Patents

リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム Download PDF

Info

Publication number
JP2009150900A
JP2009150900A JP2009020568A JP2009020568A JP2009150900A JP 2009150900 A JP2009150900 A JP 2009150900A JP 2009020568 A JP2009020568 A JP 2009020568A JP 2009020568 A JP2009020568 A JP 2009020568A JP 2009150900 A JP2009150900 A JP 2009150900A
Authority
JP
Japan
Prior art keywords
database system
head
pair
images
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009020568A
Other languages
English (en)
Other versions
JP4928572B2 (ja
Inventor
Comaniciu Dorin
コマニチ ドリン
Thorsten Kohler
コーラー トルステン
Binglong Xie
シー ビンロン
Ying Zhu
ズー イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corporate Research Inc
Original Assignee
Siemens AG
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corporate Research Inc filed Critical Siemens AG
Publication of JP2009150900A publication Critical patent/JP2009150900A/ja
Application granted granted Critical
Publication of JP4928572B2 publication Critical patent/JP4928572B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Air Bags (AREA)

Abstract

【課題】リアルタイムの頭部ポーズ検出において使用するためのデータベースシステムを提供すること。
【解決手段】個人の頭部のイメージの対および別の個人の頭部のイメージの対を受信するための各手段と、イメージの各対において構成要素のセットを識別するための手段と、識別された各構成要素に所属するデータに索引付与するための手段と、索引付与された前記データをデータベースに記憶するための手段と、識別された各構成要素に関連する複数のフィーチャを定義するための手段と、各構成要素の肯定的な構成要素例を最も良好に判別するフィーチャのサブセットを決定するための手段戸を有するデータベースシステム。
【選択図】図5

Description

本発明は、リアルタイムの頭部ポーズ検出において使用するためのデータベースシステムに関する。
人の有無を検出するための認識アルゴリズムが数多く存在する。顔のみが検出されるケースが幾つかあれば、別の例では、人の身体全体が検出される。このような検出アルゴリズムは数多くのアプリケーションで使用され、たとえばドライバモニタリング、ユーザ識別、および車両の乗員に関する情報を供給するためのアプリケーションで使用されるが、これらのアプリケーションに制限されない。後者の例では、乗員検出および乗員に関する情報は、エアバッグ展開等の車両の制御面で使用される。
乗員の有無が検出される場合、エアバッグを展開する必要があるか否かに関して初期の決定が行われる。占有されていない座席では、エアバッグを展開する必要がない。さらに、乗員のサイズおよびダッシュボードに対する該乗員の相対的な位置が検出される場合、エアバッグの設定を調節して、乗員に対する保護の適切な程度を供給することができる。たとえば、乗員が子供であるかまたはダッシュボードの近傍に着席している場合、エアバッグを調節して、大人またはダッシュボードから適正な距離に着席する乗員より小さい量の力で展開することができる。
ドライバモニタリングの場合、別の有利なアプリケーションに、ドライバ等の車両乗員の頭部ポーズを検出するアプリケーションがある。頭部ポーズに属する情報を使用して、ドライバの状態に関して想定を行うことができる。たとえば頭部が傾斜している場合、このことはドライバが居眠りをしているか、または運転能力を失っていることを示唆する。また、頭部が方向転換している場合、このことはドライバが道路に注意していないことを示唆する。頭部ポーズの推定は、1つまたは複数のビデオストリームから人間の頭部のポーズの発見を扱う。ここでの問題は、顔検出に関連する。というのも顔の位置が既知であれば、ポーズを検出するのが比較的簡単になるからである。また、ポーズが既知であれば、顔を検出するのも比較的容易になる。2つ以上のカメラを使用する場合、異なるビデオストリームからの情報の融合によって、頭部ポーズ推定の重要なソースが表される。
頭部ポーズを推定するための最も普通のアプローチは、フィーチャポイントベースの手法、マルチビュー法および顔の3次元(3D)モデリングによるものである。フィーチャポイントベースの手法はフィーチャベース幾何法(feature-based geometrical method)とも称され、顔の目印ポイントの位置決定を行い、これらの目印ポイントの位置から顔の方向を計算することを目的とする。一般的な顔モデルがすべての顔に対して想定され、顔対称性および比のコンシステンシーが考慮される場合、2次元(2D)のフィーチャポイント情報だけでポーズを推定することができる。幾つかの手法では、目および口の近傍のポイントとこれらのポイントの同一平面の制約とを使用して、ポーズを推定する。別の手法では、目の近傍の領域に所属するポイントと鼻の先端のポイントとを使用するだけである。
別のアプローチでは、3Dの目印位置を計算するための多重カメラが含まれる。ここで重要な問題とされているのは、フィーチャポイントを精確に位置検出し、一致関係の誤りを最小にして、精確な3D位置を形成することである。フィーチャポイント検出を行う際には、テンプレートマッチング、ウェーブレット分析、またはさらに複雑な検出手段が使用される。これらの手法を使用することによって連続的なポーズ推定が可能になるが、人の顔が表情を変える場合、合成できるフィーチャポイントを位置検出するのは困難である。さらに、このような技術を複数回行うことで、フィーチャポイントを手動で初期化する必要がある。
頭部ポーズを検出するために通常使用される別のアプローチに、マルチビューベースの手法がある。マルチビューベースの手法は外観学習ベース法(appearance learning based method)とも称され、顔全体を高次元空間内のベクトルとして扱い、フィーチャポイントを見つける必要がない。訓練用の顔例は離散的な観察面で収集され、たとえば0°、10°、20°等の偏揺れ角度で収集される。各観察面またはポーズは、異なる人および異なる照明条件から得られる。このようにすると、このタスクは観察面分類の問題に簡略化される。異なる外観学習法を使用して、異なる観察面を判別することができる。
幾つかのケースでは、サポートベクトルマシン(SVM)を使用して観察面を分類する。別の手法では、サブスペース変換が行われる。大幅なポーズ変化を伴う顔認識を解く場合、アプローチの1つに、まず顔のポーズを検出した後、観察面ごとの固有空間を使用して顔を認識するアプローチがある。主成分分析(PCA)を各観察面に対して適用することにより、観察面ごとに固有空間を得た後、入力イメージを各観察面の固有空間に投影して、最小の残留エラーを有する観察面を、入力された顔の推定上のポーズとする。一般的にマルチビューアプローチは、ステレオ情報を必要としない。しかし、このような学習法は、多数のポーズ分類された例を有する大きな訓練データベースを必要とする。
3次元モデルベースの手法は、合成による分析(analysis by synthesis)とも称され、通常は一般的な3Dの顔/頭部のモデルを想定する。入力されたイメージは、モデルと繰り返しマッチングされ、こうすることによってマッチングエラーを最小にする。ただし、このモデルは特定の人に適合しているものでも適合していないものでもよい。プロシージャが収束すると、ポーズが求められる。3次元モデルベースの手法は、典型的には多数のフィーチャポイントを使用する。これらの手法では、測定されたポイント位置にノイズが含まれることを想定しており、モデルと繰り返しマッチングする場合、この方法はさらにロバストになる。一致プロシージャが収束した場合、この結果は精確である。しかし、これらの手法は計算上高コストであり、非常に低速であり、良好な初期化を行わないとターゲットを完全に見失うことがある。
本発明の課題は、リアルタイムの頭部ポーズ検出において使用するためのデータベースシステムを提供することである。
前記課題は、
個人の頭部のイメージの対を受信するための手段を有し、該イメージの各対が表す頭部ポーズは異なり、
別の個人の頭部のイメージの対を受信するための手段を有し、別の個人それぞれのイメージの各対が表す頭部ポーズは異なり、
イメージの各対において構成要素のセットを識別するための手段と、
識別された各構成要素に所属するデータに索引付与するための手段と、
索引付与された前記データをデータベースに記憶するための手段と、
識別された各構成要素に関連する複数のフィーチャを定義するための手段と、
各構成要素の肯定的な構成要素例を最も良好に判別するフィーチャのサブセットを決定するための手段
とを有するデータベースシステムによって解決される。
頭部ポーズを推定し、および/または車両内の乗員を検出するための、本発明によるシステムのシステムブロック図である。 本発明にしたがって、本システムの学習フェーズ中およびリアルタイム検出中に収集されるイメージおよびステレオ構成要素を図解するための例である。 頭部ポーズを検出するために使用されるステレオ構成要素を備えたデータベースを訓練するための、本発明によるステップを示すフローチャートである。 頭部ポーズを検出するための、本発明によるステップを図解するフローチャートである。 乗員を検出するための本発明によるシステムを図解する概略図である。 本発明の占有状態検出にしたがって、ステレオ検出器を共同で訓練する方法を図解するブロック図である。 本発明にしたがって乗員を検出してポーズを推定する方法の実施に関するフローチャートである。 連結された本発明による身体モデルを示す図である。 個人の頭部と、本発明にしたがって特定の頭部ポーズを表す動きの可能な範囲とを示す図である。 2つのカメラによって取り込まれた本発明によるイメージの対と、イメージ対においてステレオ構成要素を識別する、本発明による方法とを示す図である。 頭部ポーズを検出するための、本発明による方法を示す概略図である。
本発明は、個人の頭部ポーズを検出するためのデータベースシステムに関する。人のイメージの対をステレオカメラの対から取り込み、このイメージの対を同時にスキャンし、該イメージの対において少なくとも1つの構成要素を位置検出する。少なくとも1つの構成要素に対してそれぞれ、3次元(3D)位置を計算し、これらの3D位置を使用して頭部ポーズを推定する。
本発明の別の側面では、訓練されたステレオ検出器によってデータベースにロードし、リアルタイムの頭部ポーズ検出で使用するためのシステムおよび方法を開示する。個人の頭部のイメージの対を受信し、その際には、イメージの各対が表す頭部ポーズは異なる。別の個人の頭部のイメージの対も受信し、その際には、イメージの各対は異なる頭部ポーズを表す。構成要素のセットを、イメージの各対ごとに識別し、識別された各構成要素に所属するデータに索引を付与し、索引付与されたデータをデータベースに記憶する。識別された各構成要素に所属する複数のフィーチャを定義し、各構成要素ごとに、肯定的な構成要素例を最良に判別するフィーチャのサブセットを決定する。
本発明の別の側面によれば、車両の乗員を検出するためのシステムおよび方法を開示する。人のイメージの対を、ステレオカメラの対から取り込む。イメージの対の第1のイメージ内で強い応答の位置が検出され、該イメージの対の第2のイメージにおいて相応の領域が位置検出される。頭部および肩部の構成要素が検出されたか否かに関して決定が行われ、頭部および肩部の構成要素が検出されると、該頭部および肩部の構成要素はステレオマッチングのための初期のマッチングポイントとして使用される。頭部および肩部の構成要素でステレオマッチングが行われ、一致情報が得られる。この一致情報は、検出モジュールへフィードバックされる。この一致情報を使用して検出情報が生成され、一致情報と検出情報との間で収束が得られるまで、一致情報は連続的に検出モジュールへ供給される。この検出情報に基づいて、乗員が存在するか否かが決定される。
本発明は、ステレオ検出器を使用して乗員および該乗員の頭部の位置またはポーズを検出するためのシステムおよび方法に関する。図1は、ステレオ検出器を使用して乗員および頭部ポーズを検出するための、本発明によるシステムの上位のブロック図である。このようなシステムをたとえば車両において使用し、乗員の有無または車両のドライバおよび/または乗員に関する別の情報を検出することができる。当業者であれば、監視または安全性に関わるアプリケーション等の別の環境において本発明を使用できることが理解できる。
本発明は図1に示されているように、カメラ102,104によって取り込まれた2つのステレオ構成要素間の相関関係を利用する。ステレオ構成要素は、該システムによって検出された肯定的なフィーチャの対であり、乗員の有無および頭部ポーズの双方を検出するために使用される。ステレオ構成要素の例には、左目、右目、鼻、口、左耳および右耳のステレオイメージが含まれる。
ステレオカメラ102,104は相互に相対的な既知の角度および位置で配置され、特定のターゲットを取り込むように方向づけられる。この特定のターゲットは、たとえば車両のドライバである。2つのカメラ102,104間の位置関係が既知であることにより、これらのカメラによって取り込まれたイメージを分析して、複数のステレオ構成要素を検出できる。これらのステレオ構成要素は、各カメラの観察面に対して相対的に、特定のステレオ構成要素の予測上のパースペクティブに基づいて、対としてまとめられる。
たとえば、ドライバがカメラ102に直接面している場合、検出されるステレオ構成要素、たとえば該ドライバの鼻は、正面の観察面に現れる。しかし、カメラ104によって取り込まれる同一のステレオ構成要素(鼻)のイメージは、横顔の観察面として現れる。ステレオ構成要素のデータを対としてまとめることにより、ドライバの頭部ポーズを検出することができる。このデータをさらに分析し、さらにアクションをとるべきか否かを決定することができる。たとえばこのデータが、たとえば居眠りまたは運転能力を失ったためにドライバが運転に注意していないことを示唆する場合、プロセッサ106は警報をトリガして鳴らし、ドライバの注意を道路に集中させるようにすることができる。
異なるポーズを有する人の頭部のデータベース108が、ステレオ構成要素の肯定的な例を形成するために使用される。このような種々の肯定的な例は共同して、構成要素の外観をとらえ、ステレオ対相互間の固有の関係をとらえる。ステレオ構成要素間の依存性を利用することにより、この技術によって、2つのカメラを独立して使用する場合より高い信頼性の検出を行うことができる。データベース108には訓練データがロードされ、この訓練データは、リアルタイムの頭部ポーズ検出中に使用される。ブースティング等の学習技術がプロセッサ106によって使用され、クラシファイア(分類手段)が形成され、これによって肯定的な対と否定的な例とが判別される。図2Aおよび2Bには、プロセッサ106によって学習ステージ中に集められるデータと、リアルタイム検出中に取り込まれるイメージとが示されている。データベース108に、訓練されたクラシファイアがロードされ、これらのクラシファイアはリアルタイムの頭部ポーズ検出中に使用される。リアルタイム検出中には、ステレオカメラ102,104によって捕捉された2つのビデオフレームが、訓練中に指定されたステレオ構成要素に対して探索される。ステレオ構成要素間の依存性を利用することにより、この技術で行われる検出は、2つのカメラを独立して使用する場合よりもさらに高い信頼性を有するようになる。
図3を参照すると、データベース108を訓練するための本発明によるステップを示すフローチャートが記載されている。多数の異なる頭部ポーズをとって、個人の頭部のイメージの対が取り込まれる(ステップ302)。この訓練ステージでは、ステレオ構成要素を識別し、該ステレオ構成要素に索引付与する必要がある。図5に示されたのと類似するセットアップを使用して、イメージ対は取り込まれる。当業者であれば、カメラを実際の車両に設置するか、シミュレートして車両内のカメラの位置および相対的な配置を模擬できることが理解できる。
個人の頭部のイメージの対(すなわち、各カメラから同時に撮影された各1つのイメージ)は、所定の数および所定の種類の頭部ポーズで取り込まれる。頭部ポーズは、図9に示されているように、動きの3つの一般的な方向によって定義される。動きの第1の方向は、頭部が垂直軸を中心として回転する偏揺れ方向である。典型的には、0°の角度が正面観察面として定義される(ここでは、個人は車両のフロントガラスに直接面している)。矢印902によって示されたような頭部の各偏揺れ角(たとえば、−90°〜+90°の間の角度)は、異なるポーズを意味する。
考えられる動きの第2の方向は、矢印904によって示されたような、頭部の縦揺れである。この縦揺れは、横軸を中心とする回転に相応する。縦揺れの基準となる0°の角度は、頭部が前方を向いている場合である。頭部の縦揺れ(たとえば、−90°〜+90°)は、異なるポーズを意味する。
考えられる動きの第3の方向は、矢印906によって示されたような、頭部の横揺れである。動きのこの方向は、長手軸を中心とする回転に相応する。基準となる0°の角度は、直立状態の顔に相応する。頭部の横揺れ(たとえば、−90°〜+90°)は、異なるポーズを意味する。
特定の個人の各所望のポーズごとにイメージの対が撮影された後、別の個人のイメージの同様のセットが撮影される(ステップ304)。このことは、各個人ごとに同じポーズが撮像されることを意味する。すべての訓練イメージが取り込まれ、データベース108に記憶された後、イメージの各対が分析されてステレオ構成要素のセットが識別される(ステップ306)。上記で説明したように、構成要素は顔の区別フィーチャであり、たとえば左目、右目等である。ステレオ構成要素の識別は、各構成要素に正方形によってマーキングすることにより、手動で行われる。このことは図2Bに示されている。
構成要素の各対が識別されると、該構成要素に所属する相応のデータに索引付与され、該データはデータベース108に記憶される(ステップ308)。索引付与されたデータはとりわけ、上記の3つの特性によって定義されたような種類の構成要素および頭部ポーズを含むことができる。識別された構成要素の各対は、肯定的な例とも称される。肯定的な例が識別された後、否定的な例または非構成要素が収集され、データベースに記憶される(ステップ310)。非構成要素は、構成要素として識別されなかった頭部のフィーチャ、または人間以外のオブジェクトのイメージである。
肯定的な例に関して、各構成要素対に対して複数のフィーチャが定義される(ステップ312)。典型的には、各構成要素はたとえば、該構成要素に所属する50,000個のフィーチャを有する。フィーチャの強さを、構成要素を識別する際の有用性の点で決定するため、各フィーチャに対して1つの値が関連づけられる。値が高いほどフィーチャは強い。ブースティング等の技術を使用して、肯定的な例と否定的な例とを判別するために使用されるフィーチャのサブセットを識別することができる(ステップ314)。たとえば、1つの構成要素が50,000個のフィーチャを有する場合、サブセットは100〜200個のフィーチャを有する。各構成要素に対するフィーチャのサブセットが識別された後は、テスト用基準または強いクラシファイアを、各構成要素に対して定義することができる(ステップ316)。
テストはイメージの各対ごとに行われ、イメージ対に存在する肯定的な例またはステレオ構成要素が識別される。所定のサイズのウィンドウを使用して、イメージ中の画素の一部がサンプリングされる。このことは図10に示されている。ウィンドウ1006が第1のイメージ1002内に配置され、アルゴリズムを使用して、該ウィンドウ1006において特定の構成要素に相応するフィーチャスコアが計算される。このフィーチャスコアが所定の閾値を上回る場合、ウィンドウは構成要素を含む(すなわち、肯定的な例である)ことが検出される。フィーチャスコアが所定の閾値を下回る場合、ウィンドウは特定の構成要素を含んでいないと検出される。ウィンドウは隣接する空間1006aへ、小さいステップサイズだけスライドされ、フィーチャスコアが再び計算される。ウィンドウが特定の構成要素の存在を示す場合、第2のウィンドウ1008が対の第2のイメージ1004内に配置され、ステレオ構成要素が見つけられる。スライドされるウィンドウは、隣接する位置にオーバラップすることができる。
同様のプロシージャが第2のウィンドウ1008によって、肯定的なスコアに到達するまで実行される。当業者であれば、第2のウィンドウ1008の配置に関して、評価される構成要素に基づいて制約を定義できることが理解できる。たとえば構成要素が左目である場合、該構成要素が第1のイメージ1002において識別された後は、両イメージの相互関係に起因して、探索すべき第2のイメージ1004の領域が必然的に制約される。このようにして、第1のイメージの左上の象限において左目が位置検出された場合、第2のイメージ中の既知の領域を決定して、この領域で、構成要素を同様に見つけることができる。本発明において制約を使用することにより、ステレオ構成要素を識別するために必要な計算量を格段に低減することができる。
当業者であれば、構成要素が異なれば、該構成要素に関連する制約が異なるようにすることを想到できる。このような制約は、構成要素の特性および両イメージの相互関係の双方によって定義される。同様に、1つの構成要素が識別された後、別の構成要素を位置検出するためにさらに制約を適用することができる。たとえば左目が識別された場合、人の鼻を位置検出するのを支援するために制約を定義することができる。
フィーチャ評価に関しては、構成要素を評価することにより、構成要素のどのような組み合わせが頭部ポーズを識別するのに最も強い判別手段であるかが決定される。最も強い判別手段に関するデータはデータベースに記憶され、リアルタイム検出で使用される。これらの構成要素は検出フェーズで、個人の頭部をリアルタイムイメージで検出し、頭部ポーズを検出するために使用される。検出された頭部を計算するために、第2のレベルの処理が行われる。ここでは、異なる顔構成要素に対する第1のレベルのステレオ検出器の応答が融合され、たとえば別の学習アルゴリズムを使用して、顔ポーズが推定される。
図4を参照すると、頭部ポーズを検出するための本発明によるステップを図解するフローチャートが示されている。車両内に配置されたカメラの対によって取り込まれたイメージの各対ごとに、該イメージはウィンドウによってスキャンされ、フィーチャスコアが上記のように計算され、ステレオ構成要素のサブセットが識別される(ステップ402)。構成要素のサブセットが識別された後は、所与のイメージ内で各構成要素の位置が検出される(ステップ404)。
図11は、イメージの対1102,1104、および該イメージの対で検出されたステレオ構成要素1106,1108の対を図解する概略図である。各構成要素対1106,1108の位置は三角測量によって検出され、個人1112の実際の位置が検出される(ステップ406)。同様に、この三角測量によって特定の構成要素1110の実際の位置が得られる。個人の頭部1112の奥行および位置を検出し、検出された構成要素をそれぞれ、頭部1112上に位置付けすることにより、個人の頭部ポーズを検出することができる(ステップ408)。
本発明の別の実施形態によれば、マルチビュー学習技術を使用して、顔の異なるポーズに関連して視差マップを学習することができる。この視差マップは、強度イメージに直接適用することができる。しかし強度イメージは、照明条件および陰影が異なるのに伴って大きく変動するので、学習の効率は低減してしまう。視差マップを学習する利点は、照明の変化に対して頑強であることだ。
訓練ステージでは、顔の視差マップを得るために、既知のポーズを使用して、3Dの顔モデルを所望の観察面へ計算によって回転させるか、または実際の訓練用のデータを使用する。視差マップは、個人の構成要素に関する奥行情報と、個人の頭部の位置および頭部ポーズを決定するのに使用されるデータとを供給する。イメージの各対に対して生成された視差マップは、異なる表面ポイントおよび該表面ポイントの奥行の相関関係に基づいて構成要素を識別する。アダブースティング(AdaBoosting)等の学習技術を使用して、1つの観察面と他のすべての観察面とを判別することができる。専用のポーズにそれぞれ適した、異なるポーズ検出器のセットが得られる。
検出ステージでは、視差マップが粗から細へと形成される。こうするために可能な手段は、マルチスケールオプティカルフロー法(multi-scale optical flow method)の修正バージョンを使用して視差マップを得ることである。粗い頭部位置は視差マップに得られており、たとえば頭部は背景よりもカメラの方に近接しているので、ポーズ推定は小さい探索領域に制限される。視差マップは、離散的なポーズ検出器のバンクへ供給され、ポーズ検出器の応答は融合されて、ポーズ推定が得られる。
頭部ポーズの検出の他に付加的に、本発明は、ステレオ検出器の共同訓練に基づいて行う乗員検出にも関する。このような技術は、車両の乗員を検出し、検出された乗員に関する情報を得るために使用される。この情報はたとえば、エアバッグ展開を調節するために使用される。図5に、車両内部の乗員を検出するためのシステムのセットアップの一例が示されている。対のカメラ504,506は、潜在的な乗員502のいずれかの側部に配置されている。乗員は、ドライバまたは車両内の同乗者である。エアバッグ508は、車両のダッシュボード(図示されていない)に取り付けられている。カメラ504,506は、乗員のイメージを取り込む。
相互に相対的な双方のカメラの構成、および乗員502の位置に対して相対的なカメラの構成は既知であるから、乗員のステレオイメージを収集し、対としてまとめて、該乗員に関する情報を供給することができる。このような情報には、乗員の有無、乗員の大きさ、およびダッシュボードに対する乗員の相対的位置が含まれる。共同訓練は、イメージのステレオ対相互間の相関関係を構成要素検出器にエンコードするために使用される。
カメラの対を使用すると、該対の間の相関関係によって、たとえば乗員等のオブジェクトクラスに付加的な制約が課される。より詳細には、カメラ504,506を次のように構成することができる。すなわち、顔がカメラ504の正面観察面に現れた場合、カメラ506はこの顔を横顔観察面でとらえるように構成することができる。両カメラ504,506が、横顔観察面または正面観察面を同時に観察することはできない。このようにして、共同的な外観はカメラのセットアップによって制約される。相関付けられた外観を共同で処理することにより、別個の外観検出器の性能を拡大することができる。
本発明は、ステレオ検出器をステレオ例から学習するための共同訓練方法に関する。この共同訓練方法は、図6に示されている。オブジェクト例602,604が、ステレオ対のイメージから収集される。ブースティングによる共同訓練で使用されるフィーチャセットX=X ∪ Xが、(左、右)イメージ対から抽出されたフィーチャセット(X,X)の統合体として定義される。非対象例または否定的な対606,608が、乗員以外のイメージまたは背景イメージから取られる。このようなカメラ構成により、オブジェクト外観の複数の不適切な組み合わせが否定的な例に含まれ、ステレオセットアップに起因する制約が強くなる。
ブースティングによる訓練610により、ステレオオブジェクト検出器は、ブースティングされたクラシファイアによって実現される:
f(x,x)=オブジェクトまたは非オブジェクト (1)
ここで、(x,x)は共同で選択されたフィーチャである。XとXとの間の相関関係は、フィーチャの選択および決定の組み合わせでエンコードされる。ブースティングされたクラシファイアは線形に、弱い決定を組み合わせるので、最終的な決定は構成要素レベルで結合解除される:
f(x,x)=f(x)+f(x
すなわち、この処理は一方のイメージで実行された後、他方のイメージに移行される。ただ1つのカメラ検出とは対照的に、「構成要素」という用語は、異なるカメラによって観察された同一のオブジェクト部分の外観を指す。
本発明では、図7に、占有状態検出およびポーズ推定を実行するための方法を図解するフローチャートが示されている。ステレオ検出器を使用し、頭部‐肩部検出を使用して、乗員が車両内に存在するか否かを識別する。最初に、ステレオ構成要素に対するクラシファイアがステレオ検出器によって受信される。このクラシファイアは、入力されたオブジェクトイメージ対と比較され、乗員の頭部および肩部の有無が検出される(ステップ702)。人体の上体部分において、頭部および肩部によって定義された構成要素が、乗員イメージと背景イメージとを分類するために最も特徴的な情報を含む。
ステレオ検出器は、占有状態検出において頭部‐肩部領域を位置決定するために使用される。このステレオ検出器を訓練するために、ポーズ、髪型、顔の付属物、照明および人の間の相違の十分な変化を例示する、乗員イメージのステレオイメージ対が収集される。頭部‐肩部領域のイメージの対は手動で切り取られ、訓練データセットを形成するために整合される。ブースティングによる訓練を行うことにより、共同の強いクラシファイアが得られ、これによって対にある両イメージのフィーチャが組み合わされる。その後、検出が連続的に行われる。最初に、一方のイメージ内で強い応答の位置が位置検出される。次に、他方のイメージ内で相応の領域がチェックされる。両イメージ内の構成要素の位置間の一致関係は、例からも学習される。
頭部および肩部が検出されると、相応の頭部‐肩部イメージが、ステレオマッチングのための初期のマッチングポイントとして使用される。次に、ステレオマッチング704が実行される。これによって、視差/奥行マップが形成される。ステレオマッチングで得られた一致情報はその後、検出モジュールへフィードバックされ、これによって検出が改善される。この方法は、ステレオ検出とステレオマッチングとの間に収束が得られるまで、ステレオ検出器とステレオマッチングとの間で繰り返される。検出モジュールは、ステレオマッチングアルゴリズムに対して良好な初期化を実現し、マッチングモジュールによって得られた頭部‐肩部領域の一致関係では、検出モジュールに対して有用な制約が得られる。検出モジュールとマッチングモジュールとの間でインタラクションが実現されることにより、検出結果およびマッチング結果の双方がさらに改善される。乗員の有無が確認されると、ポーズ推定モジュール708は、身体の位置およびポーズ710等の別の有用な情報を検出する。
図8に示されたような、連結された身体モデル802が、ポーズ推定を求めるために使用される。この身体モデルは2つの部分を含み、頭部‐肩部分804および上体の胴体部分806を含む。連結された身体モデル802は、3次元空間で回転または並進等の剛性運動が行われ、複数の対象ポーズ(pose of interest)に焦点が配置される。これらの対象ポーズは、エアバッグ展開において注意深い制御を必要とする異常な身体位置を示す。たとえばこのような対象ポーズには、身体ポーズが前面に過度に近接しているケース、身体が過度に小さい(たとえば子供)ケース、または身体が傾斜しているケースが含まれる。
対象ポーズ(POI)を検出するためには、確率的なアプローチが使用される。頭部および肩部の外観、ステレオ一致関係、および視差/奥行マップが測定結果mであり、POIによって得られた測定結果の確率が、p(m|POI)によって確立される。多重の対象ポーズによって、多重的な特徴的属性としてモデリングされる。確率スコアp(m|POI)からポーズを決定するために、異なるポーズ推定基準を適用することができる。1つの例が、最大尤度(ML)推定である。ここでは、最大の確率を引き起こす特定のポーズが身体ポーズとして決定される。
乗員および頭部ポーズを検出および追跡する方法の実施形態を説明したが、当業者であれば上記の思想を鑑みて、修正および変更を行えることを述べておく。したがって、ここに開示された特定の実施形態で、添付された請求の範囲で定義された本発明の範囲および思想に沿った変更を行えることが理解できる。特許法で要求されている詳細な説明によって本発明を説明したが、文書によって請求され特許による保護が要求されている事項は、添付の請求の範囲に記載されている。

Claims (16)

  1. リアルタイムの頭部ポーズ検出において使用するためのデータベースシステムにおいて、
    個人の頭部のイメージの対を受信するための手段を有し、該イメージの各対が表す頭部ポーズは異なり、
    別の個人の頭部のイメージの対を受信するための手段を有し、別の個人それぞれのイメージの各対が表す頭部ポーズは異なり、
    イメージの各対において構成要素のセットを識別するための手段と、
    識別された各構成要素に所属するデータに索引付与するための手段と、
    索引付与された前記データをデータベースに記憶するための手段と、
    識別された各構成要素に関連する複数のフィーチャを定義するための手段と、
    各構成要素の肯定的な構成要素例を最も良好に判別するフィーチャのサブセットを決定するための手段とを有することを特徴とする、データベースシステム。
  2. 各頭部ポーズは偏揺れ角度によって定義される、請求項1記載のデータベースシステム。
  3. 各頭部ポーズは縦揺れ角度によって定義される、請求項2記載のデータベースシステム。
  4. 各頭部ポーズは横揺れ角度によって定義される、請求項3記載のデータベースシステム。
  5. 撮像された各個人において、同じセットの頭部ポーズを受信する、請求項1記載のデータベースシステム。
  6. 構成要素のセットは、手動で識別される、請求項1記載のデータベースシステム。
  7. 非構成要素の対を受信するための手段を有する、請求項1記載のデータベースシステム。
  8. 各フィーチャに対して、該フィーチャの強さを決定する値が割り当てられる、請求項1記載のデータベースシステム。
  9. フィーチャセットのサブセットを決定するための前記手段は、ブースティングを使用する、請求項1記載のデータベースシステム。
  10. フィーチャのセットを識別するための前記手段は、視差マップを使用する、請求項1記載のデータベースシステム。
  11. イメージの各対をテストして、該イメージ内のステレオ構成要素を識別するための手段を有する、請求項1記載のデータベースシステム。
  12. 構成要素のセットは左目に相応する、請求項1記載のデータベースシステム。
  13. 構成要素のセットは右目に相応する、請求項1記載のデータベースシステム。
  14. 構成要素のセットは鼻に相応する、請求項1記載のデータベースシステム。
  15. 構成要素のセットは右耳に相応する、請求項1記載のデータベースシステム。
  16. 構成要素のセットは左耳に相応する、請求項1記載のデータベースシステム。
JP2009020568A 2003-11-21 2009-01-30 リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム Expired - Fee Related JP4928572B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US52442803P 2003-11-21 2003-11-21
US52442903P 2003-11-21 2003-11-21
US60/524,429 2003-11-21
US60/524,428 2003-11-21
US10/991,684 2004-11-18
US10/991,684 US7508979B2 (en) 2003-11-21 2004-11-18 System and method for detecting an occupant and head pose using stereo detectors

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006541612A Division JP4873631B2 (ja) 2003-11-21 2004-11-22 ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2009150900A true JP2009150900A (ja) 2009-07-09
JP4928572B2 JP4928572B2 (ja) 2012-05-09

Family

ID=34637179

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2006541612A Expired - Fee Related JP4873631B2 (ja) 2003-11-21 2004-11-22 ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法
JP2009020568A Expired - Fee Related JP4928572B2 (ja) 2003-11-21 2009-01-30 リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム
JP2009020562A Expired - Fee Related JP4848022B2 (ja) 2003-11-21 2009-01-30 車両の乗員を検出する方法
JP2009020552A Expired - Fee Related JP4928571B2 (ja) 2003-11-21 2009-01-30 ステレオ検出器を訓練する方法
JP2009020559A Expired - Fee Related JP4991769B2 (ja) 2003-11-21 2009-01-30 イメージの対をテストする方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2006541612A Expired - Fee Related JP4873631B2 (ja) 2003-11-21 2004-11-22 ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2009020562A Expired - Fee Related JP4848022B2 (ja) 2003-11-21 2009-01-30 車両の乗員を検出する方法
JP2009020552A Expired - Fee Related JP4928571B2 (ja) 2003-11-21 2009-01-30 ステレオ検出器を訓練する方法
JP2009020559A Expired - Fee Related JP4991769B2 (ja) 2003-11-21 2009-01-30 イメージの対をテストする方法

Country Status (5)

Country Link
US (1) US7508979B2 (ja)
EP (1) EP1687754B1 (ja)
JP (5) JP4873631B2 (ja)
DE (1) DE602004013181T2 (ja)
WO (1) WO2005052851A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169958A (ja) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc 車両の乗員を検出する方法

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466841B2 (en) * 2004-08-16 2008-12-16 Siemens Corporate Research, Inc. Method for traffic sign detection
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
KR100630842B1 (ko) * 2005-06-08 2006-10-02 주식회사 현대오토넷 스테레오 영상 정합을 이용한 자동차의 탑승자 자세 판별시스템 및 그 방법
TW200719281A (en) * 2005-07-28 2007-05-16 Thomson Licensing Method and device for generating a sequence of images of reduced size
JP4657934B2 (ja) * 2006-01-23 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
US7646894B2 (en) * 2006-02-14 2010-01-12 Microsoft Corporation Bayesian competitive model integrated with a generative classifier for unspecific person verification
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP5176572B2 (ja) 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8917904B2 (en) * 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
JP4980988B2 (ja) * 2008-06-13 2012-07-18 トヨタ自動車株式会社 運転者状態推定装置
JP2010003251A (ja) * 2008-06-23 2010-01-07 Panasonic Corp 画像リサイズ処理装置及び画像リサイズ処理方法
KR101537948B1 (ko) * 2008-12-16 2015-07-20 삼성전자주식회사 얼굴 포즈 추정을 이용한 촬영 방법 및 장치
US8346800B2 (en) * 2009-04-02 2013-01-01 Microsoft Corporation Content-based information retrieval
US8339459B2 (en) * 2009-09-16 2012-12-25 Microsoft Corporation Multi-camera head pose tracking
WO2011081642A1 (en) * 2009-12-14 2011-07-07 Thomson Licensing Image pair processing
DE102010044449B4 (de) * 2009-12-31 2014-05-08 Volkswagen Ag Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs
US8582867B2 (en) * 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
JP5401440B2 (ja) * 2010-12-14 2014-01-29 本田技研工業株式会社 乗員頭部検知装置
JP5453230B2 (ja) * 2010-12-15 2014-03-26 本田技研工業株式会社 乗員検知装置
US8659643B2 (en) * 2011-01-18 2014-02-25 Disney Enterprises, Inc. Counting system for vehicle riders
JP6008417B2 (ja) * 2011-04-21 2016-10-19 いすゞ自動車株式会社 乗員状態検知装置
WO2012170898A2 (en) * 2011-06-09 2012-12-13 Utah State University Research Foundation Systems and methods for sensing occupancy
KR20130070340A (ko) * 2011-12-19 2013-06-27 한국전자통신연구원 모션인식에서 광흐름 처리 가속기 및 방법
US9517776B2 (en) * 2011-12-29 2016-12-13 Intel Corporation Systems, methods, and apparatus for controlling devices based on a detected gaze
RU2488882C1 (ru) * 2012-01-19 2013-07-27 Общество с ограниченной ответственностью "Вокорд СофтЛаб" Способ идентификации личности человека
US9235928B2 (en) 2012-01-24 2016-01-12 University Of Southern California 3D body modeling, from a single or multiple 3D cameras, in the presence of motion
US8687880B2 (en) 2012-03-20 2014-04-01 Microsoft Corporation Real time head pose estimation
WO2013162735A1 (en) * 2012-04-25 2013-10-31 University Of Southern California 3d body modeling from one or more depth cameras in the presence of articulated motion
US8867786B2 (en) * 2012-10-31 2014-10-21 Microsoft Corporation Scenario-specific body-part tracking
US11751123B2 (en) 2013-05-08 2023-09-05 Cellcontrol, Inc. Context-aware mobile device management
US10477454B2 (en) 2013-05-08 2019-11-12 Cellcontrol, Inc. Managing iOS-based mobile communication devices by creative use of CallKit API protocols
US10805861B2 (en) 2013-05-08 2020-10-13 Cellcontrol, Inc. Context-aware mobile device management
US10268530B2 (en) 2013-05-08 2019-04-23 Cellcontrol, Inc. Managing functions on an iOS-based mobile device using ANCS notifications
DE102013106347A1 (de) * 2013-06-18 2014-12-18 MULAG FAHRZEUGWERK Heinz Wössner GmbH & Co. KG Verfahren und Vorrichtung zur Überwachung der Augen des Fahrers
US9842266B2 (en) * 2014-04-04 2017-12-12 Conduent Business Services, Llc Method for detecting driver cell phone usage from side-view images
US9940727B2 (en) 2014-06-19 2018-04-10 University Of Southern California Three-dimensional modeling from wide baseline range scans
WO2015198540A1 (ja) 2014-06-23 2015-12-30 株式会社デンソー ドライバの運転不能状態検出装置
US10430676B2 (en) 2014-06-23 2019-10-01 Denso Corporation Apparatus detecting driving incapability state of driver
JP6372388B2 (ja) * 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
JP6431404B2 (ja) * 2015-02-23 2018-11-28 株式会社デンソーアイティーラボラトリ 姿勢推定モデル生成装置及び姿勢推定装置
US9569736B1 (en) * 2015-09-16 2017-02-14 Siemens Healthcare Gmbh Intelligent medical image landmark detection
US10223609B2 (en) * 2015-10-02 2019-03-05 The Regents Of The University Of California Passenger vehicle make and model recognition system
US9953217B2 (en) * 2015-11-30 2018-04-24 International Business Machines Corporation System and method for pose-aware feature learning
JP2017199302A (ja) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 判定装置、判定方法、判定プログラム及び記録媒体
US9686539B1 (en) * 2016-06-12 2017-06-20 Apple Inc. Camera pair calibration using non-standard calibration objects
US20180032638A1 (en) * 2016-07-27 2018-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Surface Analysis Systems and Methods of Generating a Comparator Surface Reference Model of a Multi-Part Assembly Using the Same
CN106231260B (zh) * 2016-08-02 2019-07-16 北京殷图网联科技股份有限公司 基于三维模型的变电站视频监控方法、装置以及系统
KR102070063B1 (ko) * 2017-01-18 2020-01-28 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP6737213B2 (ja) * 2017-03-14 2020-08-05 オムロン株式会社 運転者状態推定装置、及び運転者状態推定方法
JP6737212B2 (ja) * 2017-03-14 2020-08-05 オムロン株式会社 運転者状態推定装置、及び運転者状態推定方法
JP2018149990A (ja) * 2017-03-14 2018-09-27 オムロン株式会社 運転者の着座判定装置
US11178272B2 (en) 2017-08-14 2021-11-16 Cellcontrol, Inc. Systems, methods, and devices for enforcing do not disturb functionality on mobile devices
US11252323B2 (en) 2017-10-31 2022-02-15 The Hong Kong University Of Science And Technology Facilitation of visual tracking
US11040619B1 (en) * 2018-04-05 2021-06-22 Ambarella International Lp Limiting car behavior based on a pre-set driver profile enabled by face recognition
DE102019202302B3 (de) 2019-02-20 2020-01-02 Zf Friedrichshafen Ag Verfahren, Steuergerät und Computerprogrammprodukt zum Bestimmen einer Kopforientierung und/oder -position eines Fahrzeuginsassen
EP3776347A1 (en) * 2019-06-17 2021-02-17 Google LLC Vehicle occupant engagement using three-dimensional eye gaze vectors
DE102019209281A1 (de) * 2019-06-26 2020-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Merkmals eines Gesichts eines Insassen eines Fahrzeugs
CN110705468B (zh) * 2019-09-30 2022-08-30 四川大学 基于图像分析的眼动范围识别方法和系统
US11829128B2 (en) 2019-10-23 2023-11-28 GM Global Technology Operations LLC Perception system diagnosis using predicted sensor data and perception results
US11423567B2 (en) * 2020-06-17 2022-08-23 Fotonation Limited Method and system to determine the location and/or orientation of a head
KR102484771B1 (ko) * 2020-12-18 2023-01-05 네이버랩스 주식회사 학습 데이터 수집 장치 및 방법, 이를 이용한 포즈 추정 모델의 학습 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251534A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 人物認証装置及び人物認証方法
JPH1163927A (ja) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd 頭部位置・姿勢の計測装置および作業監視装置
JP2000097676A (ja) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP2001236141A (ja) * 2000-02-24 2001-08-31 Minolta Co Ltd 姿勢修正用装置
JP2001273488A (ja) * 2000-03-27 2001-10-05 Toshiba Corp 障害物検出装置
US6621491B1 (en) * 2000-04-27 2003-09-16 Align Technology, Inc. Systems and methods for integrating 3D diagnostic data
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
JP2002300603A (ja) * 2001-03-29 2002-10-11 Minolta Co Ltd 3次元入力のための撮影装置
JP2003022441A (ja) * 2001-07-06 2003-01-24 Minolta Co Ltd 領域抽出方法、領域抽出プログラム、領域抽出プログラムを記録したコンピュータ読取可能な記録媒体、および領域抽出装置
JP2003090714A (ja) * 2001-09-18 2003-03-28 Shigenori Tanaka 画像処理装置、及び画像処理プログラム
US7027618B2 (en) * 2001-09-28 2006-04-11 Koninklijke Philips Electronics N.V. Head motion estimation from four feature points
JP3758034B2 (ja) * 2001-10-30 2006-03-22 株式会社デンソー 車両用乗員保護装置
US6937745B2 (en) * 2001-12-31 2005-08-30 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
US7031499B2 (en) * 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
US7020337B2 (en) * 2002-07-22 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting objects in images
US8351647B2 (en) * 2002-07-29 2013-01-08 Videomining Corporation Automatic detection and aggregation of demographics and behavior of people
US20040037450A1 (en) * 2002-08-22 2004-02-26 Bradski Gary R. Method, apparatus and system for using computer vision to identify facial characteristics
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
US7379559B2 (en) * 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US7508979B2 (en) * 2003-11-21 2009-03-24 Siemens Corporate Research, Inc. System and method for detecting an occupant and head pose using stereo detectors
US7542592B2 (en) * 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
US7769228B2 (en) * 2004-05-10 2010-08-03 Siemens Corporation Method for combining boosted classifiers for efficient multi-class object detection
US7848566B2 (en) * 2004-10-22 2010-12-07 Carnegie Mellon University Object recognizer and detector for two-dimensional images using bayesian network based classifier
US7423540B2 (en) * 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251534A (ja) * 1996-03-18 1997-09-22 Toshiba Corp 人物認証装置及び人物認証方法
JPH1163927A (ja) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd 頭部位置・姿勢の計測装置および作業監視装置
JP2000097676A (ja) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP2000099741A (ja) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab 多眼画像処理による人物の三次元姿勢推定方法
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169958A (ja) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc 車両の乗員を検出する方法
JP2009169957A (ja) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc イメージの対をテストする方法

Also Published As

Publication number Publication date
JP2009169958A (ja) 2009-07-30
JP4928572B2 (ja) 2012-05-09
DE602004013181T2 (de) 2009-07-02
DE602004013181D1 (de) 2008-05-29
US20070183651A1 (en) 2007-08-09
EP1687754B1 (en) 2008-04-16
JP4873631B2 (ja) 2012-02-08
JP4848022B2 (ja) 2011-12-28
JP2009169957A (ja) 2009-07-30
WO2005052851A2 (en) 2005-06-09
JP4928571B2 (ja) 2012-05-09
JP4991769B2 (ja) 2012-08-01
JP2007518970A (ja) 2007-07-12
EP1687754A2 (en) 2006-08-09
WO2005052851A3 (en) 2005-08-04
US7508979B2 (en) 2009-03-24
JP2009103709A (ja) 2009-05-14

Similar Documents

Publication Publication Date Title
JP4873631B2 (ja) ステレオ検出器を使用して乗員および頭部ポーズを検出するためのシステムおよび方法
US10192126B2 (en) Behavior recognition apparatus, learning apparatus, and method
US7372996B2 (en) Method and apparatus for determining the position of a vehicle seat
US9886623B2 (en) User intention analysis apparatus and method based on image information of three-dimensional space
US20060291697A1 (en) Method and apparatus for detecting the presence of an occupant within a vehicle
US9405982B2 (en) Driver gaze detection system
US7609893B2 (en) Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
US7379195B2 (en) Device for the detection of an object on a vehicle seat
US6118887A (en) Robust multi-modal method for recognizing objects
US20050094879A1 (en) Method for visual-based recognition of an object
WO2003073359A2 (en) Method and apparatus for recognizing objects
WO2003091941A1 (en) High-performance object detection with image data fusion
JP2003015816A (ja) ステレオカメラを使用した顔・視線認識装置
Tsalakanidou et al. Integration of 2D and 3D images for enhanced face authentication
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
Krotosky et al. Real-time stereo-based head detection using size, shape and disparity constraints
Haselhoff et al. Radar-vision fusion for vehicle detection by means of improved haar-like feature and adaboost approach
Krotosky et al. Face detection and head tracking using stereo and thermal infrared cameras for" smart" airbags: a comparative analysis
Faber Seat occupation detection inside vehicles
Eren et al. Stereo vision and statistical based behaviour prediction of driver
US20090304263A1 (en) Method for classifying an object using a stereo camera
TWI447655B (zh) An image recognition method
Betta et al. Metrological characterization of 3D biometric face recognition systems in actual operating conditions
Nanda et al. Illumination invariant head pose estimation using single camera
Yoon et al. Vision based occupant detection system by monocular 3D surface reconstruction

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110418

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110421

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110523

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110526

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110613

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110621

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4928572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees